JP2005013363A - Image analysis apparatus - Google Patents

Image analysis apparatus Download PDF

Info

Publication number
JP2005013363A
JP2005013363A JP2003180257A JP2003180257A JP2005013363A JP 2005013363 A JP2005013363 A JP 2005013363A JP 2003180257 A JP2003180257 A JP 2003180257A JP 2003180257 A JP2003180257 A JP 2003180257A JP 2005013363 A JP2005013363 A JP 2005013363A
Authority
JP
Japan
Prior art keywords
region
image
image analysis
analysis apparatus
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003180257A
Other languages
Japanese (ja)
Inventor
Masakazu Yagi
雅和 八木
Sunao Shibata
直 柴田
Kenji Takada
健治 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cube Kk I
I CUBE KK
Original Assignee
Cube Kk I
I CUBE KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cube Kk I, I CUBE KK filed Critical Cube Kk I
Priority to JP2003180257A priority Critical patent/JP2005013363A/en
Publication of JP2005013363A publication Critical patent/JP2005013363A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately recognize a relatively complicated image by recognizing a similar image as similar image data in processing the similar image. <P>SOLUTION: This image analysis apparatus comprises a memory means 101 for storing a template group consisting of a plurality of first vectors, a cut-out means 102 for cutting out a first region from an inputted image, a moving means 103 for moving a first region within a second region, a converting means 104 for converting a partial image inside the first region to second vectors, an evaluation means 105 for calculating the correlation between the first vectors and second vectors and determining an evaluation value expressing the similarity between them, and a specifying means 106 for specifying a third region based on the evaluation value. The position of a characteristic point within the third region is determined by using the positional relation to a predefined origin in the third region, independently determined for each characteristic point. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像解析装置に関し、特に歯科医療用のX線画像などに代表される画像の特徴を抽出する画像解析に用いて好適なものである。
【0002】
【従来の技術】
従来、歯科医療用の頭部X線画像から、患者の解剖学的特徴点を認識するには、専門的な医学的訓練を受けた歯科矯正医等が当該頭部X線画像を観察して認識していた。
【0003】
頭部X線画像の一例を図34に示す。歯科矯正医等は、図中+で示す各解剖学的特徴点を認識することが必要である。ここで、各解剖学的特徴点のうち、 Nは前頭骨(額の骨)と鼻骨(鼻の付け根の骨)の接続点、Sは脳下垂体の中心の点、Orは左右眼窩(眼球を収める骨)の最下点の中点、MPoはイヤーロッド(外耳)の最も上の点、APoは耳の穴を真横から見たときの中央の点、L1は下の中切歯(1番前の歯)の先端、U1は上の中切歯(1番前の歯)の先端の点、Gnはオトガイの前方の点、Goは下顎角の点、Arは頭蓋底下縁の陰影像と下顎枝後縁との交点、Cdは顆頭の最上点、Baは大後頭孔の前縁上の最下方点、liは下唇の最突出点である。柔組織部分の解剖学的特徴点については白文字で示す。
【0004】
【特許文献1】
特願平10−326253号
【特許文献2】
特願2000−326158号
【非特許文献1】
Masakazu Yagi, Masayoshi Adachi, and Tadashi Shibata, ”A Hardware−Friendly Soft−Computing Algorithm for Image Recognition,” Proceedings of 10th European Signal Processing Conference (EUSIPCO 2000), pp. 729−732, Tampere, Finland, Sept. 4−8, 2000.
【非特許文献2】
Masakazu Yagi and Tadashi Shibata, ”A Human−Perception−like Image Recognition System based on PAP Vector Representation with Multi Resolution Concept,” in the Proceedings of 2002 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2002), Vol. I, pp.1041−1048, Florida, May 13−17, 2002.
【非特許文献3】
Masakazu Yagi, Tadashi Shibata and Kenji Takada, ”Optimizing Feature−Vector Extraction Algorithm from Grayscale Images for Robust Medical Radiograph Analysis,” in press in The Proceedings of Fourth International Conference on Multimedia and Image Processing (IFMIP 2002), Orland, June 9−13, 2002.
【非特許文献4】
Masakazu YAGI, Tadashi SHIBATA, and Kenji TAKADA, ”Human−Perception−Like Image Recognition System Based on the Associative Processor Architecture,” in the Proceedings of XI European Signal Processing Conference, Vol. I, pp. 103−106, Sep. 3−6, 2002 Toulouse, France
【非特許文献5】
Masakazu Yagi and Tadashi Shibata, ”An Associative−Processor−Based Mixed Signal System for Robust Image Recognition,” in the Proceedings of 2002 IEEE International SyMPosium on Circuits and Systems (ISCAS 2002), pp. V−137−V−140, Arizona, May 26−29, 2002.
【非特許文献6】
T. Yamasaki and T. Shibata, ”An Analog Similarity Evaluation Circuit Featuring Variable Functional Forms,” Proceedings of The 2001 IEEE International SyMPosium on Circuits and Systems (ISCAS 2001), pp. III−561−564, Sydney, Australia, May. 6−9, 2001.
【非特許文献7】
Toshihiko Yamasaki, Ken Yamamoto, and Tadashi Shibata, ”Analog Pattern Classifier with Flexible Matching Circuitry Based on Principal−Axis−Projection Vector Representation,” Proceedings of the 27th European Solid−State Circuits Conference (ESSCIRC 2001), Ed. by F. Dielacher and H. Grunbacher, pp. 212−215 (Frontier Group), Villach, Austria, September 18−20, 2001.
【非特許文献8】
T. Yamasaki and T. Shibata, ”Analog Soft−Pattern−Matching Classifier Using Floating−Gate MOS Technology,” Neural Information Processing Systems 14, in press.
【0005】
【発明が解決しようとする課題】
近年においては、患者の解剖学的特徴点の認識を自動的に実行してデータ化する要請が高まりつつある。しかしながら、歯科医療用の頭部X線画像の如き極めて煩雑且つ微妙な画像を正確且つ迅速に解析する画像解析技術は開発途上にあり、その速やかな実現が待たれる現況にある。
【0006】
本発明は、このような問題を解決するために成されたものであり、類似する画像を画像処理した際には、類似した画像データとして認識することを可能とし、比較的複雑な画像、特に歯科医療用のX線画像などに代表される画像の特徴を抽出する場合でも、正確且つ迅速に認識することができる画像解析装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明の画像解析装置は、特定の対象物の画像において予め定義された特定部位の位置を表す特徴点を入力画像の中から見つけ出し、前記特徴点の座標値を出力する画像解析装置であって、前記特徴点の各々に対して当該特徴点を表現する複数の第1のベクトルから成る少なくとも1つの第1のテンプレート群を記憶する手段と、前記入力画像の中から所定の大きさの第1の領域を切り出す手段と、前記第1の領域を、対象とする前記入力画像中の所定の大きさの第2の領域内で移動させる手段と、前記第1の領域内の部分画像を所定の手続きに従って第2のベクトルに変換する手段と、前記第1のベクトルと前記第2のベクトルとの間の相関演算を行い、前記特徴点の各々に対してその類似度を表す第1の評価値を決定する手段と、前記第1の評価値に基づいて前記特徴点を内部に含む前記第1の領域に対応する第3の領域を特定する手段とを含み、前記第3の領域内における前記特徴点の位置を、前記第3の領域内で予め定義された原点に対して各々の前記特徴点に独自に定められた相対位置関係を用いて決定する。
【0008】
本発明の画像解析装置は、特定の対象物の画像において予め定義された特定部位の位置を表す特徴点を入力画像の中から見つけ出し、前記特徴点の座標値を出力する画像解析装置であって、前記特徴点の各々に対して当該特徴点を表現する複数の第1のベクトルから成る少なくとも1つの第1のテンプレート群を記憶する手段と、前記入力画像の中から所定の大きさの第1の領域を切り出す手段と、前記第1の領域を、対象とする前記入力画像中の所定の大きさの第2の領域内で移動させる手段と、前記第1の領域内の部分画像を所定の手続きに従って第2のベクトルに変換する手段と、前記第1のベクトルと前記第2のベクトルとの間の相関演算を行い、前記特徴点の各々に対してその類似度を表す第1の評価値を決定する手段と、前記第1の評価値に基づいて前記特徴点を内部に含む前記第1の領域に対応する第3の領域を特定する手段と、少なくとも一つの前記特徴点に対し、その特徴点とは異なる画像を表現する第2のテンプレート群を用いてその非類似度を表す第2の評価値を求める手段と、前記第1の評価値及び前記第2の評価値の両方を用い、所定の特定手法により前記第3の領域を特定する手段とを含む。
【0009】
本発明の画像解析装置は、特定の対象物の画像において予め定義された特定部位の位置を表す特徴点を入力画像の中から見つけ出し、前記特徴点の座標値を出力する画像解析装置であって、前記特徴点の各々に対して当該特徴点を表現する複数の第1のベクトルから成る少なくとも1つの第1のテンプレート群を記憶する手段と、前記入力画像の中から所定の大きさの第1の領域を切り出す手段と、第2の領域を所定の領域分割の手法を用いて特定する手段と、前記第1の領域を前記第2の領域内で移動させる手段と、前記第1の領域内の部分画像を所定の手続きに従って第2のベクトルに変換する手段と、前記第1のベクトルと前記第2のベクトルとの間の相関演算を行い、前記特徴点の各々に対してその類似度を表す第1の評価値を決定する手段と、前記第1の評価値に基づいて前記特徴点を内部に含む前記第1の領域に対応する第3の領域を特定する手段とを含む。
【0010】
【発明の実施の形態】
以下、本発明を適用した好適な諸実施形態について図面を参照しながら詳細に説明する。
【0011】
(第1の実施形態)
−基本骨子−
図1は、第1の実施形態の画像解析装置の概略構成を示す模式図である。
この画像解析装置は、特定の対象物の画像において予め定義された特定部位の位置を表す特徴点を入力画像の中から見つけ出し、特徴点の座標値を出力するものである。本実施形態では、例えば入力画像として歯科医療用の頭部X線画像とし、例えば顔の目じりの点を認識する場合に、常に目じりの点を中心部とするのではなく、場合に応じて適宜中心部を設定する。一例としては、目の中央部位の点を当該中心部とする。ここで、顔の目じりのみならず、鼻先、口角等の部位を認識する場合もある。
【0012】
この画像解析装置は、特徴点の各々に対して当該特徴点を表現する複数の第1のベクトルからなる少なくとも1つの第1のテンプレート群を記憶する記憶手段101と、入力画像の中から所定の大きさの第1の領域を切り出す切出手段102と、第1の領域を、対象とする前記入力画像中の所定の大きさの第2の領域内で移動させる移動手段103と、第1の領域内の部分画像を所定の手続きに従って第2のベクトルに変換する変換手段104と、第1のベクトルと第2のベクトルとの間の相関演算を行い、特徴点の各々に対してその類似度を表す第1の評価値を決定する評価手段105と、第1の評価値に基づいて前記特徴点を内部に含む前記第1の領域に対応する第3の領域を特定する特定手段106とを含み構成されており、第3の領域内における特徴点の位置を、第3の領域内で予め定義された原点に対して各々の特徴点に独自に定められた相対位置関係を用いて決定する。
【0013】
記憶手段101は、定められた相対位置関係を常に用いた学習を行うことにより、第1のテンプレート群を構成する第1のベクトルを作成する機能を有し、画像情報のエッジ情報を利用する。このとき、エッジ情報を抽出する際に、画像情報のメディアン値を用いるようにしても良い。また、第1の領域の形状が少なくとも一つの特徴点について他の特徴点のものと異なっているように構成しても良い。
【0014】
変換手段104は、エッジ情報を抽出する際に、例えば第1の領域内における所定の大きさの第4の領域内の情報のメディアン値を用いる。この変換手段104を用いる際には、その処理中に所定の集積回路を利用し、処理効率を向上させるようにしても好適である。同様に、決定手段105も、これを用いる際には、その処理中に所定の集積回路を利用し、処理効率を向上させるようにしても良い。
【0015】
本実施形態の画像解析装置は、例えば医用X線画像、特に歯科医療用のX線画像に適用し、特徴点として医学的に予め定義された所定特徴点を見つけ出す。所定特徴点として、ソフトティッシュー(柔組織)上の点を含む。ここで、ソフトティッシューとは、筋肉や脂肪等の骨以外の柔かい組織である。
【0016】
所定特徴点(ここでは解剖学的特徴点)として、例えばPoint A やPoint Bを見つけることが考えられる。また、所定特徴点として、N(Nasion)を見つけることが考えられる。この場合、所定特徴点としてNを見つける際に、Nを含む第1の領域において骨部分が白く背景部分が黒い均質に近い画素値であることを利用する。また、所定特徴点として、S(Sella)を見つけることが考えられる。この場合、所定特徴点としてSを見つける際に、まず所定の解像度で見つけ出し、所定の解像度よりも高解像度且つ高精度で見つけ出す。更に、所定特徴点としてSを見つける際に、Sの部分的特徴を利用して認識する。また、所定特徴点としてOr(Orbitale)を見つけることが考えられる。更に、所定特徴点としてMPo及び/又はAPoを見つけることが考えられる。所定特徴点としてMPo及び/又はAPoを見つける際には、歯科医療用のX線画像を2値化して見つける。更に、所定特徴点としてL1やU1を見つけることが考えられる。所定特徴点としてL1やU1を見つける際には、歯のエナメル質情報を利用する。また、所定特徴点としてU1を見つける際に、各々の特徴点それぞれ独自に定められた相対位置関係として対象とする点を第3の領域内の右上領域にする。
【0017】
−具体的な実施例−
図2は、第1の実施形態の画像解析装置を示す模式図である。
この画像解析装置は、入力画像内の所定の位置に対応して定義された領域(x,y)の画像データが取り出され、この画像データをベクトル表記するベクトル生成部1と、参照パターンを少なくとも1つ含むパターングループを複数有する記憶部2と、ベクトル化された画像データと各パターングループに含まれる各参照パターンとを照合し、各参照パターン毎についての画像データとの類似度を評価する類似度演算部3と、類似度の各評価値に所定の演算を施して少なくとも1つの評価値を決定するウィナー・テーク・オール(Winner Take All)回路4とを含む。但し、ここで必ずしもウィナー・テーク・オール回路を利用するとは限らない。また、必ずしも1つの評価値だけを取り出すとは限らず、場合によっては複数個決定することもあり得る。
【0018】
記憶部2は、パターングループとして例えば15個の第1のテンプレート群を持つ。但し、テンプレート数は15個に限定されず、100でも1000でも良い。また、数多くのサンプル群に対して学習アルゴリズムを適用し、テンプレート数を減少させるということも可能である。それぞれの第1のベクトルは、後述するPAP(Principal Axis Projection)手法(特許文献1参照)によって生成されたベクトル表現である。ここで、テンプレートが保持するベクトル表現は必ずしもこのようなX線画像であるとは限らず、また部分画像からベクトル表現への変換はPAP手法である必要はない。
【0019】
この画像解析装置では、先ず、与えられた入力画像における第2の領域内で検索処理を行う(ステップ1)。次に、与えられた入力画像における基準座標(x,y)を内部に持つ64×64ピクセルのサイズの第1の領域に含まれる部分画像を切り出す(ステップ2)。ここで、部分画像における(x,y)の位置は必ずしも中心であるとは限らず、認識対象に特化して変更される。また、切り出す大きさも必ずしも64×64であるとは限らない。
【0020】
そして、その部分画像をベクトル生成部2に入力し 、PAP手法(非特許文献1〜4参照)によりベクトル表現に変換する(ステップ3)。ここで、2次元の部分画像からベクトル表現に変換する際に必ずしもPAP手法を利用するとは限らない(2次元画像からのベクトル表現生成手法)。
【0021】
入力画像から切り出された部分画像から生成されたベクトル表現と、システムに記憶されたすべての第1のテンプレート群内に存在するすべての第1のベクトル表現との類似度の評価値をマンハッタン距離演算によって生成する(ステップ4)。ここで、類似度の評価値の演算は必ずしも第1のテンプレート群に存在するすべての第1のベクトルに対して行われるとは限らない。例えば、類似度を演算する第1のベクトルがその一部であることも有り得る。また、類似度の演算はマンハッタン距離演算を必ず利用するとは限らない。ユークリッド距離演算や、ヒストグラムインターセクションや、カルバック距離などを利用することも有り得る。
【0022】
上述したベクトル間の距離演算手法で演算された類似度の評価値の中で最も類似度が高い評価値(評価値的には最も値が低いもの)を決定する(ステップ5)。そして、2次元上の分布図において位置情報(x,y)にその評価値情報を保持する(ステップ6)。ここで記録する評価値は、類似度評価値の中で最も類似度が高いものを選ぶとしたが、必ずしもこの手法に従うとは限らない。例えば、相関値演算を行った第1のベクトル全部の評価値を用いてグループとして評価値を演算し記録する場合もあれば、第1のベクトルのうち類似度が上位複数個の評価値の平均を演算し記録する場合もある。
【0023】
このようなシステムを矯正歯科医が頭部X線画像からその位置を同定しなければならない解剖学的特徴点のうち、L1、U1、Nに適用した。L1とU1に関しては図3に示すように、L1とU1を中心にとって切り出す手法ではほぼ同じような画像が得られ、この2点の区別が可能となるような認識精度は得られない。また、U1ならば下の歯の情報、L1ならば上の歯の情報が第1の領域内に含まれそのバリエーションは多くなり認識精度が低下する。本手法では、U1に関してはU1が第1の領域の右下、L1は第1の領域の右上になるように切り出し方を定義した。
【0024】
Nの切り出し方を図4に示す。Nの定義は頭骨と鼻骨の接続部分であり、少し内側に線が入っている部分である。Nに関しては、新人の矯正歯科学生もよく間違え易い類似した部分がまぶた辺りにあり、システムが誤認識を起こしやすい。中心で切り出すと図4のように非常に類似している。しかし切り出し方をNを第1の領域の四角形の上辺の中点のあたりに持っていくことで非常に異なる画像を得ることができた。
【0025】
そして、100枚の画像を用いてPAPベクトルに変換して学習を行うことで15個の第1のベクトルからなる第1のテンプレート群を作成し、新たな150枚のX線画像に対して認識を行った。上で述べた切り出し方を用いることでL1は72%から85%、U1は92%から97%へと認識率が改善された。Nに関しては上で述べた種類の誤認識の95%は除かれ、認識率は82%から88%に改善された。
【0026】
ここで、必ずしも入力画像が頭部X線画像である必要もなく、認識対象も矯正歯科医が用いる解剖学的特徴点であるというわけではない。胸部X線におけて癌組織を見つけるという用途も有り得るし、写真画像から顔の領域を切り出すというような用途に応用することも有り得る。切り出し方も必ずしも認識対象点が領域の右上、右下というような定義の仕方であるというわけではない。右数ピクセル下から数ピクセルというようなピクセル単位の位置指定も有り得る。
【0027】
[ベクトル生成部の構成]
ここで、図2におけるベクトル生成部1のVLSI技術における実装を行った(非特許文献5参照)。その回路構成図を図5に示す。
PAP(Principal Axis Projection) 変換VLSIは大きく二つのブロックに分かれている。まず、入力される2次元画像データからエッジ特徴を抽出し特徴表現フラグを生成するエッジ特徴抽出器11が設けられ、その特徴表現フラグを入力とするベクトル生成器12が設けられている。このような構成でPAP変換VLSIを構成した。チップ写真を図6に示す。
【0028】
この回路の測定結果を図7に示す。
図7に示したように、64×64ピクセルの画像から64次元のベクトル列に変換するのに、ワークステーションであれば数分かかるが、340msec.で演算する機能を実現した。
【0029】
−記憶部及び類似度評価部の構成−
図2におけるパターングループ群を記憶するシステム機能部を実現した。この機能部は、類似度演算器も含んでいる。しかし、必ずしもこのような構成になる必要はない。
【0030】
先ず、ベクトルの1要素に対してデータを保持し類似度演算を行う基本回路を図8に示す(特許文献2及び非特許文献6〜8参照)。
この基本回路は、図8に示すように、入力電圧VGGを変化させることによって消費電力を減少させる機能と、入力電圧A,B,Cを変化させることによって柔軟に類似度演算器の演算評価方法を変化させる機能を持つ。この特性を図9に示す。VGGを低下させることによってピークの電流値が低下しており、また、入力電圧A,B,Cを変化させることで、様々な鋭さを持った評価関数が実現されていることが判る。
【0031】
この基本回路では、最初のリセット動作の時に記憶させるテンプレートベクトルの1要素を電圧で入力する。そして、その後に類似度評価を行うベクトルの1要素を電圧で入力する。類似度情報は電流に変換され、IOUTから出力される。類似度が高いほど多くの電流が出力される。このIOUTをテンプレート情報と入力されたベクトル情報の類似度評価値として利用する。
【0032】
この基本回路は図10のような機能を実現している。
先ず、最初に知識の断片を電圧として記憶させ、その後電圧として入力されたベクトルの1要素との類似度を電流値として出力する。類似度が高ければ高いほど、多くの電流が流れる。
【0033】
この基本回路の機能はベクトルの1要素の類似度演算のみであるが、図11のように出力電流の合計をとることで、先に記憶させた知識であるテンプレートベクトルMと入力ベクトルXの類似度を出力する回路を容易に実現できる。例えば、PAP手法によって生成されたベクトルであれば、ベクトルの次元数は64次元であるので64個の出力を繋げば良い。但し、この数は必ずしも64個である必要はなく、利用するベクトルの次元数に応じて数は変化する。
【0034】
記憶及び類似度演算機能を持つ機能ブロックとしては、図12のようにして実現する。
図11の回路を並列に並べ、入力ベクトルXを同時に全ての回路に入力する。このような構成にすることで、入力ベクトルと複数のパターングループ群内のテンプレートベクトルの全ての類似度を同時に高速に演算を行うことが可能である。
【0035】
このような処理を実現した例を図13に示す。
このシステムではベクトルの次元数を4とした。図13の上部にこの回路に記憶させたパターンを示す。下側には提示されたパターン群を示している。グラフは、記憶させたパターンと提示されたパターンの類似度を示す。青線は理論値、赤線は測定値を示す。全く同じパターン7が入力された場合大きい電流が流れ高い類似度を示している。また、パターン7と類似したパターン1を入力した場合も非常に高い類似度を示している。しかし、類似していないパターン6に対しては低い類似度を示している。また、消費電力に関しても、類似度が高く最も電流が流れる場合でも160μA程度であり、非常に低い消費電力で実現されている。ここでは、次元数が4つの例に関して示したが、必ずしも4つとは限らない。PAPによって生成されたベクトルであれば64になるし、それ以外のベクトル生成手法を利用した場合はそのベクトルの次元数に応じて変化するものである。
【0036】
(第2の実施形態)
−基本骨子−
本実施形態の背景としては、実際に対象物に似ているものがあると間違えてその場所を認識してしまうという問題がある。そこで、そのようなたまたま似たものを誤認識しないように、誤認識しそうなものをネガティブのテンプレートに入れてマイナス評価をしたりすることで認識精度を上げることを目的とする。第1の実施形態で述べた画像解析装置から「位置ずらし」の機能構成を取り除いたものを、本実施形態では基本認識システムと定義する。
【0037】
図14は、第2の実施形態の画像解析装置の概略構成を示す模式図である。
この画像解析装置は、第1の実施形態の図1と同様に、特定の対象物の画像において予め定義された特定部位の位置を表す特徴点を入力画像の中から見つけ出し、特徴点の座標値を出力するものであり、特徴点の各々に対して当該特徴点を表現する複数の第1のベクトルからなる少なくとも1つの第1のテンプレート群を記憶する記憶手段101と、入力画像の中から所定の大きさの第1の領域を切り出す切出手段102と、第1の領域を、対象とする前記入力画像中の所定の大きさの第2の領域内で移動させる移動手段103と、第1の領域内の部分画像を所定の手続きに従って第2のベクトルに変換する変換手段104と、第1のベクトルと第2のベクトルとの間の相関演算を行い、特徴点の各々に対してその類似度を表す第1の評価値を決定する評価手段105と、第1の評価値に基づいて前記特徴点を内部に含む前記第1の領域に対応する第3の領域を特定する特定手段106とを含む。そして更に、少なくとも一つの特徴点に対し、その特徴点とは異なる画像を表現する第2のテンプレート群を用いてその非類似度を表す第2の評価値を求める評価手段111と、第1の評価値及び第2の評価値の両方を用い、所定の特定手法により第3の領域を特定する特定手段112とを含み構成されている。
【0038】
ここで、特定手段112は、所定の特定手法として、例えばファジー理論や、第1の評価値と第2の評価値との差分の情報を用いて特定を行う。また、第2のテンプレート群として、対象から位置をずらした画像を用いることが好適である。
【0039】
−具体的な実施例−
[実施例1]
図15は、第2の実施形態の画像解析装置を示す模式図である。
この画像解析装置は、第1のテンプレート群を保持する第1の記憶手段11と、第2のテンプレート群を保持する第2の記憶手段12とを有する。第1のテンプレート群は、解剖学的特徴点Sのベクトルを基本認識システムと同様の手法で作成される。また、第2のテンプレート群は、基本認識システムで誤認識して同定された第3の領域に含まれる部分画像を集め、基本認識システムにおける第1のテンプレート群の作成方法に従って作成される。ここで、作成手法は必ずしも学習アルゴリズムを適用するとは限らないし保持する第1のテンプレート群、第2のテンプレート群の数も異なることは有り得る。
【0040】
第2の領域から切り出された第1の領域を第1のウィナー・テーク・オール回路13によりPAPベクトル表現に変換し、類似度評価回路15により第1のテンプレート群とマッチングを行い類似度の評価値を演算する。それと同時に、Sの誤認識等のベクトル表現を第2のウィナー・テーク・オール回路14によりPAPベクトル表現に変換し、類似度評価回路15により第2のテンプレート群とのマッチングを行い非類似度の評価値を演算する。
【0041】
そして、(類似度の評価値)−(非類似度の評価値)×0.1をその座標値(x,y)における評価値とし保持して認識を行う。
150枚の頭部X線画像に対して認識を行った結果、Sellaの認識率が72%から87%に改善された。ここで、ベクトル表現は必ずPAPベクトル表現である必要はない。また、評価値の演算方法において非類似度の値にかけられる重みは必ずしも0.1という訳ではなく対象に応じてさまざまに変わりえる。0.2でも0.5でもよい。また、類似度の演算手法は必ずしも単純な重み付けの差をとるという手法とは限らない。ファジー論理を用いることも有り得る。
【0042】
[実施例2]
基礎認識システムで認識を行う場合、評価値の推移は、図16に示したように、台形に近い形となり目的とする点の精度が悪くなるという問題がある。
また、基礎認識システムで認識を行う場合、評価値の推移は、図16に示したように、台形に近い形となり目的とする点の精度が悪くなるという問題がある。
【0043】
第2のテンプレート群に、図17で示したような対象点から半分ずつ位置をずらした部分画像を用いる。ここでずらす単位は必ずしも半分とは限らない。
【0044】
切り出された第1の領域内の部分画像をPAPベクトル表現にして、第1のテンプレート群とマッチングを行い類似度を演算する。ここで、PAPベクトル表現に変換してマッチングを必ず行うと言うわけではない。
【0045】
同時に第2のテンプレート群とマッチングを行い非類似度を演算する。
類似度評価値を、(類似度の評価値)−(非類似度の評価値)×0.3とした評価値の推移を図18に示す。このように正しい位置で評価値が上がりその周辺では相対的に低下している。ここで、評価値の演算に際し非類似度の値に乗じられた重みの0.3は固定値ではなく変わることは有り得る。
【0046】
(第3の実施形態)
−基本骨子−
本実施形態の背景には、検索を行う場合、検索領域が広がるとそれに比例してベクトル化処理、マッチング処理の演算コストが掛かるという問題がある。そのため、如何に妥当に検索領域を限定して効率的な認識を行うかということが非常に重要となる。
【0047】
図19は、第3の実施形態の画像解析装置の概略構成を示す模式図である。
この画像解析装置は、第1の実施形態の図1と同様に、特定の対象物の画像において予め定義された特定部位の位置を表す特徴点を入力画像の中から見つけ出し、特徴点の座標値を出力するものである。この画像解析装置は、特定の対象物の画像において予め定義された特定部位の位置を表す特徴点を入力画像の中から見つけ出し、特徴点の座標値を出力するものであり、特徴点の各々に対して当該特徴点を表現する複数の第1のベクトルからなる少なくとも1つの第1のテンプレート群を記憶する記憶手段101と、入力画像の中から所定の大きさの第1の領域を切り出す切出手段102と、第2の領域を所定の領域分割の手法を用いて特定する特定手段121と、第1の領域を第2の領域内で移動させる移動手段103と、第1の領域内の部分画像を所定の手続きに従って第2のベクトルに変換する変換手段104と、第1のベクトルと第2のベクトルとの間の相関演算を行い、特徴点の各々に対してその類似度を表す第1の評価値を決定する評価手段105と、第1の評価値に基づいて前記特徴点を内部に含む前記第1の領域に対応する第3の領域を特定する特定手段106とを含み構成されている。
【0048】
特定手段121は、例えば、対象とする入力画像中で第1のテンプレート群とは異なる第3のテンプレート群を用いて特定する。第3のテンプレート群としては、例えば、頭蓋底、下顎部、及び上顎部の情報を見つけ出すテンプレート群を用いる。また、位置を決定された特徴点の少なくとも一つを用いて、その特徴点から所定の位置関係にある領域を指定することにより特定するようにしても良い。ここで、第2の領域内において、所定の前記特徴点の位置が決定できない場合には、第2の領域を隣接する領域の少なくとも一部を含むように第2の領域を拡大することが好適である。
【0049】
−具体的な実施例−
[実施例1]
「基礎認識システム」に第2の領域の領域分割の手法を用いた「領域限定」の構成を付加した画像解析装置を、矯正歯科医が頭部X線写真から認識する必要がある図20に示した解剖学的特徴点(S,Or,Gn)の認識問題に適用した。それぞれここで、入力画像は必ずしもX線写真画像ではなく認識対象も解剖学的特徴点ではない。
【0050】
第1のテンプレート群として100枚のX線写真データからPAP手法を適用してベクトル表現に変換し、学習アルゴリズムを適用して15個の第1のベクトルをそれぞれの解剖学的特徴点について作成した(即ち、第1のテンプレート群が複数あることを意味する。)。ここで、システムが保持する第1のテンプレート群の数は必ずしも15個であるとは限らず、100でも1000でもよい。また、必ずしも学習アルゴリズムを用いるとは限らない。また、部分画像からベクトル表現への変換はPAP手法である必要はない。
【0051】
第3のテンプレート群として、図21に示した頭蓋底、目、上顎、下顎、首に関して100枚の低解像度のX線写真データからPAP手法を適用してベクトル表現に変換し学習アルゴリズムを適用してから学習アルゴリズムを適用して15のテンプレートベクトルを作成した。ここで、システムが保持する第一のテンプレート群の数は必ず15個であるとは限らず、100でも1000でもよい。また、必ずしも学習アルゴリズムを用いるとは限らない。また、部分画像からベクトル表現への変換はPAP手法である必要はない。
【0052】
最初に、第4のテンプレート群を用いて頭蓋底、目、上顎、下顎、首と領域分割をする。ここで、領域分割方法はここに示した手法だけではない。鼻や固定器具等の領域も領域分割することもあり得る。
【0053】
第2の領域を、Sellaに関しては頭蓋底の領域、Orに関しては頭蓋底、目、上顎の領域に囲まれた領域、Gnに関しては下顎の領域を対象に認識処理を行い認識する。この検索領域に関してもこれに限ったことではない。他の領域に関しても検索対象とすることはあり得る。
【0054】
この手法を新たな150枚のレントゲン画像の認識問題に適用した。予め検索対象が限定されるため検索領域が減少し演算時間が平均で80%減少した。また、基礎認識システムで明らかに異なった場所を認識した例に関しては正しい位置を認識するようになり、認識率がSは72%から85%に、Orは92%から95%、Gnは13%から45%に改善された。
【0055】
[実施例2]
実施例1と同様の画像解析装置を用い、U1(85%)とN(82%)は高い認識精度で認識を行うことが可能であるが、S(72%)は比較的に認識精度が低い。その失敗例を図22に示す。また、類似度評価値を2次元状に表現したものも同時に図22に示す。このように、正しい位置においてもそのエリアにおいてピークが表れている。そこで効率的に領域を限定することが必要になる。その一方で、矯正歯科医は解剖学的特徴点の距離、位置関係に関する平均と標準偏差値の情報を持っている。
【0056】
そこで、本実施例では、まずOrとNの認識を行う。そして、図23に示すようにU1を中心として(U1とSの距離の平均―標準偏差値)を半径とする円と(U1とSの距離の平均+標準偏差値)を半径とする円を描き囲まれた領域を決定する。Nに関しても同様に行う。このように行うことで領域を限定し誤認識を減少させることができた。このような領域限定手法を適用することでSの認識率が72%から80%へと向上した。但し、ここで必ずしも、Sの認識を行う際に用いられる手法であるとは限らないしSの認識に対して必ずNとU1からの距離を用いるとは限らない。角度を利用する可能性もあるし、参照点に関しては必ずしも解剖学的特徴点とは限らず、コンピュータが認識を行い易い点を新たに定義することも有り得る。
【0057】
[実施例3]
認識処理において,検索領域(第2の領域)の限定は非常に重要であるが、限定に失敗して対象点が第2の領域に入らない場合は誤認識を行ってしまう。その際に、如何に妥当な領域拡大を行うかが非常に重要となる。実施例1の手法において、決定された第2の領域内で妥当な認識対象の候補が見つからない場合に、決定された第2の領域に隣接するエリア20%外側を第2の領域に含めて認識を行った。
【0058】
その結果、認識率がSは85%から87%に、Orは95%から97%、Gnは45%から55%に改善された。ここで改善率が少ないのは、一度目の第2の領域決定でほぼ正しい領域指定が行われているからである。一度目の第2の領域の決定で失敗した場合に20%外側に拡張することで正しい認識を行う割合は3つの解剖学的特徴点に関して90%を超えた。ここで、第2の領域の拡張の手法は必ず20%外側に拡張すると限られるわけではない。40%や50%の場合もある。また、拡張の手法も単純に全方向に対して等しい割合で拡張すると限られるわけではなく、対象となる点の特徴によっては横に50%縦に10%拡張ということも有り得る。
【0059】
[実施例4]
実施例2の手法において、決定された第2の領域内で妥当な認識対象の候補が見つからない場合には、図24に一例を示すように、第2の領域を平均値±2*標準偏差値で第2の領域を再指定して認識を行った。認識条件は実施例2と同じである。
【0060】
このような手法を適用することで、認識率がSは85%から89%に改善した。ここで改善率が少ないのは、一度目の領域決定でほぼ正しい領域指定が行われているからである。一度目の領域決定で失敗した場合に平均値±2*標準偏差を用いることで90%のケースにおいて正しい認識が行われた。ここで、領域の拡張の手法は必ず平均値±2*標準偏差と限られるわけではない。0.5*標準偏差や1.5*標準偏差も有り得る。
【0061】
(第4の実施形態)
−基本骨子−
この画像解析装置は、第1の実施形態の図1の構成(いわゆる「位置ずらし」機能を含む)に加え、少なくとも一つの特徴点に対して所定の分類手法で複数のクラスのうちの一つに分類し、そのクラスに対応する複数の第1のテンプレート群とは異なる第4のテンプレート群を用いて第2のベクトルとの相関演算を行う演算手段を含み構成されている。複数のクラスとしては、例えば、上顎前突、正常咬合、及び下顎前突を用いてクラス分けを行う。この分類手法として、柔組織の情報を利用して分類するようにしても良い。この分類手法の一例としては、複数の前記第1のテンプレート群を用いて前記第2のベクトルとの相関演算を行うことにより分類する。
【0062】
−具体的な実施例−
矯正歯科医が頭部X線画像上で認識するU1及びL1は、全体の骨構造でかなり変化する。そのため、単純なテンプレートマッチングの技術で認識するのは非常に困難である。そこで、まず、図25に示すように、骨構造に関して上顎前突(出歯)と下顎前突(受け口)の二つのクラスに分類する。分類テンプレートの作成手法は、大まかな全体的な構造情報に注目するため低解像度の画像から作成する。それぞれ出歯と受け口のクラスに属するX線画像を100枚ずつ用意し、PAPベクトル表現に変換して、学習アルゴリズムを用いて出歯クラステンプレートと受け口クラステンプレートをそれぞれ15個ずつ作成する。そして、入力された画像の構造がどちらに近いかを見てクラスを同定する。
【0063】
ここで分類クラスは、出歯と受け口のみとは限らない。正常咬合のような正常クラスを加えることも有り得る。また、分類手法は低解像度のX線画像を用いず、矯正歯科医が判定して入力する場合や、横顔の写真画像のプロファイルから抽出した情報で分類することも有り得る。また、認識対象は歯科矯正のX線画像上の点であるとは限らない。また、対象が頭部X線画像上の点であるとは限らない。テンプレートを作成するに際し用いるX線画像の数は100枚であるとは限らず、学習のアルゴリズムを必ずしも適用するとは限らない。また、保持するテンプレートの個数は15個で固定というわけではない。
【0064】
そして、図26に示された手法により、それぞれのクラスに対応した第4のテンプレート群を用いてU1とL1を認識する。第4のテンプレート群は、それぞれのクラスに属するX線画像写真に対して第1のテンプレート群を作成する手法を適用して作成する。但し、認識の柔軟性を高めるためにそれぞれのテンプレート群の中に両方のクラスの中間的なものを入れておく場合もある。ここで、認識対象はU1だけとは限らない。また、分類クラスは、出歯と受け口のみとは限らない。正常咬合のような正常クラスを加えることも有り得る。また、認識対象は歯科矯正のX線画像上の点であるとは限らない。
【0065】
このような手法を適用することにより、U1の認識率が92%から95%、L1は72%から90%に改善された。
【0066】
(第5の実施形態)
−基本骨子−
この画像解析装置は、第1の実施形態の図1の構成(いわゆる「位置ずらし」機能を含む)に加え、第2のベクトルを生成する前に、入力画像の解像度及び/又は画素の階調を少なくとも一つの特徴点に対して変更する変更手段を含み構成されている。この変更手段は、解像度及び/又は画素の階調を施された入力画像の特徴点を表現する複数の第1のベクトルから成る少なくとも1つの第5のテンプレート群を作成する。
【0067】
−具体的な実施例−
[実施例1]
基礎認識システムにより、矯正歯科医が認識を行う解剖学的特点Gn, Go, liを認識した結果を図27に示す。ここで示しているとおり、周辺にある類似した点)を誤認識している。下段の各図において、+が正確な点を、矢印が誤認識した点をそれぞれ示す。
【0068】
医者が解剖学的特徴点を認識する際にはまず、対象点の大まかな周辺情報を用いて大まかな位置候補を見つけ出す。続いて、その候補エリアに対して精度の高い認識を行っている。そこで、図28のように、標準の解像度の対象点を含む100枚の画像からPAPによってベクトル表現に変換し、学習アルゴリズムを適用して15個の第1のベクトルを保持する第1のテンプレート群を作成すると同時に、標準より2分の1の解像度の画像を用いて同様の手法で15個の第1のベクトルを保持する第5のテンプレート群が記憶される。まず、第5のテンプレート群を用いて大まかな認識を行って候補点群を求め、その後に第1のテンプレート群を用いることで高解像度の認識を行う。
【0069】
ここで、認識対象が解剖学的特徴点とは限らない。画像からベクトル表現に変換する手法はPAPとは限らない。また、100枚の画像からテンプレート群を作成するとあるが、必ずしも100枚とは限らないし学習アルゴリズムを用いるとは限らない。また、15個のベクトルを保持するテンプレート群とあるが必ずしも15個とは限らない。そして、低解像度の画像が標準解像度の2分の1とあるが必ずしも2分の1とは限らない。
【0070】
Gnに関して改善された認識例を図3(a)に示す。また、多重解像度検索を用いることにより、図3(b)のように、Go、Gn、Ar、Cd、Baの認識率が改善された。
【0071】
[実施例2]
図27に示した硬組織上の点GnとGoに関しては、正しい解剖学的特徴点に対応する柔組織上の点を誤認識している。そこで硬組織上の点を認識する際に柔組織の情報により悪影響を著しく減少させる方式を開発した。
【0072】
入力画像から画像を切り出した際、グレースケール画像は256階調であるが、64階調に諧調を落としてPAP手法によって4方向の画像を抽出した例を図30に示す。このように256階調だと柔組織上の情報がかなり抽出されているが、64階調に落とすと柔組織情報はかなり取り除かれている。
【0073】
ここで、階調を64階調としたが、必ずしも64階調とは限らない。また、その後に情報を抽出する手法はPAPとは限らない。この手法を用いてGnとGoの認識を行った。64階調に諧調を落とした画像100枚に対してPAP手法を用いてベクトル表現に変換し学習アルゴリズムを用いて15個の第1のベクトルを保持する第1のテンプレートベクトル群を作成した。
【0074】
このテンプレート群を用いて150枚の行ったところ、256階調のままで行ったものと比較して、Gnは13%から97%、Goは48%から67%に認識率が改善された。ここで、認識対象が解剖学的特徴点とは限らない。画像からベクトル表現に変換する手法はPAPとは限らない。また、100枚の画像からテンプレート群を作成するとあるが、必ずしも100枚とは限らないし学習アルゴリズムを用いるとは限らない。また、15個のベクトルを保持するテンプレート群とあるが必ずしも15個とは限らない。
【0075】
また、この手法はシステム上、特にVLSIシステム上でも実現することは容易であるという特徴も持つ。例えば諧調を256階調を64階調に落とすのであれば、入力画像の下位2ビットを落とすことで実現できる。ここで、必ずしも64階調に落とすとは限らない。
【0076】
(第6の実施形態)
−基本骨子−
この画像解析装置は、第1の実施形態の図1の構成(いわゆる「位置ずらし」機能を含む)に加え、解剖学的特徴点としてMPoを見つける際に、X線画像を2値化する機能構成を有する。
【0077】
−具体的な実施例−
[実施例1]
矯正歯科医が認識する解剖学的特徴点MPoは、レントゲン撮影を行う際に患者の頭部を固定するイヤーロッド部の最上部である。ところがこの場合、撮影条件や周りの周辺情報等が加わるために認識率が上がらない。そこで、図31に示すように、イヤーロッドの部分が明確に現れる画素値235で閾値処理を行い2値化した後に認識を行う。
【0078】
認識の条件は2値化した画像100枚からPAP手法を用いてベクトル表現に変換し、学習アルゴリズムを適用することによって15個の第1のベクトルを保持する第1のテンプレート群を作成する。そして、150枚の画像に対して認識を行ったところ、このような前処理を行うことでMPoの認識率は48%から75%に認識率が改善された。但し、ここでこのような手法を適用する解剖学的特徴点はMPoとは限りらないし、閾値として用いた画素値も235で固定するとは限らない。また、テンプレート群の作成方法もこの限りではない。
【0079】
[実施例2]
解剖学的特徴点Sは図22に示されたとおり類似しているが、全く違う場所を誤認識しやすい傾向がある。そのため、認識率を向上させるための技術を開発した。Sは脳下垂体部の中心の点となっている。そのため、Sの候補に対して、図32に示すように、脳下垂体の特徴が存在するかどうかを調べ、確信度を用いた評価を行った。
【0080】
それぞれの特徴部分に関しては第1の実施形態の画像解析装置で述べた手法と同じ手法でテンプレート群を作成した。このような部分情報を利用して確信度調査を行うことでSの認識率が72%から80%に改善された。但し、認識対象は解剖学的特徴点に限らない。解剖学的特徴点の場合でもSであるとは限らない。また、用いる部分特徴は図32に示した3つであるとは限らない。他の特徴を使うことも有り得る。
【0081】
なお、上述した第1〜第6の実施形態の基本骨子は、それぞれ単独のみならず、これらの2つ或いは全て(6つ)を組み合わせる構成としても良い。例えば、第1〜第3の実施形態の3つを組み合わせた画像解析装置は、第1の実施形態における、記憶手段101〜特定手段106を含み、第3の領域内における前記特徴点の位置を、第3の領域内で予め定義された原点に対して各々の特徴点に独自に定められた相対位置関係を用いて決定する(即ち、位置ずらし)構成に、第2の実施形態の評価手段111及び特定手段112、並びに第2の実施形態の特定手段121を備えた構成を採る。
【0082】
(本発明の他の実施形態)
上述した第1〜第6の実施形態、諸実施例による画像解析装置を構成する各手段、並びに画像処理方法の各ステップ(ステップ1〜6など)は、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。このプログラム及び当該プログラムを記録したコンピュータ読み取り可能な記憶媒体は本発明に含まれる。
【0083】
具体的に、前記プログラムは、例えばCD−ROMのような記憶媒体に記録し、或いは各種伝送媒体を介し、コンピュータに提供される。前記プログラムを記録する記憶媒体としては、CD−ROM以外に、フレキシブルディスク、ハードディスク、磁気テープ、光磁気ディスク、不揮発性メモリカード等を用いることができる。他方、前記プログラムの伝送媒体としては、プログラム情報を搬送波として伝搬させて供給するためのコンピュータネットワーク(LAN、インターネットの等のWAN、無線通信ネットワーク等)システムにおける通信媒体(光ファイバ等の有線回線や無線回線等)を用いることができる。
【0084】
また、コンピュータが供給されたプログラムを実行することにより上述の実施形態の機能が実現されるだけでなく、そのプログラムがコンピュータにおいて稼働しているOS(オペレーティングシステム)或いは他のアプリケーションソフト等と共同して上述の実施形態の機能が実現される場合や、供給されたプログラムの処理の全て或いは一部がコンピュータの機能拡張ボードや機能拡張ユニットにより行われて上述の実施形態の機能が実現される場合も、かかるプログラムは本発明に含まれる。
【0085】
例えば、図33は、一般的なパーソナルユーザ端末装置の内部構成を示す模式図である。この図33において、1200はコンピュータPCである。PC1200は、CPU1201を備え、ROM1202又はハードディスク(HD)1211に記憶された、或いはフレキシブルディスクドライブ(FD)1212より供給されるデバイス制御ソフトウェアを実行し、システムバス1204に接続される各デバイスを総括的に制御する。
【0086】
【発明の効果】
本発明によれば、類似する画像を画像処理した際には、類似した画像データとして認識することを可能とし、比較的複雑な画像、特に歯科医療用のX線画像などに代表される画像の特徴を抽出する場合でも、正確且つ迅速に認識することができる画像解析装置が実現する。
【図面の簡単な説明】
【図1】第1の実施形態による画像解析装置の概略構成を示す模式図である。
【図2】第1の実施形態の画像解析装置を示す模式図である。
【図3】解剖学的特徴点であるL1及びU1のX線写真を示す図である。
【図4】X線写真においてNの切り出し方を示す図である。
【図5】ベクトル生成部のVLSI技術における実装を行った回路構成図である。
【図6】ベクトル生成部のVLSIのチップ写真を示す図である。
【図7】べクトル生成部のVLSI技術における実装を行った回路の測定結果を示す特性図である。
【図8】ベクトルの1要素に対してデータを保持し類似度演算を行う基本回路図である。
【図9】ベクトルの1要素に対してデータを保持し類似度演算を行う基本回路の特性図である。
【図10】ベクトルの1要素に対してデータを保持し類似度演算を行う基本回路の機能を示す特性図である。
【図11】ベクトルの1要素に対してデータを保持し類似度演算を行う基本回路の出力電流を示す説明図である。
【図12】記憶及び類似度演算機能を持つ機能ブロックを示す説明図である。
【図13】類似度演算回路による演算結果を示す特性図である。
【図14】第2の実施形態の画像解析装置の概略構成を示す模式図である。
【図15】第2の実施形態の画像解析装置を示す模式図である。
【図16】類似度評価値を示す特性図である。
【図17】類似度評価値の推移をX線写真を用いて説明するための図である。
【図18】類似度評価値を示す特性図である。
【図19】第3の実施形態の画像解析装置の概略構成を示す模式図である。
【図20】認識対象の解剖学的特徴点のX線写真を示す図である。
【図21】第3のテンプレート群のX線写真を示す図である。
【図22】認識の失敗例を示す図である。
【図23】領域限定手法をX線写真を用いて示す模式図である。
【図24】第2の領域を限定する一例を示す模式図である。
【図25】分類結果についてX線写真を用いて示す図である。
【図26】クラス分けによる階層的認識の一例についてX線写真を用いて示す図である。
【図27】解剖学的特徴点の認識例についてX線写真を用いて示す図である。
【図28】多重解像度検索についてX線写真を用いて説明するための図である。
【図29】認識改善例についてX線写真を用いて説明する特性図である。
【図30】諧調を落としてPAP手法によって4方向の画像を抽出した例をX線写真を用いて説明する図である。
【図31】画像の2値化による認識例についてX線写真を用いて説明するための図である。
【図32】解剖学的特徴点Sの部分的特徴をX線写真を用いて説明するための図である。
【図33】パーソナルユーザ端末装置の内部構成を示す模式図である。
【図34】頭部X線画像の一例をX線写真を用いて示す図である。
【符号の説明】
1 ベクトル生成部
2 記憶部
3 類似度演算部
4 ウィナー・テーク・オール回路
11 第1の記憶手段
12 第2の記憶手段
13 第1のウィナー・テーク・オール回路
14 第2のウィナー・テーク・オール回路
15 類似度評価回路
101 記憶手段
102 切出手段
103 移動手段
104 変換手段
105,111 評価手段
106,112,121 特定手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image analysis apparatus, and is particularly suitable for use in image analysis for extracting image features typified by dental X-ray images.
[0002]
[Prior art]
Conventionally, in order to recognize an anatomical feature point of a patient from a cephalometric X-ray image, an orthodontist who has received specialized medical training observes the cephalometric X-ray image. I was aware.
[0003]
An example of a head X-ray image is shown in FIG. An orthodontist or the like needs to recognize each anatomical feature point indicated by + in the drawing. Here, among each anatomical feature point, N is a connection point of the frontal bone (bone of the forehead) and the nasal bone (bone of the base of the nose), S is a point of the center of the pituitary gland, Or is a left or right eye socket (eyeball) Is the midpoint of the lowest point of the bone), MPo is the uppermost point of the ear rod (outer ear), APo is the center point when the ear hole is viewed from the side, and L1 is the lower central incisor (1 U1 is the point of the tip of the upper middle incisor (first tooth), Gn is the point in front of the chin, Go is the point of the mandibular angle, and Ar is the shadow image of the lower skull base edge And Cd is the highest point of the condylar head, Ba is the lowest point on the front edge of the large occipital foramen, and li is the highest protruding point of the lower lip. The anatomical feature points of the soft tissue part are shown in white letters.
[0004]
[Patent Document 1]
Japanese Patent Application No. 10-326253
[Patent Document 2]
Japanese Patent Application No. 2000-326158
[Non-Patent Document 1]
Masakazu Yagi, Masayoshi Adachi, and Tadashi Shibata, “A Hardware-Friendly Soft-Computing Algorithm for Image Recognition,” Proceeding th European Signal Processing Conference (EUSIPCO 2000), pp. 729-732, Tampere, Finland, Sept. 4-8, 2000.
[Non-Patent Document 2]
Masakazu Yagi and Tadashi Shibata, "A Human-Perception-like Image Recognition System based on PAP Vector Representation with Multi Resolution Concept," in the Proceedings of 2002 IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2002), Vol. I, pp. 1041-1048, Florida, May 13-17, 2002.
[Non-Patent Document 3]
Masakazu Yagi, Tadashi Shibata and Kenji Takada, "Optimizing Feature-Vector Extraction Algorithm from Grayscale Images for Robust Medical Radiograph Analysis," in press in The Proceedings of Fourth International Conference on Multimedia and Image Processing (IFMIP 2002), Orland, June 9- 13, 2002.
[Non-Patent Document 4]
Masakazu YAGI, Tadashi SHIBATA, and Kenji TAKADA, "Human-Perception-Like Image Recognition System Based on the Associative Processor Architecture," in the Proceedings of XI European Signal Processing Conference, Vol. I, pp. 103-106, Sep. 3-6, 2002 Toulouse, France
[Non-Patent Document 5]
Masakazu Yagi and Tadashi Shibata, "An Associative-Processor-Based Mixed Signal System for Robust Image Recognition," in the Proceedings of 2002 IEEE International SyMPosium on Circuits and Systems (ISCAS 2002), pp. V-137-V-140, Arizona, May 26-29, 2002.
[Non-Patent Document 6]
T.A. Yamazaki and T.K. Shibata, “An Analog Similarity Evaluation Circuit Featuring Variable Functional Forms,” Proceedings of The 2001 IS IEEE International SymSum III-561-564, Sydney, Australia, May. 6-9, 2001.
[Non-Patent Document 7]
Toshihiko Yamasaki, Ken Yamamoto, and Tadashi Shibata, “Analog Pattern Classifier with Flexible Reciprocating Circadian Preference th European Solid-State Circuits Conference (ESSCIRC 2001), Ed. by F.E. Diegocher and H.C. Grunbacher, pp. 212-215 (Frontier Group), Villach, Austria, September 18-20, 2001.
[Non-Patent Document 8]
T.A. Yamazaki and T.K. Shibata, “Analog Soft-Pattern-Matching Classifier Using Floating-Gate MOS Technology,” Neural Information Processing Systems 14, in press.
[0005]
[Problems to be solved by the invention]
In recent years, there has been an increasing demand for automatically executing recognition of patient anatomical feature points to generate data. However, image analysis technology for accurately and promptly analyzing extremely complicated and delicate images such as cephalometric X-ray images for dentistry is currently under development, and is awaiting its immediate realization.
[0006]
The present invention has been made to solve such a problem. When image processing is performed on a similar image, the image can be recognized as similar image data. An object of the present invention is to provide an image analysis apparatus capable of accurately and quickly recognizing an image feature represented by an X-ray image for dentistry.
[0007]
[Means for Solving the Problems]
An image analysis apparatus according to the present invention is an image analysis apparatus that finds a feature point representing a position of a specific part defined in advance in an image of a specific target object from an input image and outputs a coordinate value of the feature point. Means for storing at least one first template group consisting of a plurality of first vectors representing the feature points for each of the feature points, and a first of a predetermined size from the input image. Means for cutting out the first area, means for moving the first area in a second area having a predetermined size in the target input image, and a partial image in the first area as a predetermined area. Means for converting to a second vector according to a procedure; a first evaluation value for performing a correlation operation between the first vector and the second vector; And means for determining Means for specifying a third region corresponding to the first region including the feature point therein based on the evaluation value of the feature point, and determining the position of the feature point in the third region. This is determined by using a relative positional relationship uniquely determined for each of the feature points with respect to an origin defined in advance in the region.
[0008]
An image analysis apparatus according to the present invention is an image analysis apparatus that finds a feature point representing a position of a specific part defined in advance in an image of a specific target object from an input image and outputs a coordinate value of the feature point. Means for storing at least one first template group consisting of a plurality of first vectors representing the feature points for each of the feature points, and a first of a predetermined size from the input image. Means for cutting out the first area, means for moving the first area in a second area having a predetermined size in the target input image, and a partial image in the first area as a predetermined area. Means for converting to a second vector according to a procedure; a first evaluation value for performing a correlation operation between the first vector and the second vector; And means for determining Means for identifying a third region corresponding to the first region including the feature point therein based on the evaluation value, and expressing at least one feature point an image different from the feature point A means for obtaining a second evaluation value representing the degree of dissimilarity using the second template group and both the first evaluation value and the second evaluation value are used to determine the third evaluation value by a predetermined specifying method. Means for specifying the region.
[0009]
An image analysis apparatus according to the present invention is an image analysis apparatus that finds a feature point representing a position of a specific part defined in advance in an image of a specific target object from an input image and outputs a coordinate value of the feature point. Means for storing at least one first template group consisting of a plurality of first vectors representing the feature points for each of the feature points, and a first of a predetermined size from the input image. Means for cutting out the region, means for specifying the second region using a predetermined region dividing method, means for moving the first region within the second region, and within the first region Converting the partial image of the second image into a second vector according to a predetermined procedure, and performing a correlation operation between the first vector and the second vector, and calculating the similarity to each of the feature points Determine the first evaluation value to represent That includes means, and means for identifying a third region corresponding to the first area including the feature points therein based on the first evaluation value.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments to which the present invention is applied will be described in detail with reference to the drawings.
[0011]
(First embodiment)
-Basic outline-
FIG. 1 is a schematic diagram illustrating a schematic configuration of the image analysis apparatus according to the first embodiment.
This image analysis apparatus finds a feature point representing the position of a specific part defined in advance in an image of a specific object from an input image, and outputs a coordinate value of the feature point. In the present embodiment, for example, a head X-ray image for dentistry is used as an input image, and for example, when recognizing a face eye contact point, the eye contact point is not always used as a central part, but appropriately according to the case. Set the center. As an example, let the point of the central part of the eye be the central part. Here, not only the eyes of the face but also parts such as the nose tip and the corner of the mouth may be recognized.
[0012]
The image analysis apparatus includes a storage unit 101 that stores at least one first template group including a plurality of first vectors that represent the feature points for each of the feature points, and a predetermined one of the input images. Cutting means 102 for cutting out a first area of a size; moving means 103 for moving the first area within a second area of a predetermined size in the target input image; The conversion means 104 for converting the partial image in the region into the second vector according to a predetermined procedure, and the correlation calculation between the first vector and the second vector is performed, and the similarity to each of the feature points Evaluation means 105 for determining a first evaluation value representing the above, and specifying means 106 for specifying a third area corresponding to the first area including the feature point based on the first evaluation value The third territory The position of the feature point in the inner, is determined using the relative positional relationship defined uniquely to feature points of each against predefined origin in the third region.
[0013]
The storage unit 101 has a function of creating a first vector constituting the first template group by performing learning that always uses a predetermined relative positional relationship, and uses edge information of image information. At this time, when extracting edge information, a median value of image information may be used. Moreover, you may comprise so that the shape of a 1st area | region may differ from the thing of another feature point about at least 1 feature point.
[0014]
When extracting the edge information, the conversion unit 104 uses, for example, the median value of the information in the fourth area having a predetermined size in the first area. When this conversion means 104 is used, it is preferable to use a predetermined integrated circuit during the processing to improve the processing efficiency. Similarly, when using the determination means 105, a predetermined integrated circuit may be used during the processing to improve the processing efficiency.
[0015]
The image analysis apparatus according to the present embodiment is applied to, for example, a medical X-ray image, in particular, an X-ray image for dentistry, and finds a predetermined feature point medically defined as a feature point. The predetermined feature point includes a point on a soft tissue. Here, the soft tissue is a soft tissue other than bone such as muscle and fat.
[0016]
For example, it is conceivable to find Point A and Point B as the predetermined feature points (here, anatomical feature points). Further, it is conceivable to find N (Nation) as the predetermined feature point. In this case, when N is found as the predetermined feature point, it is utilized that the pixel values in the first region including N are close to homogeneous pixels with a white bone portion and a black background portion. It is also conceivable to find S (Sella) as the predetermined feature point. In this case, when S is found as the predetermined feature point, it is first found at a predetermined resolution, and is found with higher resolution and higher accuracy than the predetermined resolution. Furthermore, when S is found as a predetermined feature point, it is recognized using a partial feature of S. It is also conceivable to find Or (Orbitale) as the predetermined feature point. Furthermore, it is conceivable to find MPo and / or APo as the predetermined feature points. When finding MPo and / or APo as the predetermined feature point, the X-ray image for dentistry is binarized and found. Furthermore, it is conceivable to find L1 and U1 as predetermined feature points. When finding L1 and U1 as the predetermined feature points, tooth enamel information is used. Further, when U1 is found as the predetermined feature point, the target point is set as the upper right region in the third region as a relative positional relationship uniquely determined for each feature point.
[0017]
-Specific examples-
FIG. 2 is a schematic diagram illustrating the image analysis apparatus according to the first embodiment.
The image analysis apparatus extracts image data of a region (x, y) defined corresponding to a predetermined position in an input image, and generates a vector generation unit 1 that represents the image data as a vector, and at least a reference pattern. Similarity in which the storage unit 2 having a plurality of pattern groups including one, the vectorized image data and each reference pattern included in each pattern group are collated, and the similarity with the image data for each reference pattern is evaluated A degree calculation unit 3 and a winner take all circuit 4 that performs a predetermined calculation on each evaluation value of similarity and determines at least one evaluation value. However, the winner-take-all circuit is not always used here. Further, it is not always necessary to extract only one evaluation value, and a plurality of evaluation values may be determined depending on circumstances.
[0018]
The storage unit 2 has, for example, 15 first template groups as pattern groups. However, the number of templates is not limited to 15 and may be 100 or 1000. It is also possible to reduce the number of templates by applying a learning algorithm to many sample groups. Each first vector is a vector expression generated by a PAP (Principal Axis Projection) method (see Patent Document 1) described later. Here, the vector representation held by the template is not necessarily such an X-ray image, and the conversion from the partial image to the vector representation need not be the PAP method.
[0019]
In this image analysis apparatus, first, search processing is performed in the second region in the given input image (step 1). Next, a partial image included in the first area having a size of 64 × 64 pixels having the reference coordinates (x, y) in the given input image is cut out (step 2). Here, the position of (x, y) in the partial image is not necessarily the center, and is changed depending on the recognition target. Further, the size to be cut out is not necessarily 64 × 64.
[0020]
Then, the partial image is input to the vector generation unit 2 and converted into a vector representation by the PAP method (see Non-Patent Documents 1 to 4) (step 3). Here, the PAP method is not always used when converting a two-dimensional partial image into a vector representation (a vector representation generation method from a two-dimensional image).
[0021]
Manhattan distance calculation of similarity evaluation values between vector representations generated from partial images cut out from the input image and all first vector representations present in all first template groups stored in the system (Step 4). Here, the calculation of the similarity evaluation value is not necessarily performed on all the first vectors existing in the first template group. For example, the first vector for calculating the similarity may be a part of the first vector. Further, the similarity calculation does not always use the Manhattan distance calculation. It is possible to use Euclidean distance calculation, histogram intersection, cullback distance, or the like.
[0022]
Among the evaluation values of the similarity calculated by the above-described distance calculation method between vectors, the evaluation value having the highest similarity (the one having the lowest evaluation value) is determined (step 5). Then, the evaluation value information is held in the position information (x, y) in the two-dimensional distribution diagram (step 6). As the evaluation value recorded here, the one having the highest similarity among the similarity evaluation values is selected, but this method is not always followed. For example, the evaluation value may be calculated and recorded as a group using the evaluation values of all the first vectors that have been subjected to the correlation value calculation, or the average of the evaluation values having the highest similarity among the first vectors. May be calculated and recorded.
[0023]
Such a system was applied to L1, U1, and N among anatomical feature points that the orthodontist must identify the position from the cephalometric X-ray image. With respect to L1 and U1, as shown in FIG. 3, a method of cutting out with L1 and U1 as the center can obtain almost the same image, and recognition accuracy that can distinguish these two points cannot be obtained. In addition, if U1, information on the lower teeth is included in the first region if L1, information on the upper teeth is included in the first region, and variations thereof increase and recognition accuracy decreases. In this method, as to U1, the method of clipping is defined so that U1 is at the lower right of the first region and L1 is at the upper right of the first region.
[0024]
FIG. 4 shows how to cut out N. The definition of N is the connecting part of the skull and nasal bones, and the part where the line is slightly inside. As for N, there is a similar part around the eyelid that is often mistaken for new orthodontic students, and the system is prone to misrecognition. When it is cut out at the center, it is very similar as shown in FIG. However, a very different image can be obtained by bringing N to the middle of the upper side of the square of the first region.
[0025]
Then, 100 images are converted into PAP vectors and learning is performed to create a first template group consisting of 15 first vectors, and recognition is performed for 150 new X-ray images. Went. By using the cutting method described above, the recognition rate was improved from 72% to 85% and U1 from 92% to 97%. For N, 95% of the types of misrecognition mentioned above were eliminated and the recognition rate improved from 82% to 88%.
[0026]
Here, the input image does not necessarily need to be a head X-ray image, and the recognition target is not necessarily an anatomical feature point used by the orthodontist. It may be used for finding cancerous tissue in chest X-rays, or may be applied for use in extracting a facial region from a photographic image. The way to cut out is not necessarily defined in such a way that the recognition target point is the upper right and lower right of the region. There may be a position designation in units of pixels such as a few pixels from the bottom right to a few pixels.
[0027]
[Configuration of vector generator]
Here, the VLSI technology was implemented for the vector generation unit 1 in FIG. 2 (see Non-Patent Document 5). The circuit configuration diagram is shown in FIG.
A PAP (Principal Axis Projection) conversion VLSI is roughly divided into two blocks. First, an edge feature extractor 11 that extracts edge features from input two-dimensional image data and generates a feature expression flag is provided, and a vector generator 12 that receives the feature expression flag is provided. A PAP conversion VLSI was configured with such a configuration. A chip photograph is shown in FIG.
[0028]
The measurement result of this circuit is shown in FIG.
As shown in FIG. 7, it takes several minutes to convert a 64 × 64 pixel image into a 64-dimensional vector sequence for a workstation, but 340 msec. The function to calculate with is realized.
[0029]
-Configuration of storage unit and similarity evaluation unit-
A system function unit for storing the pattern group group in FIG. 2 is realized. This functional unit also includes a similarity calculator. However, such a configuration is not necessarily required.
[0030]
First, FIG. 8 shows a basic circuit that holds data for one element of a vector and performs similarity calculation (see Patent Document 2 and Non-Patent Documents 6 to 8).
As shown in FIG. 8, this basic circuit has an input voltage V GG It has a function of reducing power consumption by changing the input voltage, and a function of changing the calculation evaluation method of the similarity calculator flexibly by changing the input voltages A, B, and C. This characteristic is shown in FIG. V GG It can be seen that the current value of the peak is reduced by lowering the value of, and that evaluation functions having various sharpnesses are realized by changing the input voltages A, B, and C.
[0031]
In this basic circuit, one element of a template vector to be stored at the time of the first reset operation is inputted as a voltage. Then, one element of a vector for which similarity evaluation is performed is input as a voltage. Similarity information is converted to current and I OUT Is output from. The higher the similarity is, the more current is output. This I OUT Is used as the similarity evaluation value between the template information and the input vector information.
[0032]
This basic circuit realizes a function as shown in FIG.
First, a piece of knowledge is first stored as a voltage, and then a similarity with one element of a vector input as a voltage is output as a current value. The higher the similarity is, the more current flows.
[0033]
The function of this basic circuit is only the similarity calculation of one element of the vector, but by taking the sum of the output currents as shown in FIG. A circuit that outputs the degree can be easily realized. For example, in the case of a vector generated by the PAP method, since the number of dimensions of the vector is 64, 64 outputs may be connected. However, this number does not necessarily need to be 64, and the number changes according to the number of dimensions of the vector to be used.
[0034]
A functional block having a storage and similarity calculation function is realized as shown in FIG.
The circuits of FIG. 11 are arranged in parallel, and the input vector X is input to all the circuits simultaneously. With such a configuration, it is possible to simultaneously calculate all the similarities between the input vector and the template vectors in the plurality of pattern group groups simultaneously.
[0035]
An example of realizing such processing is shown in FIG.
In this system, the number of vector dimensions is four. The pattern stored in this circuit is shown in the upper part of FIG. The lower side shows the presented pattern group. The graph shows the similarity between the stored pattern and the presented pattern. The blue line indicates the theoretical value, and the red line indicates the measured value. When exactly the same pattern 7 is input, a large current flows, indicating a high degree of similarity. Also, when a pattern 1 similar to the pattern 7 is input, a very high similarity is shown. However, the low similarity is shown with respect to the pattern 6 which is not similar. Also, the power consumption is about 160 μA even when the current flows with the highest degree of similarity, which is realized with very low power consumption. Here, an example in which the number of dimensions is four is shown, but the number of dimensions is not necessarily four. If it is a vector generated by PAP, it becomes 64, and when other vector generation methods are used, it changes according to the number of dimensions of the vector.
[0036]
(Second Embodiment)
-Basic outline-
As a background of the present embodiment, there is a problem that if there is something that is actually similar to an object, the location is mistakenly recognized. Therefore, in order not to misrecognize such a similar thing, the object is to increase the recognition accuracy by putting a negative template into a negative template and performing a negative evaluation. In this embodiment, the basic recognition system is defined by removing the “position shift” functional configuration from the image analysis apparatus described in the first embodiment.
[0037]
FIG. 14 is a schematic diagram illustrating a schematic configuration of the image analysis apparatus according to the second embodiment.
Similar to FIG. 1 of the first embodiment, this image analysis apparatus finds a feature point representing a position of a specific part defined in advance in an image of a specific object from the input image, and calculates the coordinate value of the feature point. Storage means 101 for storing at least one first template group consisting of a plurality of first vectors representing the feature point for each feature point, and a predetermined one of the input images Cutting means 102 for cutting out a first area of a size of; a moving means 103 for moving the first area within a second area of a predetermined size in the target input image; The conversion means 104 for converting the partial image in the region of the image into a second vector according to a predetermined procedure, and performing a correlation operation between the first vector and the second vector, and similarities to each of the feature points 1st evaluation value representing degree Including an evaluation means 105 for determining, and identifying means 106 for identifying a third region corresponding to the first area including the feature points therein based on the first evaluation value. Further, for at least one feature point, an evaluation means 111 for obtaining a second evaluation value representing the degree of dissimilarity using a second template group that represents an image different from the feature point; A specifying unit 112 that uses both the evaluation value and the second evaluation value to specify the third region by a predetermined specifying method is included.
[0038]
Here, the specifying unit 112 specifies using, for example, fuzzy logic or information on the difference between the first evaluation value and the second evaluation value as a predetermined specifying method. In addition, it is preferable to use an image whose position is shifted from the target as the second template group.
[0039]
-Specific examples-
[Example 1]
FIG. 15 is a schematic diagram illustrating an image analysis apparatus according to the second embodiment.
The image analysis apparatus includes a first storage unit 11 that holds a first template group, and a second storage unit 12 that holds a second template group. The first template group is created by using a vector of anatomical feature points S in the same manner as the basic recognition system. Further, the second template group is created according to a method for creating the first template group in the basic recognition system by collecting partial images included in the third region identified by erroneous recognition in the basic recognition system. Here, the creation method does not necessarily apply the learning algorithm, and the number of the first template group and the second template group to be held may be different.
[0040]
The first region cut out from the second region is converted into a PAP vector representation by the first winner-take-all circuit 13, and the similarity evaluation circuit 15 performs matching with the first template group to evaluate the similarity. Calculate the value. At the same time, a vector expression such as S misrecognition is converted into a PAP vector expression by the second winner-take-all circuit 14, and matching with the second template group is performed by the similarity evaluation circuit 15. Calculate the evaluation value.
[0041]
Then, recognition is performed by holding (evaluation value of similarity) − (evaluation value of dissimilarity) × 0.1 as an evaluation value at the coordinate value (x, y).
As a result of recognizing 150 head X-ray images, the recognition rate of Sella was improved from 72% to 87%. Here, the vector expression is not necessarily a PAP vector expression. Further, the weight applied to the dissimilarity value in the evaluation value calculation method is not necessarily 0.1, but can vary depending on the object. It may be 0.2 or 0.5. The similarity calculation method is not always a simple weighting method. It is possible to use fuzzy logic.
[0042]
[Example 2]
When the recognition is performed by the basic recognition system, the transition of the evaluation value becomes a shape close to a trapezoid as shown in FIG.
Further, when recognition is performed by the basic recognition system, as shown in FIG. 16, the transition of the evaluation value becomes a shape close to a trapezoid, and there is a problem that accuracy of a target point is deteriorated.
[0043]
For the second template group, a partial image whose position is shifted by half from the target point as shown in FIG. 17 is used. The unit shifted here is not necessarily half.
[0044]
The partial image in the cut out first region is expressed as a PAP vector, matched with the first template group, and the similarity is calculated. Here, it is not necessarily said that matching is always performed by converting to the PAP vector representation.
[0045]
At the same time, matching with the second template group is performed to calculate the dissimilarity.
FIG. 18 shows the transition of the evaluation value when the similarity evaluation value is (similarity evaluation value) − (dissimilarity evaluation value) × 0.3. In this way, the evaluation value rises at the correct position and relatively decreases in the vicinity. Here, in the calculation of the evaluation value, the weight 0.3 multiplied by the dissimilarity value is not a fixed value and may change.
[0046]
(Third embodiment)
-Basic outline-
In the background of the present embodiment, when performing a search, there is a problem that the calculation cost of vectorization processing and matching processing increases in proportion to the expansion of the search area. Therefore, it is very important how to perform efficient recognition by appropriately limiting the search area.
[0047]
FIG. 19 is a schematic diagram illustrating a schematic configuration of the image analysis apparatus according to the third embodiment.
Similar to FIG. 1 of the first embodiment, this image analysis apparatus finds a feature point representing a position of a specific part defined in advance in an image of a specific object from the input image, and calculates the coordinate value of the feature point. Is output. This image analysis device finds a feature point representing the position of a specific part defined in advance in an image of a specific object from an input image, and outputs a coordinate value of the feature point. On the other hand, storage means 101 for storing at least one first template group composed of a plurality of first vectors representing the feature points, and a cutout for cutting out a first area of a predetermined size from the input image Means 102, specifying means 121 for specifying the second area using a predetermined area dividing method, moving means 103 for moving the first area in the second area, and a portion in the first area A conversion unit 104 that converts an image into a second vector according to a predetermined procedure, and a correlation operation between the first vector and the second vector are performed, and a first representing the similarity to each feature point Determine the evaluation value of That the evaluation means 105, and is configured and a specifying unit 106 for specifying a third region corresponding to the first area including the feature points therein based on the first evaluation value.
[0048]
The specifying unit 121 specifies using, for example, a third template group different from the first template group in the target input image. As the third template group, for example, a template group for finding information on the skull base, lower jaw, and upper jaw is used. Alternatively, at least one of the feature points whose position is determined may be specified by designating a region having a predetermined positional relationship from the feature point. Here, when the position of the predetermined feature point cannot be determined in the second region, it is preferable to enlarge the second region so that the second region includes at least a part of the adjacent region. It is.
[0049]
-Specific examples-
[Example 1]
An orthodonticist needs to recognize an image analysis apparatus in which a configuration of “region limitation” using the method of region segmentation of the second region is added to the “basic recognition system” from a cephalogram in FIG. It was applied to the recognition problem of the indicated anatomical feature points (S, Or, Gn). Here, the input image is not necessarily an X-ray photograph image, and the recognition target is not an anatomical feature point.
[0050]
As a first template group, the PAP method was applied to the vector representation from 100 X-ray photograph data, and 15 first vectors were created for each anatomical feature point by applying a learning algorithm. (That means that there are a plurality of first template groups.) Here, the number of first template groups held by the system is not necessarily 15 and may be 100 or 1000. In addition, a learning algorithm is not always used. Also, the conversion from the partial image to the vector representation need not be the PAP method.
[0051]
As a third template group, the learning algorithm is applied by converting the low resolution X-ray photograph data of 100 skulls, eyes, upper jaw, lower jaw and neck shown in FIG. After that, 15 template vectors were created by applying a learning algorithm. Here, the number of first template groups held by the system is not necessarily 15 and may be 100 or 1000. In addition, a learning algorithm is not always used. Also, the conversion from the partial image to the vector representation need not be the PAP method.
[0052]
First, a region is divided into the skull base, eyes, upper jaw, lower jaw, and neck using the fourth template group. Here, the region dividing method is not limited to the method shown here. An area such as a nose or a fixing device may be divided.
[0053]
The second region is recognized by performing recognition processing on the skull base region for Sella, the region surrounded by the skull base, eyes, and upper jaw region for Or, and the lower jaw region for Gn. This search area is not limited to this. Other areas can also be targeted for search.
[0054]
This method was applied to the problem of recognizing 150 new X-ray images. Since the search target is limited in advance, the search area is reduced and the calculation time is reduced by 80% on average. In addition, with respect to an example in which a different location is clearly recognized by the basic recognition system, the correct position is recognized. The recognition rate is 72% to 85% for S, 92% to 95% for Or, and 13% for Gn. To 45%.
[0055]
[Example 2]
Using the same image analysis apparatus as in Example 1, U1 (85%) and N (82%) can be recognized with high recognition accuracy, but S (72%) has relatively high recognition accuracy. Low. An example of the failure is shown in FIG. In addition, FIG. 22 shows two-dimensional representations of similarity evaluation values. Thus, a peak appears in the area even at the correct position. Therefore, it is necessary to efficiently limit the area. On the other hand, orthodontists have information on the average and standard deviation values regarding the distance and positional relationship of anatomical feature points.
[0056]
Therefore, in the present embodiment, recognition of Or and N is first performed. Then, as shown in FIG. 23, a circle having a radius of (average of the distance between U1 and S−standard deviation value) and a circle having a radius of (average of the distance of U1 and S + standard deviation value) is centered on U1. Determine the area enclosed. The same applies to N. By doing so, it was possible to limit the area and reduce the misrecognition. By applying such a region limiting method, the recognition rate of S was improved from 72% to 80%. However, it is not always the method used when S is recognized, and the distance from N and U1 is not always used for S recognition. There is a possibility of using an angle, and the reference point is not necessarily an anatomical feature point, and a point that the computer can easily recognize may be newly defined.
[0057]
[Example 3]
In the recognition process, the limitation of the search area (second area) is very important, but if the limitation fails and the target point does not enter the second area, erroneous recognition is performed. At that time, it is very important how to appropriately expand the area. In the method of the first embodiment, when a valid recognition target candidate is not found in the determined second area, the area outside the area adjacent to the determined second area by 20% is included in the second area. Recognized.
[0058]
As a result, the recognition rate was improved from 85% to 87% for S, 95% to 97% for Or, and 45% to 55% for Gn. The reason why the improvement rate is small is that almost correct area designation is performed in the first determination of the second area. The percentage of correct recognition by extending outward by 20% in the case of failure to determine the second region for the first time exceeded 90% for the three anatomical feature points. Here, the method of extending the second area is not necessarily limited to extending outward by 20%. It may be 40% or 50%. Also, the expansion method is not limited to simply expanding at an equal rate in all directions, and depending on the characteristics of the target point, it may be 50% horizontally and 10% vertically expanded.
[0059]
[Example 4]
In the method of the second embodiment, when a valid recognition target candidate is not found in the determined second area, the second area is averaged ± 2 * standard deviation as shown in FIG. Recognition was performed by re-designating the second region by value. The recognition conditions are the same as in the second embodiment.
[0060]
By applying such a method, the recognition rate S was improved from 85% to 89%. The reason why the improvement rate is small here is that almost correct area designation is performed in the first area determination. In the case of 90% of cases, correct recognition was performed by using the average value ± 2 * standard deviation when the first region determination failed. Here, the method of expanding the region is not necessarily limited to the average value ± 2 * standard deviation. There can be 0.5 * standard deviation and 1.5 * standard deviation.
[0061]
(Fourth embodiment)
-Basic outline-
In addition to the configuration of FIG. 1 of the first embodiment (including a so-called “position shift” function), this image analysis apparatus is one of a plurality of classes by a predetermined classification method for at least one feature point. And a calculation means for performing a correlation calculation with the second vector using a fourth template group different from the plurality of first template groups corresponding to the class. As a plurality of classes, for example, classification is performed using maxillary front protrusion, normal occlusion, and mandibular front protrusion. As this classification method, classification may be performed using soft tissue information. As an example of this classification method, classification is performed by performing a correlation operation with the second vector using a plurality of the first template groups.
[0062]
-Specific examples-
U1 and L1 recognized by orthodontists on cephalometric X-ray images vary considerably in the overall bone structure. Therefore, it is very difficult to recognize with a simple template matching technique. Therefore, first, as shown in FIG. 25, the bone structure is classified into two classes, that is, a maxillary front protrusion (extraction) and a mandibular front protrusion (receiving hole). The classification template is created from a low-resolution image in order to focus on rough overall structure information. 100 X-ray images respectively belonging to the tooth extraction and receiving mouth classes are prepared, converted into PAP vector expressions, and 15 tooth extraction and template class templates are created using a learning algorithm. Then, the class is identified by looking at which of the input image structures is close to.
[0063]
Here, the classification class is not limited to the tooth extraction and the receptacle. It is possible to add a normal class such as normal occlusion. In addition, the classification method may not use a low-resolution X-ray image, but may be classified and input by an orthodontist to determine and input, or may be classified based on information extracted from a profile of a profile photographic image. The recognition target is not necessarily a point on the orthodontic X-ray image. Further, the target is not necessarily a point on the head X-ray image. The number of X-ray images used when creating a template is not necessarily 100, and a learning algorithm is not necessarily applied. Further, the number of templates to be held is 15 and is not fixed.
[0064]
Then, U1 and L1 are recognized by using the fourth template group corresponding to each class by the method shown in FIG. The fourth template group is created by applying a technique for creating the first template group to X-ray image photographs belonging to each class. However, in order to increase the flexibility of recognition, there is a case where an intermediate product of both classes is put in each template group. Here, the recognition target is not limited to U1. In addition, the classification class is not limited to the tooth extraction and the receptacle. It is possible to add a normal class such as normal occlusion. The recognition target is not necessarily a point on the orthodontic X-ray image.
[0065]
By applying such a method, the recognition rate of U1 was improved from 92% to 95%, and L1 was improved from 72% to 90%.
[0066]
(Fifth embodiment)
-Basic outline-
In addition to the configuration of FIG. 1 of the first embodiment (including a so-called “position shift” function), the image analysis apparatus includes the resolution of the input image and / or the gradation of the pixel before generating the second vector. And changing means for changing at least one feature point. This changing means creates at least one fifth template group composed of a plurality of first vectors representing the feature points of the input image with resolution and / or pixel gradation.
[0067]
-Specific examples-
[Example 1]
FIG. 27 shows the result of recognizing anatomical features Gn, Go, and li recognized by the orthodontist using the basic recognition system. As shown here, similar points in the vicinity are misrecognized. In each figure in the lower stage, + indicates an accurate point, and an arrow indicates a point that is erroneously recognized.
[0068]
When a doctor recognizes an anatomical feature point, first, a rough position candidate is found using rough peripheral information of the target point. Subsequently, the candidate area is recognized with high accuracy. Therefore, as shown in FIG. 28, a first template group that converts 15 images including target points of standard resolution into vector representations by PAP and holds 15 first vectors by applying a learning algorithm. At the same time, a fifth template group holding 15 first vectors is stored in the same manner using an image having a resolution half that of the standard. First, rough recognition is performed using the fifth template group to obtain a candidate point group, and then high resolution recognition is performed using the first template group.
[0069]
Here, the recognition target is not necessarily an anatomical feature point. A technique for converting an image into a vector representation is not necessarily PAP. A template group is created from 100 images. However, the template group is not necessarily 100 images, and a learning algorithm is not always used. Further, although there is a template group holding 15 vectors, it is not necessarily 15 pieces. A low-resolution image is a half of the standard resolution, but not necessarily a half.
[0070]
A recognition example improved with respect to Gn is shown in FIG. Moreover, the recognition rate of Go, Gn, Ar, Cd, and Ba was improved by using multi-resolution search as shown in FIG.
[0071]
[Example 2]
With respect to the points Gn and Go on the hard tissue shown in FIG. 27, the points on the soft tissue corresponding to the correct anatomical feature points are erroneously recognized. Therefore, we have developed a method that significantly reduces the adverse effects of soft tissue information when recognizing points on hard tissue.
[0072]
When the image is cut out from the input image, the grayscale image has 256 gradations. FIG. 30 shows an example in which images in four directions are extracted by the PAP method with gradation down to 64 gradations. In this way, the information on the soft tissue is considerably extracted at 256 gradations, but the soft tissue information is considerably removed at 64 gradations.
[0073]
Here, the gradation is 64 gradations, but is not necessarily 64 gradations. Further, the method of extracting information after that is not necessarily PAP. Gn and Go were recognized using this method. A first template vector group for holding 15 first vectors was created using a learning algorithm by converting 100 images with gradations of 64 gradations into a vector representation using the PAP method.
[0074]
When this template group was used for 150 sheets, the recognition rate was improved from 13% to 97% for Gn and from 48% to 67% for Go as compared with the case where the number of gradations was 256. Here, the recognition target is not necessarily an anatomical feature point. A technique for converting an image into a vector representation is not necessarily PAP. A template group is created from 100 images. However, the template group is not necessarily 100 images, and a learning algorithm is not always used. Further, although there is a template group holding 15 vectors, it is not necessarily 15 pieces.
[0075]
In addition, this technique has a feature that it can be easily realized on a system, particularly on a VLSI system. For example, if gradation is reduced from 256 gradations to 64 gradations, it can be realized by dropping the lower 2 bits of the input image. Here, the gradation is not necessarily reduced to 64 gradations.
[0076]
(Sixth embodiment)
-Basic outline-
This image analysis apparatus has a function of binarizing an X-ray image when finding MPo as an anatomical feature point in addition to the configuration of FIG. 1 of the first embodiment (including a so-called “position shift” function). It has a configuration.
[0077]
-Specific examples-
[Example 1]
The anatomical feature point MPo recognized by the orthodontist is the uppermost part of the ear rod part that fixes the patient's head when X-ray imaging is performed. In this case, however, the recognition rate does not increase due to the addition of shooting conditions and surrounding information. Therefore, as shown in FIG. 31, the threshold value processing is performed with the pixel value 235 in which the ear rod portion clearly appears, and the recognition is performed after binarization.
[0078]
The recognition condition is that a 100-value binarized image is converted into a vector expression using the PAP method, and a first template group holding 15 first vectors is created by applying a learning algorithm. Then, when recognition was performed on 150 images, the recognition rate was improved from 48% to 75% by performing such preprocessing. However, the anatomical feature point to which such a method is applied here is not necessarily MPo, and the pixel value used as the threshold value is not necessarily fixed at 235. Further, the template group creation method is not limited to this.
[0079]
[Example 2]
Although the anatomical feature point S is similar as shown in FIG. 22, there is a tendency to misrecognize a completely different place. Therefore, we developed a technology to improve the recognition rate. S is the central point of the pituitary gland. Therefore, as shown in FIG. 32, whether or not there is a characteristic of the pituitary gland is examined for the candidate S and an evaluation using the certainty factor is performed.
[0080]
For each feature portion, a template group was created by the same method as that described in the image analysis apparatus of the first embodiment. The recognition rate of S was improved from 72% to 80% by conducting the certainty factor investigation using such partial information. However, the recognition target is not limited to anatomical feature points. Even in the case of an anatomical feature point, it is not necessarily S. Further, the partial features to be used are not necessarily the three shown in FIG. Other features may be used.
[0081]
Note that the basic skeletons of the first to sixth embodiments described above may be configured not only individually but also in combination of these two or all (six). For example, an image analysis apparatus that combines the three of the first to third embodiments includes the storage unit 101 to the specifying unit 106 in the first embodiment, and the position of the feature point in the third region. The evaluation unit according to the second embodiment has a configuration in which each feature point is uniquely determined (that is, shifted) with respect to the origin defined in advance in the third region. 111, the specifying means 112, and the specifying means 121 of the second embodiment are employed.
[0082]
(Other embodiments of the present invention)
Each means constituting the image analysis apparatus according to the first to sixth embodiments and examples described above, and each step (steps 1 to 6 and the like) of the image processing method are stored in a RAM or a ROM of a computer. This can be realized by operating the program. This program and a computer-readable storage medium storing the program are included in the present invention.
[0083]
Specifically, the program is recorded in a storage medium such as a CD-ROM, or provided to a computer via various transmission media. As a storage medium for recording the program, a flexible disk, a hard disk, a magnetic tape, a magneto-optical disk, a nonvolatile memory card, and the like can be used in addition to the CD-ROM. On the other hand, as the transmission medium of the program, a communication medium (wired line such as an optical fiber, etc.) in a computer network (LAN, WAN such as the Internet, wireless communication network, etc.) system for propagating and supplying program information as a carrier wave A wireless line or the like.
[0084]
In addition, the functions of the above-described embodiments are realized by executing a program supplied by a computer, and the program is used in cooperation with an OS (operating system) or other application software running on the computer. When the functions of the above-described embodiment are realized, or when all or part of the processing of the supplied program is performed by a function expansion board or a function expansion unit of the computer, the functions of the above-described embodiment are realized. Such a program is included in the present invention.
[0085]
For example, FIG. 33 is a schematic diagram illustrating an internal configuration of a general personal user terminal device. In FIG. 33, reference numeral 1200 denotes a computer PC. The PC 1200 includes a CPU 1201, executes device control software stored in the ROM 1202 or the hard disk (HD) 1211, or supplied from the flexible disk drive (FD) 1212. To control.
[0086]
【The invention's effect】
According to the present invention, when a similar image is processed, it can be recognized as similar image data, and a relatively complicated image, particularly an image typified by a dental medical X-ray image or the like. Even in the case of extracting features, an image analysis apparatus capable of accurately and quickly recognizing is realized.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a schematic configuration of an image analysis apparatus according to a first embodiment.
FIG. 2 is a schematic diagram illustrating an image analysis apparatus according to the first embodiment.
FIG. 3 is a diagram showing X-ray photographs of L1 and U1, which are anatomical feature points.
FIG. 4 is a diagram showing how to cut out N in an X-ray photograph;
FIG. 5 is a circuit configuration diagram in which the vector generation unit is mounted in the VLSI technology.
FIG. 6 is a diagram showing a VLSI chip photograph of a vector generation unit.
FIG. 7 is a characteristic diagram showing a measurement result of a circuit in which the vector generation unit is mounted in the VLSI technology.
FIG. 8 is a basic circuit diagram that holds data for one element of a vector and performs similarity calculation;
FIG. 9 is a characteristic diagram of a basic circuit that holds data for one element of a vector and performs similarity calculation.
FIG. 10 is a characteristic diagram showing functions of a basic circuit that holds data for one element of a vector and performs similarity calculation;
FIG. 11 is an explanatory diagram showing an output current of a basic circuit that holds data for one element of a vector and performs similarity calculation;
FIG. 12 is an explanatory diagram showing functional blocks having storage and similarity calculation functions;
FIG. 13 is a characteristic diagram showing a calculation result by a similarity calculation circuit.
FIG. 14 is a schematic diagram illustrating a schematic configuration of an image analysis apparatus according to a second embodiment.
FIG. 15 is a schematic diagram illustrating an image analysis apparatus according to a second embodiment.
FIG. 16 is a characteristic diagram showing similarity evaluation values.
FIG. 17 is a diagram for explaining the transition of the similarity evaluation value using an X-ray photograph.
FIG. 18 is a characteristic diagram showing similarity evaluation values.
FIG. 19 is a schematic diagram illustrating a schematic configuration of an image analysis apparatus according to a third embodiment.
FIG. 20 is a diagram showing an X-ray photograph of an anatomical feature point to be recognized.
FIG. 21 is a diagram showing an X-ray photograph of a third template group.
FIG. 22 is a diagram illustrating an example of recognition failure.
FIG. 23 is a schematic diagram showing a region limiting method using an X-ray photograph.
FIG. 24 is a schematic diagram showing an example of limiting the second region.
FIG. 25 is a diagram showing a classification result using an X-ray photograph.
FIG. 26 is a diagram showing an example of hierarchical recognition by classification using X-ray photographs.
FIG. 27 is a diagram showing an example of recognition of anatomical feature points using an X-ray photograph.
FIG. 28 is a diagram for explaining multiresolution search using an X-ray photograph;
FIG. 29 is a characteristic diagram illustrating an example of recognition improvement using an X-ray photograph.
FIG. 30 is a diagram illustrating an example in which images in four directions are extracted by the PAP method with a gradation being lowered, using an X-ray photograph.
FIG. 31 is a diagram for explaining an example of recognition by binarizing an image using an X-ray photograph;
FIG. 32 is a diagram for explaining a partial feature of an anatomical feature point S using an X-ray photograph;
FIG. 33 is a schematic diagram showing an internal configuration of a personal user terminal device.
FIG. 34 is a diagram showing an example of a head X-ray image using an X-ray photograph.
[Explanation of symbols]
1 Vector generator
2 storage unit
3 Similarity calculation section
4 Winner take all circuit
11 First storage means
12 Second storage means
13 First winner take all circuit
14 Second winner take all circuit
15 Similarity evaluation circuit
101 Storage means
102 Cutting means
103 Transportation means
104 Conversion means
105,111 evaluation means
106, 112, 121 Identification means

Claims (51)

特定の対象物の画像において予め定義された特定部位の位置を表す特徴点を入力画像の中から見つけ出し、前記特徴点の座標値を出力する画像解析装置であって、
前記特徴点の各々に対して当該特徴点を表現する複数の第1のベクトルから成る少なくとも1つの第1のテンプレート群を記憶する手段と、
前記入力画像の中から所定の大きさの第1の領域を切り出す手段と、
前記第1の領域を、対象とする前記入力画像中の所定の大きさの第2の領域内で移動させる手段と、
前記第1の領域内の部分画像を所定の手続きに従って第2のベクトルに変換する手段と、
前記第1のベクトルと前記第2のベクトルとの間の相関演算を行い、前記特徴点の各々に対してその類似度を表す第1の評価値を決定する手段と、
前記第1の評価値に基づいて前記特徴点を内部に含む前記第1の領域に対応する第3の領域を特定する手段と
を含み、
前記第3の領域内における前記特徴点の位置を、前記第3の領域内で予め定義された原点に対して各々の前記特徴点に独自に定められた相対位置関係を用いて決定することを特徴とする画像解析装置。
An image analysis device that finds a feature point representing a position of a specific part defined in advance in an image of a specific object from an input image, and outputs a coordinate value of the feature point,
Means for storing at least one first template group comprising a plurality of first vectors representing the feature points for each of the feature points;
Means for cutting out a first region of a predetermined size from the input image;
Means for moving the first region within a second region of a predetermined size in the target input image;
Means for converting the partial image in the first region into a second vector according to a predetermined procedure;
Means for performing a correlation operation between the first vector and the second vector, and determining a first evaluation value representing the degree of similarity for each of the feature points;
Means for specifying a third region corresponding to the first region including the feature point therein based on the first evaluation value;
Determining the position of the feature point in the third region using a relative positional relationship uniquely defined for each feature point with respect to an origin defined in advance in the third region. A characteristic image analysis apparatus.
少なくとも一つの前記特徴点に対し、その特徴点とは異なる画像を表現する第2のテンプレート群を用いてその非類似度を表す第2の評価値を求める手段と、
前記第1の評価値及び前記第2の評価値の両方を用い、所定の特定手法により前記第3の領域を特定する手段と
を更に含むことを特徴とする請求項1に記載の画像解析装置。
Means for obtaining a second evaluation value representing the degree of dissimilarity with respect to at least one feature point using a second template group representing an image different from the feature point;
The image analysis apparatus according to claim 1, further comprising means for specifying the third region by a predetermined specifying method using both the first evaluation value and the second evaluation value. .
前記第3の領域を特定する手段は、所定の前記特定手法として、ファジー理論を用いることを特徴とする請求項2に記載の画像解析装置。The image analysis apparatus according to claim 2, wherein the means for specifying the third region uses fuzzy theory as the predetermined specification method. 前記第3の領域を特定する手段は、所定の前記特定手法として、前記第1の評価値と前記第2の評価値との差分の情報を用いて特定を行うことを特徴とする請求項2に記載の画像解析装置。The means for specifying the third region performs specification using information on a difference between the first evaluation value and the second evaluation value as the predetermined specification method. The image analysis apparatus described in 1. 前記第2のテンプレート群として、対象から位置をずらした画像を用いることを特徴とする請求項2〜4のいずれか1項に記載の画像解析装置。The image analysis apparatus according to claim 2, wherein an image whose position is shifted from a target is used as the second template group. 前記第2の領域を所定の領域分割の手法を用いて特定する手段を含むことを特徴とする請求項1〜5のいずれか1項に記載の画像解析装置。The image analysis apparatus according to claim 1, further comprising means for specifying the second area using a predetermined area division method. 前記第2の領域を特定する手段は、対象とする前記入力画像中で、前記第1のテンプレート群とは異なる第3のテンプレート群を用いて特定することを特徴とする請求項6に記載の画像解析装置。The means for specifying the second region is specified by using a third template group different from the first template group in the target input image. Image analysis device. 前記第2の領域を特定する手段は、位置を決定された前記特徴点の少なくとも一つを用いて、その特徴点から所定の位置関係にある領域を指定することにより特定することを特徴とする請求項6に記載の画像解析装置。The means for specifying the second region is specified by specifying a region having a predetermined positional relationship from the feature point using at least one of the feature points whose position has been determined. The image analysis apparatus according to claim 6. 前記第2の領域内において、所定の前記特徴点の位置が決定できない場合に、前記第2の領域を隣接する領域の少なくとも一部を含むように前記第2の領域を拡大することを特徴とする請求項7又は8に記載の画像解析装置。When the position of the predetermined feature point cannot be determined in the second region, the second region is enlarged so as to include at least a part of the adjacent region. The image analysis apparatus according to claim 7 or 8. 特定の対象物の画像において予め定義された特定部位の位置を表す特徴点を入力画像の中から見つけ出し、前記特徴点の座標値を出力する画像解析装置であって、
前記特徴点の各々に対して当該特徴点を表現する複数の第1のベクトルから成る少なくとも1つの第1のテンプレート群を記憶する手段と、
前記入力画像の中から所定の大きさの第1の領域を切り出す手段と、
前記第1の領域を、対象とする前記入力画像中の所定の大きさの第2の領域内で移動させる手段と、
前記第1の領域内の部分画像を所定の手続きに従って第2のベクトルに変換する手段と、
前記第1のベクトルと前記第2のベクトルとの間の相関演算を行い、前記特徴点の各々に対してその類似度を表す第1の評価値を決定する手段と、
前記第1の評価値に基づいて前記特徴点を内部に含む前記第1の領域に対応する第3の領域を特定する手段と、
少なくとも一つの前記特徴点に対し、その特徴点とは異なる画像を表現する第2のテンプレート群を用いてその非類似度を表す第2の評価値を求める手段と、
前記第1の評価値及び前記第2の評価値の両方を用い、所定の特定手法により前記第3の領域を特定する手段と
を含むことを特徴とする画像解析装置。
An image analysis device that finds a feature point representing a position of a specific part defined in advance in an image of a specific object from an input image, and outputs a coordinate value of the feature point,
Means for storing at least one first template group comprising a plurality of first vectors representing the feature points for each of the feature points;
Means for cutting out a first region of a predetermined size from the input image;
Means for moving the first region within a second region of a predetermined size in the target input image;
Means for converting the partial image in the first region into a second vector according to a predetermined procedure;
Means for performing a correlation operation between the first vector and the second vector, and determining a first evaluation value representing the degree of similarity for each of the feature points;
Means for identifying a third region corresponding to the first region including the feature point therein based on the first evaluation value;
Means for obtaining a second evaluation value representing the degree of dissimilarity with respect to at least one feature point using a second template group representing an image different from the feature point;
An image analyzing apparatus comprising: means for specifying the third region by a predetermined specifying method using both the first evaluation value and the second evaluation value.
前記第3の領域を特定する手段は、所定の前記特定手法として、ファジー理論を用いることを特徴とする請求項10に記載の画像解析装置。The image analysis apparatus according to claim 10, wherein the means for specifying the third region uses fuzzy theory as the predetermined specifying method. 前記第3の領域を特定する手段は、所定の前記特定手法として、前記第1の評価値と前記第2の評価値との差分の情報を用いて特定を行うことを特徴とする請求項10に記載の画像解析装置。The means for specifying the third region performs specification using information on a difference between the first evaluation value and the second evaluation value as the predetermined specification method. The image analysis apparatus described in 1. 前記第2のテンプレート群として、対象から位置をずらした画像を用いることを特徴とする請求項10〜12のいずれか1項に記載の画像解析装置。The image analysis apparatus according to claim 10, wherein an image whose position is shifted from a target is used as the second template group. 特定の対象物の画像において予め定義された特定部位の位置を表す特徴点を入力画像の中から見つけ出し、前記特徴点の座標値を出力する画像解析装置であって、
前記特徴点の各々に対して当該特徴点を表現する複数の第1のベクトルから成る少なくとも1つの第1のテンプレート群を記憶する手段と、
前記入力画像の中から所定の大きさの第1の領域を切り出す手段と、
第2の領域を所定の領域分割の手法を用いて特定する手段と、
前記第1の領域を前記第2の領域内で移動させる手段と、
前記第1の領域内の部分画像を所定の手続きに従って第2のベクトルに変換する手段と、
前記第1のベクトルと前記第2のベクトルとの間の相関演算を行い、前記特徴点の各々に対してその類似度を表す第1の評価値を決定する手段と、
前記第1の評価値に基づいて前記特徴点を内部に含む前記第1の領域に対応する第3の領域を特定する手段と
を含むことを特徴とする画像解析装置。
An image analysis device that finds a feature point representing a position of a specific part defined in advance in an image of a specific object from an input image, and outputs a coordinate value of the feature point,
Means for storing at least one first template group comprising a plurality of first vectors representing the feature points for each of the feature points;
Means for cutting out a first region of a predetermined size from the input image;
Means for specifying the second region using a predetermined region dividing method;
Means for moving the first region within the second region;
Means for converting the partial image in the first region into a second vector according to a predetermined procedure;
Means for performing a correlation operation between the first vector and the second vector, and determining a first evaluation value representing the degree of similarity for each of the feature points;
An image analyzing apparatus comprising: means for specifying a third area corresponding to the first area including the feature point therein based on the first evaluation value.
前記第2の領域を特定する手段は、対象とする前記入力画像中で、前記第1のテンプレート群とは異なる第3のテンプレート群を用いて特定することを特徴とする請求項14に記載の画像解析装置。The means for specifying the second region is specified by using a third template group different from the first template group in the target input image. Image analysis device. 前記第2の領域を特定する手段は、位置を決定された前記特徴点の少なくとも一つを用いて、その特徴点から所定の位置関係にある領域を指定することにより特定することを特徴とする請求項14に記載の画像解析装置。The means for specifying the second region is specified by specifying a region having a predetermined positional relationship from the feature point using at least one of the feature points whose position has been determined. The image analysis apparatus according to claim 14. 前記第2の領域内において、所定の前記特徴点の位置が決定できない場合に、前記第2の領域を隣接する領域の少なくとも一部を含むように前記第2の領域を拡大することを特徴とする請求項15又は16に記載の画像解析装置。When the position of the predetermined feature point cannot be determined in the second region, the second region is enlarged so as to include at least a part of the adjacent region. The image analysis apparatus according to claim 15 or 16. 前記第1のテンプレート群を記憶する手段は、前記定められた相対位置関係を常に用いた学習を行うことにより、前記第1のテンプレート群を構成する前記第1のベクトルを作成することを特徴とする請求項1〜17のいずれか1項に記載の画像解析装置。The means for storing the first template group creates the first vector constituting the first template group by performing learning always using the determined relative positional relationship. The image analysis apparatus according to any one of claims 1 to 17. 前記第1のテンプレート群を記憶する手段は、前記学習を行うに際して、画像情報のエッジ情報を利用することを特徴とする請求項18に記載の画像解析装置。The image analysis apparatus according to claim 18, wherein the means for storing the first template group uses edge information of image information when performing the learning. 前記第1のテンプレート群を記憶する手段は、前記エッジ情報を抽出する際に、画像情報のメディアン値を用いることを特徴とする請求項18又は19に記載の画像解析装置。20. The image analysis apparatus according to claim 18, wherein the means for storing the first template group uses a median value of image information when extracting the edge information. 前記第2のベクトルを生成する前に、前記入力画像の解像度及び/又は画素の階調を少なくとも一つの前記特徴点に対して変更する手段を更に含むことを特徴とする請求項1〜20のいずれか1項に記載の画像解析装置。21. The method according to claim 1, further comprising means for changing a resolution and / or pixel gradation of the input image with respect to at least one of the feature points before generating the second vector. The image analysis device according to any one of the above. 前記解像度及び/又は画素の階調を変更する手段は、前記解像度及び/又は画素の階調を施された前記入力画像の前記特徴点を表現する複数の前記第1のベクトルから成る少なくとも1つの第5のテンプレート群を作成することを特徴とする請求項21に記載の画像解析装置。The means for changing the resolution and / or pixel gradation includes at least one of the first vectors representing the feature points of the input image having the resolution and / or pixel gradation. The image analysis apparatus according to claim 21, wherein a fifth template group is created. 前記第1の領域の形状が少なくとも一つの前記特徴点について他の前記特徴点のものと異なっていることを特徴とする請求項1〜22のいずれか1項に記載の画像解析装置。The image analysis apparatus according to claim 1, wherein the shape of the first region is different from that of the other feature points with respect to at least one feature point. 少なくとも一つの特徴点に対して所定の分類手法で複数のクラスのうちの一つに分類し、そのクラスに対応する複数の前記第1のテンプレート群とは異なる第4のテンプレート群を用いて前記第2のベクトルとの相関演算を行う手段を更に含むことを特徴とする請求項1〜23のいずれか1項に記載の画像解析装置。Classifying at least one feature point into one of a plurality of classes by a predetermined classification method, and using a fourth template group different from the plurality of first template groups corresponding to the class The image analysis apparatus according to claim 1, further comprising means for performing a correlation operation with the second vector. 前記分類手法として、複数の前記第1のテンプレート群を用いて前記第2のベクトルとの相関演算を行うことにより分類することを特徴とする請求項24に記載の画像解析装置。25. The image analysis apparatus according to claim 24, wherein classification is performed by performing a correlation operation with the second vector using the plurality of first template groups as the classification method. 前記第2のベクトルに変換する手段は、画像情報のエッジ情報を利用することを特徴とする請求項1〜25のいずれか1項に記載の画像解析装置。26. The image analysis apparatus according to claim 1, wherein the means for converting into the second vector uses edge information of image information. 前記第2のベクトルに変換する手段は、前記エッジ情報を抽出する際に、前記第1の領域内における所定の大きさの第4の領域内の情報のメディアン値を用いることを特徴とする請求項1〜26のいずれか1項に記載の画像解析装置。The means for converting to the second vector uses a median value of information in a fourth area of a predetermined size in the first area when extracting the edge information. Item 27. The image analysis device according to any one of Items 1 to 26. 前記第2のベクトルに変換する手段は、その処理中に集積回路を利用することを特徴とする請求項1〜27のいずれか1項に記載の画像解析装置。28. The image analysis apparatus according to claim 1, wherein the means for converting to the second vector uses an integrated circuit during the processing. 前記第1の評価値を決定する手段は、前記第1のベクトルと第2のベクトルとの間の相関演算処理について、その処理中に集積回路を利用することを特徴とする請求項1〜28のいずれか1項に記載の画像解析装置。29. The means for determining the first evaluation value uses an integrated circuit during a correlation calculation process between the first vector and the second vector. The image analysis apparatus according to any one of the above. 前記入力画像として医用X線画像を用い、前記特徴点として医学的に予め定義された所定特徴点を見つけ出すことを特徴とする請求項1〜29のいずれか1項に記載の画像解析装置。30. The image analysis apparatus according to claim 1, wherein a medical X-ray image is used as the input image, and a predetermined feature point medically defined in advance is found as the feature point. 前記X線画像が歯科医療用のものであることを特徴とする請求項30に記載の画像解析装置。The image analysis apparatus according to claim 30, wherein the X-ray image is for dentistry. 前記所定特徴点として、柔組織上の点を含むことを特徴とする請求項31に記載の画像解析装置。32. The image analysis apparatus according to claim 31, wherein the predetermined feature point includes a point on a soft tissue. 前記第3のテンプレート群として、頭蓋底、下顎部、及び上顎部の情報を見つけ出すテンプレート群を用いることを特徴とする請求項7又は15に記載の画像解析装置。The image analysis apparatus according to claim 7 or 15, wherein a template group for finding out information on the skull base, the lower jaw, and the upper jaw is used as the third template group. 複数の前記クラスとして、上顎前突、正常咬合、及び下顎前突を用いてクラス分けを行うことを特徴とする請求項24又は25に記載の画像解析装置。26. The image analysis apparatus according to claim 24, wherein classification is performed using a maxillary frontal protrusion, a normal occlusion, and a lower frontal protrusion as the plurality of classes. 前記分類手法として、柔組織の情報を利用して分類することを特徴とする請求項34に記載の画像解析装置。The image analysis apparatus according to claim 34, wherein classification is performed using soft tissue information as the classification method. 前記第4のテンプレート群として、上顎前突用と正常咬合用と下顎前突用のテンプレート群を利用することを特徴とする請求項24、25、34又は35に記載の画像解析装置。36. The image analysis apparatus according to claim 24, 25, 34, or 35, wherein a template group for maxillary protrusion, normal occlusion, and mandibular protrusion is used as the fourth template group. 前記所定特徴点として、Point Aを見つけることを特徴とする請求項31、34〜36のいずれか1項に記載の画像解析装置。37. The image analyzing apparatus according to claim 31, wherein Point A is found as the predetermined feature point. 前記所定特徴点として、Point Bを見つけることを特徴とする請求項31、34〜36のいずれか1項に記載の画像解析装置。37. The image analysis apparatus according to claim 31, wherein Point B is found as the predetermined feature point. 前記所定特徴点としてNasionを見つけることを特徴とする請求項31に記載の画像解析装置。32. The image analysis apparatus according to claim 31, wherein a Nasion is found as the predetermined feature point. 前記所定特徴点としてNasionを見つける際に、Nasionを含む前記第1の領域において骨部分が白く背景部分が黒い均質に近い画素値であることを利用することを特徴とする請求項39に記載の画像解析装置。40. The method according to claim 39, wherein when finding a Nation as the predetermined feature point, the first region including the Nation uses a pixel value that is close to homogeneity with a white bone portion and a black background portion. Image analysis device. 前記所定特徴点としてSellaを見つけることを特徴とする請求項31に記載の画像解析装置。32. The image analysis apparatus according to claim 31, wherein Sella is found as the predetermined feature point. 前記所定特徴点としてSellaを見つける際に、まず所定の解像度で見つけ出し、所定の解像度よりも高解像度且つ高精度で見つけ出すことを特徴とする請求項41に記載の画像解析装置。42. The image analysis apparatus according to claim 41, wherein when the Sella is found as the predetermined feature point, it is first found at a predetermined resolution, and is found with higher resolution and higher accuracy than the predetermined resolution. 前記所定特徴点としてSellaを見つける際に、Sellaの部分的特徴を利用して認識することを特徴とする請求項41又は42に記載の画像解析装置。43. The image analysis apparatus according to claim 41, wherein when the Sella is found as the predetermined feature point, the Sella is recognized using a partial feature of the Sella. 前記所定特徴点としてOrbitaleを見つけることを特徴とする請求項31に記載の画像解析装置。32. The image analysis apparatus according to claim 31, wherein an Orbitale is found as the predetermined feature point. 前記所定特徴点としてMPo及び/又はAPoを見つけることを特徴とする請求項31に記載の画像解析装置。32. The image analysis apparatus according to claim 31, wherein MPo and / or APo is found as the predetermined feature point. 前記所定特徴点としてMPo及び/又はAPoを見つける際に、前記歯科医療用のX線画像を2値化して見つけることを特徴とする請求項45に記載の画像解析装置。46. The image analysis apparatus according to claim 45, wherein when the MPo and / or APo is found as the predetermined feature point, the dental X-ray image is binarized and found. 前記所定特徴点としてL1を見つけることを特徴とする請求項31、34〜36のいずれか1項に記載の画像解析装置。37. The image analysis apparatus according to claim 31, wherein L1 is found as the predetermined feature point. 前記所定特徴点としてL1を見つける際に、歯のエナメル質情報を利用することを特徴とする請求項47に記載の画像解析装置。48. The image analysis apparatus according to claim 47, wherein tooth enamel information is used when L1 is found as the predetermined feature point. 前記所定特徴点としてU1を見つけることを特徴とする請求項31、34〜36のいずれか1項に記載の画像解析装置。37. The image analysis apparatus according to claim 31, wherein U1 is found as the predetermined feature point. 前記所定特徴点としてU1を見つける際に、歯のエナメル質情報を利用することを特徴とする請求項49に記載の画像解析装置。The image analysis apparatus according to claim 49, wherein tooth enamel information is used when U1 is found as the predetermined feature point. 前記所定特徴点としてU1を見つける際に、各々の特徴点それぞれ独自に定められた相対位置関係として対象とする点を前記第3の領域内の右上領域にすることを特徴とする請求項49に記載の画像解析装置。50. The method according to claim 49, wherein when U1 is found as the predetermined feature point, the target point is set as an upper right region in the third region as a relative positional relationship uniquely determined for each feature point. The image analysis apparatus described.
JP2003180257A 2003-06-24 2003-06-24 Image analysis apparatus Pending JP2005013363A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003180257A JP2005013363A (en) 2003-06-24 2003-06-24 Image analysis apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003180257A JP2005013363A (en) 2003-06-24 2003-06-24 Image analysis apparatus

Publications (1)

Publication Number Publication Date
JP2005013363A true JP2005013363A (en) 2005-01-20

Family

ID=34181334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003180257A Pending JP2005013363A (en) 2003-06-24 2003-06-24 Image analysis apparatus

Country Status (1)

Country Link
JP (1) JP2005013363A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008229322A (en) * 2007-02-22 2008-10-02 Morita Mfg Co Ltd Image processing method, image displaying method, image processing program, storage medium, image processor, and x-ray imaging device
JP5510619B1 (en) * 2012-06-20 2014-06-04 コニカミノルタ株式会社 Image processing device
KR20170098386A (en) * 2016-02-19 2017-08-30 주식회사바텍 Method and Apparatus for Detection of a Region Representing Interdental Caries in an X-ray Image
JP2018175695A (en) * 2017-04-20 2018-11-15 富士フイルム株式会社 Registration apparatus, registration method, and registration program
US11980491B2 (en) 2018-09-27 2024-05-14 Osaka University Automatic recognition method for measurement point in cephalo image

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008229322A (en) * 2007-02-22 2008-10-02 Morita Mfg Co Ltd Image processing method, image displaying method, image processing program, storage medium, image processor, and x-ray imaging device
US8254520B2 (en) 2007-02-22 2012-08-28 J. Morita Manufacturing Corporation Image processing method, image display method, image processing program, storage medium, image processing apparatus and X-ray imaging apparatus
JP5510619B1 (en) * 2012-06-20 2014-06-04 コニカミノルタ株式会社 Image processing device
KR20170098386A (en) * 2016-02-19 2017-08-30 주식회사바텍 Method and Apparatus for Detection of a Region Representing Interdental Caries in an X-ray Image
KR102472034B1 (en) 2016-02-19 2022-11-30 주식회사 바텍 Method and Apparatus for Detection of a Region Representing Interdental Caries in an X-ray Image
JP2018175695A (en) * 2017-04-20 2018-11-15 富士フイルム株式会社 Registration apparatus, registration method, and registration program
US11980491B2 (en) 2018-09-27 2024-05-14 Osaka University Automatic recognition method for measurement point in cephalo image

Similar Documents

Publication Publication Date Title
Oktay Tooth detection with convolutional neural networks
Wang et al. Area determination of diabetic foot ulcer images using a cascaded two-stage SVM-based classification
Wang et al. Evaluation and comparison of anatomical landmark detection methods for cephalometric x-ray images: a grand challenge
EP2948062B1 (en) Method for identifying a specific part of a spine in an image
Oktay et al. Simultaneous localization of lumbar vertebrae and intervertebral discs with SVM-based MRF
JP2008520344A (en) Method for detecting and correcting the orientation of radiographic images
JP2002253539A (en) Medical image identification system, medical image identification processing method, program for medical image identification, and recording medium therefor
CN111539911B (en) Mouth breathing face recognition method, device and storage medium
JP2006006359A (en) Image generator, image generator method, and its program
JP2006325937A (en) Image determination device, image determination method, and program therefor
JP2011156272A (en) Image processing apparatus, image processing method, image processing system, and program
Ren et al. Detection of trabecular landmarks for osteoporosis prescreening in dental panoramic radiographs
Pattanachai et al. Tooth recognition in dental radiographs via Hu's moment invariants
Banu et al. Texture based classification of dental cysts
JP2005013363A (en) Image analysis apparatus
CN115761226A (en) Oral cavity image segmentation identification method and device, electronic equipment and storage medium
Park et al. A trends analysis of dental image processing
Sridhar et al. Lung Segment Anything Model (LuSAM): A Prompt-integrated Framework for Automated Lung Segmentation on ICU Chest X-Ray Images
Dhar et al. Automatic tracing of mandibular canal pathways using deep learning
CN114066850A (en) Image binarization method based on classification framework
JP2022147713A (en) Image generation device, learning device, and image generation method
Elaiwat et al. An automated system for cephalometric soft-tissue landmark detection
JP2004094644A (en) Image processor, image processing method, storage medium, and program
Xu et al. A multi-resolution deep forest framework with hybrid feature fusion for ct whole heart segmentation
Elaiwat et al. Advancing Cephalometric Soft-Tissue Landmark Detection: An Integrated AdaBoost Learning Approach Incorporating Haar-Like and Spatial Features

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090623

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091027