JP5534840B2 - 画像処理装置、画像処理方法、画像処理システム及びプログラム - Google Patents

画像処理装置、画像処理方法、画像処理システム及びプログラム Download PDF

Info

Publication number
JP5534840B2
JP5534840B2 JP2010022283A JP2010022283A JP5534840B2 JP 5534840 B2 JP5534840 B2 JP 5534840B2 JP 2010022283 A JP2010022283 A JP 2010022283A JP 2010022283 A JP2010022283 A JP 2010022283A JP 5534840 B2 JP5534840 B2 JP 5534840B2
Authority
JP
Japan
Prior art keywords
imaging region
imaging
image processing
group
ray image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010022283A
Other languages
English (en)
Other versions
JP2011156272A (ja
Inventor
裕之 漆家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010022283A priority Critical patent/JP5534840B2/ja
Priority to US13/012,686 priority patent/US20110188743A1/en
Publication of JP2011156272A publication Critical patent/JP2011156272A/ja
Application granted granted Critical
Publication of JP5534840B2 publication Critical patent/JP5534840B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、被検体を撮影した画像の画像処理に関する。
デジタルX線画像等の診断に用いられるデジタル画像は、医師による診断の質を向上させる診断能の高い画像にするために、階調変換等の様々な画像処理が施される。この画像処理は、撮影された部位によって診断のポイントが異なるため各撮影部位に特化した画像処理がなされる。
この撮影部位は、頭部、肺、下肢など多岐に渡るため、撮影時に逐一設定するとすれば作業の負荷は大きい。そこで、画像から撮影部位を識別することで、画像に施すべき画像処理を決定し、撮影時の作業負荷を大きく低減する技術がある。この技術は、緊急を要する救急患者の撮影や、放射線技師が不在でX線撮影に慣れていない医師が撮影する場合などで特に有用である。
このような技術として特許文献1には、ニューラルネットにより撮影部位を識別する技術が開示されている。また非特許文献1には、サポートベクターマシン(SVM:Support Vector Machine)を二分器として用いて対象群を複数のカテゴリに分類する技術が開示されている。ここでは、ノードを識別器とする二分木を利用して識別を行っている。
特開平4−58943号公報
Gjorgji Madzarov,Dejan Gjorgjevikj and Ivan Chorbev,A Multi−class SVM Classifier Utilizing Binary Decision Tree,Informatica Vol.33(2009),pp.233−241.
しかしながら従来の技術では、誤識別により誤った撮影部位に対応する画像処理方式が選択される結果、対象画像の撮影部位に適さない画像処理が行われてしまう場合があった。
本発明はかかる課題に鑑み、撮影部位の誤識別が画像処理に与える影響を低減することを目的とする。
そこで本発明の実施形態に係る画像処理装置は、複数の撮影部位の種類を、該複数の撮影部位の種類のそれぞれに対応する画像処理の特性に応じて複数の一次撮影部位グループに分け、該複数の一次撮影部位グループのそれぞれを、該複数の一次撮影部位グループのそれぞれに属する撮影部位の種類に対応する画像処理の特性に応じて複数の二次撮影部位グループに分けるグループ分け手段により得られる、前記複数の一次撮影部位グループと前記複数の二次撮影部位グループの情報を用いてX線画像を処理する画像処理装置であって、入力X線画像の撮影部位の種類が複数の一次撮影部位グループのいずれに含まれるかを識別する第一の識別器と、該一次撮影部位グループに含まれる種類の撮影部位を撮影して得られた入力X線画像について、該入力X線画像の撮影部位の種類が複数の二次撮影部位グループのいずれに含まれるかを識別する第二の識別器とを含む、複数の識別器を取得する取得手段と、X線画像を前記複数の識別器の入力データとして該複数の識別器による処理を実行し、該X線画像の撮影部位の種類を含む一次撮影部位グループと二次撮影部位グループとを順次識別していくことにより、該X線画像の撮影部位の種類を識別する識別手段と、前記識別された撮影部位の種類に対応した画像処理を前記画像に施す処理手段と、を有することを特徴とする。
かかる構成を有する本発明によれば、グループ単位での識別は個々の撮影部位を単位とする識別に比べて単位毎のサンプル数が多く精度の高いグループ識別をすることができる。また、撮影部位を画像処理の特性に応じて分けることにより、グループに分類する際の識別精度を上げることができる。
そして、仮にグループ内での撮影部位の識別が失敗したとしても、精度の高いグループ単位での識別が成功すれば特性の似た画像処理が施されることとなるため、識別の誤りに起因する誤診断を減らすことができる。
第一の実施例に係るX線撮像システムの構成図である。 画像処理装置100が作成する撮影部位グループ木構造の概念図である。 画像処理装置100が実行する処理の流れを示すフローチャートである。 グループ分けの概念を示す図である。 サポートベクターマシンを説明する概念図である。 組織構造に基づく特徴量を用いた特徴ベクトルを説明する概念図である。 組織構造に基づく特徴量を用いた特徴ベクトルを説明する概念図である。 画像処理の特性とグループ分離度を用いてグループ分けをする方法を説明する概念図である。 第二の実施例に係る画像処理装置100が実行する処理の流れを示すフローチャートである。
以下、本発明の実施形態について図面を用いて説明する。
本発明は、例えば図1に示すようなX線撮影システムに適用される。このX線撮影システムは、X線源101から発生し、被検体102を透過したX線をX線検出器103で検出して形成した被検体の画像から撮影部位を識別し、撮影部位に対応した画像処理を施し診断者に提供する機能を有するシステムである。識別は、予め撮影部位を画像処理の特性に応じて分類した木構造のデータを用いて行うものである。
以下、X線撮影システムの構成を図1に基づき説明する。画像処理装置100は、X線画像を取得し、その撮影部位を識別して撮影部位に対応した画像処理を行うというものである。
X線源101は被検体に照射するX線を発生する装置であり、X線発生装置制御部104により制御される。X線発生装置制御部104はX線源101の線量、照射範囲、管電流、管電圧、照射開始時間や終了時間等を制御する。X線源101が発生させたX線は被検体102に照射される。被検体102は、下肢や肺野といった所定の撮影部位に対してX線の照射を受ける。組織構造によってX線の透過率(吸収率)が異なっており、この透過X線の分布が撮影部位の内部構造を示すこととなる。検出器103は、この被検体102の所定の撮影部位を透過したX線を検出して電気信号に変換するデジタル検出器であり、AD変換やオフセット・ゲイン補正等を行ってX線撮影画像を形成する。画像入力部105はこのX線撮影画像を取得し、画像処理装置100に入力する。入力された画像は記憶部116に格納される。X線撮影システム制御部106はシステムの各部を統合的に制御する。
画像処理部107は入力された画像に対して階調変換処理、エッジ強調処理などの画像処理を行う。記憶部116には、撮影部位と、それに対応する画像処理の種類及びパラメータが記憶されているテーブルが格納されており、かかるテーブルを画像処理部107が参照して、入力された画像に映された被検体の部位が下肢であるか肺野であるか等の撮影部位に対応した画像処理を画像に施す。これにより各撮影部位に対して適切な画像処理が施されることとなり、病変の診断精度を向上させることができる。
撮影部位識別部171はグループ分け処理部1711、識別部1712、撮影部位木構造保存部1713を有し、入力された画像から撮影部位を識別する。グループ分け処理部1711は、撮影部位を分類した木構造を作成する。作成される木構造のデータは、各撮影部位が属するグループの情報と、各グループが有する親ノードと子ノードの情報として撮影部位木構造保存部1713に格納される。撮影部位木構造保存部1713は、撮影部位をグループ分けした木構造のデータと、生成された識別器を木構造のデータの各ノードに関連付けて格納する。グループ分け処理の仕方については後述する。
識別部1712は木構造に対応した識別器を生成する。本実施例において識別器はSVMにより生成されるが、各グループに対応する識別器の生成に必要なパラメータを、各グループ情報と対応付けて撮影部位木構造保存部1713に格納される。識別器の生成処理については後述する。
また、識別部1712は生成した識別器を画像に対して適用し、撮影部位を特定する。特定された撮影部位の情報は、例えば画像データのヘッダー部に格納する等の方法により関連付けられ、画像と共に画像保存部108に格納される。
画像保存部108は画像入力部105により得られた画像と、画像処理部107による処理後の画像を格納する。診断モニタ109は処理後の画像を表示させる表示部であり、医師等の診断者は診断モニタ109に表示された処理後画像を見て診断を行う。操作部110はユーザからの入力を受け付けてX線撮影システム制御部106に指示を送る。例えば撮影部位識別部171による識別が誤っていた場合などに、正しい部位を入力するためなどに用いられる。ネットワーク111を介して、X線撮影システムの制御部はプリンター112、診断ワークステーション113、画像データベース114にアクセス可能であり、これら装置との間で画像をはじめとするデータの入出力を行う。その他、テーブル115は被検体102を載せる台である。記憶部116は本システムで識別可能な撮影部位のリストや、その撮影部位に対応した画像処理に用いる変換式、パラメータなど、必要な情報を保持する。また、撮影部位識別部171をソフトウェアとして実装する場合には、撮影部位識別部171の処理を実現するためのプログラムが格納される。
撮影部位識別部171について図2を用いて詳細に説明する。図2は、グループ分け処理部1711が作成する撮影部位グループ木構造の概念を示した図である。全ての撮影部位を含むグループが根ノードとなり、順に2クラスに分けられ、最終的に撮影部位が葉ノードとなる木構造である。葉ノード以外の全てのノードは複数の撮影部位を含むグループとなっており、全ての撮影部位がこのような木構造で管理される。この各ノードのグループを二つの子ノードのグループまたは撮影部位に分けるための識別器が定義される。
まず、撮影部位全体を二つのグループに分割する2クラス識別器(二分器)を作成する。第2図においては、撮影部位全体をグループ1とグループ2に分けている。この二つのグループの分け方は、撮影部位全体を2分割する組み合わせの数だけある。この分け方の中で最適な分け方を選択するのであるが、その基準には、撮影部位に対応して定められる画像処理の特性を用いる。
グループ化は、ある複数の撮影部位がその中の別の撮影部位に誤って識別されたとしても、誤識別による影響が小さいものであれば、それらの複数の撮影部位はまとめてグループ化して一つの撮影部位として扱うようにしたものである。撮影部位を誤って識別した時の影響で最も大きいのは、誤って識別された撮影部位に設定されている情報(パラメータ)で画像処理が行われてしまうことである。ここで、撮影部位に設定される画像処理情報(パラメータ)が同じ、もしくは画質に影響しない程度の違いしかない撮影部位群については、撮影部位を誤って識別しても影響は小さいということができる。よってこれらの撮影部位群については一つのグループとして扱う。
上述の構成と機能を有する画像処理装置100による処理の流れを図3のフローチャートに従い説明する。記載の処理は主に画像処理部107と撮影部位識別部171により行われる。
まずステップS301にて、記憶部116に記憶された撮影部位のリストを参照して、画像処理装置100のグループ分け処理部1711が全ての撮影部位をグループとし、このグループを根ノードとする。
ステップS302では、グループ分け処理部1711が、記憶部116に記憶された撮影部位とそれに対応する画像処理の特性をそれぞれ複数取得し、この特性に応じた撮影部位のグループ分けを行う。
グループ分け処理部1711が行うグループ分けの概念を図4に基づいて説明する。例えば頭部グループ(頭部正面と頭部側面)と足グループ(足首、膝、大腿骨)と股関節グループ(右股関節、左股関節)をグループとして点線で囲んで示している。このようなグループは一つの撮影部位として扱って常に同じグループの方に属するようにグループ分割されていき、最後にそのグループだけになった時に、そのグループ内を分ける。
このグループ化は、画像処理の特性に応じて行われる。例えば、階調変換であれば、階調変換に用いる変換曲線の曲線形が類似するグループ分けを行う。階調変換の曲線形が類似していれば強調する濃度域が類似することとなるため、そのようなグループ内の識別に失敗したとしても、処理後の画像に与える影響を小さくすることができる。また別の例として、基準となる特定領域の画素値が一定の範囲となるようなグループに分けることが考えられる。被検体の特定領域が診断上重要となる場合においては、その特定領域の画素値の濃度が一定の範囲に収まるグループ内での識別の失敗は許容できることがあるからである。また別の例としては、周波数帯域での処理を行う場合に、一定範囲の周波数成分に対して同一の処理を施す複数の撮影部位をグループ化することが考えられる。さらには、画像中のエッジ成分を強調する処理において、強調するエッジ成分が類似する撮影部位をグループ化することも考えられる。診断用画像には先鋭化処理や階調変換処理などの複数の処理が行われるが、画像処理全体の影響を考慮して類似度を定めても、もっとも診断に影響を与える処理を基準にしてグループ分けをしても良い。これについては、ユーザの設定により行われることとなる。
これら類似度または設定値は、診断に与える影響が許容できる範囲を意味する値として、ユーザが設定することができる。このグループ分けは、ユーザの入力に応じて行ってもよく、類似度を自動的に判定してもよい。類似度の判定は、階調変換曲線の類似度であれば、階調変換曲線を定義するパラメータを参照して、一定の範囲内に含まれるか否かによりグループ分けする。
次にステップS303は、識別器の生成処理に入る。先述のステップS301にて決定された各グループから、識別部1712が特徴ベクトルを決定する。特徴ベクトルは、各グループを分離し易い値を設定する。この設定処理については後述する。ステップS304では、識別器を決定する。ここでは、画像データベース114に格納された、既に撮影部位が判明している学習用画像(ラベル画像)を決定されたグループに分け、各グループの画像から特徴量を抽出し、サポートベクターマシン法により各グループを分ける識別器を生成する。この処理についても後述する。生成された識別器は、撮影部位木構造保存部1713に木構造の各ノードと関連付けて保存する。
ステップS305では、グループ分け処理部1711はグループ分けされた二つの撮影部位グループを、グループ分けの対象となったノードを親ノードとする子ノードに設定する。この情報は、撮影部位木構造保存部1713に格納される。
ステップS306では、グループ分け処理部1711は、グループ分けの対象となった撮影部位グループが一つの撮影部位であるか、つまり分けられたグループに複数の撮影部位が含まれていないかを判定する。この判定は、撮影部位木構造保存部1713の情報を参照して行われる。ステップS305にて子ノードとされたグループに撮影部位が複数含まれている場合には、ステップS307に進む。ここでは、グループ分け処理部1711がこの子ノードのグループを分割の対象としステップS302の処理に進む。
ステップS306で分けられたグループが一つの撮影部位となっている場合には(ステップS306でYes)、ステップS308の処理に進む。ここでは、グループ分け処理部1711は、撮影部位木構造保存部1713を参照して、木構造における全ての葉ノードに該当するグループが一つの撮影部位となっているかを判定する。判定の結果葉ノードのグループが一つの撮影部位でなければ(ステップS308でYes)、ステップS309でグループ分け処理部1711は葉ノードのグループを次のグループ分けの対象とする。全ての葉ノードが一つの撮影部位となっていれば(ステップS308でNo)、木構造の作成を終了する。
このようにグループ分けと識別器(二分器)の決定を順次繰り返していき、各々のグループ分けが最終的に一つの撮影部位になるまで繰り返すことによって、図4に示すような撮影部位グループ木構造を作成する。
撮影部位グループ木構造の作成が終了後、ステップS310にて識別部1712は撮影部位の判明していない画像に対して撮影部位の識別処理を実行する。識別部1712は、画像入力部105から取得したX線撮影画像または画像データベース114に格納された画像に対して、撮影部位木構造保存部1713に格納された木構造及び識別器により識別処理を実行する。この処理は、サポートベクターマシン法により生成された識別器を取得した未知画像に適用して行う。X線画像の特徴ベクトルを求めて最初のグループ1とグループ2に分ける識別器にかけてどちらのグループに属しているかを識別する。そして、該当するグループのうちいずれの子ノードのグループに該当するかを、当該グループに関連付けられた識別器を適用して識別する。例えばグループ1に属していたとすれば、次にグループ1−1とグループ1−2に分ける二分器にかけてどちらのグループに属しているのかを識別する。このように、2グループのいずれに該当するかという識別(第一の識別)を行った後に、グループ内に含まれる撮影部位のいずれに該当するかを識別する(第二の識別)。このような処理を木構造に従って実行し、該当する葉ノードを見つけることで識別が完了し、その葉ノードに関連付けられた撮影部位が取得した画像の撮影部位と識別されたことになる。
ステップS311では、画像処理部107は、記憶部116を参照して識別された撮影部位に対応する画像処理の方法を取得し、画像に対して画像処理を施す。この画像処理は、例えば階調変換やエッジ強調処理などの、検出器からの信号をAD変換することにより得られた原画像を診断に用いる画像とするための画像処理である。
この撮影部位グループ木構造を使えば新たにX線撮影されたデジタルX線画像の撮影部位を識別することができる。また上位のグループではサンプル数が多くなるため、より信頼度の高い識別器を生成することができる。更に上位のグループでの識別が成功すれば、グループは撮影部位に対応した画像処理の特性に応じて作成されるため、グループ内で撮影部位の識別を誤っても、その影響が限定され、画像処理の選択ミスによる誤診断を低減させることができる。
<識別器の生成処理>
この二分木による撮影部位の識別を画像から行うために、識別部1712は学習用画像を用いて識別器を生成する。学習用画像は複数のX線画像からなり、予め撮影部位が特定され、各画像に関連付けられたものである。識別器の生成には、サポートベクターマシン法を用いる。
図5は代表的な識別器であるサポートベクトルマシンを説明する概念図である。
識別にはデジタルX線画像をそのまま使うのではなく、識別の対象がうまく分離して空間に分布するようにデジタルX線画像から特徴ベクトルを生成する。(特徴ベクトルの生成については後述する)
図5においては、第一部位グループ(頭部正面、頭部側面、頚椎)と第2部位グループ(胸部正面、胸部側面、肩)の識別を表している。
第1部位グループに属する撮影部位のディジタルX線画像の特徴ベクトルを図5の中では□で表している。この□は同じ、もしくは類似の撮影部位を撮影した画像の特徴ベクトルであるから、各々近い位置に配置されることになる。したがって□の全体としては固まった分布になっている。同様に第2部位グループに属する撮影部位のデジタルX線画像の特徴ベクトルを図5では○で表しているが、これも○の全体としては固まった分布となっている。このように、特徴ベクトルは第一部位グループと第2部位グループがうまく分離するように生成されているので、□の分布と○の分布の間に識別面を置くことができる。特徴ベクトルは通常高次元であるから、識別面は特徴ベクトルの次元より一つ次元の低い超平面となっている。そこで新たにX線撮影が行われてデジタルX線画像が得られれば、その特徴ベクトルが識別面のどちらに存在するのかを調べることによってそのデジタルX線画像の撮影部位を識別することができる。
このような識別面をどのように決めるかには様々な手法があるが、サポートベクトルマシンはこのような手法の中の一つである。
サポートベクトルマシンは、第1番目のグループの特徴ベクトルから第2番目の部位グループの分布に最も近い特徴ベクトルと、第2番目の特徴ベクトルの中で第1番目の分布に最も近い特徴ベクトルの間の距離が最小になるように識別面を決める。これらの特徴ベクトルは、図5の■または●で表されており、サポートベクトルと呼ばれる。これらサポートベクトル間の距離はマージンと呼ばれる。
このように、識別面を決定することによって識別を行う識別器は、一方か他方のどちらであるかを識別する2クラスの識別器(二分器)である。この二分器を使って、数十種類に及ぶ撮影部位を識別するのであるが、このために撮影部位グループ木構造を用いる。
(二分器の代表的な例として、サポートベクトルマシンを例にして説明したが、本発明においてはサポートベクトルマシンに限らずAdaboostのようなブースティング法やその他様々な二分器であっても適用可能である。更には3クラス、4クラスなどの少数クラス識別器であっても適用可能である)
<識別器の生成に用いる特徴量の抽出処理>
特徴ベクトルは識別すべき対象がうまく分離するような特徴量を複数並べてベクトル化したものである。撮影部位識別のための特徴ベクトルの概念図を図6(a)に示す。
この図6(a)の上に示した図は、胸部正面、胸部側面、肩の3つの撮影部位からなる第一部位グループと頭部正面、頭部側面の二つの撮影部位からなる第2部位グループを識別するための特徴ベクトルの例である。
この特徴ベクトルの第一要素、第二要素には一般的な特徴量として重心の座標を採用している。この重心の位置は第一部位グループと第2部位グループでは異なる傾向があるので、第一部位グループと第2部位グループを良く分離する特徴量となっている。一般的な特徴量には2次モーメントなどの高次モーメントやその他数多くのの特徴量があり、これらの中で第一部位グループと第2部位グループを良く分離するものを適宜選択して加えればより分離性能の高い特徴ベクトルを構成することができる。ここでは更に効果的な方法として、人体構造特有の特徴量を特徴ベクトルに加える例を示している。この第一部位グループと第2部位グループを識別する場合の特徴ベクトルにおいて、肺野の数を第3要素として採用している。これはデジタルX線画像に対して肺野抽出処理を行って抽出された肺野の数を特徴量にしたものである。第一部位グループの撮影部位の画像においては、全て肺野が含まれているので、肺野の数は正の値をとり、第2部位グループの撮影部位の画像においては肺野は含まれないので0の値をとる。このように肺野の数は第一部位グループと第2部位グループを良く分離する特徴量となっている。
図1におけるグループ1とグループ2を分離する時の特徴量の実施例を説明する。図6(b)では、四肢を第2部位グループに、それ以外を第一部位グループとしている。この部位グループを分離するための特徴量として棒状度を用いる。これは、四肢は棒状の構造を持っているから、画像がどの程度棒状の構造を持っているかを定量化して特徴量として識別しようというものである。
棒状度の求め方の概念図を図6(c)と(d)に示す。棒状度を求めるために、まず図6(c)とのように所定の角度ごとに投影データを作成する。そして図6(d)のように、この投影データの重心を求め、求めた重心を中心にした所定の範囲を範囲1とする。そして範囲1から投影データの両端に近くなるように所定の間をあけて範囲2、範囲3を決める。これら範囲1,2,3における画素値の平均値をx1、x2、x3として、新たにyをy=x1/(x2+x3)としてよって計算する。
(ここで、例えばx2+x3の部分をMax[x2,x3]に置き換えても良い。)
このyを全ての角度について計算して、その中で最大のyをymax、最小のyをyminとする。そして、ymax/yminを棒状度とする。
このように計算された棒状度は四肢の画像では大きく、その他の部位では小さくなり、効率的な分離が可能となる。
図1のグループ1−1とグループ1−2を分離する時の特徴量の実施例を説明する。図7(a)では、頭部を含む部位を第一部位グループに、それ以外を第2部位グループとしている。この部位グループを分離するための特徴量として円形度を用いる。これは、頭部は円形状の構造を持っているから、画像がどの程度円形状の構造を持っているかを定量化して特徴量として識別しようというものである。
円形度の求め方の例の概念図を図7(b)に示す棒状度を求めるために、まず画像から被写体を抽出して2値化する。(逆に2値化して、面積最大の連結領域を被写体としても良い)
この2値化した二値画像における被写体領域の周囲長及び面積を求めて、(周囲長の2乗)/面積を計算して円形度とする。
このように計算された円形度は円に近いほど小さくなり、頭部を含む画像では小さく、その他の部位では大きくなり、効率的な分離が可能となる。
続いて第一部位グループ(胸部正面、胸部側面、肩)であると識別された撮影部位を、第1−1部位グループ(胸部正面、胸部側面)と、第1−2部位グループ(肩)に識別するための特徴ベクトルの例を図7(c)の下に示す。これは、図1におけるグループ1−2−1−1と部位6を識別することに相当する。ここでは、前と同様に一般的な特徴量として重心の座標を第一要素、第二要素に採用している。この第1−1部位グループと第1−2部位グループの識別の場合でも、重心の位置は第1−1部位グループと第1−2部位グループでは異なる傾向があるので、第1−1部位グループと第1−2部位グループを良く分離する特徴量となっている。
そして人体構造特有の特徴量として、肺野中心の位置を第3要素、第4要素として採用している。これは前述のように抽出した肺野の中心位置を特徴量にしたもので、胸部正面のように肺野が二つ抽出される場合にはその平均の位置とすれば良い。この肺野の中心位置は第1−1部位グループの胸部正面と胸部側面では画像中心より上部となり、第1−2部位グループの肩では画像中心より右下もしくは左下となるので、第1−1部位グループと第1−2部位グループを良く分離する有効な特徴量となっている。
このように、識別したい部位グループに応じた人体構造特有の特徴量を特徴ベクトルの要素に加えると、より精度の高い識別を行うことができる。
(もちろん、すべての部位グループの識別において一般的な特徴量などの同一の特徴量による特徴ベクトルを用いても、本発明による撮影部位の識別は可能である)
その他、人体構造特有の特徴量を取れない場合には、先述のとおり画素値の重心の座標や、高次モーメント等の一般的に用いられる特徴量から適宜選択して適切な特徴量を選択するようにすればよい。
その次に誤識別による影響の大きいものとして考えられるのは、撮影した画像に付随する撮影情報に誤った撮影部位が設定されて外部診断データベースなどに転送されてしまうことである。そこで、頭部正面と頭部側面のように人体構造として同じ部分を違った角度で撮影する部位や、足首、膝、大腿骨のように人体構造の似通った部分を撮影する部位については、これらをグループ化して一つの撮影部位として扱う。画像の撮影情報としては包括する撮影部位(上記例では頭部及び足)として設定すれば良い。この時は、識別としては頭部正面と頭部側面或いは足首、膝、大腿骨まで行い、画像処理情報(パラメータ)はこの識別された撮影部位に設定されている画像処理情報(パラメータ)を用いて、画像の撮影情報のみ包括する撮影部位を用いれば良い。
本実施例に係る画像処理装置によれば、デジタルX線撮影において高速で正確な撮影部位の識別ができるので、撮影部位の選択のための操作を省くことができる。これによりX線撮影の効率が向上し、更には適切な撮影部位が特定されるので撮影部位に対応する適切な画像処理が選択され、安定して適確なデジタルX線画像が診断に用いられることになり診断能が向上する。
実施例1におけるグループ分け処理部1711が行うグループ分け処理について、複数通りのグループ分けの方法がある場合がある。例えば、類似度が所定の値以上低い撮影部位については、類似度の指標を考慮する必要性が小さくなるため、類似度と関係なくグループ分けを行うような場合である。このような場合には、類似度という軸ではグループ分けが定まらない場合がある。
識別した時の分離度が最大となるグループ分けを選択する。この分離度は2クラスがどの程度分離されたかを示す指標であり、サポートベクトルマシンの場合にはマージンの大きさがこれにあたる。このように、撮影部位全体の2分割のすべての組み合わせについて二分器(例えばサポートベクトルマシン)を作成し、この二分器により識別した時の分離度(サポートベクトルマシンの場合はマージン)が最大となるグループ分け及びその二分器を採用する。システムの構成については図1と同様であるため説明を省略する。
ここで、このような分割を効率的に行う実施例について図8を用いて説明する。
これは、撮影部位全体の2分割の組み合わせすべてについて行うのではなく、撮影部位の組織構造に応じたグループ分けに限定するものである。この組織構造に応じたグループ分けとしては、例えば四肢とそれ以外、頭部を含む部位とそれ以外、肺野を含む部位とそれ以外などのようなグループ分けを行い、この中で分離度が最大となるグループ分け及びその二分器を採用する。
以上のようにして、撮影部位全体をグループ1とグループ2に分割するグループ分けと二分器が決定する。その後に、この分割されたグループ1とグループ2のそれぞれについて二つのグループに分割してグループ1−1とグループ1−2、及びグループ2−1とグループ2−2に分けるグループ分けと二分器を同様の方法を用いて決定する。ただし、組織構造に応じたグループ分けについては、それぞれのグループを分割する上で適切な組織構造に応じたグループ分けを選んで行う。
画像処理装置100が実行する処理の流れを、図9のフローチャートに従い説明する。なお、実施例1と重複する処理については説明を省略する。
ステップS902では、画像処理の特性に応じて複数のグループ分けの候補を決定する。このグループ分けについては、実施例1の処理と同様である。
ステップS905では、識別器を生成すると共に、識別器によるグループ分離度を算出する。この分離度は、サポートベクトルマシン法を用いる場合には、マージンの値を用いる。その他の場合には、各グループの重心間の距離や、各グループの標準偏差を用いて定義することができる。
ステップS906では、グループ分け処理部1711はステップS902にて行った全てのグループ分けについて識別器を決定したかを判定し、全て行っていなければステップS907に進みグループ分けを変更して、ステップS907へと処理を進める。全てのグループ分けが終了していればステップS908へ進む。
ステップS908では、グループ分け処理部1711は、ステップS902で行われたグループ分けのうち、最大のグループ分離度となるグループ分けを選択して、このグループを子ノードとして生成する。
このようにグループ分離度が最大となるグループ分けを選択することにより、識別率の高いグループ分け及びその二分器の作成を行うことができる。
本実施例では、識別器を用いる際の学習用画像データの数に応じてグループ分けを行う。実際の運用に則して精度の高い撮影部位グループ木構造を作成する方法について説明する。これは図8に示す撮影部位グループ木構造を作成する時の学習データを、撮影頻度に応じた各撮影部位に属する画像の枚数分使用することによって作成するようにしたものである。これによって、撮影頻度の大きい撮影部位ほど学習データに含まれる割合が大きくなり、誤って他の撮影部位に識別してしまう確率は小さくなる。これによって、よく撮影される部位は間違える可能性が小さくなり、安定した画像処理を行うことができるようになる。
上述の実施例において、例えば二分器以外の識別器も用いる場合には、グループを二分割すべきかより多くのグループに分けるべきかを判定する必要がある。この際には、グループ分け処理部1711は、画像処理の特性またはグループ分離度に応じてグループの数を決定する。一つのグループとする画像処理の特性の類似度を所定の範囲と定めた場合には、その要求を満たすグループを複数作成する。これにより、グループ内での撮影部位の誤識別による影響をより小さくすることができる。また、グループ分離度を閾値としてグループの数を設定することもできる。これにより、グループ単位の識別の識別率を向上させることができる。
上述の実施例では、個々の撮影部位が識別されるまで木構造に従い識別を行うが、適用する画像処理を決定することを目的として撮影部位を識別する場合には、必ずしも個々の撮影部位を識別する必要はない。この場合は、画像処理が同一であるような撮影部位は識別を行わないことができる。
また別の観点では、誤識別による影響の大きいものとして考えられるのは、撮影した画像に付随する撮影情報に誤った撮影部位が設定されて外部診断データベースなどに転送されてしまうことである。
そこで、頭部正面と頭部側面のように人体構造として同じ部分を違った角度で撮影する部位や、足首、膝、大腿骨のように人体構造の似通った部分を撮影する部位については、これらをパック化して一つの撮影部位として扱う。画像の撮影情報としては包括する撮影部位(上記例では頭部及び足)として設定すれば良い。この時は、識別としては頭部正面と頭部側面或いは足首、膝、大腿骨まで行い、画像処理情報(パラメータ)はこの識別された撮影部位に設定されている画像処理情報(パラメータ)を用いて、画像の撮影情報のみ包括する撮影部位を用いれば良い。
(その他の実施例)
なお、上述の実施例はX線撮影システムにより得られるX線撮影画像に対して本発明にかかる識別処理を適用したが、適用対象はこれに限らない。例えば、MRIや超音波画像診断装置など、被検体の異なる複数の部位を撮影する診断用画像に対して適用可能である。更には、撮影対象となるのは人間に限らず、動物や、その他検査対象となる物体であっても良い。
また、上述の実施例では画像処理装置100が図3または図9の処理を実行することとしたが、画像処理装置100の各構成の一部を別の装置とした画像処理システムにより本発明を実施してもよい。
また、画像処理装置100の一部または全部の構成が有する機能をコンピュータが読み取り可能なソフトウェアで実行することとしても良い。この場合には、図3または図9に記載の処理を行うためのプログラムが記憶部116またはX線撮影システム制御部106内のROMに格納しておく。そしてこのプログラムをX線撮影システム制御部106内のCPUが実行して、画像処理装置100が図3または図9の処理を実行することとしても良い。また、プログラムを実行するためのCPUは、X線撮影システム制御部106内に複数あっても、画像処理装置100内の複数の回路に分散して含まれていても良い。この場合、このプログラムは本発明を構成する。また、記憶部116等にインストールするためにこのプログラムが記憶された記憶媒体もまた、本発明を構成する。
105 画像入力部
106 X線撮像システム制御部
107 画像処理部
171 撮影部位識別部
1711 グループ分け処理部
1712 識別部
1713 撮影部位木構造保存部

Claims (16)

  1. 複数の撮影部位の種類を、該複数の撮影部位の種類のそれぞれに対応する画像処理の特性に応じて複数の一次撮影部位グループに分け、該複数の一次撮影部位グループのそれぞれを、該複数の一次撮影部位グループのそれぞれに属する撮影部位の種類に対応する画像処理の特性に応じて複数の二次撮影部位グループに分けるグループ分け手段により得られる、前記複数の一次撮影部位グループと前記複数の二次撮影部位グループの情報を用いてX線画像を処理する画像処理装置であって、
    入力X線画像の撮影部位の種類が複数の一次撮影部位グループのいずれに含まれるかを識別する第一の識別器と、該一次撮影部位グループに含まれる種類の撮影部位を撮影して得られた入力X線画像について、該入力X線画像の撮影部位の種類が複数の二次撮影部位グループのいずれに含まれるかを識別する第二の識別器とを含む、複数の識別器を取得する取得手段と、
    X線画像を前記複数の識別器の入力データとして該複数の識別器による処理を実行し、該X線画像の撮影部位の種類を含む一次撮影部位グループと二次撮影部位グループとを順次識別していくことにより、該X線画像の撮影部位の種類を識別する識別手段と、
    前記識別された撮影部位の種類に対応した画像処理を前記画像に施す処理手段と、
    を有することを特徴とする画像処理装置。
  2. 前記グループ分け手段は、前記複数の撮影部位を該撮影部位の夫々に対応した画像処理により画像の特定領域の濃度が所定の範囲内となるグループに分けることを特徴とする請求項1に記載の画像処理装置。
  3. 前記グループ分け手段は、前記複数の撮影部位を、該撮影部位の夫々に対応した画像処理のパラメータが類似するグループに分けることを特徴とする請求項1に記載の画像処理装置。
  4. 前記グループ分け手段は、前記画像処理の特性に応じて定められる複数のグループ分けの候補のうち、グループの分離度が大きいグループ分けを選択することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記グループ分け手段は、前記撮影部位に対応する画像処理の特性と、前記グループの分離度の少なくとも一つに応じて、前記撮影部位を分けるグループの数を定する定手段を更に有することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記二次撮影部位グループは、複数の撮影部位の種類を含む三次撮影部位グループまたはグループに属さない撮影部位の種類、の少なくともいずれかを含むことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記一次及び二次撮影部位グループをノード、前記複数の撮影部位を含む前記0次撮影部位グループを根ノード、グループに属さない前記撮影部位の種類のそれぞれを葉ノードとする木構造として、前記複数の撮影部位を記憶する記憶手段を更に有することを特徴とする請求項6に記載の画像処理装置。
  8. 前記識別手段は、撮影部位の種類の情報が関連付けられた学習用画像にサポートベクターマシン法を適用して生成される識別器を用いて前記X線画像の撮影部位の種類を識別することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記画像処理は、階調変換処理またはエッジ強調処理の少なくともいずれかであることを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 複数の撮影部位の種類を、該複数の撮影部位の種類のそれぞれに対応する画像処理の特性に応じて複数の一次撮影部位グループに分け、該複数の一次撮影部位グループのそれぞれを、該複数の一次撮影部位グループのそれぞれに属する撮影部位の種類に対応する画像処理の特性に応じて複数の二次撮影部位グループに分けるグループ分け手段により得られる、前記複数の一次撮影部位グループと前記複数の二次撮影部位グループの情報を用いてX線画像の撮影部位を識別する識別装置であって、
    入力X線画像の撮影部位の種類が複数の一次撮影部位グループのいずれに含まれるかを識別する第一の識別器と、該一次撮影部位グループに含まれる種類の撮影部位を撮影して得られた入力X線画像について、該入力X線画像の撮影部位の種類が複数の二次撮影部位グループのいずれに含まれるかを識別する第二の識別器とを含む、複数の識別器を取得する取得手段と、
    X線画像を入力データとして該複数の識別器による処理を実行し、該X線画像の撮影部位の種類を含む一次撮影部位グループと二次撮影部位グループとを順次識別していくことにより、該X線画像の撮影部位の種類を識別する識別手段と、
    前記識別された撮影部位の種類の情報を前記入力データとなったX線画像に関連付けて記憶部に記憶させる記憶手段と
    を有することを特徴とする識別装置。
  11. 複数の撮影部位の種類を、該複数の撮影部位の種類のそれぞれに対応する画像処理の特性に応じて複数の一次撮影部位グループに分け、該複数の一次撮影部位グループのそれぞれを、該複数の一次撮影部位グループのそれぞれに属する撮影部位の種類に対応する画像処理の特性に応じて複数の二次撮影部位グループに分けるグループ分け手段により得られる、前記複数の一次撮影部位グループと前記複数の二次撮影部位グループの情報を用いてX線画像の撮影部位の種類を識別する画像処理方法であって、
    入力X線画像の撮影部位の種類が複数の一次撮影部位グループのいずれに含まれるかを識別する第一の識別器と、該一次撮影部位グループに含まれる種類の撮影部位を撮影して得られた入力X線画像について、該入力X線画像の撮影部位の種類が複数の二次撮影部位グループのいずれに含まれるかを識別する第二の識別器とを含む、複数の識別器を取得するステップと、
    X線画像を前記複数の識別器の入力データとして該複数の識別器による処理を実行し、該X線画像の撮影部位の種類を含む一次撮影部位グループと二次撮影部位グループとを順次識別していくことにより、該X線画像の撮影部位の種類を識別するステップと、
    前記識別された撮影部位の種類に対応した画像処理を前記画像に施すステップと、
    を有することを特徴とする画像処理方法。
  12. 複数の撮影部位の種類を、該複数の撮影部位の種類のそれぞれに対応する画像処理の特性に応じて複数の一次撮影部位グループに分け、該複数の一次撮影部位グループのそれぞれを、該複数の一次撮影部位グループのそれぞれに属する撮影部位の種類に対応する画像処理の特性に応じて複数の二次撮影部位グループに分けるグループ分け手段により得られる、前記複数の一次撮影部位グループと前記複数の二次撮影部位グループの情報を用いてX線画像の撮影部位を識別する識別方法であって、
    入力X線画像の撮影部位の種類が複数の一次撮影部位グループのいずれに含まれるかを識別する第一の識別器と、該一次撮影部位グループに含まれる種類の撮影部位を撮影して得られた入力X線画像について、該入力X線画像の撮影部位の種類が複数の二次撮影部位グループのいずれに含まれるかを識別する第二の識別器とを含む、複数の識別器を取得する取得手段と、
    X線画像を入力データとして該複数の識別器による処理を実行し、該X線画像の撮影部位の種類を含む一次撮影部位グループと二次撮影部位グループとを順次識別していくことにより、該X線画像の撮影部位の種類を識別する識別手段と、
    前記識別された撮影部位の種類の情報を前記入力データとなったX線画像に関連付ける記憶部に記憶させるステップと、
    を有することを特徴とする識別方法。
  13. 請求項11の画像処理方法をコンピュータに実行させるためのコンピュータ読取可能なプログラム。
  14. 請求項12の画像処理方法をコンピュータに実行させるためのコンピュータ読取可能なプログラム。
  15. 複数の撮影部位の種類を、該複数の撮影部位の種類のそれぞれに対応する画像処理の特性に応じて複数の一次撮影部位グループに分け、該複数の一次撮影部位グループのそれぞれを、該複数の一次撮影部位グループのそれぞれに属する撮影部位の種類に対応する画像処理の特性に応じて複数の二次撮影部位グループに分けるグループ分け手段により得られる、前記複数の一次撮影部位グループと前記複数の二次撮影部位グループとを用いる画像処理システムであって、
    入力X線画像の撮影部位の種類が複数の一次撮影部位グループのいずれに含まれるかを識別する第一の識別器と、該一次撮影部位グループに含まれる種類の撮影部位を撮影して得られた入力X線画像について、該入力X線画像の撮影部位の種類が複数の二次撮影部位グループのいずれに含まれるかを識別する第二の識別器とを含む、複数の識別器を取得する取得手段と、
    X線画像を前記複数の識別器の入力データとして該複数の識別器による処理を実行し、該X線画像の撮影部位の種類を含む一次撮影部位グループと二次撮影部位グループとを順次識別していくことにより、該X線画像の撮影部位の種類を識別する識別手段と、
    前記識別された撮影部位の種類に対応した画像処理を前記画像に施す処理手段と、
    を有することを特徴とする画像処理システム。
  16. 複数の撮影部位の種類を、該複数の撮影部位の種類のそれぞれに対応する画像処理の特性に応じて複数の一次撮影部位グループに分け、該複数の一次撮影部位グループのそれぞれを、該複数の一次撮影部位グループのそれぞれに属する撮影部位の種類に対応する画像処理の特性に応じて複数の二次撮影部位グループに分けるグループ分け手段により得られる、前記複数の一次撮影部位グループと前記複数の二次撮影部位グループの情報を用いてX線画像の撮影部位を識別する識別システムであって、
    入力X線画像の撮影部位の種類が複数の一次撮影部位グループのいずれに含まれるかを識別する第一の識別器と、該一次撮影部位グループに含まれる種類の撮影部位を撮影して得られた入力X線画像について、該X線画像の撮影部位の種類が複数の二次撮影部位グループのいずれに含まれるかを識別する第二の識別器とを含む、複数の識別器を取得する取得手段と、
    X線画像を入力データとして該複数の識別器による処理を実行し、該X線画像の撮影部位の種類を含む一次撮影部位グループと二次撮影部位グループとを順次識別していくことにより、該X線画像の撮影部位の種類を識別する識別手段と、
    前記識別された撮影部位の種類の情報を前記入力データとなったX線画像に関連付けて記憶部に記憶させる記憶手段と、
    を有することを特徴とする識別システム。
JP2010022283A 2010-02-03 2010-02-03 画像処理装置、画像処理方法、画像処理システム及びプログラム Expired - Fee Related JP5534840B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010022283A JP5534840B2 (ja) 2010-02-03 2010-02-03 画像処理装置、画像処理方法、画像処理システム及びプログラム
US13/012,686 US20110188743A1 (en) 2010-02-03 2011-01-24 Image processing apparatus, image processing method, image processing system, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010022283A JP5534840B2 (ja) 2010-02-03 2010-02-03 画像処理装置、画像処理方法、画像処理システム及びプログラム

Publications (2)

Publication Number Publication Date
JP2011156272A JP2011156272A (ja) 2011-08-18
JP5534840B2 true JP5534840B2 (ja) 2014-07-02

Family

ID=44341700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010022283A Expired - Fee Related JP5534840B2 (ja) 2010-02-03 2010-02-03 画像処理装置、画像処理方法、画像処理システム及びプログラム

Country Status (2)

Country Link
US (1) US20110188743A1 (ja)
JP (1) JP5534840B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8831327B2 (en) * 2011-08-30 2014-09-09 General Electric Company Systems and methods for tissue classification using attributes of a biomarker enhanced tissue network (BETN)
CN102436584B (zh) * 2011-11-04 2013-09-25 西安电子科技大学 基于字典学习的胃部ct图像感兴趣区域检测系统
US10114925B2 (en) 2013-07-26 2018-10-30 Nant Holdings Ip, Llc Discovery routing systems and engines
CN104134069B (zh) * 2014-08-06 2017-09-26 南京大学 一种页岩显微薄片自动鉴别方法
CN104112126A (zh) * 2014-08-06 2014-10-22 南京大学镇江高新技术研究院 一种大理岩显微薄片自动鉴别方法
CN104182730A (zh) * 2014-08-06 2014-12-03 南京大学镇江高新技术研究院 一种花岗岩显微薄片自动鉴别方法
JP6718465B2 (ja) 2015-02-18 2020-07-08 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレーテッドSiemens Healthcare Diagnostics Inc. 視覚システムにおけるトレイスロットタイプ及びチューブタイプの位置ベース検出
CN105426455B (zh) * 2015-11-12 2019-07-12 中国科学院重庆绿色智能技术研究院 基于图片处理来对衣服进行分类管理的方法和装置
JP6943138B2 (ja) 2017-10-26 2021-09-29 コニカミノルタ株式会社 医用画像処理装置
CN109241998B (zh) * 2018-08-06 2020-12-29 百度在线网络技术(北京)有限公司 模型训练方法、装置、设备及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04303427A (ja) * 1991-03-30 1992-10-27 Fujitsu Ltd 放射線画像処理方法および放射線画像処理装置
US5872864A (en) * 1992-09-25 1999-02-16 Olympus Optical Co., Ltd. Image processing apparatus for performing adaptive data processing in accordance with kind of image
US5943435A (en) * 1997-10-07 1999-08-24 Eastman Kodak Company Body part recognition in radiographic images
US7215828B2 (en) * 2002-02-13 2007-05-08 Eastman Kodak Company Method and system for determining image orientation
EP1694208A2 (en) * 2003-11-26 2006-08-30 Viatronix Incorporated Systems and methods for automated segmentation, visualization and analysis of medical images
JP3930493B2 (ja) * 2004-05-17 2007-06-13 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 画像処理方法、画像処理装置およびx線ct装置
US20060110035A1 (en) * 2004-11-23 2006-05-25 Hui Luo Method for classifying radiographs
US7574028B2 (en) * 2004-11-23 2009-08-11 Carestream Health, Inc. Method for recognizing projection views of radiographs
US7751622B2 (en) * 2005-08-22 2010-07-06 Carestream Health, Inc. Method and system for detection of undesirable images
JP4855141B2 (ja) * 2006-05-19 2012-01-18 富士フイルム株式会社 医用画像部位認識装置、及び、医用画像部位認識プログラム
US20080123929A1 (en) * 2006-07-03 2008-05-29 Fujifilm Corporation Apparatus, method and program for image type judgment
CA2567505A1 (en) * 2006-11-09 2008-05-09 Ibm Canada Limited - Ibm Canada Limitee System and method for inserting a description of images into audio recordings
JP2008234623A (ja) * 2007-02-19 2008-10-02 Seiko Epson Corp カテゴリー識別装置、カテゴリー識別方法、及び、プログラム
JP2010110544A (ja) * 2008-11-10 2010-05-20 Fujifilm Corp 画像処理装置および方法並びにプログラム
US9355337B2 (en) * 2009-08-25 2016-05-31 Xerox Corporation Consistent hierarchical labeling of image and image regions

Also Published As

Publication number Publication date
JP2011156272A (ja) 2011-08-18
US20110188743A1 (en) 2011-08-04

Similar Documents

Publication Publication Date Title
JP5534840B2 (ja) 画像処理装置、画像処理方法、画像処理システム及びプログラム
US8081811B2 (en) Method, apparatus, and program for judging image recognition results, and computer readable medium having the program stored therein
US10176580B2 (en) Diagnostic system and diagnostic method
US8170306B2 (en) Automatic partitioning and recognition of human body regions from an arbitrary scan coverage image
US11275976B2 (en) Medical image assessment with classification uncertainty
US8194960B2 (en) Method and apparatus for correcting results of region recognition, and recording medium having a program for correcting results of region recognition recorded therein
US9763635B2 (en) Method, apparatus and system for identifying a specific part of a spine in an image
US20110188706A1 (en) Redundant Spatial Ensemble For Computer-Aided Detection and Image Understanding
CN112215858A (zh) 用于图像分割和识别的方法和系统
US9269165B2 (en) Rib enhancement in radiographic images
CN110992376A (zh) 基于ct图像的肋骨分割方法、装置、介质及电子设备
JP2017067489A (ja) 診断支援装置、方法及びコンピュータプログラム
WO2010100701A1 (ja) 学習装置、識別装置及びその方法
CN110400617A (zh) 医学成像中的成像和报告的结合
JPWO2020110774A1 (ja) 画像処理装置、画像処理方法、及びプログラム
Ruppertshofen et al. Discriminative Generalized Hough transform for localization of joints in the lower extremities
Fonseca et al. Automatic orientation identification of pediatric chest x-rays
US20240062367A1 (en) Detecting abnormalities in an x-ray image
JP6501569B2 (ja) 画像処理装置、画像処理方法、及びプログラム
Rodriguez-Lopez et al. Automatic ventricle detection in computed tomography pulmonary angiography
Lee et al. Long bone fracture type classification for limited number of CT data with deep learning
Lu et al. Accurate 3D bone segmentation in challenging CT images: Bottom-up parsing and contextualized optimization
CN107221009B (zh) 一种腹主动脉分叉处的定位方法、装置、医学成像系统及存储介质
Millan-Arias et al. General Cephalometric Landmark Detection for Different Source of X-Ray Images
WO2023276750A1 (ja) 学習方法、画像処理方法、学習装置、画像処理装置、学習プログラム、及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140422

R151 Written notification of patent or utility model registration

Ref document number: 5534840

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees