JP2017527015A - 被験者の画像をセグメント化するためのデバイス、システム及び方法 - Google Patents

被験者の画像をセグメント化するためのデバイス、システム及び方法 Download PDF

Info

Publication number
JP2017527015A
JP2017527015A JP2017502105A JP2017502105A JP2017527015A JP 2017527015 A JP2017527015 A JP 2017527015A JP 2017502105 A JP2017502105 A JP 2017502105A JP 2017502105 A JP2017502105 A JP 2017502105A JP 2017527015 A JP2017527015 A JP 2017527015A
Authority
JP
Japan
Prior art keywords
image
contour
segmentation
user
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017502105A
Other languages
English (en)
Other versions
JP6739422B2 (ja
JP2017527015A5 (ja
Inventor
ニコル シャーデヴァルト
ニコル シャーデヴァルト
ハインリッヒ シュルツ
ハインリッヒ シュルツ
ダニエル ビストロフ
ダニエル ビストロフ
アストリッド ルス フランツ
アストリッド ルス フランツ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2017527015A publication Critical patent/JP2017527015A/ja
Publication of JP2017527015A5 publication Critical patent/JP2017527015A5/ja
Application granted granted Critical
Publication of JP6739422B2 publication Critical patent/JP6739422B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20116Active contour; Active surface; Snakes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20168Radial search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本発明は、被験者36の画像をセグメント化するためのデバイスに関し、当該デバイスは、被験者36の画像を受信するためのデータインタフェースであって、画像は被験者36の構造を示すデータインタフェースと、画像位置決め手段のユーザによって開始される動作を、構造を囲む第1の輪郭38に変換するための変換ユニットと、ユーザによって開始される動作の動作パラメータを第1の輪郭38にレジストレーションする動作パラメータレジストレーションユニットであって、動作パラメータは画像位置決め手段の速度及び/又は加速度を含む動作パラメータレジストレーションユニットと、動作パラメータに伴って密度が減少する複数の画像制御ポイント40を第1の輪郭上に分配するための画像制御ポイントユニットと、複数の画像制御ポイント40に基づいて第1の輪郭内の第2の輪郭44を決定することにより画像をセグメント化するセグメンテーションユニットであって、1つ以上のセグメンテーション機能を使用するセグメンテーションユニットとを含む。

Description

本発明は、被験者の画像をセグメント化するためのデバイス、システム及び方法に関する。これは医用撮像、特に診断や治療計画における用途がある。
医用撮像においては、画像セグメンテーションは、医用画像の詳細な解析を取得するために、外科医にとって非常に重要な課題の1つである。画像セグメンテーションの目的は、画像解析を行う操作者がROIを画像コンテンツの残りから見分けることができるように、関心領域(ROI)を識別し、ROIの境界を強調表示することである。
画像セグメンテーションには、多くのツアーがある。例えば、自動処理は、明確に定義された構造及び標準的な輪郭の定義に適用される場合に有利である。しかしながら、この技術は、画像収集エラー、画像コンテンツにおける異常及び局所画像の不正確さのような制限のために不可能な場合がある。純粋に自動画像処理に基づいて画像セグメンテーションの上記の欠点を克服するために、自動画像処理にユーザの情報を取り込むいくつかの手法が開発されてきた。特に、医用画像に含まれる構造の描出を高速化し、簡略化するために、ユーザ入力は、輪郭補正に関係する。
対話型セグメンテーションのプロセス中に、ユーザによって提供されることが可能な主たる種類の入力にはいくつかある。例えば、ユーザは、2値化の閾値レベル、変形可能なモデルのコスト関数における重み係数、目的関数等による品質基準を定義するために使用される品質レベルのような、1つ以上のセグメンテーションパラメータの値を設定し得る。
その他の手法により、ユーザは、標的構造の周りに初期輪郭を描き、標的構造へのマッチングを改善することによって初期輪郭を調整することができる。これは、動的輪郭、グラフカット、弾性輪郭モデル及びモデルベースのセグメンテーション等を含む、1つ以上の当該技術分野において既知のアルゴリズムモデルを使用して実行されることが可能である。
ユーザによって開始される動作を考慮した対話型セグメンテーションのツアーもある。ユーザが初期輪郭を描画するときには、通常、マウスのような画像位置決め手段を起動する。このユーザによって開始される動作は、次に初期輪郭に変換される。これらの手法の一例は、コスト関数における重みを動的に調整するために、マウスの速度が局所画像の品質の指標として使用されるライフレーン方法である。しかしながら、当該技術分野において既知の手法は、ユーザによって開始される動作についての情報が画像セグメンテーションのプロセスを高速化するために効果的に適用されないため、精度及び効率において制限されている。
加えて、スライスでは3Dの医用画像のスライスの構造の描出は冗長で、時間がかかる。現在の描出ツールにより、ユーザは構造の輪郭を取るか、又は構造を中から埋めることは可能であるが、ユーザが要求される精度はむしろ高い。いくつかのスマートツールは画像の勾配を撮影するが、描出は依然として多くの正確なマウスの動きを必要とする。強度変調放射線療法の計画は、計画しているCTにおけるリスク構造の描出を必要とする。多くの場合これは手動で行われ、ユーザは、輪郭ツールで慎重に構造の輪郭を取らねばならず、非常に時間がかかる。頭頸部の放射線療法計画の場合、すべての構造の輪郭を取ると、最大10時間かかる場合がある。このプロセスを支援するためにいくつかの画像処理技術がある。例えば、肺は閾値及びシード点を設定することによって輪郭を取ることができる。しかし、この方策は非常に少ない構造にのみ有効である。自動又は半自動の輪郭を取る方法があるが、依然として多くの場合に補正や再実行することが必要となる。さらに、多くのアルゴリズムは、ライブラリから輪郭を取るために構造に関する事前知識を必要とする。したがって、多くの既知の構造及びすべての新規又は一般的ではない構造については、依然として精度の高い描出に多くの時間が必要とされる。
Olabarriagaらによる「Interaction in the segmentation of medical images: A survey」(Medical Image Analysis 5(2001)127−142)では、従来の対話型セグメンテーションの方法は、ユーザ入力の種類、ユーザ入力がセグメンテーションのプロセスの計算部分にどのように影響を及ぼすか、及びユーザとの対話の目的を含む態様に関して検討している。
本発明の目的は、被験者の画像をセグメント化するためのデバイス、システム及び方法を提供し、画像セグメンテーションをより効率的に、より確実に行うために、1つ以上のユーザによって開始される動作に関するユーザ入力の使用率の向上を可能にすることである。
本発明の第1の態様では、被験者の画像をセグメント化するデバイスが示され、デバイスは、被験者の画像を受信するデータインタフェースであって、画像は被験者の構造を示すデータインタフェースと、画像位置決め手段のユーザによって開始される動作を、構造を囲む第1の輪郭に変換するための変換ユニットと、ユーザによって開始される動作の動作パラメータを第1の輪郭にレジストレーションする動作パラメータレジストレーションユニットであって、動作パラメータは画像位置決め手段の速度及び/又は加速度を含む動作パラメータレジストレーションユニットと、動作パラメータに伴って密度が複数の画像制御ポイントを第1の輪郭上に分配するための画像制御ポイントユニットと、複数の画像制御ポイントに基づいて第1の輪郭内の第2の輪郭を決定することにより画像をセグメント化するセグメンテーションユニットであって、1つ以上のセグメンテーション機能を使用するように構成されるセグメンテーションユニットとを備える。
本発明のさらなる態様においては、被験者の画像をセグメント化するシステムが示され、システムは、被験者の少なくとも1つの画像を生成するための画像装置と、生成された少なくとも1つの画像をセグメント化するための本明細書にて開示されたデバイスを備える。よって、本発明によるシステムは、本明細書で開示されたデバイスの前述の利点と、画像を生成する可能性とを組み合わせている。これは、画像生成や画像セグメンテーションの双方が、非常に効率よく、高い精度で実行される必要がある場合における診断や治療計画のような用途に特に有利である。
本発明のさらなる態様においては、被験者の画像をセグメント化する方法が示され、方法は、被験者の画像を受信するステップであって、画像は被験者の構造を示すステップと、画像位置決め手段のユーザによって開始される動作を、構造を囲む第1の輪郭に変換するステップと、ユーザによって開始される動作の動作パラメータを第1の輪郭にレジストレーションするステップであって、動作パラメータは画像位置決め手段の速度及び/又は加速度を備えるステップと、動作パラメータに伴って密度が減少する複数の画像制御ポイントを第1の輪郭上に分配するステップと、複数の画像制御ポイントに基づいて第1の輪郭内の第2の輪郭を決定することにより、画像をセグメント化するステップであって、セグメンテーションユニットは、特に動的輪郭、モデルベースのセグメンテーション及び/又はグラフカットの、1つ以上のセグメンテーション機能を使用するように構成されるステップと、を含む。
本発明のさらなる態様においては、コンピュータプログラムがコンピュータ上で実行される場合、コンピュータに本明細書にて開示された方法のステップを実行させるためのプログラムコードの手法を含むコンピュータプログラムだけでなく、デバイスによって実行されると、本明細書にて開示された方法を実行するコンピュータプログラム製品をその中に記憶するコンピュータで読み取り可能な非一時的記録媒体も提供される。
本発明の好ましい実施形態は、従属クレームに記載されている。特許請求されたシステム、方法及びコンピュータプログラムは、請求されたデバイスと従属クレームに記載されるものと類似及び/又は同一の好ましい実施形態を有すると理解されるであろう。
本発明は、より効率的でより確実な対話型の画像セグメンテーション、特にスマートラッソー手法を可能にする。特に、ユーザによって開始される動作のレジストレーションされた動作パラメータは、第1の輪郭上に複数の画像制御ポイントを分配するために利用される。画像セグメンテーションを実行するユーザは、ユーザによって開始された動作の結果についてより確信している場合、マウスのような画像位置決め手段をより迅速に移動させる傾向にある。被験者の構造が明らかに視認できる場合も同様である。対照的に、強い画像の勾配がマウスを動かすことによってユーザが制御するマウスのカーソルのかなり近くにある場合には、ユーザが高い精度が必要であると感じるように、ユーザはもっと遅くマウスを移動させる傾向にある。したがって、動作パラメータがユーザによって開始される動作の間、部分的に高く、部分的に低い場合には、ユーザによって作成された第1の輪郭は、より高い精度を備えた領域又は「高精度の領域(HAR)」及びより低精度を有する領域又は「低精度の領域(LAR)」に通常、分けられ得る。HARは、1つ以上の最も近傍の内部境界を含む標的のセグメンテーションの結果に比較的近い。
当業者は、このような分離は定性的及び相対的なだけであり、定量的又は絶対的ではないと理解している。また、第1の輪郭のHARは、比較的高い精度によりLARよりも比較的よい被験者の構造に対応することは、当業者によって理解される。画像制御ポイントの密度は動作パラメータに伴って減少するため、HAR及びLARの双方が第1の輪郭に存在する場合には、LAR内よりもHAR内には比較的より多くの画像制御ポイントがある。このような場合には、第2の輪郭は第1の輪郭のLARよりもHARにより基づいて決定され、画像セグメンテーションの効率と確実性を増す結果になる。当業者は、本発明はHARとLARとの双方が第1の輪郭に存在する場合に限られず、第1の輪郭が主にHAR又はLARを含み得ると理解している。第1の輪郭の実際の構成から独立して、本発明は画像セグメンテーションの確実な結果を可能にし、それによりユーザは、ユーザによって開始される動作のすべてを通して非常に高い精度が必要とされるストレスから解放される。そのため、セグメンテーション及び描出のプロセスの冗長性はより低くなる。
このコンテキストにおいて、画像位置決め手段は、典型的にはマウスを含んでいてもよい。しかしながら、これは本発明に限らないが、画像位置決め手段は、モニタ、スクリーン又はディスプレイのような、ディスプレイユニット上の輪郭に変換されることが可能なユーザによって開始される動作を実行するためにユーザに好適な任意の手段を含み得る。特に、画像位置決め手段は、マウス、電子絵画デバイス又はタッチスクリーンと協働するカーソルを備え得る。画像制御ポイントは、領域を強調表示及び/又は画像コンテンツを修正するために画像の特定の位置に配置されることが可能な点画像オブジェクトを含む。1つ以上のセグメンテーション機能は、画像セグメンテーションの用途として知られている任意の機能を含む。セグメンテーション機能は特に、動的輪郭、モデルベースのセグメンテーション及びグラフカットを備え、レベルセット、領域拡張、変形可能な輪郭、統計的形状モデル、対話型の方法などを、単独で又は互いに組み合わせたさらなる機能が使用され得ることが当業者に理解される。当業者は、さらに、画像制御ポイントの密度は、第1の輪郭に沿って測定される隣接する画像制御ポイントとの間の距離によって決定されることを理解している。
好ましい実施形態ではセグメンテーションユニットは、第1の輪郭内の複数の標的ポイントを識別するように構成され、標的ポイントは画像制御ポイントのうちの対応する1つで始まる経路及び/又はボリューム内のそれぞれに位置し、第2の輪郭は複数の標的ポイントを接続することによって形成される。好ましくは、隣接する標的ポイントは、第2の輪郭を決定するために接続され得る。ボリュームは好ましくは、1つ以上の円筒形のボリュームを含み、特に第1の輪郭のエッジに直交する1つ以上の線の周りのボリュームを含む。LARの中にあるよりもHARには比較的より多くの画像制御ポイントがあるため、LARよりもHARの画像制御ポイントに対応して識別される標的ポイントが結果的により多くある。有利なことに、これにより、精度及び効率が向上した第2の輪郭を決定できる。
別の好ましい実施形態において、経路は直線経路を含み、この直線経路は第1の輪郭のエッジに直交又は斜交し、及び/又は動作パラメータに伴って長さを増す。直線経路は、湾曲した経路のような、その他の形状又は外観に比較して画定するのが比較的容易である。その結果、標的ポイントの識別及び結果的に画像セグメンテーションは簡略化される。さらに、第1の輪郭のエッジに直交する直線経路は、第1の輪郭に対し、明確に画定された方向を有する。したがって、直線経路は、それぞれの画像制御ポイントを容易に、かつ確実に画定されることが可能である。加えて、直線経路は、HARにおける画像制御ポイントに対してより短く、LARにおける画像制御ポイントに対してはより長い。したがって、本発明は、構造と第1の輪郭との間の距離は、LARにおけるよりもHARにおけるほうが小さいということを考慮し、高精度の画像セグメンテーションを可能にする。
別の好ましい実施形態において、セグメンテーションユニットはボリューム及び/又は経路の画像の画像パラメータを解析し、画像パラメータのピークを検出する標的ポイントを識別するように構成される。画像パラメータの測定は、ささいな不明瞭な画像の詳細でもセグメンテーションの過程で考慮に入れられるように、画像特性の定量解析が可能であるため、高精度で標的ポイントを識別するには有利である。画像パラメータは、画像の勾配、グレー値、濃淡等のような、画像セグメンテーションの分野で既知の任意の画像パラメータを含む。
別の好ましい実施形態において、画像パラメータは画像の勾配を含み、セグメンテーションユニットは、画像の勾配の勾配ピークを検出する標的ポイントを識別するように構成される。画像の勾配は、画像の勾配の存在が異なる材料/組織/構造に対応する画像コンテンツのうち2つ以上のグループ間の境界を示すため、好適なパラメータである。有利なことに、本発明は、精度が高くかつ容易な輪郭補正を可能にする。
別の好ましい実施形態において、勾配ピークは、画像制御ポイントから開始して第1の勾配ピーク及び/又は最大の勾配ピークを含む。最大の勾配ピークは、ボリューム及び/又は経路のすべてにわたって検出された画像の勾配の最大値を見つけることによって取得されると理解されている。このように、標的ポイントは2つの異なる材料及び/又は組織の種類の間の境界に高精度で配置されることが可能である。これは、有利には、対話型の画像セグメンテーションの確実性を増すことにつながる。さらに、本発明は、第1の輪郭と被験者の構造との間の距離は、第1の輪郭の特定の領域、特にHARにおいては比較的小さいということを考慮に入れている。このような領域には、おそらくは、1つの勾配ピークのみが対応する画像制御ポイントからの短い距離内に存在する。したがって、その大きさ及び/又は位置において最大の勾配ピーク又は最大の勾配ピークに近い勾配ピークを検出するためには、第1の勾配ピークの検出で十分である。有利には、画像セグメンテーションの効率はさらに増す。
別の好ましい実施形態において、セグメンテーションユニットは、勾配ピークが所定の勾配閾値を上回る場合に限り標的ポイントを識別するように構成される。第2の輪郭を適度に画定するために適していない標的ポイントが識別されるのは、このようなやり方で防止されることができる。有利には、画像セグメンテーションの確実性はさらに増す。
別の好ましい実施形態において、第2の輪郭は動作パラメータに伴って増す第1の輪郭までの距離を含む。帯域は、第1及び第2の輪郭によって画定されるような、このようなやり方で形成され、帯域幅はHARよりもLARで大きい。このような帯域は有利には、無作為に選択された帯域に代わって微細なグラフカットの開始点としての役割をし、したがってセグメンテーションの結果の確実性を増すことにつながる。
別の好ましい実施形態において、画像は第1及び第2の画像スライスを含み、第1の画像スライスから第2の画像スライスへ、構造、第1の輪郭及び/又は第2の輪郭を転送するための転送ユニットをさらに含む。このようにして、構造、第1の輪郭及び/又は第2の輪郭は、第2の画像スライスをセグメント化するために使用されることが可能である。これは有利には、第1及び/若しくは第2の輪郭を調整することによって又は新しい輪郭を予測することによって画像セグメンテーションを改善する。
別の好ましい実施形態において、画像制御ポイントユニットは動作パラメータを使用せずに複数の追加の画像制御ポイントを分配するように構成される。特に、追加の画像制御ポイントに対応する経路は、構造の湾曲に相関する長さを含む。有利には、本発明は対話型の画像セグメンテーションと自動画像セグメンテーションの双方、並びに双方の組み合わせを可能にし、ユーザへの適応性をもたらす。
別の好ましい実施形態において、動作パラメータレジストレーションユニットは、動作パラメータが所定の閾値パラメータより低い場合にはエラーの信号を送るように構成される。本発明は、例えば、移植の存在のため、画像コンテンツに反直感的なセグメンテーションの結果を示し、又は画像の勾配が測定されることが不可能な場合を示すことが可能である。有利には、これは、より安全で確実性の高い画像セグメンテーションをもたらす。
これら及びその他の本発明の態様は、以下に記載された実施形態から明白であり、説明される。
本発明によるデバイスの実施形態の概略的なブロック図を示す。 本発明によるデバイスの別の実施形態の概略的なブロック図を示す。 本発明によるデバイスの別の実施形態の概略的なブロック図を示す。 本発明によるシステムの実施形態の概略的なブロック図を示す。 本発明による方法の実施形態の概略的なブロック図を示す。 医用画像のセグメンテーションを示す。
図1を参照すると、第1の実施形態による被験者の画像12をセグメント化するためのデバイス10aの概略的なブロック図が示されている。デバイス10aは、被験者の画像12を受信するためのデータインタフェース16を備える。画像12は、被験者の一部に対応する構造18を備えている。被験者は、一般的にヒトのような生物であり、構造18が対応する部分は、肺、脳、心臓、胃等のような解剖学的構造等を含み得る。構造18は、構造18の外側にある画像12の画像コンテンツから構造体18を分ける境界によって囲まれていることが当業者には理解される。
データインタフェース16は、当該技術分野において既知の任意の種類のデータインタフェース、特に画像装置とデバイス10aとの間のデータ接続であり得る。このようなデータ接続は、画像セグメンテーションのために、画像データを撮像装置からデバイス10aに転送する役割をする。データインタフェース16の種類は、電流ループ、RS−232、GPIB、V.35等を含むがこれらに限定されない。
デバイス10aは、画像位置決め手段24のユーザによって開始される動作22を第1の輪郭に変換するための変換ユニット20を備え、構造18は、第1の輪郭によって囲まれる。画像位置決め手段24は、マウスを備え得る。あるいは、画像位置決め手段24は、マウスによって、又はユーザの指又はスクリーン上、特にタッチスクリーン上のカーソルを移動できる別の手段によって制御されるマウスカーソルを備え得る。好ましい実施形態では、変換ユニット20は、ユーザによって開始される動作22に対応する動作データを処理し、動作データに基づいて第1の輪郭を生成するように構成される。別の好ましい実施形態において、変換ユニット20は、第1の輪郭をさらに追加及び/又は修正できるように構成される。例えば、厚さ及び/若しくは明るさ並びに/又は実線及び破線のような第1の輪郭を視覚化するために使用される線の種類を修正する。
図1に示す実施形態では、画像位置決め手段24は、デバイス10aの外部に配置され、ユーザによって開始される動作22は、画像位置決め手段24と変換ユニット20との間の矢によって示されるデータチャネルを介して、デバイス10aに処理される。図2に示されるデバイス10bの好ましい実施形態においては、画像位置決め手段24はデバイス10bに統合される。したがって、デバイス10bは、ユーザによって開始される動作22を受信し、変換するように構成されている。このように、ユーザは、自動的に第1の輪郭に変換されたユーザによって開始される動作22を実行する必要のみがある。これは、セグメンテーションの効率を有利に増す。
デバイス10aは、さらに、ユーザによって開始される動作22の動作パラメータを第1の輪郭にレジストレーションするために、動作パラメータレジストレーションユニット26を備える。動作パラメータは、画像位置決め手段の速度である位置決め速度及び/又は画像位置決め手段24の加速度である位置決め加速度を含む。好ましい実施形態では、動作パラメータレジストレーションユニット26は、動作パラメータレジストレーションユニット26自体によって測定される動作パラメータを受信することによって、画像位置決め手段24によって、及び/又は別の動作測定装置、特に動作センサによって、動作パラメータをレジストレーションするように構成される。画像位置決め手段24及び/又は別の動作測定装置は、光、熱、機械、磁気、音響、その他の種類のセンサ又は手段並びに/又はそれらの組み合わせ(単数又は複数)を使用する動作パラメータを測定するように構成され得る。好ましくは、動作パラメータは、マウス、カーソル及び/又は電子絵画デバイス等の速度及び/又は加速度を含む。別の実施形態では、カーソルの動作パラメータは、タッチスクリーンに同様あるいは類似の機能を可能にするタッチスクリーン又は接触感知パッド上でユーザが指を動かすときに、測定される。好ましくは、動作パラメータは第1の輪郭の全体、すなわち第1の輪郭の画素及び/又はボクセルにレジストレーションされる。これは、第1の輪郭のすべての画素及び/又はボクセルは動作パラメータ用の特定の値を受信することを意味する。
図3に示されるデバイス10cの別の好ましい実施形態においては、変換ユニット20及び動作パラメータレジストレーションユニット26は単一の要素として構成される。このように、ユーザによって開始される動作を第1の輪郭に変換し、動作パラメータを第1の輪郭にレジストレーションすることは1つの単一ステップにおいて行われる。これは有利には、より効率的な画像セグメンテーションになる。このような構成もまた、図2に示されるデバイス10bに適用可能であることは理解されている。
デバイス10aは、さらに、動作パラメータに伴って密度が減少する複数の画像制御ポイントを第1の輪郭上に分配するための画像制御ポイント手段28を備える。本発明の範囲内で、画像制御ポイントの密度は、輪郭のユニットの長さ当たりの画像制御ポイントの数を表す。好ましい実施形態では、画像制御ポイント手段28は、1つ以上のグラフィックユーザインタフェース(GUI)と協働するように構成されている。例えば、GUIは、画像制御ポイントの分配を作動するユーザのためのボタンのような、1つ以上の制御要素を備え得る。さらに、画像制御ポイント手段28は、所望の数の画像制御ポイントが選択されるように、ユーザがいくつかの画像制御ポイントを画定するのを可能にし、隣接する画像制御ポイントとの間の距離は、画像制御ポイントの密度が動作パラメータに伴って減少するように自動的に選択される。隣接する画像制御ポイントとの間の距離は、隣接する画像制御ポイントとの間の輪郭セグメントの長さを意味する。好ましくは、画像制御ポイントの視覚形状はまた、画像制御ポイント手段28によって画定される。
デバイス10aはさらに、複数の画像制御ポイントに基づいて、第1の輪郭内の第2の輪郭を決定することによって画像12をセグメント化するためにセグメンテーションユニット30を備え、セグメンテーションユニットは、1つ以上のセグメンテーション機能を使用するように構成される。1つ以上のセグメンテーション機能は、モデルベースのセグメンテーション及び/又はグラフカットに基づいた動的輪郭及び/又はモデルを備える。しかしながら、これは本発明に限らないが、セグメンテーション機能は、レベルセット、領域成長、変形可能な輪郭、統計的形状モデル、対話型方法のうち1つ以上を備え、上述の機能の任意の組み合わせは、画像セグメンテーションの特定の場合に使用され得る。第2の輪郭は、画像セグメンテーションの最終結果であり得る。あるいは、デバイス10aは、少なくとも1つの第3の輪郭を作成するために、決定された第2の輪郭をさらに調整するように構成される。
図4を参照すると、システム32の実施形態の概略的なブロック図が示されている。システム32は、被験者14の画像12のような、少なくとも1つの画像を生成するための画像装置34と、生成された画像12をセグメント化するための本明細書にて開示されたデバイス10aからデバイス10cを備える。撮像装置34は、これらに限定されないが、X線撮影デバイス、磁気共鳴映像法(MRI)、医用超音波検査又は超音波、内視鏡、エラストグラフィ、触覚イメージング、サーモグラフィ、医用写真及び核医学機能的イメージング、陽電子放出断層撮影法(PET)、脳波検査(EEG)、脳磁図検査(MEG)、心電図検査(ECG)等を含む、医用及び/又は生物学的撮像に好適な、任意の撮像装置を含む。好ましくは、システム32は、放射線療法の計画を可能にする、及び/又は支援する。
図4に示す実施形態では、撮像装置34と被験者14との間の破線は、被験者14の全体が撮像装置34によって撮像されていることを示す。しかしながら、これは本発明に限らないが、画像生成の例示的な実施例としての役割のみをする。当業者は、撮像装置34は、被験者14の1つ以上の部分を局所的に撮像するように構成されることを理解するであろう。図4に示す実施形態では、システム34は、図1に示されるデバイス10aを備える。しかしながら、図2、図3に示されるデバイス10bからデバイス10cのその他の実施形態もまた、本発明の別で開示されるのと同様に、撮像装置34によって生成された画像12をセグメント化するために、システム32に組み込まれ得ると理解されている。
図5を参照すると、実施形態による方法の概略的なブロック図が示されている。以下では、図5における方法は、図6の実施例を参照して説明し、大腿骨頭構造36を含む医用画像のセグメンテーションを示す。第1のステップ101では、図6Aで示される画像が受信され、大腿骨頭構造36は図6Aの左手側の囲まれた構造である。画像は1つ以上の上述の医用撮像技術によって生成される。第2ステップ102において、画像位置決め手段24のユーザによって開始される動作22は、初期輪郭38に変換され、図6Aの左手側の大腿骨頭構造36を取り囲む。画像位置決め手段24は、図1から図3を参照して言及される任意の種類の画像位置決め手段を備え得ると理解されている。好ましくは、ユーザによって開始される動作22は、ユーザによって開始される動作22の持続時間内に徐々に変換される。あるいは、ユーザによって開始される動作22は、ユーザによって完全に開始された後に変換される。大腿骨頭構造36の周りの初期輪郭38は、股関節(大腿骨頭構造36の右端)に対応する輪郭の領域においては比較的正確であるが、他では比較的粗いことは、図6Aから見ることができる。本発明の一実施形態に関しては、画像位置決め手段24はマウスを備え、したがって、ユーザは、その他の輪郭の領域を作成するときにマウスを比較的迅速に動かすが、ユーザは、股関節に対応する初期輪郭38の領域を作成するためには、マウスを比較的ゆっくりと動かすことが想定される。
第3のステップ103においては、マウスのような、画像位置決め手段24の速度及び/又は加速度を含む動作パラメータは、初期輪郭38にレジストレーションされる。前述のように、ユーザは、ユーザによって開始される動作22を実行するときに異なる速度でマウスを動かす。第4のステップ104において、複数の画像制御ポイント40は図6Bに示される初期輪郭38に分配される。妥当性のため、すべての画像制御ポイント40のうち3つのみが図6Bの参照番号とともに例示的に示されていることに注意する。画像制御ポイント40は、ユーザによって開始される動作22の間のマウスの速度のように、動作パラメータに伴って減少する密度で分配される。これは図6Bに見ることができる、なぜなら画像制御ポイント40の密度は、初期輪郭38のその他の領域よりも、股関節に対応する初期輪郭38の領域が高いからであり、ここで、密度は、隣接する初期輪郭38に沿った画像制御ポイント40間の距離に基づいて測定される。
好ましい実施形態では、画像制御ポイントは、初期輪郭内の複数の標的ポイントを識別するために使用される。特に、標的ポイントは、初期輪郭38によって囲まれ、及び/又は直接初期輪郭38上にある画像ポイント(画素及び/又はボクセル)内で識別される。一実施形態では、標的ポイントそれぞれは初期輪郭38内のボリューム及び/又は経路内に存在する。特に、標的ポイントそれぞれは、初期輪郭38上の対応する画像制御ポイント40で開始する湾曲及び/又は直線経路内に存在する。図6Bに示す実施形態では、標的ポイントは、初期輪郭38の内部に向かう対応する画像制御ポイントから開始する、図6Bに示されている直線経路42上の各画像制御ポイントとして識別される。妥当性のため、すべての直線経路42のうち3つのみが図6Bの参照番号に割り当てられることに注意されたい。動的輪郭のセグメンテーションの方法のコンテキストにおいては、標的ポイントが、対応する画像制御ポイント40から開始する検索線のそれぞれに沿って検索されるため、直線経路42は検索線として知られている。好ましくは、各検索線は初期輪郭38のエッジに直交して方向付けられている。これは、直線経路42が、対応する画像制御ポイント40を交差する初期輪郭38の接線に直交することを意味する。しかしながら、これは本発明に限らないが、1つ以上の直線経路42は、対応する接線と0°から360°の間の任意の角度を構築し得る。
動的輪郭又はモデルベースのセグメンテーション(MBS)の方法においては、画像パラメータは各直線経路42に沿って解析される。好ましくは、画像の勾配は、各直線経路に沿って検出、解析される。しかしながら、これは本発明に限らないが、グレー値及び/又は濃淡のような、画像パラメータのその他の種類もまた、直線経路42に沿って解析される。さらに、画像パラメータは、その他の実施形態のために解析され、標的ポイントはボリューム及び/又は対応する画像制御ポイント40で始まる湾曲した経路内で検索される。好ましくは、画像制御ポイント40は、特定の経路に直交する1つ以上の六角形の格子に分配される。別の好ましい実施形態において、標的ポイントは画像パラメータのピーク、特に勾配ピークが、直線経路42内若しくは湾曲経路又は検索ボリュームである検索経路内で検出されるところで識別される。
図6Bに示す実施形態では、直線経路42は、マウスの速度のような動作パラメータに伴って増加する長さを有する。これは長さが異なる直線経路42をもたらす。股関節に対応する初期輪郭38の領域内の直線経路42は、その他の直線経路42よりも比較的短い。したがって、勾配ピークは、大腿骨頭構造36のその他の一部よりも、股関節の画像制御ポイント40からのより短い距離の中で検索される。別の好ましい実施形態において、最大の勾配ピークは、1つ以上の直線経路42内で検索される。これは、直線経路42内で検出されるいくつかの勾配ピークから、最大強度を有するものが標的ポイントを識別されるために選択されることを意味する。依然としてさらなる実施形態としては、対応する画像制御ポイント42から開始して検出される第1の勾配ピークは、標的ポイントを識別するために使用される。別の好ましい実施形態において、標的ポイントは、次にある勾配ピークの局所的な2次導関数が導出されるところで識別される。このように、最大の勾配は、対応する画像制御ポイント440と識別された標的ポイントとが交差する湾曲した経路を使用して検出されることが可能である。
標的ポイントの識別後、初期輪郭38は、第5のステップ105において調整された輪郭44を作成するように調整され得る。結果が図6Cに示され、調整された輪郭44は、初期輪郭38と比較して高精度で大腿骨頭構造36に対応する。好ましくは、調整された輪郭44は、隣接する標的ポイントを接続することによって形成される。
好ましくは、1つ以上の検出される勾配ピークは、標的ポイントが所定の閾値勾配を超えるか否かを識別のみするように、所定の閾値勾配と比較される。さらに好ましくは、ユーザは所定の閾値勾配、例えばマウスホイールの移動によって変更し得る。このように、調節された輪郭44は所望のセグメンテーションの目標に完全に到達しない場合、又は輪郭の調整が所望のセグメンテーションの目標に到達する前に止まってしまった場合には、ユーザは調整された輪郭44をさらに大腿骨頭構造36へと押し進め得る。
初期輪郭38は、図1から図3で参照して言及した第1の輪郭に対応することに注意する。これに対して、調節された輪郭44は、第2の輪郭に相当する。
グラフカット法は、また、調節された輪郭44を生成するために適用されてよい。そうすることで、リング状の帯域は、外側境界としての初期輪郭38及び内側境界としての追加の輪郭を有すると判断される。ここで、調整された輪郭44は、図1から図3で参照して言及した第1の輪郭に対応し、これに対して、追加の輪郭は、第2の輪郭に対応する。追加の輪郭と初期輪郭38との間の距離は、マウスの速度のような、初期輪郭38にレジストレーションされた動作パラメータに伴って増加するように選択される。これは股関節を除く初期輪郭38の領域のような、帯域幅が比較的LARには大きなリング状の帯域になり、一方、帯域幅は股関節に対応する輪郭の領域には比較的小さい。
初期輪郭38内でリング状の帯域が画定された後、例えば、初期輪郭38上のすべての画像ポイント(画素及び/又はボクセル)をソースノードへ、及び/又は追加の輪郭上の画像ポイント(画素及び/又はボクセル)をシンクノードへ割り当てることによって、画像強度に基づいた通常のグラフカットが行われる。ソースノードに割り当てられた画像ポイントは、シンクノードに割り当てられた画像ポイントがフォアグラウンドを構築している間、バックグラウンドを構築する。次に、グラフカット法は、マウスの速度のような動作パラメータを考慮に入れるのと同時に最終の輪郭を生成する。好ましくはソースノードからの矢印は、バックグラウンド及び/又はフォアグラウンドの各画像ポイントに割り当てられる。上述の矢印は、隣接する画像ポイント間のグレー値の差及び/又はグレー値の距離に基づいて決定される重みを、フォアグラウンド及びバックグラウンドについての事前知識に伝える。グラフカットは、グラフノードをソースノードに接続された部分に分割するものとして画定され、シンクノードに接続された部分は、コスト削減として知られる、カッティングエッジの合計重量が最低になるように、2つの分割の間のすべてのエッジを除去する。グラフカット法のその他のバリエーションもまた、最終の輪郭をここで決定するために適用され得ると理解されている。
グラフカット法で説明したように、初期輪郭38上の画像制御ポイント40は、リング状の帯域内で画像ポイントのグラフ(画素及び/又はボクセル)を構築するための入力として使用される。別の好ましい実施形態において、1つ以上の標的ポイントは、リング状の帯域を画定するために識別される。依然としてさらに好ましい実施形態においては、初期輪郭38と追加の輪郭との間の最大距離が決定される。特に、最大距離は、初期輪郭38内の画像コンテンツがシンクノードとして画定される帯域幅を示す。依然としてさらなる実施形態としては、最終の輪郭は、特に、マウスの速度のような動作パラメータに依存して変化する帯域幅を備える。
1つ以上の実施形態において、画像12は、第1及び少なくとも1つの第2の画像スライスを含み、構造18並びに/又は第1の輪郭及び/若しくは第2の輪郭は、第1の画像スライスから第2の画像スライスに転送され得る。好ましくは、第2の輪郭は、転送後に拡張又は外側に移動される。さらに好ましくは、第2の輪郭はさらに、第3の輪郭を形成するためにさらに調整され、動作パラメータが第2の輪郭の全面で均一であることを除いて、第2の輪郭は第1の輪郭と同様又は類似のやり方で処理される。さらに好ましい実施形態においては、構造18は、転送され、拡張され、次に第2の画像スライスに調整される。構造18は、第1の輪郭と同様又は類似のやり方で処理され、均一な動作パラメータを使用して処理される。このように、ユーザは伝搬をトリガすることが可能であり、すなわち、同様の概念を類似の画像に対する輪郭の1つ以上の次のスライスへの自動的な適応をトリガし、現在の調整を確認した後、必要であれば、補正する。さらに、ユーザが伝搬をする場合には、セグメンテーションのプロセスは、例えば、品質測定によって、停止するまで次の複数のスライスに適応され得る。次に、ユーザがセグメンテーションの結果を補正しなければならない場合には、次の数枚のスライス用に補正されたバージョンが伝搬されるように、ユーザは異なるスライスをスクロールして伝搬を行う。これは3D構造のセグメンテーションを極めて迅速にすることができ、一方、それでもなお任意のユーザ入力を考慮に入れることが可能である。ユーザの調整による品質測定及び再伝搬は、エラーの補正をする時間が非常に少ないように、ユーザに表示される必要な編集がないか、少ないという妥当な結果を確保する。アルゴリズムが良好な輪郭を決定できない場合は、ユーザは始めから輪郭を描くが、これは通常、多くの補正を行うよりもはるかに速い。
別の好ましい実施形態において、第3の輪郭はユーザとの対話なしに第2の画像スライスにおいて予測される。好ましくは、複数の追加の画像制御ポイント40は、動作パラメータの使用をせずに分配され、追加の画像制御ポイントに対応する経路は、構造18の湾曲に相関する長さを含む。別の好ましい実施形態において、勾配強度及び/又はグレー値プロフィールは、第2のスライスで最適な第3の輪郭を識別するために解析される。
別の好ましい実施形態において、本発明は、特に、非訓練の構造用に、描出を部分的に自動化することを可能にする。これは、セグメンテーションの時間をさらに短くできるため有利である。別の好ましい実施形態において、本発明は、例えば画像セグメンテーションを行うために隣接するスライスから、1つ以上の構造18の以前に生成された輪郭を利用する。これは、局所画像に不正確があるというような、構造18についての情報が取得でき、セグメンテーションの結果の精度がさらに増すため有利である。
本発明は、図面及び前述の記載において詳細に図示及び記載されているが、このような図示及び記載は例示的な又は代表的なもので、限定的ではないと考えるべきであり、本発明は、開示された実施形態に限定されるものではない。開示された実施形態に対するその他の変更は、図面、開示及び添付の特許請求の範囲の検討することにより、特許請求された発明を実行する上で当業者に理解、達成される。
特許請求の範囲において、「comprising」という用語は、他の要素又はステップを排除せず、「a」又は「an」という不定冠詞は、複数を排除するものではない。単一の要素又は他の単位が、請求項に記載のいくつかの機能を遂行する場合がある。特定の手法が互いに異なる従属請求項に記載されているということだけでは、これらの手法の組み合わせが有効に使用されることができないことを示すものではない。
コンピュータプログラムは、光学的記憶媒体又は他のハードウェアとともに又はその一部として供給された固体媒体のような、好適な媒体に記憶/分散され得るが、例えばインターネットやその他の有線又は無線通信システムを介して、その他の形式でも分散される。
特許請求の範囲における如何なる参照符号も範囲を限定するものと解釈すべきではない。

Claims (15)

  1. 被験者の画像をセグメント化するためのデバイスであって、当該デバイスは、
    前記被験者の画像を受信するためのデータインタフェースであって、前記画像は前記被験者の構造を示すデータインタフェースと、
    画像位置決め手段のユーザによって開始される動作を、前記構造を囲む第1の輪郭に変換するための変換ユニットと、
    前記ユーザによって開始される動作の動作パラメータを前記第1の輪郭にレジストレーションする動作パラメータレジストレーションユニットであって、前記動作パラメータは前記画像位置決め手段の速度及び/又は加速度を含む動作パラメータレジストレーションユニットと、
    前記動作パラメータに伴って密度が減少する複数の画像制御ポイントを前記第1の輪郭に分配するための画像制御ポイントユニットと、
    前記複数の画像制御ポイントに基づいて、前記第1の輪郭内の第2の輪郭を決定することにより前記画像をセグメント化するセグメンテーションユニットであって、1つ以上のセグメンテーション機能を使用するセグメンテーションユニットとを備える、デバイス。
  2. 前記セグメンテーションユニットは、前記第1の輪郭内の複数の標的ポイントを識別し、前記標的ポイントそれぞれは前記画像制御ポイントのうちの対応する1つで始まる経路及び/又はボリューム内に位置し、前記第2の輪郭は前記複数の標的ポイントを接続することによって形成される、請求項1に記載のデバイス。
  3. 前記経路は直線経路を含み、前記直線経路は前記第1の輪郭のエッジに直交又は斜交し、及び/又は前記動作パラメータに伴って長さを増す、請求項2に記載のデバイス。
  4. 前記セグメンテーションユニットは前記ボリューム及び/又は前記経路上の前記画像の画像パラメータを解析し、前記画像パラメータのピークを検出する前記標的ポイントを識別する、請求項2に記載のデバイス。
  5. 前記画像パラメータは画像の勾配を含み、前記セグメンテーションユニットは、前記画像の勾配の勾配ピークを検出する前記標的ポイントを識別する、請求項4に記載のデバイス。
  6. 前記勾配ピークは、前記画像制御ポイントから開始して第1の勾配ピーク及び/又は最大の勾配ピークを含む、請求項5に記載のデバイス。
  7. 前記セグメンテーションユニットは、前記勾配ピークが所定の勾配閾値を上回る場合に限り前記標的ポイントを識別する、請求項5に記載のデバイス。
  8. 前記第2の輪郭は前記動作パラメータに伴って増す前記第1の輪郭までの距離を含む、請求項1に記載のデバイス。
  9. 前記画像は、第1及び少なくとも1つの第2の画像スライスを含み、前記第1の画像スライスから前記少なくとも1つの第2の画像スライスへ、前記構造、前記第1の輪郭及び/又は前記第2の輪郭を転送するための転送ユニットをさらに含む、請求項1に記載のデバイス。
  10. 前記画像制御ポイントユニットは、前記動作パラメータを使用せずに複数の追加の画像制御ポイントを分配する、請求項1に記載のデバイス。
  11. 前記動作パラメータレジストレーションユニットは、前記動作パラメータが所定の閾値パラメータより低い場合にはエラーの信号を送る、請求項1に記載のデバイス。
  12. 前記セグメンテーションユニットは動的輪郭、モデルベースのセグメンテーション及び/又はセグメンテーション機能としてグラフカットを使用する、請求項1に記載のデバイス。
  13. 被験者の画像をセグメント化するためのシステムであって、
    前記被験者の少なくとも1つの画像を生成するための撮像装置と、
    生成された前記少なくとも1つの画像をセグメント化するための請求項1に記載のデバイスとを備える、システム。
  14. 被験者の画像をセグメント化するための方法であって、前記方法は、
    前記被験者の前記画像を受信するステップであって、前記画像は前記被験者の構造を示すステップと、
    画像位置決め手段のユーザによって開始される動作を、前記構造を囲む第1の輪郭に変換するステップと、
    前記ユーザによって開始される動作の動作パラメータを前記第1の輪郭にレジストレーションするステップであって、前記動作パラメータは前記画像位置決め手段の速度及び/又は加速度を含むステップと、
    前記動作パラメータに伴って密度が減少する複数の画像制御ポイントを前記第1の輪郭上に分配するステップと、
    セグメンテーションユニットが1つ以上のセグメンテーション機能を使用し、前記複数の画像制御ポイントに基づいて前記第1の輪郭内の第2の輪郭を決定することにより前記画像をセグメント化するステップとを含む、方法。
  15. コンピュータプログラムがコンピュータ上で実行されるときに、前記コンピュータに請求項14に記載の方法のステップを実行させるためのプログラムコード手段を含む、コンピュータプログラム。
JP2017502105A 2014-07-15 2015-06-16 被験者の画像をセグメント化するためのデバイス、システム及び方法 Active JP6739422B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14176985.1 2014-07-15
EP14176985 2014-07-15
PCT/EP2015/063441 WO2016008665A1 (en) 2014-07-15 2015-06-16 Device, system and method for segmenting an image of a subject.

Publications (3)

Publication Number Publication Date
JP2017527015A true JP2017527015A (ja) 2017-09-14
JP2017527015A5 JP2017527015A5 (ja) 2020-06-25
JP6739422B2 JP6739422B2 (ja) 2020-08-12

Family

ID=51211561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017502105A Active JP6739422B2 (ja) 2014-07-15 2015-06-16 被験者の画像をセグメント化するためのデバイス、システム及び方法

Country Status (5)

Country Link
US (1) US10223795B2 (ja)
EP (2) EP3748581A1 (ja)
JP (1) JP6739422B2 (ja)
CN (1) CN106537452B (ja)
WO (1) WO2016008665A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3684463A4 (en) 2017-09-19 2021-06-23 Neuroenhancement Lab, LLC NEURO-ACTIVATION PROCESS AND APPARATUS
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
WO2019133997A1 (en) 2017-12-31 2019-07-04 Neuroenhancement Lab, LLC System and method for neuroenhancement to enhance emotional response
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
EP3849410A4 (en) 2018-09-14 2022-11-02 Neuroenhancement Lab, LLC SLEEP ENHANCEMENT SYSTEM AND METHOD
EP3644275A1 (en) * 2018-10-22 2020-04-29 Koninklijke Philips N.V. Predicting correctness of algorithmic segmentation
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
CN116843708B (zh) * 2023-08-30 2023-12-12 荣耀终端有限公司 图像处理方法和装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2856229B2 (ja) * 1991-09-18 1999-02-10 財団法人ニューメディア開発協会 画像切り出し箇所検出方法
JP2000331156A (ja) * 1999-05-17 2000-11-30 Internatl Business Mach Corp <Ibm> 輪郭に沿うトラッカを自動的に決定するための方法、及び該方法を実施するプログラムを記憶した記憶媒体
JP2004181240A (ja) * 2002-12-03 2004-07-02 Koninkl Philips Electronics Nv 超音波撮像により撮像される対象物の境界を生成するシステム及び方法
US7376252B2 (en) * 2003-11-25 2008-05-20 Ge Medical Systems Global Technology Company, Llc User interactive method and user interface for detecting a contour of an object
FR2880455A1 (fr) * 2005-01-06 2006-07-07 Thomson Licensing Sa Methode et dispositif de segmentation d'une image
US8270696B2 (en) 2007-02-09 2012-09-18 The Trustees Of The University Of Pennsylvania Image slice segmentation using midpoints of contour anchor points
WO2008141293A2 (en) 2007-05-11 2008-11-20 The Board Of Regents Of The University Of Oklahoma One Partner's Place Image segmentation system and method
US8280171B2 (en) * 2008-05-28 2012-10-02 Apple Inc. Tools for selecting a section of interest within an image
CN101404085B (zh) * 2008-10-07 2012-05-16 华南师范大学 交互式三维体分割序列图像的分割方法及其应用
WO2010113052A1 (en) 2009-04-03 2010-10-07 Koninklijke Philips Electronics N.V. Interactive iterative closest point algorithm for organ segmentation
CN102306373A (zh) * 2011-08-17 2012-01-04 深圳市旭东数字医学影像技术有限公司 一种腹部器官的三维医学图像分割方法及系统
JP5953842B2 (ja) * 2012-03-14 2016-07-20 オムロン株式会社 画像検査方法および検査領域設定方法
CN103049907B (zh) * 2012-12-11 2016-06-29 深圳市旭东数字医学影像技术有限公司 交互式图像分割方法
JP6329490B2 (ja) * 2013-02-05 2018-05-23 株式会社日立製作所 X線ct装置及び画像再構成方法
JP5741660B2 (ja) * 2013-09-18 2015-07-01 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP6739422B2 (ja) 2020-08-12
US20170178340A1 (en) 2017-06-22
EP3170144A1 (en) 2017-05-24
EP3748581A1 (en) 2020-12-09
US10223795B2 (en) 2019-03-05
WO2016008665A1 (en) 2016-01-21
CN106537452A (zh) 2017-03-22
CN106537452B (zh) 2021-04-09
EP3170144B1 (en) 2020-11-18

Similar Documents

Publication Publication Date Title
JP6739422B2 (ja) 被験者の画像をセグメント化するためのデバイス、システム及び方法
CN109937012B (zh) 为成像系统选择采集参数
JP6184926B2 (ja) 椎骨セグメンテーション装置、方法およびプログラム
US20200058098A1 (en) Image processing apparatus, image processing method, and image processing program
CN106999130B (zh) 用于确定在投影图像中介入仪器的位置的装置
JP2014161734A (ja) 医療画像を整合する方法及びその装置
US10628963B2 (en) Automatic detection of an artifact in patient image
EP3468668B1 (en) Soft tissue tracking using physiologic volume rendering
EP3203914B1 (en) Radiation dose applied to different anatomical stages
US20160217567A1 (en) Multi-modal segmentatin of image data
KR20170088742A (ko) 워크스테이션 이를 포함하는 의료영상 장치, 및 그 제어방법
US20180061090A1 (en) Method and device for the automatic generation of synthetic projections
US20180005378A1 (en) Atlas-Based Determination of Tumor Growth Direction
JP2006102353A (ja) 関節動作解析装置、関節動作解析方法及び関節動作解析プログラム
US9367926B2 (en) Determining a four-dimensional CT image based on three-dimensional CT data and four-dimensional model data
US11398035B2 (en) Partitioning a medical image
US11423554B2 (en) Registering a two-dimensional image with a three-dimensional image
CN108348205A (zh) 用于对目标进行成像的设备
EP3391332B1 (en) Determination of registration accuracy
US20220277835A1 (en) Self-learning distributed system with automated ground-truth generation
US20230237711A1 (en) Augmenting a medical image with an intelligent ruler
EP4336450A1 (en) Providing pose information for x-ray projection images
US20230410308A1 (en) Detection of foreign objects in intraoperative images
WO2023110134A1 (en) Detection of positional deviations in patient registration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190218

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190607

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200207

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20200515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200721

R150 Certificate of patent or registration of utility model

Ref document number: 6739422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250