JP2015504560A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2015504560A
JP2015504560A JP2014542963A JP2014542963A JP2015504560A JP 2015504560 A JP2015504560 A JP 2015504560A JP 2014542963 A JP2014542963 A JP 2014542963A JP 2014542963 A JP2014542963 A JP 2014542963A JP 2015504560 A JP2015504560 A JP 2015504560A
Authority
JP
Japan
Prior art keywords
mask
image
gradient
processor
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014542963A
Other languages
English (en)
Other versions
JP6060173B2 (ja
Inventor
ウィレム オスカル セルリー,イウォ
ウィレム オスカル セルリー,イウォ
マルテリュス,リュドルフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2015504560A publication Critical patent/JP2015504560A/ja
Application granted granted Critical
Publication of JP6060173B2 publication Critical patent/JP6060173B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

オブジェクトにマスクを適用する画像処理装置110であって、画像122を取得するための入力部120と、(i)前記画像内の前記オブジェクトを検出し、(ii)出力画像60を取得するために、前記画像内の前記オブジェクトに前記マスクを適用するためのプロセッサ130と、を備え、前記プロセッサは、(j)前記オブジェクトのオブジェクト輪郭を設定し、(jj)前記オブジェクト輪郭に基づいて、前記オブジェクトよりも小さなマスクを生成し、(jjj)前記オブジェクトの境界領域を明瞭に保ったまま前記オブジェクトのボディをマスクするために前記オブジェクトを覆うように前記マスクを配置することにより、前記オブジェクトに前記マスクを適用するよう構成されている、画像処理装置。

Description

本発明は、画像内のオブジェクトにマスクを適用する画像処理装置及び方法に関する。本発明は、さらに、前述の画像処理装置を備えたワークステーション及びイメージング装置に関し、プロセッサシステムに前述の方法を実行させるコンピュータプログラム製品に関する。
画像評価及び画像表示の分野において、画像内のオブジェクトをマスクすることが望ましい場合がある。この理由は、マスクしなければ、ユーザが、画像を見るときに、オブジェクトによって、気を取られたり、妨げられたりする場合があるからである。オブジェクトをマスクすることによって、画像内のオブジェクトの可視性が低減する。結果として、ユーザは、例えば、別のオブジェクト又はそのオブジェクトの隣接する領域といった画像内の他の領域に、より容易に注意を向けることができる。
画像内のオブジェクトを自動的にマスクすることが知られている。例えば、特許文献1は、医用画像内の人工オブジェクトの体裁を変更するためのシステム及び方法を開示している。マンモグラフィ画像内の乳房インプラントを特定するなど、人工オブジェクトが医用画像内において初めに特定される。次いで、例えば、輝度を低減する、あるいは人工オブジェクトを全てマスクすることによって、人工オブジェクトのプロミネンスが低減される。次いで、変更された人工オブジェクトを含む結果として得られた医用画像がユーザに表示される。それにより、ユーザ自身が画像を調節しなくとも、医用画像をより正確に解析することが可能となる。
米国特許出願公開第2011/0123074号明細書
前述のシステム及び方法の問題は、ユーザが、オブジェクトの自動的なマスキングが間違っていたかどうかを判断することが困難であることである。
ユーザが、オブジェクトの自動的なマスキングが間違っていたかどうかをより容易に判断することを可能にする、改良された装置又は方法を有することは有用であろう。
この問題により良く対処するため、本発明の第1の側面は、オブジェクトにマスクを適用する画像処理装置を提供する。本画像処理装置は、画像を取得するための入力部と、(i)前記画像内の前記オブジェクトを検出し、(ii)出力画像を取得するために、前記画像内の前記オブジェクトに前記マスクを適用するためのプロセッサと、を備え、前記プロセッサは、(j)前記オブジェクトのオブジェクト輪郭(object contour)を設定し、(jj)前記オブジェクト輪郭に基づいて、前記オブジェクトよりも小さなマスクを生成し、(jjj)前記オブジェクトの境界領域を明瞭に保ったまま前記オブジェクトのボディ(body)をマスクするために前記オブジェクトを覆うように前記マスクを配置することにより、前記オブジェクトに前記マスクを適用するよう構成されている。
本発明のさらなる側面において、前述の画像処理装置を備えたワークステーション及びイメージング装置が提供される。
本発明のさらなる側面において、オブジェクトにマスクを適用する方法が提供される。本方法は、画像を取得するステップと、前記画像内の前記オブジェクトを検出するステップと、出力画像を取得するために、(j)前記オブジェクトのオブジェクト輪郭を設定し、(jj)前記オブジェクト輪郭に基づいて、前記オブジェクトよりも小さなマスクを生成し、(jjj)前記オブジェクトの境界領域を明瞭に保ったまま前記オブジェクトのボディをマスクするために前記オブジェクトを覆うように前記マスクを配置することにより、前記画像内の前記オブジェクトに前記マスクを適用するステップと、を含む。
本発明のさらなる側面において、プロセッサシステムに前述の方法を実行させるための命令を含むコンピュータプログラム製品が提供される。
入力部は、オブジェクトを含む画像を取得する。結果として、画像が表示される場合、オブジェクトがユーザに見えるものとなる。プロセッサは、画像内のオブジェクトを検出し、オブジェクトにマスクを適用する。マスクは、画像内のオブジェクトの可視性を低減するよう意図されている画像データである。オブジェクトにマスクを適用することにより、マスクの画像データが、オブジェクトの画像データを覆うように挿入されるか、あるいは、オブジェクトの画像データの可視性に影響を与える。結果として、出力画像が表示される場合、出力画像内のオブジェクトの可視性は低減される。プロセッサは、次のようにオブジェクトにマスクを適用するよう構成されている。初めに、オブジェクトの外形が決定される。外形は、オブジェクトのサイズを示す。
オブジェクトの外形に基づいて、オブジェクトよりも小さなマスクが生成される。結果として、マスクは、オブジェクト全てを覆わない。最後に、オブジェクトの境界領域が目に見えるよう保たれる一方で、オブジェクトのバルク(bulk)がマスクにより覆われるように、マスクがオブジェクトを覆うように配置される。結果として、出力画像内のオブジェクトのバルクの可視性は低減されるのに対し、オブジェクトの境界領域の可視性は影響を受けない。
オブジェクトの境界領域を明瞭に保ったままオブジェクトのボディをマスクすることにより、オブジェクトのバルクの可視性が低減されるので、ユーザは、オブジェクトにより、気を取られたり、妨げられたりされにくくなる。しかしながら、オブジェクトの境界領域は、明瞭に保たれたままであるため、その可視性は低減されないか、あるいはそうでなければ、オブジェクトにマスクを適用した結果、変更される。
本発明は、画像内のオブジェクトの自動的なマスキングをユーザが得ることは都合がよいが、オブジェクトの自動的なマスキングは、例えば、オブジェクトを正しく検出できないことにより間違ったものになり得るという認識に部分的に基づく。結果として、マスクは、ユーザに関連し得る、オブジェクトの隣接領域を覆う場合がある。発明者らは、ユーザが出力画像を見ている場合において、ユーザが通常、オブジェクトの自動的なマスキングが間違っていたかどうかを判断することができず、そのため、オブジェクトの隣接領域が覆われていたかどうかを判断することができないことを認識した。この理由は、マスクがオブジェクトに正しく適用されているかどうかを判断することが、オブジェクトのマスキングにより可視性が低減されているオブジェクトによって現在妨げられている、マスクをオブジェクトと比較することを伴うからである。
オブジェクトの自動的なマスキングにおいてオブジェクトの境界領域を明瞭に保つことにより、ユーザは、オブジェクトの境界領域を見ることで、オブジェクトの隣接領域が覆われないようにマスクが適用されていると推測することができる。同様に、オブジェクトの境界領域が目に見えない場合、ユーザは、オブジェクトの自動的なマスキングが間違っており、そのため、オブジェクトの隣接領域が覆われていると推測することができる。さらに、オブジェクトのボディはマスクされ、したがって、その可視性は低減されるので、マスキングの効果は、一般に維持される。
有利なことに、オブジェクトの隣接領域における関連情報が維持される。有利なことに、オブジェクトの境界領域における関連情報が維持される。有利なことに、ユーザは、自動的なマスキングが間違っていたかどうかを出力画像から推測することができることを知っているので、オブジェクトの自動的なマスキングに依拠する可能性がより高くなる。有利なことに、オブジェクトの隣接領域が覆われる結果になり得る自動的なマスキングにおける間違いが、ユーザによって容易に気付かれるものなので、オブジェクトの自動的なマスキングが、100%信頼できる必要はない。有利なことに、画像が医用画像である場合、オブジェクトの境界領域における診断情報は、影響を受けないままである、すなわち、マスクされない。
任意的に、プロセッサは、マスクのマスク輪郭(mask contour)を取得するために、オブジェクトの内側方向に沿ってオブジェクト輪郭のサイズを小さくすることにより、マスクを生成するよう構成される。内側方向にオブジェクト輪郭のサイズを小さくすることにより、マスク輪郭は、オブジェクト輪郭よりもサイズが小さいが、オブジェクト輪郭と同様に成形される。したがって、マスクは、オブジェクト輪郭内部にフィットする。結果として、マスクが、オブジェクトを覆う適切な位置に配置される場合、オブジェクトの境界領域は、自動的に明瞭に保たれる。
任意的に、プロセッサは、モルフォロジカルエロージョン技術(morphological erosion technique)をオブジェクト輪郭に対して適用することにより、オブジェクト輪郭のサイズを小さくするよう構成される。モルフォロジカルエロージョン技術は、オブジェクト輪郭のサイズを小さくするのに、特によく適している。
任意的に、プロセッサは、オブジェクトとオブジェクトの周囲との間の段階的変化(gradual transition)を構成するオブジェクト勾配(object gradient)を画像内で検出して、マスクとオブジェクト勾配との間のオブジェクトの境界領域、及びオブジェクト勾配を明瞭に保つよう構成される。画像内におけるオブジェクトとオブジェクトの周囲との間の変化は、段階的変化であり得る。したがって、オブジェクトの輪郭は、非常に細い線によって構成されるのではなく、前述の段階的変化に対応する画像内の領域によって構成される。この理由は、画像を取得する際に使用されるイメージング装置の解像度が、例えば、検出器要素の制限されたサイズに起因して、制限され得るからである。オブジェクト勾配は、オブジェクトにも、オブジェクトの周囲にも完全には対応せず、オブジェクトとオブジェクトの周囲との間の段階的変化となる。したがって、オブジェクトの境界領域は、オブジェクト勾配の内側に位置する。オブジェクト勾配は、ユーザの関連情報を含む。オブジェクト勾配を検出することにより、画像内のどの場所に、オブジェクトとオブジェクトの周囲との間の段階的変化が位置するかが知られる。したがって、オブジェクトの境界領域、及び、オブジェクト勾配がともに明瞭に保たれる。
任意的に、プロセッサは、ディスプレイ上に出力画像を表示する場合、2mm〜10mmの表示幅(displayed width)を有するオブジェクトの境界領域を設定するよう構成される。したがって、プロセッサは、出力画像を表示するために使用されるディスプレイ上で測定される場合において2mm〜10mmの幅を有するオブジェクトの境界領域を設定するよう構成される。このような範囲は、ユーザに見えるように十分に大きなオブジェクトの境界領域を示すことと、オブジェクトの全体的な可視性を低減するためにオブジェクトの大きな部分をマスクすることとの間の、適切な調整を構成する。
任意的に、本画像処理装置は、ユーザが出力画像を拡大縮小するためのズーム率(zoom factor)を決定できるようにするユーザ入力部をさらに備え、プロセッサは、ズーム率に基づいてディスプレイ上に出力画像を表示する場合においてオブジェクトの境界領域の表示幅を維持するために、ズーム率に基づいてマスクを生成するよう構成される。出力画像を拡大縮小することは、通常、表示幅の構造が、ズーム率に比例して増大又は減少することをもたらす。これは、境界領域にとって望ましくない。例えば、出力画像が縮小される場合、境界領域がもはやユーザに明瞭に見えないように、境界領域の表示幅は減少し得る。同様に、出力画像が拡大される場合、境界領域の表示幅は、不必要に大きくなり得、境界領域によって、ユーザが気を取られたり、妨げられたりする結果となる。ズーム率を使用して、境界領域の表示幅を、例えば、一定値、又は制限された範囲内に維持することにより、拡大縮小の結果、境界領域がもはやユーザに明瞭に見えなくなること、又は、境界領域が不必要に大きくなることが避けられる。
任意的に、プロセッサは、マスクとオブジェクトとの間で段階的変化を設定するために、オブジェクトにマスクを適用する場合において、出力画像内でマスク勾配(mask gradient)を生成するよう構成される。したがって、出力画像において、マスクとオブジェクトとの間に、段階的変化が導入される。有利なことに、ユーザは、出力画像におけるオブジェクトとマスクとの間の鋭い変化によって、気を取られたり、妨げられたりされない。
任意的に、プロセッサは、マスクの境界領域をオブジェクトとブレンドすることにより、マスク勾配を生成するよう構成される。マスクの境界領域をオブジェクトとブレンドすることは、マスク勾配を生成するのに、特によく適している。
任意的に、プロセッサは、(i)オブジェクトとオブジェクトの周囲との間の段階的変化を構成するオブジェクト勾配を画像内で検出し、(ii)出力画像内でオブジェクト勾配とマスク勾配とを視覚的に区別するためにオブジェクト勾配とは幅及び/又は形状が異なるマスク勾配を生成するよう構成される。したがって、ユーザは、オブジェクト勾配とマスク勾配とを視覚的に区別することができる。有利なことに、ユーザは、マスク勾配をオブジェクト勾配と間違って識別する可能性が低い。有利なことに、ユーザは、出力画像の合成によって導入された部分を容易に識別するよう、出力画像内のマスク勾配を容易に識別することができる。
任意的に、本画像処理装置は、ユーザがマスク勾配の幅及び/又は形状を決定できるようにするユーザ入力部をさらに備える。したがって、ユーザは、手動で、マスク勾配の幅及び/又は形状を決定することができる。
任意的に、プロセッサは、オブジェクトのボディの輝度及び/又はコントラストを低減することにより、オブジェクトのボディをマスクするよう構成される。オブジェクトのボディの輝度及び/又はコントラストを低減することにより、オブジェクトのボディの可視性が低減されるとともに、オブジェクトのボディに含まれるエッジなど、オブジェクトのボディに関する視覚的情報がなお提供される。有利なことに、ユーザは、オブジェクトのボディがマスクされているにもかかわらず、オブジェクトを識別することができる。
本発明の上述の実施形態、実施例、及び/又は態様の二つ以上が、有用とみなされる任意の方法で組み合され得ることが当業者により理解されよう。
画像処理装置の上記修正及び変更に対応するワークステーション、イメージング装置、方法、及び/又はコンピュータプログラム製品の修正及び変更は、本記載に基づいて当業者により実行することができる。
当業者は、本方法が、例えば、2次元(2−D)、3次元(3−D)、又は4次元(4−D)画像などの多次元画像データに適用され得ることを理解されたい。多次元画像データのディメンジョンは、時間に関係し得る。例えば、3次元画像は、時間ドメインシリーズの2次元画像を含み得る。画像は、標準X線イメージング、コンピュータ断層撮影(CT)、磁気共鳴イメージング(MRI)、超音波(US)、陽電子放出断層撮影(PET)、単一光子放射断層撮影(SPECT)、及び核医学(NM)などの様々な取得モダリティによって取得される医用画像であってよいが、取得モダリティは、これらに限定されるものではない。しかしながら、画像は、例えば、地質学的画像又は天体物理学的画像など、任意の他の種類であってもよい。
本発明は、独立請求項において定められる。有利な実施形態は、従属請求項において定められる。
本発明のこれらの側面及び他の側面が、本明細書において説明する実施形態から明らかになり、同実施形態を参照すると明瞭になるであろう。
本発明に従った、出力画像を表示するディスプレイに接続された画像処理装置を示す図。 本発明に従った方法を示す図。 本発明に従ったコンピュータプログラム製品を示す図。 マスクされるオブジェクトを含む画像を示す図。 オブジェクトが完全にマスクされている出力画像を示す図。 オブジェクトの境界領域を明瞭に保つために、本発明に従ってオブジェクトがマスクされている出力画像を示す図。 拡大後の図5aの出力画像を示す図。 輝度を低減することによりマスクされているオブジェクトのボディを示す図。 マスク輪郭を示す図6aの切抜図。 各々がオブジェクトを含む4つの医用画像を示す図。 本発明に従ってマスクされているオブジェクトを示す図。 オブジェクト輪郭を示す図7aの切抜図。 オブジェクトの境界領域を明瞭に保つために、本発明に従ってマスクされているオブジェクトを示す図7bの切抜図。 図8bに示される線分に沿った位置の関数として強度をプロットした図であって、プロットはオブジェクトの境界領域を示す図。
図1は、オブジェクトにマスクを適用する画像処理装置110(以降、装置110と称す。)を示している。装置110は、画像122を取得するための入力部120を備える。入力部120は、例えば、送信機から画像122を受信することにより、装置110の外部から画像122を取得してもよいし、又は、例えば、内部データベースから画像122を取得することにより、装置110の内部から画像122を取得してもよい。装置110は、画像122内のオブジェクトにマスクを適用するためのプロセッサ130をさらに備える。画像122をプロセッサ130に提供するために、入力部120は、プロセッサ130に接続されるよう、示されている。さらに、出力画像160をディスプレイ150に提供するために、装置110は、ディスプレイ150に接続されるよう、示されている。ディスプレイ150は、外部ディスプレイとして、すなわち、装置110の一部ではないものとして示されている。代替として、ディスプレイ150は、装置110の一部であってもよい。装置110及びディスプレイ150はともに、システム100を形成することができる。
装置110は、ユーザから選択データ(selection data)144を取得するためのユーザ入力部140をさらに備えることができる。そのため、ユーザ入力部140は、マウス、キーボード、タッチスクリーンなどのユーザインタフェース手段(図1には示されていない)に接続することができ、ユーザインタフェース手段を介してユーザからユーザインタフェースコマンド142を受信する。
図2は、オブジェクトにマスクを適用する方法200を示している。方法200は、「画像を取得する」という表題の第1ステップにおいて、画像を取得するステップ210を含む。方法200は、「オブジェクトを検出する」という表題の第2ステップにおいて、画像内のオブジェクトを検出するステップ220をさらに含む。方法200は、「マスクを適用する」という表題の第3ステップにおいて、出力画像を取得するために、画像内のオブジェクトにマスクを適用するステップ230をさらに含む。オブジェクトにマスクを適用するステップ230である第3ステップは、「オブジェクト輪郭を設定する」という表題の第1中間ステップにおいて、オブジェクトのオブジェクト輪郭を設定するステップ240を含む。第3ステップは、「マスクを生成する」という表題の第2中間ステップにおいて、オブジェクト輪郭に基づいて、オブジェクトよりも小さなマスクを生成するステップ250をさらに含む。第3ステップは、「マスクを配置する」という表題の第3中間ステップにおいて、オブジェクトの境界領域を明瞭に保ったままオブジェクトのボディをマスクするために、オブジェクトを覆うようにマスクを配置するステップ260をさらに含む。方法200は、装置110の動作に対応し得る。以降では、装置110の動作を参照して、方法200についてさらに説明する。しかしながら、方法200は、例えば、異なる装置を用いることにより、装置110とは切り離して実行されてもよいことに留意されたい。
図3は、プロセッサシステムに本発明に従った方法を実行させるための命令を含むコンピュータプログラム製品280を示している。コンピュータプログラム製品280は、例えば、一連のマシン読み取り可能な物理的マーク、及び/又は、様々な電気的(例えば、磁気的)又は光学的特性若しくは値を有する一連の要素の形態で、コンピュータ読み取り可能な媒体270上に構成され得る。
図4a〜図9を参照して、装置110の動作について説明する。図4aは、マスクされるオブジェクト124を含む画像122を示している。図4bは、マスク170により完全にマスクされているオブジェクト124を含む出力画像160を示している。マスク170は、図4bに概略的に示されるように、線模様によって示されている。オブジェクト124を覆うマスク170の結果、オブジェクト124は、その全体がもはや目に見えない。したがって、出力画像160を見ているユーザは、マスク170が、例えば、オブジェクト124の周囲など、画像122の追加の領域を覆っているか否かを判断することはできない。
図5aは、オブジェクト124の境界領域126を明瞭に保つために、本発明に従ってオブジェクト124がマスクされている出力画像161を示している。境界領域126は、オブジェクト124の境界におけるゼロでない幅を有する領域として目に見える。出力画像161内のオブジェクト124の境界領域126を明瞭に保つために、プロセッサ130は、画像内のオブジェクト124を検出する。画像内のオブジェクト124を検出することは、画像分析及びオブジェクト検出の分野において本来知られているようなオブジェクト検出技術又はオブジェクトセグメンテーション技術を画像に対して適用することを含み得る。代替として、又は、追加的に、画像内のオブジェクト124を検出することは、以前に適用されたオブジェクト検出技術又はオブジェクトセグメンテーション技術から、位置結果又は検出結果を受け取ることを含んでもよい。プロセッサ130は、画像内のオブジェクト124を検出すると、次いで、画像内のオブジェクト124にマスク171を適用し、それにより、出力画像161を生成する。
オブジェクト124にマスク171を適用することは、初めにオブジェクト124のオブジェクト輪郭を設定することによって、実行される。オブジェクト輪郭は、画像内のオブジェクト124の外形に対応する。オブジェクト輪郭は、図5aに示される例において、暗い背景と明るいオブジェクト124との間の鋭いエッジとして目に見える。オブジェクト輪郭は、画像内のオブジェクト124を検出することの一部として、プロセッサ130により設定されてもよい。しかしながら、オブジェクト輪郭を設定することは、プロセッサ130が別のステップを実行することを伴ってもよい。例えば、オブジェクト124を検出することは、例えば、シードロケーション(seed location)などのオブジェクト124の中心を検出することを伴ってもよい。オブジェクト輪郭を設定することは、オブジェクト輪郭を取得するために、リージョングローイング技術(region growing technique)をシードロケーションに対して適用することを伴ってもよい。オブジェクト輪郭を設定することはまた、最低コスト円形路(lowest-cost circular path)を決定することを伴ってもよい。ここで、コストは、潜在的円形路を構成するエッジの強さ及び/又は量の逆数として定義される。
上記の技術は、画像分析及びオブジェクト検出の分野において本来知られていることを理解されたい。さらに、オブジェクト124を検出し且つ/又はオブジェクト輪郭を設定するために、上記分野における他の様々な技術が、効果的に使用され得ることに留意されたい。特に、画像内で検出されるオブジェクト124及び/又は設定されるオブジェクト輪郭に関する従前の知識は、効果的に使用され得る。例えば、前述の最低コスト円形路は、概ね円形形状であるオブジェクトの輪郭を設定するのによく適している。例えば、画像が乳房の医用画像である、すなわち、医用画像がマンモグラフィ画像であり、且つ、オブジェクト124が乳房インプラントである、すなわち、人工オブジェクトが患者に挿入されている場合、乳房インプラントは概ね円形であり、且つ、画像のサイドに主に位置するという知識を利用して、信頼性を向上させることができる。すなわち、オブジェクト124を検出し且つ/又はオブジェクト輪郭を設定する際の誤った結果を回避することができる。
プロセッサ130は、オブジェクト輪郭を設定すると、オブジェクト輪郭に基づいて、オブジェクト124よりも小さなマスク171を生成する。オブジェクト124よりも小さなマスク171を生成することは、オブジェクト124の内側方向に沿って、オブジェクト輪郭のサイズを小さくすることを含み得る。それにより、マスク171のマスク輪郭を取得する。オブジェクト輪郭のサイズを小さくすることは、オブジェクト124の内部に、オブジェクト輪郭からオブジェクト輪郭に対して局所的に直交する方向に所与の距離離れたマスク輪郭を設定することを含み得る。距離は、ピクセル単位であってよい。オブジェクト輪郭のサイズを小さくすることはまた、形態学的画像処理の分野において本来知られているようなモルフォロジカルエロージョン技術をオブジェクト輪郭に対して適用することを含んでもよい。
マスク輪郭を取得すると、例えば、輝度値、クロミナンス値、及び/又は不透明度値(opacity value)といったマスク値をマスク輪郭に「与える(fill in)」ことにより、マスク171自体を生成することができる。マスク値は、同一であってよい。結果として、マスクには、同一のマスク値を「与える」ことができる。上記の結果、例えば、装置110のメモリにおいて、マスク171の明示的な表現を取得することができる。しかしながら、マスク171は、例えば、マスク輪郭と、輝度値、クロミナンス値、及び/又は不透明度値といった単一のマスク値とによって規定されるように、黙示的に生成されてもよいことを理解されたい。
プロセッサ130は、マスク171を生成すると、オブジェクト124の境界領域126を明瞭に保ったままオブジェクト124のボディをマスクするために、オブジェクト124を覆うようにマスク171を配置する。その結果が図5aに示されている。図5aでは、オブジェクト124のボディ、すなわち、バルクがマスクされているのに対し、オブジェクト124の境界領域126は目に見えるままである。通常、オブジェクト124を覆うようにマスク171を配置することは、オブジェクト124に関して中央にマスク171を配置すること、すなわち、オブジェクト124の境界領域126が明瞭に保たれたままであるように、オブジェクト124の内部にマスク171をフィッティングすることを伴う。マスク輪郭が、オブジェクト輪郭のサイズを小さくすることにより取得される場合、マスク輪郭は、オブジェクト124のボディがマスクされ且つオブジェクト124の境界領域126が明瞭に保たれたままであるように、すでに配置されている。したがって、マスク171の位置決めは、マスク171を生成することの黙示的な一部分とすることができる。
図5bは、図5aの出力画像161の拡大図を示している。ここで、この拡大は、装置110の動作に起因するものである、すなわち、図5aを説明する目的のためではない。ユーザが出力画像161を拡大縮小することを可能にするため、ユーザ入力部140は、ユーザがズーム率を決定できるよう構成され得る。ユーザインタフェースコマンド142は、ズーム率を示すものであってよい。ズーム率は、ユーザ入力部140から、選択データ144の形態で、プロセッサ130により受信され得る。
一般に、プロセッサ130は、出力画像162をディスプレイ150上に表示する場合において、表示幅180を有するオブジェクト124の境界領域126を設定するよう構成され得る。表示幅180は、一定値であってもよいし、又は、制限された範囲内になるよう設定されてもよい。例えば、オブジェクト124の境界領域126は、2mm〜10mmの表示幅180を有するものとして設定されてもよい。表示幅180は、5mmであってよい。ここで、表示幅180は、ディスプレイ150上で測定された場合における境界領域126の幅である。表示幅180は、通常、ユーザがディスプレイ150上で境界領域126を認識することを可能にする、且つ/又は、ユーザがオブジェクト輪郭をマスク輪郭とは分離されたものとして認識することを可能にする幅に対応する。表示幅180は、例えば、ディスプレイ150のサイズ、ディスプレイ150までのユーザの視距離などに依拠し得る。したがって、マスク171は、表示幅180を有するオブジェクト124の境界領域126を生じさせる量だけオブジェクト124よりも小さなものとして、生成することができる。プロセッサ130は、出力画像162内でピクセル幅(pixel width)を有するオブジェクト124の境界領域126を設定するよう構成され得、ピクセル幅は、ディスプレイ150上の表示幅180に対応するよう以前に決定されたものであることを理解されたい。そのため、ピクセル幅と表示幅180との間の変換率(conversion factor)は、例えば、出力画像162の解像度及びディスプレイ150のサイズの関数として、設定することができる。
プロセッサ130は、ズーム率に基づいてディスプレイ150上に出力画像162を表示する場合においてオブジェクト124の境界領域126の表示幅180を維持するために、ズーム率に基づいてマスク171を生成するよう構成され得る。上記の結果が、図5a及び図5bに示されている。図5bが図5aの出力画像161の拡大図を示しているにも関わらず、図5a及び図5bの両方において、オブジェクト124の境界領域126の表示幅180は、概ね同一であるように示されている。その結果、プロセッサ130は、ズーム率ごとに、又は、ズーム率の十分に大きな変化ごとに、マスク171を動的に再生成するよう構成され得る。
プロセッサ130は、出力画像162が所定のしきい値を超えて縮小される場合において、オブジェクト124にマスク171を適用することを無効にするよう構成され得る。しきい値は、オブジェクト124がディスプレイ150上に表示される場合において所与のサイズ以下となるズーム率に対応し得る。所与のサイズにおいて、オブジェクト124は、もはやユーザを妨げるものとしてみなされない。したがって、オブジェクト124をマスクすることが無効にされ得る。さらに、一般に、プロセッサ130は、オブジェクト124がディスプレイ150上に表示される場合において所与のサイズ以下となるときに、オブジェクト124にマスク171を適用することを無効にするよう構成され得る。
図6aは、オブジェクト124に適用されているマスク172の例を示している。ここで、プロセッサ130は、オブジェクト124のボディの輝度を低減することにより、オブジェクト124のボディをマスクするよう構成され得る。結果として、オブジェクト124の可視性は、輝度が低減されたオブジェクト124のボディに基づいて、低減される。オブジェクト124は、図4aに示されたものと同種のものである。しかしながら、オブジェクト124が、エッジまたはテクスチャといった細部(detail)を含む場合、オブジェクト124のボディの輝度が低減しても、ユーザは、オブジェクト124のボディ内の細部をなお認識する場合がある。代替として、オブジェクト124のボディをマスクすることは、オブジェクト124のボディのピクセルが出力画像163におけるマスク172のピクセルによって置換されることを含んでもよい。その他の多くの種類のマスキングも効果的に使用できることを理解されたい。例えば、オブジェクト124のボディは、そのコントラストを低減することにより、マスクされてもよい。
図6bは、図6aの切抜図を示している。切抜図は、図6aを説明するためのものであることに留意されたい。したがって、切抜図は、図5bに示されるような、装置110の拡大動作には対応しない。そうではなく、図6bは、図6aの部分164を大きくした図を単に示すに過ぎない。図6bにおいて、次の結果が明らかである。プロセッサ130は、マスク172とオブジェクト124との間で段階的変化を設定するために、オブジェクト124にマスク172を適用する場合において、出力画像163内でマスク勾配173を生成するよう構成され得る。その結果、図6bは、マスク172とオブジェクト124との間の段階的変化を示している。プロセッサ130は、マスク172の境界領域をオブジェクトとブレンドすることにより、マスク勾配173を生成するよう構成され得る。ブレンドすることは、いわゆるアルファブレンディングを実行することを伴ってもよい。アルファブレンディングにおいて、オブジェクト124、例えば、オブジェクト124のピクセル値、のマスク勾配173に対するコントリビューション(contribution)は、マスク172に向かう内側方向に対して低下するが、マスク172、例えば、マスク172のピクセル値、のマスク勾配173に対するコントリビューションは、前述の内側方向に対して増加する。プロセッサ130はまた、例えば、予め定められた幅及び/又は形状を有するように、予め定められたマスク勾配を出力画像163に挿入することにより、マスク勾配173を生成するよう構成され得る。
一般に、プロセッサ130は、出力画像163を表示するために使用されるズーム率に基づいて、又は、例えば、仮想的な拡大鏡を用いて出力画像163の一部分を表示するために使用されるズーム率に基づいて、マスク勾配173の幅及び/又は形状を決定又は変更するよう構成され得る。さらに、プロセッサ130は、出力画像163内のマスク勾配173の位置に基づいて、マスク勾配173の幅及び/又は形状を決定又は変更するよう構成され得る。例えば、マスク勾配173が、出力画像163のエッジに位置する場合、マスク勾配173の幅は、ゼロであってよい。
ユーザ入力部140は、ユーザがマスク勾配173の幅及び/又は形状を決定できるよう構成され得る。ユーザインタフェースコマンド142は、マスク勾配173の幅及び/又は形状を示すものであってよい。前述の幅及び/又は形状は、ユーザ入力部140から、選択データ144の形態で、プロセッサ130により受信され得る。形状は、マスク172及び/又はオブジェクト124の実際の外観に適応され得る。例えば、ユーザが、マスク勾配173を「S」形状に決定した場合、「S」形状の最大値及び/又は最小値は、マスク172及び/又はオブジェクト124の外観に対応するよう設定され得る。例えば、形状は、マスク172の輝度とオブジェクト124の輝度との間の段階的変化を得るために、スケーリングされてもよいし、調整されてもよい。
図7aは、隣接して提供されている4つの医用画像、すなわち、結合医用画像165を示している。この医用画像は、マンモグラフィ画像であり、様々な視点の患者の乳房を示している。全てのマンモグラフィ画像において、乳房インプラント125〜128の形態のオブジェクトが目に見える。マンモグラフィ画像を取得する際に使用されるイメージングモダリティの結果として、乳房インプラント125〜128は、明るいオブジェクトとして現れる。医用画像165を見ているユーザは、明るいオブジェクトとして現れている乳房インプラントにより妨げられ得る。例えば、医用画像165を検討するために使用される読影暗環境に対するユーザの適応は、妨げられ得る。その結果、ユーザは、乳房インプラント125〜128に隣接する詳細を識別することができない場合がある。
図7bは、本発明に従ってマスクされている乳房インプラント125〜128の結果を示している。したがって、乳房インプラント125〜128のバルクは、結合出力画像166内にある出力画像の各々において、マスク175〜178によりマスクされている。さらに、乳房インプラント125〜128の境界領域は、目に見えるままである。
図8a、図8b、及び図9は、上記のマスキングのより詳細な結果を示している。図8aは、図7aの切抜図167を示しており、図8bは、図7bの切抜図168を示している。図8aにおいて、乳房インプラント125、及び、乳房インプラント125と周囲の組織との間の勾配192が目に見える。図8bは、マスク175によりマスクされている乳房インプラント125のボディを示しており、乳房インプラント125の境界領域193が目に見える。さらに、マスク175と乳房インプラント125との間の追加の勾配194が目に見える。最後に、線分190が示されている。図9は、線分190に沿った位置の関数として、切抜図168の強度(intensity)のプロットを示している。周囲の組織191、周囲の組織191と乳房インプラントとの間の勾配192、乳房インプラントの境界領域193、乳房インプラントとマスク195との間の追加の勾配194、及びマスク195が目に見える。ここで、周囲の組織191は、低強度を有しており、勾配192では、強度が徐々に増大しており、乳房インプラントの境界領域193は、高強度を有しており、追加の勾配194では、強度が徐々に低下しており、マスク195は、中間強度から低強度を有している。
図8a、図8b、及び図9に示された結果を得るために、プロセッサ130は、オブジェクト125とオブジェクト125の周囲との間の段階的変化を構成するオブジェクト勾配192を画像内で検出して、マスク175とオブジェクト勾配192との間のオブジェクト125の境界領域193を明瞭に保つよう構成され得る。これは、図9において、オブジェクト125の境界領域193が、オブジェクト勾配192とは分離されているものとして目に見える。オブジェクト勾配192を検出することは、エッジ検出技術を用いて、エッジの幅をオブジェクト勾配192としてマークすること、すなわち、エッジが徐々に増大する領域をオブジェクト勾配192としてマークすることを含み得る。さらに、プロセッサ130は、画像内のオブジェクト勾配192を検出するよう構成され得、出力画像内でオブジェクト勾配192とマスク勾配194とを視覚的に区別するために、オブジェクト勾配192とは幅及び/又は形状が異なるマスク勾配194を生成するよう構成され得る。図9の例において、マスク勾配194は、オブジェクト勾配192よりも大きな幅を有するものとして、示されている。しかしながら、両方の勾配の形状は、図9において類似している、すなわち、線形勾配であるが、これらの勾配は、例えば、線形勾配と非線形勾配であるように、異なってもよい。
一般に、用語「画像」は、2次元(2−D)画像又は3次元(3−D)画像などの多次元画像を指す。ここで、用語「3−D画像」は、体積画像(volumetric image)、すなわち、3つの空間的ディメンジョンを有する画像を指す。画像は、画像要素(image elements)から構成される。画像が2−D画像である場合、画像要素は、いわゆるピクチャ要素、すなわち、ピクセルであってよい。画像が体積画像である場合、画像要素は、いわゆる体積ピクチャ要素(volumetric picture elements)、すなわち、ボクセルであってよい。画像要素に関する用語「値」は、その画像要素に割り当てられる表示可能な特性(displayable property)を指し、例えば、ピクセルの値は、そのピクセルの輝度及び/又はクロミナンスを表してもよいし、体積画像内のボクセルの不透明度又は半透明性を示してもよい。
本発明は、コンピュータプログラム、特に本発明を実現するのに適したキャリア上又はキャリア内のコンピュータプログラムにも適用されることを理解されたい。プログラムは、ソースコード、オブジェクトコード、例えば部分的にコンパイルされた形式のコード中間ソース及びオブジェクトコードの形態、又は、本発明に従った方法を実装する際に使用されるのに適した任意の他の形態であってよい。このようなプログラムは、多くの異なるアーキテクチャデザインを有してもよいことも理解されたい。例えば、本発明に従った方法又はシステムの機能を実装するプログラムコードは、1以上のサブルーチンに分割されてもよい。これらのサブルーチンに機能を分散させる多くの異なる方法が、当業者には明らかであろう。サブルーチンを1つの実行可能ファイルに一緒に記憶して、自己完結型プログラムを形成してもよい。このような実行可能ファイルは、例えば、プロセッサ命令及び/又はインタプリタ命令(例えば、Java(登録商標)インタプリタ命令)などのコンピュータ実行可能命令を含んでもよい。代替として、サブルーチンの1以上又は全てが、少なくとも1つの外部ライブラリファイルに記憶され、静的に又は例えばランタイムに動的にメインプログラムとリンクされてもよい。メインプログラムは、サブルーチンの少なくとも1つへの少なくとも1つのコールを含む。サブルーチンはまた、相互へのファンクションコールを含んでもよい。コンピュータプログラム製品に関連する実施形態は、本明細書で説明した方法の少なくとも1つの各処理ステップに対応するコンピュータ実行可能命令を含む。これらの命令は、サブルーチンに分割されてもよいし、且つ/又は、静的に若しくは動的にリンクされ得る1以上のファイルに記憶されてもよい。コンピュータプログラム製品に関連する別の実施形態は、本明細書で説明したシステム及び/又は製品の少なくとも1つの各手段に対応するコンピュータ実行可能命令を含む。これらの命令は、サブルーチンに分割されてもよいし、且つ/又は、静的に若しくは動的にリンクされ得る1以上のファイルに記憶されてもよい。
コンピュータプログラムのキャリアは、プログラムを有することができる任意のエンティティ又はデバイスであってよい。例えば、キャリアは、例えば、CD ROM若しくは半導体ROMなどのROM、又は、例えば、ハードディスクなどの磁気記録媒体などの記憶媒体を含み得る。さらに、キャリアは、電気ケーブル若しくは光ケーブルを介して、又は、無線若しくは他の手段によって伝達され得る電気信号又は光信号などの伝搬性キャリアであってもよい。プログラムがこのような信号で具体化される場合、キャリアは、このようなケーブル又は他のデバイス若しくは手段によって構成されてもよい。代替として、キャリアは、プログラムが組み込まれる集積回路であってもよく、集積回路は、関連方法を実行する、あるいは、その実行において使用されるのに適している。
上述の実施形態は、本発明を限定するのではなく例示するものであり、当業者は、添付の特許請求の範囲から逸脱することなく多くの代替的実施形態を設計することができることに留意すべきである。請求項中、括弧の間に配置されるいかなる参照符号も請求項を限定するものと解釈されてはならない。動詞「備える(comprise)」とその活用形の使用は、請求項に列挙した以外の要素又はステップの存在を除外しない。ある要素に先行する冠詞「a」又は「an」は、このような要素の複数の存在を除外しない。本発明は、複数の個別の要素を備えるハードウェアによって実装されてもよいし、適切にプログラムされたコンピュータによって実装されてもよい。複数の手段を列挙する装置の請求項において、これらの手段のいくつかは、ハードウェアの1つの同じアイテムによって具体化されてもよい。所定の手段が相互に異なる従属請求項に記載されるという単なる事実は、これらの手段の組合せが有利に使用され得ないことを示すものではない。

Claims (15)

  1. オブジェクトにマスクを適用する画像処理装置であって、
    画像を取得するための入力部と、
    (i)前記画像内の前記オブジェクトを検出し、(ii)出力画像を取得するために、前記画像内の前記オブジェクトに前記マスクを適用するためのプロセッサと、
    を備え、
    前記プロセッサは、(j)前記オブジェクトのオブジェクト輪郭を設定し、(jj)前記オブジェクト輪郭に基づいて、前記オブジェクトよりも小さなマスクを生成し、(jjj)前記オブジェクトの境界領域を明瞭に保ったまま前記オブジェクトのボディをマスクするために前記オブジェクトを覆うように前記マスクを配置することにより、前記オブジェクトに前記マスクを適用するよう構成されている、画像処理装置。
  2. 前記プロセッサは、前記マスクのマスク輪郭を取得するために、前記オブジェクトの内側方向に沿って前記オブジェクト輪郭のサイズを小さくすることにより、前記マスクを生成するよう構成されている、請求項1記載の画像処理装置。
  3. 前記プロセッサは、モルフォロジカルエロージョン技術を前記オブジェクト輪郭に対して適用することにより、前記オブジェクト輪郭のサイズを小さくするよう構成されている、請求項2記載の画像処理装置。
  4. 前記プロセッサは、前記オブジェクトと該オブジェクトの周囲との間の段階的変化を構成するオブジェクト勾配を前記画像内で検出して、前記マスクと前記オブジェクト勾配との間の前記オブジェクトの前記境界領域、及び前記オブジェクト勾配を明瞭に保つよう構成されている、請求項1記載の画像処理装置。
  5. 前記プロセッサは、ディスプレイ上に前記出力画像を表示する場合、2mm〜10mmの表示幅を有する前記オブジェクトの前記境界領域を設定するよう構成されている、請求項1記載の画僧処理装置。
  6. ユーザが前記出力画像を拡大縮小するためのズーム率を決定できるようにするユーザ入力部
    をさらに備え、
    前記プロセッサは、前記ズーム率に基づいてディスプレイ上に前記出力画像を表示する場合において前記オブジェクトの前記境界領域の表示幅を維持するために、前記ズーム率に基づいて前記マスクを生成するよう構成されている、請求項1記載の画像処理装置。
  7. 前記プロセッサは、前記マスクと前記オブジェクトとの間で段階的変化を設定するために、前記オブジェクトに前記マスクを適用する場合において、前記出力画像内でマスク勾配を生成するよう構成されている、請求項1記載の画像処理装置。
  8. 前記プロセッサは、前記マスクの境界領域を前記オブジェクトとブレンドすることにより、前記マスク勾配を生成するよう構成されている、請求項7記載の画像処理装置。
  9. 前記プロセッサは、(i)前記オブジェクトと該オブジェクトの周囲との間の段階的変化を構成するオブジェクト勾配を前記画像内で検出し、(ii)前記出力画像内で前記オブジェクト勾配と前記マスク勾配とを視覚的に区別するために前記オブジェクト勾配とは幅及び/又は形状が異なる前記マスク勾配を生成するよう構成されている、請求項7記載の画像処理装置。
  10. ユーザが前記マスク勾配の前記幅及び/又は前記形状を決定できるようにするユーザ入力部
    をさらに備えた、請求項7記載の画像処理装置。
  11. 前記プロセッサは、前記オブジェクトの前記ボディの輝度及び/又はコントラストを低減することにより、前記オブジェクトの前記ボディをマスクするよう構成されている、請求項1記載の画像処理装置。
  12. 請求項1記載の画像処理装置を備えたワークステーション。
  13. 請求項1記載の画像処理装置を備えたイメージング装置。
  14. オブジェクトにマスクを適用する方法であって、
    画像を取得するステップと、
    前記画像内の前記オブジェクトを検出するステップと、
    出力画像を取得するために、(j)前記オブジェクトのオブジェクト輪郭を設定し、(jj)前記オブジェクト輪郭に基づいて、前記オブジェクトよりも小さなマスクを生成し、(jjj)前記オブジェクトの境界領域を明瞭に保ったまま前記オブジェクトのボディをマスクするために前記オブジェクトを覆うように前記マスクを配置することにより、前記画像内の前記オブジェクトに前記マスクを適用するステップと、
    を含む、方法。
  15. プロセッサシステムに請求項14記載の方法を実行させるための命令を含むコンピュータプログラム。
JP2014542963A 2011-11-28 2012-11-14 画像処理装置 Active JP6060173B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161563990P 2011-11-28 2011-11-28
US61/563,990 2011-11-28
PCT/IB2012/056402 WO2013080071A1 (en) 2011-11-28 2012-11-14 Image processing apparatus.

Publications (2)

Publication Number Publication Date
JP2015504560A true JP2015504560A (ja) 2015-02-12
JP6060173B2 JP6060173B2 (ja) 2017-01-11

Family

ID=47358506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014542963A Active JP6060173B2 (ja) 2011-11-28 2012-11-14 画像処理装置

Country Status (6)

Country Link
US (1) US11263732B2 (ja)
EP (1) EP2786345B1 (ja)
JP (1) JP6060173B2 (ja)
CN (1) CN103959335B (ja)
BR (1) BR112014012599A8 (ja)
WO (1) WO2013080071A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2786345B1 (en) 2011-11-28 2020-03-11 Koninklijke Philips N.V. Image processing apparatus.
CN109068965B (zh) * 2016-06-07 2021-01-26 奥林巴斯株式会社 图像处理装置、内窥镜系统、图像处理方法以及存储介质
CN109754472B (zh) * 2018-12-29 2023-07-18 上海联影医疗科技股份有限公司 一种组织轮廓编辑方法、装置、计算机设备及存储介质
CN113496223A (zh) * 2020-03-19 2021-10-12 顺丰科技有限公司 文本区域检测模型的建立方法以及装置
US20230177686A1 (en) * 2021-12-07 2023-06-08 Real Time Tomography, Llc Automated multi-class segmentation of digital mammogram
IL299436A (en) * 2022-12-22 2024-07-01 Sheba Impact Ltd Systems and methods for analyzing images depicting residual breast tissue

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61161583A (ja) * 1985-01-09 1986-07-22 Matsushita Electric Ind Co Ltd パタ−ン認識装置
JP2002374403A (ja) * 2001-06-18 2002-12-26 Seiko Epson Corp 画像処理を行なうための装置、方法およびコンピュータプログラム
JP2006338377A (ja) * 2005-06-02 2006-12-14 Fujifilm Holdings Corp 画像補正方法および装置並びにプログラム
WO2007095482A1 (en) * 2006-02-10 2007-08-23 Nik Software, Inc. Self-adaptive brush for digital images
JP2009106335A (ja) * 2007-10-26 2009-05-21 Toshiba Corp 断層像処理方法、断層像処理装置、断層像処理プログラム、およびx線ct装置
JP2010041664A (ja) * 2008-08-08 2010-02-18 Canon Inc 画像合成方法および画像合成装置
JP2010148897A (ja) * 1998-11-16 2010-07-08 Toshiba Corp 3次元超音波診断装置

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4787393A (en) * 1985-11-20 1988-11-29 Matsushita Electric Industrial Co., Ltd. Ultrasonic tomographic with alternate image scaling
US5103254A (en) * 1990-05-29 1992-04-07 Eastman Kodak Company Camera with subject highlighting and motion detection
EP0610916A3 (en) * 1993-02-09 1994-10-12 Cedars Sinai Medical Center Method and device for generating preferred segmented numerical images.
US5768413A (en) * 1995-10-04 1998-06-16 Arch Development Corp. Method and apparatus for segmenting images using stochastically deformable contours
US5982916A (en) 1996-09-30 1999-11-09 Siemens Corporate Research, Inc. Method and apparatus for automatically locating a region of interest in a radiograph
US6137898A (en) * 1997-08-28 2000-10-24 Qualia Computing, Inc. Gabor filtering for improved microcalcification detection in digital mammograms
US6094508A (en) * 1997-12-08 2000-07-25 Intel Corporation Perceptual thresholding for gradient-based local edge detection
US6952286B2 (en) * 2000-12-07 2005-10-04 Eastman Kodak Company Doubleprint photofinishing service with the second print having subject content-based modifications
US7623728B2 (en) * 2004-03-24 2009-11-24 General Electric Company Method and product for processing digital images
KR100747093B1 (ko) * 2005-01-12 2007-08-07 주식회사 메디슨 초음파 진단 영상을 이용한 대상체의 경계를 자동으로검출하는 방법 및 초음파 진단 시스템
WO2006100810A1 (ja) * 2005-03-23 2006-09-28 Konica Minolta Medical & Graphic, Inc. 乳房画像処理システム及び乳房画像処理方法
US7715605B2 (en) * 2005-09-07 2010-05-11 Siemens Medical Solution Usa, Inc. Systems and methods for computer aided detection of spinal curvature using images and angle measurements
FR2903211B1 (fr) 2006-06-30 2009-03-06 Gen Electric Procedes et dispositifs de correction d'une mammographie a implant et de segmentation d'un implant
US7826683B2 (en) * 2006-10-13 2010-11-02 Adobe Systems Incorporated Directional feathering of image objects
EP2087466B1 (en) * 2006-11-21 2020-06-17 Koninklijke Philips N.V. Generation of depth map for an image
US8386014B2 (en) * 2007-06-21 2013-02-26 The Trustees Of Columbia University In The City Of New York Systems and methods for implementing heart geometrical measurements
JP4437333B2 (ja) * 2007-09-28 2010-03-24 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 画像処理方法および画像処理装置並びにプログラム
DE102007057013A1 (de) * 2007-11-23 2009-05-28 Image Diagnost International Gmbh Verfahren und Vorrichtung zur Verarbeitung digitaler Mammogramme
US8717355B2 (en) * 2007-12-26 2014-05-06 Koninklijke Philips N.V. Image processor for overlaying a graphics object
US8547387B2 (en) * 2008-04-30 2013-10-01 General Electric Company Systems, methods and apparatus to unambiguously outline a region of interest
US8165380B2 (en) * 2008-09-11 2012-04-24 PACSPLUS Co., Ltd. Method, apparatus and program for processing mammographic image
US8064668B2 (en) * 2008-12-17 2011-11-22 General Electric Company Method of modifying a segmented volume
US8229244B2 (en) * 2009-03-30 2012-07-24 Mitsubishi Electric Research Laboratories, Inc. Multi-image deblurring
JP5502382B2 (ja) 2009-07-02 2014-05-28 株式会社東芝 乳房x線撮影装置及び画像処理装置
US20110123074A1 (en) 2009-11-25 2011-05-26 Fujifilm Corporation Systems and methods for suppressing artificial objects in medical images
US20110123075A1 (en) * 2009-11-25 2011-05-26 Fujifilm Corporation Systems and methods for marking a medical image with a digital indicator
KR101109189B1 (ko) * 2010-01-29 2012-01-30 삼성전기주식회사 초음파 진단 장치 및 초음파 영상 처리 방법
US20110200238A1 (en) 2010-02-16 2011-08-18 Texas Instruments Incorporated Method and system for determining skinline in digital mammogram images
US20110206250A1 (en) * 2010-02-24 2011-08-25 Icad, Inc. Systems, computer-readable media, and methods for the classification of anomalies in virtual colonography medical image processing
GB2478593B (en) * 2010-03-12 2017-05-31 Inst For Medical Informatics Optimising the initialization and convergence of active contours for segmentation of cell nuclei in histological sections
US8401285B1 (en) * 2011-09-15 2013-03-19 Mckesson Financial Holdings Methods, apparatuses, and computer program products for controlling luminance of non-tissue objects within an image
US10242440B2 (en) * 2011-09-26 2019-03-26 Siemens Medical Solutions Usa, Inc. Doseless emission tomography attenuation correction
EP2786345B1 (en) 2011-11-28 2020-03-11 Koninklijke Philips N.V. Image processing apparatus.
WO2013155300A1 (en) * 2012-04-11 2013-10-17 The Trustees Of Columbia University In The City Of New York Techniques for segmentation of organs and tumors and objects
US9547908B1 (en) * 2015-09-28 2017-01-17 Google Inc. Feature mask determination for images

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61161583A (ja) * 1985-01-09 1986-07-22 Matsushita Electric Ind Co Ltd パタ−ン認識装置
JP2010148897A (ja) * 1998-11-16 2010-07-08 Toshiba Corp 3次元超音波診断装置
JP2002374403A (ja) * 2001-06-18 2002-12-26 Seiko Epson Corp 画像処理を行なうための装置、方法およびコンピュータプログラム
JP2006338377A (ja) * 2005-06-02 2006-12-14 Fujifilm Holdings Corp 画像補正方法および装置並びにプログラム
WO2007095482A1 (en) * 2006-02-10 2007-08-23 Nik Software, Inc. Self-adaptive brush for digital images
JP2009106335A (ja) * 2007-10-26 2009-05-21 Toshiba Corp 断層像処理方法、断層像処理装置、断層像処理プログラム、およびx線ct装置
JP2010041664A (ja) * 2008-08-08 2010-02-18 Canon Inc 画像合成方法および画像合成装置

Also Published As

Publication number Publication date
EP2786345B1 (en) 2020-03-11
JP6060173B2 (ja) 2017-01-11
BR112014012599A8 (pt) 2017-06-20
BR112014012599A2 (pt) 2017-06-13
EP2786345A1 (en) 2014-10-08
US20140334680A1 (en) 2014-11-13
CN103959335A (zh) 2014-07-30
CN103959335B (zh) 2018-03-09
WO2013080071A1 (en) 2013-06-06
US11263732B2 (en) 2022-03-01

Similar Documents

Publication Publication Date Title
JP6060173B2 (ja) 画像処理装置
US10885392B2 (en) Learning annotation of objects in image
CN107077211B (zh) 视线跟踪驱动的感兴趣区域分割
US9053565B2 (en) Interactive selection of a region of interest in an image
US10593099B2 (en) Transfer function determination in medical imaging
CN106485777B (zh) 用功能信息在渲染解剖结构中光照
EP2923337B1 (en) Generating a key-image from a medical image
JP6596100B2 (ja) 脳組織分類
JP6248044B2 (ja) 3d医療灌流画像の視覚化
US11227414B2 (en) Reconstructed image data visualization
US9767550B2 (en) Method and device for analysing a region of interest in an object using x-rays
US8873817B2 (en) Processing an image dataset based on clinically categorized populations
US10548570B2 (en) Medical image navigation system
WO2011058482A2 (en) Visualization of an object and an annotation
WO2020257800A1 (en) System and method for improving fidelity in images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161212

R150 Certificate of patent or registration of utility model

Ref document number: 6060173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250