JP7447191B2 - ぼけに対してロバストな画像のセグメンテーション - Google Patents

ぼけに対してロバストな画像のセグメンテーション Download PDF

Info

Publication number
JP7447191B2
JP7447191B2 JP2022118024A JP2022118024A JP7447191B2 JP 7447191 B2 JP7447191 B2 JP 7447191B2 JP 2022118024 A JP2022118024 A JP 2022118024A JP 2022118024 A JP2022118024 A JP 2022118024A JP 7447191 B2 JP7447191 B2 JP 7447191B2
Authority
JP
Japan
Prior art keywords
image
computer
generated
generating
computer program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022118024A
Other languages
English (en)
Other versions
JP2023021000A (ja
Inventor
アビシェーク・ヴァハダン
デヴラージ・マンダール
シャーンタヌ・マジュンダル
マダン・ダビール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Group Inc filed Critical Rakuten Group Inc
Publication of JP2023021000A publication Critical patent/JP2023021000A/ja
Application granted granted Critical
Publication of JP7447191B2 publication Critical patent/JP7447191B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本開示内容は概して、データ処理の分野に関し、より具体的には機械学習に関する。
免疫蛍光法(IF:immunofluorescence)による顕微鏡画像の自動化された核のセグメンテーションは、癌の診断及び治療において非常に重要な最初のステップである。同ステップの性能を高める新規なアルゴリズムの開発のために多くの研究が行われている。しかし、画質の低い顕微鏡画像における核のセグメンテーションの問題に取り組んでいる文献はわずかである。焦点ずれ(defocus)及びモーションブラー(motion blur)は、画質を大きく劣化させる可能性がある最も一般的な2つの顕微鏡イメージングのアーティファクトである。これらにより誤診及び誤治療のリスクが高まる。顕微鏡画像におけるぼけは、生検のスライド及び取得の染色プロセスに起因して避けることができない。したがって、品質管理(QC:Quality Control)モジュールにより、ピンぼけ画像(焦点が合っていない画像)を更に下流の分析から除くことができる。画像のQCを定量化するメトリックを、その有用性を判断する閾値として用いることができる。例えば、細胞カウントの精度を下げて焦点ぼけ(focus blur)が増加する場合がある。
実施形態は、画像処理の方法、システム、及びコンピュータ可読型媒体に関する。1つの態様によれば、画像処理の方法が提供される。本方法は、ピンぼけ画像に対応するデータを受信するステップを含むことができる。受信された前記データのセグメンテーションに基づいて第1の画像が生成される。受信された、前記ピンぼけ画像に対応する前記データのシャープニングに基づいて第2の画像が生成される。生成された第1の画像及び第2の画像の後処理に基づいて、前記ピンぼけ画像における1つ以上の細胞に対応する第3の画像が生成される。
別の態様によれば、画像処理用のコンピュータシステムが提供される。このコンピュータシステムは、1つ以上のプロセッサと、1つ以上のコンピュータ可読型メモリと、1つ以上のコンピュータ可読型有形記憶デバイスと、前記1つ以上のメモリのうちの少なくとも1つを通じて前記1つ以上のプロセッサのうちの少なくとも1つによって実行され、それにより、前記コンピュータシステムが本方法を実行することが可能な、前記1つ以上の記憶デバイスのうちの少なくとも1つに記憶されたプログラム命令とを含むことができる。本方法は、ピンぼけ画像に対応するデータを受信するステップを含むことができる。受信されたデータのセグメンテーションに基づいて第1の画像が生成される。受信された、前記ピンぼけ画像に対応する前記データのシャープニングに基づいて第2の画像が生成される。生成された第1の画像及び第2の画像の後処理に基づいて、前記ピンぼけ画像における1つ以上のオブジェクト(例えば細胞)に対応する第3の画像が生成される。
更に別の態様によれば、画像処理用のコンピュータ可読型媒体が提供される。このコンピュータ可読型媒体は、1つ以上のコンピュータ可読型記憶デバイスと、前記1つ以上の有形記憶デバイスのうちの少なくとも1つに記憶されたプログラム命令とを含むことができ、前記プログラム命令はプロセッサにより実行することができる。前記プログラム命令は、本方法を行うためのプロセッサによって実行可能である。それに応じて、本方法は、ピンぼけ画像に対応するデータを受信するステップを含むことができる。受信されたデータのセグメンテーションに基づいて、第1の画像が生成される。受信された、前記ピンぼけ画像に対応する前記データのシャープニングに基づいて第2の画像が生成される。生成された第1の画像及び第2の画像の後処理に基づいて、前記ピンぼけ画像における1つ以上のオブジェクト(例えば細胞)に対応する第3の画像が生成される。
これらの目的、特徴及び利点並びに他の目的、特徴及び利点は、添付図面とともに読まれるべき例示の実施形態の以下の詳細な説明から明らかになる。これらの説明図は詳細な説明とともに当業者にとってわかりやすくするためのものであり、図面の様々な特徴部は正確な縮尺とは限らない。
少なくとも1つの実施形態によるネットワークコンピュータ環境を示す図である。 少なくとも1つの実施形態による、画像処理及び核セグメンテーションのディープラーニングシステムのブロック図である。 少なくとも1つの実施形態による、核セグメンテーション等の画像データをセグメンテーションするプログラムによって実行されるステップを示すオペレーショナルフローチャートである。 少なくとも1つの実施形態による図1に示すコンピュータ及びサーバの内部要素及び外部要素のブロック図である。
請求項に記載の構成及び方法の詳細な実施形態が本明細書に開示されるが、開示される実施形態は、様々な形態で具現化することができる請求項に記載の構成及び方法の単なる例示にすぎない。これらの構成及び方法は、多くの異なる形態で具現化することができ、本明細書において説明する例示的な実施形態に限定されるものと解釈されるべきでない。むしろ、これらの例示的な実施形態は、本開示が十分且つ完全なものとなり、その範囲が当業者に十分伝わるように提供されるものである。本明細書において、既知の特徴及び技法の詳細は、提示される実施形態を不必要に分かりにくくすることを避けるために省略する場合がある。
実施形態は概して、データ処理の分野に関し、より具体的には機械学習に関する。以下に説明する例示的な実施形態は、とりわけ、画像データのセグメンテーションのためのシステム、方法及びコンピュータプログラムを提供する。したがって、いくつかの実施形態は、ぼけ除去(deblur)の予測を用いて、デジタル画像内で接触するオブジェクト(touching objects)(細胞等)を選択的に突き止めてセグメンテーションをすることを可能にすることによりコンピューティングの分野を改良する能力を有する。
前述のとおり、免疫蛍光法(IF)による顕微鏡画像の自動化された核のセグメンテーションは、癌の診断及び治療において非常に重要な最初のステップである。自動化された核のセグメンテーションの性能を高める新規なアルゴリズムの開発のために多くの研究が行われている。顕微鏡画像におけるぼけは、生検のスライド及び取得の染色プロセスに起因して避けることができない。したがって、品質管理(QC)モジュールにより、ピンぼけ画像を更に下流の分析から除くことができる。画像のQCを定量化するメトリックを、その有用性を判断する閾値として使用することができる。例えば、細胞カウントの精度を下げて焦点ぼかしが増加する場合がある。
しかし、ぼやけた顕微鏡画像上の核の手作業によるアノテーションは、同じ画像が、より鮮明な対応画像及びピンぼけした対応画像を有する複数の焦点レベルで表示されるような、より鮮明な画像上での同じ作業に比べて大変な作業である。密に詰まった核は、切り分けるのが非常に困難な場合がある。ただし、上記作業は、ぼやけた画像に対処するセグメンテーションネットワークとともに前処理ステップとして潜在的に用いることができる。この手作業によるタスクのデフォーカス及びセグメンテーションの目的をハンドリングするために、より多くの計算リソース及び2つの個別のモジュールが必要である。加えて、教師ありディープラーニングに基づいたセグメンテーションアルゴリズムのトレーニングは、正確にアノテーションがなされたグラウンドトゥルース(正解データ)を伴う画像を必要とし、手動のアノテーションは相当の時間及びコストを要する場合がある。
したがって、未加工の画像、ぼやけた画像及び鮮明な画像にアノテーションを行うことが有利な可能性がある。これは、2つのタスク(すなわち、ぼけ除去と、セマンティックセグメンテーション)に同じネットワークを使用し、ぼけ除去の損失値とセグメンテーションの損失値とを組み合わせて、バックプロパゲーションを使用してネットワークの重みを調整することにより行うことができる。接触した細胞(touching cells)のマーカ情報をぼけ除去予測により取得し、核セグメンテーションの性能を更に向上させることができる。ぼやけた画像から良好な特徴を学習する容易な核セグメンテーションタスクを伴うぼけ除去タスクを用いて、予測されたセグメンテーションにおいて接触した細胞を切り分けることができる。
本明細書にて、様々な実施形態による方法、装置(システム)、及びコンピュータ可読媒体のフローチャート説明図及び/又はブロック図を参照して態様を説明する。これらのフローチャート説明図及び/又はブロック図の各ブロック、並びにフローチャート説明図及び/又はブロック図におけるブロックの組み合わせは、コンピュータ可読プログラム命令によって実施することができる。
以下に説明する例示的な実施形態は、画像内の特徴を識別するために画像データのセグメンテーションを行うシステム、方法及びコンピュータプログラムを提供する。本明細書における例示的な実施形態は、画像内の細胞を識別するために顕微鏡画像データのセグメンテーションを行うことに関して説明するが、本開示は、これに限定されるものではなく、画像内のオブジェクト(例えば、所定のオブジェクト)を識別するために任意のタイプの画像データのセグメンテーションを行うことに適用可能であることが理解される。
図1は、画像データにおいて核のセグメンテーションを行う画像セグメンテーションシステム100(以下「システム」と呼ぶ)を示すネットワーク型コンピュータ環境の機能ブロック図である。図1は、1つの実施態様の例示を提供しているにすぎず、別の実施形態を実施することができる環境に関して何らの限定も暗示するものではないことが理解されるべきである。図示した環境に対して、設計及び実施の要件に基づいて多くの変更を行うことができる。
システム100は、コンピュータ102とサーバコンピュータ114とを有することができる。コンピュータ102は、通信ネットワーク110(以下「ネットワーク」と呼ぶ)を通じてサーバコンピュータ114と通信することができる。コンピュータ102は、プロセッサ104と、データ記憶デバイス106に記憶されて、ユーザとのインタフェース及びサーバコンピュータ114との通信に利用可能なソフトウェアプログラム108とを有するものとすることができる。図4を参照して以下に述べるように、コンピュータ102は内部要素800A及び外部要素900Aをそれぞれ有するものとすることができ、サーバコンピュータ114は内部要素800B及び外部要素900Bをそれぞれ有するものとすることができる。コンピュータ102は、例えば、モバイルデバイス、電話、パーソナルデジタルアシスタント、ネットブック、ラップトップコンピュータ、タブレットコンピュータ、デスクトップコンピュータ、又はプログラムの実行、ネットワークへのアクセス、及びデータベースへのアクセスが可能な任意のタイプのコンピューティングデバイスとすることができる。
核及び細胞の識別及びセグメンテーションを行うために利用できるサーバコンピュータ114は、データベース112と通信することのできる核セグメンテーションプログラム116(以下「プログラム」)を実行するために利用可能である。核セグメンテーションプログラムの方法は、以下において図3を参照して詳細に説明する。1つの実施形態において、コンピュータ102はユーザインタフェースを有する入力デバイスとして動作することができる一方で、プログラム116は主としてサーバコンピュータ114上で動作することができる。別の実施形態においては、プログラム116は主として1つ以上のコンピュータ102上で動作することができる一方、サーバコンピュータ114はプログラム116によって使用されるデータの処理及び記憶に使用することができる。プログラム116はスタンドアローンのプログラムとすることもできるし、より大きな核セグメンテーションプログラムに組み込むこともできることに留意されたい。
その一方で、プログラム116の処理は、場合によっては、コンピュータ102とサーバコンピュータ114との間で任意の比率で共有することができることに留意されたい。別の実施形態において、プログラム116は、2つ以上のコンピュータ、サーバコンピュータ、又はコンピュータ及びサーバコンピュータの或る組み合わせ上で動作することができ、例えば、ネットワーク110にわたって単一のサーバコンピュータ114と通信する複数のコンピュータ102上で動作することができる。別の実施形態において、例えば、プログラム116は、ネットワーク110にわたって複数のクライアントコンピュータと通信する複数のサーバコンピュータ114上で動作することができる。或いは、プログラムは、ネットワークにわたってサーバ及び複数のクライアントコンピュータと通信するネットワークサーバ上で動作することができる。
ネットワーク110は、有線接続、無線接続、光ファイバ接続、又はそれらの或る組み合わせを含むことができる。一般に、ネットワーク110は、コンピュータ102とサーバコンピュータ114との間の通信をサポートする接続及びプロトコルの任意の組み合わせとすることができる。ネットワーク110は、例えば、ローカルエリアネットワーク(LAN:local area network)、インターネット等のワイドエリアネットワーク(WAN:wide area network)、公衆交換電話ネットワーク(PSTN:Public Switched Telephone Network)等の電気通信ネットワーク、無線ネットワーク、公衆交換ネットワーク、衛星ネットワーク、セルラネットワーク(例えば、第5世代(5G)ネットワーク、ロングタームエボリューション(LTE:long-term evolution)ネットワーク、第3世代(3G)ネットワーク、符号分割多元接続(CDMA:code division multiple access)ネットワーク等)、公衆陸上モバイルネットワーク(PLMN:public land mobile network)、メトロポリタンエリアネットワーク(MAN:metropolitan area network)、プライベートネットワーク、アドホックネットワーク、イントラネット、光ファイバベースのネットワーク等、及び/又はこれらのタイプ若しくは他のタイプのネットワークの組み合わせ等の様々なタイプのネットワークを含むことができる。
図1のデバイス及びネットワークの数及び配置は、一例として示したものである。実際には、図1に示したものに対して、追加のデバイス及び/又はネットワーク、より少ないデバイス及び/又はネットワーク、異なるデバイス及び/又はネットワーク、又は異なる配置のデバイス及び/又はネットワークが存在してもよい。さらに、図1に示した2つ以上のデバイスを単一のデバイス内に実装することもできるし、図1に示した単一のデバイスを複数の分散デバイスとして実装することもできる。これに加えて又は代替的に、システム100のデバイス(例えば、1つ以上のデバイス)の組が、システム100のデバイスの別の組によって実行されるものとして説明されるような1つ以上の機能を実行することができる。
次に図2を参照すると、ディープラーニングシステム200のブロック図が示されている。ディープラーニングシステム200は特に、エンコーダ・デコーダ202及び後処理モジュール204を有するものとすることができる。エンコーダ・デコーダ202は、エンコーダ206及びデコーダ208を有するものとすることができる。エンコーダ・デコーダ202は、入力データ210を受信することができる。入力データ210は、例えば、ぼやけた画像である場合もあるし、鮮明画像である場合もある。エンコーダ206はネットワーク全体に共通である。デコーダ208は、2つの出力、すなわちセグメンテーション出力212と雑音除去出力214とを予測する。デコーダ208は、双方の出力に共通した幾つかの畳込み層を最初に有することができる。デコーダ208の最後の畳込み層は予測出力ごとに別個のものである。第1の予測出力212は、画像データ210の核、境界、及び背景に基づく3チャネルセグメンテーション画像212(Inuc)とすることができる。第2の予測出力214は、ぼけ除去(すなわち、シャープニング(鮮明化)された)出力画像214(Ideblur)とすることができる。第2の予測出力214は専門家の解析用として出力することができる。
エンコーダ・デコーダをトレーニングするために、核セグメンテーションの損失とぼけ除去の損失との和である総損失値Ltotalを用いることができる。この総損失値は、以下のように与えることができる。
total = Lnuc + Ldeblur
ただし、Lnucは核セグメンテーションの損失値とすることができ、Ldeblurはぼけ除去の損失値とすることができる。核セグメンテーション損失値は以下のように与えることができる。
nuc = Lce(Inuc, Igt
ぼけ除去損失値は以下のように与えることができる。
deblur = Lmse(Ideblur, Isharp
総損失値は、バックプロパゲーション(誤差逆伝播法)により、Adamオプティマイザを用いて最適化することができる。
ぼけ除去の損失値及び核セグメンテーションの損失値は、別々に計算することができ、ぼけ除去タスクの追加は、ネットワークを調整し核セグメンテーションの性能を向上させることができる。Inucからの核チャネルを後処理モジュール204により後処理し、核から境界を取り去ることによって接触する細胞を除去することができる。しかし、オーバラップした全ての細胞を切り分けることが可能でない場合がある。したがって、予測された核セグメンテーションInucにおいて切り分けられていない、接触した細胞を選択的に突き止めるために、ぼけ除去出力Ideblurに基づく後処理を使用することができる。選択された候補を処理して、オーバラップした細胞を切り分け、出力データ216を生成することができる。使用される処理に、マーカコントロール付き流域セグメンテーション(marker-controlled watershed segmentation)を含めることができる。マーカは、Ideblurの距離変換の極大値を計算することによって得られる。候補の周辺の領域又はパッチのみを処理することによって処理時間を節約できることが分かる。
次に図3を参照すると、核セグメンテーション等の画像データのセグメンテーションをするプログラムによって実行される方法300のステップを示すオペレーショナルフローチャートが示されている。
方法300は、ステップ302において、ピンぼけ画像に対応するデータを受信することを含むことができる。
方法300は、ステップ304において、受信データのセグメンテーションに基づいて第1の画像を生成することを含むことができる。
方法300は、ステップ306において、ピンぼけ画像に対応する受信データのシャープニングに基づいて第2の画像を生成することを含むことができる。
方法300は、ステップ308において、生成された第1の画像及び第2の画像の後処理に基づいて、ピンぼけ画像内の1つ以上の細胞に対応する第3の画像を生成することを含むことができる。
図3は、1つの実施態様の例示を提供しているにすぎず、種々の実施形態をどのように実施することができるかに関して何らの限定も暗示するものでないことを理解することができる。設計及び実施の要件に基づいて、図示した環境に対して多くの変更を行うことができる。
図4は、一例示の実施形態による図1に示したコンピュータの内部要素及び外部要素のブロック図400である。図4は、1つの実施態様の例示を提供しているにすぎず、種々の実施形態を実施することができる環境に関して何らの限定も暗示するものでないことが理解されるべきである。設計及び実施の要件に基づいて、図示した環境に対して多くの変更を行うことができる。
コンピュータ102(図1)及びサーバコンピュータ114(図1)は、図5に示す内部要素800A、800B及び外部要素900A、900Bのそれぞれのセットを含むことができる。内部要素800のセットのそれぞれは、1つ以上のバス826上の1つ以上のプロセッサ820、1つ以上のコンピュータ可読RAM822及び1つ以上のコンピュータ可読ROM824と、1つ以上のオペレーティングシステム828と、1つ以上のコンピュータ可読有形記憶デバイス830とを含む。
プロセッサ820は、ハードウェア、ファームウェア、又はハードウェア及びソフトウェアの組み合わせで実施される。プロセッサ820は、中央処理ユニット(CPU:central processing unit)、グラフィックス処理ユニット(GPU:graphics processing unit)、加速処理ユニット(APU:accelerated processing unit)、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP:digital signal processor)、フィールドプログラマブルゲートアレイ(FPGA:field-programmable gate array)、特定用途向け集積回路(ASIC:application-specific integrated circuit)、又は別のタイプの処理要素である。いくつかの実施態様では、プロセッサ820は、機能を実行するようにプログラミングすることが可能な1つ以上のプロセッサを含む。バス826は、内部要素800A、800Bの間の通信を可能にする要素を含む。
1つ以上のオペレーティングシステム828、ソフトウェアプログラム108(図1)及びサーバコンピュータ114(図1)上の核セグメンテーションプログラム116(図1)は、それぞれのコンピュータ可読有形記憶デバイス830のうちの1つ以上に記憶され、それぞれのRAM822(通常はキャッシュメモリを含む)のうちの1つ以上を介してそれぞれのプロセッサ820のうちの1つ以上によって実行される。図4に示す実施形態において、コンピュータ可読有形記憶デバイス830のそれぞれは、内部ハードドライブの磁気ディスク記憶デバイスである。或いは、コンピュータ可読有形記憶デバイス830のそれぞれは、ROM824、EPROM、フラッシュメモリ等の半導体記憶デバイス、光ディスク、光磁気ディスク、固体ディスク、コンパクトディスク(CD:compact disc)、デジタル多用途ディスク(DVD:digital versatile disc)、フロッピディスク、カートリッジ、磁気テープ、及び/又はコンピュータプログラム及びデジタル情報を記憶することができる別のタイプの非一時的コンピュータ可読有形記憶デバイスである。
内部構成要素800A、800Bの各セットは、CD-ROM、DVD、メモリスティック、磁気テープ、磁気ディスク、光ディスク又は半導体記憶デバイス等の1つ以上のポータブルコンピュータ可読有形記憶デバイス936に対して読み出し及び書き込みを行うR/Wドライブ又はR/Wインタフェース832も含む。ソフトウェアプログラム108(図1)及び核セグメンテーションプログラム116(図1)等のソフトウェアプログラムは、それぞれのポータブルコンピュータ可読有形記憶デバイス936のうちの1つ以上に記憶することができ、それぞれのR/Wドライブ又はR/Wインタフェース832を介して読み出すことができ、それぞれのハードドライブ830内にロードすることができる。
内部構成要素800A、800Bの各セットは、TCP/IPアダプタカード;無線Wi-Fiインタフェースカード;若しくは3G、4G、若しくは5G無線インタフェースカード又は他の有線通信リンク若しくは無線通信リンク等のネットワークアダプタ又はネットワークインタフェース836も含む。ソフトウェアプログラム108(図1)及びサーバコンピュータ114(図1)上の核セグメンテーションプログラム116(図1)は、外部コンピュータからネットワーク(例えば、インターネット、ローカルエリアネットワーク等、ワイドエリアネットワーク)及びそれぞれのネットワークアダプタ又はネットワークインタフェース836を介してコンピュータ102(図1)及びサーバコンピュータ114にダウンロードすることができる。ネットワークアダプタ又はネットワークインタフェース836から、ソフトウェアプログラム108及びサーバコンピュータ114上の核セグメンテーションプログラム116は、それぞれのハードドライブ830内にロードされる。ネットワークは、銅線、光ファイバ、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイコンピュータ及び/又はエッジサーバを含むことができる。
外部構成要素900A、900Bのセットのそれぞれは、コンピュータディスプレイモニタ920、キーボード930、及びコンピュータマウス934を含むことができる。外部構成要素900A、900Bは、タッチスクリーン、仮想キーボード、タッチパッド、ポインティングデバイス、及び他のヒューマンインタフェースデバイスも含むことができる。内部構成要素800A、800Bのセットのそれぞれは、コンピュータディスプレイモニタ920、キーボード930及びコンピュータマウス934にインタフェースするデバイスドライバ840も含む。デバイスドライバ840、R/Wドライブ又はR/Wインタフェース832及びネットワークアダプタ又はネットワークインタフェース836は、ハードウェア及びソフトウェア(記憶デバイス830及び/又はROM824に記憶される)を備える。
いくつかの実施形態は、任意の可能な技術的詳細統合レベルにおけるシステム、方法、及び/又はコンピュータ可読媒体に関するものとすることができる。コンピュータ可読媒体は、プロセッサに動作を実行させるコンピュータ可読プログラム命令を有するコンピュータ可読非一時的記憶媒体(又は複数の媒体)を含むことができる。
コンピュータ可読記憶媒体は、命令実行デバイスによって使用される命令を保持及び記憶することができる有形デバイスとすることができる。コンピュータ可読記憶媒体は、例えば、電子記憶デバイス、磁気記憶デバイス、光記憶デバイス、電磁記憶デバイス、半導体記憶デバイス、又はこれらの任意の適した組み合わせとすることができるが、これらに限定されるものではない。コンピュータ可読記憶媒体のより具体的な例の非網羅的なリストは、次のもの、すなわち、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、スタティックランダムアクセスメモリ(SRAM)、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピディスク、パンチカード又は命令が記録された溝内の突起構造等の機械的に符号化されたデバイス、及びそれらの任意の適した組み合わせを含む。本明細書において使用される場合、コンピュータ可読記憶媒体は、電波若しくは他の自由に伝播する電磁波、導波路若しくは他の伝送媒体内を伝播する電磁波(例えば、光ファイバケーブルを通る光パルス)、又はワイヤ内を伝送される電気信号等の一時的な信号自体と解釈されるべきではない。
本明細書に記載のコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体からそれぞれのコンピューティング/処理デバイスに、又は、ネットワーク、例えば、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク及び/又は無線ネットワークを介して外部コンピュータ若しくは外部記憶デバイスにダウンロードすることができる。ネットワークは、銅伝送ケーブル、光伝送ファイバ、無線伝送体、ルータ、ファイアウォール、スイッチ、ゲートウェイコンピュータ及び/又はエッジサーバを含むことができる。各コンピューティング/処理デバイスにおけるネットワークアダプターカード又はネットワークインタフェースが、ネットワークからコンピュータ可読プログラム命令を受信し、それぞれのコンピューティング/処理デバイス内のコンピュータ可読記憶媒体に記憶するためにこれらのコンピュータ可読プログラム命令を転送する。
動作を実行するコンピュータ可読プログラムコード/命令は、アセンブラ命令、命令セットアーキテクチャ(ISA:instruction-set-architecture)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、集積回路の構成データ、又は1つ以上のプログラミング言語の任意の組み合わせで記述されたソースコード若しくはオブジェクトコードのいずれかとすることができる。プログラミング言語は、Smalltalk、C++等のオブジェクト指向型プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語等の手続型プログラミング言語を含む。コンピュータ可読プログラム命令は、スタンドアローンソフトウェアパッケージとしてユーザのコンピュータ上で全体を又はユーザのコンピュータ上で一部を実行することもできるし、ユーザのコンピュータ上で一部を実行するとともにリモートコンピュータ上で一部を実行することもできるし、リモートコンピュータ又はサーバ上で全体を実行することもできる。後者のシナリオでは、リモートコンピュータは、ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN)を含む任意のタイプのネットワークを通じてユーザのコンピュータに接続することもできるし、この接続は、(例えば、インターネットサービスプロバイダを使用してインターネットを通じて)外部コンピュータに対して行うこともできる。いくつかの実施形態において、例えば、プログラマブルロジック回路部、フィールドプログラマブルゲートアレイ(FPGA)、又はプログラマブルロジックアレイ(PLA)を含む電子回路部が、態様又は動作を実行するために、コンピュータ可読プログラム命令の状態情報を利用して電子回路部をパーソナライズすることによってコンピュータ可読プログラム命令を実行することができる。
これらのコンピュータ可読プログラム命令は、汎用コンピュータ、専用コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサに提供されて、コンピュータ又は他のプログラマブルデータ処理装置のプロセッサによって実行される命令が、フローチャート及び/又はブロック図の単数又は複数のブロックで指定される機能/行為を実装する手段を作成するようなマシンを生成することができる。これらのコンピュータ可読プログラム命令は、コンピュータ、プログラマブルデータ処理装置、及び/又は他のデバイスに特定の方法で機能するように指示することができるコンピュータ可読記憶媒体に記憶することもでき、命令が記憶されたコンピュータ可読記憶媒体は、フローチャート及び/又はブロック図の単数又は複数のブロックにおいて指定された機能/動作の態様を実施する命令を含む製造品を含むものである。
コンピュータ可読プログラム命令は、コンピュータ、他のプログラマブルデータ処理装置、又は他のデバイス上にロードすることもでき、一連の動作ステップを、それらのコンピュータ、他のプログラマブル装置、又は他のデバイス上で実行させ、それらのコンピュータ、他のプログラマブル装置、又は他のデバイス上で実行される命令が、フローチャート及び/又はブロック図の単数又は複数のブロックにおいて指定された機能/動作を実施するように、コンピュータによって実施されるプロセスを生成することができる。
図におけるフローチャート及びブロック図は、様々な実施形態によるシステム、方法、及びコンピュータ可読媒体の可能な実施態様のアーキテクチャ、機能、及び動作を示している。この点に関して、フローチャート又はブロック図における各ブロックは、指定された論理機能(複数の場合もある)を実施する1つ以上の実行可能命令を含む命令のモジュール、セグメント、又は部分を表すことができる。これらの方法、コンピュータシステム、及びコンピュータ可読媒体は、図に示すものに対して追加のブロック、より少ないブロック、異なるブロック、又は異なる配置のブロックを含むことができる。いくつかの代替の実施態様では、ブロックに示す機能は、図に示す順序通りに実行されない場合がある。例えば、連続した示された2つのブロックは、関与する機能に応じて、実際には、同時に又はほぼ同時に実行される場合もあるし、これらのブロックは、時に、逆の順序で実行される場合もある。ブロック図及び/又はフローチャート説明図の各ブロック、並びに、ブロック図及び/又はフローチャート説明図におけるブロックの組み合わせは、指定された機能若しくは動作を実行するか又は専用ハードウェア及びコンピュータ命令の組み合わせを実行する専用ハードウェアベースのシステムによって実施することができることにも留意されたい。
本明細書において説明したシステム及び/又は方法は、異なる形態のハードウェア、ファームウェア、又はハードウェア及びソフトウェアの組み合わせで実施することができることが明らかである。これらのシステム及び/又は方法を実施するために使用される実際の特殊化された制御ハードウェア又はソフトウェアコードは、実施態様を限定するものではない。したがって、システム及び/又は方法の動作及び挙動は、具体的なソフトウェアコードを参照することなく本明細書に説明されている。すなわち、ソフトウェア及びハードウェアは、本明細書の説明に基づいてシステム及び/又は方法を実施するように設計することができることが理解される。
本明細書において使用されるいずれの要素、動作、又は命令も、明示的な記載がない限り、不可欠なもの又は必須のものと解釈されるべきでない。また、本明細書において使用される場合、冠詞「一つ(“a” and “an”)」は、1つ以上の事項を含むことが意図され、「1つ以上の~」と区別なく使用される場合がある。さらに、本明細書において使用される場合、用語「セット(set)」は、1つ以上の事項(例えば、関連した事項、関連のない事項、関連した事項と関連のない事項との組み合わせ等)を含むことが意図され、「1つ以上の~」と区別なく使用される場合がある。1つの事項しか意図されていない場合には、用語「1つ」又は同様の文言が使用される。また、本明細書において使用される場合、用語「~を有する」は、オープンエンドの用語であることが意図されている。さらに、文言「~に基づいて/基づく」は、別段の明示の記載がない限り、「~に少なくとも部分的に基づいて/基づく」を意味することが意図されている。
様々な態様及び実施形態の説明は、例示を目的として提示されており、網羅的であることも、開示される実施形態を限定することも意図していない。特徴の組み合わせが、請求項に列挙され及び/又は本明細書に開示されているが、これらの組み合わせは、可能な実施態様の開示を限定することを意図したものではない。実際、これらの特徴の多くは、請求項に具体的に列挙されていない及び/又は本明細書に具体的に開示されていない方法で組み合わせることができる。下に列挙する各従属請求項は、1つの請求項にしか直接従属しない場合があるが、可能な実施態様の開示は、各従属請求項が請求項の集合における他のあらゆる請求項と組み合わさったものを含む。説明された実施形態の範囲から逸脱することなく、多くの変更形態及び変形形態が当業者に明らかである。本明細書において使用される術語は、実施形態の原理、実際の応用若しくは市場に見られる技術を越える技術的改良を最も良く説明するために、又は、他の当業者が本明細書に開示された実施形態を理解することを可能にするために選ばれたものである。

Claims (20)

  1. ピンぼけ画像に対応するデータを受信するステップと、
    受信された前記データのセグメンテーションに基づいて第1の画像を生成するステップと、
    受信された、前記ピンぼけ画像に対応するデータのシャープニングに基づいて第2の画像を生成するステップと、
    生成された前記第1の画像及び前記第2の画像の後処理に基づいて、前記ピンぼけ画像における1つ以上の所定のオブジェクトに対応する第3の画像を生成するステップと
    を含む、プロセッサが実行可能な画像処理の方法。
  2. 前記第1の画像及び前記第2の画像は、畳込みニュ-ラルネットワークの1つ以上の出力に基づいて前記ピンぼけ画像から生成される、請求項1に記載の方法。
  3. 生成された前記第3の画像における前記1つ以上の所定のオブジェクトの中から或るオブジェクト及び近傍のオブジェクトを分けるステップを更に含む請求項1に記載の方法。
  4. 前記第2の画像は、前記ピンぼけ画像に関連した核、境界及び背景の識別に基づいて生成される、請求項1に記載の方法。
  5. 識別された前記核、前記境界及び前記背景に基づいてインスタンスマップを生成するステップを更に含む請求項4に記載の方法。
  6. 前記第3の画像は、前記ピンぼけ画像に関連した雑音の最小化に基づいて生成される、請求項1に記載の方法。
  7. 前記雑音は、核の損失値とぼけ除去の損失値とに基づいた損失値の最小化によって最小化される、請求項に記載の方法。
  8. 最小化された前記雑音に基づいて個々の核のマーカを生成するステップを更に含む請求項に記載の方法。
  9. コンピュータプログラムコードを記憶する1つ以上のコンピュータ可読型非一時的記憶媒体と、
    前記コンピュータプログラムコードにアクセスし、前記コンピュータプログラムコードによる指示に従って動作する1つ以上のコンピュータプロセッサと
    を備え、
    前記コンピュータプログラムコードは、
    前記1つ以上のコンピュータプロセッサに対し、ピンぼけ画像に対応するデータの受信を行わせる受信コードと、
    前記1つ以上のコンピュータプロセッサに対し、受信された前記データのセグメンテーションに基づいて第1の画像を生成させる第1の生成コードと、
    前記1つ以上のコンピュータプロセッサに対し、受信された、前記ピンぼけ画像に対応する前記データのシャープニングに基づいて第2の画像を生成させる第2の生成コードと、
    前記1つ以上のコンピュータプロセッサに対し、生成された前記第1の画像及び前記第2の画像の後処理に基づいて、前記ピンぼけ画像における1つ以上の所定のオブジェクトに対応する第3の画像を生成させる第3の生成コードと
    を含む、画像処理用のコンピュータシステム。
  10. 前記第1の画像及び前記第2の画像は、畳込みニュ-ラルネットワークの1つ以上の出力に基づいて前記ピンぼけ画像から生成される、請求項9に記載のコンピュータシステム。
  11. 前記1つ以上のコンピュータプロセッサに対し、生成された前記第3の画像における前記1つ以上の所定のオブジェクトの中から或るオブジェクト及び近傍のオブジェクトを分ける処理を行わせる分解コードを更に有する請求項9に記載のコンピュータシステム。
  12. 前記第2の画像は、前記ピンぼけ画像に関連した核、境界及び背景の識別に基づいて生成される、請求項9に記載のコンピュータシステム。
  13. 前記1つ以上のコンピュータプロセッサに対し、識別された前記核、前記境界及び前記背景に基づいてインスタンスマップを生成させる生成コードを更に有する請求項12に記載のコンピュータシステム。
  14. 前記第3の画像は、前記ピンぼけ画像に関連した雑音の最小化に基づいて生成される、請求項9に記載のコンピュータシステム。
  15. 前記雑音は、核の損失値とぼけ除去の損失値とに基づく損失値の最小化によって最小化される、請求項14に記載のコンピュータシステム。
  16. 最小化された前記雑音に基づいて個々の核のマーカを生成するステップを更に有する請求項14に記載のコンピュータシステム。
  17. 画像処理用のコンピュータプログラムであって、
    前記コンピュータプログラムは、1つ以上のコンピュータプロセッサに対し、
    ピンぼけ画像に対応するデータを受信するステップと、
    受信された前記データのセグメンテーションに基づいて第1の画像を生成するステップと、
    受信された、前記ピンぼけ画像に対応する前記データのシャープニングに基づいて第2の画像を生成するステップと、
    生成された前記第1の画像及び前記第2の画像の後処理に基づいて、前記ピンぼけ画像における1つ以上の所定のオブジェクトに対応する第3の画像を生成するステップと
    を行わせる、コンピュータプログラム
  18. 前記第1の画像及び前記第2の画像は、畳込みニュ-ラルネットワークの1つ以上の出力に基づいて前記ピンぼけ画像から生成される、請求項17に記載のコンピュータプログラム
  19. 前記コンピュータプログラムは、1つ以上のコンピュータプロセッサに対して更に、生成された前記第3の画像における前記1つ以上の所定のオブジェクトの中から或るオブジェクト及び近傍のオブジェクトを分ける処理を行わせる、請求項17に記載のコンピュータプログラム
  20. 前記コンピュータプログラムは、1つ以上のコンピュータプロセッサに対して更に、
    前記ピンぼけ画像に関連した核、境界及び背景を識別するステップと、
    識別された前記核、前記境界及び前記背景に基づいてインスタンスマップを生成するステップと
    を行わせる、請求項17に記載のコンピュータプログラム
JP2022118024A 2021-07-29 2022-07-25 ぼけに対してロバストな画像のセグメンテーション Active JP7447191B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/388,576 2021-07-29
US17/388,576 US20230034727A1 (en) 2021-07-29 2021-07-29 Blur-robust image segmentation

Publications (2)

Publication Number Publication Date
JP2023021000A JP2023021000A (ja) 2023-02-09
JP7447191B2 true JP7447191B2 (ja) 2024-03-11

Family

ID=82656784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022118024A Active JP7447191B2 (ja) 2021-07-29 2022-07-25 ぼけに対してロバストな画像のセグメンテーション

Country Status (3)

Country Link
US (1) US20230034727A1 (ja)
EP (1) EP4125036A1 (ja)
JP (1) JP7447191B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007048006A (ja) 2005-08-09 2007-02-22 Olympus Corp 画像処理装置および画像処理プログラム
WO2015145643A1 (ja) 2014-03-27 2015-10-01 コニカミノルタ株式会社 画像処理装置および画像処理プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2124752C (en) * 1993-06-30 2005-04-12 Mark Zbikowski Meta-data structure and handling
KR101661216B1 (ko) * 2010-09-02 2016-09-29 삼성전자주식회사 디지털 영상 처리 장치, 디지털 영상 신호 처리 방법 및 상기 방법을 기록한 기록 매체
JP5934929B2 (ja) * 2011-05-27 2016-06-15 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
JP2016170122A (ja) * 2015-03-13 2016-09-23 キヤノン株式会社 計測装置
US9762790B2 (en) * 2016-02-09 2017-09-12 Panasonic Intellectual Property Management Co., Ltd. Image pickup apparatus using edge detection and distance for focus assist
CN109886243B (zh) * 2019-03-01 2021-03-26 腾讯医疗健康(深圳)有限公司 图像处理方法、装置、存储介质、设备以及系统
CN113992848A (zh) * 2019-04-22 2022-01-28 深圳市商汤科技有限公司 视频图像处理方法及装置
CN111246092B (zh) * 2020-01-16 2021-07-20 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
JP2023519467A (ja) * 2021-02-24 2023-05-11 グーグル エルエルシー より深い被写界深度の分割ピクセルデータの合併

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007048006A (ja) 2005-08-09 2007-02-22 Olympus Corp 画像処理装置および画像処理プログラム
WO2015145643A1 (ja) 2014-03-27 2015-10-01 コニカミノルタ株式会社 画像処理装置および画像処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Benoit Lelandais, Frederic Duconge,Deconvolution regularized using fuzzy c-means algorithm for biomedical image deblurring and segmentation,2015 IEEE 12th International Symposium on Biomedical Imaging (ISBI),米国,IEEE,2015年04月19日,https://ieeexplore.ieee.org/document/7164151

Also Published As

Publication number Publication date
JP2023021000A (ja) 2023-02-09
EP4125036A1 (en) 2023-02-01
US20230034727A1 (en) 2023-02-02

Similar Documents

Publication Publication Date Title
Droste et al. Unified image and video saliency modeling
US11657274B2 (en) Weakly-supervised semantic segmentation with self-guidance
Swiderska-Chadaj et al. Impact of rescanning and normalization on convolutional neural network performance in multi-center, whole-slide classification of prostate cancer
Preibisch et al. Efficient Bayesian-based multiview deconvolution
Stegmaier et al. Fast segmentation of stained nuclei in terabyte-scale, time resolved 3D microscopy image stacks
US20240185130A1 (en) Normalizing text attributes for machine learning models
CN112308763A (zh) 利用具有双流编码器架构的神经网络来生成合成数字图像
US8582910B2 (en) Methods and apparatus for editing images
JP7059318B2 (ja) 地域的特徴を有する分類器学習のための学習データ生成方法およびそのシステム
CN113379786B (zh) 图像抠图方法、装置、计算机设备及存储介质
Lequyer et al. A fast blind zero-shot denoiser
JP7288488B2 (ja) デュアルエンコーダアテンションu-ネット
Wilson et al. Automated single particle detection and tracking for large microscopy datasets
US11741611B2 (en) Cyclical object segmentation neural networks
JP7447191B2 (ja) ぼけに対してロバストな画像のセグメンテーション
CN116912923B (zh) 一种图像识别模型训练方法和装置
Qiu et al. Applying deep learning technology to automatically identify metaphase chromosomes using scanning microscopic images: an initial investigation
US20210174939A1 (en) Deep learning system for detecting acute intracranial hemorrhage in non-contrast head ct images
Mabood et al. Multi-scale-average-filter-assisted level set segmentation model with local region restoration achievements
CN116883432A (zh) 病灶图像的分割方法、装置、电子设备及可读存储介质
CN113875228B (zh) 视频插帧方法及装置、计算机可读存储介质
Yang et al. Cervical nuclei segmentation in whole slide histopathology images using convolution neural network
Jang et al. Protocol for live cell image segmentation to profile cellular morphodynamics using MARS-Net
JP2024018993A (ja) 医用画像からのゲノムバイオマーカー予測
CN117457235B (zh) 病理损伤模式预测方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240228

R150 Certificate of patent or registration of utility model

Ref document number: 7447191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150