JP7177917B2 - 視覚化分析装置および視覚的学習方法 - Google Patents

視覚化分析装置および視覚的学習方法 Download PDF

Info

Publication number
JP7177917B2
JP7177917B2 JP2021515516A JP2021515516A JP7177917B2 JP 7177917 B2 JP7177917 B2 JP 7177917B2 JP 2021515516 A JP2021515516 A JP 2021515516A JP 2021515516 A JP2021515516 A JP 2021515516A JP 7177917 B2 JP7177917 B2 JP 7177917B2
Authority
JP
Japan
Prior art keywords
image
specimen container
specimen
objects
identifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021515516A
Other languages
English (en)
Other versions
JP2022501596A (ja
Inventor
ラヤル・ラジュ・プラサド・ナラム・ヴェンカット
ベンジャミン・エス・ポラック
イャオ-ジェン・チャン
ヴィヴィック・シンフ
ヴェンカテッシュ・ナラシムハムルシー
Original Assignee
シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド filed Critical シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド
Publication of JP2022501596A publication Critical patent/JP2022501596A/ja
Application granted granted Critical
Publication of JP7177917B2 publication Critical patent/JP7177917B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N35/00Automatic analysis not limited to methods or materials provided for in any single one of groups G01N1/00 - G01N33/00; Handling materials therefor
    • G01N35/00584Control arrangements for automatic analysers
    • G01N35/00722Communications; Identification
    • G01N35/00732Identification of carriers, materials or components in automatic analysers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume, or surface-area of porous materials
    • G01N15/04Investigating sedimentation of particle suspensions
    • G01N15/05Investigating sedimentation of particle suspensions in blood
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume, or surface-area of porous materials
    • G01N15/04Investigating sedimentation of particle suspensions
    • G01N15/042Investigating sedimentation of particle suspensions by centrifuging and investigating centrifugates
    • G01N2015/045Investigating sedimentation of particle suspensions by centrifuging and investigating centrifugates by optical analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N35/00Automatic analysis not limited to methods or materials provided for in any single one of groups G01N1/00 - G01N33/00; Handling materials therefor
    • G01N35/00584Control arrangements for automatic analysers
    • G01N35/00722Communications; Identification
    • G01N35/00732Identification of carriers, materials or components in automatic analysers
    • G01N2035/00742Type of codes
    • G01N2035/00752Type of codes bar codes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N35/00Automatic analysis not limited to methods or materials provided for in any single one of groups G01N1/00 - G01N33/00; Handling materials therefor
    • G01N35/02Automatic analysis not limited to methods or materials provided for in any single one of groups G01N1/00 - G01N33/00; Handling materials therefor using a plurality of sample containers moved by a conveyor system past one or more treatment or analysis stations
    • G01N35/021Automatic analysis not limited to methods or materials provided for in any single one of groups G01N1/00 - G01N33/00; Handling materials therefor using a plurality of sample containers moved by a conveyor system past one or more treatment or analysis stations having a flexible chain, e.g. "cartridge belt", conveyor for reaction cells or cuvettes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Hematology (AREA)
  • Dispersion Chemistry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Analysis (AREA)
  • Automatic Analysis And Handling Materials Therefor (AREA)

Description

関連出願
本出願は、2018年9月20日出願の「MACHINE LEARNING FOR IMAGE ANALYSIS VISUALIZATION TOOL」という名称の米国特許仮出願第62/733,972号の優先権を主張するものであり、その全体をあらゆる目的で参照により本明細書に組み込む。
本開示の実施形態は、自動診断分析システムにおいて標本を特性評価するための方法および装置に関する。
自動診断分析システムは、1つまたはそれ以上の試薬を使用してアッセイまたは臨床化学分析を行い、生体液標本(例えば、遠心分離された全血サンプルの血清または血漿部分)中の分析物または他の成分を同定することができる。自動試験技術の改良は、分析前の標本の調製および取扱いの相応の進歩によって達成されている。そのような調整および取扱いは、例えば、実験室自動システム(LAS)と呼ばれる自動標本調製システムによる、選別、バッチ調製、標本成分を分離するための標本容器の遠心分離、液体へのアクセスを容易にするためのキャップの取外し、HILN(溶血、黄疸、または脂肪血症、または正常)決定などのための事前スクリーニングなどである。LASはまた、標本容器内の標本をいくつかの標本処理ステーションに自動的に輸送することができ、そこで様々な操作(例えば分析前および/または分析試験)が行われる。
自動事前スクリーニングは、自動マシンビジョン検査装置によって行われる。HILN事前スクリーニングは、分画された全血標本(例えば、遠心分離された標本)中の血清または血漿部分中のH、I、および/またはLなどの干渉物の自動検出を含む。また、事前スクリーニングは、1つまたはそれ以上の成分(例えば、血清もしくは血漿部分または沈降赤血球部分)の体積、標本容器の管タイプおよび/またはサイズ、管のキャップの有無、キャップタイプ、標本容器のラベルのステータス、および他の決定を含むこともある。
第1の態様では、標本容器の物体を識別する方法が提供される。この方法は、標本容器の1つまたはそれ以上の画像を取り込む工程であって、1つまたはそれ以上の画像は、標本容器および標本の1つまたはそれ以上の物体を含み、複数の画素から画素データが生成される、工程と;1つまたはそれ以上のニューラルネットワークを使用して、1つまたはそれ以上の物体から1つまたはそれ以上の選択された物体を識別する工程と;標本容器の画像を表示する工程と;標本容器の画像上に、1つまたはそれ以上の選択された物体を識別するために1つまたはそれ以上のニューラルネットワークによって使用された画素の1つまたはそれ以上の位置を表示する工程と、を含む。
第2の態様では、品質チェックモジュールが提供される。品質チェックモジュールは、1つまたはそれ以上の視点から標本容器の1つまたはそれ以上の画像を取り込むように動作可能な1つまたはそれ以上の画像取込みデバイスであって、1つまたはそれ以上の画像を取り込むことにより、複数の画素から画素データが生成される、1つまたはそれ以上の画像取込みデバイスと、1つまたはそれ以上の画像取込みデバイスに連結されたコンピュータとを含む。このコンピュータは、1つまたはそれ以上のニューラルネットワークを使用して、標本容器の1つまたはそれ以上の物体から1つまたはそれ以上の選択された物体を識別する工程と;標本容器の画像を表示する工程と;標本容器の画像上に、1つまたはそれ以上の選択された物体を識別するために1つまたはそれ以上のニューラルネットワークによって使用された画素の1つまたはそれ以上の位置を表示する工程と、を行うように構成され動作可能である(動作され得る)。
別の態様では、標本試験装置が提供される。標本試験装置は、トラックと;トラック上で可動であり、標本の血清または血漿部分を含む標本容器を含むように構成されたキャリアと;トラックの周囲に配置されて、1つまたはそれ以上の視点から標本容器および標本の血清または血漿部分の1つまたはそれ以上の画像を取り込むように動作可能である複数の画像取込みデバイスであって、1つまたはそれ以上の画像を取り込むことにより、複数の画素を含む画素データが生成される、複数の画像取込みデバイスと、複数の画像取込みデバイスに連結されたコンピュータとを含む。このコンピュータは、1つまたはそれ以上のニューラルネットワークを使用して、標本容器の1つまたはそれ以上の物体から1つまたはそれ以上の選択された物体を識別する工程と;標本容器の画像を表示する工程と;標本容器の画像上に、1つまたはそれ以上の選択された物体を識別するために1つまたはそれ以上のニューラルネットワークによって使用された画素の1つまたはそれ以上の位置を表示する工程と、を行うように構成され動作可能である。
以下に述べる図面は、例示目的であり、必ずしも一定の縮尺で描かれているわけではない。したがって、図面および説明は、本質的に例示とみなされるべきであり、限定とみなされるべきではない。図面は、本開示の範囲を限定することを何ら意図されていない。
1つまたはそれ以上の実施形態による視覚的(光学的)分析方法を実行するように構成された1つまたはそれ以上の品質チェックモジュールを含む標本試験装置の概略上面図である。 1つまたはそれ以上の実施形態による、標本容器の複数の視点を含み、標本容器の複数のバックライト照明された画像を取り込み分析するように構成された品質チェックモジュール(上部が取り外されている)の概略上面図である。 1つまたはそれ以上の実施形態による、図1Bの断面線1C-1Cに沿って取られた図1Bの品質チェックモジュール(エンクロージャ前壁が取り外された状態)の概略側面図である。 1つまたはそれ以上の実施形態による、血清または血漿部分と沈降血液部分とを含む分離された標本を含むキャップ付きの標本容器の側面図である。 1つまたはそれ以上の実施形態による、血清または血漿部分と沈降血液部分とを含む分離された標本を含む、キャリア内に位置するキャップ付きの標本容器の側面図である。 1つまたはそれ以上の実施形態による、品質チェックモジュールにおける画像取込みデバイスによって生成された画素データに対してコンピュータによって実施される処理を示す流れ図である。 1つまたはそれ以上の実施形態による、セグメント化された標本、エアギャップ、およびキャップを含む、図2Aのキャップ付きの標本容器のセグメント化された側面図である。 1つまたはそれ以上の実施形態による、セグメント化された標本、エアギャップ、およびキャップを含む、図2Bのキャップ付きの標本容器のセグメント化された側面図である。 1つまたはそれ以上の実施形態による、ディスプレイ上に表示される図4Aのセグメント化された画像の物体を示す図である。 1つまたはそれ以上の実施形態による、表示されるキャリアを含む、ディスプレイ上に表示される図4Bのセグメント化された画像の物体を示す図である。 1つまたはそれ以上の実施形態による、オーバーレイされた活性化マップを伴う標本容器の画像を含む表示される画像を示す図であって、アルゴリズムが、取り込まれた画像の正しい領域を使用してキャップを識別した図である。 1つまたはそれ以上の実施形態による、オーバーレイされた活性化マップを伴う標本容器の画像を含む表示される画像を示す図であって、アルゴリズムが、取り込まれた画像の正しくない領域を使用してキャップを識別した図である。 1つまたはそれ以上の実施形態による、画像をセグメント化する方法の装置および機能流れ図である。 特性評価方法を説明する装置および機能流れ図であって、標本容器の画像内の多くの物体が1つまたはそれ以上の実施形態に従って特性評価または分類される図である。 1つまたはそれ以上の実施形態による別の特性評価方法を説明する流れ図である。
自動診断分析システムは、尿、血清、血漿、間質液、脳脊髄液などの標本中の分析物または他の成分を同定するために、1つまたはそれ以上の試薬を使用してアッセイまたは臨床化学分析を行うことができる。そのような標本は通常、標本容器(例えば標本採取管)に含まれる。試験反応は様々な変化を生み出し、それらの変化は、標本中に存在する分析物または他の成分の濃度を決定するために読み取られるかつ/または操作される。
いくつかの試験では、(遠心分離によって全血から得られる)血清または血漿部分などの生体液が分析される。標本が全血である場合、ゲルセパレータが標本容器に加えられて、血清または血漿部分からの沈降血液部分の分離を助ける。血清または血漿部分と標本容器の上部との間には、真空またはエアギャップなどの空隙がある。標本容器は管でよく、特定の色または他のキャップ識別子を有する特定のタイプのキャップが被されていることも、または被されていないこともある。さらに、標本容器は、例えば自動診断分析システム全体を通して様々な位置に標本容器を輸送する標本キャリア内に位置する。
前処理操作中、標本容器および/または中にある標本の特定の特性を決定するために標本容器が分析される。前処理は、光学系および人工知能を使用して標本容器および/または中にある標本の特性を決定するマシンビジョン検査を含むことがある。1つまたはそれ以上の画像取込みデバイスは、標本容器の1つまたはそれ以上の画像を取り込み、標本容器の画像を表す画素データ(例えば画像データ)を生成することができる。コンピュータが画素データを受信し、画像をセグメント化することができる。セグメント化は、標本(例えば血清または血漿部分、沈降血液部分、ゲルセパレータ)、標本容器(例えば管)、および/または標本容器に付いているキャップなど、画像に含まれる物体に対応することがある1つまたはそれ以上のクラスに画素を分類することを含むことがある。画素クラスは、標本容器の異なる物体に対応することがある。例えば、第1の画素クラスは、標本容器のキャップを識別するために1つまたはそれ以上のニューラルネットワークによって使用され、第2の画素クラスは、標本の血清または血漿部分を識別するために1つまたはそれ以上のニューラルネットワークによって使用される。
畳み込みニューラルネットワーク(CNN)または他の適切なニューラルネットワークなどのニューラルネットワーク(例えば、訓練されたニューラルネットワーク)は、様々な画素クラスを分析して、標本容器および/または中にある標本の特性を決定することができる。上述した例に関して、ニューラルネットワークは、第1の画素クラスを分析し、標本容器にキャップが付いているかどうかを決定することができる。キャップが付いている場合、ニューラルネットワークは、キャップの色および/またはキャップのタイプをさらに決定することがある。ニューラルネットワークは、第2の画素クラスを分析し、それらの画素が標本の血清または血漿部分であると決定することができる。ニューラルネットワークは、第2の画素クラスをさらに分析して、血清または血漿部分が溶血、黄疸、および/もしくは脂肪血症を含むか、または正常であるかを決定することができる。画素データの分析に基づいて、マシンビジョン検査装置は、標本および/または標本容器の特性を識別する特定の情報を出力することができる。
検査技師などのユーザは、マシンビジョン検査装置によって生成された情報を受け取ることがある。従来のシステムでは、自動機械検査装置は、自動検査装置によって下された決定に関する出力情報をユーザに提供するだけであり、決定がどのように導出されたかについての基準を提供しないという点でブラックボックス構造である。したがって、ユーザは、自動機械検査装置による決定がどのように行われるかについて確信できないことがある。例えば、従来のマシンビジョン検査装置は、標本および/または標本容器の特性のみを出力し、特性を導出するために使用される分析に関する情報は出力しない。したがって、ユーザは、マシンビジョン検査が到達した決定が実際に正しいことを確信できないことがある。
これらの欠点に鑑みて、本明細書で開示されるマシンビジョン検査装置および方法は、標本および/または標本容器の特性がどのように決定されたかに関する情報を提供する。したがって、ユーザは、マシンビジョン検査装置が、標本および/または標本容器の特性を決定したときに画像の正しい部分を分析したことを確信することができる。本明細書で開示されるマシンビジョン検査装置および方法は、標本および/または標本容器の特性を決定するために使用される画素クラスの位置に関する視覚的情報を提供することができる。例えば、マシンビジョン検査装置は、標本容器を少なくとも部分的に表す画像を表示することができる。表示される画像は、取り込まれた画像内で、識別された物体の領域に対応する輪郭描出された領域を含むことがある。取り込まれた画像内には、様々な画素クラスが位置する。いくつかの実施形態では、表示される画像は、画素の異なる色、画素の異なる強度、または元の画像内の特定の物体を識別するために装置によって使用された元の画像内の画素の位置に対応する他の適切なマーキング(例えば、点線または色付きの境界線、ハッチング、陰影など)を含むことがある。
いくつかの実施形態では、マシンビジョン検査装置は、活性化マップを生成することがあり、活性化マップは、画像内の各画素が物体の識別などの決定を行うためにどれほど重要であったかに関するスコアを提供することができる画像である。いくつかの実施形態では、活性化マップは、識別中に使用される画素の位置を提供することがある。活性化マップは、顕著性マップ、学習された特徴の視覚化、オクルージョンマップ、およびクラス活性化マップと呼ばれることがある。いくつかの実施形態では、活性化マップで表される画素の明るさは、決定を行う際の画素の有用性に依存している。例えば、活性化マップ内のより明るい画素は、より有用な情報を提供する画素でよく、より暗い画素は、あまり有用でない情報を提供するか、または情報を提供しない画素でよい。いくつかの実施形態では、活性化マップとオーバーレイされた標本容器の画像が、ユーザのために表示される。
上述した例を参照すると、いくつかの実施形態では、表示される画像は、第1の画素クラスが位置する場所を示す第1の強調表示されたまたは他の形で輪郭描出された領域を含むことがある。第1の例では、第1の画素クラスは、標本容器のキャップ領域に位置する。したがって、表示される画像のキャップ領域は、第1の画素クラスがキャップ領域にあり、それらの特定の画素からキャップ特性が導出されたことを示すために輪郭描出されるか、または他の形で区別される。別の表示される画像は、第2の画素クラスの物理的位置を示す第2の輪郭描出された領域を含むことがある。この例では、第2の画素クラスは、標本の血清または血漿領域に位置させることができる。したがって、表示される画像の血清または血漿部分は、第2の画素クラスが表示される画像の血清または血漿領域にあることを示すために輪郭描出される。画像の輪郭描出部分は、その物体を強調表示する何らかの特徴によって画像の他の部分と容易に区別可能な画像の部分である。それぞれの部分の輪郭描出(例えば、輪郭描出された物体)は、画像の一部分を着色するまたは暗くすることを含むことがあり、これは例えば、暗くされた(例えば太線にされた)もしくは着色された境界を提供することによって、ハッチングの塗りつぶしパターンもしくは他の塗りつぶしパターンなど画像の一部分の塗りつぶしを提供することによって、または画像の一部分のみを表示し、一意の色を提供し、かつ/もしくは一意の陰影などを使用することによって行われる。輪郭描出は、表示される画像に任意の適切なグラフィックを重ね合わせる、または一部をグラフィックで置換することによって達成される。いくつかの実施形態では、それぞれの部分の輪郭描出は、点滅するか、または別の形で強度が変化することがある。
他の実施形態では、輪郭描出された画像は、元の画像または元の画像の表現にオーバーレイされた活性化マップを含むことがある。より明るい画素などの異なる画素強度が、決定および/または識別を行うのにより有用であった画素を示すことがある。いくつかの実施形態では、より明るい画素、またはより明るい画素からなる領域が、画像の輪郭描出部分を構成する。
表示される画像の輪郭描出部分は、マシンビジョン検査装置が、標本容器の物体または標本容器に含まれる物体の特性および/または位置に関する決定を行ったときに画像の正しい部分を分析したという確信をユーザに与える。例えば、表示される画像は、マシンビジョン検査装置がキャップに関する情報、例えばキャップの色、および場合によってはその色が表す意味、および/またはキャップタイプを提供するとき、標本容器のキャップ領域を輪郭描出することがある。このとき、ユーザは、マシンビジョン検査装置がキャップを識別したときに、血清または血漿領域、エアギャップ、または別の幾何学的特徴など他の領域を分析しなかったことを確信する。
特性評価および視覚的検証方法、特性評価および視覚的検証方法を実施するように構成された装置、システム、および品質チェックモジュール、ならびに1つまたはそれ以上の品質チェックモジュールを含む標本試験装置のさらなる詳細を、図1A~8を参照して本明細書でさらに述べる。
ここで、図1A~1Cを参照する。図1Aは、標本106(図1C)を含む複数の標本容器104を自動的に処理することが可能な標本試験装置100を示す。図1Bは、1つまたはそれ以上の実施形態による、標本容器104の複数の視点を含み、標本容器104の複数の画像を取り込み分析するように構成された品質チェックモジュール102(上部が取り外されている)の概略上面図を示す。図1Cは、1つまたはそれ以上の実施形態による、図1Bの断面線1C-1Cに沿って取られた図1Bの品質チェックモジュール102(エンクロージャ前壁が取り外された状態)の概略側面図を示す。標本容器104は、装填エリア110で1つまたはそれ以上のラック108に提供された後、標本試験装置100の周りに配置された1つまたはそれ以上の分析器(例えば、第1の分析器112、第2の分析器114、および/または第3の分析器116)に輸送され、分析器によって分析される。より多数またはより少数の分析器を使用してもよい。分析器は、臨床化学分析器および/またはアッセイ機器などの任意の組合せでよい。他の適切な処理デバイスも、標本試験装置100に提供される。標本容器104は、標本106を含むことができ、含まれる標本106の撮像を可能にすることができる、採血管、試験管、試料カップ、キュベット、または他の透明もしくは不透明のガラスもしくはプラスチック容器など任意の適切な透明または半透明の容器でよい。標本容器104は、様々なサイズ(例えば高さおよび/または直径)でよい。
より詳細には、標本試験装置100は、トラック122が取り付けられるまたは支持される基部120(例えば、フレーム、フロア、または他の構造)を含むことがある。トラック122は、レール式トラック(例えばモノレールまたはマルチレール)、コンベアベルトの集合、コンベアチェーン、可動プラットホーム、または任意の他の適切なタイプの搬送機構でよい。トラック122は、円形または任意の他の適切な形状でよく、いくつかの実施形態では、閉じたトラック(例えばエンドレストラック)でよい。トラック122は、動作時、個々の標本容器104を、キャリア124のトラック122の周りで離間された様々な位置に輸送することができる。
キャリア124は、トラック122上で標本容器104を搬送するように構成されたモータのない受動パックでよく、または場合により、トラック122の周りを動き、事前プログラムされた位置で停止するようにプログラムされたリニアモータなどの搭載型ドライブモータを含む自動キャリアでよい。キャリア124の他の構成を使用してもよい。いくつかの実施形態では、キャリア124は、1つまたはそれ以上のラック108から装填解除された後、装填エリア110から出ることがある。装填エリア110は、事前スクリーニングおよび/または分析が完了した後、標本容器104をキャリア124から装填エリア110へ再装填することも可能にする二重の機能を果たすことができる。あるいは、標本容器104は廃棄される。
ロボット126が装填エリア110に提供され、1つまたはそれ以上のラック108から標本容器104を把持して、キャリア124、例えばトラック122の投入レーンに標本容器104を装填するように構成される。また、ロボット126は、標本容器104をキャリア124から1つもしくはそれ以上のラック108へ再装填する、または標本容器104を廃棄するように構成される。ロボット126は、X(横方向)およびZ(垂直方向-図示されるように紙面外へ)、またはX、Y、およびZ、またはr(径方向)およびZ(垂直方向)、θ(回転方向)およびZ(垂直方向)の運動が可能な1つまたはそれ以上(例えば少なくとも2つ)のロボットアームまたは構成要素を含むことがある。ロボット126は、ガントリロボット、関節式ロボット、R-θ型ロボット、θ-Z型ロボット、または他の適切なロボットでよく、ロボット126は、標本容器104を持ち上げて配置するように向けられ、サイズ設定され、構成されたロボットグリッパフィンガを含むこともある。
トラック122に装填されると、キャリア124によって搬送される標本容器104は、前処理モジュール130としての1つまたはそれ以上の前処理モジュールに進むことができる。例えば、前処理モジュール130は、標本106の分画を実施するように構成された自動遠心分離器でよい。標本容器104を搬送するキャリア124は、流入レーンまたは他の適切なロボットによって前処理モジュール130へ偏向される。遠心分離された後、標本容器104は、流出レーンに出るか、または別の方法でロボットによって取り出され、トラック122に沿って進み続けることができる。図示される実施形態では、次に、キャリア124にある標本容器104は、本明細書においてさらに述べるように、事前スクリーニングを実施するために品質チェックモジュール102へ輸送される。追加のステーションが、トラック122上のまたはトラック122に沿った1つまたはそれ以上の位置に設けられる。追加のステーションは、キャップ取外しステーション、アリコートステーション、1つまたはそれ以上の前処理モジュール130、1つまたはそれ以上の追加の品質チェックモジュール102などを含むことがある。
標本試験装置100は、トラック122の周囲の1つまたはそれ以上の位置に複数のセンサ132を含むことがある。センサ132は、識別情報234i(図2A)または各標本容器104に提供される類似の情報(図示せず)を読み取ることによってトラック122上での標本容器104の位置を検出するために使用される。近接センサ、RFIDセンサなど、位置を追跡するための任意の適切な手段を使用することができる。各標本容器104の位置が常に分かっているように、すべてのセンサ132が、コンピュータ136とインターフェースすることができる。
前処理ステーションおよび分析器112、114、および116は、トラック122からキャリア124を取り出すように構成されたロボット機構および/または流入レーンと、トラック122にキャリア124を再び入れるように構成されたロボット機構および/または流出レーンとを含むことができる。
標本試験装置100は、コンピュータ136によって制御され、コンピュータ136は、適切なメモリと、様々なシステム構成要素を操作するための適切な調整電子回路およびドライバとを有する、マイクロプロセッサベースの中央演算処理装置(CPU)でよい。コンピュータ136は、標本試験装置100の基部120の一部として、またはそれとは別に収容される。コンピュータ136は、キャリア124が装填エリア110に出入りする動き、トラック122の周りでの運動、前処理モジュール130に出入りする運動、ならびに前処理モジュール130(例えば遠心分離器)の動作、品質チェックモジュール102に出入りする運動、ならびに品質チェックモジュール102の動作、および各分析器112、114、116に出入りする運動、ならびに様々なタイプの試験(例えばアッセイまたは臨床化学)を実施するための各分析器112、114、116の動作を制御するように動作することができる。コンピュータ136は、本明細書で述べるように1つまたはそれ以上のニューラルネットワークを実行するなど、他の機能を実施することもできる。いくつかの実施形態では、個別のコンピュータを各構成要素に関連付けることができ、それらはすべて、ローカルサーバおよび/またはイーサネットなどの通信リンクを介して互いにインターフェースすることができる。
ここで図1Bおよび1Cを参照する。図1Bおよび1Cは、本明細書で図示して述べる特性評価および視覚的検証方法を実施するように構成された品質チェックモジュール102の実施形態を示す。品質チェックモジュール102は、標本容器104および/または中にある標本106を事前スクリーニングするように構成される。事前スクリーニングは、標本容器104および/または中にある標本106のいくつかの特性を決定することができる。例えば、標本容器104は管138を含むことがあり、管138を封止するために管138にキャップ140を受け取ることができる。事前スクリーニングは、キャップ140が管138に位置するかどうか、ならびに位置する場合にはキャップ140の色および/またはタイプを決定することができる。また、事前スクリーニングは、溶血、黄疸、および脂肪血症などの干渉物の存在、ならびに場合によっては存在する特定の干渉物の度合い(例えば指数)について標本106を分析することができる。事前スクリーニングは、以下で述べるように、標本106および/または標本容器104を分析して、管のタイプ、管の高さ、管の直径など他の特性を決定することもできる。
品質チェックモジュール102は、1つまたはそれ以上の画像取込みデバイス142A、142B、142Cを含むことがある。図1Bには3つの画像取込みデバイス142A~142Cが図示されているが、場合により2つまたは4つ以上を使用することもできる。画像取込みデバイス142A~142Cは、画素化画像を取り込むことが可能な従来のデジタルカメラ、電荷結合素子(CCD)、光検出器のアレイ、1つまたはそれ以上の相補型金属酸化物半導体(CMOS)センサなど、よく定義されたデジタル画像を取り込むための任意の適切なデバイスでよい。図1Bに示される3つの画像取込みデバイス142A~142Cは、3つの異なる横方向の視点(1、2、および3として表される視点)から画像を取り込むように構成される。いくつかの実施形態では、取り込まれる画像のサイズは、約2560×694画素(例えば、高さ×幅)でよい。他の実施形態では、画像取込みデバイス142A~142Cは、例えば約1280×387画素の画像サイズを取り込むことがある。他の画像サイズを取り込むこともできる。
画像取込みデバイス142A~142Cはそれぞれ、標本容器104の少なくとも一部分および中にある標本106の少なくとも一部分の横方向画像を取り込むように構成され動作可能でよい。画像取込みデバイス142A~142Cは、取り込まれた画像を表す画像データまたは画素データを生成することがある。図示される実施形態では、複数の画像取込みデバイス142A~142Cは、撮像位置144で、複数の視点1~3から標本容器104および/または標本106の横方向画像を取り込むように構成される。視点1~3は、図示されるように、互いに約120度など、互いにほぼ等間隔にされるように配置される。図示されるように、画像取込みデバイス142A~142Cは、標本容器104が輸送されるトラック122の周りに配置される。このようにして、標本容器104がキャリア124内で撮像位置144に位置している状態で、標本容器104内の標本106の画像が取り込まれる。画像取込みデバイス142A~142Cによって得られる複数の画像の視界は、周縁領域でわずかに重なり合っていてもよい。複数の画像取込みデバイス142A~142Cの他の構成を使用することもできる。
1つまたはそれ以上の実施形態では、キャリア124は、品質チェックモジュール102での所定の位置、例えば撮像位置144で停止される。この位置で、画像取込みデバイス142A~142Cそれぞれからの法線ベクトルが互いに交差する。撮像位置144でキャリア124を停止させるためにキャリア124のゲートまたはリニアモータ(図示せず)が提供され、その撮像位置144で複数の画像が取り込まれる。品質チェックモジュール102にゲートがある実施形態などいくつかの実施形態では、1つまたはそれ以上のセンサ132が、品質チェックモジュール102でのキャリア124の存在を決定するために使用される。
いくつかの実施形態では、品質チェックモジュール102は、外部照明の影響を最小限にするために、トラック122を少なくとも部分的に取り囲むまたは覆うことができるハウジング146を含むことがある。標本容器104は、画像取込みシーケンス中、ハウジング146内に位置する。ハウジング146は、キャリア124がハウジング146に入るかつ/またはハウジング146から出ることを可能にするために、1つまたはそれ以上の開口部および/またはドア146Dを含むことがある。いくつかの実施形態では、ハウジング146の天井部は開口部146Oを含むことがあり、例えば品質チェックモジュール102がトラック122から外されたときに、標本容器104がロボット(図示せず)によって上方からキャリア124に装填されることを可能にする。
画像取込みデバイス142A~142Cは、画像ウィンドウに近接して設けられ、撮像位置144で画像ウィンドウを取り込むために訓練される、または焦点を合わせられる。ここで、画像ウィンドウは、標本容器104の予想位置を含むエリアである。したがって、標本容器104は、いくつかの実施形態では、画像取込み前に画像ウィンドウのほぼ中央に位置するように停止される。例えば、画像取込みデバイス142A~142Cは、標本容器104に貼付されたラベル134の一部または全部、および中にある標本106の一部または全部を取り込むことができる。場合によっては、視点1~3のうちの少なくとも1つの一部は、ラベル134によって部分的に遮られる。場合によっては、視点1~3のうちの1つまたはそれ以上は完全に遮られ、すなわち、標本106の血清または血漿部分206SP(図2A)がはっきりと見えない可能性があり得る。しかし、視点1~3の片面(表側または裏側)が1つまたはそれ以上のラベル134によって完全に遮られている場合でさえ、特性評価方法はそれでも、1つまたはそれ以上のラベル134を通して標本の様々な部分の境界を区別することができることがある。
品質チェックモジュール102の動作時、各画像は、コンピュータ136によって伝送される、通信線148A、148B、148Cで提供されるトリガ信号に応答して取り込まれる。取り込まれた画像はそれぞれ、本明細書で延べる1つまたはそれ以上の実施形態に従ってコンピュータ136によって処理される。コンピュータ136は、標本容器104および標本106のコンピュータ生成画像を含む画像を表示することができるディスプレイ150に連結される。いくつかの実施形態では、取り込まれた画像から画像データを取り込み処理するために高ダイナミックレンジ(HDR)処理が使用される。例えば、標本106の複数の画像が、複数の異なる露光で(例えば異なる露光時間で)、1つまたはそれ以上の異なるスペクトルで順次に照明されながら、品質チェックモジュール102で取り込まれる。例えば、各画像取込みデバイス142A~142Cは、複数の照明スペクトルそれぞれで、異なる露光時間で、血清または血漿部分106SP(図2A)を含む標本容器104の画像を4~8つ取り込むことがある。例えば、4~8つの画像は、標本106が赤色スペクトルを有する光源152Aでバックライト照明された状態で、視点1で画像取込みデバイス142Aによって取り込まれる。追加の同様の画像が、視点2および3で順次に取り込まれる。
いくつかの実施形態では、多重スペクトル画像を取り込むことは、異なるスペクトル照明を放出する異なる光源152A、152B、および152Cを使用して達成される。光源152A~152Cは、(図示されるように)標本容器104をバックライト照明することができる。いくつかの実施形態では、光源152A~152Cと共に光拡散器(図示せず)が使用される。複数の異なるスペクトル光源152A~152Cは、赤、緑、青(RGB)の光源、例えば、634nm±35nm(赤)、537nm±35nm(緑)、および455nm±35nm(青)の公称波長を放出する発光ダイオード(LED)でよい。他の実施形態では、光源152A~152Cは白色光源でよい。ラベル134が複数の視点を妨げる場合には、赤外線(IR)バックライト照明または近赤外線(NIR)バックライト照明が使用される。さらに、ラベルによる遮蔽が存在するときでさえ、場合によってはRGB光源が使用される。他の実施形態では、光源152A~152Cは、約700nm~約1200nmの公称波長を有する1つまたはそれ以上のスペクトルを放出することがある。
非限定的な例として、第1の波長で画像を取り込むために、赤色光(約634nm±35nmの波長)を放出する3つの光源152A~152Cが、3つの横方向位置から標本106を順次に照明するために使用される。異なる露光時間での複数の画像(例えば4~8つ以上の画像)が3つの視点1~3それぞれから各画像取込みデバイス142A~142Cによって取り込まれるとき、光源152A~152Cによる赤色照明が行われることがある。いくつかの実施形態では、露光時間は約0.1ms~256msでよい。他の露光時間を使用することもできる。いくつかの実施形態では、各画像取込みデバイス142A~142Cに関する対応する各画像は、例えば順次に取り込まれる。したがって、各視点1~3について、赤色スペクトルのバックライト照明を用いて、異なる露光時間で複数の露光(例えば、4~8回の露光)で、1群の画像が順次に取り込まれる。画像は、例えば、視点1からのすべての画像が取り込まれ、続いて視点2および3によって順次に取り込まれる、ラウンドロビン方式で取り込まれる。
図1B~1Cの実施形態で赤色バックライト照明された画像が取り込まれると、別の光スペクトル、例えば緑色スペクトル光(約±35nmの帯域幅を有する約537nmの公称波長)が光源152A~152Cによって放出され、異なる露光時間での複数の画像(例えば4~8つ以上の画像)が、各画像取込みデバイス142A~142Cによって順次に取り込まれる。この手順は、各画像取込みデバイス142A~142Cに関して、光源152A~152Cによって放出される青色スペクトル光を用いて繰り返される。光源152A~152Cによって放出される異なる公称波長スペクトル光は、例えば、選択的にオンオフすることができる異なる所望のスペクトル光源(例えば、R、G、B、W、IR、および/またはNIR)のバンクを含むライトパネルによって達成される。バックライト照明のための他の手段を使用することもできる。
いくつかの実施形態では、各対応する波長スペクトルに関して複数の露光(例えば露光時間)で取り込まれる複数の画像が次々と取り込まれ、したがって、複数の視点1~3からの標本容器104および標本106に関するバックライト照明画像の集合全体が、例えば数秒未満で取り込まれる。いくつかの実施形態では、画像取込みデバイス142A~142Cと、RGB光源でよい光源152A~152Cを用いたバックライト照明とを使用した3つの視点1~3での各波長に関する4つの異なる露光の画像は、4つの画像×3つのスペクトル×3つの画像取込みデバイス=36個の画像となる。別の実施形態では、画像取込みデバイス142A~142Cと、R、G、B、W、IR、およびNIR光源でよい光源152A~152Cを用いたバックライト照明とを使用した3つの視点1~3での各波長に関する4つの異なる露光の画像は、4つの画像×6つのスペクトル×3つのカメラ=72個の画像となる。他の数の画像を取り込んでもよい。
特性評価および視覚的検証方法の実施形態に従って、コンピュータによる画像データまたは画素データの処理は、例えば、異なる露光時間で、各波長スペクトルで、各画像取込みデバイス142A~142Cに関する複数の取り込まれた画像からの最適に露光された画素を選択することを含む画像前処理を含むことがあり、各スペクトルに関しておよび各視点1~3に関して最適に露光された画素データを生成する。
各画像取込みデバイス142A~142Cによって取り込まれる画像それぞれからの対応する各画素(または画素のパッチ)ごとに、各視点1~3について異なる露光画像それぞれから、最適な画像強度を示す画素(または画素のパッチ)が選択される。いくつかの実施形態では、最適な画像強度は、例えば所定の強度範囲内(例えば、0~255のスケールで180~254)に含まれる画素(または画素のパッチ)の数によって決定される。別の実施形態では、最適な画像強度は、例えば、0~255のスケールで16~254であり得る。2つの露光画像の対応する画素(または画素のパッチ)位置での複数の画素(または画素のパッチ)が最適に露光されていると判断される場合、より高い全体強度を有する画像が選択される。
最適な画像強度を示す選択された画素(または画素のパッチ)は、それらのそれぞれの露光時間によって正規化される。その結果、照明スペクトル(例えば、使用される組合せに応じて、R、G、B、白色光、IR、および/またはNIR)に関して、および各画像取込みデバイス142A~142Cに関して、複数の正規化されて統合されたスペクトル画像データセットが得られ、ここで、すべての画素(または画素のパッチ)が最適に露光され(例えばスペクトルごとに1つの画像データセット)、正規化される。言い換えると、各視点1~3に関して、コンピュータ136によって行われるデータ前処理は、採用された照明スペクトルごとに1つずつ、複数の最適に露光されて正規化された画像データセットをもたらすことがある。
画素データの処理は、画素化画像をセグメント化することをさらに含むことがある。例えば、セグメント化は、画像内の異なる物体を表すものとして画素データ内の画素を分類することを含むことがある。セグメント化プロセスは、後処理工程で使用されるセグメント化データを生成して、標本容器104および/または標本106の態様を定量化する、すなわち、本明細書で述べるように、標本容器および/または標本106、またはHILなど標本106中の成分の特定の物理的寸法特性を決定することができる。
ここでさらに図2Aおよび2Bを参照する。図2Aは、1つまたはそれ以上の実施形態による、標本106を含む標本容器104の側面図を示す。図2Bは、キャリア124内に位置する図2Aの標本容器104の側面図を示す。標本106は、標本106の血清または血漿部分206SPを標本106の沈降血液部分206SBから分離するゲルセパレータ252を含むことがある。血清および血漿部分206SPの上方にエアギャップ254があり、エアギャップ254と血清および血漿部分206Sとの境界線は、液体-空気界面(LA)と定義される。いくつかの実施形態では、エアギャップ254は、真空または空隙であり得る。キャップ140は、標本容器104を封止することができる。
セグメント化によって少なくとも部分的に決定される物理的特性は、標本容器104の上部(TC)の位置、標本容器104の高さ(HT)、標本容器104の幅(W)、標本容器104の内幅(Wi)、および管138の壁の厚さ(Tw)を含むことがある。さらに、セグメント化データは、液体-空気界面(LA)の位置、標本106の全高(HTOT)、ならびにゲルセパレータ252の上側位置(GU)および下側位置(GL)を提供することがある。上側位置(GU)と下側位置(GL)との差は、ゲルセパレータ252の高さ(HG)を表す。特性は、血清または血漿部分206SPの高さ(HSP)および沈降血液部分206SBの高さ(HSB)をさらに含むことがある。セグメント化は、キャップ140、エアギャップ254、血清または血漿部分206SP、ゲルセパレータ252、沈降血液部分206SB、標本容器104、およびキャリア124のサイズおよび位置を提供することもある。セグメント化は、血清もしくは血漿部分206SPの体積および/または沈降血液部分206SBの体積、ならびに場合によってはそれらの比の推定を含むこともある。キャップ140などの様々な構成要素の色、またはキャップ140のタイプなど、他の物体の他の定量化可能な幾何学的特徴および位置が決定されることもある。
いくつかの実施形態では、各標本容器104にはラベル134が付され、ラベル134は、バーコード、アルファベット、数字、またはこれらの組合せなど、識別情報234i(すなわちインデックス)を含むことがある。識別情報234iは、品質チェックモジュール102(図1A)を含む様々な位置で機械可読であり得る。機械可読識別情報234iは、容易に撮像することができるように、ラベル材料(例えば白紙)よりも濃い色(例えば黒)でよい。識別情報234iは、患者の識別、および標本106に対して実施予定の試験を示すことがあり、または別の方法でラボラトリ情報管理システム(LIS)を介してそれらに相関されることがある。識別情報234iは、他のまたは追加の情報を示すこともある。
上述した識別情報234iはラベル134に提供され、ラベル134は、標本容器104の外面に接着される、または別の方法で提供される。図2Aおよび2Bに示されるように、ラベル134は、標本容器104の全周にわたって、または標本容器104の全長に沿って延びることはなく、したがって図示される特定の正面の視点から血清または血漿部分206SPの大部分が見え、ラベル134によって妨げられない。いくつかの実施形態では、(例えば標本容器104を取り扱っている複数の設備から)複数のラベルが提供されることがあり、複数のラベルは、ある程度互いに重なっていることがある。例えば、2つのラベル(例えば、製造業者のラベルおよびバーコードラベル)が付与されることがあり、重なっていてもよく、1つまたはそれ以上の視点のいくつかまたはすべてを遮って(妨害して)いてもよい。本明細書で述べるセグメント化プロセスは、標本容器104上のラベル134を識別および位置特定することができ、また、ラベル134の形状および/またはサイズを提供することもできる。本明細書で述べるセグメント化プロセスは、ラベルが損傷されている、または他の何らかの理由で解読不能かどうかを決定することもできる。いくつかの実施形態では、セグメント化プロセスは、ラベル134を読み取ることを含むことがある。
さらに図3を参照する。図3は、コンピュータ136または他の適切なプロセッサデバイスによって画素データに対して行われる処理の方法360を示す流れ図を示す。方法360の機能ブロック362において、コンピュータ136は、標本容器104を表す画素データを受信する。画素データは、標本容器104の画像データでよい。画素データは、標本容器104および/または標本容器104内にある標本106を保持するキャリア124を表すこともある。いくつかの実施形態では、コンピュータ136により、機構(図示せず)は、トラック122またはトラック122上のキャリア124を、ハウジング146内の撮像位置144に移動することができる。次いで、コンピュータ136は、信号を生成し、光源152A~152Cに伝送することがあり、これらの信号により、光源152Aは、上述したように標本容器104および/またはキャリア124を照明する。例えば、コンピュータ136によって生成され、光源152A~152Cに伝送される信号により、光源152A~152Cは、上述したように特定の強度および波長の光を生成することができる。
より詳細には、標本容器104および/またはキャリア124が照明されるとき、コンピュータ136は、信号を生成し、通信線148A~148Cを介して画像取込みデバイス142A~142Cに伝送し、画像取込みデバイス142A~142Cに標本容器104および/またはキャリア124の画像を取り込ませる。コンピュータ136によって生成され、画像取込みデバイス142A~142Cに伝送される信号により、個々の画像取込みデバイス142A~142Cが、標本容器104および/またはキャリア124の画像を取り込むことができる。他の実施形態では、コンピュータ136によって生成されて伝送される信号により、画像取込みデバイス142A~142Cは、標本容器104および/またはキャリア124の画像を同時にまたは順次に取り込むことができる。画像取込みデバイス142A~142Cが画像を取り込むとき、画像取込みデバイス142A~142Cは、取り込まれた画像を表す画素データ(または「画像データ」と呼ぶ)を生成し、画素値は、画素データでの個々の画素の数値(例えば、強度および/または波長値)を表す。時として、「画素」という用語は、画素データでの画素値を表す。図1Bに示されるように、画像取込みデバイス142A~142Cは、画像位置144の周りに配置され、標本容器104は、中央に位置する。したがって、画像取込みデバイス142A~142Cによって生成される累積画素データは、標本容器104および/またはキャリア124の360°ビューを表すことがある。画像取込みデバイス142A~142Cによって生成された画素データは、通信線148A~148Cを介してコンピュータ136に伝送される。
コンピュータ136は、コンピュータ136で実行されるプログラムを使用することによって画素データを処理することができる。機能ブロック364において、コンピュータ136で実行されるニューラルネットワークは、以下でより詳細に述べるように、画像取込みデバイス142A~142Cによって取り込まれた1つまたはそれ以上の画像を1つまたはそれ以上の物体にセグメント化することができる。1つまたはそれ以上のニューラルネットワークは、畳み込みニューラルネットワーク(CNN)、セグメント化畳み込みニューラルネットワーク(SCNN)、ディープセマンティックセグメント化ネットワーク(DSSN)、および他の同様のセグメント化ニューラルネットワークを含むことができる。例えば、コンピュータ136で実行されるセグメント化プログラムは、画素データを処理またはセグメント化して、画素のクラスを識別することができる。特定のクラスの画素は、同一または同様の特性を有する画素である。例えば、1つのクラスの画素は、同一または同様の波長、強度、および/または領域的位置の画素値を有することがある。異なるクラスの画素は、標本容器104および/またはキャリア124を構成する異なる物体に対応する画像の異なる領域に位置する。単一の物体の個々のクラスの画素は、同様の色を有し、互いに近接して位置することがある。例えば、キャップ140を表す画素のクラスは、キャップ140の位置にあり得て、すべてがほぼ同じ色(例えば光波長)を有することがある。同様に、標本106を表す画素のクラスは、特定の色を有し、標本容器として画成される領域内で互いに近接して位置することがある。
いくつかの実施形態では、例えば任意の適切な分類プロセスによって画像内の各画素がクラスに割り当てられる。例えば、第1の波長の画素は、第1のクラス(例えばキャップ)に割り当てられることがあり、第2の波長の画素は、第2のクラス(例えば血清または血漿部分)に割り当てられることがある。画素を異なるクラスに割り当てるために、強度など他の基準が使用されることもある。
セグメント化および識別は、コンピュータ136(図1B)で実行されるニューラルネットワーク(例えば、訓練されたニューラルネットワーク)によって行われる。例えば、上述したSCNNは、いくつかの実施形態では100を超える演算層を含むDSSNを含むことがある。そのようなディープネットワークを有する利点は、ネットワーク受信フィールドを増大することができることであり、ネットワーク受信フィールドは、小さなローカル領域ではなく、より多くのコンテキスト情報を利用する。さらに、密に接続されたネットワークは、低レベルから高レベルの層まで、および符号化領域から復号領域までの機能を連結する。そうすることによって、DSSNをより簡単に訓練して、同じタスクのために構成された他の畳み込みニューラルネットワークよりも詳細な特徴を画像から認識することができる。SCNNは、他のニューラルネットワークを含むことがある。
標本容器タイプ(例えばサイズおよび/または形状)のばらつきによって引き起こされることがある外観の違いを克服するために、SCNNは、DSSNのフロントエンドに小さい容器セグメント化ネットワーク(SCN)を含むことがある。SCNは、容器タイプおよび容器境界を決定するように構成され動作可能であり得る。容器タイプおよび容器境界情報は、追加の入力チャネルを介してDSSNに入力され、いくつかの実施形態では、SCNNは、決定された容器タイプおよび境界を出力として提供することがある。いくつかの実施形態では、SCNは、DSSNと同様のネットワーク構造を有することができるが、より浅い(すなわち、層がはるかに少ない)。
さらに図4Aおよび4Bを参照する。図4Aおよび4Bは、画像内の様々な物体に対応する画素のクラスの位置の例を示す。場合によっては、すべての画素クラスが物体に対応するわけではない。第1のセグメント化された画像404Aは、図2Aに示される画像からの画素のクラスおよびそれらの対応する物体の例を示す。第2のセグメント化された画像404Bは、図2Bに示される画像からの画素のクラスおよびそれらの対応する物体の例を示す。図4Aおよび4Bの実施形態では、コンピュータ136で実行される1つまたはそれ以上のニューラルネットワークなどのプログラムは、画像データを処理し、例えばクラスによって画素のグループにセグメント化した。以下でより詳細に述べるように、画素のクラスは、標本容器104(管138およびキャップ140を含む)および/またはキャリア124および/または標本106の構成要素を構成する物体の位置に対応することがある。クラスは、取り込まれた画像内の他の物体を表すこともある。
図4Aおよび4Bの実施形態では、コンピュータ136(図1B)で実行されるプログラムは、複数の物体に対応することがある複数の画素クラスを識別している。ここでは、コンピュータ136は、機能ブロック366(図3)で述べたような1つまたはそれ以上の画素クラスおよびそれらの境界によって画定される1つまたはそれ以上の物体を識別することができる。図4Aおよび4Bに示されるセグメント化された物体は、セグメント化されたキャップ440、セグメント化されたエアギャップ454、セグメント化されたラベル434、セグメント化された血清または血漿部分406SP、セグメント化されたゲルセパレータ452、およびセグメント化された沈降血液部分406SBのエリアおよび境界を含む。図4Bの画像は、セグメント化されたキャリア424をさらに含む。識別プロセスは、図4Aおよび4Bに示されるものよりも少ないまたは多い物体または画素クラスを識別することができる。
識別プロセスは、畳み込みニューラルネットワーク(CNN)などのニューラルネットワーク、および上述したコンピュータ136で実行される他のプログラムによって行われる。一例として、コンピュータ136で実行されるプログラムは、セグメント化されたキャップ440を構成する画素クラスをキャップ140(図2A~2B)として識別することがある。さらに、プログラムは、キャップ140の色および/または他の物理的特性、例えばキャップタイプおよび/またはキャップ寸法を識別することがある。いくつかの実施形態では、プログラムは、セグメント化されたラベル434をラベル134(図2A)として識別することがある。いくつかの実施形態では、プログラムは、ラベル134にある識別情報234iを読み取ることができる。いくつかの実施形態では、プログラムは、ラベル134の物理的状態を識別して、ラベル134が損傷されている、または解読不能かどうかを決定することができる。
いくつかの実施形態では、コンピュータ136で実行されるプログラムは、セグメント化された血清または血漿部分406SPを構成する画素クラスを血清または血漿部分206SP(図2Aおよび2B)として識別することができる。いくつかの実施形態では、コンピュータ136で実行されるプログラムは、セグメント化された血清または血漿部分406SPを構成する画素データをさらに処理して、血清または血漿部分206SPを分析し、血清または血漿部分206SPが溶血、黄疸、および/もしくは脂肪血症などの干渉物を含むか、または正常(N)であるかを決定することができる。コンピュータ136で実行されるプログラムは、存在する場合には、血清または血漿部分206SP中の溶血、黄疸、および/または脂肪血症の指数をさらに決定することがある。
コンピュータ136は、物体の識別に関する情報をユーザに出力することができる。例えば、コンピュータ136は、標本容器104がキャップ140を含むかどうか、キャップ140の色、およびキャップのタイプを示す情報をユーザに出力することがある。同様に、コンピュータ136は、血清または血漿部分206SP(図2Aおよび2B)が溶血、黄疸、および/または脂肪血症などの干渉物を含むかどうか、ならびに干渉物の分類を示す情報を出力することもある。いくつかの実施形態では、コンピュータ136は、ラベル134の状態に関連する情報を出力することがある。
コンピュータ136およびそこで実行されるプログラムによって行われる識別の信頼性を改善するために、コンピュータ136は信号を生成して、図3の機能ブロック368で述べるように標本容器104の画像をディスプレイ150に表示することができ、輪郭描出された位置が、標本容器104の選択された物体を成す。ディスプレイ150に表示される画像は、キャリア124を構成する輪郭描出された位置を含むこともある。いくつかの実施形態では、コンピュータ136は、標本容器104の画像の上に活性化マップをオーバーレイするように動作可能であり得る。そのような実施形態では、活性化マップ内の画素の色および/または明るさは、物体を識別するためにコンピュータ136によって使用される元の画素の重みまたは有用性に比例することがある。
さらに図5A、5B、5C、および5Dを参照する。図5A、5B、5C、および5Dは、ディスプレイ150(図1B)に表示される標本容器104の表現を示す。ディスプレイ150は、OLED、LED、LDC、プラズマ、CRTなどでよい。他の適切なディスプレイを使用することもできる。図5Aは、表示される標本容器504Aと、図4Aの第1のセグメント化された画像404Aのセグメント化された物体との実施形態を示す。図5Bは、表示される標本容器504Bと、図4Bの第2のセグメント化された画像404Bのセグメント化された物体との実施形態を示し、表示されるキャリア524を含む。図5Cは、コンピュータ136(図1)で実行されるプログラムが画像の正しい領域内の画素を使用してキャップ540(図1)を適切に識別した、表示される標本容器504の画像を含む表示される画像と、オーバーレイされた活性化マップとの実施形態を示す。図5Dは、コンピュータ136で実行されるプログラムが、キャップ140(図1)を識別することを試みたときに画像の正しい領域内の画素を使用しなかった、表示される標本容器504の画像を含む表示される画像と、オーバーレイされた活性化マップとの実施形態を示す。
図5Aの実施形態では、コンピュータ136(図1B)で実行されるプログラムは、表示されるキャップ540、表示されるエアギャップ554、表示されるラベル534、表示される血清または血漿部分506SP、表示されるゲルセパレータ552、および表示される沈降血液部分506SBを表示している。図5Bの実施形態では、コンピュータ136で実行されるプログラムは、表示されるキャリア524をさらに表示している。
上述した例では、コンピュータ136で実行されるプログラムは、キャップ140を識別し(図2A~2B)、場合により、キャップの色またはキャップのタイプなどキャップ140の特性に関する情報をユーザに提供することができる。図5Aの実施形態では、表示されるキャップ540は、クロスハッチングによって輪郭描出されている。表示される物体の異なる色、マーキング、陰影、および/または固定もしくは可変の強度など、他の輪郭描出を使用することもできる。ディスプレイ150において、輪郭描出されたキャップ540に隣接して「キャップ」などの名前が表示される。輪郭描出されたキャップ540は、標本容器104の画像内で、キャップ140を識別するために1つまたはそれ以上のニューラルネットワークによって使用された画素データがどこに位置していたかをユーザに示す。識別されて輪郭描出されている物体はキャップ140であるので、ユーザは、コンピュータ136で実行される1つまたはそれ以上のニューラルネットワークが、標本容器104の画像の正しい部分を正しく分析してセグメント化および/または分類したことを確信できる。識別された物体と表示される物体とが同じでない場合、ユーザは、コンピュータ136で実行されるニューラルネットワークが物体を適切に識別しなかったことを確信できる。例えば、コンピュータ136が物体を血清または血漿部分206SPとして識別したが、輪郭描出されたキャップ540を表示した場合、ユーザは、コンピュータ136で実行されるニューラルネットワークが血清または血漿部分206SPを適切に識別しなかったと確信することができる。
図5Bの表示される標本容器504Bは、血清または血漿部分206SPを表す輪郭描出された物体を含む。具体的には、コンピュータ136は、標本容器504Bの画像を表示することができ、画素の輪郭描出位置が、標本容器104の選択された物体を成す。この例では、選択された物体は、輪郭描出された血清または血漿部分206SPである。コンピュータ136で実行されるニューラルネットワークは、血清または血漿部分206SP内の画素データを分析して、血清または血漿部分206SPが溶血、黄疸、および/または脂肪血症を含むかどうか、ならびに干渉物の程度を決定することができる。表示される血清または血漿部分506SPにおいて血清または血漿部分206SPを輪郭描出することによって、ユーザは、干渉物の決定を行う際に、標本容器104の画像の正しい部分が分析されたと確信することができる。表示される標本容器504B内の別の物体が輪郭描出されている場合、ユーザは、干渉物分析が適切でないと確信する。血清または血漿部分206SPを輪郭描出することに加えて、溶血、黄疸、もしくは脂肪血症を含む、または正常であるという指定がディスプレイ150に表示される。場合により指数値が表示される。
図5Cの実施形態では、活性化画像のオーバーレイを伴う標本容器504の表示される画像が示され、活性化マップは破線によって識別される。図5Cの実施形態では、コンピュータ136(図1)で実行される1つまたはそれ以上のニューラルネットワークは、キャップ140(図1C)を識別した。活性化マップは、キャップの決定を行うために1つまたはそれ以上のニューラルネットワークによって使用される画素を示す。いくつかの実施形態では、活性化マップは、様々な画素の強度および/または画素の色を含み、画素の強度および/または色は、キャップの決定を行うために1つまたはそれ以上のニューラルネットワークによって使用される画素の有用性または重みに依存する。図5Cの実施形態では、活性化マップの一部であるエリア560は、キャップの決定を行うのに最も有用な画素を含むことがある。エリア560は、表示される画像内の他の画素とは異なる色および/または強度を有することがある。表示されるキャップ540を含む表示される画像を閲覧するユーザは、キャップの決定が行われたときにニューラルネットワークがキャップ140の画素またはキャップ140の領域内の画素を使用したことを知る。
ここで図5Dを参照する。図5Dは、コンピュータ136(図1)で実行される1つまたはそれ以上のニューラルネットワークが、キャップ140を識別することを試みたときに正しい画素を使用しなかった、表示される標本容器504の画像を含む表示される画像と、オーバーレイされた活性化マップとの実施形態を示す。図5Dの実施形態では、キャップの決定を行うために1つまたはそれ以上のニューラルネットワークによって使用される画素は2つのグループにある。第1のグループ568Aは、表示される標本容器504の画像境界の外側にあるアーティファクトであり、第2のグループ568Bは、表示されるエアギャップ554内にある。図5Dの表示される画像がユーザに提示されるとき、ユーザはキャップ識別に誤りがあることを確信することができる。例えば、キャップ140を表す画素がどれも、キャップの決定を行うために使用されなかった。
いくつかの実施形態では、1つまたはそれ以上の選択された物体は、信頼性勾配(またはレベル)として表示される。例えば、識別プロセスは、物体が識別されるときの投票または他の基準に基づく。信頼度を示すために、表示される物体に信頼性勾配が組み込まれる。例えば、コンピュータ136(図1B)で実行されるニューラルネットワークが、セグメント化されたキャップ440(図4A)がキャップ140(図2A~2B)であると80%の確実性で決定する場合、表示されるキャップ540は、この信頼性勾配を示す。例えば、表示されるキャップ540は、80%の信頼性勾配を示す隣接するテキストを含むことがある。他の実施形態では、色、ハッチング、および/または表示強度は、信頼性レベルを示すことがある。様々な物体は、順次に、または例えばユーザがドロップダウンメニューなどから選択することによって要求に応じて表示される。
いくつかの実施形態では、ディスプレイ150に表示される1つまたはそれ以上の画像は、標本容器104を少なくとも部分的に表す画像の上に1つまたはそれ以上の物体を表す画像をオーバーレイすることを含む。そのような実施形態では、物体の位置は、標本容器104の最良のビューを少なくとも部分的に表す画像に対する物体それぞれの画素の位置にある。例えば、最良のビューは、血清または血漿部分206SPの最も露出されたエリアを含むことがある。
1つまたはそれ以上の実施形態によるセグメント化方法660の単純な装置および機能流れ図が図6に示されている。本明細書で述べるセグメント化方法660は、ニューラルネットワークおよび上述した他のアルゴリズムなど、コンピュータ136(図1B)で実行されるプログラムによって行われる。工程662で、標本容器104の複数の画像(図2Aおよび2B)が、画像取込みデバイス142A~142Cによって取り込まれる。複数の画像は、上述したように、複数の異なる露光で、および複数の異なる波長スペクトルで、複数の視点1~3から取り込まれた多重スペクトル画像でよい。複数の画像のデジタル画像データは、コンピュータ136(図1B)のメモリに記憶される。この画像データから、コンピュータ136で実行される工程664でのバックグラウンド低減フェーズにおいて、場合によりバックグラウンドを差し引いて、コンピュータ136の計算負荷を低減することができる。バックグラウンドは、標本容器104に関連する部分以外の画像データの部分でよい。バックグラウンド低減は、標本容器104なしで工程666で以前に取り込まれた参照画像を差し引くことによって、または他の適切なバックグラウンド除去方法によって達成される。
画像取込み、および工程664での任意選択のバックグラウンド低減の後、工程668でコンピュータ136によってセグメント化が行われる。工程668でのセグメント化は、工程670で行われる画像統合プロセスを含むことがある。工程670での画像統合プロセス中、各色スペクトル(R、G、B、白色光、NIR、および/またはIR)での、各画像取込みデバイス142A~142Cに関する様々な露光時間の画像を画素ごとに検討して、最適に露光されている画素を決定することができる。対応する画素位置ごとに、任意の最適に露光された画素の最良のものが選択され、最適露光画像データセットに含まれる。したがって、工程670での画像統合後、各スペクトルおよび各画像取込みデバイス142A~142Cに関して、1つの最適露光画像データセットが生成される。
工程670での画像統合後、または場合によってはそれと同時に、工程672で統計生成プロセスが行われ、平均および/または共分散行列などの統計値が各画素について生成される。次いで、最適露光データセットに関するこの統計データは、マルチクラス分類器674によって操作されて、工程676で、画像に存在する画素クラスの識別を可能にする。各画素に関する最終的なクラスは、各画素に関する信頼値を最大化することによって決定される。画素位置ごとに、画素内で統計的記述が抽出される(例えば、小さなスーパー画素パッチ(例えば11×11画素))。各スーパー画素パッチは、訓練および評価プロセスで考慮される記述子を提供することがある。分類器は、特徴記述子を操作し、訓練にクラスラベルを使用し、試験/評価中にクラスラベルを出力することがある。
工程668のセグメント化プロセスから、各画像取込みデバイス142A~142Cに関する統合された画像内の各画素は、工程676において、複数のクラスタイプのうちの1つとして分類される。クラスタイプは、例えば、液体(血清または血漿部分106SP)、沈降血液部分106SB、管138、ラベル134、キャップ140、ゲルセパレータ252、エアギャップ254Aでよい。このセグメント化情報から、工程678で、上述したクラスに関連する物体が識別される。これは、同じ分類のすべての画素(または画素パッチ)をまとめて収集することによって行われる。工程679で、選択された物体をディスプレイ150に表示することができる。例えば、選択された物体は、ユーザ選択によって、または所定のもしくは選択されたシーケンスなどのシーケンスで物体を表示することによって表示することができる。例えば、輪郭描出された物体は、以下の順に表示することができる:輪郭描出されたキャップ540、輪郭描出されたラベル534、輪郭描出された血清または血漿部分506SP、輪郭描出されたゲルセパレータ552、輪郭描出された沈降血液部分506SB、輪郭描出されたエアギャップ554、もしくは輪郭描出されたキャリア524、または任意の他の適切な順序もしくはそのサブセット。
図7は、品質チェックモジュール102(図1A)を使用するより広範な特性評価方法700によって多くの要素が特徴評価または分類される特性評価方法700の流れ図を示す。特性評価方法700の1つまたはそれ以上の実施形態によれば、工程704で、例えば複数の画像取込みデバイス142A~142Cによって画像が取り込まれる。画像取込みデバイス142A~142Cによって取り込まれた画像は、上で論じたように、多重スペクトル(例えば、RGB、W、NIR、IR)および多重露光画像でよい。特に、工程704で使用される光波長スペクトルごとに、複数の露光(例えば4~8回の露光)が取り込まれる。各画像取込みデバイス142A~142Cに関する各露光でのそれぞれの画像は、例えば図1B~1Cで述べるように、複数の画像取込みデバイス142A~142Cおよびバックライト光源152A~152Cを使用して順次に取得される。次いで、場合により、工程664で、図6の任意選択のバックグラウンド除去方法で上述したのと同様に、参照画像666を使用してバックグラウンドを除去するために画像が処理される。次いで、工程668で、画像がさらに処理されて、図6で上述した様式で、または任意の他の適切なセグメント化方法によってセグメント化を決定することができる。
工程668でのセグメント化後、標本106(図2Aおよび2B)および標本容器104の異なる物体および特性が識別され、ユーザに提示される。例えば、ユーザに提示される画像は、オーバーレイされた活性化マップを伴う標本容器104の画像を含むことがある。上述したように、ディスプレイ150は、上述した決定および/または識別を行うために1つまたはそれ以上のニューラルネットワークによって使用された画素が位置する標本容器104での位置を識別することができる。工程710で、HILN(溶血、黄疸、脂肪血症、および/または正常)分類の識別が行われる。例えば、コンピュータ136は、セグメント化された血清または血漿部分406SPを分析し、それに応じて血清または血漿部分206SP(図2Aおよび2B)を特性評価することができる。特性評価および/または特性評価に使用された画素の位置は、ディスプレイ150に表示される。
工程668でのセグメント化に続いて、工程712で液体の定量が行われる。工程712での液体の定量は、血清または血漿部分206SP(図2A~2B)の物理的位置、ならびにLA、HG、GU、GL、HSP、HSB、HTOT、および/またはHTに関する位置および値など、標本106(図2A~2B)のいくつかの物理的および/または寸法的特性の決定を含むことがある。これらの値、体積推定値、および/または位置のうちの1つまたはそれ以上が、上述したように特性の値および/または位置を決定するために1つまたはそれ以上のニューラルネットワークによって使用された画素の位置を示す位置と共にディスプレイ150に表示される。ゲルセパレータ252(図2A~2B)およびエアギャップ254(図2A~2B)など、標本106内の他の物体も特性評価される。
工程668でのセグメント化の結果は、工程714で、ラベル134およびラベル134の位置(図2A~2B)を識別するために使用することもできる。識別されると、ラベル134を読み取ることができる。例えば、ラベル134は、バーコードなどの識別情報234i(図2A~2B)を含むことがあり、識別情報234iは、工程714で、画像データを読み取るためのソフトウェアとして具現化されたバーコードリーダによって読み取られる。ラベル134の物理的状態を含むラベル情報は、ユーザおよびデータベースに伝送される。ディスプレイ150は、上述したように、ラベル134を分析するために1つまたはそれ以上のニューラルネットワークによって使用された画素の位置を表示することがある。
工程716で、キャップ140(図2A~2B)の特性評価が行われる。キャップ140の特性評価は、管138(図2A~2B)がキャップを有するかどうかを決定すること、およびキャップを有する場合には、キャップ140のキャップタイプおよび/または色を決定することを含む。キャップ140のキャップタイプおよび色を含むキャップ情報は、ユーザに表示される。ディスプレイ150は、上述したように、キャップ140を分析するために使用される輪郭描出された画素の位置を表示することがある。例えば、活性化マップは、キャップ140を識別するために使用された画素をユーザに示すために、標本容器104を含む画像にオーバーレイされる。
ここでさらに図8を参照する。図8は、標本容器(例えば標本容器104)内の標本(例えば標本106)を特性評価する方法800を述べる流れ図を示す。方法800は、工程802で、標本容器の1つまたはそれ以上の画像を取り込む工程を含み、1つまたはそれ以上の画像は、標本容器および標本の1つまたはそれ以上の物体を含み、1つまたはそれ以上の画像内の複数の画素から画素データが生成される。この方法は、工程804で、1つまたはそれ以上のニューラルネットワークを使用して、1つまたはそれ以上の物体のうちの1つまたはそれ以上の選択された物体を識別する工程を含む。この方法は、工程806で、標本容器の画像を表示する工程を含む。この方法は、工程808で、標本容器の画像上に、1つまたはそれ以上の選択された物体を識別するために1つまたはそれ以上のニューラルネットワークによって使用された画素の1つまたはそれ以上の位置を表示する工程を含む。
特定の実施形態を参照して本開示を本明細書で述べるが、本開示は、記載される詳細に限定されることを意図されてはいない。本開示から逸脱することなく、本開示の等価形態の範囲内で、細部に様々な修正を施すことができる。

Claims (21)

  1. 標本容器の物体を識別する方法であって:
    標本容器の1つまたはそれ以上の画像を取り込む工程であって、1つまたはそれ以上の画像は、標本容器の1つまたはそれ以上の物体を含み、複数の画素から画素データが生成される、工程と;
    1つまたはそれ以上のニューラルネットワークを使用して、1つまたはそれ以上の物体から1つまたはそれ以上の選択された物体を識別する工程と;
    標本容器の画像を表示する工程と;
    標本容器の表示された画像上に、1つまたはそれ以上の選択された物体を識別するために1つまたはそれ以上のニューラルネットワークによって使用された画素の1つまたはそれ以上の位置を輪郭抽出する工程と
    を含む前記方法。
  2. 1つまたはそれ以上の選択された物体は、キャップ、エアギャップ、血清または血漿部分、沈降血液部分、およびゲルセパレータのうちの少なくとも1つである、請求項1に記載の方法。
  3. 1つまたはそれ以上の選択された物体を識別する工程は、セグメント化ネットワークおよび分類ネットワークのうちの少なくとも1つによって少なくとも部分的に行われる、請求項1に記載の方法。
  4. 1つまたはそれ以上の画像を複数の画素クラスにセグメント化する工程をさらに含み、表示する工程は、標本容器に対して1つまたはそれ以上の画素クラスを構成する1つまたはそれ以上の画素の1つまたはそれ以上の位置を示す画像を表示することを含む、請求項1に記載の方法。
  5. 表示する工程は、標本容器を少なくとも部分的に表す画像を表示することを含む、請求項1に記載の方法。
  6. 輪郭抽出は、標本容器を少なくとも部分的に表す画像の上に、1つまたはそれ以上の物体を表す1つまたはそれ以上の画像をオーバーレイすることを含み、1つまたはそれ以上の物体の位置は、標本容器を少なくとも部分的に表す画像に対する物体それぞれの画素の位置にある、請求項5に記載の方法。
  7. 1つまたはそれ以上の物体から1つまたはそれ以上の選択された物体を識別する工程は、キャップを識別することを含む、請求項1に記載の方法。
  8. キャップの色を識別する工程をさらに含む、請求項7に記載の方法。
  9. 1つまたはそれ以上の物体から1つまたはそれ以上の選択された物体を識別する工程は、ラベルを識別することを含む、請求項1に記載の方法。
  10. ラベルを読み取る工程をさらに含む、請求項9に記載の方法。
  11. ラベルの物理的状態を識別する工程をさらに含む、請求項9に記載の方法。
  12. 1つまたはそれ以上の物体から1つまたはそれ以上の選択された物体を識別する工程は、血清または血漿部分を識別することを含む、請求項1に記載の方法。
  13. 血清または血漿領域内の干渉物を同定する工程をさらに含む、請求項12に記載の方法。
  14. 血清または血漿領域中の溶血、黄疸、または脂肪血症のうちの少なくとも1つを同定する工程をさらに含む、請求項12に記載の方法。
  15. 1つまたはそれ以上の選択された物体を識別する工程は、1つまたはそれ以上の選択された物体を識別するために1つまたはそれ以上のニューラルネットワークによって使用された1つまたはそれ以上の画素に信頼性勾配を割り当てることを含み、
    1つまたはそれ以上の選択された物体を識別するために1つまたはそれ以上のニューラルネットワークによって使用された画素の1つまたはそれ以上の位置の輪郭抽出は、標本容器の画像上に、1つまたはそれ以上の選択された物体を識別するために1つまたはそれ以上のニューラルネットワークによって使用された1つまたはそれ以上の画素の信頼性勾配を示す1つまたはそれ以上の画像を表示することを含む、
    請求項1に記載の方法。
  16. 活性化マップを生成し、輪郭抽出は、標本容器の画像上に活性化マップをオーバーレイする工程を含む、請求項1に記載の方法。
  17. 品質チェックモジュールであって:
    1つまたはそれ以上の視点から標本容器の1つまたはそれ以上の画像を取り込むように動作可能な1つまたはそれ以上の画像取込みデバイスであって、1つまたはそれ以上の画像を取り込むことにより、複数の画素から画素データが生成される、1つまたはそれ以上の画像取込みデバイスと;
    1つまたはそれ以上の画像取込みデバイスに連結されたコンピュータとを含み、該コンピュータは:
    1つまたはそれ以上のニューラルネットワークを使用して、標本容器の1つまたはそれ以上の物体から1つまたはそれ以上の選択された物体を識別する工程と;
    標本容器の画像を表示する工程と;
    標本容器の表示された画像上に、1つまたはそれ以上の選択された物体を識別するた
    めに1つまたはそれ以上のニューラルネットワークによって使用された画素の1つまたはそれ以上の位置を輪郭抽出する工程と
    を行うように構成され動作可能である、前記品質チェックモジュール。
  18. 1つまたはそれ以上の選択された物体は、キャップ、エアギャップ、血清または血漿部分、沈降血液部分、およびゲルセパレータのうちの少なくとも1つである、請求項17に記載の品質チェックモジュール。
  19. コンピュータは、活性化マップを生成するように動作可能である、請求項17に記載の品質チェックモジュール。
  20. コンピュータは、標本容器の画像の上に活性化マップをオーバーレイして、1つまたはそれ以上の選択された物体を識別するために1つまたはそれ以上のニューラルネットワークによって使用された画素の1つまたはそれ以上の位置を輪郭抽出するように動作可能である、請求項19に記載の品質チェックモジュール。
  21. 標本試験装置であって:
    トラックと;
    トラック上で可動であり、標本の血清または血漿部分を含む標本容器を含むように構成されたキャリアと;
    トラックの周囲に配置されて、1つまたはそれ以上の視点から標本容器および標本の血清または血漿部分の1つまたはそれ以上の画像を取り込むように動作可能である複数の画像取込みデバイスであって、画像を取り込むことにより、複数の画素から画素データが生成される、複数の画像取込みデバイスと;
    複数の画像取込みデバイスに連結されたコンピュータとを含み、該コンピュータは:
    1つまたはそれ以上のニューラルネットワークを使用して、標本容器の1つまたはそれ以上の物体から1つまたはそれ以上の選択された物体を識別する工程と;
    標本容器の画像を表示する工程と;
    標本容器の表示された画像上に、1つまたはそれ以上の選択された物体を識別するために1つまたはそれ以上のニューラルネットワークによって使用された画素の1つまたはそれ以上の位置を輪郭抽出する工程と
    を行うように構成され動作可能である、前記標本試験装置。
JP2021515516A 2018-09-20 2019-09-19 視覚化分析装置および視覚的学習方法 Active JP7177917B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862733972P 2018-09-20 2018-09-20
US62/733,972 2018-09-20
PCT/US2019/052011 WO2020061368A1 (en) 2018-09-20 2019-09-19 Visualization analysis apparatus and visual learning methods

Publications (2)

Publication Number Publication Date
JP2022501596A JP2022501596A (ja) 2022-01-06
JP7177917B2 true JP7177917B2 (ja) 2022-11-24

Family

ID=69887855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021515516A Active JP7177917B2 (ja) 2018-09-20 2019-09-19 視覚化分析装置および視覚的学習方法

Country Status (5)

Country Link
US (1) US20210341504A1 (ja)
EP (1) EP3853583A4 (ja)
JP (1) JP7177917B2 (ja)
CN (1) CN112673248A (ja)
WO (1) WO2020061368A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023146550A (ja) * 2022-03-29 2023-10-12 株式会社日立ハイテク 検査体読取装置および検査体読取方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017199388A (ja) 2012-01-23 2017-11-02 パーセプティメッド インコーポレイテッドPerceptimed, Inc. 自動化された医薬品錠剤の識別
WO2018022280A1 (en) 2016-07-25 2018-02-01 Siemens Healthcare Diagnostics Inc. Systems, methods and apparatus for identifying a specimen container cap

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2006261953B2 (en) * 2005-06-24 2012-02-23 Board Of Regents, The University Of Texas System Systems and methods including self-contained cartridges with detection systems and fluid delivery systems
SE530748C2 (sv) * 2006-07-19 2008-09-02 Hemocue Ab Bestämning av antalet vita blodkroppar
US8170271B2 (en) * 2008-06-25 2012-05-01 Jadak Llc System and method for test tube and cap identification
EP2943761B1 (en) * 2013-01-10 2023-11-29 Akoya Biosciences, Inc. Multispectral imaging system and methods
CA2976769C (en) * 2015-02-17 2023-06-13 Siemens Healthcare Diagnostics Inc. Model-based methods and apparatus for classifying an interferent in specimens
CN108770364A (zh) * 2016-01-28 2018-11-06 西门子医疗保健诊断公司 用于使用多个曝光来对样品容器和/或样品进行成像的方法和装置
JP6686779B2 (ja) * 2016-08-05 2020-04-22 株式会社島津製作所 測定方法、測定プログラム及びその測定プログラムを備えた測定システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017199388A (ja) 2012-01-23 2017-11-02 パーセプティメッド インコーポレイテッドPerceptimed, Inc. 自動化された医薬品錠剤の識別
WO2018022280A1 (en) 2016-07-25 2018-02-01 Siemens Healthcare Diagnostics Inc. Systems, methods and apparatus for identifying a specimen container cap

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Interpretable Explanations of Black Boxes by Meaningful Perturbation,2017 IEEE International Conference on Computer Vision,2017年,pp.3449-3457
Learning Deep Features for Discriminative Localization,2016 IEEE Conference on Computer Vision and Pattern Recognition,2016年,pp.2921-2929

Also Published As

Publication number Publication date
WO2020061368A1 (en) 2020-03-26
JP2022501596A (ja) 2022-01-06
EP3853583A1 (en) 2021-07-28
EP3853583A4 (en) 2021-11-24
US20210341504A1 (en) 2021-11-04
CN112673248A (zh) 2021-04-16

Similar Documents

Publication Publication Date Title
US11238318B2 (en) Methods and apparatus for HILN characterization using convolutional neural network
US11313869B2 (en) Methods and apparatus for determining label count during specimen characterization
JP7324757B2 (ja) 訓練が低減されたニューラルネットワークを使用したバイオ流体検体の特徴付けのための方法および装置
JP2019537011A (ja) 試料の溶血、黄疸、脂肪血症、又は正常性を検出する方法、装置及び品質チェックモジュール
US11927736B2 (en) Methods and apparatus for fine-grained HIL index determination with advanced semantic segmentation and adversarial training
US11763461B2 (en) Specimen container characterization using a single deep neural network in an end-to-end training fashion
US11852642B2 (en) Methods and apparatus for HILN determination with a deep adaptation network for both serum and plasma samples
JP7203206B2 (ja) 標本分類のための仮説および検証ネットワークおよび方法
JP7177917B2 (ja) 視覚化分析装置および視覚的学習方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221111

R150 Certificate of patent or registration of utility model

Ref document number: 7177917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150