JP7072067B2 - 胚の生存率を推定するためのシステムおよび方法 - Google Patents

胚の生存率を推定するためのシステムおよび方法 Download PDF

Info

Publication number
JP7072067B2
JP7072067B2 JP2020532565A JP2020532565A JP7072067B2 JP 7072067 B2 JP7072067 B2 JP 7072067B2 JP 2020532565 A JP2020532565 A JP 2020532565A JP 2020532565 A JP2020532565 A JP 2020532565A JP 7072067 B2 JP7072067 B2 JP 7072067B2
Authority
JP
Japan
Prior art keywords
embryo
video data
human
viable
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020532565A
Other languages
English (en)
Other versions
JP2021507367A (ja
Inventor
ダング-ディン-アング トラン,
Original Assignee
ヴィトロライフ アー/エス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2017905017A external-priority patent/AU2017905017A0/en
Application filed by ヴィトロライフ アー/エス filed Critical ヴィトロライフ アー/エス
Publication of JP2021507367A publication Critical patent/JP2021507367A/ja
Application granted granted Critical
Publication of JP7072067B2 publication Critical patent/JP7072067B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/42Gynaecological or obstetrical instruments or methods
    • A61B17/425Gynaecological or obstetrical instruments or methods for reproduction or fertilisation
    • A61B17/435Gynaecological or obstetrical instruments or methods for reproduction or fertilisation for embryo or ova transplantation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/43Detecting, measuring or recording for evaluating the reproductive systems
    • A61B5/4306Detecting, measuring or recording for evaluating the reproductive systems for evaluating the female reproductive systems, e.g. gynaecological evaluations
    • A61B5/4343Pregnancy and labour monitoring, e.g. for labour onset detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/43Detecting, measuring or recording for evaluating the reproductive systems
    • A61B5/4306Detecting, measuring or recording for evaluating the reproductive systems for evaluating the female reproductive systems, e.g. gynaecological evaluations
    • A61B5/4343Pregnancy and labour monitoring, e.g. for labour onset detection
    • A61B5/4362Assessing foetal parameters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61DVETERINARY INSTRUMENTS, IMPLEMENTS, TOOLS, OR METHODS
    • A61D19/00Instruments or methods for reproduction or fertilisation
    • A61D19/04Instruments or methods for reproduction or fertilisation for embryo transplantation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30044Fetus; Embryo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Evolutionary Computation (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Databases & Information Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Reproductive Health (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Gynecology & Obstetrics (AREA)
  • Pregnancy & Childbirth (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Transplantation (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Pediatric Medicine (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)

Description

(関連出願)
これは、2017年12月15日に出願され、「Systems and methods for determining embryo viability」と題された、豪州仮特許出願第2017905017号、および2018年5月18日に出願され、「Systems and methods for estimating embryo viability」と題された、第2018901754号に関連する出願である。これらの関連出願は、参照することによって本明細書に組み込まれ、本願の一部を成す。
本開示は、ヒトの胚の生存率を推定するためのシステムおよび方法に関する。
体外受精(IVF)は、女性の卵子が体外で受精される、プロセス/技法を指す。IVFは、典型的には、女性に排卵誘発剤を投与し、通常周期における単一の卵胞とは対照的に、複数の卵胞の成熟を刺激するステップを伴う。これらの卵子は、次いで、外科手術的に回収され、それらが男性パートナーの精子または提供された精子と受精される、作業所に移送される。受精された卵子は、次いで、専門的な培養環境、典型的には、インキュベータの中で胚として成熟することを可能にされる。本時間の間、発達中の胚の顕微鏡画像が、インキュベータ(Embryoscope(R)インキュベータ等)内の撮像技術を使用して取得され、発達中の胚の継続的な低速度撮影ビデオを生産することができる。
従来から、複数の胚が、女性の子宮に着床され、全体的な成功率を向上させている。本アプローチの欠点は、多胎妊娠の確率の増加であり、これは、出産前合併症のより高いリスクと関連付けられる。結果として、IVFの改良の1つの目標は、妊娠毎に単一の胚移植を実施することが可能になることである。用語「移植」は、胚が妊娠を確立させる目的で女性の子宮の中に設置される、生殖補助医療のプロセスにおけるステップを指す。
これを達成するために、最も高い妊娠潜在性に従って、複数の発達した胚から単一の胚を選択することが可能でなければならない。本選択プロセスは、現在、その外観および重要な発達チェックポイントのタイミングに基づいて、各胚を手動でグレード付けする、胚培養士(embryologist)によって実施されている。
現在、各胚の質は、いくつかのグレード付けスキームを使用して決定されている。これらのスキームは、各胚の画像または低速度撮影ビデオの手動の注釈付けを伴う。これらのグレード付けシステムにおいて考慮される特徴は、胚の形態学的外観および重要な発達チェックポイントの精密なタイミングを含む。現在、全ての解決策は、胚培養士のためのワークフローツールのみである。それらは、各胚に注釈付けを行う胚培養士の主観的判断に完全に依存する。いくつかの一般的に使用されるグレード付けシステムは、Gardner胚盤胞グレード付けシステム(https://www.advancedfertility.com/blastocystimages.htm)およびKIDScore(http://www.vitrolife.com/sv/Products/EmbryoScope-Time-Lapse-System/KIDScore-decision-support-tool-/)である。
しかしながら、選択プロセスは、不正確な科学であり、各胚培養士に応じて非常に変動し易い。胚培養士は、ある発達チェックポイントの厳密なタイミング、および対称性、サイズ、および均一性に関して主観的な判断を行うように要求されている。これは、オペレータの経験および個人的意見に非常に左右される。これは、胚培養士が、多くの場合、どの胚が、移植のための最も高い可能性を有するかに関して、他の胚培養士、またはさらに(同一の胚を再び示されるとき)自己に対しても意見が合わないことを意味する。したがって、胚培養士間に、不十分な再現性および高い読取者間および読取者内変動性が存在する。各低速度撮影ビデオに標識することは、時間がかかり、かつ多くの労力を要するプロセスである。手動の胚グレード付けは、典型的には、患者あたり最大1時間を要求する。どの特徴または特徴の組み合わせが、各胚の妊娠の可能性に対して最終的に予測的であるかは不明瞭である。現行のグレード付け方法は、典型的には、独立してより高い妊娠率に至ることが示されている、2~4つの隔離された時間枠のみを分析する。さらに、Embryoscope(R)のような現行のシステムは、複数の注釈付け/分析パラメータの変動しやすい選択/選択解除を可能にし、これは、これらの側面が相互作用する様子の分析を妨げ得る。
先行技術と関連付けられる、1つ以上の欠点または限界に対処する、またはそれを改善する、または少なくとも有用な代替物を提供することが、所望される。
本明細書に提供されるものは、コンピュータ実装方法であって、
ヒトの胚のビデオデータを受信するステップであって、ビデオデータは、ヒトの胚の時系列の画像のシーケンスを表す、ステップと、
ビデオデータに少なくとも1つの3次元(3D)人工ニューラルネットワーク(ANN)を適用し、ヒトの胚に関する生存率スコアを決定するステップであって、生存率スコアは、ヒトの胚が、生存可能な胚または生存可能な胎児に至るであろう尤度を表す、ステップと、
生存率スコアを出力するステップと、
を含む、方法である。
本明細書に提供されるものは、システムであって、
少なくとも1つのプロセッサであって、
ヒトの胚のビデオデータを受信することであって、ビデオデータは、ヒトの胚の時系列の画像のシーケンスを含む、ことと、
ビデオデータに少なくとも1つの3次元(3D)人工ニューラルネットワークを適用し、ヒトの胚に関する生存率スコアを決定することであって、該生存率スコアは、ヒトの胚が、生存可能な胚または生存可能な胎児に至るであろう尤度を表すことと、
生存率スコアを出力することと
を行うように構成される、少なくとも1つのプロセッサ
を含む、システムである。
本明細書に提供されるものは、方法であって、
人工ニューラルネットワーク(ANN)を用いてヒトの胚のビデオを表すデータを確率的に分類することによって、ヒトの胚に関する生存率スコアを生成するステップ、または
人工ニューラルネットワーク(ANN)を訓練し、ヒトの胚のビデオを表すデータを確率的に分類し、ヒトの胚に関する生存率スコアを生成するステップ、
を含む、方法である。
本明細書に提供されるものは、システムであって、
少なくとも1つのプロセッサであって、
人工ニューラルネットワーク(ANN)を用いてヒトの胚のビデオを表すデータを確率的に分類することによって、ヒトの胚に関する生存率スコアを生成すること、または
人工ニューラルネットワーク(ANN)を訓練し、ヒトの胚のビデオを表すデータを確率的に分類し、ヒトの胚に関する生存率スコアを生成すること
を行うように構成される、少なくとも1つのプロセッサ
を含む、システムである。
本発明は、例えば、以下の項目を提供する。
(項目1)
コンピュータ実装方法であって、
ヒトの胚のビデオデータを受信するステップであって、前記ビデオデータは、前記ヒトの胚の時系列の画像のシーケンスを表す、ステップと、
前記ビデオデータに少なくとも1つの3次元(3D)人工ニューラルネットワーク(ANN)を適用し、前記ヒトの胚に関する生存率スコアを決定するステップであって、前記生存率スコアは、前記ヒトの胚が生存可能な胚または生存可能な胎児に至るであろう尤度を表す、ステップと、
前記生存率スコアを出力するステップと
を含む、方法。
(項目2)
前記3D人工ニューラルネットワークは、3D畳み込みニューラルネットワーク(CNN)を含む、項目1に記載の方法。
(項目3)
前記生存率スコアは、前記ヒトの胚を移植することが、生存可能な胎児に至るであろう確率を表す、項目1または2に記載の方法。
(項目4)
前記生存率スコアは、前記ヒトの胚を移植することが、
胚移植後の所定の期間内に検出される生存可能な胎児の心臓と、
尿検査または血液検査に基づいて検出される生化学的妊娠と、
胚移植後の所定の時間において超音波上で検出される生存可能な胎嚢または生存可能な卵黄嚢と、
妊娠の終了時の出生と
のうちのいずれか1つ以上のものに至るであろう確率を表す、項目1に記載の方法。
(項目5)
前記3D ANNは、
複数のヒトの胚の複数の画像のシーケンスを表すビデオデータと、
前記複数のヒトの胚のそれぞれが生存可能な胚または生存可能な胎児に至ったかどうかを示す妊娠転帰データと
を使用することによって訓練される、前述の項目のいずれか1項に記載の方法。
(項目6)
前記3D ANNの訓練は、特徴の手動の選択または抽出、または重要な発達事象の人間による注釈付けを伴わずに実施される、項目5に記載の方法。
(項目7)
前記3D CNNは、それぞれが3D畳み込みカーネルを使用する複数の畳み込み層と、それぞれが3Dプーリングカーネルを使用する複数のプーリング層とを含む、項目2に記載の方法。
(項目8)
全てのビデオが、所定の期間にわたるように、前記受信されたビデオデータを標準化するステップと、
前記ビデオデータをトリミングし、前記デ-タの所定の面積を保持するステップと、
前記ビデオデータ内の前記画像のコントラストを調節するステップと、
前記ビデオデータ内の前記画像を、所定の画像サイズにサイズ変更するステップと
のうちの1つ以上のものをさらに含む、前述の項目のいずれか1項に記載の方法。
(項目9)
前記ビデオデータの少なくともいくつかの画像に視覚オーバーレイを追加することによって、前記ビデオデータを処理するステップであって、前記視覚オーバーレイは、前記生存率スコアへの前記画像の個別の部分の寄与を示す、ステップと、
前記視覚オーバーレイを伴う前記画像を出力するステップと
をさらに含む、前述の項目のいずれか1項に記載の方法。
(項目10)
前記視覚オーバーレイは、ヒートマップである、項目9に記載の方法。
(項目11)
前記視覚オーバーレイは、
前記ビデオデータ内の前記画像または画像のシーケンスの一部を閉塞させることによって引き起こされる前記生存率スコア出力の変化を決定すること
によって生成される、項目9または10に記載の方法。
(項目12)
前記ビデオデータ内の前記画像の一部を閉塞させるステップは、前記ビデオデータに3次元閉塞ウィンドウを適用するステップを含む、項目11に記載の方法。
(項目13)
複数のヒトの胚の等級付けを、それらの生存率スコアに基づいて決定するステップをさらに含む、前述の項目のいずれか1項に記載の方法。
(項目14)
前記等級付けに基づいて、単一胚移植のための前記複数のヒトの胚のうちの1つまたは複数の胚が移植されるべき順序を選択するステップをさらに含む、項目13に記載の方法。
(項目15)
システムであって、
少なくとも1つのプロセッサであって、
ヒトの胚のビデオデータを受信することであって、前記ビデオデータは、前記ヒトの胚の時系列の画像のシーケンスを含む、ことと、
前記ビデオデータに少なくとも1つの3次元(3D)人工ニューラルネットワークを適用し、前記ヒトの胚に関する生存率スコアを決定することであって、前記生存率スコアは、前記ヒトの胚が生存可能な胚または生存可能な胎児に至るであろう尤度を表す、ことと、
前記生存率スコアを出力することと
を行うように構成される、少なくとも1つのプロセッサ
を含む、システム。
(項目16)
前記3D人工ニューラルネットワークは、3D畳み込みニューラルネットワーク(CNN)を含む、項目15に記載のシステム。
(項目17)
前記生存率スコアは、前記ヒトの胚を移植することが、生存可能な胎児に至るであろう確率を表す、項目15または16に記載のシステム。
(項目18)
前記生存率スコアは、前記ヒトの胚を移植することが、
胚移植後の所定の期間内に検出される生存可能な胎児の心臓と、
尿検査または血液検査に基づいて検出される生化学的妊娠と、
胚移植後の所定の時間において超音波上で検出される生存可能な胎嚢または生存可能な卵黄嚢と、
妊娠の終了時の出生と
のうちのいずれか1つ以上のものに至るであろう確率を表す、項目15に記載のシステム。
(項目19)
前記3D ANNは、
複数のヒトの胚の複数の画像のシーケンスを表すビデオデータと、
前記複数のヒトの胚のそれぞれが生存可能な胚または生存可能な胎児に至ったかどうかを示す妊娠転帰データと
を使用することによって訓練される、項目15-18のいずれか1項に記載のシステム。
(項目20)
前記3D ANNの訓練は、特徴の手動の選択または抽出、または重要な発達事象の人間による注釈付けを伴わずに実施される、項目19に記載のシステム。
(項目21)
前記3D CNNは、それぞれが3D畳み込みカーネルを使用する複数の畳み込み層と、それぞれが3Dプーリングカーネルを使用する複数のプーリング層とを含む、項目16に記載のシステム。
(項目22)
前記少なくとも1つのプロセッサはさらに、
全てのビデオが、所定の期間にわたるように、前記受信されたビデオデータを標準化するステップと、
前記ビデオデータをトリミングし、前記デ-タの所定の面積を保持するステップと、
前記ビデオデータ内の前記画像のコントラストを調節するステップと、
前記ビデオデータ内の前記画像を、所定の画像サイズにサイズ変更するステップと
のうちの1つ以上のものを実行するように構成される、項目15-21のいずれか1項に記載のシステム。
(項目23)
前記少なくとも1つのプロセッサはさらに、
前記ビデオデータの少なくともいくつかの画像に、視覚オーバーレイを追加することによって、前記ビデオデータを処理することであって、前記視覚オーバーレイは、前記生存率スコアへの前記画像の個別の部分の寄与を示す、ことと、
前記視覚オーバーレイを伴う前記画像を出力することと
を行うように構成される、項目15-22のいずれか1項に記載のシステム。
(項目24)
前記視覚オーバーレイは、ヒートマップである、項目15-23のいずれか1項に記載のシステム。
(項目25)
前記視覚オーバーレイは、
前記ビデオデータ内の前記画像または画像のシーケンスの一部を閉塞させることによって引き起こされる前記生存率スコア出力の変化を決定すること
によって生成される、項目23または24に記載のシステム。
(項目26)
前記ビデオデータ内の前記画像の一部を閉塞させるステップは、前記ビデオデータに3次元閉塞ウィンドウを適用するステップを含む、項目25に記載のシステム。
(項目27)
前記少なくとも1つのプロセッサはさらに、
複数のヒトの胚の等級付けを、それらの生存率スコアに基づいて決定する
ように構成される、項目15-26のいずれか1項に記載のシステム。
(項目28)
前記少なくとも1つのプロセッサはさらに、
前記等級付けに基づいて、単一胚移植のための前記複数のヒトの胚のうちの1つを選択する
ように構成される、項目27に記載のシステム。
(項目29)
前記システムは、
前記ヒトの胚のビデオデータを捕捉するための画像センサ
を含み、
前記プロセッサは、前記画像センサから前記捕捉されたビデオデータを受信するように構成される、項目15から28のいずれか1項に記載のシステム。
(項目30)
前記システムは、低速度撮影インキュベータを含む、項目15から29のいずれか1項に記載のシステム。
(項目31)
方法であって、
人工ニューラルネットワーク(ANN)を用いてヒトの胚のビデオを表すデータを確率的に分類することによって、ヒトの胚に関する生存率スコアを生成するステップ、または
人工ニューラルネットワーク(ANN)を訓練し、ヒトの胚のビデオを表すデータを確率的に分類し、前記ヒトの胚に関する生存率スコアを生成するステップ
を含む、方法。
(項目32)
前記生存率スコアは、前記ヒトの胚が生存可能な胚または生存可能な胎児に至るであろう尤度を表す、項目31に記載の方法。
(項目33)
前記ビデオは、随意に予め選択された期間にわたるインキュベータ内の前記ヒトの胚のものである、および/または前記ビデオは、随意に低速度撮影画像を含む一連の画像を含む、項目31または32に記載の方法。
(項目34)
前記ANNは、3次元(3D)ANNおよび/または畳み込みニューラルネットワーク(CNN)である、項目31-33のいずれか1項に記載の方法。
(項目35)
前記ANNは、
ヒトの胚の複数のビデオを表すデータと、
前記ヒトの胚が個別の生存可能な胚または生存可能な胎児に至ったかどうかを表すデータと
を使用して訓練される、項目31-34のいずれか1項に記載の方法。
(項目36)
システムであって、
少なくとも1つのプロセッサであって、
人工ニューラルネットワーク(ANN)を用いてヒトの胚のビデオを表すデータを確率的に分類することによって、ヒトの胚に関する生存率スコアを生成すること、または
人工ニューラルネットワーク(ANN)を訓練し、ヒトの胚のビデオを表すデータを確率的に分類し、前記ヒトの胚に関する生存率スコアを生成すること
を行うように構成される、少なくとも1つのプロセッサ
を含む、システム。
(項目37)
前記生存率スコアは、前記ヒトの胚が生存可能な胚または生存可能な胎児に至るであろう尤度を表す、項目36に記載のシステム。
(項目38)
前記ビデオは、随意に予め選択された期間にわたるインキュベータ内の前記ヒトの胚のものである、および/または前記ビデオは、随意に低速度撮影画像を含む一連の画像を含む、項目36または37に記載のシステム。
(項目39)
前記ANNは、3次元(3D)ANNおよび/または畳み込みニューラルネットワーク(CNN)である、項目36-38のいずれか1項に記載のシステム。
(項目40)
前記ANNは、
ヒトの胚の複数のビデオを表すデータと、
前記ヒトの胚が個別の生存可能な胚または生存可能な胎児に至ったかどうかを表すデータと
を使用して訓練される、項目36-39のいずれか1項に記載のシステム。
本発明のいくつかの実施形態が、付随の図面を参照して、実施例としてのみ、以下に説明される。
図1は、胚の生存率を推定するための例示的システムの一般的構造を示す。
図2は、一実施例において使用される3D畳み込みニューラルネットワークの例示的アーキテクチャを示す。
図3Aおよび3Bは、別の実施例において使用される3D畳み込みニューラルネットワーク概略の例示的アーキテクチャを示す。
図4は、本システムによって生産される、ヒートマップの一実施例を示す。
図5Aは、低速度撮影ビデオデータのある実施例を示す。
図5Bは、低速度撮影ビデオデータのために生成される、3D閉塞ウィンドウおよびヒートマップの適用を図示する。
図6は、ヒートマップを生成するための方法/処理ステップを示す。
図7は、胚の生存率を推定するための方法/処理ステップを示す。
図8は、深層学習モデルを訓練するためのコンピュータのある実施例を示す。
図9は、一実施例による、複数のニューラルネットワークの組み合わせを図示する。
図10は、一実施例による、深層学習モデルの性能を示すグラフである。
図11は、出力された生存率スコアと実際の妊娠転帰との間の例示的相関を示すグラフである。
図12は、本システムのソフトウェアインターフェースの一実施例である。
図13は、本システム/方法に関する分類モデルの実装/訓練の一実施例の概略の概要図である。
図14は、ヒートマップの別の実施例を示す。
図15は、深層学習モデルを訓練するために使用される、低速度撮影ビデオの標識付けを示す。
図16は完全なデータセットの訓練セットと試験セットとへの分割を示す。
図17Aおよび17Bは、それぞれ、事前処理の前後の低速度撮影胚ビデオにおける、わずかに異なる時点における画像のある実施例を示す。
図18は、複数のニューラルネットワークを組み合わせるときのデータセットの区分を示す。
図19は、生存率スコアを表示する、ソフトウェアパッケージの例示的ユーザインターフェースを示す。
本発明の実施形態は、胚の生存率を推定するための処理システムを提供する。本システムは、ヒトの胚のビデオデータを受信し、受信されたビデオデータを処理し、胚に関する生存率スコアを決定するように構成される。ビデオデータは、時系列の画像のシーケンスを含み、そのため、これは、「低速度撮影ビデオデータ」とも称される。
用語「胚」は、受精卵または受精卵、およびそこから発達する胚を含むことが意図されることを理解されたい。
概して、生存率スコアは、子宮内への着床の後、胚が成功した妊娠につながる尤度の予測を提供する、確率である、またはそれを含む。より高いスコアを伴う胚は、生存可能な胚または生存可能なヒトの胎児に至る、より高い確率を有する。
生存率スコアは、患者のためにインキュベートされる複数の胚の中から、女性の子宮の中に移植されるべき単一の胚を決定するために使用され得る。例えば、より高いスコアを伴う胚が、選択され、子宮の中に着床され得る。これは、複数の胚を移植することに起因する複数の胚と関連付けられる、出産前合併症のリスクを防止し得る。生存可能な胚または生存可能な胎児に至る最も高い確率を伴う胚を決定することはまた、最良な胚が、最初に移植され、後続の胚移植を余儀なくさせる、失敗した移植を回避するため、妊娠までの時間を減少させる。
代替として、(凍結胚を使用した後続の治療周期の間に)複数の胚が移植されるべきとき、生存率スコアは、胚が患者の子宮の中に移植されるであろう順序を決定するために使用され得る。
いくつかの既存の胚査定方法またはグレード付けシステム(例えば、Gardner胚盤胞グレード付けシステムおよびKIDスコア)が、胚を限定された数のグレード、例えば、1~5のグレードに分類し得る。
対照的に、本開示は、胚が生存可能な胚または生存可能な胎児に至る確率を推定することによって、よりきめ細かい分類を提供する。本開示において使用される分類方法は、「確率的な分類」方法とも称され得る。本確率的分類は、確率値、例えば、胚毎の割合を提供し、従って、胚間のより微細な差異を識別する。故に、さらに既存のグレード付けシステムによる同一のグレードを伴う胚も、生存率スコアによって等級付けされることができる。これは、それらの生存率に基づく、複数の胚の等級付けの自動生成、および等級付けに基づく、複数の胚からの移植のための単一胚の自動選択を可能にする。
生存可能な胚は、
(例えば、β-HCGに関する)尿検査または血液検査に基づいて検出される、生化学的妊娠、または
胚移植後の所定の時間(例えば、6~7週間)において超音波上で検出される、生存可能な胎嚢または生存可能な卵黄嚢を伴う臨床的妊娠、
を有する、胚として定義され得る。
生存可能な胎児は、
胚移植後の選択された時間(例えば、6週間以上の時間)に母体超音波上で検出される、生存可能な胎児の心臓、または
妊娠終了時の出生、
を有するものとして定義され得る。
胚の質のいくつかの公知の測定、例えば、「胚が良好に見える程度」に基づいた既存のグレード付けスキームを使用して、胚培養士によって主観的に決定される胚グレード、または母親が、胚移植後に陽性の妊娠検査を有するであろう尤度を表す、着床の可能性と比較されると、胚移植6週間後の超音波胎児心臓検出結果を使用することは、より客観的、かつより信頼性のある胚の生存率の推定を提供する。
用語「処理システム」は、任意の電子処理デバイスまたはシステム、またはコンピューティングデバイスまたはシステム、またはそれらの組み合わせ(例えば、コンピュータ、ウェブサーバ、スマートフォン、ラップトップ、マイクロコントローラ等)を指し得ることを理解されたい。処理システムはまた、分散型システムであってもよい。一般的に、処理/コンピューティングシステムは、少なくとも1つのバスによって接続される、1つ以上のプロセッサ(例えば、CPU、GPU)、メモリ構成要素、および入力/出力インターフェースを含んでもよい。それらはさらに、入力/出力デバイス(例えば、キーボード、ディスプレイ等)を含んでもよい。また、処理/コンピューティングシステムは、典型的には、命令を実行し、メモリの中に記憶されるデータを処理するように構成される(すなわち、ソフトウェアを介してデータ上で動作を実施するようにプログラム可能である)ことを理解されたい。
図1は、胚の生存率を推定するための例示的システム100の一般的構造を図示する。システム100は、処理システムのある実施例である。
示されるように、システム100は、胚104を含有し、かつ胚104が生存するために好適な環境条件を維持するための、インキュベータ102を含む。インキュベータ102は、胚104の低速度撮影ビデオデータを捕捉するための、画像センサ106を含む。
画像センサ106によって捕捉された低速度撮影ビデオデータは、低速度撮影ビデオデータに深層学習モデルを適用し、胚104に関する生存率スコアを決定する、プロセッサ108に送信される。
プロセッサ108によって決定された生存率スコアは、その後、胚培養士等の人間スタッフによる使用のための、ディスプレイ110または他の好適な出力デバイスに出力されてもよい。
手動の特徴抽出またはビデオデータの人間による注釈付けは、要求されず、深層学習モデルは、未処理のビデオデータのみを受信し、生存率スコアを出力する、エンドツーエンドモデルであることを理解されたい。
生存率スコアを決定するために、深層学習モデルは、低速度撮影ビデオデータに適用される。深層学習モジュールは少なくとも、3D畳み込みニューラルネットワーク(3D CNN)等の3次元(3D)人工ニューラルネットワーク(ANN)を含む。
3D CNNが、3D畳み込みを実施することによって空間および時間次元の両方から特徴を抽出し、それによって、ビデオ内の各単一の画像フレーム内に含有される情報だけではなく、隣接する画像フレームを含む、複数の時系列に分離された画像フレーム内に含有される運動情報も捕捉する。
これは、各静的画像の中に含有される情報のみを考慮する、胚の静的画像のみに機械学習モデルを適用することによって胚の質を分析することとは対照的である。
これはまた、人間が手動で形態学的にグレード付けを行う等、特徴を抽出する、または発達マイルストーンの厳密なタイミングに注釈付けを行うことが要求される、システムとも対照的である。そのようなシステムは、機械学習を適用し得るが、これらの抽出された特徴および/または注釈付けのみに対してであり、かつ胚のグレード付けを予測するためにすぎない。故に、そのようなシステムを使用した胚低速度撮影ビデオの分析は、特徴に手動で、または半自動的に注釈付けを行う(例えば、形態学的なグレード付け)、または重要な発達マイルストーンのタイミングを抽出する、胚培養士の経験に依拠し得る。本プロセスは、時間がかかり、かつ不正確であり得る。例えば、各患者は、治療周期あたり最大30~20個の胚を有し得、各胚は、完全に注釈付けを行うために最大5分を要し得る。故に、これは、胚の多数の低速度撮影ビデオを分析するための拡張可能な解決策ではない。対照的に、3D ANNを使用する、低速度撮影胚ビデオを分析するための完全にエンドツーエンドである方法は、例えば、典型的なラップトップ上で1秒あたり10個の胚を分析し得、これは、既存の方法より効率的であり、したがって、胚の低速度撮影ビデオ分析を拡張可能にすることができる。
本明細書に説明されるシステムは、低速度撮影ビデオデータのフレーム内特徴だけではなく、フレーム間特徴も抽出し、したがって、胚の空間的および時間的特徴の両方を捕捉する。このように、説明されるシステムは、既存の方法と比較されると、胚の生存率のより包括的、かつより正確な分析を提供し得る。
図2は、3D CNNの例示的アーキテクチャを図示する。本実施例では、3D CNNは、一連の畳み込みおよびプーリング層を含有する。より具体的には、CNNは、2つの3×3×3畳み込みの繰り返される適用を含み、プーリング動作が後に続く。3D CNNの最後の層は、生存率スコアを出力する、予測層である。
図3Aおよび3Bは、3D CNNの別の例示的アーキテクチャを図示する。本実施例では、3D CNNは、J Carreira, A Zisserman (2017), Quo vadis, action recognition? a new model and the kinetics dataset, 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 4724 - 4733に説明されるような、2次元(2D)フィルタをインフレートさせ、2D CNNのカーネルを3Dにプーリングすることによって生成される、既存のインフレートされた3D CNNである。故に、N×Nフィルタが、インフレーションの後、N×N×Nフィルタになる。図3Aに示されるように、インフレートされた3D CNNは、複数の畳み込みおよびプーリング層と、複数の開始モジュール(「開始」)とを有する。図3Bは、開始モジュールのアーキテクチャを図示する。
図3Aに示される3D CNNの最後の層は、線形分類層であり、これは、胚の生存率スコアを出力する。
図2、および図3Aおよび3Bに示されるように、3D CNNの両方の例示的アーキテクチャが、3D畳み込みカーネルおよびプーリングカーネルを利用し、これは、3D CNNが低速度撮影ビデオデータから胚の時空間特徴を捕捉することを可能にする。
胚のビデオデータは、例えば、時系列の静止画像のシーケンス、または低速度撮影ビデオデータドキュメント等の種々のフォーマットから導出され得ることを理解されたい。一実施例では、低速度撮影ビデオデータは、720個の低速度撮影画像フレームを含む、低速度撮影ビデオドキュメントである。
3D CNNは、
複数のヒトの胚の複数の画像のシーケンスを表す、ビデオデータと、
複数のヒトの胚がそれぞれ、生存可能な胚または生存可能な胎児に至ったかどうかを示す、妊娠転帰データと、
を使用することによって訓練される。
前述に説明されるように、生存可能な胚は、
(例えば、β-HCGに関する)尿検査または血液検査に基づいて検出される、生化学的妊娠、または
胚移植後の所定の時間(例えば、6~7週間)において超音波上で検出される、生存可能な胎嚢または生存可能な卵黄嚢を伴う臨床的妊娠、
を有する、胚として定義され得る。
生存可能な胎児は、
胚移植後の選択された時間(例えば、6週間、7週間、8週間、9週間、10週間、11週間、12週間、3ヶ月、4ヶ月、5ヶ月、6ヶ月、8ヶ月、9ヶ月)に母体超音波上で検出される、生存可能な胎児の心臓、または
妊娠終了時の出生、
を有するものとして定義され得る。
いくつかの既存の機械学習ベースの胚査定方法は、胚の発達における重要な事象(例えば、神経ニューロン形成、筋骨格の体節形成、および/または心臓発生)を抽出および分析する、またはその人間による注釈付けを行うための、胚の特徴(例えば、割球の対称性、細胞質の外観、および/または断片化の量)を手動で決定するための事前分析を要求し得る。対照的に、本明細書に説明される3D CNNは、胚の特性/特徴の手動選択または抽出、または重要な発達事象の人間による注釈付けを伴わずに訓練および使用されることができる。言い換えると、本明細書に説明される深層学習モデルは、エンドツーエンド胚査定プロセスを提供する。これは、医療従事者が、現在、ヒトの胚の質を査定するステップにおいて、何の特性/特徴が最も有用な特性/特徴であるかに関連する完全な理解を有していないため、有利であり得る。したがって、エンドツーエンド胚査定プロセスを提供することによって、本明細書に説明される深層学習モデルは、システムが、どの特性/特徴が使用されるべきであるかを学習および自動的に決定することを可能にし、したがって、既存の胚査定方法およびシステムより正確な結果を提供することができる。さらに、細胞の対称性、数、断片化の程度、および重要な事象の厳密なタイミング等の特徴を抽出するための事前分析は、主観的かつ繰り返し不可能なプロセスであり、胚培養士間で非常に変動し易い。これらのデータに適用される深層学習モデルは、性能の観点から同一の障害を受けるであろう。
3D CNNは、プロセッサ108と異なる、1つ以上のデバイス上で訓練され得る。例えば、3D CNNは、1つ以上のグラフィッカル処理ユニット(GPU)および/または1つ以上の中央処理ユニット(CPU)を含む、デバイスを使用することによって訓練され得る。
図1に戻って参照すると、いくつかの実施形態では、プロセッサ108は、深層学習モジュールを適用する、または訓練するステップの前に、低速度撮影ビデオデータを事前処理してもよい。
例えば、プロセッサ108は、全てのビデオが所定の期間にわたるように、受信された低速度撮影ビデオデータを標準化してもよい。
プロセッサ108はまた、トリミングするステップを実施し、低速度撮影ビデオデータ内の所定の面積、例えば、胚を含む面積を保持してもよい。
プロセッサ108はさらに、例えば、コントラスト制限適応ヒストグラム均等化(CLAHE)を適用することによって、低速度撮影ビデオデータ内の画像のコントラストを調節し、ビデオの質を向上させてもよい。
最後に、プロセッサは、低速度撮影ビデオデータ内の画像を所定の画像サイズにサイズ変更してもよい。
いくつかの形態で、システム100はさらに、低速度撮影ビデオデータの少なくともいくつかの画像にわたって表示するための、視覚オーバーレイを生産するように構成される。視覚オーバーレイは、生存率スコアに対する、画像の一部の寄与を示す。
一実施例では、視覚オーバーレイは、その実施例が図4に示される、ヒートマップ(寄与マップとも称される)である。
ヒートマップは、低速度撮影ビデオデータ内の画像の一部を閉塞させると、深層学習モデルによって出力される、生存率スコアの変化を分析することによって生成され得る。例えば、3D閉塞ウィンドウが、ビデオに適用され、ビデオの異なる部分を閉塞させることができる。
図5Aは、ヒートマップを追加する前の低速度撮影ビデオデータのある実施例を示す。図5Bは、3D閉塞ウィンドウの適用と、生成されたヒートマップとを図示する。
図5Bに示されるように、異なる強度または色が、各時空間領域の胚の生存率への寄与のレベルを表すために使用され得る。例えば、青色は、胚の生存率への低レベルの寄与を有する時空間領域(そのような領域は、「好ましくない時空間領域」とも称され得る)を示し得る一方、赤色は、胚の生存率への高レベルの寄与を有する時空間領域(そのような領域は、「好ましい時空間領域」とも称され得る)を示し得る。
図6は、ヒートマップを生成するステップにおいてプロセッサ108によって実施される、例示的処理フローを図示する。
ステップ610において、プロセッサ108は、3D CNNモデルを使用し、低速度撮影ビデオデータに基づいて原生存率スコアを予測する。
ステップ620において、プロセッサ108は、ビデオデータの対応する3D部分に3D閉塞ウィンドウを適用し、黒色のピクセルでビデオデータの3D領域を閉塞させる。
ステップ630において、プロセッサ108は、同一の3D CNNモデルを使用し、部分的に閉塞された低速度撮影ビデオに基づいて、新しい生存率スコアを予測する。
ステップ640において、プロセッサ108は、3D閉塞ウィンドウの現在の位置に関する、新しい生存率スコアと原生存率スコアとの間の差異を決定する。
ステップ650において、プロセッサ108は、ビデオ全体が処理されたかどうかを決定する。
該当しない場合、プロセッサ108は、ステップ660において、3D閉塞ウィンドウを次の3D領域に移動させ、次いで、ステップ620に一巡して戻る。
ビデオ全体が処理された場合、プロセッサ108は、ステップ670に進み、各時空間領域の胚の生存率への寄与の程度を表す、3Dヒートマップを生成する。
最後に、ステップ680において、プロセッサ108は、生成された3Dヒートマップを出力する。
生成された3Dヒートマップは、その後、ディスプレイ110等の表示デバイスに送信され得、そこで、3Dヒートマップは、人間スタッフ、例えば、胚培養士にもたらされ得る。これは、胚培養士が機械学習モデルの意思決定プロセスを精査および/または分析し、機械学習モデルによって使用される胚ビデオ内の特性/特徴を学習し、胚の生存率を精査することを可能にする。このように、ヒートマップは、人間医療従事者の胚の生存率の理解を改良し、システムによるいかなる異常挙動も診断することに役立ち得る。
本明細書に説明されるプロセッサ108は、例えば、着床に先立って、胚を保管および/または発達させるために使用される、インキュベータ102等の他の装置およびシステムの中に統合され得ることを理解されたい。故に、インキュベータは、本明細書に説明されるプロセッサ108等の処理システムを組み込むことができる。代替として、プロセッサ108は、図1に示されるように、インキュベータ102と別個の装置、例えば、クラウドサーバとして提供されてもよい。
さらに、図1に示される実施例では、プロセッサ108は、インキュベータ102とデータ通信し、画像センサ106によってインキュベータ102から直接捕捉される低速度撮影ビデオデータを受信しているが、いくつかの実施形態では、低速度撮影ビデオデータは、その後、プロセッサ108によってアクセスされる、または読み取られ得る、データストアまたはサーバ上に記憶されてもよい。
いくつかの実施形態では、プロセッサ108は、1つ以上の有線および/または無線ネットワークを介して低速度撮影ビデオデータを記憶する、インキュベータ102またはデータストアに通信可能に接続されてもよい。胚の生存率の決定は、ウェブ/クラウドベースのサービス/アプリケーションとして提供される、すなわち、インターネットを介してアクセスされてもよい。
独立型システムとして具現化される、または別の装置またはシステム(例えば、インキュベータ)の一部として組み込まれることに加えて、本発明の実施形態は、コンピュータ(または他の好適な電子的処理デバイス)によって実施されるべき方法を含み得ることを理解されたい。
そのような形態では、実施形態は、着床のためのヒトの胚の生存率を推定する、コンピュータ実装方法を提供する。図7に示されるように、本方法は、
ヒトの胚のビデオデータを受信するステップであって、ビデオデータは、ヒトの胚の時系列の画像のシーケンスを含む、ステップ(ステップ710)と、
ビデオデータに少なくとも1つの3次元(3D)人工ニューラルネットワーク(ANN)を適用し、ヒトの胚に関する生存率スコアを決定するステップであって、生存率スコアは、ヒトの胚が、進行中の妊娠を生成させるであろう尤度を表す、ステップ(ステップ720)と、
生存率スコアを出力するステップ(ステップ730)と、
を含む。
いくつかの実施形態では、本方法はさらに、
図7のステップ740によって示されるように、複数のヒトの胚の等級付けを、それらの生存率スコアに基づいて決定するステップを含んでもよい。
いくつかの実施形態では、本方法はさらに、
図7のステップ750によって示されるように、等級付けに基づいて、単一胚移植のための複数のヒトの胚のうちの1つ、または複数の胚が移植されるべき順序を選択するステップを含んでもよい。
選択された胚は、その後、患者の子宮の中に移植されてもよい。
また、本明細書に提供されるものは、コンピュータを本明細書に説明されるような方法を実施するように構成する命令を含む、コンピュータプログラムであり、これは、コンピュータ可読媒体上に提供されてもよい。一実施例では、本方法は、通信ネットワーク(例えば、インターネット)を介してアクセスされるべき、遠隔サーバ(例えば、クラウドベースのサーバ)上に実装される。
また、本明細書に提供されるものは、
人工ニューラルネットワーク(ANN)を用いてヒトの胚のビデオを表すデータを確率的に分類することによって、ヒトの胚に関する生存率スコアを生成するステップ、または
人工ニューラルネットワーク(ANN)を訓練し、ヒトの胚のビデオを表すデータを確率的に分類し、ヒトの胚に関する生存率スコアを生成するステップ、
を含む、方法である。
さらに、本明細書に提供されるものは、
少なくとも1つのプロセッサであって、
人工ニューラルネットワーク(ANN)を用いてヒトの胚のビデオを表すデータを確率的に分類することによって、ヒトの胚に関する生存率スコアを生成すること、または
人工ニューラルネットワーク(ANN)を訓練し、ヒトの胚のビデオを表すデータを確率的に分類し、ヒトの胚に関する生存率スコアを生成すること
を行うように構成される、少なくとも1つのプロセッサ
を含む、システムである。
本説明されるシステムおよび方法は、胚の生存率を推定/予測するための従来の方法に優る、いくつかの利点を提供し得る。
例えば、システム/方法を実装するステップにおいて、人的過誤が、胚の質を査定するプロセスにおいて低減/除去され得る。本システムは、客観的であり、疲労、感情バイアス、または未経験によって影響を受けるものではない。各胚に提供される生存率スコアはまた、再現可能であり、読取者または作業所間の変動性は存在しない。
本明細書に説明される、深層学習モデルの訓練は、胚の特性/特徴の手動の、人間による標識付け/注釈付けを要求しない。本明細書に説明されるシステム/方法は、エンドツーエンド胚査定ソリューションを提供する。前述に説明されるように、医療従事者が、現在、胚の質を査定するために好適な特性/特徴の包括的な理解を有していないことを前提として、エンドツーエンドプロセスは、胚の特性/特徴の手動の選択/注釈付けに依拠するシステム/方法より正確な結果を提供することができる。さらに、注釈付けおよび特徴抽出のステップは、非常に多くの労力を要し、典型的には、胚あたり、5~10分を要する。各治療周期は、最高50個の胚を有することができる。
本システム/方法は、人間胚培養士よりはるかに迅速に低速度撮影ビデオを解釈し得る。典型的なパーソナルコンピュータ上に実装されると、本システム/方法は、1秒あたり約10個の胚を解釈することができる。これは、したがって、大量採用のために非常に拡張可能である。いくつかの実施例では、速度は、胚が、要求に応じて、ほぼ瞬時に解釈されることを可能にし、患者の予定決めをより柔軟にするようなものであり得る。
本システム/方法を実装する運用費用は、非常に訓練された胚培養士のものよりはるかに安価であり得る。結果として、IVF作業所は、それらの高給の人的資源をIVFの他の側面に配分することができる。
加えて、閉塞ウィンドウを使用して生成されるヒートマップ等の視覚オーバーレイは、胚培養士が、機械学習モデルから学習することを可能にする。ヒートマップを使用することによって、本明細書に説明されるシステム/方法は、胚培養士の能力を強化することができ、胚の生存率に関する未知のマーカを識別するためのツールとして使用されることができる。
(実施例1)
インキュベータ(例えば、Embryoscope(R))からの低速度撮影ビデオを分析することによって妊娠の可能性/胚の生存率を予測するためのソフトウェアルーツ/アプリケーションが、処理/コンピュータシステム上での実装のために開発された。ソフトウェアは、3D CNNネットワークを伴う深層学習モデルを実装した。
既知の妊娠転帰を伴う胚の低速度撮影ビデオの訓練データセットが、3D CNN深層学習モデルを訓練するために使用された。訓練データセットは、903個の低速度撮影ビデオを含み、657個は、陰性の妊娠転帰であり、246個は、陽性の妊娠転帰であった。ビデオは、訓練後の検証のために、訓練セット(75%)と、試験セット(25%)とに無作為に分けられた。
処理/コンピュータシステムは、図8に示されるように、4つのグラフィカル処理ユニット(GPU)と、12個のコア中央処理ユニット(CPU)とを伴う、パーソナルコンピュータを含んだ。システムは、過熱を防止するための12個の高性能ファンに加えて、2つの別個のウォータループによって冷却された。
図9に示されるように、本実施例において使用された3D CNN深層学習モデルは、3つの別個のニューラルネットワークを含んだ。生存率スコアを決定するために、各胚の低速度撮影ビデオは、3つのニューラルネットワークのそれぞれによって独立して分析され、それらの予測の平均が、最終出力として報告された。モデルは、所与の胚が、続いて臨床的妊娠を生じさせるであろう確率(生存率)スコア(0%~100%)を返した。
訓練プロセスの後、モデルは、試験セットからの胚の180をスコア付けした。図10に示されるように、深層学習モデルは、0.78の曲線下面積(AUC)を達成し、人間評価者(AUC=0.55~0.75)より優れていた。20%のカットオフ閾値において、モデルは、95%の感度、43%の特異度、1.65の陽性の尤度比、および0.13陰性の尤度比を有した。
返された生存率スコアもまた、実際の妊娠率と良好に相関していた。図11は、それらの胚のために生産された生存率スコアと比較されたときの胚の妊娠率を示す。モデルは、高い妊娠可能性を伴う胚対低い妊娠可能性を伴う胚を明確に区別し得ることが示されている。加えて、その予測された妊娠の確率は、実際の妊娠率に非常に類似していた。
ソフトウェアツールは、ユーザが、モデルによって提供された予測に対して最も寄与した時点(すなわち、胚発達の間)および空間内の場所(すなわち、ビデオ画像の一部)を強調した、(図4に示されるような)ヒートマップをオーバーレイすることを可能にした。ヒートマップは、モデルの意思決定プロセスに関して、胚培養士に見識を提供した。生存率スコアに加えて、本ヒートマップは、患者の治療記録の一部となり得る。
本特定の実施例では、入力形式は、ICSIまたはIVF胚を含む、EmbryoScope(R)ソフトウェアからエクスポートされた、任意の低速度撮影ビデオ(例えば、.aviファイル)であった。ビデオは、胚の発達周期内の異なる開始時間(例えば、D5-D6胚盤胞段階、D2-3卵割段階)を有し得ることを理解されたい。
複数の胚/ビデオが、同時に査定され得る。そのような事例では、ソフトウェア/システムは、それらの生存率スコアに従って胚を等級付けし、最も高いスコアを伴う胚が、単一胚移植のために推奨されるであろう。図12に示される実施例では、「胚1」が、推奨された胚であった。胚の残りは、次いで、凍結され、その後、患者に成功した妊娠転帰の最も高い可能性を与えるように、生存率スコアが高い順に移植され得る。さらに、具体的なカットオフ閾値が、各IVF診療所によって決定され得、本閾値未満にスコア付けされたいかなる胚も、「生存不可能である」ものとして見なされ、凍結または胚移植用として考慮されなくなり得る。
本実施例では、ソフトウェアツール/アプリケーションは、Linux(登録商標)オペレーティングシステム上で起動した。他のバージョンも、異なるオペレーティングシステム上で動作するように容易に生産され得ることを理解されたい。ソフトウェア/システムは、ウェブ/クラウドベースのサービス/アプリケーションとして展開される、すなわち、インターネットを介してアクセスされ得ることを理解されたい。モデルは、訓練プロセスの中にさらなるデータを追加することによって改良され得ることを理解されたい。図13は、深層学習モデルの訓練、実装、および再訓練の一実施例の概要を示す。
(実施例2)
インキュベータ(例えば、Embryoscope(R)またはEmbryoScope+(R))からの低速度撮影ビデオを分析することによって妊娠の可能性/胚の生存率を予測するためのソフトウェアルーツ/アプリケーションが、処理/コンピュータシステム上での実装のために開発された。ソフトウェアは、図3Aおよび3Bに示されるような3D CNNを含む深層学習モデルを実装した。
データ収集
EmbryoScope(R)またはEmbryoScope+(R)等の商業的に利用可能な低速度撮影インキュベータからエクスポートされた胚の低速度撮影ビデオが、IVF作業所から収集され、深層学習モデルを訓練するために使用された。
各胚の転帰は、患者管理システムから得られ、図15に示される概略図を使用してこれらの低速度撮影ビデオを標識するために使用された。
特に、患者に移植され、胚移植後6週間において母体超音波上で検出可能な胎児心臓に至った胚が、陽性を表す「1」と標識された。胚培養士によって破棄されたか、または胎児心臓に至らなかったかのいずれかであった胚は、陰性を表す「0」と標識された。不明または未決定の転帰を伴う全ての胚は、訓練のために使用されなかった。
データ分割
EmbryoScope(R)またはEmbryoScope+(R)等の商業的に利用可能な低速度撮影インキュベータからエクスポートされた胚の低速度撮影ビデオが、IVF作業所から収集され、深層学習モデルを訓練するために使用された。
全体で、完全なデータセットは、1,281個の低速度撮影ビデオを含んだ。
図16に示されるように、完全なデータセットは、訓練セット(80%)と、試験セット(20%)とに無作為に分割された。ニューラルネットワークは、訓練セット上でのみ訓練された。いったん訓練が、完了すると、モデルは、試験セットで試験され、性能特性メトリックを得た。
訓練セットは、1,025個の低速度撮影ビデオを含み、789個は、陰性の妊娠転帰であり、236個は、陽性の妊娠転帰であった。試験セットは、256個の低速度撮影ビデオを含み、197個は、陰性の妊娠転帰であり、59個は、陽性の妊娠転帰であった。
訓練のためのデータ調製
訓練データセット内の低速度撮影ビデオは、深層学習モデルを訓練するために使用される前に、事前処理された。初めに、低速度撮影ビデオは、全ての胚のビデオが5日間にわたることを確実にするような時間に標準化された。円形のトリミング機能が、次いで、各ビデオに適用され、胚を中心合わせし、不要な面積を除外し、ニューラルネットワークがその学習を胚に向かって集束させることを可能にした。コントラスト制限適応ヒストグラム均等化(CLAHE)が、次いで、胚ビデオ内の全ての画像に適用され、画像の質を向上させた。最後に、全ての胚ビデオが、128×128×128×1(128×128個のピクセルの128個のフレームと、白黒色の1つのチャネルとの積)の固定された形状にサイズ変更された。
図17Aおよび17Bは、それぞれ、事前処理の前後の低速度撮影胚ビデオにおける、わずかに異なる時点における画像のある実施例を示す。
データ拡張
原データセットのサイズを増加させるために、種々の変換が、各低速度撮影ビデオに無作為に適用され、原ビデオと視覚的に異なる新しいビデオを作成した。これは、ニューラルネットワークが、未観察の実施例をより良好に一般化し、それによって、ニューラルネットワークの性能をさらに改良することを可能にする。
これらの拡張方法は、
無作為の360度回転と、
無作為の水平および垂直な反転と、
ビデオサイズの無作為の再拡張(1.2倍~0.8倍)と、
無作為の再生速度調節(1.2倍~0.8倍)と、
集束効果を模倣するための、ガウスぼかしと、
ビデオの一部の無作為の塗潰しと、
を含んだ。
訓練プロセスのステップの間、ビデオのあるバッチが、データセットから無作為に選択され、拡張動作の無作為のセットが、本バッチに適用され、訓練のビデオのわずかに異なるセットを作成した。本プロセスは、データセット全体が、複数回にわたって一巡されるにつれて、繰り返された。
深層学習モデルの訓練
図3Aおよび3Bに示されるような3D CNN深層学習モデルが、本実施例において使用された。
3D CNNは、確率的勾配降下法を使用して、低速度撮影ビデオデータセットを用いて訓練された。訓練するために使用された損失関数は、カテゴリカル交差エントロピーであった。CNNは、102,400個のステップにわたって、0.00001の学習率および0.9の運動量を使用して訓練された。学習率は、次いで、0.000001に低下され、ネットワークは、さらに102,400個のステップにわたって訓練された。
訓練は、NVIDIA 1080 Ti等の4つのグラフィカル処理ユニット(GPU)と、Intel i7-6850K等の6つのコア中央処理ユニット(CPU)と、64GbのRAMとを伴う、パーソナルコンピュータを使用して実施された。
モデルを組み合わせるステップ
本実施例では、複数の3D CNNが、組み合わせられ、さらに、CNNの性能を改良した。
選択肢を組み合わせる方法は、5分割交差検証およびモデルのバギングであった。図18に示されるように、完全なデータセットは、5つの等しい部分に分割された。これらの部分のうちの1つは、試験のために連続的に差し出され、モデルは、他の4つの部分を使用して訓練された。最終結果は、わずかに異なるデータセット上で訓練され、異なるバイアスを帯びた5つの一意のニューラルネットワークであった。新しい胚に関する予測を行うとき、5つのニューラルネットワーク全てが、使用され、独立して胚にスコア付けし、それらのスコアは、最終スコアを得るように平均化された。これは、いかなる個々のモデル単独よりロバストである、統一モデルをもたらした。
展開ソフトウェア
新しい低速度撮影ビデオにニューラルネットワークを提供するためのソフトウェアパッケージが、開発された。ソフトウェアは、胚毎に低速度撮影シーケンスのビデオファイルを受け取り、生存率スコア(「EB.スコア」とも称され得る)を出力するように構成された。生存率スコアは、所与の胚が、胚が移植された6週間後に超音波上に胎児心臓をもたらすであろう尤度を表した。
人間胚培養士は、その後、生存率スコアに基づいて、移植されるべき最良な胚に関する決定を行い得る。
図19は、いくつかの胚に関して生成された、(割合の形態の)生存率スコアを表示する、ソフトウェアパッケージの例示的ユーザインターフェースを図示する。ソフトウェアパッケージは、IVF作業所において使用される、ラップトップ等の好適なコンピュータデバイス上で展開され得る。示されるように、緑色のバー(または薄灰色)は、最も高い生存率スコア(38.92%)を伴う胚を表し、青色のバー(または濃灰色)は、容認可能な生存率スコアを有する胚を表し、白色のバーは、低生存率スコア(すなわち、生存不可能な胚)を有する胚を表す。
代替として、本方法は、任意の他の好適なコンピューティングデバイスによって実装される、またはインターネット等のネットワークを介してアクセスされ得る、ウェブベースまたはクラウドベースのサービスとして提供され得る。
深層学習モデルは、訓練プロセスの中にさらなるデータを追加することによって改良され得ることを理解されたい。言い換えると、深層学習モデルは、自己改良型および自己調整型モデルである。モデルの性能およびロバストネスは、さらに、CNNを再訓練することによって経時的に改良されることができる一方、より多くの胚が、深層学習モデルによってアクセスされる。
ヒートマップを生成するステップ
ビデオのどの面積が返された生存率スコア内に有意な変化をもたらしたかの視覚表現を提供するために、ヒートマップが、ビデオの一部を連続的に閉塞させ、スコア付けプロセスを繰り返すことによって生成された。
胚のビデオのために生成されたヒートマップが、CNNがその最終決定を行うステップにおいて注意を払っていたビデオの面積を示した。
図14は、生成されたヒートマップの実施例を示し、(左から第4および第5の画像の中心面積内の)青色の領域は、胚の生存率への低レベルの寄与を有する領域(そのような領域は、「好ましくない領域」とも称され得る)を表す一方、(左から第6および第7の画像の中心細胞面積内の)赤色の領域は、胚の生存率への高レベルの寄与を有する領域(そのような領域は、「好ましい領域」とも称され得る)を示す。
ヒートマップは、ニューラルネットワークが、その意思決定プロセスを人間が読取可能である方法で通信することを可能にし、したがって、ニューラルネットワークと人間胚培養士との間の協業を改良する。
解釈
本明細書におけるいかなる以前の刊行物(またはそれから導出される情報)、または既知である任意の事項に対する言及は、以前の刊行物(またはそれから導出される情報)または既知の事項が、本明細書が関連する取り組みの分野における共通の一般的知識の一部をなすことの承認、または許可、またはいかなる形態の示唆として捉えられるものではなく、かつそのようにとらえられるべきではない。
多くの修正が、本発明の範囲から逸脱することなく、当業者に明白となるであろう。

Claims (30)

  1. コンピュータ実装方法であって、
    ヒトの胚のビデオデータを受信するステップであって、前記ビデオデータは、前記ヒトの胚の時系列の画像のシーケンスを表す、ステップと、
    前記ビデオデータに少なくとも1つの3次元(3D)人工ニューラルネットワーク(ANN)を適用し、前記ヒトの胚に関する生存率スコアを決定するステップであって、前記生存率スコアは、前記ヒトの胚が生存可能な胚または生存可能な胎児に至るであろう尤度を表す、ステップと、
    前記生存率スコアを出力するステップと
    を含む、方法。
  2. 前記3D人工ニューラルネットワークは、3D畳み込みニューラルネットワーク(CNN)を含む、請求項1に記載の方法。
  3. 前記生存率スコアは、前記ヒトの胚を移植することが、生存可能な胎児に至るであろう確率を表す、請求項1または2に記載の方法。
  4. 前記生存率スコアは、前記ヒトの胚を移植することが、
    胚移植後の所定の期間内に検出される生存可能な胎児の心臓と、
    尿検査または血液検査に基づいて検出される生化学的妊娠と、
    胚移植後の所定の時間において超音波上で検出される生存可能な胎嚢または生存可能な卵黄嚢と、
    妊娠の終了時の出生と
    のうちのいずれか1つ以上のものに至るであろう確率を表す、請求項1に記載の方法。
  5. 前記3D ANNは、
    複数のヒトの胚の複数の画像のシーケンスを表すビデオデータと、
    前記複数のヒトの胚のそれぞれが生存可能な胚または生存可能な胎児に至ったかどうかを示す妊娠転帰データと
    を使用することによって訓練される、請求項1~4のいずれか1項に記載の方法。
  6. 前記3D ANNの訓練は、特徴の手動の選択または抽出、または重要な発達事象の人間による注釈付けを伴わずに実施される、請求項5に記載の方法。
  7. 前記3D CNNは、それぞれが3D畳み込みカーネルを使用する複数の畳み込み層と、それぞれが3Dプーリングカーネルを使用する複数のプーリング層とを含む、請求項2に記載の方法。
  8. 全てのビデオが、所定の期間にわたるように、前記受信されたビデオデータを標準化するステップと、
    前記ビデオデータをトリミングし、前記デ-タの所定の面積を保持するステップと、
    前記ビデオデータ内の前記画像のコントラストを調節するステップと、
    前記ビデオデータ内の前記画像を、所定の画像サイズにサイズ変更するステップと
    のうちの1つ以上のものをさらに含む、請求項1~7のいずれか1項に記載の方法。
  9. 前記ビデオデータの少なくともいくつかの画像に視覚オーバーレイを追加することによって、前記ビデオデータを処理するステップであって、前記視覚オーバーレイは、前記生存率スコアへの前記画像の個別の部分の寄与を示す、ステップと、
    前記視覚オーバーレイを伴う前記画像を出力するステップと
    をさらに含む、請求項1~8のいずれか1項に記載の方法。
  10. 前記視覚オーバーレイは、ヒートマップである、請求項9に記載の方法。
  11. 前記視覚オーバーレイは、
    前記ビデオデータ内の前記画像または画像のシーケンスの一部を閉塞させることによって引き起こされる前記生存率スコア出力の変化を決定すること
    によって生成される、請求項9または10に記載の方法。
  12. 前記ビデオデータ内の前記画像の一部を閉塞させるステップは、前記ビデオデータに3次元閉塞ウィンドウを適用するステップを含む、請求項11に記載の方法。
  13. 複数のヒトの胚の等級付けを、それらの生存率スコアに基づいて決定するステップをさらに含む、請求項1~12のいずれか1項に記載の方法。
  14. 前記等級付けに基づいて、単一胚移植のための前記複数のヒトの胚のうちの1つまたは複数の胚が移植されるべき順序を選択するステップをさらに含む、請求項13に記載の方法。
  15. システムであって、
    少なくとも1つのプロセッサであって、
    ヒトの胚のビデオデータを受信することであって、前記ビデオデータは、前記ヒトの胚の時系列の画像のシーケンスを含む、ことと、
    前記ビデオデータに少なくとも1つの3次元(3D)人工ニューラルネットワークを適用し、前記ヒトの胚に関する生存率スコアを決定することであって、前記生存率スコアは、前記ヒトの胚が生存可能な胚または生存可能な胎児に至るであろう尤度を表す、ことと、
    前記生存率スコアを出力することと
    を行うように構成される、少なくとも1つのプロセッサ
    を含む、システム。
  16. 前記3D人工ニューラルネットワークは、3D畳み込みニューラルネットワーク(CNN)を含む、請求項15に記載のシステム。
  17. 前記生存率スコアは、前記ヒトの胚を移植することが、生存可能な胎児に至るであろう確率を表す、請求項15または16に記載のシステム。
  18. 前記生存率スコアは、前記ヒトの胚を移植することが、
    胚移植後の所定の期間内に検出される生存可能な胎児の心臓と、
    尿検査または血液検査に基づいて検出される生化学的妊娠と、
    胚移植後の所定の時間において超音波上で検出される生存可能な胎嚢または生存可能な卵黄嚢と、
    妊娠の終了時の出生と
    のうちのいずれか1つ以上のものに至るであろう確率を表す、請求項15に記載のシステム。
  19. 前記3D ANNは、
    複数のヒトの胚の複数の画像のシーケンスを表すビデオデータと、
    前記複数のヒトの胚のそれぞれが生存可能な胚または生存可能な胎児に至ったかどうかを示す妊娠転帰データと
    を使用することによって訓練される、請求項15-18のいずれか1項に記載のシステム。
  20. 前記3D ANNの訓練は、特徴の手動の選択または抽出、または重要な発達事象の人間による注釈付けを伴わずに実施される、請求項19に記載のシステム。
  21. 前記3D CNNは、それぞれが3D畳み込みカーネルを使用する複数の畳み込み層と、それぞれが3Dプーリングカーネルを使用する複数のプーリング層とを含む、請求項16に記載のシステム。
  22. 前記少なくとも1つのプロセッサはさらに、
    全てのビデオが、所定の期間にわたるように、前記受信されたビデオデータを標準化するステップと、
    前記ビデオデータをトリミングし、前記デ-タの所定の面積を保持するステップと、
    前記ビデオデータ内の前記画像のコントラストを調節するステップと、
    前記ビデオデータ内の前記画像を、所定の画像サイズにサイズ変更するステップと
    のうちの1つ以上のものを実行するように構成される、請求項15-21のいずれか1項に記載のシステム。
  23. 前記少なくとも1つのプロセッサはさらに、
    前記ビデオデータの少なくともいくつかの画像に、視覚オーバーレイを追加することによって、前記ビデオデータを処理することであって、前記視覚オーバーレイは、前記生存率スコアへの前記画像の個別の部分の寄与を示す、ことと、
    前記視覚オーバーレイを伴う前記画像を出力することと
    を行うように構成される、請求項15-22のいずれか1項に記載のシステム。
  24. 前記視覚オーバーレイは、ヒートマップである、請求項15-23のいずれか1項に記載のシステム。
  25. 前記視覚オーバーレイは、
    前記ビデオデータ内の前記画像または画像のシーケンスの一部を閉塞させることによって引き起こされる前記生存率スコア出力の変化を決定すること
    によって生成される、請求項23または24に記載のシステム。
  26. 前記ビデオデータ内の前記画像の一部を閉塞させるステップは、前記ビデオデータに3次元閉塞ウィンドウを適用するステップを含む、請求項25に記載のシステム。
  27. 前記少なくとも1つのプロセッサはさらに、
    複数のヒトの胚の等級付けを、それらの生存率スコアに基づいて決定する
    ように構成される、請求項15-26のいずれか1項に記載のシステム。
  28. 前記少なくとも1つのプロセッサはさらに、
    前記等級付けに基づいて、単一胚移植のための前記複数のヒトの胚のうちの1つを選択する
    ように構成される、請求項27に記載のシステム。
  29. 前記システムは、
    前記ヒトの胚のビデオデータを捕捉するための画像センサ
    を含み、
    前記プロセッサは、前記画像センサから前記捕捉されたビデオデータを受信するように構成される、請求項15から28のいずれか1項に記載のシステム。
  30. 前記システムは、低速度撮影インキュベータを含む、請求項15から29のいずれか1項に記載のシステム。
JP2020532565A 2017-12-15 2018-12-14 胚の生存率を推定するためのシステムおよび方法 Active JP7072067B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
AU2017905017A AU2017905017A0 (en) 2017-12-15 Systems and methods for determining embryo viability
AU2017905017 2017-12-15
AU2018901754 2018-05-18
AU2018901754A AU2018901754A0 (en) 2018-05-18 Systems and methods for estimating embryo viability
PCT/AU2018/051335 WO2019113643A1 (en) 2017-12-15 2018-12-14 Systems and methods for estimating embryo viability

Publications (2)

Publication Number Publication Date
JP2021507367A JP2021507367A (ja) 2021-02-22
JP7072067B2 true JP7072067B2 (ja) 2022-05-19

Family

ID=66818760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020532565A Active JP7072067B2 (ja) 2017-12-15 2018-12-14 胚の生存率を推定するためのシステムおよび方法

Country Status (7)

Country Link
US (1) US20200311916A1 (ja)
EP (1) EP3723640A4 (ja)
JP (1) JP7072067B2 (ja)
CN (1) CN111787877A (ja)
AU (1) AU2018384082B2 (ja)
IL (1) IL275253A (ja)
WO (1) WO2019113643A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020012616A1 (ja) * 2018-07-12 2021-08-02 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
WO2020033391A1 (en) * 2018-08-07 2020-02-13 Cornell University System and method for selecting artificially fertilized embryos
US11037030B1 (en) * 2018-10-29 2021-06-15 Hrl Laboratories, Llc System and method for direct learning from raw tomographic data
JP2022528961A (ja) * 2019-04-04 2022-06-16 プレサーゲン プロプライアトリー リミテッド 胚を選択する方法及びシステム
EP4026089A4 (en) * 2019-09-06 2022-11-09 The Brigham & Women's Hospital, Inc. AUTOMATED EVALUATION OF QUALITY ASSURANCE METRICS FOR SUPPORTED PLAYBACK METHODS
EP4080412A4 (en) * 2019-12-20 2023-08-23 Chavez Badiola, Alejandro METHOD BASED ON IMAGE CONDITIONING AND PRE-PROCESSING FOR THE CLASSIFICATION OF HUMAN EMBRYO
US20220012873A1 (en) * 2020-07-10 2022-01-13 Embryonics LTD Predicting Embryo Implantation Probability
WO2022031765A1 (en) 2020-08-03 2022-02-10 Emgenisys, Inc. Embryo evaluation based on real-time video
EP3951793A1 (en) 2020-08-07 2022-02-09 Imvitro Devices and processes for machine learning prediction of in-vitro fertilization
CN112587089B (zh) * 2020-11-19 2023-04-21 新希望六和股份有限公司 基于人工智能的妊娠检测方法、装置、计算机设备和介质
IL305606A (en) * 2021-03-05 2023-11-01 Alife Health Inc Systems and methods for assessing embryo viability using artificial intelligence
US11481900B2 (en) 2021-03-09 2022-10-25 Thread Robotics Inc. System and method for automated gamete selection
CN113077457A (zh) * 2021-04-20 2021-07-06 华中科技大学同济医学院附属同济医院 基于延时摄像系统与深度学习算法预测胚胎能否成囊的系统
WO2022240851A1 (en) * 2021-05-10 2022-11-17 Kang Zhang System and method for outcome evaluations on human ivf-derived embryos
US20230027723A1 (en) * 2021-07-07 2023-01-26 California Institute Of Technology Stain-free detection of embryo polarization using deep learning
US11694344B2 (en) 2021-11-05 2023-07-04 Thread Robotics Inc. System and method for automated cell positioning
CN116757967B (zh) * 2023-08-18 2023-11-03 武汉互创联合科技有限公司 胚胎图像碎片去除方法、计算机设备及可读存储介质
CN116958710B (zh) * 2023-09-01 2023-12-08 武汉互创联合科技有限公司 基于环形特征统计的胚胎发育阶段预测方法及系统
CN117995417B (zh) * 2024-01-23 2024-08-06 上海市同济医院 基于机器学习的ivf/icsi预处理方案优化系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016509845A (ja) 2013-02-28 2016-04-04 プロジェニー, インコーポレイテッド 画像ベースのヒト胚細胞分類のための装置、方法、およびシステム
JP2019076058A (ja) 2017-10-26 2019-05-23 ソニー株式会社 受精卵品質評価方法、プログラム及び情報処理装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013181549A2 (en) * 2012-05-31 2013-12-05 Auxogyn, Inc. In vitro embryo blastocyst prediction methods
CN110688985A (zh) * 2012-08-30 2020-01-14 尤尼森斯繁殖技术公司 体外培养胚胎的自动化监控
BR102012031953B1 (pt) * 2012-12-14 2020-04-07 Univ Estadual Paulista Julio De Mesquita Filho Unesp método para determinação da viabilidade e qualidade de embriões
US9934364B1 (en) * 2017-02-28 2018-04-03 Anixa Diagnostics Corporation Methods for using artificial neural network analysis on flow cytometry data for cancer diagnosis
JP6977293B2 (ja) * 2017-03-31 2021-12-08 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム及び観察システム
EP3688553A4 (en) * 2017-09-29 2021-07-07 The Brigham and Women's Hospital, Inc. AUTOMATED ASSESSMENT OF HUMAN EMBRYOS

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016509845A (ja) 2013-02-28 2016-04-04 プロジェニー, インコーポレイテッド 画像ベースのヒト胚細胞分類のための装置、方法、およびシステム
JP2019076058A (ja) 2017-10-26 2019-05-23 ソニー株式会社 受精卵品質評価方法、プログラム及び情報処理装置

Also Published As

Publication number Publication date
AU2018384082B2 (en) 2022-01-06
RU2020119401A3 (ja) 2022-03-09
IL275253A (en) 2020-07-30
JP2021507367A (ja) 2021-02-22
AU2018384082A1 (en) 2020-06-18
CN111787877A (zh) 2020-10-16
WO2019113643A1 (en) 2019-06-20
EP3723640A1 (en) 2020-10-21
EP3723640A4 (en) 2021-07-14
US20200311916A1 (en) 2020-10-01
RU2020119401A (ru) 2021-12-14

Similar Documents

Publication Publication Date Title
JP7072067B2 (ja) 胚の生存率を推定するためのシステムおよび方法
US11816753B2 (en) Automated evaluation of human embryos
WO2020157761A1 (en) Automated evaluation of embryo implantation potential
US11954926B2 (en) Image feature detection
JP2022551683A (ja) 人工知能(ai)モデルを使用した非侵襲的遺伝子検査を行う方法及びシステム
CN117836820A (zh) 用于人ivf衍生胚胎的结果评价的系统和方法
CN114206223A (zh) 辅助生殖技术中的自适应图像处理方法和系统
US20230018456A1 (en) Methods and systems for determining optimal decision time related to embryonic implantation
US20220392062A1 (en) Method based on image conditioning and preprocessing for human embryo classification
EP3951793A1 (en) Devices and processes for machine learning prediction of in-vitro fertilization
Erlich et al. Pseudo contrastive labeling for predicting IVF embryo developmental potential
US20230027723A1 (en) Stain-free detection of embryo polarization using deep learning
AU2024200572A1 (en) Automated evaluation of quality assurance metrics for assisted reproduction procedures
US10748288B2 (en) Methods and systems for determining quality of an oocyte
Zeman et al. Deep learning for human embryo classification at the cleavage stage (Day 3)
RU2800079C2 (ru) Системы и способы оценки жизнеспособности эмбрионов
AU2019101174A4 (en) Systems and methods for estimating embryo viability
US20240249142A1 (en) Methods and systems for embryo classificiation
CN115188413A (zh) 一种染色体核型分析模块
Sharma et al. Deep learning methods to forecasting human embryo development in time-lapse videos
Chen et al. Automating blastocyst formation and quality prediction in time-lapse imaging with adaptive key frame selection
Sharma et al. Exploring Embryo Development at the Morula Stage-an AI-based Approach to Determine Whether to Use or Discard an Embryo
Lockhart et al. Human embryo cell centroid localization and counting in time-lapse sequences
Eswaran et al. Deep Learning Algorithms for Timelapse Image Sequence-Based Automated Blastocyst Quality Detection
US20240312560A1 (en) Systems and methods for non-invasive preimplantation embryo genetic screening

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220509

R150 Certificate of patent or registration of utility model

Ref document number: 7072067

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150