JP7507760B2 - 学習型のオートフォーカス - Google Patents
学習型のオートフォーカス Download PDFInfo
- Publication number
- JP7507760B2 JP7507760B2 JP2021527993A JP2021527993A JP7507760B2 JP 7507760 B2 JP7507760 B2 JP 7507760B2 JP 2021527993 A JP2021527993 A JP 2021527993A JP 2021527993 A JP2021527993 A JP 2021527993A JP 7507760 B2 JP7507760 B2 JP 7507760B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- focus position
- data
- trained model
- recorded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 83
- 238000012549 training Methods 0.000 claims description 41
- 238000013528 artificial neural network Methods 0.000 claims description 40
- 230000003287 optical effect Effects 0.000 claims description 32
- 238000013135 deep learning Methods 0.000 claims description 13
- 238000002474 experimental method Methods 0.000 claims description 13
- 238000005259 measurement Methods 0.000 claims description 12
- 238000004458 analytical method Methods 0.000 claims description 10
- 230000001419 dependent effect Effects 0.000 claims description 10
- 238000005286 illumination Methods 0.000 claims description 10
- 238000001454 recorded image Methods 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 claims description 4
- 238000010186 staining Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000000386 microscopy Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000001028 reflection method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000007175 bidirectional communication Effects 0.000 description 3
- 230000006854 communication Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 108020001568 subdomains Proteins 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010226 confocal imaging Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000012634 optical imaging Methods 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000003325 tomography Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000004624 confocal microscopy Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000011534 incubation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 231100000760 phototoxic Toxicity 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/24—Base structure
- G02B21/241—Devices for focusing
- G02B21/244—Devices for focusing using image analysis techniques
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/36—Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
- G02B21/365—Control or image processing arrangements for digital or video microscopes
- G02B21/367—Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/693—Acquisition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Optics & Photonics (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Signal Processing (AREA)
- Microscoopes, Condenser (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
Description
・すべてのサブシステム、すなわち画像記録システムのコンポーネント、センサ、およびアクチュエータを相互に、かつ適切なモデルとネットワーク化する。これらのサブシステムは、インテリジェントであっても、すなわち、自身でニューラルネットワークまたはマシンインテリジェンスを有していてもよいし、またはインテリジェントでなくてもよい。
・画像記録システムのすべてのサブシステムおよびモジュールを1つまたは複数の画像記録システムとネットワーク化することにより、ドメインおよびサブドメインを有する階層構造が得られる。
・すべてのドメインおよびサブドメイン、ならびに関連するシステムおよびサブシステムを一元的に検出して検索することが可能であり、これによってモデルマネージャモデルをこれらに分布させることができる。
・タイムクリティカルなアプリケーションでの通信のために、バスシステムのための専用のハードウェアを使用することができる。これに代えて、TCP/IPまたは適切なWeb標準に準拠したネットワーク接続部を使用することもできる。
・バスシステムは、好ましくは、以下のデータまたはその一部を管理する:それぞれのコンポーネント(アクチュエータ、センサ、顕微鏡、顕微鏡システム、コンピュータリソース、作業グループ、機関)のID;著者、機関、実行中の機械の読み取り/書き込み権、所望の支払いシステムによる権利管理;実験およびモデルからのメタデータ;画像データ;学習されたパラメータ、アクティブ化、および非表示表現を有するモデルおよびそのアーキテクチャ;所要のインターフェース;環境変数、ライブラリなどを有する所要のランタイム環境;モデルマネージャおよび権利管理によって必要とされるすべてのさらなるデータ。
・多数の異なるAI対応のコンポーネントにより、複数のドメインおよびサブドメイン有する階層構造が生成される。すべてのコンポーネントは、ディレクトリにおいて検出され、発見可能である。すべてのレベル(すなわち、顕微鏡に付属するコンポーネント、顕微鏡/システム、作業グループ、コンピュータリソース、機関)において、権利管理が実施される。これにより、すべてのアクターの共同作業を容易にする論理的かつ階層的な機能構造が生成される。
110 画像記録装置
112 1つまたは複数のセンサ
114 1つまたは複数のアクチュエータ
120 ユーザインターフェース
122 調節器
124 ソフトウェアユーザインターフェース
130 コンピュータ
132 1つまたは複数のプロセッサ
134 1つまたは複数の揮発性の記憶媒体
136 ニューラルネットワーク
138 1つまたは複数の記憶媒体
140 ネットワーク接続部
150 クラウド
152 AIコンポーネント
210 顕微鏡
220 組み込みコンピュータ
230 システムコンピュータ
240 双方向通信接続部
250 クラウド
260 アクチュエータ
270 センサ
300 画像スタック
310,320,350 記録された画像
330 正しい焦点位置
340,360 予測
400 モデル入力
410,420 ニューラルネットワークの部分
430 モデル出力
500 方法
510~540 方法ステップ
Claims (23)
- 焦点位置を決定するための方法(500)であって、前記方法(500)は、
・少なくとも1つの第1の画像(310,320)を記録するステップ(510)であって、記録された前記少なくとも1つの第1の画像(310,320)の画像データは、前記少なくとも1つの第1の画像が記録されたときの少なくとも1つの第1の焦点位置に依存しているステップ(510)と、
・訓練されたモデル(136)による、記録された前記少なくとも1つの第1の画像(310,320)のみの分析に基づいて、第2の焦点位置(330)を決定するステップ(520)と、
・前記第2の焦点位置(330)を用いて、少なくとも1つの第2の画像(350)を記録するステップ(540)と、
を含む方法(500)において、
前記少なくとも1つの第1の画像(310,320)および前記少なくとも1つの第2の画像(350)は、前記訓練されたモデル(136)の訓練に関連する情報を含み、
記録された前記少なくとも1つの第1の画像のうちの1つまたは複数において結像された1つまたは複数の物体のうちの少なくとも1つの物体は、記録された前記少なくとも1つの第2の画像内では、記録された前記少なくとも1つの第1の画像内よりもより鮮明に結像され、
前記少なくとも1つの物体は、前記訓練されたモデルの訓練に関連する、
方法。 - 前記少なくとも1つの第1の画像(310,320)は、前記少なくとも1つの第2の画像(350)よりも低い分解能によって記録される、
請求項1記載の方法。 - 記録された前記少なくとも1つの第1の画像(310,320)は、1つまたは複数の物体を結像し、
記録された前記少なくとも1つの第2の画像(350)は、記録された前記少なくとも1つの第1の画像(310,320)よりもより鮮明に、前記1つまたは複数の物体のうちの少なくとも1つの物体を結像する、
請求項1または2記載の方法。 - 他の物体タイプ、他の染色、および一般的に他の用途を支援するために、訓練されたモデルは、実験または測定の実行中に交換および再ロードされ、かつ/または、
マスターモデルが使用分野を分類して、適切なモデルを自動的に選択し、その後、前記適切なモデルは、実施され、かつ/または、
訓練されたモデルは、アプリストアにおいて提供される、
請求項1から3までのいずれか1項記載の方法。 - 前記第2の焦点位置は、測定中に決定され、かつ/または、
前記少なくとも1つの第1の焦点位置は、光軸に沿って前記第2の焦点位置へとシフトされる、
請求項1から4までのいずれか1項記載の方法。 - 前記少なくとも1つの第1の焦点位置は、少なくとも1つの第1の焦点平面に対応し、
前記第2の焦点位置は、第2の焦点平面に対応し、
前記第2の焦点平面は、物体平面にほぼ一致する、
請求項1から5までのいずれか1項記載の方法。 - 前記第2の焦点位置を決定するステップは、3D走査領域を決定することを含む、
請求項1から6までのいずれか1項記載の方法。 - 前記方法は、
・光学システムとセンサとを含む装置を前記第2の焦点位置へと設定するステップ(530)をさらに含む、
請求項1から7までのいずれか1項記載の方法。 - 前記装置(110;210)を前記第2の焦点位置へと設定するステップは、前記光学システムを前記センサに対して相対的にシフトさせることを含み、かつ/または、
前記装置を前記第2の焦点位置へと設定するステップは、前記光学システムおよび前記センサ(112)を物体に対して相対的にシフトさせることを含む、
請求項8記載の方法。 - 前記方法は、データを検出するステップをさらに含む、
請求項1から9までのいずれか1項記載の方法。 - 前記データを検出するステップは、メタデータを検出することを含み、
前記メタデータは、画像記録モダリティに関する情報、照明に関する情報、試料に関する情報、物体に関する情報、画像を検出するための装置のシステムパラメータに関する情報、画像記録パラメータに関する情報、コンテクスト情報および対物レンズパラメータに関する情報うちの少なくとも1つを含む、
請求項10記載の方法。 - 前記方法は、検出された前記データを用いて前記訓練されたモデル(136)を適合させるステップをさらに含む、
請求項10または11記載の方法。 - 前記訓練されたモデル(136)を適合させるステップは、
前記検出されたデータを用いて、前記訓練されたモデル(136)の一部分(420)を訓練するステップと、
1つまたは複数のソースに由来しておりかつ/または前記検出されたデータが含まれている集約されたデータを用いて、前記訓練されたモデル(136)を再訓練するステップと、
のうちの少なくとも1つを含む、
請求項12記載の方法。 - 前記訓練されたモデル(136)は、1つまたは複数のニューラルネットワークまたは1つまたは複数の深層学習結果ネットワークに基づいており、かつ/または、複数のモデルから選択されたものであり、
複数の前記訓練されたモデルは、使用分野によって分類されており、
複数の前記訓練されたモデルの各々は、特定の手法で訓練されたものであり、
複数の前記訓練されたモデルは、階層的に編成されており、かつ/または、
複数の前記訓練されたモデルからの個々の訓練されたモデルは、試料、実験、測定または機器設定の個々のタイプに向けて専用化されている、
請求項1から13までのいずれか1項記載の方法。 - 焦点位置を決定するための装置(130;210,220,230)であって、
前記装置(130;210,220,230)は、1つまたは複数のプロセッサ(132)と、1つまたは複数のコンピュータ可読記憶媒体(138)と、を含み、
前記1つまたは複数のコンピュータ可読記憶媒体(138)上には、前記1つまたは複数のプロセッサ(132)によって実行された場合に、以下のことを引き起こすコンピュータ実行可能命令が保存されており、すなわち、
少なくとも1つのセンサ(112)が、少なくとも1つの第1の画像(310,320)を検出し、検出された前記少なくとも1つの第1の画像(310,320)の画像データは、前記少なくとも1つの第1の画像が検出されたときの少なくとも1つの第1の焦点位置に依存しており、
第2の焦点位置が決定され、前記第2の焦点位置は、訓練されたモデル(136)による、検出された前記少なくとも1つの第1の画像(310,320)のみの分析に基づいて決定され、
前記第2の焦点位置(330)を用いて、少なくとも1つの第2の画像(350)が記録される
ことを引き起こすコンピュータ実行可能命令が保存されている、
装置(130;210,220,230)において、
前記少なくとも1つの第1の画像(310,320)および前記少なくとも1つの第2の画像(350)は、前記訓練されたモデル(136)の訓練に関連する情報を含み、
記録された前記少なくとも1つの第1の画像のうちの1つまたは複数において結像された1つまたは複数の物体のうちの少なくとも1つの物体は、記録された前記少なくとも1つの第2の画像内では、記録された前記少なくとも1つの第1の画像内よりもより鮮明に結像され、
前記少なくとも1つの物体は、前記訓練されたモデルの訓練に関連する、
装置(130;210,220,230)。 - 前記コンピュータ実行可能命令は、前記1つまたは複数のプロセッサ(132)によって実行された場合に、以下のことをさらに引き起こし、すなわち、
ユーザ定義された焦点位置へと設定されたことを検出したことに基づいて、さらなるデータが検出されることをさらに引き起こし、
前記さらなるデータは、前記ユーザ定義された焦点位置に依存している画像データと、前記ユーザ定義された焦点位置と前記第2の焦点位置との間の相違(340)の表現および/または前記ユーザ定義された焦点位置の表現と、を含む、
請求項15記載の装置。 - 前記さらなるデータを検出することは、画像スタック(300)を検出することを含み、
前記画像スタックのそれぞれの画像の画像データは、前記ユーザ定義された焦点位置に対して、使用されている対物レンズの軸方向分解能の間隔で、光軸に沿ってシフトされた焦点位置に依存しており、かつ/または、
前記ユーザ定義された焦点位置に依存して検出された画像データは、目標状態としてマーキングされ、前記検出された画像データは、前記訓練されたモデル(136)を訓練するために使用される、
請求項16記載の装置。 - 前記コンピュータ実行可能命令は、前記1つまたは複数のプロセッサ(132)によって実行された場合に、以下のことをさらに引き起こし、すなわち、
前記訓練されたモデル(136)が適合されることをさらに引き起こし、
前記訓練されたモデル(136)を適合させることは、
前記検出されたさらなるデータを用いて、前記訓練されたモデル(136)の一部分(420)を訓練することと、
1つまたは複数のソースに由来しておりかつ/または前記さらなるデータが含まれている集約されたデータを用いて、前記訓練されたモデル(136)を再訓練することと、
のうちの少なくとも1つを含む、
請求項16または17記載の装置。 - 焦点位置を設定するための画像記録システム(100)であって、前記画像記録システム(100)は、
請求項15から18までのいずれか1項記載の装置(130;210,220,230)と、
少なくとも1つのセンサ(112;270)と、
前記少なくとも1つのセンサ(112;270)のうちの1つのセンサ上に1つまたは複数の物体を結像させるように構成された光学システムと、
前記画像記録システム(100)を前記第2の焦点位置へと設定するように構成された少なくとも1つのアクチュエータ(114;260)と、
を含む画像記録システム(100)。 - 前記少なくとも1つのアクチュエータ(114;260)は、三脚のZ駆動部、Z検流計、前記光学システムの対物レンズ上のピエゾフォーカス、ダイレクトドライブ、リニアモータ、ステッピングモータ、超音波モータ、リングモータ、マイクロモータおよびピエゾテーブルのうちの少なくとも1つを含み、かつ/または、
前記少なくとも1つのアクチュエータ(114;260)は、焦点合わせ可能な対物レンズの一部であり、前記焦点合わせ可能な対物レンズは、ピエゾ駆動部を用いない焦点技術に基づいている、
請求項19記載の画像記録システム。 - ネットワークを介して、訓練されたモデル(136)をクラウド(150;250)からダウンロードするようにかつ/または検出されたデータを前記クラウド(150;250)にアップロードするように構成された手段を含む、
請求項19または20記載の画像記録システム。 - 前記画像記録システムは、ユーザインターフェース(120)をさらに含み、
前記ユーザインターフェース(120)は、前記ユーザインターフェース(120)を用いて、ユーザ定義された焦点位置を設定することができるようにかつ/または入力パラメータを検出することができるように構成されている、
請求項19から21までのいずれか1項記載の画像記録システム。 - 前記画像記録システムは、デジタルカメラ、カメラ付きの携帯型のコンピュータまたは顕微鏡(210)もしくは顕微鏡システムを含み、かつ/または、
前記装置(130;210,220,230)は、顕微鏡(210)または顕微鏡システムの一部である、
請求項19から22までのいずれか1項記載の画像記録システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018219867.5 | 2018-11-20 | ||
DE102018219867.5A DE102018219867B4 (de) | 2018-11-20 | 2018-11-20 | Lernender Autofokus |
PCT/EP2019/081916 WO2020104521A2 (de) | 2018-11-20 | 2019-11-20 | Lernender autofokus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022509959A JP2022509959A (ja) | 2022-01-25 |
JP7507760B2 true JP7507760B2 (ja) | 2024-06-28 |
Family
ID=68621300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021527993A Active JP7507760B2 (ja) | 2018-11-20 | 2019-11-20 | 学習型のオートフォーカス |
Country Status (5)
Country | Link |
---|---|
US (1) | US11971529B2 (ja) |
EP (1) | EP3884657A2 (ja) |
JP (1) | JP7507760B2 (ja) |
DE (1) | DE102018219867B4 (ja) |
WO (1) | WO2020104521A2 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11709156B2 (en) | 2017-09-18 | 2023-07-25 | Waters Technologies Corporation | Use of vapor deposition coated flow paths for improved analytical analysis |
US11709155B2 (en) | 2017-09-18 | 2023-07-25 | Waters Technologies Corporation | Use of vapor deposition coated flow paths for improved chromatography of metal interacting analytes |
JP7395910B2 (ja) * | 2019-09-27 | 2023-12-12 | ソニーグループ株式会社 | 情報処理装置、電子機器、端末装置、情報処理システム、情報処理方法及びプログラム |
JP2021093568A (ja) * | 2019-12-06 | 2021-06-17 | キヤノン株式会社 | 撮像装置、情報処理装置、及びこれらの制御方法並びにプログラム、学習済みモデル選択システム |
US11918936B2 (en) | 2020-01-17 | 2024-03-05 | Waters Technologies Corporation | Performance and dynamic range for oligonucleotide bioanalysis through reduction of non specific binding |
WO2022009112A1 (en) * | 2020-07-07 | 2022-01-13 | Secretary, Department Of Biotechnology | Digital microscope with artificial intelligence based imaging |
DE102020118801A1 (de) | 2020-07-16 | 2022-01-20 | Carl Zeiss Microscopy Gmbh | Mikroskop und verfahren zur abstandsbestimmung einer probenreferenzebene |
EP3951472A1 (en) * | 2020-08-05 | 2022-02-09 | Leica Microsystems CMS GmbH | Autofocusing means for a microscope |
US20220046180A1 (en) * | 2020-08-07 | 2022-02-10 | Nanotronics Imaging, Inc. | Deep Learning Model for Auto-Focusing Microscope Systems |
DE102020124416A1 (de) | 2020-09-18 | 2022-03-24 | Carl Zeiss Microscopy Gmbh | Mikroskopiesystem, verfahren und computerprogramm zum ausrichten eines probenträgers |
WO2022081863A2 (en) * | 2020-10-16 | 2022-04-21 | Life Technologies Corporation | Systems and methods for autofocus and automated cell count using artificial intelligence |
US11915360B2 (en) * | 2020-10-20 | 2024-02-27 | The Regents Of The University Of California | Volumetric microscopy methods and systems using recurrent neural networks |
CN112633248B (zh) * | 2021-01-05 | 2023-08-18 | 清华大学深圳国际研究生院 | 深度学习全在焦显微图像获取方法 |
US20220351347A1 (en) * | 2021-02-25 | 2022-11-03 | California Institute Of Technology | Computational refocusing-assisted deep learning |
DE102021104871A1 (de) * | 2021-03-01 | 2022-09-01 | Carl Zeiss Microscopy Gmbh | Verfahren und Vorrichtung zur lichtblattmikroskopischen Untersuchung einer Probe |
DE102021204031A1 (de) * | 2021-04-22 | 2022-10-27 | Carl Zeiss Meditec Ag | Verfahren zum Betreiben eines Operationsmikroskops und Operationsmikroskop |
CN113438413B (zh) * | 2021-05-27 | 2022-04-12 | 长春迈克赛德医疗科技有限公司 | 一种有形成分分析仪的自动聚焦方法 |
WO2023002679A1 (ja) * | 2021-07-19 | 2023-01-26 | 浜松ホトニクス株式会社 | 焦点位置推定システム、焦点位置推定方法、焦点位置推定プログラム、半導体検査システム及び生体観察システム |
CN113610803B (zh) * | 2021-08-06 | 2024-09-06 | 苏州迪美格智能科技有限公司 | 数字切片扫描仪的自动分层对焦方法及装置 |
WO2023178626A1 (en) * | 2022-03-24 | 2023-09-28 | Qualcomm Incorporated | Systems and methods of adaptive phase detection autofocus offset correction |
CN117714861B (zh) * | 2023-08-01 | 2024-09-13 | 上海荣耀智慧科技开发有限公司 | 图像处理方法及电子设备 |
CN117132646B (zh) * | 2023-10-26 | 2024-01-05 | 湖南自兴智慧医疗科技有限公司 | 基于深度学习的分裂相自动对焦系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016505989A (ja) | 2013-01-03 | 2016-02-25 | アップトゥデイト インコーポレイテッド | データベースクエリー翻訳システム |
US20170353991A1 (en) | 2016-06-07 | 2017-12-07 | TUPL, Inc. | Artificial intelligence-based network advisor |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2761391B2 (ja) * | 1988-10-04 | 1998-06-04 | オリンパス光学工業株式会社 | 焦点検出装置 |
JPH04330411A (ja) * | 1991-05-02 | 1992-11-18 | Olympus Optical Co Ltd | 自動合焦装置 |
US7106502B1 (en) * | 2003-08-21 | 2006-09-12 | The United States Of America As Represented By The Administrator Of National Aeronautics And Space Administration | Operation of a Cartesian robotic system in a compact microscope imaging system with intelligent controls |
KR100799829B1 (ko) * | 2006-10-11 | 2008-01-31 | 삼성전기주식회사 | 신경망을 이용한 오토포커싱 방법 |
KR101488655B1 (ko) * | 2007-09-14 | 2015-02-03 | 삼성전자 주식회사 | 자동 초점 조절 장치 및 방법 |
GB2466830B (en) | 2009-01-09 | 2013-11-13 | Ffei Ltd | Method and apparatus for controlling a microscope |
DE102014102080B4 (de) * | 2014-02-19 | 2021-03-11 | Carl Zeiss Ag | Verfahren zur Bildaufnahme und Bildaufnahmesystem |
US9516237B1 (en) * | 2015-09-01 | 2016-12-06 | Amazon Technologies, Inc. | Focus-based shuttering |
CN105652429B (zh) * | 2016-03-22 | 2018-07-17 | 哈尔滨理工大学 | 一种基于机器学习的显微镜细胞载玻片扫描自动聚焦方法 |
US10477097B2 (en) * | 2017-01-03 | 2019-11-12 | University Of Connecticut | Single-frame autofocusing using multi-LED illumination |
CN108182412A (zh) * | 2017-12-29 | 2018-06-19 | 百度在线网络技术(北京)有限公司 | 用于检测图像类型的方法及装置 |
US10888380B2 (en) * | 2018-07-12 | 2021-01-12 | Alcon Inc. | Systems and methods for intraocular lens selection |
JP2020060602A (ja) * | 2018-10-04 | 2020-04-16 | キヤノン株式会社 | 焦点調整装置およびその制御方法ならびにプログラム |
-
2018
- 2018-11-20 DE DE102018219867.5A patent/DE102018219867B4/de active Active
-
2019
- 2019-11-20 WO PCT/EP2019/081916 patent/WO2020104521A2/de unknown
- 2019-11-20 EP EP19806214.3A patent/EP3884657A2/de active Pending
- 2019-11-20 US US17/294,692 patent/US11971529B2/en active Active
- 2019-11-20 JP JP2021527993A patent/JP7507760B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016505989A (ja) | 2013-01-03 | 2016-02-25 | アップトゥデイト インコーポレイテッド | データベースクエリー翻訳システム |
US20170353991A1 (en) | 2016-06-07 | 2017-12-07 | TUPL, Inc. | Artificial intelligence-based network advisor |
Also Published As
Publication number | Publication date |
---|---|
US11971529B2 (en) | 2024-04-30 |
JP2022509959A (ja) | 2022-01-25 |
DE102018219867B4 (de) | 2020-10-29 |
DE102018219867A1 (de) | 2020-05-20 |
WO2020104521A3 (de) | 2020-08-13 |
US20220028116A1 (en) | 2022-01-27 |
EP3884657A2 (de) | 2021-09-29 |
WO2020104521A2 (de) | 2020-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7507760B2 (ja) | 学習型のオートフォーカス | |
Dastidar et al. | Whole slide imaging system using deep learning-based automated focusing | |
Yazdanfar et al. | Simple and robust image-based autofocusing for digital microscopy | |
EP3203290B1 (en) | Image processing method | |
Guo et al. | InstantScope: a low-cost whole slide imaging system with instant focal plane detection | |
TWI811758B (zh) | 用於自動對焦顯微鏡系統之深度學習模組、自動對焦一顯微鏡系統之方法及非暫時性電腦可讀媒體 | |
Wang et al. | Deep learning for camera autofocus | |
CN112714888B (zh) | 显微镜系统、投影单元以及图像投影方法 | |
Liao et al. | Deep learning-based single-shot autofocus method for digital microscopy | |
JP7331097B2 (ja) | 顕微鏡のワークフローの最適化 | |
JP2022505251A (ja) | 推論顕微鏡 | |
Xiang et al. | Autofocus of whole slide imaging based on convolution and recurrent neural networks | |
Ivanov et al. | DeepFocus: a deep learning model for focusing microscope systems | |
US11800223B2 (en) | Focus adjustment device and focus adjustment method | |
Sha et al. | A fast autofocus sharpness function of microvision system based on the Robert function and Gauss fitting | |
Qu et al. | A self‐adaptive and nonmechanical motion autofocusing system for optical microscopes | |
Zhang et al. | Focusing algorithm of automatic control microscope based on digital image processing | |
US20230190402A1 (en) | System, method, and computer program for a surgical microscope system and corresponding surgical microscope system | |
US20230259003A1 (en) | Apparatus and method for an imaging device | |
JP5648366B2 (ja) | 顕微鏡制御装置及び領域判定方法 | |
WO2023166624A1 (ja) | 焦点調整方法、プログラム、装置 | |
Zhu et al. | sPhaseStation: a whole slide quantitative phase imaging system based on dual-view transport of intensity phase microscopy | |
Ikoma | Computational Fluorescence Microscopy for Three Dimensional Reconstruction | |
KR20240008091A (ko) | 디포커스 학습 장치 및 이와 통신하는 카메라 장치 | |
CN117676326A (zh) | 一种对焦方法以及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210618 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220509 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220929 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240618 |