JP7363883B2 - 画像処理の方法、デバイス及びコンピュータ可読記憶媒体 - Google Patents
画像処理の方法、デバイス及びコンピュータ可読記憶媒体 Download PDFInfo
- Publication number
- JP7363883B2 JP7363883B2 JP2021208765A JP2021208765A JP7363883B2 JP 7363883 B2 JP7363883 B2 JP 7363883B2 JP 2021208765 A JP2021208765 A JP 2021208765A JP 2021208765 A JP2021208765 A JP 2021208765A JP 7363883 B2 JP7363883 B2 JP 7363883B2
- Authority
- JP
- Japan
- Prior art keywords
- depth map
- reference image
- dense
- constraint
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims 3
- 238000003860 storage Methods 0.000 title description 26
- 238000012545 processing Methods 0.000 claims description 69
- 238000000034 method Methods 0.000 claims description 56
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 17
- 230000009466 transformation Effects 0.000 claims description 17
- 238000009826 distribution Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 10
- 238000001356 surgical procedure Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000012549 training Methods 0.000 description 7
- 238000003062 neural network model Methods 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 210000000056 organ Anatomy 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000036544 posture Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000013480 data collection Methods 0.000 description 3
- 230000003902 lesion Effects 0.000 description 3
- 238000002432 robotic surgery Methods 0.000 description 3
- 210000002784 stomach Anatomy 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000001839 endoscopy Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010339 medical test Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/02—Affine transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Description
図1Aは、本開示の実施形態にかかる画像処理システム100の概略ブロック図を示す。図1Aに示すように、システム100は、データ収集装置110、データ前処理装置120、スパース再構成装置130、モデル学習装置140、及びモデル適用装置150を備えることができる。いくつかの実施形態では、上述の複数の装置はそれぞれ、異なる物理デバイスに実装することができる。任意で、上述の複数のデバイスのうち少なくとも一部は、同一の物理デバイスに実装されてもよい。例えば、データ収集装置110、データ前処理装置120、スパース再構成装置130、及びモデル学習装置140を、同一の物理デバイスに実装し、モデル適用装置150を別の物理デバイスに実装してもよい。
以下、図2及び図3を結びつけて、図1Aに示すスパース再構成装置130が実行する操作について、さらに詳細に説明する。図2は、シーケンス画像セット102から取得された参照対象250の参照画像201及び参照画像202を示す。参照画像201及び参照画像202は、参照カメラによって、参照対象250に対して異なる位置で捉えられる。参照画像201と参照画像202は、同一シーケンスの画像における2つの参照画像であってもよい。いくつかの実施形態では、参照画像201及び参照画像202は、映像ストリーム内で隣接する2つのフレームであってもよい。いくつかの実施形態では、参照画像201及び参照画像202は、映像ストリームにおいて所定の数離れた2つのフレームであってもよい。例えば、参照画像201は第iフレームであり、参照画像202は第i+jフレームであってもよい。ここで、iは正の整数であり、jは例えば2、3等であってもよい。
以下、図4A及び図4Bを結びつけて、図1Aに示すモデル学習装置140が実行する操作について、さらに詳細に説明する。モデル学習装置140は、参照画像201及び参照画像202に基づいて深度推定モデル104に学習させることができる。具体的に、モデル学習装置140は、深度推定モデル104に学習させるための制約を決定することができる。このような制約は、同じ参照画像の異なる深度マップ間の差に関する第1制約と、異なる参照画像の深度の一致性に関する第2制約とを含むことができる。第1制約は、同じ参照画像における密度の異なる深度マップ間の差に関連することができ、例えば、第1制約は後述するスパース深度損失(SDL:sparse depth loss)であってもよい。任意で、第1制約は、同じ参照画像における、密度は同じだが深度情報が異なる2つ以上の深度マップ間の差に関連してもよい。例えば、このような2つ以上の深度マップは、異なる方法で取得されてもよい。
図5は、本開示の実施形態にかかる、画像処理に用いられる例示的方法500のフローチャートを示す。例えば、方法500は、図1Aに示すシステム100の少なくとも一部(例えばモデル学習装置140)によって実行してもよい。以下、図1A~図4Bと結びつけて方法500を説明する。理解すべき点として、方法500はさらに、図示されていない付加的ブロックを含んでもよく、且つ/又は示されたいくつかのブロックを省略してもよい。本開示の範囲は、この点において限定されない。
図7は、本開示の実施形態を実施可能な例示的コンピューティングデバイス700の概略ブロック図を示す。例えば、図1Aに示すシステム100の1つ又は複数の装置は、デバイス700によって実施することができる。図に示すように、デバイス700は、中央プロセッサユニット(CPU)701を含む。CPU701は、リードオンリーメモリ(ROM)702に記憶されたコンピュータプログラムの命令、又は記憶ユニット708からランダムアクセスメモリ(RAM)703にロードされたコンピュータプログラムの命令に基づき、各種の適切な動作及び処理を実行することができる。RAM703にはさらに、デバイス700の操作に必要な各種プログラム及びデータを記憶することができる。CPU701、ROM702及びRAM703はバス704を介して互いに接続されている。入力/出力(I/O)インタフェース705もバス704に接続されている。
Claims (13)
- 参照対象に対する異なる位置で参照カメラによって捉えられる、前記参照対象の第1参照画像及び第2参照画像を取得することと、
前記第1参照画像と前記第2参照画像に基づいて、第1制約と第2制約を決定することと、
前記第1制約と前記第2制約に少なくとも基づいて、深度推定モデルに学習させて、学習済みの前記深度推定モデルを取得することと、
を含み、
前記第1制約と前記第2制約を決定することは、
前記第1参照画像に対応する第1のスパース深度マップ及び第1のデンス深度マップ、並びに前記第2参照画像に対応する第2のスパース深度マップ及び第2のデンス深度マップを取得することと、
前記第1のスパース深度マップ、前記第1のデンス深度マップ、前記第2のスパース深度マップ、及び前記第2のデンス深度マップに基づいて、前記第1制約を決定することと、
前記第1のデンス深度マップと前記第2のデンス深度マップに基づいて、前記第2制約を決定することと、
を含み、
前記第1のデンス深度マップと前記第2のデンス深度マップに基づいて、前記第2制約を決定することは、
前記第1参照画像及び前記第2参照画像を捉える際の前記参照カメラの相対的な姿勢を用いて、前記第2のデンス深度マップを、前記第1参照画像に対応する第1変換深度マップに変換することと、
前記相対的な姿勢を用いて、前記第1のデンス深度マップを、前記第2参照画像に対応する第2変換深度マップに変換することと、
前記第1のデンス深度マップと前記第1変換深度マップとの差、及び、前記第2のデンス深度マップと前記第2変換深度マップとの差に基づいて、前記第2制約を決定することと、
を含む、
画像処理の方法。 - 前記第1制約と前記第2制約を決定することは、
前記第1参照画像に対応する第1のデンス深度マップ及び第3のデンス深度マップ、並びに前記第2参照画像に対応する第2のデンス深度マップ及び第4のデンス深度マップを取得することと、
前記第1のデンス深度マップ、前記第2のデンス深度マップ、前記第3のデンス深度マップ及び前記第4のデンス深度マップに基づいて、前記第1制約を決定することと、
前記第1のデンス深度マップと前記第2のデンス深度マップに基づいて、前記第2制約を決定することと、
を含み、
前記第1のデンス深度マップと前記第3のデンス深度マップは異なる深度情報を有し、前記第2のデンス深度マップと前記第4のデンス深度マップは異なる深度情報を有する、
請求項1に記載の方法。 - 前記第1のスパース深度マップと前記第2のスパース深度マップを取得することは、
前記第1参照画像及び前記第2参照画像の画像特徴に基づいて、複数ペアの画素を決定することと、
前記複数ペアの画素に少なくとも基づいて、前記複数ペアの画素にそれぞれ対応する複数の点を少なくとも含む前記参照対象の点群を構築することと、
前記点群と、前記第1参照画像を捉える際の前記参照カメラの姿勢とに基づいて、前記第1のスパース深度マップを決定することと、
前記点群と、前記第2参照画像を捉える際の前記参照カメラの姿勢とに基づいて、前記第2のスパース深度マップを決定することと、
を含み、
各ペアの画素は、前記第1参照画像における第1画素と前記第2参照画像における第2画素とを含み、前記第2画素は、前記画像特徴に従って前記第1画素とマッチングされる、
請求項1に記載の方法。 - 前記参照対象の前記点群を構築することは、
前記複数ペアの画素に基づいて、前記第1参照画像と前記第2参照画像との間のアフィン変換を決定することと、
前記複数ペアの画素と前記アフィン変換とに基づいて、前記第1参照画像及び前記第2参照画像から別の複数ペアの画素を決定することと、
前記複数ペアの画素と前記別の複数ペアの画素とに基づいて前記点群を構築することと、
を含み、
前記点群は、前記別の複数ペアの画素に対応する複数の点も含む、
請求項3に記載の方法。 - 前記第1のスパース深度マップ、前記第1のデンス深度マップ、前記第2のスパース深度マップ、及び前記第2のデンス深度マップに基づいて、前記第1制約を決定することは、
前記第1のスパース深度マップに対する前記第1のデンス深度マップの第1拡大縮小係数と、前記第2のスパース深度マップに対する前記第2のデンス深度マップの第2拡大縮小係数とを決定することと、
前記第1のスパース深度マップと、前記第1拡大縮小係数に基づき拡大縮小された前記第1のデンス深度マップとの間の第1の差を決定することと、
前記第2のスパース深度マップと、前記第2拡大縮小係数に基づき拡大縮小された前記第2のデンス深度マップとの間の第2の差を決定することと、
前記第1の差と前記第2の差に基づいて、前記第1制約を決定することと、
を含む、
請求項1に記載の方法。 - 前記第1制約と前記第2制約に少なくとも基づいて、前記深度推定モデルに学習させることは、
前記第1参照画像及び前記第2参照画像を捉える際の前記参照カメラの相対的な姿勢と、前記第1参照画像の強度分布と、前記第2参照画像の強度分布とに基づいて、異なる参照画像の強度の差に関する第3制約を決定することと、
前記第1制約、前記第2制約、及び前記第3制約に基づいて、前記深度推定モデルに学習させることと、
を含む、
請求項1に記載の方法。 - 前記第1参照画像及び前記第2参照画像は、
映像において隣接する2つのフレーム、又は、
映像において所定の数離れた2つのフレーム
のうちの少なくとも1つを含む、
請求項1に記載の方法。 - 前記映像は単眼式内視鏡で生成される、
請求項7に記載の方法。 - ターゲット対象に対する異なる位置でターゲットカメラによって捉えられる、前記ターゲット対象のシーケンスターゲット画像を取得することと、
請求項1~8のいずれか1項に記載の方法により学習させた深度推定モデルを用いて、前記シーケンスターゲット画像の少なくとも1つのターゲット画像に対応する深度マップを生成することと、
を含む、
画像処理の方法。 - 前記シーケンスターゲット画像の少なくとも1つのターゲット画像に対応する深度マップを生成することは、
前記シーケンスターゲット画像に対応するシーケンス深度マップを生成することを含み、
さらに、
前記シーケンス深度マップに少なくとも基づいて、前記ターゲット対象の三次元画像を生成することを含む、
請求項9に記載の方法。 - 請求項1~8のいずれか1項に記載の方法を実行するように設定される少なくとも1つの処理回路を備える、
電子デバイス。 - 少なくとも1つの処理回路を含み、
前記少なくとも1つの処理回路は、
ターゲット対象に対する異なる位置でターゲットカメラによって捉えられる、前記ターゲット対象のシーケンスターゲット画像を取得し、
請求項1~6のいずれか1項に記載の方法により学習させた深度推定モデルを用いて、前記シーケンスターゲット画像の少なくとも1つのターゲット画像に対応する深度マップを生成するように設定される、
コンピューティングデバイス。 - マシン可読命令を含み、
前記マシン可読命令は、デバイスにより実行される場合、前記デバイスに、請求項1~10のいずれか1項に記載の方法を実行させる、
コンピュータ可読プログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011545921.8 | 2020-12-23 | ||
CN202011545921.8A CN114663575A (zh) | 2020-12-23 | 2020-12-23 | 图像处理的方法、设备和计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022100299A JP2022100299A (ja) | 2022-07-05 |
JP7363883B2 true JP7363883B2 (ja) | 2023-10-18 |
Family
ID=82023225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021208765A Active JP7363883B2 (ja) | 2020-12-23 | 2021-12-22 | 画像処理の方法、デバイス及びコンピュータ可読記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US12118737B2 (ja) |
JP (1) | JP7363883B2 (ja) |
CN (1) | CN114663575A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12087007B2 (en) * | 2021-03-31 | 2024-09-10 | Auris Health, Inc. | Vision-based 6DOF camera pose estimation in bronchoscopy |
US20230083014A1 (en) * | 2021-09-14 | 2023-03-16 | Black Sesame Technologies Inc. | Depth estimation based on data fusion of image sensor and depth sensor frames |
US20230111306A1 (en) * | 2021-10-13 | 2023-04-13 | GE Precision Healthcare LLC | Self-supervised representation learning paradigm for medical images |
CN118505773B (zh) * | 2024-07-17 | 2024-10-18 | 神鳍科技(上海)有限公司 | 一种无监督的单目深度和光流估计方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200195910A1 (en) | 2018-12-14 | 2020-06-18 | Samsung Electronics Co., Ltd. | Apparatus including multiple cameras and image processing method |
JP2020123114A (ja) | 2019-01-30 | 2020-08-13 | 日本電信電話株式会社 | 深度超解像装置、深度超解像方法、及びプログラム |
CN112037150A (zh) | 2020-09-07 | 2020-12-04 | 贝壳技术有限公司 | 孔洞修复模型训练及修复方法、装置、系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7190842B2 (ja) * | 2017-11-02 | 2022-12-16 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
CN110610486B (zh) * | 2019-08-28 | 2022-07-19 | 清华大学 | 单目图像深度估计方法及装置 |
CN111145238B (zh) * | 2019-12-12 | 2023-09-22 | 中国科学院深圳先进技术研究院 | 单目内窥镜图像的三维重建方法、装置及终端设备 |
CN111784757B (zh) * | 2020-06-30 | 2024-01-23 | 北京百度网讯科技有限公司 | 深度估计模型的训练方法、深度估计方法、装置及设备 |
-
2020
- 2020-12-23 CN CN202011545921.8A patent/CN114663575A/zh active Pending
-
2021
- 2021-12-22 JP JP2021208765A patent/JP7363883B2/ja active Active
- 2021-12-22 US US17/645,611 patent/US12118737B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200195910A1 (en) | 2018-12-14 | 2020-06-18 | Samsung Electronics Co., Ltd. | Apparatus including multiple cameras and image processing method |
JP2020123114A (ja) | 2019-01-30 | 2020-08-13 | 日本電信電話株式会社 | 深度超解像装置、深度超解像方法、及びプログラム |
CN112037150A (zh) | 2020-09-07 | 2020-12-04 | 贝壳技术有限公司 | 孔洞修复模型训练及修复方法、装置、系统 |
Also Published As
Publication number | Publication date |
---|---|
US12118737B2 (en) | 2024-10-15 |
CN114663575A (zh) | 2022-06-24 |
JP2022100299A (ja) | 2022-07-05 |
US20220198693A1 (en) | 2022-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7363883B2 (ja) | 画像処理の方法、デバイス及びコンピュータ可読記憶媒体 | |
Mahmood et al. | Unsupervised reverse domain adaptation for synthetic medical images via adversarial training | |
Song et al. | Mis-slam: Real-time large-scale dense deformable slam system in minimal invasive surgery based on heterogeneous computing | |
Shen et al. | Context-aware depth and pose estimation for bronchoscopic navigation | |
CN113496489B (zh) | 内窥镜图像分类模型的训练方法、图像分类方法和装置 | |
Zhou et al. | Real-time dense reconstruction of tissue surface from stereo optical video | |
CN112802185B (zh) | 面向微创手术空间感知的内窥镜图像三维重构方法和系统 | |
CN111080778B (zh) | 一种双目内窥镜软组织图像的在线三维重建方法 | |
CN112614169A (zh) | 基于深度学习网络的2d/3d脊椎ct层级配准方法 | |
CN114863225B (zh) | 图像处理模型训练方法、生成方法、装置、设备及介质 | |
CN113822289A (zh) | 图像降噪模型的训练方法、装置、设备及存储介质 | |
CN116997928A (zh) | 使用诊断图像生成解剖模型的方法和设备 | |
Karaoglu et al. | Adversarial domain feature adaptation for bronchoscopic depth estimation | |
Chen et al. | FRSR: Framework for real-time scene reconstruction in robot-assisted minimally invasive surgery | |
CN114399527A (zh) | 单目内窥镜无监督深度和运动估计的方法及装置 | |
Zhou et al. | Real-time nonrigid mosaicking of laparoscopy images | |
Tao et al. | SVT-SDE: spatiotemporal vision transformers-based self-supervised depth estimation in stereoscopic surgical videos | |
Zhou et al. | Synchronizing detection and removal of smoke in endoscopic images with cyclic consistency adversarial nets | |
Wei et al. | Stereo dense scene reconstruction and accurate laparoscope localization for learning-based navigation in robot-assisted surgery | |
Yang et al. | 3D reconstruction from endoscopy images: A survey | |
Rodriguez et al. | Nr-slam: Non-rigid monocular slam | |
CN114584675B (zh) | 一种自适应视频增强方法和装置 | |
CN113538335A (zh) | 一种无线胶囊内窥镜的体内相对定位方法和装置 | |
CN116091378A (zh) | 图像处理的方法和电子设备 | |
Jin | Development of endoscopic SLAM and the challenges |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230214 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230918 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7363883 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |