JPWO2021159048A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021159048A5
JPWO2021159048A5 JP2022547862A JP2022547862A JPWO2021159048A5 JP WO2021159048 A5 JPWO2021159048 A5 JP WO2021159048A5 JP 2022547862 A JP2022547862 A JP 2022547862A JP 2022547862 A JP2022547862 A JP 2022547862A JP WO2021159048 A5 JPWO2021159048 A5 JP WO2021159048A5
Authority
JP
Japan
Prior art keywords
depth map
camera
image data
data
autofocus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022547862A
Other languages
English (en)
Other versions
JP2023512563A (ja
Publication date
Application filed filed Critical
Priority claimed from PCT/US2021/016999 external-priority patent/WO2021159048A1/en
Publication of JP2023512563A publication Critical patent/JP2023512563A/ja
Publication of JPWO2021159048A5 publication Critical patent/JPWO2021159048A5/ja
Pending legal-status Critical Current

Links

Claims (34)

  1. 画像データを生成するための第1および第2カメラを有するカメラアセンブリを有するロボットサブシステム、
    コンピューティングユニット、
    を備え、
    前記コンピューティングユニットは、
    前記画像データを処理するためのプロセッサ、
    前記ロボットサブシステムを制御するための制御ユニット、
    前記第1および第2カメラによって生成された前記画像データを受信し、前記画像データに基づいて、複数の深度マップを生成し、前記複数の深度マップを、関連する距離データを有する単一の複合深度マップに変換するための深度知覚サブシステム、
    を有する、
    外科用ロボットシステム。
  2. 前記ロボットサブシステムはさらに、
    複数のロボットアームと、前記複数のロボットアームおよび前記カメラアセンブリの移動を制御するためのモータユニットとを備える、
    請求項1記載の外科用ロボットシステム。
  3. 前記制御ユニットは、前記単一の複合深度マップに関連付けられた前記距離データを使用して、前記カメラアセンブリまたは前記ロボットアームのうちの1つを制御する、請求項2記載の外科用ロボットシステム。
  4. 前記深度知覚サブシステムはさらに、
    前記複数の深度マップを受信し、前記深度マップを前記単一の複合深度マップに変換するための深度マップ変換ユニットを備える、
    請求項1記載の外科用ロボットシステム。
  5. 前記深度マップ変換ユニットは、領域畳み込みニューラルネットワーク(R-CNN)技法を使用して前記単一の複合深度マップを生成する、請求項4記載の外科用ロボットシステム。
  6. 前記第1および第2カメラはそれぞれ、
    光学データを受信し、それに応答して前記画像データを生成する画像センサ、
    前記光学データを前記画像センサ上に合焦させるために前記画像センサと光学的に結合された1つまたは複数のレンズ要素を有するレンズおよび光学システム、
    前記1つまたは複数のレンズ要素を自動的に調整し、オートフォーカスデータを生成する、前記レンズおよび光学システムに関連付けられたオートフォーカス機構、
    を備える、
    請求項1記載の外科用ロボットシステム。
  7. 前記深度知覚サブシステムは、
    前記第1カメラから前記オートフォーカスデータを受信し、前記オートフォーカスデータを第1オートフォーカス深度マップに変換するための第1オートフォーカス変換ユニット、
    前記第2カメラから前記オートフォーカスデータを受信し、前記オートフォーカスデータを第2オートフォーカス深度マップに変換するための第2オートフォーカス変換ユニット、
    を備える、
    請求項6記載の外科用ロボットシステム。
  8. 前記深度知覚サブシステムはさらに、
    前記第1カメラから画像データを受信し、前記画像データを第1視差深度マップに変換するための第1視差変換ユニット、
    前記第2カメラから画像データを受信し、前記画像データを第2視差深度マップに変換するための第2視差変換ユニット、
    を備える、
    請求項7記載の外科用ロボットシステム。
  9. 前記深度知覚サブシステムはさらに、
    前記第1カメラからの画像データおよび前記第2カメラからの画像データを受信し、それに応答して視差深度マップを生成するための視差変換ユニットを備える、
    請求項8記載の外科用ロボットシステム。
  10. 前記深度知覚サブシステムは、
    前記第1カメラから前記オートフォーカスデータを受信し、前記オートフォーカスデータを第1オートフォーカス深度マップに変換するための第1オートフォーカス変換ユニット、
    前記第2カメラから前記オートフォーカスデータを受信し、前記オートフォーカスデータを第2オートフォーカス深度マップに変換するための第2オートフォーカス変換ユニット、
    前記第1カメラから画像データを受信し、前記画像データを第1視差深度マップに変換するための第1視差変換ユニット、
    前記第2カメラから画像データを受信し、前記画像データを第2視差深度マップに変換するための第2視差変換ユニット、
    前記第1カメラから画像データを受信し、前記第2カメラから画像データを受信し、それに応答して視差深度マップを生成するための視差変換ユニット、
    のうちの1つまたは複数を備える、
    請求項6記載の外科用ロボットシステム。
  11. 前記第1および第2視差ユニットの各々は、前記画像データ内の第1および第2連続画像を取得し、前記第1画像の各部分が前記第2画像に対して移動する量を測定するように構成される、請求項10記載の外科用ロボットシステム。
  12. 前記第1および第2カメラの各々は位置データを生成し、前記第1および第2視差変換ユニットの各々は、
    各前記カメラから前記画像データを受信し、前記画像データを複数のセグメントに分割し、前記複数のセグメントに応答して、シフトされた画像データを生成する分離ユニット、
    各前記カメラから前記位置データを受信し、前記カメラの前記位置を示すカメラ移動データをそれに応答して生成する移動決定ユニット、
    前記画像データおよび前記カメラ移動データを受信し、前記画像データおよび前記カメラ移動データを各前記視差深度マップに変換する距離変換ユニット、
    を備える、
    請求項11記載の外科用ロボットシステム。
  13. 前記距離変換ユニットは、領域畳み込みニューラルネットワーク(R-CNN)技法を使用して、各前記視差深度マップを生成する、請求項12記載の外科用ロボットシステム。
  14. 前記視差変換ユニットは、前記第1カメラから受信された前記画像データ内の画像と前記第2カメラから受信された前記画像データ内の画像との間の視差を分析する、請求項10記載の外科用ロボットシステム。
  15. 前記第1および第2カメラからの前記画像間の前記視差は、層状局所畳み込みニューラルネットワーク(R-CNN)技法を使用して決定される、請求項14記載の外科用ロボットシステム。
  16. 前記深度知覚サブシステムはさらに、
    前記第1オートフォーカス深度マップ、前記第2オートフォーカス深度マップ、前記第1視差深度マップ、前記第2視差深度マップ、および前記視差深度マップを受信し、受信深度マップを形成し、前記受信深度マップを前記単一の複合深度マップに変換する深度マップ変換ユニットを備える、
    請求項10記載の外科用ロボットシステム。
  17. 前記深度マップ変換ユニットは、領域畳み込みニューラルネットワーク(R-CNN)ベースのエンコーダ-デコーダアーキテクチャを使用して、前記単一の複合深度マップを生成する、請求項16記載の外科用ロボットシステム。
  18. 各前記受信深度マップにおける各点はそれに関連する距離値を有し、前記深度マップ変換ユニットは、
    前記受信深度マップを受信し、前記受信深度マップを前記単一の複合深度マップに変換するための深度マップ生成ユニット、
    前記受信深度マップから、前記単一の複合深度マップの各々の点に関連する前記距離値の各々に関連する信頼値を生成するための信頼値生成ユニット、
    を備え、
    前記信頼値は、前記単一の複合深度マップに関連する前記距離値における信頼度を示す、
    請求項17記載の外科用ロボットシステム。
  19. 外科用ロボットシステムにおいて画像データから深度マップを生成する方法であって、 画像データを生成するための第1および第2カメラを有するカメラアセンブリを有するロボットサブシステムを提供するステップ、
    前記第1および第2カメラからの画像データに基づいて、複数の深度マップを生成するステップ、
    前記複数の深度マップを、それに関連する距離データを有する単一の複合深度マップに変換するステップ、
    前記単一の複合深度マップにおける前記距離データに基づいて前記カメラアセンブリを制御するステップ、
    を有する方法。
  20. 前記ロボットサブシステムは、複数のロボットアームと、前記複数のロボットアームおよび前記カメラアセンブリの動きを制御するためのモータユニットとをさらに備え、
    前記方法はさらに、前記単一の複合深度マップ内の前記距離データに基づいて前記ロボットアームを制御するステップを有する、
    請求項19記載の方法。
  21. 前記第1および第2カメラの各々は、
    光学データを受信し、それに応答して前記画像データを生成するための画像センサ、
    前記光学データを前記画像センサ上に合焦させるために前記画像センサと光学的に結合された1つまたは複数のレンズ要素を有するレンズおよび光学システム、
    前記1つまたは複数のレンズ要素を自動的に調整し、オートフォーカスデータを生成するための、前記レンズおよび光学システムに関連するオートフォーカス機構、
    を備える、
    請求項19記載の方法。
  22. 前記方法はさらに、
    前記第1カメラからの前記オートフォーカスデータを第1オートフォーカス深度マップに変換するステップ、
    前記第2カメラからの前記オートフォーカスデータを第2オートフォーカス深度マップ
    に変換するステップ、
    を有する、請求項21記載の方法。
  23. 前記方法はさらに、
    前記第1カメラからの前記画像データを第1視差深度マップに変換するステップ、
    前記第2カメラからの前記画像データを第2視差深度マップに変換するステップ、
    を有する、請求項22記載の方法。
  24. 前記方法はさらに、前記第1カメラからの前記画像データおよび前記第2カメラからの前記画像データから視差深度マップを生成するステップを有する、請求項23記載の方法。
  25. 前記方法はさらに、
    前記第1カメラからの前記オートフォーカスデータを第1オートフォーカス深度マップに変換するステップ、
    前記第2カメラからの前記オートフォーカスデータを第2オートフォーカス深度マップに変換するステップ、
    前記第1カメラからの前記画像データを第1視差深度マップに変換するステップ、
    前記第2カメラからの前記画像データを第2視差深度マップに変換するステップ、
    前記第1カメラからの前記画像データおよび前記第2カメラからの前記画像データから視差深度マップを生成するステップ、
    のうちの1つまたは複数を有する、請求項21記載の方法。
  26. 前記第1カメラからの前記画像データを第1視差深度マップに変換するステップは、
    前記画像データ内の第1および第2連続画像を取得するステップ、
    前記第1画像の各部分が前記第2画像に対して移動する量を測定するステップ、
    を有する、請求項25記載の方法。
  27. 前記第2カメラからの前記画像データを第2視差深度マップに変換するステップは、
    前記画像データ内の第1および第2連続画像を取得するステップ、
    前記第1画像の各部分が前記第2画像に対して移動する量を測定するステップ、
    を有する、請求項26記載の方法。
  28. 前記第1カメラは位置データを生成し、前記方法はさらに、
    前記第1カメラからの前記画像データを複数のセグメントに分割し、前記複数のセグメントに応答して、シフトされた画像データを生成するステップ、
    前記位置データに応答して、前記カメラの位置を示す前記第1カメラ移動データから、生成するステップ、
    前記画像データおよび前記カメラ移動データを、前記第1視差深度マップに変換するステップ、
    を有する、請求項25記載の方法。
  29. 前記第2カメラは位置データを生成し、前記方法はさらに、
    前記第2カメラからの前記画像データを複数のセグメントに分割し、前記複数のセグメントに応答して、シフトされた画像データを生成するステップ、
    前記位置データに応答して、前記カメラの位置を示す前記第2カメラ移動データから、生成するステップ、
    前記画像データおよび前記カメラ移動データを、前記第2視差深度マップに変換するステップ、
    を有する、請求項28記載の方法。
  30. 前記第1カメラからの前記画像データおよび前記第2カメラからの前記画像データから前記視差深度マップを生成するステップは、前記第1カメラから受信された前記画像データ内の画像と前記第2カメラから受信された前記画像データ内の画像との間の前記視差を分析するステップをさらに有する、請求項25記載の方法。
  31. 前記方法はさらに、
    前記第1オートフォーカス深度マップ、前記第2オートフォーカス深度マップ、前記第1視差深度マップ、前記第2視差深度マップ、および前記視差深度マップを受信し、受信深度マップを形成するステップ、
    前記受信深度マップを前記単一の複合深度マップに変換するステップ、
    を有する、請求項25記載の方法。
  32. 各前記受信深度マップにおける各点はそれに関連する距離値を有し、前記方法はさらに、
    前記受信された深度マップから、前記単一の複合深度マップの各々の点に関連する前記距離値の各々に関連する信頼値を生成するステップを有し、
    前記信頼値は、前記単一の複合深度マップに関連する前記距離値における信頼度を示す、
    請求項31記載の方法。
  33. 前記複数の深度マップが、第1オートフォーカス深度マップ、第2オートフォーカス深度マップ、第1視差深度マップ、第2視差深度マップ、視差深度マップのうちの少なくとも2つを含む、請求項1記載の外科用ロボットシステム。
  34. 前記複数の深度マップが、第1オートフォーカス深度マップ、第2オートフォーカス深度マップ、第1視差深度マップ、第2視差深度マップ、視差深度マップのうちの少なくとも2つを含む、請求項19記載の方法。
JP2022547862A 2020-02-06 2021-02-08 外科用ロボットシステムにおける生体内の深さ知覚を決定するためのシステムおよび方法 Pending JP2023512563A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062971097P 2020-02-06 2020-02-06
US62/971,097 2020-02-06
PCT/US2021/016999 WO2021159048A1 (en) 2020-02-06 2021-02-08 System and method for determining depth perception in vivo in a surgical robotic system

Publications (2)

Publication Number Publication Date
JP2023512563A JP2023512563A (ja) 2023-03-27
JPWO2021159048A5 true JPWO2021159048A5 (ja) 2024-02-19

Family

ID=77199466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022547862A Pending JP2023512563A (ja) 2020-02-06 2021-02-08 外科用ロボットシステムにおける生体内の深さ知覚を決定するためのシステムおよび方法

Country Status (6)

Country Link
US (1) US20220383531A1 (ja)
EP (1) EP4099914A4 (ja)
JP (1) JP2023512563A (ja)
CN (1) CN115666406A (ja)
CA (1) CA3167157A1 (ja)
WO (1) WO2021159048A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210205032A1 (en) * 2018-05-16 2021-07-08 University Of Maryland, College Park Confidence-Based Robotically-Assisted Surgery System
JP2024514432A (ja) * 2021-03-29 2024-04-02 アルコン インコーポレイティド 連続自動焦点合わせモードを有する立体視撮像プラットフォーム
WO2023230273A1 (en) 2022-05-25 2023-11-30 Vicarious Surgical Inc. Multispectral imaging camera and methods of use
WO2024006492A1 (en) 2022-07-01 2024-01-04 Vicarious Surgical Inc. Systems and methods for stereoscopic visualization in surgical robotics without requiring glasses or headgear

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8808164B2 (en) * 2008-03-28 2014-08-19 Intuitive Surgical Operations, Inc. Controlling a robotic surgical tool with a display monitor
US10368838B2 (en) * 2008-03-31 2019-08-06 Intuitive Surgical Operations, Inc. Surgical tools for laser marking and laser cutting
US9615728B2 (en) * 2012-06-27 2017-04-11 Camplex, Inc. Surgical visualization system with camera tracking
US8880223B2 (en) * 2012-07-16 2014-11-04 Florida Institute for Human & Maching Cognition Anthro-centric multisensory interface for sensory augmentation of telesurgery
US10098527B2 (en) * 2013-02-27 2018-10-16 Ethidcon Endo-Surgery, Inc. System for performing a minimally invasive surgical procedure
JP2014175965A (ja) * 2013-03-12 2014-09-22 Panasonic Healthcare Co Ltd 手術用カメラ
US9827054B2 (en) * 2014-03-14 2017-11-28 Synaptive Medical (Barbados) Inc. Intelligent positioning system and methods therefore
CN108601511B (zh) * 2016-02-12 2021-07-27 索尼公司 医疗图像处理装置、系统、方法以及程序
KR102636272B1 (ko) * 2016-07-26 2024-02-14 삼성전자주식회사 영상 촬상 장치 및 이를 포함하는 전자 시스템
JP7138631B2 (ja) * 2016-11-10 2022-09-16 コーニンクレッカ フィリップス エヌ ヴェ 撮像システムのための収集パラメータを選択すること
US10834332B2 (en) * 2017-08-16 2020-11-10 Covidien Lp Synthesizing spatially-aware transitions between multiple camera viewpoints during minimally invasive surgery
US10200623B1 (en) * 2017-10-17 2019-02-05 Qualcomm Incorporated Image capture setting determination in flash photography operations
US10375378B2 (en) * 2017-12-12 2019-08-06 Black Sesame International Holding Limited Dual camera system for real-time depth map generation
EP3534280A1 (en) * 2018-03-01 2019-09-04 Deneb Medical, S.L. Device for the discrimination of biological tissues
KR102472156B1 (ko) * 2018-04-19 2022-11-30 삼성전자주식회사 전자 장치 및 그 깊이 정보 생성 방법
US11049606B2 (en) * 2018-04-25 2021-06-29 Sota Precision Optics, Inc. Dental imaging system utilizing artificial intelligence
US10916035B1 (en) * 2018-11-30 2021-02-09 Zoox, Inc. Camera calibration using dense depth maps
WO2023105467A1 (en) * 2021-12-08 2023-06-15 Verb Surgical Inc. Tracking multiple surgical tools in a surgical video

Similar Documents

Publication Publication Date Title
CN111147741B (zh) 基于对焦处理的防抖方法和装置、电子设备、存储介质
CN110880189B (zh) 联合标定方法及其联合标定装置和电子设备
JP6570327B2 (ja) 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
US5706419A (en) Image capturing and processing apparatus and image capturing and processing method
JP4886716B2 (ja) 画像処理装置および方法並びにプログラム
US9531938B2 (en) Image-capturing apparatus
US20160173762A1 (en) Image-capturing apparatus
US9253470B2 (en) 3D camera
JP2015022027A (ja) 撮像装置およびその制御方法
JP2008241491A (ja) 3次元計測装置
JP2022175419A5 (ja)
JP7195801B2 (ja) 画像処理装置およびその制御方法、距離検出装置、撮像装置、プログラム
JP7078172B2 (ja) 画像処理装置及び3次元計測システム
JPWO2021159048A5 (ja)
CN113189602A (zh) 一种运动成像补偿装置及运动补偿方法
JP2018134712A (ja) ロボットシステム及びロボットシステムの制御方法
US20240015402A1 (en) Tracking camera, tracking camera systems, and operation thereof
JP5925109B2 (ja) 画像処理装置、その制御方法、および制御プログラム
JPH0981790A (ja) 三次元形状復元装置および方法
JP2974500B2 (ja) 複眼撮像装置
WO2020234603A1 (en) Improved 3d sensing
KR101874489B1 (ko) 거리영상 측정장치 및 방법
JP2020197549A (ja) レンズ装置、カメラ、カメラシステム、制御方法
KR100778320B1 (ko) 스테레오 입체 카메라 시스템의 실시간 주시각 자동제어방법 및 장치
JP2009237652A (ja) 画像処理装置および方法並びにプログラム