JPWO2021159048A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2021159048A5 JPWO2021159048A5 JP2022547862A JP2022547862A JPWO2021159048A5 JP WO2021159048 A5 JPWO2021159048 A5 JP WO2021159048A5 JP 2022547862 A JP2022547862 A JP 2022547862A JP 2022547862 A JP2022547862 A JP 2022547862A JP WO2021159048 A5 JPWO2021159048 A5 JP WO2021159048A5
- Authority
- JP
- Japan
- Prior art keywords
- depth map
- camera
- image data
- data
- autofocus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims 27
- 239000002131 composite material Substances 0.000 claims 15
- 230000009466 transformation Effects 0.000 claims 11
- 238000006243 chemical reaction Methods 0.000 claims 8
- 230000003287 optical effect Effects 0.000 claims 8
- 230000008447 perception Effects 0.000 claims 7
- 238000013527 convolutional neural network Methods 0.000 claims 4
- 238000000926 separation method Methods 0.000 claims 1
- 238000001356 surgical procedure Methods 0.000 claims 1
Claims (34)
- 画像データを生成するための第1および第2カメラを有するカメラアセンブリを有するロボットサブシステム、
コンピューティングユニット、
を備え、
前記コンピューティングユニットは、
前記画像データを処理するためのプロセッサ、
前記ロボットサブシステムを制御するための制御ユニット、
前記第1および第2カメラによって生成された前記画像データを受信し、前記画像データに基づいて、複数の深度マップを生成し、前記複数の深度マップを、関連する距離データを有する単一の複合深度マップに変換するための深度知覚サブシステム、
を有する、
外科用ロボットシステム。 - 前記ロボットサブシステムはさらに、
複数のロボットアームと、前記複数のロボットアームおよび前記カメラアセンブリの移動を制御するためのモータユニットとを備える、
請求項1記載の外科用ロボットシステム。 - 前記制御ユニットは、前記単一の複合深度マップに関連付けられた前記距離データを使用して、前記カメラアセンブリまたは前記ロボットアームのうちの1つを制御する、請求項2記載の外科用ロボットシステム。
- 前記深度知覚サブシステムはさらに、
前記複数の深度マップを受信し、前記深度マップを前記単一の複合深度マップに変換するための深度マップ変換ユニットを備える、
請求項1記載の外科用ロボットシステム。 - 前記深度マップ変換ユニットは、領域畳み込みニューラルネットワーク(R-CNN)技法を使用して前記単一の複合深度マップを生成する、請求項4記載の外科用ロボットシステム。
- 前記第1および第2カメラはそれぞれ、
光学データを受信し、それに応答して前記画像データを生成する画像センサ、
前記光学データを前記画像センサ上に合焦させるために前記画像センサと光学的に結合された1つまたは複数のレンズ要素を有するレンズおよび光学システム、
前記1つまたは複数のレンズ要素を自動的に調整し、オートフォーカスデータを生成する、前記レンズおよび光学システムに関連付けられたオートフォーカス機構、
を備える、
請求項1記載の外科用ロボットシステム。 - 前記深度知覚サブシステムは、
前記第1カメラから前記オートフォーカスデータを受信し、前記オートフォーカスデータを第1オートフォーカス深度マップに変換するための第1オートフォーカス変換ユニット、
前記第2カメラから前記オートフォーカスデータを受信し、前記オートフォーカスデータを第2オートフォーカス深度マップに変換するための第2オートフォーカス変換ユニット、
を備える、
請求項6記載の外科用ロボットシステム。 - 前記深度知覚サブシステムはさらに、
前記第1カメラから画像データを受信し、前記画像データを第1視差深度マップに変換するための第1視差変換ユニット、
前記第2カメラから画像データを受信し、前記画像データを第2視差深度マップに変換するための第2視差変換ユニット、
を備える、
請求項7記載の外科用ロボットシステム。 - 前記深度知覚サブシステムはさらに、
前記第1カメラからの画像データおよび前記第2カメラからの画像データを受信し、それに応答して視差深度マップを生成するための視差変換ユニットを備える、
請求項8記載の外科用ロボットシステム。 - 前記深度知覚サブシステムは、
前記第1カメラから前記オートフォーカスデータを受信し、前記オートフォーカスデータを第1オートフォーカス深度マップに変換するための第1オートフォーカス変換ユニット、
前記第2カメラから前記オートフォーカスデータを受信し、前記オートフォーカスデータを第2オートフォーカス深度マップに変換するための第2オートフォーカス変換ユニット、
前記第1カメラから画像データを受信し、前記画像データを第1視差深度マップに変換するための第1視差変換ユニット、
前記第2カメラから画像データを受信し、前記画像データを第2視差深度マップに変換するための第2視差変換ユニット、
前記第1カメラから画像データを受信し、前記第2カメラから画像データを受信し、それに応答して視差深度マップを生成するための視差変換ユニット、
のうちの1つまたは複数を備える、
請求項6記載の外科用ロボットシステム。 - 前記第1および第2視差ユニットの各々は、前記画像データ内の第1および第2連続画像を取得し、前記第1画像の各部分が前記第2画像に対して移動する量を測定するように構成される、請求項10記載の外科用ロボットシステム。
- 前記第1および第2カメラの各々は位置データを生成し、前記第1および第2視差変換ユニットの各々は、
各前記カメラから前記画像データを受信し、前記画像データを複数のセグメントに分割し、前記複数のセグメントに応答して、シフトされた画像データを生成する分離ユニット、
各前記カメラから前記位置データを受信し、前記カメラの前記位置を示すカメラ移動データをそれに応答して生成する移動決定ユニット、
前記画像データおよび前記カメラ移動データを受信し、前記画像データおよび前記カメラ移動データを各前記視差深度マップに変換する距離変換ユニット、
を備える、
請求項11記載の外科用ロボットシステム。 - 前記距離変換ユニットは、領域畳み込みニューラルネットワーク(R-CNN)技法を使用して、各前記視差深度マップを生成する、請求項12記載の外科用ロボットシステム。
- 前記視差変換ユニットは、前記第1カメラから受信された前記画像データ内の画像と前記第2カメラから受信された前記画像データ内の画像との間の視差を分析する、請求項10記載の外科用ロボットシステム。
- 前記第1および第2カメラからの前記画像間の前記視差は、層状局所畳み込みニューラルネットワーク(R-CNN)技法を使用して決定される、請求項14記載の外科用ロボットシステム。
- 前記深度知覚サブシステムはさらに、
前記第1オートフォーカス深度マップ、前記第2オートフォーカス深度マップ、前記第1視差深度マップ、前記第2視差深度マップ、および前記視差深度マップを受信し、受信深度マップを形成し、前記受信深度マップを前記単一の複合深度マップに変換する深度マップ変換ユニットを備える、
請求項10記載の外科用ロボットシステム。 - 前記深度マップ変換ユニットは、領域畳み込みニューラルネットワーク(R-CNN)ベースのエンコーダ-デコーダアーキテクチャを使用して、前記単一の複合深度マップを生成する、請求項16記載の外科用ロボットシステム。
- 各前記受信深度マップにおける各点はそれに関連する距離値を有し、前記深度マップ変換ユニットは、
前記受信深度マップを受信し、前記受信深度マップを前記単一の複合深度マップに変換するための深度マップ生成ユニット、
前記受信深度マップから、前記単一の複合深度マップの各々の点に関連する前記距離値の各々に関連する信頼値を生成するための信頼値生成ユニット、
を備え、
前記信頼値は、前記単一の複合深度マップに関連する前記距離値における信頼度を示す、
請求項17記載の外科用ロボットシステム。 - 外科用ロボットシステムにおいて画像データから深度マップを生成する方法であって、 画像データを生成するための第1および第2カメラを有するカメラアセンブリを有するロボットサブシステムを提供するステップ、
前記第1および第2カメラからの画像データに基づいて、複数の深度マップを生成するステップ、
前記複数の深度マップを、それに関連する距離データを有する単一の複合深度マップに変換するステップ、
前記単一の複合深度マップにおける前記距離データに基づいて前記カメラアセンブリを制御するステップ、
を有する方法。 - 前記ロボットサブシステムは、複数のロボットアームと、前記複数のロボットアームおよび前記カメラアセンブリの動きを制御するためのモータユニットとをさらに備え、
前記方法はさらに、前記単一の複合深度マップ内の前記距離データに基づいて前記ロボットアームを制御するステップを有する、
請求項19記載の方法。 - 前記第1および第2カメラの各々は、
光学データを受信し、それに応答して前記画像データを生成するための画像センサ、
前記光学データを前記画像センサ上に合焦させるために前記画像センサと光学的に結合された1つまたは複数のレンズ要素を有するレンズおよび光学システム、
前記1つまたは複数のレンズ要素を自動的に調整し、オートフォーカスデータを生成するための、前記レンズおよび光学システムに関連するオートフォーカス機構、
を備える、
請求項19記載の方法。 - 前記方法はさらに、
前記第1カメラからの前記オートフォーカスデータを第1オートフォーカス深度マップに変換するステップ、
前記第2カメラからの前記オートフォーカスデータを第2オートフォーカス深度マップ
に変換するステップ、
を有する、請求項21記載の方法。 - 前記方法はさらに、
前記第1カメラからの前記画像データを第1視差深度マップに変換するステップ、
前記第2カメラからの前記画像データを第2視差深度マップに変換するステップ、
を有する、請求項22記載の方法。 - 前記方法はさらに、前記第1カメラからの前記画像データおよび前記第2カメラからの前記画像データから視差深度マップを生成するステップを有する、請求項23記載の方法。
- 前記方法はさらに、
前記第1カメラからの前記オートフォーカスデータを第1オートフォーカス深度マップに変換するステップ、
前記第2カメラからの前記オートフォーカスデータを第2オートフォーカス深度マップに変換するステップ、
前記第1カメラからの前記画像データを第1視差深度マップに変換するステップ、
前記第2カメラからの前記画像データを第2視差深度マップに変換するステップ、
前記第1カメラからの前記画像データおよび前記第2カメラからの前記画像データから視差深度マップを生成するステップ、
のうちの1つまたは複数を有する、請求項21記載の方法。 - 前記第1カメラからの前記画像データを第1視差深度マップに変換するステップは、
前記画像データ内の第1および第2連続画像を取得するステップ、
前記第1画像の各部分が前記第2画像に対して移動する量を測定するステップ、
を有する、請求項25記載の方法。 - 前記第2カメラからの前記画像データを第2視差深度マップに変換するステップは、
前記画像データ内の第1および第2連続画像を取得するステップ、
前記第1画像の各部分が前記第2画像に対して移動する量を測定するステップ、
を有する、請求項26記載の方法。 - 前記第1カメラは位置データを生成し、前記方法はさらに、
前記第1カメラからの前記画像データを複数のセグメントに分割し、前記複数のセグメントに応答して、シフトされた画像データを生成するステップ、
前記位置データに応答して、前記カメラの位置を示す前記第1カメラ移動データから、生成するステップ、
前記画像データおよび前記カメラ移動データを、前記第1視差深度マップに変換するステップ、
を有する、請求項25記載の方法。 - 前記第2カメラは位置データを生成し、前記方法はさらに、
前記第2カメラからの前記画像データを複数のセグメントに分割し、前記複数のセグメントに応答して、シフトされた画像データを生成するステップ、
前記位置データに応答して、前記カメラの位置を示す前記第2カメラ移動データから、生成するステップ、
前記画像データおよび前記カメラ移動データを、前記第2視差深度マップに変換するステップ、
を有する、請求項28記載の方法。 - 前記第1カメラからの前記画像データおよび前記第2カメラからの前記画像データから前記視差深度マップを生成するステップは、前記第1カメラから受信された前記画像データ内の画像と前記第2カメラから受信された前記画像データ内の画像との間の前記視差を分析するステップをさらに有する、請求項25記載の方法。
- 前記方法はさらに、
前記第1オートフォーカス深度マップ、前記第2オートフォーカス深度マップ、前記第1視差深度マップ、前記第2視差深度マップ、および前記視差深度マップを受信し、受信深度マップを形成するステップ、
前記受信深度マップを前記単一の複合深度マップに変換するステップ、
を有する、請求項25記載の方法。 - 各前記受信深度マップにおける各点はそれに関連する距離値を有し、前記方法はさらに、
前記受信された深度マップから、前記単一の複合深度マップの各々の点に関連する前記距離値の各々に関連する信頼値を生成するステップを有し、
前記信頼値は、前記単一の複合深度マップに関連する前記距離値における信頼度を示す、
請求項31記載の方法。 - 前記複数の深度マップが、第1オートフォーカス深度マップ、第2オートフォーカス深度マップ、第1視差深度マップ、第2視差深度マップ、視差深度マップのうちの少なくとも2つを含む、請求項1記載の外科用ロボットシステム。
- 前記複数の深度マップが、第1オートフォーカス深度マップ、第2オートフォーカス深度マップ、第1視差深度マップ、第2視差深度マップ、視差深度マップのうちの少なくとも2つを含む、請求項19記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062971097P | 2020-02-06 | 2020-02-06 | |
US62/971,097 | 2020-02-06 | ||
PCT/US2021/016999 WO2021159048A1 (en) | 2020-02-06 | 2021-02-08 | System and method for determining depth perception in vivo in a surgical robotic system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023512563A JP2023512563A (ja) | 2023-03-27 |
JPWO2021159048A5 true JPWO2021159048A5 (ja) | 2024-02-19 |
Family
ID=77199466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022547862A Pending JP2023512563A (ja) | 2020-02-06 | 2021-02-08 | 外科用ロボットシステムにおける生体内の深さ知覚を決定するためのシステムおよび方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220383531A1 (ja) |
EP (1) | EP4099914A4 (ja) |
JP (1) | JP2023512563A (ja) |
CN (1) | CN115666406A (ja) |
CA (1) | CA3167157A1 (ja) |
WO (1) | WO2021159048A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210205032A1 (en) * | 2018-05-16 | 2021-07-08 | University Of Maryland, College Park | Confidence-Based Robotically-Assisted Surgery System |
JP2024514432A (ja) * | 2021-03-29 | 2024-04-02 | アルコン インコーポレイティド | 連続自動焦点合わせモードを有する立体視撮像プラットフォーム |
WO2023230273A1 (en) | 2022-05-25 | 2023-11-30 | Vicarious Surgical Inc. | Multispectral imaging camera and methods of use |
WO2024006492A1 (en) | 2022-07-01 | 2024-01-04 | Vicarious Surgical Inc. | Systems and methods for stereoscopic visualization in surgical robotics without requiring glasses or headgear |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8808164B2 (en) * | 2008-03-28 | 2014-08-19 | Intuitive Surgical Operations, Inc. | Controlling a robotic surgical tool with a display monitor |
US10368838B2 (en) * | 2008-03-31 | 2019-08-06 | Intuitive Surgical Operations, Inc. | Surgical tools for laser marking and laser cutting |
US9615728B2 (en) * | 2012-06-27 | 2017-04-11 | Camplex, Inc. | Surgical visualization system with camera tracking |
US8880223B2 (en) * | 2012-07-16 | 2014-11-04 | Florida Institute for Human & Maching Cognition | Anthro-centric multisensory interface for sensory augmentation of telesurgery |
US10098527B2 (en) * | 2013-02-27 | 2018-10-16 | Ethidcon Endo-Surgery, Inc. | System for performing a minimally invasive surgical procedure |
JP2014175965A (ja) * | 2013-03-12 | 2014-09-22 | Panasonic Healthcare Co Ltd | 手術用カメラ |
US9827054B2 (en) * | 2014-03-14 | 2017-11-28 | Synaptive Medical (Barbados) Inc. | Intelligent positioning system and methods therefore |
CN108601511B (zh) * | 2016-02-12 | 2021-07-27 | 索尼公司 | 医疗图像处理装置、系统、方法以及程序 |
KR102636272B1 (ko) * | 2016-07-26 | 2024-02-14 | 삼성전자주식회사 | 영상 촬상 장치 및 이를 포함하는 전자 시스템 |
JP7138631B2 (ja) * | 2016-11-10 | 2022-09-16 | コーニンクレッカ フィリップス エヌ ヴェ | 撮像システムのための収集パラメータを選択すること |
US10834332B2 (en) * | 2017-08-16 | 2020-11-10 | Covidien Lp | Synthesizing spatially-aware transitions between multiple camera viewpoints during minimally invasive surgery |
US10200623B1 (en) * | 2017-10-17 | 2019-02-05 | Qualcomm Incorporated | Image capture setting determination in flash photography operations |
US10375378B2 (en) * | 2017-12-12 | 2019-08-06 | Black Sesame International Holding Limited | Dual camera system for real-time depth map generation |
EP3534280A1 (en) * | 2018-03-01 | 2019-09-04 | Deneb Medical, S.L. | Device for the discrimination of biological tissues |
KR102472156B1 (ko) * | 2018-04-19 | 2022-11-30 | 삼성전자주식회사 | 전자 장치 및 그 깊이 정보 생성 방법 |
US11049606B2 (en) * | 2018-04-25 | 2021-06-29 | Sota Precision Optics, Inc. | Dental imaging system utilizing artificial intelligence |
US10916035B1 (en) * | 2018-11-30 | 2021-02-09 | Zoox, Inc. | Camera calibration using dense depth maps |
WO2023105467A1 (en) * | 2021-12-08 | 2023-06-15 | Verb Surgical Inc. | Tracking multiple surgical tools in a surgical video |
-
2021
- 2021-02-08 CA CA3167157A patent/CA3167157A1/en active Pending
- 2021-02-08 JP JP2022547862A patent/JP2023512563A/ja active Pending
- 2021-02-08 CN CN202180026451.0A patent/CN115666406A/zh active Pending
- 2021-02-08 EP EP21750345.7A patent/EP4099914A4/en active Pending
- 2021-02-08 WO PCT/US2021/016999 patent/WO2021159048A1/en unknown
-
2022
- 2022-08-05 US US17/882,226 patent/US20220383531A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111147741B (zh) | 基于对焦处理的防抖方法和装置、电子设备、存储介质 | |
CN110880189B (zh) | 联合标定方法及其联合标定装置和电子设备 | |
JP6570327B2 (ja) | 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体 | |
US5706419A (en) | Image capturing and processing apparatus and image capturing and processing method | |
JP4886716B2 (ja) | 画像処理装置および方法並びにプログラム | |
US9531938B2 (en) | Image-capturing apparatus | |
US20160173762A1 (en) | Image-capturing apparatus | |
US9253470B2 (en) | 3D camera | |
JP2015022027A (ja) | 撮像装置およびその制御方法 | |
JP2008241491A (ja) | 3次元計測装置 | |
JP2022175419A5 (ja) | ||
JP7195801B2 (ja) | 画像処理装置およびその制御方法、距離検出装置、撮像装置、プログラム | |
JP7078172B2 (ja) | 画像処理装置及び3次元計測システム | |
JPWO2021159048A5 (ja) | ||
CN113189602A (zh) | 一种运动成像补偿装置及运动补偿方法 | |
JP2018134712A (ja) | ロボットシステム及びロボットシステムの制御方法 | |
US20240015402A1 (en) | Tracking camera, tracking camera systems, and operation thereof | |
JP5925109B2 (ja) | 画像処理装置、その制御方法、および制御プログラム | |
JPH0981790A (ja) | 三次元形状復元装置および方法 | |
JP2974500B2 (ja) | 複眼撮像装置 | |
WO2020234603A1 (en) | Improved 3d sensing | |
KR101874489B1 (ko) | 거리영상 측정장치 및 방법 | |
JP2020197549A (ja) | レンズ装置、カメラ、カメラシステム、制御方法 | |
KR100778320B1 (ko) | 스테레오 입체 카메라 시스템의 실시간 주시각 자동제어방법 및 장치 | |
JP2009237652A (ja) | 画像処理装置および方法並びにプログラム |