JPWO2023053333A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2023053333A5 JPWO2023053333A5 JP2023550900A JP2023550900A JPWO2023053333A5 JP WO2023053333 A5 JPWO2023053333 A5 JP WO2023053333A5 JP 2023550900 A JP2023550900 A JP 2023550900A JP 2023550900 A JP2023550900 A JP 2023550900A JP WO2023053333 A5 JPWO2023053333 A5 JP WO2023053333A5
- Authority
- JP
- Japan
- Prior art keywords
- data
- operation input
- input data
- processing system
- output data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims 21
- 238000011156 evaluation Methods 0.000 claims 12
- 238000012546 transfer Methods 0.000 claims 10
- 238000003780 insertion Methods 0.000 claims 9
- 230000037431 insertion Effects 0.000 claims 9
- 230000002093 peripheral effect Effects 0.000 claims 3
- 230000010365 information processing Effects 0.000 claims 1
- 238000010801 machine learning Methods 0.000 claims 1
- 238000000034 method Methods 0.000 claims 1
- 238000003672 processing method Methods 0.000 claims 1
Claims (12)
- 内視鏡に対してユーザが行った操作を表す操作入力データと、前記操作を行った際の挿入部の位置及び姿勢の少なくとも一方を表す操作出力データと、を取得する取得部と、
前記操作入力データと前記操作出力データとの関係を表す伝達特性データを求め、前記伝達特性データに基づいて、前記内視鏡を操作する前記ユーザのスキル評価を行う処理部と、
前記スキル評価の結果であるスキル評価情報を出力する出力処理部と、
を含み、
前記操作入力データと前記操作出力データの関係は、前記挿入部の状態に応じて変化することを特徴とする処理システム。 - 請求項1において、
前記内視鏡は、
前記挿入部の先端部と操作部との間に、受動的に動く軟性部を有する軟性内視鏡であることを特徴とする処理システム。 - 請求項1において、
前記伝達特性データは、前記操作入力データによって表される操作入力の大きさと、前記操作出力データによって表される操作出力の大きさの比率を表すデータであることを特徴とする処理システム。 - 請求項1において、
前記処理部は、
前記スキル評価のための前記伝達特性データの数値範囲を取得し、
前記伝達特性データの統計量を求め、
前記統計量と前記数値範囲の比較処理に基づいて、前記スキル評価を行うことを特徴とする処理システム。 - 請求項1において、
前記操作入力データは、前記挿入部の先端部を変位又は回転させる操作デバイスの操作量、前記挿入部のねじり量、前記挿入部の進退量の少なくとも1つに関する情報を含み、
前記操作出力データは、前記挿入部の先端部の前記位置、前記姿勢、及び速度の少なくとも1つに関する情報を含むことを特徴とする処理システム。 - 請求項1において、
前記処理部は、
複数の学習用伝達特性データを、m(mは2以上の整数)個のカテゴリに分類する機械学習を行うことによって取得された学習済モデルと、前記伝達特性データとに基づいて、前記スキル評価を行うことを特徴とする処理システム。 - 請求項6において、
前記処理部は、
前記伝達特性データと前記学習済モデルとに基づいて、n(nは2以上の整数)次元の特徴量を求め、
求められた前記特徴量の特徴量空間における位置と、前記m個のカテゴリのうちの1又は複数のカテゴリの前記特徴量空間における重心位置と、の距離に基づいて前記スキル評価を行うことを特徴とする処理システム。 - 請求項1において、
前記取得部は、
前記操作入力データ及び前記操作出力データに対応付けられたメタデータとして、症例難易度を表す難易度データを取得し、
前記処理部は、
前記操作入力データと前記操作出力データと前記難易度データに基づいて、前記スキル評価を行うことを特徴とする処理システム。 - 請求項1において、
前記取得部は、
前記操作入力データ及び前記操作出力データに対応付けられたメタデータとして、前記内視鏡を操作した術者を表す術者データを取得し、
前記処理部は、
前記操作入力データと前記操作出力データと前記術者データに基づいて、前記スキル評価を行うことを特徴とする処理システム。 - 請求項1において、
前記取得部は、
前記操作入力データ及び前記操作出力データに対応付けられたメタデータとして、前記内視鏡による処置に用いられた処置具を特定する処置具データを取得し、
前記処理部は、
前記操作入力データと前記操作出力データと前記処置具データに基づいて、前記スキル評価を行うことを特徴とする処理システム。 - 請求項1において、
前記取得部は、
前記操作入力データ及び前記操作出力データに対応付けられたメタデータとして、前記内視鏡の周辺機器の使用状況を表す周辺機器データを取得し、
前記処理部は、
前記操作入力データと前記操作出力データと前記周辺機器データに基づいて、前記スキル評価を行うことを特徴とする処理システム。 - 内視鏡に対してユーザが行った操作を表す操作入力データと、前記操作を行った際の挿入部の位置及び姿勢の少なくとも一方を表す操作出力データと、を取得し、
前記操作入力データと前記操作出力データとの関係を表す伝達特性データを求め、前記伝達特性データに基づいて、前記内視鏡を操作する前記ユーザのスキル評価を行い、
前記スキル評価の結果であるスキル評価情報を出力し、
前記操作入力データと前記操作出力データの関係は、前記挿入部の状態に応じて変化することを特徴とする情報処理方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/036107 WO2023053333A1 (ja) | 2021-09-30 | 2021-09-30 | 処理システム及び情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2023053333A1 JPWO2023053333A1 (ja) | 2023-04-06 |
JPWO2023053333A5 true JPWO2023053333A5 (ja) | 2023-12-18 |
Family
ID=85781590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023550900A Pending JPWO2023053333A1 (ja) | 2021-09-30 | 2021-09-30 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2023053333A1 (ja) |
WO (1) | WO2023053333A1 (ja) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4436515B2 (ja) * | 2000-01-19 | 2010-03-24 | オリンパス株式会社 | 電動湾曲式内視鏡 |
JP6644530B2 (ja) * | 2015-11-30 | 2020-02-12 | オリンパス株式会社 | 内視鏡業務支援システム |
JP2019170638A (ja) * | 2018-03-28 | 2019-10-10 | オリンパス株式会社 | 内視鏡システム |
WO2021111879A1 (ja) * | 2019-12-05 | 2021-06-10 | Hoya株式会社 | 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ |
JP7323647B2 (ja) * | 2020-01-20 | 2023-08-08 | オリンパス株式会社 | 内視鏡検査支援装置、内視鏡検査支援装置の作動方法及びプログラム |
-
2021
- 2021-09-30 JP JP2023550900A patent/JPWO2023053333A1/ja active Pending
- 2021-09-30 WO PCT/JP2021/036107 patent/WO2023053333A1/ja active Application Filing
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bernardin et al. | A sensor fusion approach for recognizing continuous human grasping sequences using hidden markov models | |
CN105082132B (zh) | 力‑扭矩任务的快速机器人模仿学习 | |
Lee | Tactile sensing: new directions, new challenges | |
Zhai | Human performance in six degree of freedom input control. | |
JP6169562B2 (ja) | サンプルタスク軌跡を分析する、コンピュータで実現される方法、および、サンプルタスク軌跡を分析するシステム | |
CN109597485B (zh) | 一种基于双指角域特征的手势交互系统及其工作方法 | |
Flagg et al. | Affective touch gesture recognition for a furry zoomorphic machine | |
US20090066641A1 (en) | Methods and Systems for Interpretation and Processing of Data Streams | |
Wang et al. | Data-driven glove calibration for hand motion capture | |
JP6831475B2 (ja) | 情報処理システム、コントローラデバイス、及び情報処理装置 | |
CN110211661B (zh) | 基于混合现实的手功能训练系统及数据处理方法 | |
JP2020506436A5 (ja) | ||
Sievers et al. | Learning purely tactile in-hand manipulation with a torque-controlled hand | |
CN111700718A (zh) | 一种识别握姿的方法、装置、假肢及可读存储介质 | |
Melnik et al. | Tactile sensing and deep reinforcement learning for in-hand manipulation tasks | |
US10065111B1 (en) | Mapping user interactions with a controller to a hand position | |
Praveena et al. | Characterizing input methods for human-to-robot demonstrations | |
Biju et al. | Design of grip strength measuring system using FSR and flex sensors using SVM algorithm | |
JPWO2023053333A5 (ja) | ||
Salada et al. | Fingertip haptics: A novel direction in haptic display | |
Iwasako et al. | Development of finger motion skill learning support system based on data gloves | |
CN109408029A (zh) | 车联网下传感器生成随机数的方法 | |
CN112507955B (zh) | 一种婴儿手部精细动作识别方法及系统 | |
WO2021171384A1 (ja) | クラスタリング装置、クラスタリング方法、および、クラスタリングプログラム | |
Avelino et al. | Human-aware natural handshaking using tactile sensors for Vizzy, a social robot |