JPWO2023053333A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2023053333A5
JPWO2023053333A5 JP2023550900A JP2023550900A JPWO2023053333A5 JP WO2023053333 A5 JPWO2023053333 A5 JP WO2023053333A5 JP 2023550900 A JP2023550900 A JP 2023550900A JP 2023550900 A JP2023550900 A JP 2023550900A JP WO2023053333 A5 JPWO2023053333 A5 JP WO2023053333A5
Authority
JP
Japan
Prior art keywords
data
operation input
input data
processing system
output data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023550900A
Other languages
English (en)
Other versions
JPWO2023053333A1 (ja
Filing date
Publication date
Application filed filed Critical
Priority claimed from PCT/JP2021/036107 external-priority patent/WO2023053333A1/ja
Publication of JPWO2023053333A1 publication Critical patent/JPWO2023053333A1/ja
Publication of JPWO2023053333A5 publication Critical patent/JPWO2023053333A5/ja
Pending legal-status Critical Current

Links

Claims (12)

  1. 内視鏡に対してユーザが行った操作を表す操作入力データと、前記操作を行った際の挿入部の位置及び姿勢の少なくとも一方を表す操作出力データと、を取得する取得部と、
    前記操作入力データと前記操作出力データとの関係を表す伝達特性データを求め、前記伝達特性データに基づいて、前記内視鏡を操作する前記ユーザのスキル評価を行う処理部と、
    前記スキル評価の結果であるスキル評価情報を出力する出力処理部と、
    を含み、
    前記操作入力データと前記操作出力データの関係は、前記挿入部の状態に応じて変化することを特徴とする処理システム。
  2. 請求項1において、
    前記内視鏡は、
    前記挿入部の先端部と操作部との間に、受動的に動く軟性部を有する軟性内視鏡であることを特徴とする処理システム。
  3. 請求項において、
    前記伝達特性データは、前記操作入力データによって表される操作入力の大きさと、前記操作出力データによって表される操作出力の大きさの比率を表すデータであることを特徴とする処理システム。
  4. 請求項において、
    前記処理部は、
    前記スキル評価のための前記伝達特性データの数値範囲を取得し、
    前記伝達特性データの統計量を求め、
    前記統計量と前記数値範囲の比較処理に基づいて、前記スキル評価を行うことを特徴とする処理システム。
  5. 請求項1において、
    前記操作入力データは、前記挿入部の先端部を変位又は回転させる操作デバイスの操作量、前記挿入部のねじり量、前記挿入部の進退量の少なくとも1つに関する情報を含み、
    前記操作出力データは、前記挿入部の先端部の前記位置、前記姿勢、及び速度の少なくとも1つに関する情報を含むことを特徴とする処理システム。
  6. 請求項において、
    前記処理部は、
    複数の学習用伝達特性データを、m(mは2以上の整数)個のカテゴリに分類する機械学習を行うことによって取得された学習済モデルと、前記伝達特性データとに基づいて、前記スキル評価を行うことを特徴とする処理システム。
  7. 請求項において、
    前記処理部は、
    前記伝達特性データと前記学習済モデルとに基づいて、n(nは2以上の整数)次元の特徴量を求め、
    求められた前記特徴量の特徴量空間における位置と、前記m個のカテゴリのうちの1又は複数のカテゴリの前記特徴量空間における重心位置と、の距離に基づいて前記スキル評価を行うことを特徴とする処理システム。
  8. 請求項1において、
    前記取得部は、
    前記操作入力データ及び前記操作出力データに対応付けられたメタデータとして、症例難易度を表す難易度データを取得し、
    前記処理部は、
    前記操作入力データと前記操作出力データと前記難易度データに基づいて、前記スキル評価を行うことを特徴とする処理システム。
  9. 請求項1において、
    前記取得部は、
    前記操作入力データ及び前記操作出力データに対応付けられたメタデータとして、前記内視鏡を操作した術者を表す術者データを取得し、
    前記処理部は、
    前記操作入力データと前記操作出力データと前記術者データに基づいて、前記スキル評価を行うことを特徴とする処理システム。
  10. 請求項1において、
    前記取得部は、
    前記操作入力データ及び前記操作出力データに対応付けられたメタデータとして、前記内視鏡による処置に用いられた処置具を特定する処置具データを取得し、
    前記処理部は、
    前記操作入力データと前記操作出力データと前記処置具データに基づいて、前記スキル評価を行うことを特徴とする処理システム。
  11. 請求項1において、
    前記取得部は、
    前記操作入力データ及び前記操作出力データに対応付けられたメタデータとして、前記内視鏡の周辺機器の使用状況を表す周辺機器データを取得し、
    前記処理部は、
    前記操作入力データと前記操作出力データと前記周辺機器データに基づいて、前記スキル評価を行うことを特徴とする処理システム。
  12. 内視鏡に対してユーザが行った操作を表す操作入力データと、前記操作を行った際の挿入部の位置及び姿勢の少なくとも一方を表す操作出力データと、を取得し、
    前記操作入力データと前記操作出力データとの関係を表す伝達特性データを求め、前記伝達特性データに基づいて、前記内視鏡を操作する前記ユーザのスキル評価を行い、
    前記スキル評価の結果であるスキル評価情報を出力し、
    前記操作入力データと前記操作出力データの関係は、前記挿入部の状態に応じて変化することを特徴とする情報処理方法。
JP2023550900A 2021-09-30 2021-09-30 Pending JPWO2023053333A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/036107 WO2023053333A1 (ja) 2021-09-30 2021-09-30 処理システム及び情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2023053333A1 JPWO2023053333A1 (ja) 2023-04-06
JPWO2023053333A5 true JPWO2023053333A5 (ja) 2023-12-18

Family

ID=85781590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023550900A Pending JPWO2023053333A1 (ja) 2021-09-30 2021-09-30

Country Status (2)

Country Link
JP (1) JPWO2023053333A1 (ja)
WO (1) WO2023053333A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4436515B2 (ja) * 2000-01-19 2010-03-24 オリンパス株式会社 電動湾曲式内視鏡
JP6644530B2 (ja) * 2015-11-30 2020-02-12 オリンパス株式会社 内視鏡業務支援システム
JP2019170638A (ja) * 2018-03-28 2019-10-10 オリンパス株式会社 内視鏡システム
WO2021111879A1 (ja) * 2019-12-05 2021-06-10 Hoya株式会社 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ
JP7323647B2 (ja) * 2020-01-20 2023-08-08 オリンパス株式会社 内視鏡検査支援装置、内視鏡検査支援装置の作動方法及びプログラム

Similar Documents

Publication Publication Date Title
Bernardin et al. A sensor fusion approach for recognizing continuous human grasping sequences using hidden markov models
CN105082132B (zh) 力‑扭矩任务的快速机器人模仿学习
Lee Tactile sensing: new directions, new challenges
Zhai Human performance in six degree of freedom input control.
JP6169562B2 (ja) サンプルタスク軌跡を分析する、コンピュータで実現される方法、および、サンプルタスク軌跡を分析するシステム
CN109597485B (zh) 一种基于双指角域特征的手势交互系统及其工作方法
Flagg et al. Affective touch gesture recognition for a furry zoomorphic machine
US20090066641A1 (en) Methods and Systems for Interpretation and Processing of Data Streams
Wang et al. Data-driven glove calibration for hand motion capture
JP6831475B2 (ja) 情報処理システム、コントローラデバイス、及び情報処理装置
CN110211661B (zh) 基于混合现实的手功能训练系统及数据处理方法
JP2020506436A5 (ja)
Sievers et al. Learning purely tactile in-hand manipulation with a torque-controlled hand
CN111700718A (zh) 一种识别握姿的方法、装置、假肢及可读存储介质
Melnik et al. Tactile sensing and deep reinforcement learning for in-hand manipulation tasks
US10065111B1 (en) Mapping user interactions with a controller to a hand position
Praveena et al. Characterizing input methods for human-to-robot demonstrations
Biju et al. Design of grip strength measuring system using FSR and flex sensors using SVM algorithm
JPWO2023053333A5 (ja)
Salada et al. Fingertip haptics: A novel direction in haptic display
Iwasako et al. Development of finger motion skill learning support system based on data gloves
CN109408029A (zh) 车联网下传感器生成随机数的方法
CN112507955B (zh) 一种婴儿手部精细动作识别方法及系统
WO2021171384A1 (ja) クラスタリング装置、クラスタリング方法、および、クラスタリングプログラム
Avelino et al. Human-aware natural handshaking using tactile sensors for Vizzy, a social robot