WO2023162479A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2023162479A1
WO2023162479A1 PCT/JP2023/000043 JP2023000043W WO2023162479A1 WO 2023162479 A1 WO2023162479 A1 WO 2023162479A1 JP 2023000043 W JP2023000043 W JP 2023000043W WO 2023162479 A1 WO2023162479 A1 WO 2023162479A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
basis
action
information processing
classifier
Prior art date
Application number
PCT/JP2023/000043
Other languages
English (en)
French (fr)
Inventor
創太 正満
悟士 尾崎
純二 大塚
翔 稲吉
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023162479A1 publication Critical patent/WO2023162479A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images

Definitions

  • the basis region 31 is output.
  • the basis area 31 is shown as an area for the sake of explanation, but actually contains a numerical value indicating how much each pixel affects the recognition result.
  • FIG. 6 similarly to FIG. 5, a cropped image 42 is obtained based on the treatment image 40 and the base region mark (pixel having the maximum value) 41. By inputting the cropped image 42 to the judgment basis classifier 13, the judgment basis 43 is outputted.
  • the corrected recognition result or basis for judgment is input (step 308).
  • the selected recognition result and judgment basis (or modified recognition result and judgment basis) are stored in the storage area (step 309).
  • FIG. 8 is a schematic diagram showing an example of a GUI that displays recognition results.
  • FIG. 8A is a schematic diagram showing an example of a method of displaying recognition results.
  • FIG. 8B is a schematic diagram showing another example of a method of displaying recognition results.
  • FIG. 13 is a schematic diagram showing an example of a GUI when recognition results and judgment grounds are different.
  • FIG. 13A is a schematic diagram showing a GUI on which recognition results can be visually recognized.
  • FIG. 13B is a schematic diagram showing a GUI on which judgment grounds can be visually recognized.
  • the information processing device includes the behavior information includes at least one of location information, movement information, and motion information of the medical device.
  • the basis information includes the basis and the cause of lowering the accuracy of the basis, the evidence includes at least one of a surgical tool, a surgical tool shaft, or an organ;

Landscapes

  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Artificial Intelligence (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Image Analysis (AREA)

Abstract

本技術の一形態に係る情報処理装置は、取得部と、行動出力部と、根拠出力部と、提示部と、記憶部とを具備する。取得部は、施術に関する施術画像を取得する。行動出力部は、複数の認識器の各々に施術画像が入力されることで施術に関する医療機器の行動に関する行動情報及び行動情報が出力された根拠の位置情報を示す根拠領域を出力する。根拠出力部は、根拠領域に基づいてクロップされた施術画像が分類器に入力されることで根拠に関する根拠情報を出力する。提示部は、複数の行動情報、及び複数の根拠情報をユーザに提示する。記憶部は、行動情報及び根拠情報に基づくユーザにより入力された入力情報を複数の認識器及び分類器の学習データとして保存する。

Description

情報処理装置、情報処理方法、及びプログラム
 本技術は、機械学習等に適用可能な情報処理装置、情報処理方法、及びプログラムに関する。
 特許文献1には、被検体に関する医用データに対し所定の処理を施して医用診断データを出力すると共に、所定の処理の一部又は全てを施さずに、機械学習用に規格化された、医用データに基づく規格化医用データを出力する医用データ処理装置が記載される。これにより、機械学習の精度を向上させることが図られている(特許文献1の明細書段落[0036]~[0066]図2、6等)。
特開2020-203018号公報
 このような、医療支援ロボットを用いた機械学習において、最適な学習データの抽出を実現することが可能な技術が求められている。
 以上のような事情に鑑み、本技術の目的は、最適な学習データの抽出を実現することが可能な情報処理装置、情報処理方法、及びプログラムを提供することにある。
 上記目的を達成するため、本技術の一形態に係る情報処理装置は、取得部と、行動出力部と、根拠出力部と、提示部と、記憶部とを具備する。
 前記取得部は、施術に関する施術画像を取得する。
 前記行動出力部は、複数の認識器の各々に前記施術画像が入力されることで、前記施術に関する医療機器の行動に関する行動情報、及び前記行動情報が出力された根拠の位置情報を示す根拠領域を出力する。
 前記根拠出力部は、前記根拠領域に基づいてクロップされた前記施術画像が分類器に入力されることで、前記根拠に関する根拠情報を出力する。
 前記提示部は、複数の前記行動情報、及び複数の前記根拠情報をユーザに提示する。
 前記記憶部は、前記行動情報及び前記根拠情報に基づく前記ユーザにより入力された入力情報を、前記複数の認識器及び前記分類器の学習データとして保存する。
 この情報処理装置では、複数の認識器の各々に施術画像が入力されることで、施術に関する医療機器の行動に関する行動情報、及び行動情報が出力された根拠の位置情報を示す根拠領域が出力され、根拠領域に基づいてクロップされた施術画像が分類器に入力されることで、根拠に関する根拠情報が出力される。複数の行動情報及び複数の根拠情報がユーザに提示され、その行動情報及び根拠情報に基づく入力情報が複数の認識器及び分類器の学習データとして保存される。これにより、最適な学習データの抽出が可能となる。
 前記行動情報は、前記医療機器の位置情報、移動情報、又は動作情報の少なくとも1つを含んでもよい。
 前記根拠情報は、前記根拠、及び前記根拠の精度を下げる原因を含んでもよい。この場合、前記根拠は、術具、術具軸、又は臓器の少なくとも1つを含んでもよい。前記原因は、スモーク、前記術具の汚れ、レンズの汚れ、又はオクルージョンの少なくとも1つを含んでもよい。
 前記複数の認識器は、オフライン学習を行う第1の認識器と、オンライン学習を行う第2の認識器とを含んでもよい。この場合、前記第1の認識器は、第1の前記行動情報、及び第1の前記根拠領域を出力してもよい。前記第2の認識器は、第2の前記行動情報、及び第2の前記根拠領域を出力してもよい。
 前記根拠出力部は、前記第1の根拠領域に基づいてクロップされた第1の前記施術画像と、前記第2の根拠領域に基づいてクロップされた第2の前記施術画像とが前記分類器に入力されることで、第1の前記根拠情報と第2の前記根拠情報とを出力してもよい。
 前記提示部は、前記第1の行動情報、前記第2の行動情報、前記第1の根拠情報、及び前記第2の根拠情報を認識可能なGUI(Graphical User Interface)を前記ユーザに提示してもよい。
 前記入力情報は、前記行動情報の選択、前記判断根拠の選択、前記行動情報とは異なる新たな行動情報の入力、前記根拠情報とは異なる新たな根拠情報の入力、又は前記クロップされた前記施術画像とは異なる新たなクロップされた施術画像の少なくとも1つを含んでもよい。
 前記記憶部は、前記第1の行動情報、又は前記第2の行動情報が正しい場合に、前記GUIを介して前記ユーザにより選択された前記第1の行動情報、又は前記第2の行動情報を、前記複数の認識器及び前記分類器の学習データとして保存してもよい。
 前記記憶部は、前記第1の行動情報、及び前記第2の行動情報が誤っている場合に、前記GUIを介して前記ユーザにより入力された前記第1の行動情報、及び前記第2の行動情報とは異なる第3の行動情報を、前記複数の認識器及び前記分類器の学習データとして保存してもよい。
 前記記憶部は、前記第1の根拠情報、又は前記第2の根拠情報が正しい場合に、前記GUIを介して前記ユーザにより選択された前記第1の根拠情報、又は前記第2の根拠情報を、前記複数の認識器及び前記分類器の学習データとして保存してもよい。
 前記記憶部は、前記第1の行動情報、及び前記第2の根拠情報が正しい場合に、前記GUIを介して前記ユーザにより入力された新たな根拠情報を、前記複数の認識器及び前記分類器の学習データとして保存してもよい。
 前記記憶部は、前記第1の根拠情報、及び前記第2の根拠情報が誤っている場合に、前記GUIを介して前記ユーザにより入力された前記第1の根拠情報、及び前記第2の根拠情報とは異なる第3の根拠情報を、前記複数の認識器及び前記分類器の学習データとして保存してもよい。
 本技術の一形態に係る情報処理方法は、コンピュータシステムが実行する情報処理方法であって、施術に関する施術画像を取得することを含む。複数の認識器の各々に前記施術画像が入力されることで、前記施術に関する医療機器の行動に関する行動情報、及び前記行動情報が出力された根拠の位置情報を示す根拠領域が出力され、前記根拠領域に基づいてクロップされた前記施術画像が分類器に入力されることで、前記根拠に関する根拠情報が出力され、複数の前記行動情報、及び複数の前記根拠情報がユーザに提示され、前記行動情報及び前記根拠情報に基づく前記ユーザにより入力された入力情報が、前記複数の認識器及び前記分類器の学習データとして保存される
 本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
 施術に関する施術画像を取得するステップ。
 複数の認識器の各々に前記施術画像が入力されることで、前記施術に関する医療機器の行動に関する行動情報、及び前記行動情報が出力された根拠の位置情報を示す根拠領域を出力するステップ。
 前記根拠領域に基づいてクロップされた前記施術画像が分類器に入力されることで、前記根拠に関する根拠情報を出力するステップ。
 複数の前記行動情報、及び複数の前記根拠情報をユーザに提示するステップ。
 前記行動情報及び前記根拠情報に基づく前記ユーザにより入力された入力情報を、前記複数の認識器及び前記分類器の学習データとして保存するステップ。
本技術に係る情報処理装置の構成例を示すブロック図である。 行動決定器の学習時のフローチャートである。 認識結果の選択のフローチャートである。 施術画像と根拠領域とクロップ画像とを模式的に示す図である。 クロップ画像及び判断根拠を示す模式図である。 クロップ画像及び判断根拠の他の例を示す模式図である。 クロップ画像及び判断根拠の他の例を示す模式図である。 認識結果を表示するGUIの一例を示す模式図である。 認識結果を表示するGUIの一例を示す模式図である。 行動決定器が3つ以上存在する場合のGUIの一例を示す模式図である。 判断根拠を表示するGUIの一例を示す模式図である。 認識結果が阻害された場合の判断根拠を表示するGUIの一例を示す模式図である。 認識結果及び判断根拠が異なる場合のGUIの一例を示す模式図である。 判断根拠が誤っている場合のGUIを示す模式図である。 判断根拠分類器の学習のフローチャートである。 情報処理装置のハードウェア構成例を示すブロック図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 図1は、本技術に係る情報処理装置20の構成例を示すブロック図である。
 本実施形態では、情報処理装置20は、カメラ1、ディスプレイ2、ロボット3、及び入力装置4と所定の通信網(ネットワーク)を介して、有線又は無線により通信可能に接続される。
 カメラ1は、施術に関する施術画像を撮像する。例えば、施術画像は、患部や、患部を摘出するための開腹等の医療に関する場面(施術の工程)が撮像された画像を含む。これ以外にも、施術を行う前や、縫合が終わった後等の施術が完了した際の画像も含む。すなわち、施術がこれから行われる部位、又は施術が行われた部位も施術画像に含まれる。また部位に限らず、患者全体を含む画像も含まれてもよい。
 ロボット3は、施術に用いられる医療機器を含む。例えば、ロボット3は、カメラ1を操作(移動)するロボットアームやカメラ1の撮像のタイミングを制御可能な制御機器を含む。これ以外にも、網膜等にレーザを照射するレーザ装置やメス等の術具を操作及び制御するデバイスが含まれてもよい。
 図1に示すように、情報処理装置20は、カメラ画像取得部21、認識処理部22、学習処理部23、認識結果表示部24、ロボット操作処理部25、認識結果選択処理部26を有する。
 カメラ画像取得部21は、カメラ1により撮像された施術画像を取得する。本実施形態では、カメラ画像取得部21は、施術画像記憶装置10を有し、撮像された施術画像を記憶する。なお、施術画像は、動画も含まれてもよい。
 認識処理部22は、施術画像に基づいて、認識結果及び根拠領域を出力する。本実施形態では、認識処理部22は、第1の行動決定器11及び第2の行動決定器12の各々に施術画像が入力されることで、施術に関する医療機器の行動に関する認識結果、及び行動情報が出力された根拠の位置情報を示す根拠領域を出力する。
 認識結果とは、ロボット3をどのように動かすかの情報である。例えば、ユーザ(医療関係者)がこれからどの領域を注目して動くべきか、という位置情報及び移動情報を含む。例えば、ユーザの術具を動かす方向及び距離に基づいて、カメラ1の移動するべき位置及び方向が認識結果として出力される。また認識結果は、レーザを照射する位置やタイミング、撮像倍率の制御等のロボット3に関する動作が含まれてもよい。なお、本実施形態において、認識結果は、施術に関する医療機器の行動に関する行動情報に相当する。
 根拠領域とは、認識結果が施術画像のどこを参照して導き出されたかの根拠を示す。例えば、施術画像の各ピクセルに値が入っており、その値が高いほど行動決定器が認識結果の根拠としたことを示す。また本実施形態では、XAI(Explainable AI)が用いられ、施術画像のどの領域に注目したか、すなわち、認識結果が出力された根拠が存在するであろう領域として根拠領域が出力される。
 また認識処理部22は、出力された根拠領域に基づいて、該当する部分をクロップする。クロップされた施術画像が判断根拠分類器13に入力されることで判断根拠が出力される。判断根拠分類器13は、各行動決定器の判断根拠を分類するためのAIである。
 判断根拠とは、行動決定器により出力された認識結果が出力された根拠を示す。例えば、判断根拠は、術具、術具軸、及び臓器等の認識結果が出力された根拠と、スモーク、術具汚れ、レンズ汚れ、及びオクルージョン等の認識結果が正確に出力されなくなる誤認識の原因とを含む。なお、本実施形態において、判断根拠は、行動情報が出力された根拠に関する根拠情報に相当する。
 以下、第1の行動決定器11から出力される認識結果、及び根拠領域を第1の認識結果、第1の根拠領域と記載する。また第1の根拠領域に基づいて、クロップされた施術画像が判断根拠分類器13に入力されることで出力された判断根拠を第1の判断根拠と記載する。同様に第2の行動決定器12に関しても、第2の認識結果、第2の根拠領域、第2の判断根拠と記載する。
 本実施形態では、第1の行動決定器11は、オフライン学習により、ロボット3の行動を決定するためのAIである。また第2の行動決定器12は、オンライン学習により、ロボット3の行動を決定するためのAIである。
 また本実施形態では、第1の行動決定器11は、事前に得られる第1の学習データ14により学習が行われる。第2の行動決定器12は、施術中もしくは施術後に得られる第2の学習データ15により学習が行われる。なお、第1の学習データ14は複数存在していてもよい。また学習データ及び行動決定器が合計3つ以上存在していてもよい。さらに、各行動決定器は、オフライン学習又はオンライン学習のいずれか一方のみにより学習が行われてもよい。なお学習モデルは学習データの数の分だけ存在する。
 図2は、行動決定器の学習時のフローチャートである。図2Aは、オフライン学習のフローチャートである。図2Bは、オンライン学習のフローチャートである。
 図2Aに示すように、第1の行動決定器11は、以下のように学習が行われる。事前に施術画像に対して術具の位置や臓器の位置等のアノテーションが行われる(ステップ101)。また学習データに基づいて、教師あり学習が行われる(ステップ102)。
 本実施形態では、オフライン学習の教師データとして、術具や臓器の位置及び種類に関する情報、患者の診断情報等が用いられる。例えば、各臓器の位置関係、臓器に対して用いられる術具、病名、及び病名に関する患部の位置や種類等が用いられてもよい。
 図2Bに示すように、第2の行動決定器12は、以下のように学習が行われる。事前に学習済みの行動決定器が準備される(ステップ201)。カメラ1から施術が取得される(ステップ202)。取得された施術画像に基づいて、学習が行われ行動決定器が更新される(ステップ203)。ステップ202及びステップ203は、学習が終わるまでループされる。
 本実施形態では、オンライン学習では、カメラ1から得られた施術画像を基に逐次学習が行われ、行動決定器のパラメータが更新される。教師データは事前に学習が行われた疑似ラベル生成器等のラベルを生成するAIが用いられてもよいし、教師なし学習が行われてもよい。
 図1に戻り、学習処理部23は、第1の行動決定器11、第2の行動決定器12、及び判断根拠分類器13の学習を行う。本実施形態では、学習処理部23は、ユーザに提示される認識結果及び判断根拠に基づくユーザにより入力された入力情報から学習を行う。
 認識結果表示部24は、認識処理部22から出力される認識結果、及び判断根拠を提示する。本実施形態では、認識結果表示部24は、第1の認識結果、第2の認識結果、第1の判断根拠、及び第2の判断根拠を視認可能なGUI(Graphical User Interface)をディスプレイ2に表示する。
 本実施形態では、ユーザは入力装置4を用いて、提示されたGUIを介して認識結果を選択する。例えば、マウス5を用いて認識結果を選択してもよい。これ以外にも、ディスプレイ2に表示される認識結果をユーザがタッチすることで選択されてもよい。
 またユーザは、提示された判断根拠の修正を行うことも可能である。例えば、キーボード6を用いて正しい判断根拠を入力してもよい。これ以外にも、音声認識7(例えば、マイク)により認識結果の選択、判断根拠の修正を行ってもよい。またGUIはディスプレイ2以外にも、HMD(Head Mounted Display)8が用いられてもよい。
 すなわち、入力情報とは、認識結果及び判断根拠の選択、又は認識結果及び判断根拠の修正(正しい認識結果及び判断根拠の入力)の少なくとも一方を含む。またユーザは、入力情報をGUIを介して入力することができる。これ以外にも、ユーザがGUIを介して入力する種々の情報が含まれてもよい。具体的な選択方法や修正方法は後述する。
 ロボット操作処理部25は、ロボット3に関する操作処理を実行する。例えば、操作処理は、カメラ1の撮像タイミングを制御する信号の出力、カメラ1を支持するロボットアームを駆動する信号の出力等を含む。
 認識結果選択処理部26は、認識結果表示部24により提示されたGUIを介して選択された認識結果を処理する。本実施形態では、認識結果選択処理部26は、選択された認識結果、及び認識結果における判断根拠(又は修正された判断根拠)を記憶領域に保存する。
 なお、本実施形態において、カメラ画像取得部21は、施術に関する施術画像を取得する取得部に相当する。
 なお、本実施形態において、認識処理部22は、複数の認識器の各々に施術画像が入力されることで、施術に関する医療機器の行動に関する行動情報、及び行動情報が出力された根拠の位置情報を示す根拠領域を出力する行動出力部と、根拠領域に基づいてクロップされた施術画像が分類器に入力されることで、根拠に関する根拠情報を出力する根拠出力部として機能する。
 なお、本実施形態において、認識結果表示部24は、複数の行動情報、及び複数の根拠情報をユーザに提示する提示部に相当する。
 なお、本実施形態において、認識結果選択処理部26は、行動情報及び根拠情報に基づくユーザにより入力された入力情報を、複数の認識器及び分類器の学習データとして保存する記憶部に相当する。
 図3は、認識結果の選択のフローチャートである。
 図3に示すように、カメラ画像取得部21により、施術画像が取得される(ステップ301)。
 認識処理部22により、第1の行動決定器11に施術画像が入力されることで出力された第1の認識結果と第1の根拠領域とが取得される(ステップ302)。同様に、認識処理部22により、第2の行動決定器12に施術画像が入力されることで出力された第2の認識結果と第2の根拠領域とが取得される(ステップ303)。なお図3では、ステップ302及びステップ303は、並列処理される。これに限定されず直列に処理されてもよい。
 認識処理部22により、第1の認識結果と第2の認識結果とに差異があるか否かが判定される(ステップ304)。例えば、認識結果の示す位置や移動の方向(移動量)等が異なるか否かが判定される。
 認識結果に差異がある場合(ステップ304のYES)、根拠領域に基づいて、施術画像の該当部分がクロップされる(ステップ305)。以下、クロップされた施術画像をクロップ画像と記載する。
 図4は、施術画像と根拠領域とクロップ画像とを模式的に示す図である。
 図4に示すように、第1の行動決定器11又は第2の行動決定器12に施術画像30が入力されることで、根拠領域31が出力される。なお、図4では根拠領域31は、説明のために、領域が記載されているが、実際は各ピクセル事にどれほど認識結果に影響したのかを示す数値が入っている。
 本実施形態では、根拠領域31の各ピクセル値の極大値を取っている範囲を中心とする矩形領域がクロップされることで、クロップ画像が取得される。例えば図4では、根拠領域31内の印32及び印33は、極大値を取ったピクセルを示している。すなわち、図4の例では、2つの極大値が得られたことを示しており、各極大値を中心とした矩形領域がクロップされる範囲となる。なお、クロップ画像は1つの認識結果に対して、最低1つ以上存在する。また図4の例のように、2つ以上存在していることもある。
 第1の根拠領域に基づく第1のクロップ画像と、第2の根拠領域に基づく第2のクロップ画像とがそれぞれ判断根拠分類器13に入力されることで、第1の判断根拠と第2の判断根拠とが取得される(ステップ306)。
 図5は、クロップ画像及び判断根拠を示す模式図である。
 図5に示すように、施術画像35及び根拠領域36に基づいて、クロップ画像37が取得される。クロップ画像37が判断根拠分類器13に入力されることで、判断根拠38が出力される。
 図5では、左に記載されるグラフは、クロップされた領域に映っている物体が何か、を示す。グラフに示すように、映っている物体の候補として術具先端、術具軸、臓器、及びその他が挙げられ、数値が高い項目が映っている物体である可能性が高いことを示す。
 また右に記載されるグラフは、施術時に誤認識の原因になると想定される原因が含まれているのか、を示す。例えば、原因の候補としてスモーク、術具汚れ、レンズ汚れ、及びオクルージョンが挙げられる。これらの候補のうち、数値が高い項目が誤認識の原因である可能性が高いことを示す。
 図6は、クロップ画像及び判断根拠の他の例を示す模式図である。
 図6も図5と同様に、施術画像40及び根拠領域の印(極大値を取ったピクセル)41に基づいて、クロップ画像42が取得される。クロップ画像42が判断根拠分類器13に入力されることで、判断根拠43が出力される。
 図6に示すように、クロップ画像42にスモーク44が含まれる。この場合、右に記載されるグラフは、スモーク44が誤認識の原因となっている可能性が高いため、高い数値で表示されている。またスモーク44により、クロップ画像42に映っている物体が術具先端である可能性が低い、すなわち、数値が低く表示される。
 図7は、クロップ画像及び判断根拠の他の例を示す模式図である。
 図7では、根拠領域50の印51は、術具52ではなく臓器53を指している。判断根拠分類器13は、クロップ画像が入力されることで、臓器を判断根拠として出力する(グラフ54を参照)。
 この場合、予め特定の臓器が重要であることが分かっているのであれば、グラフ54のように臓器かどうかを判断できるように、判断根拠分類器13を学習させる。例えば、患者が盲腸である場合、盲腸を摘出する手術の手順、及び盲腸の位置や形状等を学習させる。
 図3に戻り、認識結果表示部24により、ディスプレイ2に第1の認識結果と、第1の判断根拠と、第2の認識結果と、第2の判断根拠とを視認可能なGUIが表示される(ステップ307)。
 ユーザにより、正しい認識結果が選択される、また認識結果又は判断根拠に誤りがある場合、修正された認識結果又は判断根拠が入力される(ステップ308)。選択された認識結果及び判断根拠(又は、修正された認識結果及び判断根拠)は、記憶領域に保存される(ステップ309)。
 図8は、認識結果を表示するGUIの一例を示す模式図である。図8Aは、認識結果の表示方法の一例を示す模式図である。図8Bは、認識結果の表示方法の他の例を示す模式図である。
 図8Aに示すように、認識結果表示部24は、施術画像60に第1の行動決定器11から出力された第1の認識結果61と、第2の行動決定器12から出力された第2の認識結果62を認識可能なGUIをディスプレイ2に表示する。
 例えば図8Aでは、異なる術具63及び術具64の先にある領域が重要だとして認識結果が2つ表示されている。ユーザは、表示された認識結果から、正しい認識結果を選択する。
 なお、認識結果の表示方法は限定されず、図8Bに示すように術具65の骨格が認識結果として表示されてもよい。
 図9は、認識結果を表示するGUIの一例を示す模式図である。
 図9に示すように、認識結果として位置情報以外にも移動情報が表示されてもよい。例えば図9では、術具70の移動する方向を示す認識結果71及び認識結果72が表示される。
 図10は、行動決定器が3つ以上存在する場合のGUIの一例を示す模式図である。図10Aは、認識結果が3つ存在する場合のGUIの一例を示す模式図である。
 図10では、オンライン学習が行われた第1の行動決定器11とオフライン学習が行われた第2の行動決定器12とは異なる第3の行動決定器が存在する場合のGUIが図示される。例えば図10Aでは、3つの認識結果は医師(ユーザ)が注目している領域を推定した結果を示す。
 図10に示すように、第3の行動決定器は、オフライン学習(図10に示すオフライン学習2)が行われた行動決定器である。これに限定されず、オンライン学習が用いられてもよいし、行動決定器の数と学習方法も限定されない。
 ユーザは、表示された認識結果を選択する。認識結果が3つ以上存在する場合、2つ以上の認識結果が選択されてもよい。2つ以上が選択された場合、それらの認識結果の全てが記憶領域に保存される。
 図10Bは、表示された認識結果の全てが誤っている場合のGUIの一例を示す模式図である。
 図10Bに示すように、ユーザは、行動決定器から出力された3つの認識結果が全て誤っている場合、正しい位置(破線75)を指定する。指定された位置(入力情報)は、新しい教師データとして記憶領域に保存される。
 図11は、判断根拠を表示するGUIの一例を示す模式図である。
 図11では、認識結果表示部24により、判断根拠を認識可能なGUI80が提示される。図11に示すように、クロップ画像の領域が矩形(黒枠81及び82、灰枠83)で囲んで表示され、その矩形の上に判断根拠が表示される。
 例えば、図8のように認識結果(灰丸61及び黒丸62)が出力された場合、その認識結果に対応する判断根拠分類器13における最も数値が高い判断根拠(図5参照)が表示される。これにより、ユーザは、どちらの認識結果が正しいのかを選択しやすくなる。
 なおクロップ画像の領域は、1つの認識結果に対して複数表示される場合もある。
 図12は、認識結果が阻害された場合の判断根拠を表示するGUIの一例を示す模式図である。
 図12Aは、認識結果が視認可能なGUIを示す模式図である。図12Aに示すように、スモーク85が発生しているため、第2の行動決定器12から出力される第2の認識結果86の位置が術具87からずれて表示される。
 図12Bは、判断根拠が視認可能なGUIを示す模式図である。図12Bに示すように、スモーク85が発生していることにより、クロップ画像の領域88の位置にずれが生じている。またスモーク85がクロップ画像の領域中に映っていることが表示される。すなわち、領域88の上に判断根拠として「術具先端、スモーク」と表示されることで、ユーザは何故誤った認識結果が出力されたのかが容易に理解することができる。
 図13は、認識結果及び判断根拠が異なる場合のGUIの一例を示す模式図である。図13Aは、認識結果が視認可能なGUIを示す模式図である。図13Bは、判断根拠が視認可能なGUIを示す模式図である。
 図13Aに示すように、第2の行動決定器12から出力された第2の認識結果90は、術具91の先端を示す位置に表示される。また第1の行動決定器11から出力された第1の認識結果92は、術具93の先端を示す位置に表示される。
 また図13Bに示すように、第2の認識結果90が表示されている箇所に第1の判断根拠94が表示されている。また第1の認識結果92が表示されている箇所に第2の判断根拠95が表示されている。
 図13では、第2の認識結果90と、第1の判断根拠94とが正しいとする。すなわち、第2の認識結果90に対する第2の判断根拠92が誤っている場合、ユーザは第2の判断根拠92の修正を行い、正しいクロップ画像の領域と正しい判断根拠とを教示する。ユーザにより提示された正しい領域及び判断根拠は記憶領域に保存され、次回の判断根拠分類器13の学習時に活用される。
 図14は、判断根拠が誤っている場合のGUIを示す模式図である。
 図14に示すように、第1の判断根拠96及び第2の判断根拠97が間違っている場合、又は第1の判断根拠96及び第2の判断根拠97以外に注目すべきクロップ画像の領域と判断根拠とがある場合、ユーザは、正しいクロップ画像の領域(破線98)及び正しい判断根拠(術具先端)を教示する。
 またユーザは、クロップ画像の領域の位置が正しく、判断根拠が誤っている場合も同様に正しい判断根拠を教示する。
 以上、本実施形態に係る情報処理装置20は、施術に関する施術画像を取得する。第1の行動決定器11及び第2の行動決定器12の各々に施術画像が入力されることで、施術に関する医療機器の行動に関する認識結果、及び認識結果が出力された根拠の位置情報を示す根拠領域が出力される。根拠領域に基づいてクロップされた施術画像が判断根拠分類器13に入力されることで、判断根拠が出力される。第1の認識結果及び第2の認識結果と、第1の根拠情報及び第2の根拠情報とがユーザに提示される。ユーザにより選択された認識結果及び判断根拠を、第1の行動決定器11、第2の行動決定器12、及び判断根拠分類器13の学習データとして保存される。これにより、最適な学習データの抽出が可能となる。
 従来、医療支援ロボットでは、事前に収集されたデータベースで学習されたモデルを基に医療支援を行うが、実際に使う際の条件に即したロボットの動きを実現することが難しかった。また診断支援AIでは、ロボットが医師や環境に即して最適な行動を行うために、どのような学習データで学習すべきかを追求することは難しい。
 本技術では、認識結果に差異があった場合に、認識結果とその判断根拠とをそれぞれ表示することで、ユーザはどちらが正しいのか、あるいはどちらも間違っていて正しい教示が必要なのかを判断して、その修正ができる。修正された情報は記憶領域に保存され、次回の学習時に活用される。
 すなわち、オフラインデータベースで学習したモデルによるロボットの行動と、オンラインデータベースで学習したモデルによるロボットの行動と、医療従事者に判断してもらうことにより、優れた行動に起因する学習データを抽出し、洗練されたデータベースで新しいモデルを学習する。また判断根拠を合わせて表示することで医療従事者の判断が容易になる。
 <その他の実施形態>
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
 上記の実施形態では、施術画像がクロップされ、ユーザはその施術画像の判断根拠と認識結果とを選択、又は修正を行った。これに限定されず、動画でも同様の処理が行われてもよい。例えば、施術が行われる動画が再生されている間に、認識結果及び判断根拠が同化中に表示され、ユーザにより選択、又は修正が行われてもよい。
 図15は、判断根拠分類器13の学習のフローチャートである。
 図15に示すように、判断根拠分類器13は以下のように学習が行われる。準備として、事前に教師あり学習が行われた行動決定器が少なくとも1つ用意される(ステップ401)。判断根拠分類器用の学習データが学習済みモデルに入力され、図3と同様の方法でクロップ画像が取得される(ステップ402)。取得されたクロップ画像に対して、何が映っているのか、誤認識になる原因は映っているのかがアノテーションされる(ステップ403)。アノテーションされたデータで教師あり学習が行われる(ステップ405)。
 判断根拠分類器13は、上記のステップから事前に学習される。また判断根拠に誤りがあり、その誤りをユーザが直接修正した場合、その教示されたデータに基づいて判断根拠分類器13の再学習が行われる。
 図16は、情報処理装置20のハードウェア構成例を示すブロック図である。
 情報処理装置20は、CPU101、ROM102、RAM103、入出力インタフェース105、及びこれらを互いに接続するバス104を備える。入出力インタフェース105には、表示部106、入力部107、記憶部108、通信部109、及びドライブ部110等が接続される。
 表示部106は、例えば液晶、EL等を用いた表示デバイスである。入力部107は、例えばキーボード、ポインティングデバイス、タッチパネル、その他の操作装置である。入力部107がタッチパネルを含む場合、そのタッチパネルは表示部106と一体となり得る。
 記憶部108は、不揮発性の記憶デバイスであり、例えばHDD、フラッシュメモリ、その他の固体メモリである。ドライブ部110は、例えば光学記録媒体、磁気記録テープ等、リムーバブルの記録媒体111を駆動することが可能なデバイスである。
 通信部109は、LAN、WAN等に接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器である。通信部109は、有線及び無線のどちらを利用して通信するものであってもよい。通信部109は、情報処理装置20とは、別体で使用される場合が多い。
 上記のようなハードウェア構成を有する情報処理装置20による情報処理は、記憶部108またはROM102等に記憶されたソフトウェアと、情報処理装置20のハードウェア資源との協働により実現される。具体的には、ROM102等に記憶された、ソフトウェアを構成するプログラムをRAM103にロードして実行することにより、本技術に係る情報処理方法が実現される。
 プログラムは、例えば記録媒体111を介して情報処理装置20にインストールされる。あるいは、グローバルネットワーク等を介してプログラムが情報処理装置20にインストールされてもよい。その他、コンピュータ読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
 通信端末に搭載されたコンピュータとネットワーク等を介して通信可能な他のコンピュータとが連動することにより本技術に係る情報処理方法、及びプログラムが実行され、本技術に係る評価部が構築されてもよい。
 すなわち本技術に係る情報処理装置、情報処理方法、及びプログラムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお、本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
 コンピュータシステムによる本技術に係る情報処理装置、情報処理方法、及びプログラムの実行は、例えば、認識結果の出力、根拠領域の出力、及び判断根拠の出力等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部又は全部を他のコンピュータに実行させその結果を取得することを含む。
 すなわち本技術に係る情報処理装置、情報処理方法、及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
 各図面を参照して説明した認識処理部、学習処理部、認識結果表示部等の各構成、通信システムの制御フロー等はあくまで一実施形態であり、本技術の趣旨を逸脱しない範囲で、任意に変形可能である。すなわち本技術を実施するための他の任意の構成やアルゴリズム等が採用されてよい。
 なお、本開示中に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。上記の複数の効果の記載は、それらの効果が必ずしも同時に発揮されるということを意味しているのではない。条件等により、少なくとも上記した効果のいずれかが得られることを意味しており、もちろん本開示中に記載されていない効果が発揮される可能性もある。
 以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。
 なお、本技術は以下のような構成も採ることができる。
(1)
 施術に関する施術画像を取得する取得部と、
 複数の認識器の各々に前記施術画像が入力されることで、前記施術に関する医療機器の行動に関する行動情報、及び前記行動情報が出力された根拠の位置情報を示す根拠領域を出力する行動出力部と、
 前記根拠領域に基づいてクロップされた前記施術画像が分類器に入力されることで、前記根拠に関する根拠情報を出力する根拠出力部と、
 複数の前記行動情報、及び複数の前記根拠情報をユーザに提示する提示部と、
 前記行動情報及び前記根拠情報に基づく前記ユーザにより入力された入力情報を、前記複数の認識器及び前記分類器の学習データとして保存する記憶部と
 を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
 前記行動情報は、前記医療機器の位置情報、移動情報、又は動作情報の少なくとも1つを含む
 情報処理装置。
(3)(1)に記載の情報処理装置であって、
 前記根拠情報は、前記根拠、及び前記根拠の精度を下げる原因を含み、
 前記根拠は、術具、術具軸、又は臓器の少なくとも1つを含み、
 前記原因は、スモーク、前記術具の汚れ、レンズの汚れ、又はオクルージョンの少なくとも1つを含む
 情報処理装置。
(4)(1)に記載の情報処理装置であって、
 前記複数の認識器は、オフライン学習を行う第1の認識器と、オンライン学習を行う第2の認識器とを含み、
 前記第1の認識器は、第1の前記行動情報、及び第1の前記根拠領域を出力し、
 前記第2の認識器は、第2の前記行動情報、及び第2の前記根拠領域を出力する
 情報処理装置。
(5)(4)に記載の情報処理装置であって、
 前記根拠出力部は、前記第1の根拠領域に基づいてクロップされた第1の前記施術画像と、前記第2の根拠領域に基づいてクロップされた第2の前記施術画像とが前記分類器に入力されることで、第1の前記根拠情報と第2の前記根拠情報とを出力する
 情報処理装置。
(6)(5)に記載の情報処理装置であって、
 前記提示部は、前記第1の行動情報、前記第2の行動情報、前記第1の根拠情報、及び前記第2の根拠情報を認識可能なGUI(Graphical User Interface)を前記ユーザに提示する
 情報処理装置。
(7)(6)に記載の情報処理装置であって、
 前記入力情報は、前記行動情報の選択、前記判断根拠の選択、前記行動情報とは異なる新たな行動情報の入力、前記根拠情報とは異なる新たな根拠情報の入力、又は前記クロップされた前記施術画像とは異なる新たなクロップされた施術画像の少なくとも1つを含む
 情報処理装置。
(8)(7)に記載の情報処理装置であって、
 前記記憶部は、前記第1の行動情報、又は前記第2の行動情報が正しい場合に、前記GUIを介して前記ユーザにより選択された前記第1の行動情報、又は前記第2の行動情報を、前記複数の認識器及び前記分類器の学習データとして保存する
 情報処理装置。
(9)(7)に記載の情報処理装置であって、
 前記記憶部は、前記第1の行動情報、及び前記第2の行動情報が誤っている場合に、前記GUIを介して前記ユーザにより入力された前記第1の行動情報、及び前記第2の行動情報とは異なる第3の行動情報を、前記複数の認識器及び前記分類器の学習データとして保存する
 情報処理装置。
(10)(7)に記載の情報処理装置であって、
 前記記憶部は、前記第1の根拠情報、又は前記第2の根拠情報が正しい場合に、前記GUIを介して前記ユーザにより選択された前記第1の根拠情報、又は前記第2の根拠情報を、前記複数の認識器及び前記分類器の学習データとして保存する
 情報処理装置。
(11)(7)に記載の情報処理装置であって、
 前記記憶部は、前記第1の行動情報、及び前記第2の根拠情報が正しい場合に、前記GUIを介して前記ユーザにより入力された新たな根拠情報を、前記複数の認識器及び前記分類器の学習データとして保存する
 情報処理装置。
(12)(7)に記載の情報処理装置であって、
 前記記憶部は、前記第1の根拠情報、及び前記第2の根拠情報が誤っている場合に、前記GUIを介して前記ユーザにより入力された前記第1の根拠情報、及び前記第2の根拠情報とは異なる第3の根拠情報を、前記複数の認識器及び前記分類器の学習データとして保存する
 情報処理装置。
(13)
 施術に関する施術画像を取得し、
 複数の認識器の各々に前記施術画像が入力されることで、前記施術に関する医療機器の行動に関する行動情報、及び前記行動情報が出力された根拠の位置情報を示す根拠領域を出力し、
 前記根拠領域に基づいてクロップされた前記施術画像が分類器に入力されることで、前記根拠に関する根拠情報を出力し、
 複数の前記行動情報、及び複数の前記根拠情報をユーザに提示し、
 前記行動情報及び前記根拠情報に基づく前記ユーザにより入力された入力情報を、前記複数の認識器及び前記分類器の学習データとして保存する
 ことをコンピュータシステムが実行する情報処理方法。
(14)
 施術に関する施術画像を取得するステップと、
 複数の認識器の各々に前記施術画像が入力されることで、前記施術に関する医療機器の行動に関する行動情報、及び前記行動情報が出力された根拠の位置情報を示す根拠領域を出力するステップと、
 前記根拠領域に基づいてクロップされた前記施術画像が分類器に入力されることで、前記根拠に関する根拠情報を出力するステップと、
 複数の前記行動情報、及び複数の前記根拠情報をユーザに提示するステップと、
 前記行動情報及び前記根拠情報に基づく前記ユーザにより入力された入力情報を、前記複数の認識器及び前記分類器の学習データとして保存するステップと
 をコンピュータシステムに実行させるプログラム。
 11…第1の行動決定器
 12…第2の行動決定器
 13…判断根拠分類器
 20…情報処理装置
 21…カメラ画像取得部
 22…認識処理部
 23…学習処理部
 24…認識結果表示部
 26…認識結果選択処理部

Claims (14)

  1.  施術に関する施術画像を取得する取得部と、
     複数の認識器の各々に前記施術画像が入力されることで、前記施術に関する医療機器の行動に関する行動情報、及び前記行動情報が出力された根拠の位置情報を示す根拠領域を出力する行動出力部と、
     前記根拠領域に基づいてクロップされた前記施術画像が分類器に入力されることで、前記根拠に関する根拠情報を出力する根拠出力部と、
     複数の前記行動情報、及び複数の前記根拠情報をユーザに提示する提示部と、
     前記行動情報及び前記根拠情報に基づく前記ユーザにより入力された入力情報を、前記複数の認識器及び前記分類器の学習データとして保存する記憶部と
     を具備する情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記行動情報は、前記医療機器の位置情報、移動情報、又は動作情報の少なくとも1つを含む
     情報処理装置。
  3.  請求項1に記載の情報処理装置であって、
     前記根拠情報は、前記根拠、及び前記根拠の精度を下げる原因を含み、
     前記根拠は、術具、術具軸、又は臓器の少なくとも1つを含み、
     前記原因は、スモーク、前記術具の汚れ、レンズの汚れ、又はオクルージョンの少なくとも1つを含む
     情報処理装置。
  4.  請求項1に記載の情報処理装置であって、
     前記複数の認識器は、オフライン学習を行う第1の認識器と、オンライン学習を行う第2の認識器とを含み、
     前記第1の認識器は、第1の前記行動情報、及び第1の前記根拠領域を出力し、
     前記第2の認識器は、第2の前記行動情報、及び第2の前記根拠領域を出力する
     情報処理装置。
  5.  請求項4に記載の情報処理装置であって、
     前記根拠出力部は、前記第1の根拠領域に基づいてクロップされた第1の前記施術画像と、前記第2の根拠領域に基づいてクロップされた第2の前記施術画像とが前記分類器に入力されることで、第1の前記根拠情報と第2の前記根拠情報とを出力する
     情報処理装置。
  6.  請求項5に記載の情報処理装置であって、
     前記提示部は、前記第1の行動情報、前記第2の行動情報、前記第1の根拠情報、及び前記第2の根拠情報を認識可能なGUI(Graphical User Interface)を前記ユーザに提示する
     情報処理装置。
  7.  請求項6に記載の情報処理装置であって、
     前記入力情報は、前記行動情報の選択、前記判断根拠の選択、前記行動情報とは異なる新たな行動情報の入力、前記根拠情報とは異なる新たな根拠情報の入力、又は前記クロップされた前記施術画像とは異なる新たなクロップされた施術画像の少なくとも1つを含む
     情報処理装置。
  8.  請求項7に記載の情報処理装置であって、
     前記記憶部は、前記第1の行動情報、又は前記第2の行動情報が正しい場合に、前記GUIを介して前記ユーザにより選択された前記第1の行動情報、又は前記第2の行動情報を、前記複数の認識器及び前記分類器の学習データとして保存する
     情報処理装置。
  9.  請求項7に記載の情報処理装置であって、
     前記記憶部は、前記第1の行動情報、及び前記第2の行動情報が誤っている場合に、前記GUIを介して前記ユーザにより入力された前記第1の行動情報、及び前記第2の行動情報とは異なる第3の行動情報を、前記複数の認識器及び前記分類器の学習データとして保存する
     情報処理装置。
  10.  請求項7に記載の情報処理装置であって、
     前記記憶部は、前記第1の根拠情報、又は前記第2の根拠情報が正しい場合に、前記GUIを介して前記ユーザにより選択された前記第1の根拠情報、又は前記第2の根拠情報を、前記複数の認識器及び前記分類器の学習データとして保存する
     情報処理装置。
  11.  請求項7に記載の情報処理装置であって、
     前記記憶部は、前記第1の行動情報、及び前記第2の根拠情報が正しい場合に、前記GUIを介して前記ユーザにより入力された新たな根拠情報を、前記複数の認識器及び前記分類器の学習データとして保存する
     情報処理装置。
  12.  請求項7に記載の情報処理装置であって、
     前記記憶部は、前記第1の根拠情報、及び前記第2の根拠情報が誤っている場合に、前記GUIを介して前記ユーザにより入力された前記第1の根拠情報、及び前記第2の根拠情報とは異なる第3の根拠情報を、前記複数の認識器及び前記分類器の学習データとして保存する
     情報処理装置。
  13.  施術に関する施術画像を取得し、
     複数の認識器の各々に前記施術画像が入力されることで、前記施術に関する医療機器の行動に関する行動情報、及び前記行動情報が出力された根拠の位置情報を示す根拠領域を出力し、
     前記根拠領域に基づいてクロップされた前記施術画像が分類器に入力されることで、前記根拠に関する根拠情報を出力し、
     複数の前記行動情報、及び複数の前記根拠情報をユーザに提示し、
     前記行動情報及び前記根拠情報に基づく前記ユーザにより入力された入力情報を、前記複数の認識器及び前記分類器の学習データとして保存する
     ことをコンピュータシステムが実行する情報処理方法。
  14.  施術に関する施術画像を取得するステップと、
     複数の認識器の各々に前記施術画像が入力されることで、前記施術に関する医療機器の行動に関する行動情報、及び前記行動情報が出力された根拠の位置情報を示す根拠領域を出力するステップと、
     前記根拠領域に基づいてクロップされた前記施術画像が分類器に入力されることで、前記根拠に関する根拠情報を出力するステップと、
     複数の前記行動情報、及び複数の前記根拠情報をユーザに提示するステップと、
     前記行動情報及び前記根拠情報に基づく前記ユーザにより入力された入力情報を、前記複数の認識器及び前記分類器の学習データとして保存するステップと
     をコンピュータシステムに実行させるプログラム。
PCT/JP2023/000043 2022-02-24 2023-01-05 情報処理装置、情報処理方法、及びプログラム WO2023162479A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022027062 2022-02-24
JP2022-027062 2022-12-16

Publications (1)

Publication Number Publication Date
WO2023162479A1 true WO2023162479A1 (ja) 2023-08-31

Family

ID=87765346

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/000043 WO2023162479A1 (ja) 2022-02-24 2023-01-05 情報処理装置、情報処理方法、及びプログラム

Country Status (1)

Country Link
WO (1) WO2023162479A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019114116A (ja) * 2017-12-25 2019-07-11 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム
WO2022024559A1 (ja) * 2020-07-31 2022-02-03 ソニーグループ株式会社 医療支援システム及び医療支援方法、並びにコンピュータプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019114116A (ja) * 2017-12-25 2019-07-11 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム
WO2022024559A1 (ja) * 2020-07-31 2022-02-03 ソニーグループ株式会社 医療支援システム及び医療支援方法、並びにコンピュータプログラム

Similar Documents

Publication Publication Date Title
KR102014385B1 (ko) 수술영상 학습 및 학습 기반 수술동작 인식 방법 및 장치
US11232556B2 (en) Surgical simulator providing labeled data
US20230093342A1 (en) Method and system for facilitating remote presentation or interaction
US20230172438A1 (en) Medical arm control system, medical arm control method, medical arm simulator, medical arm learning model, and associated programs
US20230142404A1 (en) Medical imaging apparatus, learning model generation method, and learning model generation program
EP4191606A1 (en) Medical assistance system, medical assistance method, and computer program
WO2023162479A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2018508246A (ja) 少なくとも1つの医療機器を伴う外科的処置中に執刀者にイメージ化支援を提供する為の支援デバイス及び方法
US20220392084A1 (en) Scene perception systems and methods
US20230410499A1 (en) Visibility metrics in multi-view medical activity recognition systems and methods
US20210174518A1 (en) Tracking device, endoscope system, and tracking method
US11559888B2 (en) Annotation device
WO2023157622A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2020194663A1 (ja) トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法
EP4057181A1 (en) Improved detection of action in a video stream
WO2024029502A1 (ja) 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体
KR102640314B1 (ko) 인공지능 수술 시스템 및 그것의 제어방법
WO2022085104A1 (ja) 内視鏡操作支援装置、制御方法、コンピュータ可読媒体、及びプログラム
US20230045686A1 (en) Fusion of spatial and temporal context for location determination for visualization systems
WO2024029503A1 (ja) 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体
EP4373079A1 (en) System, method, and computer program for an optical imaging system and corresponding optical imaging system
US20230293249A1 (en) Information processing device, program, learning model, and method for generating learning model
US20220101491A1 (en) Information processing apparatus
EP3933598A1 (en) Machine learning pipeline
CN116508070A (zh) 多视图医疗活动识别系统和方法中的可见性度量

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23759485

Country of ref document: EP

Kind code of ref document: A1