JP2021149801A - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP2021149801A
JP2021149801A JP2020051181A JP2020051181A JP2021149801A JP 2021149801 A JP2021149801 A JP 2021149801A JP 2020051181 A JP2020051181 A JP 2020051181A JP 2020051181 A JP2020051181 A JP 2020051181A JP 2021149801 A JP2021149801 A JP 2021149801A
Authority
JP
Japan
Prior art keywords
image
information
processing
degree
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020051181A
Other languages
English (en)
Inventor
創太 正満
Sota Masamitsu
創太 正満
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2020051181A priority Critical patent/JP2021149801A/ja
Priority to PCT/JP2021/009499 priority patent/WO2021193061A1/ja
Publication of JP2021149801A publication Critical patent/JP2021149801A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】透明性が高いモデルの学習に適した学習用情報を生成すること、又は、モデルの透明性を高くすることが可能な情報処理装置及び情報処理方法を提供する。【解決手段】情報処理装置は、画像加工部と、学習用情報生成部を具備する。上記画像加工部は、事前に収集された複数の画像に対してユーザにより行われた加工操作に従って前記画像を加工する。上記学習用情報生成部は、前記画像と、前記画像加工部によって加工された加工画像に対して前記ユーザにより行われた前記加工画像内に含まれる認識対象物のラベリング情報と、前記加工操作に応じた画像加工度とを互いに対応づけた学習用情報を生成する。【選択図】図1

Description

本技術は、情報処理装置及び情報処理方法に関する。
近年、医療現場においては、例えば内視鏡手術を行うために、患部などの観察対象を拡大観察することが可能な撮像デバイスを備える医療用観察装置が用いられる場合がある。術者は、撮像デバイスにより撮像された画像をディスプレイで確認しながら患部の処置等を行う。この際、術者に対して患部の処置を支援するため、例えば画像に術具の先端位置を示す印を重畳表示させて画像表示する場合がある。
画像における術具の先端等の認識対象物の推測は、予め学習されたモデルを用いて行われる。機械学習の手法を用いて何らかの予測を行う場合、教師あり学習の手法によってモデルの学習が行われる。教師あり学習では、画像に対応した正解ラベルデータが必要となる。正解ラベルデータは、画像を確認しながら人手で作成される場合がある。正解ラベルデータを作成することをラベリングといい、正解ラベルデータを作成するユーザをラベラーという。
特許文献1には、大量のデータから教師データ(正解ラベルデータ)を得る際のラベル付与について記載されている。ラベル付与において、正確な判断が可能な対象分野のエキスパートがラベル付与を行うことが望ましいが、現実的には非エキスパートがラベル付与を行った教師データが比較的大量に獲得される傾向がある。特許文献1に記載される発明では、ラベルデータを、エキスパートがつけたエキスパートデータと、非エキスパートがつけた非エキスパートデータとに事前に分類し、非エキスパートデータの信頼度を、ラベルデータの距離に基づいて算出している。そして、信頼度情報が付与された非エキスパートデータと、エキスパートデータを用いて学習することで、精度の高い分類器を得ている。
特開2009−282686号公報
人口知能技術、特に機械学習の発展に伴い、機械学習モデルに対する透明性が望まれている。
本開示では、透明性が高いモデルの学習に適した学習用情報を生成すること、又は、モデルの透明性を高くすることが可能な情報処理装置及び情報処理方法を提供する。
本技術の一形態に係る情報処理装置は、画像加工部と、学習用情報生成部を具備する。
上記画像加工部は、事前に収集された複数の画像に対してユーザにより行われた加工操作に従って前記画像を加工する。
上記学習用情報生成部は、前記画像と、前記画像加工部によって加工された加工画像に対して前記ユーザにより行われた前記加工画像内に含まれる認識対象物のラベリング情報と、前記加工操作に応じた画像加工度とを互いに対応づけた学習用情報を生成する。
このような構成によれば、画像加工度を含む学習用情報を生成するので、透明性が高いモデルの学習に適した学習用情報を生成することができる。
本技術の一形態に係る情報処理方法は、
事前に収集された複数の画像に対してユーザにより行われた加工操作に従って前記画像を加工し、
前記画像と、前記加工操作に従って加工された加工画像に対して前記ユーザにより行われた前記加工画像内に含まれる認識対象物のラベリング情報と、前記加工操作に応じた画像加工度とを互いに対応づけた学習用情報を生成する。
本技術の一形態に係る情報処理装置は、処理部を具備する。
上記処理部は、互いに対応づけられた、画像と、前記画像の加工画像内に含まれる認識対象物に対して行われたラベリング情報と、前記加工画像の画像加工度とを互いに対応づけた学習用情報を用いて事前に学習することによって得られるモデルを用いて、取得画像から、前記取得画像に含まれる認識対象物の認識結果と画像加工度を取得する。
このような構成によれば、画像加工度を含む学習用情報を用いて学習されたモデルを用いて、画像内の認識対象物の認識結果と画像加工度を取得することができるので、画像加工度を用いてモデルの透明性を高くすることが可能となる。
本技術の一形態に係る情報処理方法は、
互いに対応づけられた、画像と、前記画像の加工画像内に含まれる認識対象物に対して行われたラベリング情報と、前記加工画像の画像加工度とを互いに対応づけた学習用情報を用いて事前に学習することによって得られるモデルを用いて、取得画像から、前記取得画像に含まれる認識対象物の認識結果と画像加工度を取得する。
本技術のラベリング装置の機能ブロック図である。 画像の加工例を説明する図である。 ラベリング装置により作成されるアノテーション用ユーザインターフェース例を説明する図であり、ラベラーによる画像加工度変更及びラベル付与を説明する図である。 画像に対するアノテーション方法を説明する図である。 学習装置の機能ブロック図である。 上記学習装置におけるモデル学習のイメージ図である。 本技術の推論装置の機能ブロック図を含む情報処理システムの概略図である。 上記推論装置における学習済みモデルを用いた推論のイメージ図である。 上記推論装置により生成される表示画像例である。 上記ラベリング装置における情報処理フローである。 上記学習装置における情報処理フローである。 上記推論装置における情報処理フローである。 上記推論装置により生成される表示画像例である。 上記推論装置により生成される他の表示画像例である。 術具としての鉗子の図である。 他の情報処理装置の機能ブロック図を含む情報処理システムの概略図である。
[概略]
本技術では、後述するラベリング装置1を用いて、ラベラーにより事前に用意された画像に対してラベル付与(以下、ラベリングというときがある。)作業が行われる。ラベラーは、ラベリング作業を行うラベリング装置1のユーザである。
ラベリング装置1は、ラベラーの入力操作によって画像を加工可能に構成される。ラベラーは、加工画像又は未加工画像に対して画像内の認識対象物のラベリングを行う。ラベリング装置1では、未加工の画像と、当該画像内の認識対象物のラベリング情報と、ラベリング時に用いた画像の画像加工度とが互いに対応づけられた学習用情報が生成される。
本実施形態においては、画像が医療画像(以下、単に画像ということがある。)であり、画像内の認識対象物が鉗子等の術具の先端である例をあげて説明する。
図15は、術具の一例である内視鏡用の把持鉗子の概略図である。図15に示すように、術具50は、ハンドル53と、シャフト52と、把持部54と、を有する。棒状に延びるシャフト52の一端に把持部54が位置し、他端にハンドル53が位置する。把持部54は、使用中、体腔内組織に触れる部分である。把持部54は一対の先端51を有するハサミ形状を有している。術者がハンドル53を操作することにより、把持部54が開閉し、気管や組織等をつかんで牽引したり圧迫したりする。
本実施形態では、ラベラーは、画像内の術具50の先端に位置する把持部54を規定する箇所に対して、ラベルを付与する(アノテーション)。当該箇所の座標値がラベリング情報となる。本実施形態では、把持部54を規定する箇所は、具体的には、図15に示すように、把持部54を構成する、一対の先端51と、一対の先端51の開閉の基点となる連結部55と、シャフト52上の一点56の計4つの箇所である。
後述する学習装置2は、ラベリング装置1で生成された学習用情報を用いて生成された学習用データベース(以下、学習用DBという。)20を用いてモデルの学習を行う。
後述する情報処理装置としての推論装置3は、学習装置2により学習されたモデルを用いて、撮像される患部の画像(取得画像)から、推論結果として、認識対象物である術具50の先端51の認識結果と、画像加工度と、を取得する。当該画像加工度は、取得画像から術具50を認識するためにモデルが学習した時に参考とした画像がどの程度加工された状態でラベリングされたものであるかを示す。推論装置3は、推論結果が反映された表示画像を術者等のユーザに対して提示する画像を生成する。
以下、ラベリング装置1、学習装置2、推論装置3について詳細に説明する。
[ラベリング装置]
(ラベリング装置の構成)
図1は、情報処理装置としてのラベリング装置1の機能ブロック図である。
ラベリング装置1は、学習用情報を生成するための情報源となる医療画像を端末4の表示部41に表示させる。複数の医療画像は、事前に収集され、例えば医療画像DB10に格納されている。医療画像は、例えば、内視鏡手術中の体腔内の画像であり、術野に術具の先端が写しだされている画像である。端末4のユーザであるラベラーは、端末4の表示部41に表示される画像をみながら、画像内の術具の把持部を規定する上述した4つの箇所に対しラベルを付与する。ラベラーにより指定された4つの箇所の座標から取得した座標間の距離等により術具の把持部の特徴量が定義される。
端末4は、表示部41と、操作受付部42と、を有する。
表示部41は、ラベリング装置1から送信されたアノテーション用ユーザインターフェース(以下、アノテーション用UIという。)情報に基づいてアノテーション用UIを表示する。表示部41は、例えば液晶ディスプレイ、有機ELディスプレイ(Organic Electro-Luminescence Display)等の画像表示手段により構成される。
操作受付部42は、ラベラーからの入力操作を受け付けるものであり、具体的には、タッチパッド、キーボード、マウス等である。操作受付部42は、ラベラーにより指定された表示部41に表示されるアノテーション用UI上の位置が検出可能に構成されていればよい。
図1に示すように、ラベリング装置1は、送受信部11と、処理部12と、記憶部17とを有する。
送受信部11は、端末4との情報の送受信が可能に構成され、また、医療画像DB10からの情報を受信可能に構成される。
具体的には、送受信部11は、医療画像DB10に格納されている医療画像を受信する。当該医療画像は未加工の医療画像(元画像ということがある。)である。元画像は、後述する処理部12のアノテーション用ユーザインターフェース作成部(以下、アノテーション用UI作成部という。)14へ出力される。
送受信部11は、処理部12のアノテーション用UI作成部14で生成されたアノテーション用UIを端末4へ送信する。
送受信部11は、端末4から、端末4にてラベラーによって行われた入力操作情報を受信する。
処理部12は、アノテーション用UI作成部14と、画像加工部15と、学習用情報生成部16と、を有する。
アノテーション用UI作成部14は、端末4の表示部41に表示されるアノテーション用UIを作成する。当該アノテーション用UIは、元画像、又は、画像加工部15により加工された加工画像と、元画像の画像加工度をラベラーの操作により調整可能とする操作機能、又は、画像上の任意の箇所にラベラーの操作によりラベルを付与させるアノテーションを実行可能とするアノテーション操作機能と、を含む。
画像加工部15は、ラベラーにより行われた画像加工に係る入力操作情報に基づいて元画像を加工する。加工された加工画像は、アノテーション用UI作成部14へ出力される。以下、画像加工に係る入力操作を加工操作と称する。
加工例としては、フィルタ処理によるぼかし加工、フィルタ処理により輪郭強調加工、画像全体の色を調整する彩度調整加工や色相調整加工等がある。
図2(A)はフィルタ処理によるぼかし加工の例、図2(B)はフィルタ処理による輪郭強調加工の例を示す。ぼかし加工や輪郭強調加工を行うことにより、出血箇所や組織等がうつしだされた刺激的な画像を、見やすいものとすることができる。
図2(A)及び(B)において、図上横に延びる直線60は、画像加工度を表す。本実施形態では、画像加工度を0〜1の数値範囲で示す。画像加工度0は画像加工の最小値であり、画像加工度0の画像は未加工の元画像である。画像加工度1は画像加工の最大値を示す。
図2(A)及び(B)それぞれにおいて、左側にある画像70は未加工の画像、すなわち元画像を示す。右側にある画像72及び74は、それぞれ、画像加工度1の画像を示す。真ん中にある画像71及び73は、それぞれ、画像加工度0.5の画像を示す。画像70〜74は、術野63に術具50が位置する画像である。
ラベラーは、画像加工度を0〜1の数値範囲内で任意に設定することができ、精神的な負担が少ない画像に調整して、ラベリング作業を行うことができる。画像加工度は、段階的又は連続的に調整することができる。尚、ここでは、0が未加工を示す画像加工度の数値であり、画像加工度を0〜1の数値範囲で設定する例をあげるが、これに限定されない。例えば、1が未加工を示す画像加工度の数値であり、1〜10の10段階で画像加工度を設定するなどしてもよく、未加工を示す画像加工度及び最大画像加工度を示す数値は任意に設定することができる。ラベラーにより設定可能な画像加工度は、未加工を示す最小画像加工度と最大画像加工度の他、これらの間に少なくとも1つ設けられ、少なくとも画像加工度は3段階以上で変更可能となっている。
フィルタ処理には、例えば、膨張・収縮処理や、平均化フィルタやメディアンフィルタ等がある。膨張・収縮処理により、例えば画像上の細い線である毛細血管部分がぼけた画像となり、刺激の少ない画像となる。本実施形態では、毛細血管部分は、認識対象物ではなく、認識対象物のラベリングには関係のない部分である。画像において、膨張・収縮処理によって毛細血管等のラベリングに関係のない細かな特徴がぼやかされる。
画像加工度は、膨張・収縮を行う回数によって調整することができる。
例えば、元画像である未加工画像の画像加工度を0とし、膨張・収縮それぞれを10回行ってフィルタ処理した加工画像の画像加工度を1とする。そして、膨張・収縮それぞれを3回行ってフィルタ処理した加工画像の画像加工度を0.3とする。膨張・収縮それぞれを5回行ってフィルタ処理した加工画像の画像加工度を0.5とする。膨張・収縮それぞれを7回行ってフィルタ処理した加工画像の画像加工度を0.7とする。膨張・収縮の回数と加工度の関係は画像のスケールに応じて調整される。また、平均化フィルタやメディアンフィルタ等によって画像をぼかしてもよい。
例えば図2(A)に示すように、画像加工度をあげていくことにより、術野63の毛細血管部分をよりぼかした画像とすることができ、組織のリアルさが軽減された画像となる。このように、ラベラーは、精神的な負担の少ない自身が見やすい画像に加工することができ、刺激的な画像を見ることなく、術具50の把持部54の領域を規定する4つの箇所にラベルを付与することができる。
また、画像をフィルタ処理することによって輪郭画像を得ることができる。輪郭画像とすることにより、刺激の少ない画像となる。輪郭画像加工では、元画像である未加工画像の画像加工度を0とし、輪郭画像の画像加工度を1とする。そして、未加工画像と輪郭画像との合成画像において、未加工画像と輪郭画像との合成比率を変化させることにより、画像加工度を設定することができる。
例えば、未加工画像と輪郭画像を10:0の割合で合成した合成画像の画像加工度を0とする。未加工画像と輪郭画像を7:3の割合で合成した合成画像の画像加工度を0.3とする。未加工画像と輪郭画像を5:5の割合で合成した合成画像の画像加工度を0.5とする。未加工画像と輪郭画像を3:7の割合で合成した合成画像の画像加工度を0.7とする。未加工画像と輪郭画像を0:10の割合で合成した合成画像の画像加工度を10とする。
例えば図2(B)に示すように、画像加工度をあげていくことにより、術野63の組織の色味が薄くなるとともに、術具50の輪郭や毛細血管部分が線状に表される画像となり、組織のリアルさが軽減された画像となる。このように、ラベラーは、精神的な負担の少ない自身が見やすい画像に加工することができ、刺激的な画像を見ることなくラベリング作業を行うことができる。
また、画像全体の色を調整する加工例として、彩度調整加工や色相調整加工等がある。
彩度調整加工では、画像の彩度の上限値を、画像加工度を用いて調整することができる。彩度の上限値をさげていくことにより、画像全体がくすんだ色味となっていく画像となって血液部分が目立たなくなり、組織のリアルさが軽減された画像となる。このように、ラベラーは、精神的な負担の少ない自身が見やすい画像に加工することができ、刺激的な画像を見ることなくラベリング作業を行うことができる。加工画像の彩度は例えば以下の式で求めることができる。
加工画像の彩度=min(a+(1−画像加工度)・(b−a))
式中、aは元画像の彩度の最小値を示す。bは元画像の彩度の最大値を示す。画像加工度は0以上1以下の値を示す。
色相調整加工では、画像の色相を変換する。画像加工度は、元画像の色相を基準、すなわち画像加工度を0とし、その補色になる位置を画像加工度1とすることができる。
例えば、画像加工度が0のときに画像が赤色の場合、その補色となる青色の画像の画像加工度を1とすることができる。この場合、画像加工度が0.3の画像は、黄色味を帯びた色、又は、青味がかった赤色となる。画像加工度が0.7の画像は、緑色味を帯びた色、又は、紫色となる。このように色相を変換することによって、組織のリアルさが軽減された画像となる。このように、ラベラーは、精神的な負担の少ない自身が見やすい画像に加工することができ、刺激的な画像を見ることなくラベリング作業を行うことができる。
また、色覚障害のあるラベラーにおいては、色相を変換させることによって、ラベリングしやすい、自身が見やすい画像となるように調整することが可能となるので、ラベリング作業効率を向上させることができる。
上記ぼかし加工、輪郭強調加工、彩度調整加工や色相調整加工等は、それぞれ単独で行われてもよいし、併用されてもよい。また、併用される場合、互いに異なる種類の加工毎に独立して画像加工度は調整が可能である。
学習用情報生成部16は、元画像と、ラベリング情報と、ラベリング時に参考とした加工画像の画像加工度と、を互いに対応づけた学習用情報を生成する。生成された学習用情報は、学習用DB20に格納される。
ラベリング情報は、元画像の加工画像内に含まれる認識対象物に対してラベラーにより付与されたラベルの情報である。
上記画像加工度は、ラベラーによる加工操作に応じた画像加工度である。上記画像加工度には、互いに異なる種類の画像加工毎の画像加工度の情報が含まれてよい。また、画像加工度として、複数種類の画像加工を用いて加工が行われる場合、画像加工の種類毎の重要度を加味した平均、すなわち重み付き平均値が含まれていてもよい。
学習用DB20は、後述する学習装置2において、術具の先端を認識するためのモデルの学習に用いられる。
記憶部17は、RAM等のメモリデバイス、及びハードディスクドライブ等の不揮発性の記録媒体を含み、処理部12で行われる学習用情報を生成するための一連の処理を、ラベリング装置1に実行させるためのプログラムを記憶する。
(ラベリング装置における情報処理方法)
図3(A)及び(B)は、端末4の表示部41に表示されるアノテーション用UI例である。
図10は、ラベリング装置1で行われる情報処理方法を説明するフローである。
以下、図10のフローに従って、図3を用いて説明する。
ラベラーによるラベリングに係る処理が開始すると、送受信部11により、医療画像DB10から医療画像が受信される(S1)。当該医療画像は、アノテーション用UI作成部14へ出力される。
次に、アノテーション用UI作成部14により、受信した医療画像を用いてアノテーション用UIが作成される(S2)。当該アノテーション用UI情報は端末4へ送信され、表示部41に表示される。図3(A)は、その表示例である。
図3(A)に示すように、アノテーション用UI90は、元画像26と、スライダーバー61と、元画像26の画像加工度をスライダーバー61によって調整可能とする操作機能と、を有する。スライダーバー61は、元画像26に対する加工に関する情報を含む。加工に関する情報とは、加工の種類や加工の度合い等である。
図3(A)に示す例では、1種類の加工の度合いを調整するスライダーバー61が表示される例をあげる。ここでは、加工の種類はぼかし加工とする。尚、複数種類の画像加工における画像加工度をそれぞれ調整することが可能なスライダーバーが複数設けられたUIとしてもよい。例えば、ぼかし加工、輪郭強調加工、彩度調整加工、色相調整加工から選択される1つ以上の加工それぞれの画像加工度を調整することが可能なUIとしてよい。これにより、ラベラーは、自身にとってラベリングに適した画像に加工することができる。
本実施形態では、スライダーバー61の調整範囲は0〜1である。尚、スライダーバーの代わりに、ドロップダウンリストやチェックボックス等を用いて画像加工度値を入力するようなUIであってもよい。
ラベラーは、図3(A)に示す表示部41に表示されたアノテーション用UI90の画像をみながら、スライダーバー61のスライダー62を図上、左右に移動させて画像加工度を任意に調整することができる。スライダー62を動かすことにより変化する画像加工度に応じて画像は加工されて表示される。ラベラーの入力操作情報である、ラベラーによって設定された画像加工度情報(加工操作情報)は、ラベリング装置1へ送信される。
ラベリング装置1では、ラベラーによる加工操作を受信したか否かが判定される(S3)。具体的には、ラベラーによって設定された画像加工度が0の場合、加工操作を受信していないと判定され(NO)、S6に進む。一方、ラベラーによって設定された画像加工度が0でない場合、加工操作を受信したと判定され(YES)、S4に進む。
S4では、画像加工部15により、受信された加工操作情報に基づいて元画像が加工される。加工された加工画像は、アノテーション用UI作成部14へ出力される。アノテーション用UI作成部14により、アノテーション用UIが作成される(S5)。当該アノテーション用UIは端末4へ送信され、表示部41に表示される。図3(B)は、その表示例である。ここでは、ラベラーによって画像加工度が0.3に設定されたものとする。
図3(B)に示すように、アノテーション用UI98は、画像加工度0.3でぼかし加工された加工画像27と、スライダーバー61と、画像上の任意の箇所にラベラーの操作によりラベルを付与させるアノテーションを実行可能とするアノテーション操作機能と、を有する。
尚、加工画像には、加工処理が行われなかった未加工の画像(元画像)も含まれる。例えば、ラベラーによる加工操作において、画像加工度0が選択された場合は、加工画像は元画像と同一の画像となる。
図3(B)に示す例では、ぼかし加工が行われることにより出血箇所18がぼかされた加工画像27が表示される。これにより、刺激の少ない加工画像27を用いてラベリング作業を行うことができる。図3(B)に示すように、ラベラーは、表示部41に表示された加工画像27に基づいて、例えばマウスを操作してポインタ8を移動させて、ラベリングを行うことができる。図3(B)は、ポインタ8を移動させて、術具50の一方の先端51にラベル81を付与する様子を示す。
このように、ラベラーは、加工画像27内に含まれる認識対象物である術具50の把持部54に対してラベリングを行う。当該ラベリング情報は、ラベリング装置1へ送信される。ラベリング情報は、術具50の把持部54を規定する4つの箇所の座標情報である。なお、ここでは、4つの座標情報としたが、座標情報の数はこれに限定されない。また、ラベリング情報は、術具50の全体を覆う矩形の左上の角を示す点と右下の角を示す点それぞれの座標で表してもよい。また、ラベリング情報は、術具50の全体を塗りつぶすマスク画像であってもよく、様々な形態を採用することができる。
送受信部11により、ラベラーによる入力操作情報であるラベリング情報が受信される(S6)。ラベリング情報は、学習用情報生成部16へ出力される。
次に、学習用情報生成部16により、元画像と、加工画像度と、ラベリング情報と、が互いに対応づけられた学習用情報が生成される(S7)。生成された学習用情報は、学習用DB20に格納される。
次に、ラベリングされるべき画像が残っているかどうかが判定され(S8)、残っている場合(YES)はS1に戻って、ラベリング未処理の画像が受信され、処理が繰り返される。残っていない場合(NO)は処理が終了する。
図4は、画像に対するアノテーション方法を説明する図である。
図4(A)に示す元画像70は未加工の画像である。画像70は、例えば、毛細血管等が鮮明な画像となっており、刺激的な画像となっている。
図4(B)に示す加工画像75はぼかし加工が施された画像である。加工画像75は、ぼかし加工により、毛細血管等が不鮮明となって、刺激の少ない画像となっている。
図4(C)に示す画像76は、図4(B)で示した加工画像75に対して、ラベラーによって把持部54を規定する4つの箇所にラベル81〜84が付与された画像である。ラベル81及び82は、2つの先端51それぞれに付与される。ラベル83は、連結部55に付与される。ラベル84は、シャフト52上の1点に付与される。図中、符号85は、4つのラベル81〜84を含むラベリング情報を示す。当該ラベリング情報がラベル済み教師データ(正解ラベルデータ)となる。
図4(D)に示す画像77は、図4(A)で示した元画像70に図4(C)で示したラベリング情報85が反映された画像である。
ここで、医療画像を用いた学習用情報生成において、出血箇所や組織等がうつしだされた刺激的な画像を用いてラベリングを行うことがある。例えば医療の分野では、刺激的な画像を扱うことが多い傾向にあるため、ラベラーが集まりにくく、モデル学習のための十分な学習用情報が得にくい。
これに対し、本実施形態のラベリング装置1では、ラベラーが任意に画像の加工を行うことができ、そして、加工画像を用いてラベリング作業を行うことができる。これにより、医療画像等のような刺激的な画像のラベリング作業を行うラベラーを集めやすく、結果的に大量の教師データを得ることが可能となる。
更に、本実施形態のラベリング装置1では、ラベリング時に参考にした画像の画像加工度の情報を含む学習用情報が生成されるので、透明性が高いモデルの学習に適した学習用情報を得ることができる。
[学習装置]
(学習装置の構成)
図5は、学習装置2の機能ブロック図である。
図5に示すように、学習装置2は、ラベリング装置1で生成された学習用情報が格納された学習用DB20を用いて、画像内の認識対象物となる術具の先端を認識するモデル30の学習を行う。
学習用DB20は、ラベリング装置1で生成された学習用情報を用いて構成される。学習用DB20は、画像と、ラベル済み教師データと、画像加工度と、が互いに紐づけられてなる学習用情報を格納する。
ラベル済み教師データは、紐づけられた画像内の術具50の把持部54を規定する4つの箇所の座標値の情報を含むラベリング情報である。ラベル済み教師データを、単に、教師データということがある。
画像加工度は、取得画像から術具50を認識するためにモデルが学習時に参考とした画像がどの程度加工された状態でラベリングされたものであるかを示す。画像加工度は、ラベラーによる加工操作に応じた画像加工度である。上記画像加工度には、互いに異なる種類の画像加工毎の画像加工度の情報が含まれてよい。また、画像加工度として、複数種類の画像加工を用いて加工が行われる場合、画像加工の種類毎の重要度を加味した平均、すなわち重み付き平均値が含まれていてもよい。
モデル学習において、画像は入力データ(学習データ)であり、教師データ及び画像加工度は出力データである。学習用DB20には、このような入力データと出力データとの組が大量に格納されている。
学習装置2は、学習処理部21を有する。
学習処理部21は、モデル30の入力層へ、学習用DB20から取得した学習用情報に含まれる入力データを入力し、モデル30の出力層からの取得データが学習用情報に含まれる出力データに等しくなるように、モデル30を更新する。
図6は、モデル30の機能を説明するイメージ図である。図6に示すように、モデル30に入力データである画像6が入力されると、モデル30は、推論結果として、画像6内の術具の先端の認識結果と、画像加工度と、を出力する。
(学習装置における情報処理方法)
図11は、学習装置2で行われる情報処理方法を説明するフローである。
図11に示すように、まず、モデル30のディープニューラルネットワーク(DNN)パラメータが初期化される(S11)。
次に、学習処理部21により、学習回数が所定の上限の回数値より小さいか否かが判定される(S12)。S12で小さいと判定されるとS13に進む。S12で小さくないと判定されると処理が終了する。
S13では、学習処理部21により、ラベル済み教師データが取得される。
次に、学習処理部21により、画像がモデル30に入力され順伝播される(S14)。
次に、学習処理部21により、順伝播を経たモデル30の出力と、ラベル済み教師データ(正解ラベルデータ)との誤差が算出され、これをもとに逆伝播が行なわれ(S15)、モデル30のDNNパラメータが更新される(S16)。
次に、学習回数がカウントされ(S17)、S11に戻り、学習回数が所定の回数に達するまで処理が繰り返される。これにより、学習済みモデル30が得られる。
[推論装置]
(推論装置の構成)
推論装置は、医療用観察装置を備える医療用観察システムにおける、術者に対して提示される表示画像の生成に用いることができる。医療用観察装置は、例えば内視鏡手術を行うために患部等の観察対象を拡大観察することが可能に構成される。医療用観察システムで提示される表示画像には、例えば、術者の患部の処置を支援するために、術具の先端位置が可視化されて表示される。
推論装置3は、学習装置2により学習されたモデルを用いて、患部処置中にリアルタイムで撮像される患部の画像(取得画像)から、推論結果として、取得画像内の認識対象物である術具50の先端51の認識結果と、画像加工度と、を取得する。推論装置3は、推論結果が反映された表示画像を術者等のユーザに対して提示する画像を生成する。
以下、詳細について説明する。
図7は、推論装置3の機能ブロック図を含む情報処理システムとしての医療用観察システム9の概略図である。
医療用観察システム9は、撮像部5と、情報処理装置としての推論装置3と、ディスプレイ38と、を有する。
撮像部5は、患部等の観察対象を拡大観察することが可能な医療用観察装置に設けられている。撮像部5で取得された画像は、推論装置3へ送信される。
推論装置3では、上記学習装置2により事前に学習された学習済みモデル30を用いて、撮像部5から受信した取得画像内の術具の先端が認識されるとともに画像加工度が取得される。推論装置3では、取得した画像加工度に基づいて信頼度が算出される。当該信頼度は、画像加工度に係る情報である。画像、術具の先端の認識結果、及び、信頼度の情報はディスプレイ38へ送信される。推論装置3については後述する。
ディスプレイ38は、表示部39を有する。表示部39は、例えば液晶ディスプレイ、有機ELディスプレイ(Organic Electro-Luminescence Display)等の画像表示手段により構成される。表示部39は、推論装置3から送信された、術具の先端の認識結果及び画像加工度に関する情報を含む表示画像を表示する。医療用観察装置を用いる術者は、ディスプレイ38の表示部39に表示される可視化されて表示される信頼度を参考にして、表示画像内の術具の先端の認識結果の妥当性を加味しながら、処置を行うことができる。
図7に示すように、推論装置3は、学習済みモデル30と、送受信部31と、記憶部32と、処理部34と、を有する。
学習済みモデル30は、上記の学習装置2を用いて学習させた機械学習モデルである。
送受信部31は、撮像部5で撮像された画像を受信する。送受信部31は、処理部34で生成された表示画像をディスプレイ38へ送信する。
記憶部32は、RAM等のメモリデバイス、及びハードディスクドライブ等の不揮発性の記録媒体を含み、処理部34で行われる表示画像を生成するための一連の処理を、推論装置3に実行させるためのプログラムを記憶する。
処理部34は、推論部35と、信頼度算出部36と、画像生成部37と、を有する。
推論部35は、学習済みモデル30を用いて、送受信部31を介して取得した撮像部5で撮像された画像(取得画像)から、取得画像内の認識対象物である術具50の先端51の認識結果と、画像加工度を、推論結果として取得する。
信頼度算出部36は、取得した画像加工度に基づいて、信頼度を算出する。信頼度の算出は、例えば次式の変換式を用いて算出することができるが、これに限定されない。
信頼度=1−画像加工度
画像生成部37は、ディスプレイ38の表示部39に表示する表示画像を生成する。例えば、画像生成部37は、取得画像に、認識結果と画像加工度に係る情報とが可視化された表示が重畳された重畳画像を生成する。認識結果は術部50の先端51箇所であり、当該箇所を円で囲んで表示することにより、認識結果が可視化される。画像加工度に係る情報は、取得した画像加工度に基づいて算出した信頼度であり、信頼度を文字表示することにより、画像加工度に係る情報が可視化される。
画像生成部37で生成された表示画像は、ディスプレイ38へ送信される。
図8は、推論装置3の機能を説明するイメージ図である。図8に示すように、撮像部5で取得された取得画像7がモデル30に入力されると、モデル30は、推論結果として、取得画像7内の術具の先端の認識結果と画像加工度を出力する。
図9は、ディスプレイ38の表示部39に表示される表示画像例である。図9に示すように、表示画像91は、画像88に、術具50の先端51位置を示す円86と、信頼度を可視化した文字表示87が重畳した重畳画像である。画像88は、撮像部5で撮像された画像であり、術野63に術具50が位置した画像である。図9に示す例では、信頼度(Confidence)は0.92となっている。術者はこの信頼度の数値を参考にして、表示画像91に表示されている術具50の先端51位置を示す円86を確認しながら、患部の処置等を行うことができる。
ここで、加工された画像を用いたラベリングは、未加工画像を用いたラベリングよりも信頼度が低い傾向となる。
しかしながら、本実施形態では、取得画像から術具を認識するためにモデルが学習した時に参考とした画像がどの程度加工された状態でラベリングされたものであるかを示す画像加工度に係る情報が可視化されて術者に提示されるので、モデルの透明性が高くなる。
(推論装置における情報処理方法)
図12は、推論装置3で行われる情報処理方法を説明するフローである。
図12に示すように、送受信部31により、撮像部5で撮像された画像(取得画像)が受信される(S21)。
推論部35により、学習済みモデル30を用いて、取得画像から、画像内の術具の先端の認識結果と画像加工度が取得される(S22)。術具の先端の認識結果と画像加工度は、推論結果である。
次に、信頼度算出部36により、取得された画像加工度に基づいて信頼度が算出される(S23)。信頼度は画像加工度に係る情報である。
次に、画像生成部37により、取得画像に、術具の先端の認識結果の表示と信頼度の文字表示が重畳された重畳画像が生成される。生成された重畳画像は、送受信部31を介して、ディスプレイ38に送信される。
ディスプレイ38では、例えば図9に示すように、表示画像91である重畳画像が表示部39に表示される。術者はこの信頼度の文字表示87の数値を参考にして、表示画像91に表示されている術具50の先端51位置を示す円86を確認しながら、患部の処置等を行うことができる。
以上のように、推論装置3では、上記ラベリング装置1を用いて得られた学習用情報を用いて学習させたモデルを用いて、患部処置中にリアルタイムで撮像される患部の画像(取得画像)から、推論結果として、術具50の先端51の認識結果と画像加工度とを取得することができる。そして、認識結果が術者に対して可視化して提示されることにより、術者は術具の先端位置を確認しながら患部の処置を行うことができ、術者への処置に対する支援が可能となる。更に、画像加工度に係る情報が術者に対して可視化して提示されることにより、認識結果の信頼度を把握することができる。術者は認識結果の信頼度を参考にしつつ、患部の処置を行うことができる。
このように、画像加工度に係る情報が提示されることにより、モデルに対する透明性が向上する。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、上述の実施形態においては、医療用観察システム9におけるディスプレイ38の表示部39に、画像加工度に係る情報としての信頼度を数値化して文字表示する例をあげたが、画像加工度に係る情報の可視化の方法は、これに限定されない。
図13は、他の表示例である。図13(A)は信頼度が0.86というように信頼度が高い場合の表示例であり、図13(B)は信頼度が0.26というように信頼度が低い場合の表示例である。
画像加工度に係る情報を可視化して提示する方法としては、図13(A)及び(B)それぞれで示す文字表示87のように信頼度を数値で文字表示する方法の他、画像が表示されるウィンドウの枠95等の画像の一部の色を画像加工度に応じて変化させる方法がある。また、認識結果表示、すなわち、術具50の先端51を示す円86の色を画像加工度に応じて変化させる方法もある。これらは、単独で用いられてもよいし、図13に示すように併用されて用いられてもよい。
図13(B)において、図13(A)との色の違いを、斜線を用いて表現している。図13(A)に示す表示画像92及び図13(B)に示す表示画像93のように、枠95の色や認識結果表示である円86の色を変化させて、画像加工度に係る情報を可視化してもよく、術者は直感的に信頼度の度合いを把握することができる。
また、図14に示す表示画像94のように、術野の画像96と、画像加工度の文字表示97と、が表示されてもよい。図14に示す例では、互いに異なる種類の画像加工毎の画像加工度が棒グラフで示される。このように、画像加工度そのものが提示されてもよい。また、複数種類の画像加工毎に画像加工度が提示されることにより、術者等はより詳細な情報を得ることができ、モデルの透明性がより高まる。
また、例えば、上述の実施形態では、推論装置3で推論された推論結果が反映された表示画像が術者に対して提示される例をあげたが、医療用観察システム等を開発する医療機器開発者に提示されてもよい。
例えば、医療機器開発者は、図14に示される表示画像94をみて、4種類の加工方法のうち最も画像加工度の高い輪郭強調加工が信頼度の低下を招くと判断し、ラベリング装置1を用いたラベリング作業時に輪郭強調加工が実行されないようにラベリング装置1を制御する等、推論装置3での推論結果をフィードバックすることができる。このように、画像加工度に係る情報が提示されることによりモデルの透明性が提示されることとなるので、当該提示結果を用いて、モデル生成時に用いる教師データの取得時における画像加工が制御され、モデルの透明性を示す信頼度がより高い認識結果が術者に対して提示され得る。
また、例えば、上述の実施形態においては、ラベリング装置、学習装置及び推論装置それぞれについて説明したが、例えば図16に示すように各装置の機能が統合されていてもよい。図16は、情報処理装置100の機能ブロック図を含む情報処理システムとしての医療用観察システム110の概略図である。上述の構成と同様の構成については同様の符号を付し、説明を省略することがある。
図16に示すように、医療用観察システム110は、情報処理装置100と、医療画像DB10と、端末4と、撮像部5と、ディスプレイ38と、学習用DB20と、を有する。
情報処理装置100は、送受信部105と、制御部106と、記憶部107と、ラベリング部101と、学習部102と、モデル30と、推論部103と、を有する。
送受信部105は、各種情報を送受信する。
制御部106は、ラベリング部101、学習部102、推論部103での処理を制御する。
ラベリング部101は、アノテーション用UI作成部14と、画像加工部15と、学習用情報生成部16とを有する。ラベリング部101は、医療画像DB10に格納されている医療画像を用いたラベラーによるラベリング作業結果を用いて学習用情報を生成する。生成された学習用情報は、学習用DB20に格納される。
学習部102は、学習処理部21を有する。学習処理部21は、学習用DB20を用いてモデル30の学習を行う。
推論部103は、処理部34を有する。処理部34は、学習部102によって学習させたモデル30を用いて、撮像部5で撮像された画像(取得画像)から、取得画像内の術具の先端の認識結果と画像加工度を取得する。また、処理部34は、画像加工度に基づいて信頼度を算出する。更に、処理部34は、ディスプレイ38の表示部39に表示する表示画像を生成する。当該表示画像は、例えば、取得画像と、術具の先端の認識結果と、信頼度に係る情報とを含む。
また、上述の説明においては、医療画像を例にあげて説明したが、医療用に限定されない。画像を加工してラベリング作業を行ってモデル生成のための学習用データを作成する場合、本技術は有効であり、モデルの透明性を高めることができる。
なお、本技術は以下のような構成もとることができる。
(1)
事前に収集された複数の画像に対してユーザにより行われた加工操作に従って前記画像を加工する画像加工部と、
前記画像と、前記画像加工部によって加工された加工画像に対して前記ユーザにより行われた前記加工画像内に含まれる認識対象物のラベリング情報と、前記加工操作に応じた画像加工度とを互いに対応づけた学習用情報を生成する学習用情報生成部
を具備する情報処理装置。
(2)
上記(1)に記載の情報処理装置であって、
前記画像加工部は、ぼかし加工、輪郭強調加工、彩度調整加工、色相調整加工のうち少なくとも1つを用いて前記画像を加工する
情報処理装置。
(3)
上記(1)又は(2)に記載の情報処理装置であって、
前記画像加工度は、未加工を示す数値を含む所定の数値範囲内で表される
情報処理装置。
(4)
上記(1)〜(3)のいずれか1つに記載の情報処理装置であって、
前記ユーザからの入力操作を受け付けるアノテーション用ユーザインターフェースを作成するアノテーション用ユーザインターフェース作成部と、を更に具備する
情報処理装置。
(5)
上記(1)〜(4)のいずれか1つに記載の情報処理装置であって、
前記画像は医療画像である
情報処理装置。
(6)
事前に収集された複数の画像に対してユーザにより行われた加工操作に従って前記画像を加工し、
前記画像と、前記加工操作に従って加工された加工画像に対して前記ユーザにより行われた前記加工画像内に含まれる認識対象物のラベリング情報と、前記加工操作に応じた画像加工度とを互いに対応づけた学習用情報を生成する
情報処理方法。
(7)
互いに対応づけられた、画像と、前記画像の加工画像内に含まれる認識対象物に対して行われたラベリング情報と、前記加工画像の画像加工度とを互いに対応づけた学習用情報を用いて事前に学習することによって得られるモデルを用いて、取得画像から、前記取得画像に含まれる認識対象物の認識結果と画像加工度を取得する処理部
を具備する情報処理装置。
(8)
上記(7)に記載の情報処理装置であって、
前記処理部は、取得した前記認識結果及び前記画像加工度に係る情報を可視化した画像を生成する
情報処理装置。
(9)
上記(8)に記載の情報処理装置であって、
前記画像加工度に係る情報の可視化は、前記画像加工度の文字表示、前記画像加工度に基づいて算出した信頼度の文字表示、前記画像加工度に応じた前記画像の一部の色の変化、前記認識結果の表示部分の色の変化のうち少なくとも1つを用いて行われる
情報処理装置。
(10)
上記(7)〜(9)のいずれか1つに記載の情報処理装置であって、
前記学習用情報に含まれるラベリング情報は、ぼかし加工、輪郭強調加工、彩度調整加工及び色相調整加工のうち少なくとも1つを用いて加工されている加工画像、又は、未加工の画像に対して行われたラベリング情報である
情報処理装置。
(11)
互いに対応づけられた、画像と、前記画像の加工画像内に含まれる認識対象物に対して行われたラベリング情報と、前記加工画像の画像加工度とを互いに対応づけた学習用情報を用いて事前に学習することによって得られるモデルを用いて、取得画像から、前記取得画像に含まれる認識対象物の認識結果と画像加工度を取得する
情報処理方法。
1…ラベリング装置(情報処理装置)
2…学習装置
3…推論装置(情報処理装置)
14…アノテーション用ユーザインターフェース作成部
15…画像加工部
16…学習用情報生成部
27、71〜75…加工画像
30…モデル
34…処理部
51…術具の先端(認識対象物)
86…円(認識結果の表示部分)
87…信頼度の文字表示
90、98…アノテーション用UI
95…枠(画像の一部)
97…画像加工度の文字表示
100…情報処理装置

Claims (11)

  1. 事前に収集された複数の画像に対してユーザにより行われた加工操作に従って前記画像を加工する画像加工部と、
    前記画像と、前記画像加工部によって加工された加工画像に対して前記ユーザにより行われた前記加工画像内に含まれる認識対象物のラベリング情報と、前記加工操作に応じた画像加工度とを互いに対応づけた学習用情報を生成する学習用情報生成部
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記画像加工部は、ぼかし加工、輪郭強調加工、彩度調整加工、色相調整加工のうち少なくとも1つを用いて前記画像を加工する
    情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記画像加工度は、未加工を示す数値を含む所定の数値範囲内で表される
    情報処理装置。
  4. 請求項3に記載の情報処理装置であって、
    前記ユーザからの入力操作を受け付けるアノテーション用ユーザインターフェースを作成するアノテーション用ユーザインターフェース作成部と、を更に具備する
    情報処理装置。
  5. 請求項4に記載の情報処理装置であって、
    前記画像は医療画像である
    情報処理装置。
  6. 事前に収集された複数の画像に対してユーザにより行われた加工操作に従って前記画像を加工し、
    前記画像と、前記加工操作に従って加工された加工画像に対して前記ユーザにより行われた前記加工画像内に含まれる認識対象物のラベリング情報と、前記加工操作に応じた画像加工度とを互いに対応づけた学習用情報を生成する
    情報処理方法。
  7. 互いに対応づけられた、画像と、前記画像の加工画像内に含まれる認識対象物に対して行われたラベリング情報と、前記加工画像の画像加工度とを互いに対応づけた学習用情報を用いて事前に学習することによって得られるモデルを用いて、取得画像から、前記取得画像に含まれる認識対象物の認識結果と画像加工度を取得する処理部
    を具備する情報処理装置。
  8. 請求項7に記載の情報処理装置であって、
    前記処理部は、取得した前記認識結果及び前記画像加工度に係る情報を可視化した画像を生成する
    情報処理装置。
  9. 請求項8に記載の情報処理装置であって、
    前記画像加工度に係る情報の可視化は、前記画像加工度の文字表示、前記画像加工度に基づいて算出した信頼度の文字表示、前記画像加工度に応じた前記画像の一部の色の変化、前記認識結果の表示部分の色の変化のうち少なくとも1つを用いて行われる
    情報処理装置。
  10. 請求項8に記載の情報処理装置であって、
    前記学習用情報に含まれるラベリング情報は、ぼかし加工、輪郭強調加工、彩度調整加工及び色相調整加工のうち少なくとも1つを用いて加工されている加工画像、又は、未加工の画像に対して行われたラベリング情報である
    情報処理装置。
  11. 互いに対応づけられた、画像と、前記画像の加工画像内に含まれる認識対象物に対して行われたラベリング情報と、前記加工画像の画像加工度とを互いに対応づけた学習用情報を用いて事前に学習することによって得られるモデルを用いて、取得画像から、前記取得画像に含まれる認識対象物の認識結果と画像加工度を取得する
    情報処理方法。
JP2020051181A 2020-03-23 2020-03-23 情報処理装置及び情報処理方法 Pending JP2021149801A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020051181A JP2021149801A (ja) 2020-03-23 2020-03-23 情報処理装置及び情報処理方法
PCT/JP2021/009499 WO2021193061A1 (ja) 2020-03-23 2021-03-10 情報処理装置及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020051181A JP2021149801A (ja) 2020-03-23 2020-03-23 情報処理装置及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2021149801A true JP2021149801A (ja) 2021-09-27

Family

ID=77849077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020051181A Pending JP2021149801A (ja) 2020-03-23 2020-03-23 情報処理装置及び情報処理方法

Country Status (2)

Country Link
JP (1) JP2021149801A (ja)
WO (1) WO2021193061A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023132481A (ja) * 2022-03-11 2023-09-22 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6124543B2 (ja) * 2011-12-26 2017-05-10 キヤノン株式会社 画像処理装置、画像処理方法、画像処理システム、及びプログラム
JP6688277B2 (ja) * 2017-12-27 2020-04-28 本田技研工業株式会社 プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置

Also Published As

Publication number Publication date
WO2021193061A1 (ja) 2021-09-30

Similar Documents

Publication Publication Date Title
US20220336078A1 (en) System and method for tracking a portion of the user as a proxy for non-monitored instrument
US11026754B2 (en) Motion execution of a robotic system
JP7308936B2 (ja) インジケータシステム
US20210077220A1 (en) Systems and methods for removing occluding objects in surgical images and/or video
CN107296650A (zh) 基于虚拟现实和增强现实的智能手术辅助系统
CN107249497A (zh) 手术室和手术部位感知
CN106456148A (zh) 使用眼球凝视跟踪的医疗装置、系统和方法
JP2020531095A (ja) 外科手術画像および/または映像を強調するためのシステムおよび方法
CN110547869B (zh) 一种基于虚拟现实的术前辅助规划装置
JP2022545355A (ja) 医療機器を識別、ラベル付け、及び追跡するためのシステム及び方法
CN111770735B (zh) 手术仿真信息生成方法及程序
WO2021193061A1 (ja) 情報処理装置及び情報処理方法
EP3811378A1 (en) Hybrid simulation model for simulating medical procedures
CN113366414A (zh) 用于在计算机辅助操作系统的操作会话期间促进成像装置视点的优化的系统和方法
CN113591757A (zh) 一种眼部整形用自动化手术装置及设备
JP2023507063A (ja) 手術中に画像取込装置を制御するための方法、装置、およびシステム
WO2022030142A1 (ja) 情報処理装置、プログラム、学習モデル及び学習モデルの生成方法
WO2022054498A1 (ja) 医療用アーム制御システム、医療用アーム装置、医療用アームの制御方法及びプログラム
JP7281924B2 (ja) 情報伝達システム
US20230105111A1 (en) System and Method for Teaching Minimally Invasive Interventions
WO2023053333A1 (ja) 処理システム及び情報処理方法
EP4143844A1 (en) System and method for tracking a portion of the user as a proxy for non-monitored instrument
Yasin Perception Augmentation and Assistance for Improved Surgical Awareness
JP2024521721A (ja) 手術シミュレーション物体修正システム
CN117480569A (zh) 作为非监测器械的代理来跟踪用户的一部分的系统和方法