JPWO2015097825A1 - 動き学習支援装置及び動き学習支援方法 - Google Patents

動き学習支援装置及び動き学習支援方法 Download PDF

Info

Publication number
JPWO2015097825A1
JPWO2015097825A1 JP2015554412A JP2015554412A JPWO2015097825A1 JP WO2015097825 A1 JPWO2015097825 A1 JP WO2015097825A1 JP 2015554412 A JP2015554412 A JP 2015554412A JP 2015554412 A JP2015554412 A JP 2015554412A JP WO2015097825 A1 JPWO2015097825 A1 JP WO2015097825A1
Authority
JP
Japan
Prior art keywords
video
teaching material
motion
learning support
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015554412A
Other languages
English (en)
Other versions
JP6162259B2 (ja
Inventor
英由樹 安藤
英由樹 安藤
前田 太郎
太郎 前田
大祐 近藤
大祐 近藤
和貴 小濱
和貴 小濱
博幸 飯塚
博幸 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Publication of JPWO2015097825A1 publication Critical patent/JPWO2015097825A1/ja
Application granted granted Critical
Publication of JP6162259B2 publication Critical patent/JP6162259B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/285Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for injections, endoscopy, bronchoscopy, sigmoidscopy, insertion of contraceptive devices or enemas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1124Determining motor skills
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/162Testing reaction times
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4082Diagnosing or monitoring movement diseases, e.g. Parkinson, Huntington or Tourette
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B11/00Teaching hand-writing, shorthand, drawing, or painting
    • G09B11/04Guide sheets or plates; Tracing charts
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Medicinal Chemistry (AREA)
  • Medical Informatics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Algebra (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pulmonology (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Image Analysis (AREA)

Abstract

動き学習支援装置は、各区分教材映像と、撮像部(115)で撮影される、各区分教材映像の動きを真似る学習者の練習画像とを区分毎に交互にモニタ(13)に表示する。動き学習支援装置は、学習者の動きを検出する動き検出部及び動き情報取得部(116,215)と、区分教材映像の動きに対する学習者の動きの類似さを評価する評価部(216)と、評価部(216)により類似するとの評価が得られた場合、モニタ(13)を撮像部(115)の画像から次の区分教材映像に切り替える第1の学習支援処理部(211)とを備えた。これにより、学習者に誘起される錯覚効果によるイメージ鮮明度の向上を図り、学習効果を向上させることを支援する。

Description

本発明は、例えば腹腔鏡手術トレーニング等の、動きに関する教材映像を通して動きを学習する動き学習支援装置及び動き学習支援方法に関する。
近年、例えば臓器手術において切開の必要のない腹腔鏡手術は、患者への負担が軽く、回復が早いというメリットがあり、特に体力が不十分である高齢者や子どもには効果的であることから普及が望まれている。しかしながら、腹腔鏡手術は高度な技術を要するため、専門医の数が必ずしも十分とはいえず、熟練者の養成(トレーニング)が重要な課題である。従来、そのためのトレーニング方法として、ドライボックスを用いたトレーニング手法が提案されてきた。しかし、このトレーニング方法は、あくまで手術の模擬(シミュレーション)を行うのみである。熟練者が非熟練者にスキルを教示する場合には、モニタ画面を指さしで指摘したり、口頭で指示したりすることがほとんどで、多くの場合、非熟練者は、熟練者のスキルにおける“コツ”を完全には理解しないまま、ドライボックストレーニングによる試行錯誤を繰り返す程度のものであった。
特許文献1には、予めTVカメラで撮像してデジタルメモリにストアされた目標画像11をTVモニタのフォアグランド(前面)に表示し、一方、レッスンを受ける人の画像12を同じモニタ上のバックグランド(背面)に同時に重ねて表示することで、両者の動作を視角的に比較する技術が記載されている。
特許文献2には、学生画像の基準フレームと同じフレームに教師の動作の画像を発生させて効果的な学習方法を提供する動作学習装置が記載されている。具体的には、本装置は、ホストコンピュータ12、モニタ10、動作感知装置15及びセンサ20を備え、訓練の第一ステップでは、教師の動作シーケンスを獲得し、その教師の動作軌道に沿ってモニタ10上に学生の模倣動作の軌道の仮想像を表示する。そして、模倣能力が向上すれば、コンピュータ12が自動的に教師の動作の速度を増して難度を高めることが記載されている。
非特許文献1には、教材ビデオを10 秒前後の動作区切りに分割し,部分学習を行えるようにした腹腔鏡手術トレーニング装置が記載されている。本装置は、まず1 つの区切りの映像をモニタ上で再生し、その区切りが終わる毎に学習者の鉗子の映像に切り替わり、学習者は今見た範囲の動作を再現するもので、その間は手本ビデオの最終フレームが1.2 秒ごとに0.5 秒間半透明で重畳表示されるものである。そして、自身の鉗子が目標姿勢に到達したと思う状態で、フットペダルを操作することで次の動作区切りへ進み、次の手本映像が同じような姿勢から再生され始める。この映像の自他切替わりの際、鉗子が勝手に動き出して次の手順へとすすむかのように見えるとの主観報告が得られている。
非特許文献2には、熟練医の挿入手技を時系列で記録し再現するシステムを追加し、熟練医の挿入手技を体感し学習することを可能にすることが記載されている。さらに、挿入手技の定量評価法を開発し、訓練者の手技の評価を行うことにより効果的な訓練を可能とし、その手法として、(1)教示(記録再現システムを用いて模範的挿入手技を教示)、(2)試行(内視鏡の挿入)、(3)評価(挿入の結果得られた各評価関値の提示)を提案したとの記載がある。
特開平8−182786号公報 特表2000−504854号公報
近藤大祐、飯塚博幸、安藤英由樹、小濱和貴、坂井義治、前田太郎、「腹腔鏡下手術トレーニングにおける自他運動の合成表示による学習支援」、No.13-2 Proceedings ofthe 2013 JSME Conference on Robotics and Mechatronics, Tsukuba, Japan, May22-25,2013 生田幸士、福山純也、中西彰、堀田耕志、「ポータブル力覚付バーチャル内視鏡システムの研究―挿入手技の記録再現システムと手技の定量評価法の開発―」、1P1-2F-D4 日本機械学会[No.03-4]ロボティクス・メカトロニクス講演会'03講演論文集
特許文献1,2及び非特許文献2には、一連の動作を複数に区分し、それらを順番に、かつ自己画像と交互にモニタに表示して学習を進めるものではない。従って、区分の評価と次区分への移行との関係は一切記載されていない。
また、非特許文献1には、学習者がペダルを操作することによって、教材ビデオを次の動作区切りへ進めることが記載されているだけで、それ以外の方法で教材ビデオの動作区切りを変更することは記載されていない。
本発明の目的は、学習者の動きが教材映像の動きに近い場合、錯覚効果によるイメージ鮮明度の向上を実効あるものとするべく、次の区分の教材映像に自動的に切り替えて学習効果を向上させことを支援する点にある。
本発明に係る動き学習支援装置は、時間方向に区分された、動きに関する教材映像の各区分教材映像と、撮像部で撮影される、各区分教材映像の動きを真似る学習者の練習画像とを区分毎に交互にモニタに表示する動き学習支援装置において、前記学習者の動きを検出する動き検出手段と、前記区分教材映像の動きに対する前記学習者の動きの類似さを評価する評価手段と、前記評価手段により類似するとの評価が得られた場合、前記モニタを前記撮像部の画像から次の区分教材映像に切り替える第1の学習支援処理手段とを備えたことを特徴とするものである。
また、本発明に係る動き学習支援方法は、時間方向に区分された、動きに関する教材映像の各区分教材映像と、撮像部で撮影される、各区分教材映像の動きを真似る学習者の練習画像とを区分毎に交互にモニタに表示する動き学習支援方法において、前記学習者の動きを検出することによって前記区分教材映像の動きに対する前記学習者の動きの類似さを評価し、類似するとの評価が得られた場合、前記モニタを前記撮像部の画像から次の区分教材映像に切り替えるものである。
これらの発明によれば、学習者の動きを検出することによって区分教材映像の動きに対する学習者の動きの類似さが評価され、類似するとの評価が得られた場合、モニタが撮像部の画像から次の区分教材映像に切り替えられる。従って、学習者の動きが区分教材映像の動きに類似、すなわち近づいている場合、学習者の映像の動きが練習映像から次の区分教材映像につながるようにタイミング良く映像の切り替えが行われることで、学習者はあたかも自分が次の区分の動きを模範者と同様の動きで開始したかのように錯覚し、より鮮明で詳細な行動イメージとして動きを記憶に残すことができて、学習効果の一層の向上が図れる。
本発明によれば、区分教材映像を自動的に次の区分に進めることで、学習者に誘起される錯覚効果によるイメージ鮮明度の向上を図り、学習効果を向上させることができる。
本発明に係る動き学習支援装置の一実施形態を示す概略構成図である。 本発明に係る動き学習支援装置の一実施形態を示す回路構成図である。 手順学習におけるフレーム映像の例を示す図で、(A)は針を持ち直すフレーム映像、(B)は針を差し込むフレーム映像、(C)は縫合用糸を巻く状態を示すフレーム映像の図である。 併記表示の一例を示す図である。 教材映像(A)と学習者のライブ映像(B)との時分割表示を説明するための概略図である。 手順学習教材作成処理の一実施形態を示すフローチャートである。 手順学習教材表示モード処理の一実施形態を示すフローチャートである。 計測、評価演算処理の一実施形態を示すフローチャートである。 チェック演算処理の一実施形態を示すフローチャートである。 予測演算処理の一実施形態を示すフローチャートである。 追従学習教材表示モード処理の一実施形態を示すフローチャートである。 追従学習教材表示モード処理内の時分割切替表示処理の一実施形態を示すフローチャートである。
図1は、本発明に係る動き学習支援装置の一実施形態を示す概略構成図である。動き学習支援装置1は、種々の動きを学習する装置に適用可能である。以下では、動き学習支援装置1を、腹腔鏡手術における、特に鉗子を用いた結紮縫合の動きの学習(練習)に対する支援に適用した装置として説明する。
図1において、動き学習支援装置1は、練習台装置10と、情報処理装置20とを備えている。練習台装置10は、患者の胴体を模擬したドライボックス11と、ドライボックスを上部の所定位置に載置する基台12と、映像を表示するモニタ13とを備えている。ドライボックス11は、平坦な底面を有する横向けにされた筒体111を有する。筐体111は、人体の腹部を模擬するべく、凸状曲面に形成された上面部112を有している。上面部112は、不透明乃至は半透明の部材で構成され、適所に複数の円孔が形成されている。この円孔には樹脂材等の膜材113が貼られ、その中央には、後述する鉗子や内視鏡カメラを抜き差しする円筒状のトロカーを、機能面で模擬した十字状の切り込みが形成されている。なお、トロカーを模擬した構造体を直接配設する態様でもよい。
膜材113の十字状切り込みを介して上方から鉗子114が挿通される。鉗子114は、公知のように、例えば結紮用の場合、手元側に一対の指入れ部を有し、他方側に一対の開閉可能な作用部(一対の挟持部材)を有し、両者間が所定長のパイプ部で連結されているものである。パイプ部には、指入れ部での操作力を作用部まで伝達する機構が内装されている。かかる力伝達機構によって、使用者による指入れ部からの開閉操作に連動して先端の一対の作用部が開閉して、対象物を挟持したり、開放したりできるようになっている。鉗子114は、作用部を開くことで、後述する針や縫合用糸を一対の作用部間に導入可能姿勢にし、次いで、一対の作用部を閉じることで、針や縫合用糸を挟み込むことができるものである。
なお、ドライボックス11の内部には、図略の樹脂材等のダミー患部が配置されている。ダミー患部は、例えば直方体形状物からなり、その上面にダミー切開部が縫合可能に形成されているものとして想定することができる。また、膜材113は本実施形態では、鉗子114のみを抜き差しするもので、内視鏡カメラ115はドライボックス11の適所に固設されている。内視鏡カメラ115は、学習者に処置空間を観察可能に提示するもので、前記ダミー患部が視野の中央になるような向きに設定されて、当該ダミー患部の縫合を行う鉗子114の先端作用部の動きを撮像するようになっている。
基台12には、その適所、例えば底部に操作部121の一例としてのフットペダルが配設されている。操作部121は、公知のように揺動可能構造と、踏み込み操作によりオンするスイッチが内装されているものである。
また、練習台装置10には、動き検出部116が設けられている。動き検出部116は、磁気発生器1161と磁気センサ1162とから構成されている。磁気発生器1161は、磁気信号の生成源であり、基台12の適所に固設されている。一方、磁気センサ1162は、鉗子114の所定箇所に3軸方向に向けられて取り付けられている。磁気発生器1161からの3軸の軸毎に対応して発生される磁気信号をそれぞれ検出することで、3次元位置と向きとを検出する。鉗子114への取付位置と向き及び鉗子114の既知の形状寸法等を用いて、動き検出器116での検出情報に基づいて鉗子114の先端の作用部(注目部位)の位置、姿勢(向き)が、後述の動き情報取得部215で算出される。なお、磁気による動き検出器116に代えて、3次元の加速度センサを採用したり、内視鏡カメラ115の撮影画像を解析する方法で鉗子114の先端の作用部の位置、姿勢(向き)を検出するようにしてもよい。
モニタ13は、本実施形態では基台12に取り付けられている。モニタ13は、ドライボックス11を用いての動き学習中の学習者が見やすい位置、好ましくは基台12の後部かつ学習者の視点高さに対応する位置に配設されている。
情報処理装置20は、練習台装置10との間で情報の入出力を行うと共に、入力された情報及びその他の情報を用いて、後述するように、動き学習教材を作成し、モニタ13に送出するものである。
図2は、本発明に係る動き学習支援装置の一実施形態を示す回路構成図である。図2において、練習台装置10にはマイク1151、スピーカ131が設けられている。マイク1151は、学習教材を作成する時点において、模範動きを行う者の動きに対するコツやガイダンスを音声情報としても取り込むようにしたものである。スピーカ131は、後述するように、マイク1151で取得した音声情報を学習時に再生するためのものである。
情報処理装置20は、CPU(Central Processing Unit)で構成される制御部21と、制御部21に接続されたROM(Read Only Memory)22、RAMRandom Access Memory)23、操作部24及び必要に応じて設けられる通信部25を備えている。ROM22は必要な処理プログラムやプログラムの実行に必要な情報が予め格納されたものであり、RAM23は情報処理を実行すると共に処理情報を一時的に保管するものである。また、RAM23は、一連の模範動きの映像を記憶する追従学習教材記憶部231と、一連の模範動きの映像から、後述するようにして各動き要素の映像分に分割された区分教材映像を記憶する手順学習教材記憶部232とを備えている。
操作部24は、タッチパネル、マウスやキーボードなどで構成され、学習教材の作成、学習支援処理の実行に必要な操作指示を行うものである。通信部25は、2台の動き学習支援装置が接続されて、一方側に模範者が、他方側で学習者がいずれもライブ映像で合成表示(本実施形態では、時分割表示法)する場合に、互いの映像情報を授受するべく使用される。
情報処理装置20は、ROM22の処理プログラムがCPUで実行されることによって、手順学習映像作成部211、手順学習映像表示処理部212、追従学習映像表示処理部213、表示形態設定部214、動き情報取得部215、評価部216及必要に応じて採用された通信処理部217として機能する。
練習台装置10で予め模範者による結紮縫合のお手本動作が行われ、このお手本動作の状況が内視鏡カメラ115及びマイク1151で取得され、RAM23の追従学習教材記憶部231に保管される。あるいは、予め結紮縫合処置の教材映像(必要に応じて音声含む)が格納されている外部記録媒体から教材取込部30又は通信部25を介して追従学習教材記憶部231に格納されてもよい。また、教材映像の取得時には、動き検出部116から、計時方向における鉗子114の先端作用部の位置、向きの情報も逐次取得されて、教材映像と同様に保管される。
手順学習映像作成部211は、模範者による結紮縫合処置の映像等から手順学習映像(教材映像)を作成するものである。手順学習映像作成部211は、模範者による結紮縫合処置の映像等を再生し、再生中に、鉗子114の動きがほぼ停止した場面とか、音声ガイドが途切れているとかの分割条件が発生すると、動き要素の区切りと判断して、それまでの映像部分を分割し(切り出し)、手順番号を例えば連番で付す処理を行う。分割されたそれぞれの時間幅分の動き要素を有する区分教材映像は、手順番号に対応して手順学習教材記憶部232に順次書き込まれる。なお、再生中の鉗子114の動きのほぼ停止か否かの判断は、映像中の鉗子114の映像をピックアップし、その映像の動きから行うようにしてもよいし、動き検出部116で得られた3次元情報を元に、後述の動き情報取得部215で行ってもよい。鉗子114の先端作用部の動きをから判断する態様でもよい。また、手順学習教材記憶部232には、区分教材映像の書き込みに代えて、各区分教材映像の切り出し位置を示す情報(フレーム情報)を書き込む態様でもよい。
結紮縫合処置における鉗子114(なお、針、縫合用糸の動きを含めてもよい。)の一連の動きには、時間方向に複数の動き要素(それぞれが各手順に相当)が含まれている。例えば、(1)鉗子で針を持ち直す動き(手順番号1)、(2)針を刺入する動き(手順番号2)、(3)縫合用糸を引き、Cの字を作る動き(手順番号3)、(4)2回巻の動き(手順番号4)、(5)結紮の動き(手順番号5)である。
図3は、手順学習におけるフレーム映像の一例を示す参考図で、(A)は、手順番号1に相当する針を持ち直すフレーム映像、(B)は、手順番号2に相当する針を差し込むフレーム映像、(C)は、手順番号3に相当する縫合用糸を巻く状態を示すフレーム映像の図である。図3において、モニタ画面13aには、内視鏡カメラ115で撮像された映像が表示されており、画面全体にはダミー患部映像1171が表示され、略中央に切開部映像1181が表示されている。また、モニタ画面13a内には、鉗子映像1141、鉗子114の先端作用部に挟持された状態の針映像1191及び針映像1191の一端に繋がれている縫合用糸映像1192が表示されている。
手順学習映像表示処理部212は、手順学習の指示を受け付けて手順学習映像表示モードに移行することで、付与された手順番号に従って区分教材映像を手順学習教材記憶部232から読み出してモニタ13に表示する。これによって、学習者は、各手順における動き要素の学習ポイントを理解する。手順学習映像表示処理部212は、1つの区分教材映像の再生が終了する毎に、モニタ13を内視鏡カメラ115側に切り替える。これにより、学習者は直前に観察した区分教材映像内の動き要素を模倣することが可能となる。
また、手順学習映像表示処理部212は、1つの区分教材映像の再生が終了すると、内視鏡カメラ13の撮像映像(ライブ映像)に、直前に再生された区分教材映像の最終フレーム映像の静止映像を併記表示する。併記表示は、視野合成法を採用することが好ましい。これにより、学習者は区分内で鉗子114の最終辿り位置がより把握容易となる。
図4は、併記表示の一例を示す図である。図中、実線部分は内視鏡カメラ115で撮像中(ライブ)の練習映像を示し、破線部分は点滅状態を示しており、同じ区分教材映像内の終盤の静止映像の例である。図4の例では、練習映像は手順番号(1)の途中の状況であり、破線部分は手順番号(1)の終盤(ここでは最終フレーム)の静止映像である。従って、学習者は、自己の練習映像を介して、鉗子114の映像1141を最終的な辿り位置である静止映像1141’に移動操作して合わせようとする。
なお、前記併記表示は、模範者の鉗子映像1141’のみを顕在化して表示することが好ましい。鉗子映像1141’のピックアップは、例えば、模範映像の撮影時に照明光を利用して鉗子114に光が当たるようにした状態で行い、最終フレーム映像に輝度方向の閾値を設定することで可能である。あるいは、鉗子114に所定の色を付しておくなどして、色彩差で鉗子映像1141’を抽出することも可能である。本実施形態では、最終フレーム映像を所定周波数、例えば0.数〜数Hz、本例では1Hzで点滅表示することで、内視鏡カメラ115の撮像映像と識別容易にしている。点滅表示は、例えば、最終フレーム映像を所定時間毎にモニタ13に表示させることで実現可能である。
手順学習映像表示処理部212は、後述する動き情報取得部215及び評価部216による評価に応じて、内視鏡カメラ115から次の区分教材映像の表示の切り替えを異なる方法で行う。手順学習映像表示処理部212は、評価部216での評価が高い場合には、モニタ13への表示映像を自動的に次の区分教材映像に切り替える。これは、視野合成法において、学習者は自己の操作する鉗子114の映像1141を鉗子映像1141’に重ねる位置に持ってくるとき、鉗子114の映像1141の動きが練習映像から次の区分教材映像につながるようにタイミング良く映像の切り替えを行うと、あたかも自分が次の区分の動きを模範者と同様の動きで開始したかのように錯覚し、より鮮明で詳細な行動イメージとして記憶に残すことができ、学習効果の一層の向上が図れるようになることに着目したものである。評価方法については後述する。
一方、手順学習映像表示処理部212は、評価が低い場合には、自動切り替えは実行されず、フットペダルである操作部121の信号を受け付けることによって次の区分教材映像への切り替えに行うようにしている。すなわち、評価が低い場合には、手順番号が途中であれば、操作部121への操作の毎にモニタ13を切り替えて、次の区分教材映像を手順学習教材記憶部232から読み出してモニタ13に表示し、一方、最終の手順番号であれば、最初の手順番号に戻るリピート処理を行う。操作部121への操作が別の態様で行われた場合、例えば2度押しとか押し時間の長短を利用しての別の押し操作であれば、同一の区分教材映像をリプレイ表示し、あるいは手順学習映像表示モードを終了する指示として扱うこともできる。あるいは別の操作部材を設けてもよい。
追従学習映像表示処理部213は、追従学習の指示を受け付けて追従学習映像表示モードに移行することで、追従学習教材記憶部231の一連の教材映像と内視鏡カメラ115の練習映像とをモニタ13上で合成表示、ここでは交互に時分割表示する。
図5は、この表示モードの一部分を概略的に示すもので、(A)は追従学習教材記憶部231の一連の教材映像の各フレームを、(B)は内視鏡カメラ115の練習映像の各フレームである。モニタ13は例えば16.7ms(1/60Hz)のフレーム周期で映像が書き替えられている。この実施例に示す図5は、時間方向に連続する(A)映像がAフレーム数に相当する表示時間、時間方向に連続する(B)映像がBフレーム数に相当する表示時間だけ交互に切り替えられて表示されることを示している。従って、表示周期(1サイクル)は、(A+B)フレーム数に相当する時間となり、自他(学習者/模範者)比率は、(B/A)となる。
表示形態設定部214は、追従学習映像表示モードでの表示周期及び自他比率の少なくとも一方を、操作部24を介して変更設定可能にするものである。
追従学習映像表示処理部213は、本実施形態では映像の合成法として時分割表示法を採用しているが、両映像を重畳する重畳法や並列して併記する並列表示法も、適用対象によっては考えられる。ところで、腹腔鏡手術のトレーニングに適用する場合、視野重畳提示では、小さな変位で複雑に重なっている鉗子の追従を行う際の追従特性が悪化するケースが考えられる。この場合には多数の特徴点間の対応を取ることから、学習者の映像と模範者の映像との煩雑な注意の切り替えが追従特性を悪化させると考えられる。そこで、注意を遷移することなく追従させる手法として、映像を交互に切り替えて提示する時分割法がむしろ好ましいと思料する。これにより学習者が模範者との同一感を保ちながら,融合感も生起する錯覚現象が起こると期待できる。すなわち、時分割法では、互いに協調的な身体運動を行う場合に、自己映像と教材映像との同一視点の映像を、モニタ13上で交互に切り替えることによって、自己運動の随意性が失われず、かつ自然と相手と運動が揃ってしまうような、運動の誘発がある。教材映像の動きの追従を行う場合に、視野中に逐次的に表示される両者の運動部位が融合して一つの自己の運動部位であると錯覚させる、いわゆる融合感をもたらす(生起させる)ことが可能となる。ここに、融合感とは、自分側の運動部位なのに勝手に動いているような、思った通りにも動くような、随意と不随意とが融合した印象をいう。すなわち、教材映像の運動部位には見えず、自分の運動部位以外のものには思えないという主観的な感覚をもたらすことである。この結果として、自己側では、追従誤差を明確に認識しない乃至はできないままの状態で追従できてしまうという意識下で多点対応付け及び追従の実行を達成するものと考えられる。
本出願人は、先願(特願2012−97328)において、同一視点で撮像した自己の動き映像と追従対象の映像とをモニタに時分割法で表示した場合に、上述の効果を生むための周期が周波数換算で略2Hz〜4Hzであり、自他比率が1対1〜1対3であることが好ましいとした。この条件では、前記融合感の生起によって、追従精度をより高いものとすることが可能となる。
動き情報取得部215は、前記した動き検出部116からのセンサデータを用いて鉗子114の先端作用部の動き情報(位置、向き及び変位速度、さらには変位加速度等の各パラメータ。なお、各パラメータはいずれもベクトル。また、速度、加速度は複数時点でのセンサデータを利用して得る)を、所定の周期的で、例えばフレーム周期で算出するものである。
評価部216は、予め取得した教材映像内の鉗子114の動き情報と、動き情報取得部215で得られた学習者の鉗子114の先端作用部の動き情報との差分等から、学習者の鉗子操作に対する巧拙の評価を行う。さらに、評価部216は、評価結果から、モニタ13を練習映像から次の区分教材映像への自動切替の適否を判断する。判断結果は、手順学習映像表示処理部212に出力され、自動切替か否かの指示がなされる。
前記自動切替の適否判断は、種々の方法が採用可能である。例えば、用途や要求される精度に応じて、前記した動き情報の全てのパラメータを採用する場合もあれば、位置情報のみを用いたり、また位置及び向きの情報を用いたり、あるいは位置、向き及び変位速度の情報を用いる場合が考えられる。
本実施例では、2段階で評価を行うようにしている。より具体的に、前段階としての第1段階は、学習者側と模範者側との動き情報の各パラメータ間の差分等の変化状態を監視し、学習者の鉗子操作が、現区分の教材映像の終盤の動きに対応する動きに近づいているか否かを判断する。評価のための第2段階は、チェック段階での判断が肯定された後、両者の動き情報の各パラメータ間の差分、さらに各パラメータを用いた巧拙を示す、例えば分散評価のためのノルムを算出する関数を利用して、学習者側の動きが、次の区分教材映像への切り替えによって模範者側の動きに自然なままつながる(すなわち、位置、向き、変位速度、変位加速度において、両者の動きが近似した)かの予測(評価)を行う。なお、変位加速度は、現区分における学習者の操作する鉗子114が、映像の切り替え後、次の区分の開始時の鉗子114の挙動に対して、あたかも自分が次の区分の動きを模範者と同様の動きで開始したかのように錯覚するか否かをより的確に評価するために採用したものであるが、変位加速度を用いずに変位速度で評価するようにしてもよい。
図6は、手順学習教材作成処理の一実施形態を示すフローチャートである。まず、模範者が行った原教材の再生が開始される(ステップS1)。次いで、再生中に動き検出情報の動き速度0(ほぼ零を含む)及び音声の途切れの少なくとも一方の条件が分割条件として満たされたか否かが判断される(ステップS3)。分割条件に合致すると、最初から現時点までの映像、あるいは1番目の手順以降において分割条件に合致した場合には直前の分割箇所から現時点までの映像を切り出し、手順番号が連番で付されて手順学習教材記憶部232に保存される(ステップS5)。なお、映像は実際に切り出して個別に保管する態様でもよいが、分割箇所の情報(保存アドレス)を手順番号と関連付けて記録し、アドレス管理によって同様な分割処理を可能とする態様でもよい。次いで、再生が終了したか否かが判断される(ステップS7)。終了であれば、本フローが終了する。
一方、ステップS3で、分割条件がなければ、ステップS7に進み、再生終了でないことを条件に、ステップS3に戻って同様な切り出し処理が繰り返される。
図7は、手順学習教材表示モード処理の一実施形態を示すフローチャートである。先ず、手順番号を示すiが、i=1に設定される(ステップS11)。次いで、手順番号iに相当する区分教材映像が手順学習教材記憶部232から読み出されてモニタ13に表示(再生)される(ステップS13)。この手順番号iの区分教材映像の読み出し後、当該区分教材映像の読み出しが終了した(再生が終了した)か否かが判断される(ステップS15)。当該区分教材映像の読み出しが終了していなければ(再生途中であれば)、ステップS13に戻る。一方、当該区分教材映像の読み出しが終了したのであれば、モニタ13が内視鏡カメラ115のライブ映像に切り替えられ、かつ当該手順番号iの区分教材映像の最終フレーム映像が点滅状態で併記表示される(ステップS17)。
続いて、手順番号iが最終(手順番号I)か否かが判断され(ステップS19)、最終であればステップS31に進み、最終でなければ、計測、評価演算の処理が実行される(ステップS21)。なお、計測、評価演算処理については後述する。
計測、評価演算の結果、自動切替指示が出力されたか否かが判断され(ステップS23)、自動切替指示が出力されたのであれば、手順番号iが1だけインクリメントされて(ステップS25)、内視鏡カメラ115の映像表示が停止され、インクリメント後の手順番号iの区分教材映像がモニタ13に再生される(ステップS27)。
一方、ステップS23で自動切替不可指示が出力されたのであれば、操作部121への操作の有無が判断される(ステップS29)。ここで、次手順指示の操作有りと判断されると、手順番号iが1だけインクリメントされて(ステップS25)、内視鏡カメラ115の映像表示が停止され、インクリメント後の手順番号iの区分教材映像がモニタ13に再生される(ステップS27)。これに対し、ステップS29でリプレイ指示の操作有りと判断されると、同じ手順番号iの区分教材映像がモニタ13に再度再生される(ステップS33)。
また、ステップS19で、手順番号iが最終であると、リプレイ指示の操作の有無が判断され(ステップS31)、リプレイ指示があれば、ステップS33に進み、所定時間内に指示がなければ、手順学習の終了と見なして、本フローを終える。なお、図には示していないが、強制終了のような指示操作を受付可能に構成しておけば、途中で練習を終了することができる。
図8は、ステップS21の計測、評価演算処理の一実施形態を示すフローチャートである。図8では、まず、第1段階でのチェック演算が実行され(ステップS41)、チェック演算での判断が肯定された場合に、第2段階の予測演算が実行される(ステップS43)。
図9は、第1段階でのチェック演算処理の一例を示すフローチャートである。まず、学習者が操作する鉗子114に対して動き検出部116からのセンサデータが取得される(ステップS51)。次いで、取得されたセンサデータを用いて動き情報の各パラメータが算出される(ステップS53)。続いて、算出された動き情報と模範者側の動き情報の両パラメータ間の差分等の変化状態が監視され(ステップS55)、学習者の鉗子操作が、現区分の教材映像の終盤の動きに対応する動きに近づいているか否かが判断される(ステップS57)。そして、終盤の動きに対応する動きに近づいていると判断されると、リターンする。一方、終盤の動きに対応する動きに近づいていると判断されなければ、ステップS51に戻って同様のチェック処理が繰り返される。なお、ステップS57からステップS51に戻る繰り返し処理中に、操作部121への操作が割込として発生すると、ステップS29に移行するように設定されている。
図10は、第2段階での予測演算処理の一例を示すフローチャートである。まず、学習者が操作する鉗子114に対して動き検出部116からのセンサデータが取得される(ステップS61)。次いで、取得されたセンサデータを用いて動き情報のパラメータが算出され、さらに動き予測演算が実行されてノルムが算出される(ステップS63)。続いて、算出された両者の各パラメータの対比、及び両者のノルムの対比が行われる(ステップS65)。例えば、両者の各パラメータ同士の差がいずれも、ある範囲内にあることを条件に、両者のノルムの差が閾値範囲内か否かが判断される(ステップS67)。許容範囲であれば、自動切替指示が出力される(ステップS69)。一方、ステップS67で許容範囲でないと判断された場合、次に、許容不可の範囲か否かが判断される(ステップS71)。許容不可の範囲でなければ、ステップS61に戻って、同様な予測処理が繰り返される。一方、許容不可の範囲であれば、自動切替不可指示が出力される(ステップS73)。なお、ステプS71,S73を省略し、ステップS67からステップS61に戻る繰り返し処理中に、操作部121への操作が割込として発生すると、ステップS29に移行するように設定してもよい。
図11は、追従学習教材表示モード処理の一実施形態を示すフローチャートである。このフローチャートでは時分割切替表示処理が実行される(ステップS101)。この時分割切替表示処理も学習者の意向によって、すなわち操作部121への指示操作を受け付けて所望する回数だけ実行することができ、また、終了することができる(ステップS103)。
図12は、追従学習教材表示モード処理内の時分割切替表示処理の一実施形態を示すフローチャートである。まず、追従学習教材記憶部231から教材映像が読み出されてモニタ13に出力され、かつフレーム数の計数処理が行われる(ステップS111)。次いで、Aフレーム数だけ表示が行われると(ステップS113でYes)、Aフレーム数の読み出し時点で、教材映像の読み出しが中断される(ステップS115)。
続いて、モニタ13が内視鏡カメラ115側に切り替えられ、内視鏡カメラ115のライブ映像がモニタ13に表示され、かつフレーム数の計数処理が行われる(ステップS117)。次いで、Bフレーム数だけ表示が行われると(ステップS119でYes)、モニタ13が教材映像側に切り替えられ、追従学習教材記憶部231内の、直前に中断したアドレス箇所から教材映像がモニタ13へ出力され、かつフレーム数の計数が行われる(ステップS121)。続いて、教材映像の読み出しが終了したか否かが判断され(ステップS123)、教材映像の読み出しが終了していなければ、ステップS113に戻り、同様に、Aフレーム数の教材映像とBフレーム数の内視鏡カメラのライブ映像とが交互にモニタ13に表示される処理が繰り返される。一方、教材映像の読み出しが終了したのであれば、本フローが終了する。
なお、時分割切替表示処理においては、追従学習教材記憶部231からAフレームずつ読み出すようにした(ステップS113でYes)が、追従学習教材記憶部231からは継続的にフレーム映像が読み出されており、内視鏡カメラ115のライブ映像が表示される間は、モニタ13に導かれず、あるいは導かれても表示されない態様としてもよい。このようにすることで、追従学習教材記憶部231からのフレーム映像の時間方向の変化が実時間に対応するものとなる。
なお、本発明は、以下の態様を採用してもよい。
(1)本実施形態では結紮縫合処置の例で説明したが、これに限らず、内視鏡カメラで行う専門的な医療処置についても適用可能である。また、患部画像をモニタを介して遠隔観察しながら手術用ロボットを用いて行う遠隔手術も専門的で、扱える医師数も少ないことから、かかる遠隔手術における各種の医療処置に対しても適用可能である。
(2)本発明の適用範囲は医療分野に限定されず、その他の分野でも適用可能である。例えば技能乃至は技倆が要求される分野、例えば製品(作品)の作成過程に応じた各動作要素があり、これらの動作要素を経て一連の動作が終了することで製品等が完成する陶芸の分野が想定される。また、各食材に対する固有の調理を施して、最終的に目的の料理を完成させる料理実習の教材にも適用可能である。さらに、スポーツにおける各種のトレーニングにも適用可能である。
(3)本実施形態では学習者の前方にモニタ13を配置した態様であるが、モニタとして、身体動作の視覚的なガイダンスを実現する装置としてのビデオシースルーヘッドマウンテッドディスプレイ(VST-HMD)を採用する態様でもよい。
(4)また、内視鏡カメラ115の映像をモニタ13に導くに際して、情報処理装置20で所定のタイムラグを設定する遅延処理を施すことで、学習者に力覚を付与でき、より臨場感のある学習が期待できる。また、映像に微分処理を行うデジタルフィルタを介在させることで、映像のエッジ強調が図れ、映像認識が向上する。
(5)本実施形態では、手順学習から追従学習への切替を操作部121への指示で行う態様としたが、これに代えて、手順学習終了時点から一定時間経過で自動的に追従学習に移行するようにしてもよい。また、追従学習への移行条件として、手順学習において、各区分教材映像を全て自動切替指示で行った場合に制限するようにしてもよい。
(6)動き検出部116に加えて、学習者や鉗子の動きを、例えば基端の指入れ部に指圧を図る圧力センサを取り付けて、指の動き時の力の加減を計測したり、学習者の腕等の身体適所に筋電センサ(電極板等)を取り付けて、運動時に発生する筋電位を計測することで、動きの円滑さ、スムースさ等も評価できるようにしてもよい。
(7)本実施形態では、モニタ13に、練習映像と、直前に再生された区分教材映像の最終フレームの静止映像とを併記表示するようにしたが、これに限定されず、操作対象物の映像、本例では鉗子の映像1141の先端が、区分内での最終的に辿り着くべき位置(必要に応じて向き)のみをポイント的にマーカ表示するものでもよい。あるいは、練習映像のみ表示して併記表示を行わず、例えば音声のみのガイドとしてもよい。
(8)最終フレーム映像の表示は、モニタ13を内視鏡カメラ115側に切り替えた時点から開始してもよいし、所定の条件、例えば練習の進捗状況と関連させて開始する方法でもよい。学習者の練習の進捗状況と関連させる方法としては、例えば、チェック演算を行う第1段階における判断(ステップS57)よりも広い所定範囲に併記表示タイミングを設定してもよい。
(9)併記表示する映像は静止映像の他、動画でもよい。例えば、区分教材映像の終盤の数秒程度の映像を繰り返し再生する態様でもよい。
(10)前記実施形態では、評価部216での計測、評価処理において第1、第2段階で処理したが、第1、第2段階の一方のみでもよい。また、各パラメータの対比処理、ノルム対比処理に関して説明したが、これらの評価については、以下のとおりである。すなわち、主に教材映像と実映像との測定対象部位の位置誤差ベクトルΔPが教材映像の動き出しの速度ベクトルvと概ね同方向に揃う状態で、切替周期Tを用いて、v≒ΔP/Tとなるタイミングを見計らって切り替えることが望ましい。この条件を大きく外れる場合、運動接続の錯覚による学習の促進効果は大きく損なわれる。
(11)またこの切り替えに際しては、例えば先願(特願2012−97328)で示した融合感を生じる切り替え周期と位相パターンを、区分教材映像への切り替えのタイミングに適用することでさらに錯覚効果を促進させる効果を期待できる。例えば、接続時に位置誤差ベクトルΔPがある程度小さい、すなわち位置が近づいてきたところで、点滅周期すなわち切り替え周期を融合感パターンに切り替えるようにすればよい。なお、融合感パターンとしては、周波数2Hz〜4Hz、自他比率1対1〜1対3であることが好ましい。
以上、説明したように、本発明に係る動き学習支援装置は、時間方向に区分された、動きに関する教材映像の各区分教材映像と、撮像部で撮影される、各区分教材映像の動きを真似る学習者の練習画像とを区分毎に交互にモニタに表示する動き学習支援装置において、前記学習者の動きを検出する動き検出手段と、前記区分教材映像の動きに対する前記学習者の動きを評価する評価手段と、前記評価手段による評価結果が高い場合、前記モニタを前記撮像部の画像から次の区分教材映像に切り替える第1の学習支援処理手段とを備えることが好ましい。これにより、学習者の動きが区分教材映像の動きに類似、すなわち近づいている場合、学習者の映像の動きが練習映像から次の区分教材映像につながるようにタイミング良く映像の切り替えが行われることで、学習者はあたかも自分が次の区分の動きを模範者と同様の動きで開始したかのように錯覚し、より鮮明で詳細な行動イメージとして動きを記憶に残すことができ、学習効果の一層の向上が図れる。
また、本発明に係る動き学習支援装置において、前記第1の学習支援処理手段は、前記撮像部の画像の前記モニタへの表示中に、直前に再生した区分教材映像中の終盤の映像を併記表示することが好ましい。この構成によれば、終盤の教材映像が表示されるので、辿り位置の認識が容易となる。
また、本発明に係る動き学習支援装置において、前記第1の学習支援処理手段は、前記撮像部の画像と前記直前の区分教材映像中の終盤の映像とを視野合成法で表示することが好ましい。この構成によれば、学習者の視点と一致して辿り位置が表示されるので、位置、タイミングが合ったとき、前記のような錯覚が誘起され、より鮮明で詳細な行動イメージとして動きを記憶に残すことができて、学習効果の一層の向上が図れるようになる。
また、本発明に係る動き学習支援装置において、前記第1の学習支援処理手段は、前記直前の区分教材映像中の終盤の映像を前記撮像部の画像とは異なる表示形態で表示することが好ましい。この構成によれば、学習者にとって自己のライブ映像と区分教材映像とを容易に識別することが可能となる。
また、本発明に係る動き学習支援装置において、前記第1の学習支援処理手段は、前記直前の区分教材映像中の終盤の映像を点滅表示で表示することが好ましい。この構成によれば、学習者にとって自己のライブ映像と区分教材映像とを容易に識別することが可能となる。
また、本発明に係る動き学習支援装置において、前記第1の学習支援処理手段は、前記直前の区分教材映像中の終盤の映像を前記練習画像の表示中の所定時間から表示することが好ましい。この構成によれば、学習の最初から当該区分の終盤の辿り位置が示されるので、途中から表示が開始される場合と比べて操作が安定し、学習効果が高まる。
また、本発明に係る動き学習支援装置において、前記直前の区分教材映像中の終盤の映像は静止画であることが好ましい。この構成によれば、区分教材映像は静止しているので、学習者にとって自己のライブ映像との識別が容易となる。
また、本発明に係る動き学習支援装置において、前記モニタに、区分けされる前の前記教材映像と前記撮像部の撮像映像とを時分割合成して表示する第2の学習支援処理手段とを備えることが好ましい。この構成によれば、運動の誘発性が発揮され、学習効率の向上が図れる。
また、本発明に係る動き学習支援方法は、時間方向に区分された、動きに関する教材映像の各区分教材映像と、撮像部で撮影される、各区分教材映像の動きを真似る学習者の練習画像とを区分毎に交互にモニタに表示する動き学習支援方法において、前記学習者の動きを検出することによって前記区分教材映像の動きに対する前記学習者の動きを評価し、評価結果が高い場合、前記モニタを前記撮像部の画像から次の区分教材映像に切り替えることが好ましい。これにより、学習者の動きが区分教材映像の動きに類似、すなわち近づいている場合、学習者の映像の動きが練習映像から次の区分教材映像につながるようにタイミング良く映像の切り替えが行われることで、学習者はあたかも自分が次の区分の動きを模範者と同様の動きで開始したかのように錯覚し、より鮮明で詳細な行動イメージとして動きを記憶に残すことができ、学習効果の一層の向上が図れる。
また、本発明に係る動き学習支援方法において、前記撮像部の画像の前記モニタへの表示中に、直前に再生した区分教材映像中の終盤の映像を併記表示することが好ましい。この構成によれば、終盤の教材愛映像が表示されるので、辿り位置の認識が容易となる。
1 動き学習支援装置
10 練習台装置
114 鉗子
115 内視鏡カメラ(撮像部)
116 動き検出部(動き検出手段)
121 操作部
13 モニタ
20 情報処理装置
21 制御部
211 手順学習映像作成部(動き要素映像作成手段)
212 手順学習映像表示処理部(第1の学習支援処理手段)
213 追従学習映像表示処理部(第2の学習支援処理手段)
215 動き情報取得部(動き検出手段)
216 評価部(評価手段)
232 手順学習教材記憶部

Claims (10)

  1. 時間方向に区分された、動きに関する教材映像の各区分教材映像と、撮像部で撮影される、各区分教材映像の動きを真似る学習者の練習画像とを区分毎に交互にモニタに表示する動き学習支援装置において、
    前記学習者の動きを検出する動き検出手段と、
    前記区分教材映像の動きに対する前記学習者の動きの類似さを評価する評価手段と、
    前記評価手段により類似するとの評価が得られた場合、前記モニタを前記撮像部の画像から次の区分教材映像に切り替える第1の学習支援処理手段とを備えたことを特徴とする動き学習支援装置。
  2. 前記第1の学習支援処理手段は、前記撮像部の画像の前記モニタへの表示中に、直前に再生した区分教材映像中の終盤の映像を併記表示する請求項1に記載の動き学習支援装置。
  3. 前記第1の学習支援処理手段は、前記撮像部の画像と前記直前の区分教材映像中の終盤の映像とを視野合成法で表示する請求項2に記載の動き学習支援装置。
  4. 前記第1の学習支援処理手段は、前記直前の区分教材映像中の終盤の映像を前記撮像部の画像とは異なる表示形態で表示する請求項2又は3に記載の動き学習支援装置。
  5. 前記第1の学習支援処理手段は、前記直前の区分教材映像中の終盤の映像を点滅表示で表示する請求項4に記載の動き学習支援装置。
  6. 前記第1の学習支援処理手段は、前記直前の区分教材映像中の終盤の映像を前記練習画像の表示中の所定時間から表示する請求項2〜5のいずれかに記載の動き学習支援装置。
  7. 前記直前の区分教材映像中の終盤の映像は静止画である請求項2〜6のいずれかに記載の動き学習支援装置。
  8. 前記モニタに、区分けされる前の前記教材映像と前記撮像部の撮像映像とを時分割合成して表示する第2の学習支援処理手段とを備えたことを特徴とする請求項1〜7のいずれかに記載の動き学習支援装置。
  9. 時間方向に区分された、動きに関する教材映像の各区分教材映像と、撮像部で撮影される、各区分教材映像の動きを真似る学習者の練習画像とを区分毎に交互にモニタに表示する動き学習支援方法において、
    前記学習者の動きを検出することによって前記区分教材映像の動きに対する前記学習者の動きの類似さを評価し、
    類似するとの評価が得られた場合、前記モニタを前記撮像部の画像から次の区分教材映像に切り替える動き学習支援方法。
  10. 前記撮像部の画像の前記モニタへの表示中に、直前に再生した区分教材映像中の終盤の映像を併記表示する請求項9に記載の動き学習支援方法。
JP2015554412A 2013-12-26 2013-12-26 動き学習支援装置及び動き学習支援方法 Active JP6162259B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/084957 WO2015097825A1 (ja) 2013-12-26 2013-12-26 動き学習支援装置及び動き学習支援方法

Publications (2)

Publication Number Publication Date
JPWO2015097825A1 true JPWO2015097825A1 (ja) 2017-03-23
JP6162259B2 JP6162259B2 (ja) 2017-07-12

Family

ID=53477761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015554412A Active JP6162259B2 (ja) 2013-12-26 2013-12-26 動き学習支援装置及び動き学習支援方法

Country Status (4)

Country Link
US (1) US10360814B2 (ja)
EP (1) EP3089139A4 (ja)
JP (1) JP6162259B2 (ja)
WO (1) WO2015097825A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6359887B2 (ja) * 2014-06-19 2018-07-18 株式会社京都科学 縫合手技評価装置、縫合手記評価装置用プログラム、及び、縫合シミュレータシステム
JP2018019993A (ja) * 2016-08-05 2018-02-08 国立大学法人千葉大学 画像作成装置、画像作成システム、画像作成方法およびダミー器具
AU2018220845B2 (en) * 2017-02-14 2023-11-23 Applied Medical Resources Corporation Laparoscopic training system
JP7005970B2 (ja) * 2017-07-07 2022-01-24 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
WO2019008737A1 (ja) * 2017-07-07 2019-01-10 オリンパス株式会社 内視鏡用トレーニングシステム
JP7228829B2 (ja) * 2018-09-20 2023-02-27 学校法人立命館 聴診トレーニングシステムおよび聴診トレーニングプログラム
JP7201998B2 (ja) * 2019-02-20 2023-01-11 国立大学法人大阪大学 手術トレーニング装置
JP6982324B2 (ja) * 2019-02-27 2021-12-17 公立大学法人埼玉県立大学 手指操作支援装置及び支援方法
JP7116696B2 (ja) * 2019-03-06 2022-08-10 株式会社日立製作所 学習支援システム及びプログラム
JP7402516B2 (ja) * 2020-03-25 2023-12-21 富士工業株式会社 料理教室システムおよび方法
JP7345866B2 (ja) * 2021-03-23 2023-09-19 国立大学法人 東京大学 情報処理システム、情報処理方法及びプログラム
JP7082384B1 (ja) 2021-05-28 2022-06-08 浩平 田仲 学習システム及び学習方法
WO2023180182A1 (en) * 2022-03-22 2023-09-28 Koninklijke Philips N.V. Systems and methods for exhaustion detection using networked tools
JP7486860B1 (ja) 2023-08-04 2024-05-20 株式会社計数技研 映像合成装置、映像合成方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10274918A (ja) * 1997-03-31 1998-10-13 Uinetsuto:Kk 身体動作練習システムおよび身体動作練習用教材
JPH10309335A (ja) * 1997-05-12 1998-11-24 Tomotaka Marui 運動動作の画像記録・再生システム
JP2007323268A (ja) * 2006-05-31 2007-12-13 Oki Electric Ind Co Ltd 映像提供装置
US20130323700A1 (en) * 2011-02-04 2013-12-05 University Of Pittsburgh - Of The Commonwealth System Of Higher Education Hybrid physical-virtual reality simulation for clinical training capable of providing feedback to a physical anatomic model

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5846086A (en) 1994-07-01 1998-12-08 Massachusetts Institute Of Technology System for human trajectory learning in virtual environments
JPH08182786A (ja) 1994-12-27 1996-07-16 Shinkiyou Denshi Kk 運動体の画像解析装置
US5984684A (en) * 1996-12-02 1999-11-16 Brostedt; Per-Arne Method and system for teaching physical skills
US5904484A (en) * 1996-12-23 1999-05-18 Burns; Dave Interactive motion training device and method
US6514081B1 (en) * 1999-08-06 2003-02-04 Jeffrey L. Mengoli Method and apparatus for automating motion analysis
US20030054327A1 (en) * 2001-09-20 2003-03-20 Evensen Mark H. Repetitive motion feedback system and method of practicing a repetitive motion
US8113844B2 (en) * 2006-12-15 2012-02-14 Atellis, Inc. Method, system, and computer-readable recording medium for synchronous multi-media recording and playback with end user control of time, data, and event visualization for playback control over a network
US20120210252A1 (en) * 2010-10-11 2012-08-16 Inna Fedoseyeva Methods and systems for using management of evaluation processes based on multiple observations of and data relating to persons performing a task to be evaluated
JP5679423B2 (ja) 2010-11-02 2015-03-04 富士電機株式会社 Dlc薄膜製造方法および装置
KR101975808B1 (ko) 2010-11-04 2019-08-28 더 존스 홉킨스 유니버시티 최소 침습 수술 기량의 평가 또는 개선을 위한 시스템 및 방법
TW201314639A (zh) * 2011-09-21 2013-04-01 Ind Tech Res Inst 運動學習系統與輔助使用者學習運動之方法
US20140308640A1 (en) * 2013-07-08 2014-10-16 George Edward Forman Method to Improve Skilled Motion Using Concurrent Video of Master and Student Performance

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10274918A (ja) * 1997-03-31 1998-10-13 Uinetsuto:Kk 身体動作練習システムおよび身体動作練習用教材
JPH10309335A (ja) * 1997-05-12 1998-11-24 Tomotaka Marui 運動動作の画像記録・再生システム
JP2007323268A (ja) * 2006-05-31 2007-12-13 Oki Electric Ind Co Ltd 映像提供装置
US20130323700A1 (en) * 2011-02-04 2013-12-05 University Of Pittsburgh - Of The Commonwealth System Of Higher Education Hybrid physical-virtual reality simulation for clinical training capable of providing feedback to a physical anatomic model

Also Published As

Publication number Publication date
EP3089139A1 (en) 2016-11-02
US10360814B2 (en) 2019-07-23
WO2015097825A1 (ja) 2015-07-02
EP3089139A4 (en) 2017-06-14
US20160314713A1 (en) 2016-10-27
JP6162259B2 (ja) 2017-07-12

Similar Documents

Publication Publication Date Title
JP6162259B2 (ja) 動き学習支援装置及び動き学習支援方法
US20100167248A1 (en) Tracking and training system for medical procedures
US9396669B2 (en) Surgical procedure capture, modelling, and editing interactive playback
WO2020179128A1 (ja) 学習支援システム、学習支援装置及びプログラム
JP4436966B2 (ja) 内視鏡のチュートリアルシステム
US8314840B1 (en) Motion analysis using smart model animations
Breslin et al. Modelling relative motion to facilitate intra-limb coordination
KR101816172B1 (ko) 의료 훈련 시뮬레이션 시스템 및 방법
JP6632020B1 (ja) 内視鏡画像処理システム
JP2005525598A (ja) 手術トレーニングシミュレータ
AU2015202928A1 (en) Endoscope simulator
CN110674794B (zh) 一种全景舞蹈动作建模方法及舞蹈教学辅助系统
CN108376487A (zh) 基于虚拟现实中的肢体训练系统及方法
Stanley et al. Design of body-grounded tactile actuators for playback of human physical contact
JP6014450B2 (ja) 動き学習支援装置
JP6521511B2 (ja) 手術トレーニング装置
CN110038270A (zh) 一种上肢单臂康复训练机器人人机交互系统及方法
CN1064854C (zh) 用于指导学生的系统
CN114399713A (zh) 线上舞蹈教学动作分析系统
CN112419826B (zh) 虚拟仿真腹腔镜手术内窥镜操作训练方法及系统
CN112534491A (zh) 一种医学模拟器、医学训练系统和方法
JP2008242331A (ja) 看護シミュレータ
Lacey et al. Mixed-reality simulation of minimally invasive surgeries
Gonzalez-Romo et al. Quantification of motion during microvascular anastomosis simulation using machine learning hand detection
JP2008058364A (ja) 手術用トレーニング装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170614

R150 Certificate of patent or registration of utility model

Ref document number: 6162259

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250