JP7442300B2 - 再生制御装置及び再生制御プログラム - Google Patents
再生制御装置及び再生制御プログラム Download PDFInfo
- Publication number
- JP7442300B2 JP7442300B2 JP2019210882A JP2019210882A JP7442300B2 JP 7442300 B2 JP7442300 B2 JP 7442300B2 JP 2019210882 A JP2019210882 A JP 2019210882A JP 2019210882 A JP2019210882 A JP 2019210882A JP 7442300 B2 JP7442300 B2 JP 7442300B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- scene
- predetermined
- control device
- playback control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 71
- 238000001514 detection method Methods 0.000 claims description 60
- 230000033001 locomotion Effects 0.000 claims description 40
- 238000000605 extraction Methods 0.000 claims description 20
- 238000010801 machine learning Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 9
- 230000008929 regeneration Effects 0.000 claims description 7
- 238000011069 regeneration method Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 description 57
- 230000000007 visual effect Effects 0.000 description 46
- 238000012545 processing Methods 0.000 description 29
- 238000010586 diagram Methods 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 15
- 238000001356 surgical procedure Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 210000001508 eye Anatomy 0.000 description 12
- 238000013500 data storage Methods 0.000 description 10
- 239000013598 vector Substances 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000010415 tidying Methods 0.000 description 1
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Analysis (AREA)
Description
例えば、特許文献1には、ユーザのタッチパネルに対する接触操作の継続時間や、接触操作の押圧力に基づいて、動画の再生速度を段階的に変化させることが開示されている。これにより、ユーザは、早送りボタンやシークバー等の一般的なユーザインタフェースを操作する場合に比べて、より直感的に再生の制御をすることができる。
時間的に連続した複数の画像データを取得する画像データ取得手段と、
前記複数の画像データそれぞれの画像内から所定の対象を含んだ対象領域を検出する領域検出手段と、
前記複数の画像データ間の画像の変化と、当該変化している領域が前記対象領域であるか否かと、に基づいて前記複数の画像データそれぞれから特徴量を抽出する特徴量抽出手段と、
前記特徴量を学習モデルに入力することにより、所定の場面に対応する画像データを検出する場面検出手段と、
前記場面検出手段が検出した前記所定の場面に対応する画像データを示す情報に基づいて、前記複数の画像データの再生を制御する再生制御手段と、
を備えることを特徴とする。
図1は、本実施形態に係る再生制御システムSの全体構成を示すブロック図である。図1に示すように、再生制御システムSは、ウェアラブルカメラ10と、再生制御装置20とを含む。また、図1には、ウェアラブルカメラ10を装着するユーザUも図示する。
具体的な処理の内容として、再生制御装置20は、ウェアラブルカメラ10から、時間的に連続した複数の画像データを取得する。また、再生制御装置20は、この複数の画像データそれぞれの画像内から所定の対象を含んだ対象領域を検出する。更に、再生制御装置20は、この複数の画像データ間の画像の変化と、当該変化している領域が対象領域であるか否かと、に基づいてこの複数の画像データそれぞれから特徴量を抽出する。更に、再生制御装置20は、この特徴量を学習モデルに入力することにより、所定の場面(例えば、動画の閲覧の目的となる場面)に対応する画像データを検出する。そして、再生制御装置20は、検出した所定の場面に対応する画像データを示す情報に基づいて、複数の画像データの再生を制御する。
従って、本実施形態に係る再生制御システムSによれば、再生に関する制御によって、より適切にユーザの閲覧を支援することができる。
次に、ウェアラブルカメラ10の構成について、図2のブロック図を参照して説明をする。図2に示すように、ウェアラブルカメラ10は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、通信部14と、センサ部15と、記憶部16と、入力部17と、撮像部18と、アイトラッキング部19と、を備えている。これら各部は、信号線により接続されており、相互に信号を送受する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
センサ部15は、加速度センサやジャイロセンサで構成され、ウェアラブルカメラ10を装着した作業者の動きを測定する。このようなセンサ部15の測定結果に基づいて、CPU11は、キャリブレーションをした後の、撮像部18と作業者とのズレの補正等の処理を行うことができる。
入力部17は、各種ボタン及びタッチパネル等で構成され、ユーザの指示操作に応じて各種情報を入力する。
アイトラッキング部19は、LED(Light Emitting Diode)等の発光素子と、アイトラッキング用の撮像装置によって構成され、注視点を計測する。具体的には、アイトラッキング部19は、発光素子を発光させることにより作業者の角膜上に光の反射点を生じさせると共に、その作業者の眼球の画像をアイトラッキング用の撮像装置で撮像する。そして、アイトラッキング部19は、撮像された眼球の画像を解析することにより、作業者の注視点を示す情報として、注視点の位置に対応する二次元座標の座標値を算出する。
ここで、撮影処理は、ウェアラブルカメラ10が、視野画像と注視点の位置を示す情報とに基づいて、時間的に連続した複数の複数の画像データからなる動画を生成する一連の処理である。
また、記憶部16の一領域には、画像データ記憶部161が設けられる。
以下で特に言及しない場合も含め、これら機能ブロック間では、処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。
視野画像撮影部111、注視点計測部112、及び画像データ生成部113は、作業者による作業が継続している間、このような画像データの生成のための処理を繰り返すことにより、ユーザUの視野画像と注視点の変化を示す、時間的に連続した複数の画像データを生成する。
次に、再生制御装置20の構成について、図3のブロック図を参照して説明をする。図3に示すように、再生制御装置20は、CPU21と、ROM22と、RAM23と、通信部24と、記憶部25と、入力部26と、出力部27と、ドライブ28と、を備えている。これら各部は、信号線により接続されており、相互に信号を送受する。
RAM23には、CPU21が各種の処理を実行する上において必要なデータ等も適宜記憶される。
記憶部25は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種データを記憶する。
出力部27は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
ドライブ28には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア(図示を省略する。)が適宜装着される。ドライブ28よってリムーバブルメディアから読み出されたプログラムは、必要に応じて記憶部25にインストールされる。
ここで、学習処理は、再生制御装置20が、ウェアラブルカメラ10から受信した動画データから抽出される特徴量を含む入力データと、閲覧者から取得した所定の場面(ここでは、切開場面)を示すラベルとの組を教師データとして機械学習を行うことにより、学習モデルを構築(学習モデルの更新を含む)する一連の処理である。
また、再生制御処理は、再生制御装置20が、動画内の複数の画像データから抽出した特徴量と、学習処理により構築された学習モデルとに基づいて、所定の場面を検出すると共に、所定の場面であるか否かに基づいて、複数の画像データからなる動画の再生を制御する一連の処理である。
また、記憶部25の一領域には、動画データ記憶部251と、学習モデル記憶部252と、が設けられる。
以下で特に言及しない場合も含め、これら機能ブロック間では、処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。
図4に示すように、視野画像の一例である視野画像31は、動作部位32、動作部位33、メス34、及びマーキング35といった撮影された物体の画像を含む。また、視野画像31には、対象領域の境界36、及び注視点37を併せて図示する。
動作部位32は、作業者であるユーザU(執刀医)の動作部位の手である。一方で、動作部位33は、作業者である助手の動作部位の手である。
ユークリッド距離/単位時間
ただし、ユークリッド距離は注視点42-n及び注視点42-mの座標値の成分ごとの差分の2乗和の正の平方根であり、単位時間は視野画像の撮影時のフレームレートに対応する隣接するフレームの間隔である。
ここで、学習対象とする動画データ内の各画像データの3つの特徴量については、上述したように特徴量抽出部214から入力されることにより取得される。
学習部215は、このようにして、教師データの特徴を学習し、入力から結果を推定するための学習モデルを帰納的に獲得する。
一方で、場面検出部216は、出力層の出力が不正解を示す情報(例えば、値「0」又は「所定の閾値未満の0に近い値」)であれば、その画像データは、所定の場面に対応する画像データとしては検出しない。すなわち、他の場面に対応する画像データとして検出する。
そこで、再生制御部217は、例えば、第1の態様での再生速度を、第2の態様での再生速度よりも遅くする。例えば、第1の態様での再生速度を、撮影時のフレームレートに沿った等速としたり、それよりも遅い再生速度(いわゆる、スロー再生)としたりする。一方で、第2の態様での再生速度を、撮影時のフレームレートに沿った等速よりも早い再生速度(いわゆる、早送り)とする。これにより、所定の場面を、他の場面よりもじっくりと閲覧者に閲覧させることができる。
次に、図9を参照して、ウェアラブルカメラ10が実行する撮影処理の流れについて説明する。図9は、ウェアラブルカメラ10が実行する撮影処理の流れを説明するフローチャートである。撮影処理は、作業を開始する作業者等のユーザからの、撮影開始指示操作に伴い実行される。
ステップS12において、注視点計測部112は、アイトラッキング部19を用いて、視野画像撮影部111による撮影と同様の所定の周期(すなわち、所定のフレームレート)で注視点の位置に対応する二次元座標の座標値を算出する。
次に、図10を参照して、再生制御装置20が実行する学習処理の流れについて説明する。図10は、再生制御装置20が実行する学習処理の流れを説明するフローチャートである。学習処理は、閲覧者等のユーザからの、学習開始指示操作に伴い実行される。
ステップS22において、動画データ内の各視野画像(すなわち、各フレーム)のそれぞれに対して、画像認識を行うことにより、作業者の動作部位(ここでは、作業者の手)が含まれる領域である対象領域を検出する。
ステップS24において、特徴量抽出部214は、領域検出部212及び注視点検出部213の検出結果や動画データの間での変化等に基づいて、動画データ内の各動画データ(すなわち、各フレーム)それぞれの特徴量を抽出する。
ステップS26において、学習部215は、特徴量と、対応するラベルとを組にして教師データを生成し、この教師データを用いて機械学習を行う。
次に、図11を参照して、再生制御装置20が実行する再生制御処理の流れについて説明する。図11は、再生制御装置20が実行する再生制御処理の流れを説明するフローチャートである。再生制御処理は、閲覧者等のユーザからの、再生開始指示操作に伴い実行される。
ステップS36において、場面検出部216は、検出した所定の場面に対応する画像データが何れの画像データであるかを示す情報を動画データに追加する。
ステップS40において、再生制御部217は、他の場面に対応する画像データを第2の態様で再生する。
例えば、これらの処理によれば、長時間となりがちな出術の動画から、動画の閲覧の目的となる切開場面を検出し、この検出した切開場面を、他の場面(例えば、準備場面や片付け画面)よりも、閲覧者であるユーザにとってより見やすい態様で閲覧できるようにする。これにより、閲覧者であるユーザは、再生制御のための煩雑な操作を行うことなく、容易に切開場面を閲覧することができる。また、画像データ内の自転車や人物といった、画像認識によって識別可能な汎用的な手がかりに基づいて単純に機械学習を繰り返すような場合よりも、所定の場面を検出するために適切な注視点等の特徴量に基づいて、より短期間な機械学習で所定の場面を検出することができる。
以上、本発明の実施形態について説明したが、この実施形態は例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明は、本発明の要旨を逸脱しない範囲で、その他の様々な実施形態を取ることが可能である共に、省略及び置換等種々の変形を行うことができる。この場合に、これら実施形態及びその変形は、本明細書等に記載された発明の範囲及び要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
一例として、以上説明した本発明の実施形態を、以下の変形例のようにして変形してもよい。
上述した実施形態では、手術における所定の場面(ここでは、切開場面)の特徴を適切に表していると考えられる3つの特徴量を用いて、学習モデルの構築及び所定の場面の検出を行っていた。これに限らず、検出しようとする所定の場面がどのような場面かに応じて、他の特徴量を追加して用いるようにしてもよいし、他の特徴量を代わりに用いるようにしてもよい。
他にも、例えば、作業が行われる場所の周辺環境や、患部の形状や色の変遷等を考慮するために、各画素が示す色情報や明度情報の変化から特徴量を抽出して、これを用いるようにしてもよい。
ユーザが、抽出した各特徴量に任意の拡大倍率の重み付けを行って、学習モデルの構築及び所定の場面の検出を行えるようにしてもよい。例えば、抽出した特徴量それそれに対応したスライダー等の、重み付けの程度を調整するユーザインタフェースを用意する。そして、このユーザインタフェースを利用したユーザの操作に応じて、何れの特徴量にどの程度の重み付けを行うのかを設定する。そして、各特徴量に、設定に応じた重み付けを行って、学習モデルの構築及び所定の場面の検出を行う。重み付けを行うことができる特徴量は、例えば、上述した3つの特徴量以外にも、検出した動作部位の存在の有無、検出した動作部位のサイズ、検出した各特徴量の画面中心からの距離、検出した動作部位と注視点の距離、等であってよい。
上述の実施形態では、ウェアラブルカメラ10により撮影処理を行い、動画データを生成することを想定していた。これに限らず、他の装置により撮影処理を行い、動画データを生成するようにしてもよい。例えば、内視鏡等の医療機器により撮影処理を行い、動画データを生成するようにしてもよい。すなわち、本実施形態での再生制御の対象とする動画データを、ウェアラブルカメラ10以外の装置による撮影で生成された動画データとしてもよい。他にも、例えば、ウェアラブルカメラ10(或いは、撮影処理を行う他の装置)と、再生制御装置20とを一体にして実現するようにしてもよい。
画像データ取得部211は、時間的に連続した複数の画像データを取得する。
領域検出部212は、複数の画像データそれぞれの画像内から所定の対象を含んだ対象領域を検出する。
特徴量抽出部214は、複数の画像データ間の画像の変化と、当該変化している領域が対象領域であるか否かと、に基づいて複数の画像データそれぞれから特徴量を抽出する。
場面検出部216は、特徴量を学習モデルに入力することにより、所定の場面に対応する画像データを検出する。
再生制御部217は、場面検出部216が検出した所定の場面に対応する画像データを示す情報に基づいて、複数の画像データの再生を制御する。
このように、再生制御装置20は、動画内の複数の画像データから抽出した特徴量と、学習モデルとに基づいて、所定の場面を検出すると共に、所定の場面であるか否かに基づいて、複数の画像データからなる動画の再生を制御することができる。
従って、再生制御装置20によれば、再生に関する制御によって、より適切にユーザの閲覧を支援することができる。
これにより、所定の場面を、他の場面よりも見やすい態様でユーザに閲覧させることができる。
これにより、所定の場面を、他の場面よりもじっくりとユーザに閲覧させることができる。
これにより、所定の場面を、他の場面よりも事細かにユーザに閲覧させることができる。
所定の対象は、協働作業を行う複数のユーザそれぞれの部位である。
複数の画像データは、協働作業を行う何れかのユーザの視野に相当する空間を撮影した画像データである。
これにより、閲覧の目的となる協働作業が行われている際の、作業者を行うユーザの視野に相当する画像を、画像を閲覧するユーザに閲覧させることができる。
注視点検出部213は、複数の画像データの撮影時に撮影対象を視認したユーザの注視点を検出する。
特徴量抽出部214は、複数の画像データ間の撮影対象を視認したユーザの注視点の変化に基づいて、複数の画像データそれぞれから特徴量をさらに抽出する。
これにより、ユーザの注視点の変化という指標も考慮して、精度高く所定の場面を検出することができる。
学習部215は、特徴量を含む入力データと、所定の場面に対応する画像データを示すラベルとの組を教師データとして機械学習を行うことにより、学習モデルを構築する
これにより、動画内の複数の画像データから抽出した特徴量に基づいて、所定の場面を検出するための学習モデルを構築することができる。
教師データには、所定の順番を示す情報も含まれる。
これにより、所定の順番を示す情報(例えば、手術の作業の順番を示す手術計画)に基づいた学習を行い、より精度高く所定の場面を検出することができる学習モデルを構築することができる。
上述した実施形態による一連の処理を実行させる機能は、ハードウェアにより実現することもできるし、ソフトウェアにより実現することもできるし、これらの組み合わせにより実現することもできる。換言すると、上述した一連の処理を実行する機能が、再生制御システムSの何れかにおいて実現されていれば足り、この機能をどのような態様で実現するのかについては、特に限定されない。
Claims (9)
- 時間的に連続した複数の画像データを取得する画像データ取得手段と、
前記複数の画像データそれぞれの画像内から所定の対象を含んだ対象領域を検出する領域検出手段と、
前記対象領域における前記所定の対象の動きに基づいた特徴量と、前記対象領域以外の領域である非対象領域における物体の動きに基づいた特徴量とを、前記複数の画像データそれぞれから抽出する特徴量抽出手段と、
前記特徴量を学習モデルに入力することにより、所定の場面に対応する画像データを検出する場面検出手段と、
前記場面検出手段が検出した前記所定の場面に対応する画像データを示す情報に基づいて、前記複数の画像データの再生を制御する再生制御手段と、
を備えることを特徴とする再生制御装置。 - 前記再生制御手段は、前記複数の画像データを連続的に再生する場合に、前記場面検出手段が検出した前記所定の場面に対応する画像データの再生の態様と、それ以外の画像データの再生の態様とを異ならせることを特徴とする請求項1に記載の再生制御装置。
- 前記再生制御手段は、前記複数の画像データを連続的に再生する場合に、前記場面検出手段が検出した前記所定の場面に対応する画像データの再生速度を、それ以外の画像データの再生速度よりも遅くすることを特徴とする請求項1又は2に記載の再生制御装置。
- 前記再生制御手段は、前記複数の画像データを連続的に再生する場合に、前記場面検出手段が検出した前記所定の場面に対応する画像データの一部の領域を拡大して再生することを特徴とする請求項1乃至3の何れか1項に記載の再生制御装置。
- 前記所定の場面は、連続的に再生される前記複数の画像データの閲覧の目的となる場面であって、複数のユーザによる協働作業が行われている場面であり、
前記所定の対象は、前記協働作業を行う複数のユーザそれぞれの部位であり、
前記複数の画像データは、前記協働作業を行う何れかのユーザの視野に相当する空間を撮影した画像データである、
ことを特徴とする請求項1乃至4の何れか1項に記載の再生制御装置。 - 前記複数の画像データの撮影時に撮影対象を視認したユーザの注視点を検出する注視点検出手段をさらに備え、
前記特徴量抽出手段は、前記複数の画像データ間の前記撮影対象を視認したユーザの注視点の変化に基づいて、前記複数の画像データそれぞれから特徴量をさらに抽出する、
ことを特徴とする請求項1乃至5の何れか1項に記載の再生制御装置。 - 前記特徴量を含む入力データと、前記所定の場面に対応する画像データを示すラベルとの組を教師データとして機械学習を行うことにより、前記学習モデルを構築する学習手段をさらに備えることを特徴とする請求項1乃至6の何れか1項に記載の再生制御装置。
- 前記所定の場面は、所定の順番で行われる複数の場面であり、
前記特徴量に、前記所定の順番を示す情報も含まれることを特徴とする請求項7に記載の再生制御装置。 - 時間的に連続した複数の画像データを取得する画像データ取得機能と、
前記複数の画像データそれぞれの画像内から所定の対象を含んだ対象領域を検出する領域検出機能と、
前記対象領域における前記所定の対象の動きに基づいた特徴量と、前記対象領域以外の領域である非対象領域における物体の動きに基づいた特徴量とを、前記複数の画像データそれぞれから抽出する特徴量抽出機能と、
前記特徴量を学習モデルに入力することにより、所定の場面に対応する画像データを検出する場面検出機能と、
前記場面検出機能が検出した前記所定の場面に対応する画像データを示す情報に基づいて、前記複数の画像データの再生を制御する再生制御機能と、
をコンピュータに実現させることを特徴とする再生制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019210882A JP7442300B2 (ja) | 2019-11-21 | 2019-11-21 | 再生制御装置及び再生制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019210882A JP7442300B2 (ja) | 2019-11-21 | 2019-11-21 | 再生制御装置及び再生制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021083015A JP2021083015A (ja) | 2021-05-27 |
JP7442300B2 true JP7442300B2 (ja) | 2024-03-04 |
Family
ID=75966099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019210882A Active JP7442300B2 (ja) | 2019-11-21 | 2019-11-21 | 再生制御装置及び再生制御プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7442300B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002042139A (ja) | 2000-07-25 | 2002-02-08 | Hitachi Ltd | 映像認識方法および映像表示装置 |
JP2011036372A (ja) | 2009-08-10 | 2011-02-24 | Tohoku Otas Kk | 医療画像記録装置 |
US20140012793A1 (en) | 2012-07-03 | 2014-01-09 | Korea Institute Of Science And Technology | System and method for predicting surgery progress stage |
KR101926123B1 (ko) | 2017-12-28 | 2018-12-06 | (주)휴톰 | 수술영상 분할방법 및 장치 |
US20190279765A1 (en) | 2018-03-06 | 2019-09-12 | Digital Surgery Limited | Methods and systems for using multiple data structures to process surgical data |
JP2019185726A (ja) | 2018-10-25 | 2019-10-24 | 株式会社ミルプラトー | 動画閲覧装置、動画閲覧装置の制御方法、およびプログラム |
-
2019
- 2019-11-21 JP JP2019210882A patent/JP7442300B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002042139A (ja) | 2000-07-25 | 2002-02-08 | Hitachi Ltd | 映像認識方法および映像表示装置 |
JP2011036372A (ja) | 2009-08-10 | 2011-02-24 | Tohoku Otas Kk | 医療画像記録装置 |
US20140012793A1 (en) | 2012-07-03 | 2014-01-09 | Korea Institute Of Science And Technology | System and method for predicting surgery progress stage |
KR101926123B1 (ko) | 2017-12-28 | 2018-12-06 | (주)휴톰 | 수술영상 분할방법 및 장치 |
US20190279765A1 (en) | 2018-03-06 | 2019-09-12 | Digital Surgery Limited | Methods and systems for using multiple data structures to process surgical data |
JP2019185726A (ja) | 2018-10-25 | 2019-10-24 | 株式会社ミルプラトー | 動画閲覧装置、動画閲覧装置の制御方法、およびプログラム |
Non-Patent Citations (2)
Title |
---|
小泉 敬寛 Takahiro KOIZUMI,個人視点映像からの隣接性を用いた物体探索 Object Retrieval in Personal Eye-View Video using Adjacency,電子情報通信学会技術研究報告 Vol.107 No.130 IEICE Technical Report,日本,社団法人電子情報通信学会 The Institute of Electronics,Information and Communication Engineers,2007年07月01日,第107巻 |
小泉 敬寛 Takahiro KOIZUMI,捜し物検索のための個人視点映像からの手掛かり発見 Video Processing and Retrieval for Finding Lost Item from Personal Eye-View Video,映像情報メディア学会技術報告 Vol.34 No.25 ITE Technical Report,日本,(社)映像情報メディア学会 The Institute of Image Information and Television Engineers,2010年06月01日,第34巻 |
Also Published As
Publication number | Publication date |
---|---|
JP2021083015A (ja) | 2021-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10650533B2 (en) | Apparatus and method for estimating eye gaze location | |
US9952667B2 (en) | Apparatus and method for calibration of gaze detection | |
CN110502099B (zh) | 可靠地检测注视与刺激之间的关联的方法 | |
US11775059B2 (en) | Method for determining human eye close degrees, method for controlling eyes, device, and storage medium | |
RU2708027C1 (ru) | Способ передачи движения субъекта из видео на анимированного персонажа | |
JP2020505686A (ja) | 手術室における予測ワークフローのための拡張現実 | |
JP2019012965A (ja) | 映像制御方法、映像制御装置、及び映像制御プログラム | |
KR102013708B1 (ko) | 자동 초점 설정 방법 및 이를 위한 장치 | |
JP2009231967A (ja) | 画像記録方法、画像記録装置、およびプログラム | |
CN112153468A (zh) | 视频回放与用户运动的同步方法、计算机可读介质和系统 | |
JP6165815B2 (ja) | 学習システム、学習方法、プログラム、記録媒体 | |
JP2019179080A (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20240303018A1 (en) | Head mounted processing apparatus | |
US11054903B2 (en) | Method, eyetracker and computer program for determining eye positions in digital image data | |
JP7442300B2 (ja) | 再生制御装置及び再生制御プログラム | |
US20230410499A1 (en) | Visibility metrics in multi-view medical activity recognition systems and methods | |
WO2019137186A1 (zh) | 一种食物识别方法及装置、存储介质、计算机设备 | |
WO2019044135A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP5249841B2 (ja) | ゲーム装置、ゲームシステム、ゲーム装置の制御方法、ならびに、プログラム | |
CN117597743A (zh) | 用于增强现实体验的虚拟指导健身例程 | |
JP2008186075A (ja) | インタラクティブ画像表示装置 | |
JP2010141911A (ja) | 画像記録方法、画像記録装置、およびプログラム | |
JP7134260B2 (ja) | 情報処理装置 | |
US20110102626A1 (en) | Image processing device, image processing method, and information storage medium | |
JP6842194B2 (ja) | 表示制御装置、表示制御方法及び表示制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7442300 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |