JP2019204503A - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP2019204503A JP2019204503A JP2019088251A JP2019088251A JP2019204503A JP 2019204503 A JP2019204503 A JP 2019204503A JP 2019088251 A JP2019088251 A JP 2019088251A JP 2019088251 A JP2019088251 A JP 2019088251A JP 2019204503 A JP2019204503 A JP 2019204503A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- sight
- line
- information processing
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 169
- 238000003672 processing method Methods 0.000 title claims abstract description 8
- 238000004458 analytical method Methods 0.000 claims abstract description 96
- 238000001514 detection method Methods 0.000 claims description 101
- 238000013507 mapping Methods 0.000 claims description 60
- 238000003384 imaging method Methods 0.000 claims description 42
- 238000006243 chemical reaction Methods 0.000 claims description 31
- 238000000605 extraction Methods 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 3
- 238000003780 insertion Methods 0.000 claims description 3
- 230000037431 insertion Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 57
- 238000010586 diagram Methods 0.000 description 37
- 238000000034 method Methods 0.000 description 18
- 238000004364 calculation method Methods 0.000 description 16
- 230000003287 optical effect Effects 0.000 description 16
- 210000001747 pupil Anatomy 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 210000004087 cornea Anatomy 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000003028 elevating effect Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 239000000523 sample Substances 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000001028 reflection method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Landscapes
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Microscoopes, Condenser (AREA)
- Endoscopes (AREA)
- Eye Examination Apparatus (AREA)
- Position Input By Displaying (AREA)
- Studio Devices (AREA)
Abstract
Description
〔情報処理システムの構成〕
図1は、実施の形態1に係る情報処理システムの機能構成を示すブロック図である。図1に示す情報処理システム1は、外部から入力される視線データ、音声データおよび画像データに対して各種の処理を行う情報処理装置10と、情報処理装置10から出力された各種データを表示する表示部20と、を備える。なお、情報処理装置10と表示部20は、無線または有線によって双方向に接続されている。
まず、情報処理装置10の構成について説明する。
図1に示す情報処理装置10は、例えばサーバやパーソナルコンピュータ等にインストールされたプログラムを用いて実現され、ネットワークを経由して各種データが入力される、または外部の装置で取得された各種データが入力される。図1に示すように、情報処理装置10は、解析部11と、設定部12と、生成部13と、記録部14と、表示制御部15と、を備える。
次に、表示部20の構成について説明する。
表示部20は、表示制御部15から入力された画像データに対応する画像や視線マッピングデータに対応する視線マッピング情報を表示する。表示部20は、例えば有機EL(Electro Luminescence)や液晶等の表示モニタを用いて構成される。
次に、情報処理装置10の処理について説明する。図2は、情報処理装置10が実行する処理について説明するフローチャートである。
ステップS103において、設定部12は、視線データと同期化された音声データに対して、所定の時間間隔毎に解析部11が解析した注視度に応じた重要度を音声データに割り当てる設定を行って記録部14に記録する。ステップS103の後、情報処理装置10は、後述するステップS104へ移行する。
ステップS104において、生成部13は、画像データに対応する画像上に解析部11が解析した注視度を関連付けた視線マッピングデータを生成する。
次に、本開示の実施の形態1の変形例について説明する。上述した実施の形態1では、設定部12が解析部11によって解析された注視度に応じた重要度を音声データに割り当てて記録部14へ記録していたが、実施の形態1の変形例では、設定部12が生成部13によって生成された視線マッピングデータに基づいて、所定の時間間隔毎に重要度を音声データに割り当てて記録部14へ記録する。以下においては、実施の形態1の変形例に係る情報処理システムの構成を説明後、実施の形態1の変形例に係る情報処理装置が実行する処理について説明する。なお、上述した実施の形態1に係る情報処理システム1と同一の構成には同一の符号を付して詳細な説明は省略する。
図7は、実施の形態1の変形例に係る情報処理システムの機能構成を示すブロック図である。図7に示す情報処理システム1aは、上述した実施の形態1に係る情報処理装置10に代えて、情報処理装置10aを備える。情報処理装置10aは、上述した実施の形態1に係る設定部12に代えて、設定部12aを備える。
次に、情報処理装置10aが実行する処理について説明する。図8は、情報処理装置10aが実行する処理の概要を示すフローチャートである。図8において、ステップS201およびステップS202は、上述した図2のステップS101およびステップS102それぞれに対応する。また、図8において、ステップS203は、上述した図2のステップS104に対応する。
次に、本開示の実施の形態2について説明する。実施の形態1では、外部から視線データおよび音声データの各々が入力されていたが、実施の形態2では、視線データおよび音声データを生成する。以下においては、実施の形態2に係る情報処理装置の構成を説明後、実施の形態2に係る情報処理装置が実行する処理について説明する。なお、上述した実施の形態1に係る情報処理システム1と同一の構成には同一の符号を付して詳細な説明は適宜省略する。
図9は、実施の形態2に係る情報処理装置の構成を示す概略図である。図10は、実施の形態2に係る情報処理装置の構成を示す概略図である。図11は、実施の形態2に係る情報処理装置の機能構成を示すブロック図である。
なお、音声の文字変換はこの時点で行わない構成も可能であり、その際には、音声情報のまま重要度を設定し、その後文字情報に変換するようにしても良い。
次に、情報処理装置1bが実行する処理について説明する。図12は、情報処理装置1bが実行する処理の概要を示すフローチャートである。
ステップS309において、操作部37によって複数の注視領域に対応するマークのいずれか一つが操作された場合(ステップS309:Yes)、制御部32は、操作に応じた動作処理を実行する(ステップS310)。具体的には、表示制御部323は、操作部37によって選択された注視領域に対応するマークを表示部20に強調表示させる(例えば図13を参照)。また、音声入力制御部322は、注視度の高い領域に関連付けられた音声データを音声入力部31に再生させる。ステップS310の後、情報処理装置1bは、後述するステップS311へ移行する。
次に、本開示の実施の形態3について説明する。上述した実施の形態2では、情報処理装置1bのみで構成されていたが、実施の形態3では、顕微鏡システムの一部に情報処理装置を組み込むことによって構成する。以下においては、実施の形態3に係る顕微鏡システムの構成を説明後、実施の形態3に係る顕微鏡システムが実行する処理について説明する。なお、上述した実施の形態2に係る情報処理装置1bと同一の構成には同一の符号を付して詳細な説明は適宜省略する。
図15は、実施の形態3に係る顕微鏡システムの構成を示す概略図である。図16は、実施の形態3に係る顕微鏡システムの機能構成を示すブロック図である。
まず、顕微鏡200の構成について説明する。
顕微鏡200は、本体部201と、回転部202と、昇降部203と、レボルバ204と、対物レンズ205と、倍率検出部206と、鏡筒部207と、接続部208と、接眼部209と、を備える。
次に、撮像部210の構成について説明する。
撮像部210は、接続部208が結像した標本SPの被写体像を受光することによって画像データを生成し、この画像データを情報処理装置1cへ出力する。撮像部210は、CMOSまたはCCD等のイメージセンサおよび画像データに対して各種の画像処理を施す画像処理エンジン等を用いて構成される。
次に、視線検出部220の構成について説明する。
視線検出部220は、接眼部209の内部または外部に設けられ、利用者U2の視線を検出することによって視線データを生成し、この視線データを情報処理装置1cへ出力する。視線検出部220は、接眼部209の内部に設けられ、近赤外線を照射するLED光源と、接眼部209の内部に設けられ、角膜上の瞳孔点と反射点を撮像する光学センサ(例えばCMOS、CCD)と、を用いて構成される。視線検出部220は、情報処理装置1cの制御のもと、LED光源等から近赤外線を利用者U2の角膜に照射し、光学センサが利用者U2の角膜上の瞳孔点と反射点を撮像することによって生成する。そして、視線検出部222は、情報処理装置1cの制御のもと、光学センサによって生成されたデータに対して画像処理等によって解析した解析結果に基づいて、利用者U2の瞳孔点と反射点のパターンから利用者の視線を検出することによって視線データを生成し、この視線データを情報処理装置1cへ出力する。
次に、情報処理装置1cの構成について説明する。
情報処理装置1cは、上述した実施の形態2に係る情報処理装置1bの制御部32、記録部34および設定部38に換えて、制御部32c、記録部34c、設定部38cと、を備える。
次に、顕微鏡システム100が実行する処理について説明する。図17は、顕微鏡システム100が実行する処理の概要を示すフローチャートである。
次に、本開示の実施の形態4について説明する。実施の形態4では、内視鏡システムの一部に情報処理装置を組み込むことによって構成する。以下においては、実施の形態4に係る内視鏡システムの構成を説明後、実施の形態4に係る内視鏡システムが実行する処理について説明する。なお、上述した実施の形態2に係る情報処理装置1bと同一の構成には同一の符号を付して詳細な説明は適宜省略する。
図18は、実施の形態4に係る内視鏡システムの構成を示す概略図である。図19は、実施の形態4に係る内視鏡システムの機能構成を示すブロック図である。
まず、内視鏡400の構成について説明する。
内視鏡400は、医者や術者等の利用者U3が被検体U4に挿入することによって、被検体U4の内部を撮像することによって画像データを生成し、この画像データを情報処理装置1dへ出力する。内視鏡400は、撮像部401と、操作部402と、を備える。
次に、ウェアラブルデバイス500の構成について説明する。
ウェアラブルデバイス500は、利用者U3に装着され、利用者U3の視線を検出するとともに、利用者U3の音声の入力を受け付ける。ウェアラブルデバイス500は、視線検出部510と、音声入力部520と、を有する。
入力部600の構成について説明する。
入力部600は、マウス、キーボード、タッチパネルおよび各種のスイッチを用いて構成される。入力部600は、利用者U3の各種の操作の入力を受け付け、受け付けた各種操作に応じた操作信号を情報処理装置1dへ出力する。
次に、情報処理装置1dの構成について説明する。
情報処理装置1dは、上述した実施の形態3に係る情報処理装置1cの制御部32c、記録部34c、設定部38c、生成部39に換えて、制御部32d、記録部34d、設定部38dおよび生成部39dを備える。さらに、情報処理装置1dは、画像処理部40をさらに備える。
次に、内視鏡システム300が実行する処理について説明する。図20は、内視鏡システム300が実行する処理の概要を示すフローチャートである。
次に、本開示の実施の形態5について説明する。上述した実施の形態1〜4は、利用者が一人の場合を想定していたが、実施の形態5では、2人以上の利用者を想定する。さらに、実施の形態5では、複数の利用者で画像を閲覧する情報処理システムに情報処理装置を組み込むことによって構成する。以下においては、実施の形態5に係る閲覧システムの構成を説明後、実施の形態5に係る情報処理システムが実行する処理について説明する。なお、上述した実施の形態2に係る情報処理装置1bと同一の構成には同一の符号を付して詳細な説明は適宜省略する。
図23は、実施の形態5に係る情報処理システムの機能構成を示すブロック図である。図23に示す情報処理システム700は、表示部20と、第1ウェアラブルデバイス710と、第2ウェアラブルデバイス720と、検出部730と、情報処理装置1eと、を備える。
まず、第1ウェアラブルデバイス710の構成について説明する。
第1ウェアラブルデバイス710は、利用者に装着され、利用者の視線を検出するとともに、利用者の音声の入力を受け付ける。第1ウェアラブルデバイス710は、第1視線検出部711と、第1音声入力部712と、を有する。第1視線検出部711および第1音声入力部712は、上述した実施の形態4に係る視線検出部510および音声入力部520と同様の構成を有するため、詳細な構成は省略する。
次に、第2ウェアラブルデバイス720の構成について説明する。
第2ウェアラブルデバイス720は、上述した第1ウェアラブルデバイス710と同様の構成を有し、利用者に装着され、利用者の視線を検出するとともに、利用者の音声の入力を受け付ける。第2ウェアラブルデバイス720は、第2視線検出部721と、第2音声入力部722と、を有する。第2視線検出部721および第2音声入力部722は、上述した実施の形態4に係る視線検出部510および音声入力部520と同様の構成を有するため、詳細な構成は省略する。
次に、検出部730の構成について説明する。
検出部730は、複数の利用者の各々を識別する識別情報を検出し、この検出結果を情報処理装置1eへ出力する。検出部730は、複数の利用者の各々を識別する識別情報(例えばIDや名前等)を記録するICカードから利用者の識別情報を検出し、この検出結果を情報処理装置1eへ出力する。検出部730は、例えば、ICカードを読み取るカードリーダ等を用いて構成される。なお、検出部730は、複数の利用者の顔を撮像することによって生成した画像データに対応する画像に対して、予め設定された利用者の顔の特徴点および周知のパターンマッチングを用いて利用者を識別し、この識別結果を情報処理装置1eへ出力するようにしてもよい。もちろん、検出部730は、操作部37からの操作に応じて入力された信号に基づいて、利用者を識別し、この識別結果を情報処理装置1eへ出力するようにしてもよい。
次に、情報処理装置1eの構成について説明する。
情報処理装置1eは、上述した実施の形態4に係る情報処理装置1dの制御部32d、記録部34dおよび設定部38dに換えて、制御部32e、記録部34eおよび設定部38eを備える。
次に、情報処理システム700が実行する処理について説明する。図24は、情報処理システム700が実行する処理の概要を示すフローチャートである。
上述した実施の形態1〜5に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上述した実施の形態1〜5に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、上述した実施の形態1〜5で説明した構成要素を適宜組み合わせてもよい。
10,10a,1b,1b,1c,1d,1e 情報処理装置
11 解析部
12,12a,38,38c,38d,38e 設定部
13,39,39d 生成部
14,34,34c,34d,34e 記録部
15,323 表示制御部
20 表示部
30,222,510 視線検出部
31,520 音声入力部
32,32c,32d,32e 制御部
33 時間計測部
35 変換部
36 抽出部
37 操作部
40 画像処理部
100 顕微鏡システム
200 顕微鏡
201 本体部
202 回転部
203 昇降部
204 レボルバ
205 対物レンズ
206 倍率検出部
207 鏡筒部
208 接続部
209 接眼部
210,401 撮像部
300 内視鏡システム
321 視線検出制御部
322 音声入力制御部
324 撮影制御部
325 倍率算出部
326 操作履歴検出部
327 識別検出制御部
341 視線データ記録部
342 音声データ記録部
343,345 画像データ記録部
344 プログラム記録部
345 画像データ記録部
346 操作履歴記録部
347 識別情報記録部
400 内視鏡
402 操作部
500 ウェアラブルデバイス
600 入力部
710 第1ウェアラブルデバイス
711 第1視線検出部
712 第1音声入力部
720 第2ウェアラブルデバイス
721 第2視線検出部
722 第2音声入力部
730 検出部
Claims (18)
- 外部から入力される利用者の視線を検出した視線データに基づいて、前記利用者の視線の注視度を解析する解析部と、
外部から入力される前記利用者の音声データであって、前記視線データと同じ時間軸が対応付けられた音声データに対して、前記解析部が解析した前記注視度に応じた重要度を割り当てて記録部へ記録する設定部と、
を備える情報処理装置。 - 前記設定部は、
前記解析部によって前記注視度が高いと解析された期間の時刻において前記利用者が発話した前記音声データの期間を重要期間と割り当てて前記記録部に記録する
請求項1に記載の情報処理装置。 - 前記設定部は、
前記注視度が高いほど前記音声データに対して前記重要度を高く割り当てて前記記録部へ記録する
請求項1または2に記載の情報処理装置。 - 前記設定部は、
前記解析部によって前記注視度が高いと解析された期間の時刻において前記利用者が発話した場合、該期間の時刻において前記利用者が発話した前記音声データに前記重要度を割り当てて前記記録部へ記録する
請求項1に記載の情報処理装置。 - 前記解析部は、
前記視線の移動速度、一定の時間内における前記視線の移動距離、一定領域内における前記視線の滞留時間のいずれか1つを検出することによって、前記注視度を解析する
請求項1〜4のいずれか一つに記載の情報処理装置。 - 外部から入力される画像データに対応する画像上に前記解析部が解析した前記注視度および該注視度の座標情報を関連付けた視線マッピングデータを生成する生成部をさらに備える
請求項1〜5のいずれか一つに記載の情報処理装置。 - 前記解析部は、前記視線データに基づいて、前記利用者の視線の軌跡をさらに解析し、
前記生成部は、前記解析部が解析した前記軌跡を前記画像上にさらに関連付けて前記視線マッピングデータを生成する
請求項6に記載の情報処理装置。 - 前記音声データを文字情報に変換する変換部をさらに備え、
前記生成部は、前記座標情報に前記文字情報をさらに関連付けて前記視線マッピングデータを生成する
請求項6または7に記載の情報処理装置。 - 外部から入力された操作信号に応じて指定されたキーワードを前記変換部によって変換された前記文字情報から抽出する抽出部と、
前記視線マッピングデータに対応する視線マッピング画像を表示部に表示させる表示制御部と、
をさらに備え、
前記表示制御部は、前記抽出部によって抽出された前記文字情報に関連付けられた前記注視度を前記表示部に強調表示させ、かつ、前記文字情報を前記表示部に表示させる
請求項8に記載の情報処理装置。 - 前記利用者の視線を連続的に検出することによって前記視線データを生成する視線検出部と、
前記利用者の音声の入力を受け付けて前記音声データを生成する音声入力部と、
をさらに備える
請求項1〜9のいずれか一つに記載の情報処理装置。 - 複数の利用者の各々を識別する識別情報を検出する検出部をさらに備え、
前記解析部は、前記複数の利用者の各々の視線を検出した複数の前記視線データに基づいて、前記複数の利用者の各々の前記注視度を解析し、
前記設定部は、前記検出部が検出した前記識別情報に基づいて、前記複数の利用者の各々の前記音声データに所定の時間間隔で割り当てる前記重要度を変更する
請求項1〜10のいずれか一つに記載の情報処理装置。 - 標本を観察する観察倍率を変更可能であり、前記利用者が前記標本の観察像を観察可能な接眼部を有する顕微鏡と、
前記顕微鏡に接続され、前記顕微鏡が結像した前記標本の観察像を撮像することによって画像データを生成する撮像部をさらに備え、
前記視線検出部は、前記顕微鏡の接眼部に設けられ、
前記設定部は、前記観察倍率に応じて前記重要度の重み付けを行う
請求項10に記載の情報処理装置。 - 被検体に挿入可能な挿入部の先端部に設けられ、被検体内の体内を撮像することによって画像データを生成する撮像部と、視野を変更するための各種の操作の入力を受け付ける操作部と、を有する内視鏡と、
をさらに備える
請求項1〜11のいずれか一つに記載の情報処理装置。 - 前記設定部は、前記操作部が受け付けた操作履歴に関する操作履歴に基づいて前記重要度の重み付けを行う
請求項13に記載の情報処理装置。 - 前記設定部は、前記解析部が解析した前記注視度が高いと判別した期間を基準にして算出した期間の前記音声データに対して、前記重要度を割り当てる
請求項1に記載の情報処理装置。 - 前記情報処理装置は、前記音声データに対して発話された発話期間を特定する発話検出部をさらに備え、
前記設定部は、前記解析部が解析した前記注視度が高いと判別した期間を基準にして、最も時間相関が高い発話期間に対して、重要度を割り当てる期間を設定することを特徴とする
請求項1に記載の情報処理装置。 - 情報処理装置が実行する情報処理方法であって、
外部から入力される利用者の視線を検出した視線データに基づいて、前記利用者の視線の注視度を解析する解析ステップと、
外部から入力される前記利用者の音声データであって、前記視線データと同じ時間軸が対応付けられた音声データに対して、前記解析ステップで解析した前記注視度に応じた重要度を割り当てて記録部へ記録する設定ステップと、
を含むことを特徴とする情報処理方法。 - 情報処理装置に、
外部から入力される利用者の視線を検出した視線データに基づいて、前記利用者の視線の注視度を解析する解析ステップと、
外部から入力される前記利用者の音声データであって、前記視線データと同じ時間軸が対応付けられた音声データに対して、前記解析ステップで解析した前記注視度に応じた重要度を割り当てて記録部へ記録する設定ステップと、
を実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/412,513 US10754425B2 (en) | 2018-05-17 | 2019-05-15 | Information processing apparatus, information processing method, and non-transitory computer readable recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018095519 | 2018-05-17 | ||
JP2018095519 | 2018-05-17 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019204503A true JP2019204503A (ja) | 2019-11-28 |
Family
ID=68727121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019088251A Pending JP2019204503A (ja) | 2018-05-17 | 2019-05-08 | 情報処理装置、情報処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019204503A (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009123229A (ja) * | 2008-12-25 | 2009-06-04 | Japan Research Institute Ltd | 情報管理装置、情報管理システム、及びプログラム |
JP2015118448A (ja) * | 2013-12-17 | 2015-06-25 | 株式会社東芝 | 医用情報処理システム及び情報処理システム |
WO2016051519A1 (ja) * | 2014-09-30 | 2016-04-07 | 三菱電機株式会社 | 音声認識システム |
US20180031817A1 (en) * | 2016-08-01 | 2018-02-01 | Verily Life Sciences Llc | Pathology data capture |
US20180268737A1 (en) * | 2017-03-15 | 2018-09-20 | International Business Machines Corporation | System and method to teach and evaluate image grading performance using prior learned expert knowledge base |
-
2019
- 2019-05-08 JP JP2019088251A patent/JP2019204503A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009123229A (ja) * | 2008-12-25 | 2009-06-04 | Japan Research Institute Ltd | 情報管理装置、情報管理システム、及びプログラム |
JP2015118448A (ja) * | 2013-12-17 | 2015-06-25 | 株式会社東芝 | 医用情報処理システム及び情報処理システム |
WO2016051519A1 (ja) * | 2014-09-30 | 2016-04-07 | 三菱電機株式会社 | 音声認識システム |
US20180031817A1 (en) * | 2016-08-01 | 2018-02-01 | Verily Life Sciences Llc | Pathology data capture |
JP2019530048A (ja) * | 2016-08-01 | 2019-10-17 | ヴェリリー ライフ サイエンシズ エルエルシー | 病理データ捕捉 |
US20180268737A1 (en) * | 2017-03-15 | 2018-09-20 | International Business Machines Corporation | System and method to teach and evaluate image grading performance using prior learned expert knowledge base |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7064952B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP7171985B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP5317415B2 (ja) | 画像出力装置、画像出力方法、および画像出力プログラム | |
JP6366862B2 (ja) | 作業支援装置、作業学習装置及び作業支援システム | |
JP4869978B2 (ja) | 画像記録装置、画像記録方法、および画像記録プログラム | |
EP3491558A1 (en) | Pathology data capture | |
KR20170120523A (ko) | 표시 장치와 이를 이용한 입력 처리 방법 및 시스템 | |
US10754425B2 (en) | Information processing apparatus, information processing method, and non-transitory computer readable recording medium | |
JP5044237B2 (ja) | 画像記録装置、画像記録方法、および画像記録プログラム | |
US10275021B2 (en) | Display apparatus of front-of-the-eye mounted type | |
US20210196174A1 (en) | Apparatus, method and program for determining a cognitive state of a user of a mobile device | |
CN101453938B (zh) | 图像记录装置 | |
US20140132511A1 (en) | Control apparatus based on eyes and method for controlling device thereof | |
JP2007289657A (ja) | 画像記録装置、画像記録方法、および画像記録プログラム | |
JP2019202131A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2019204503A (ja) | 情報処理装置、情報処理方法およびプログラム | |
US10971174B2 (en) | Information processing apparatus, information processing method, and non-transitory computer readable recording medium | |
WO2022070423A1 (ja) | 情報処理装置、情報処理装置の作動方法、及びプログラム | |
WO2022044095A1 (ja) | 情報処理装置、学習装置、及び学習済みモデル | |
EP4101367A1 (en) | Method and device for determining a visual performance | |
WO2021144970A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
WO2023042343A1 (ja) | 手指の動きを計測処理する計測処理端末、方法およびコンピュータプログラム | |
KR101499044B1 (ko) | 사용자의 손동작 및 음성에 기초하여 사용자가 의도한 텍스트를 취득하는 웨어러블 컴퓨터 및 사용자가 의도한 텍스트를 취득하는 방법 | |
JP2005267380A (ja) | 表示文字翻訳装置及びコンピュータプログラム | |
KR20160095430A (ko) | 아이 트래킹 센서를 이용한 독해 지원 장치 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220405 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20221004 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230307 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230905 |