JP2019204503A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2019204503A
JP2019204503A JP2019088251A JP2019088251A JP2019204503A JP 2019204503 A JP2019204503 A JP 2019204503A JP 2019088251 A JP2019088251 A JP 2019088251A JP 2019088251 A JP2019088251 A JP 2019088251A JP 2019204503 A JP2019204503 A JP 2019204503A
Authority
JP
Japan
Prior art keywords
unit
sight
line
information processing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019088251A
Other languages
English (en)
Inventor
堀内 一仁
Kazuhito Horiuchi
一仁 堀内
渡辺 伸之
Nobuyuki Watanabe
伸之 渡辺
金子 善興
Yoshioki Kaneko
善興 金子
英敏 西村
Hidetoshi Nishimura
英敏 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to US16/412,513 priority Critical patent/US10754425B2/en
Publication of JP2019204503A publication Critical patent/JP2019204503A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Microscoopes, Condenser (AREA)
  • Endoscopes (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)

Abstract

【課題】音声データのどの期間が重要であるか否かを把握することができる情報処理装置、情報処理方法およびプログラムを提供する。【解決手段】情報処理装置10は、外部から入力される利用者の視線を検出した視線データに基づいて、利用者の視線の注視度を解析する解析部11と、外部から入力される利用者の音声データであって、視線データと同じ時間軸が対応付けられた音声データに対して、解析部11が解析した注視度に応じた重要度を所定の時間間隔で割り当てて記録部14へ記録する設定部12と、を備える。【選択図】図1

Description

本発明は、音声データと視線データとを処理する情報処理装置、情報処理方法およびプログラムに関する。
近年、画像データ等の情報を処理する情報処理装置において、利用者の音声を検出したときから、所定の時間遡った期間において、表示部が表示する画像上における複数の表示領域に対して、利用者の視線が最も長く停留した画像の表示領域を注目情報として検出するとともに、この注目情報と音声とを対応付けて記録する技術が知られている(特許文献1参照)。
また、注視注釈システムにおいて、コンピューティングデバイスの表示デバイスが表示する画像に対して、注視追跡デバイスによって検出された利用者が注視する注視点の近くに注釈アンカーを表示するとともに、この注釈アンカーに音声によって情報を入力する技術が知られている(特許文献2参照)。
特許第4282343号公報 特開2016−181245号公報
しかしながら、上述した特許文献1,2では、利用者の視線を音声入力によって行うためのキューとして利用しているにすぎないため、音声データの重要度について何ら考慮されておらず、音声データのどの期間が重要であるか否かを把握することができないという問題点があった。
本開示は、上記に鑑みてなされたものであって、音声データの重要な期間を把握することができる情報処理装置、情報処理方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本開示に係る情報処理装置は、外部から入力される利用者の視線を検出した視線データに基づいて、前記利用者の視線の注視度を解析する解析部と、外部から入力される前記利用者の音声データであって、前記視線データと同じ時間軸が対応付けられた音声データに対して、前記解析部が解析した前記注視度に応じた重要度を割り当てて記録部へ記録する設定部と、を備える。
また、本開示に係る情報処理装置は、上記開示において、前記設定部は、前記解析部によって前記注視度が高いと解析された期間の時刻において前記利用者が発話した前記音声データの期間を重要期間と割り当てて前記記録部に記録する。
また、本開示に係る情報処理装置は、上記開示において、前記設定部は、前記注視度が高いほど前記音声データに対して前記重要度を高く割り当てて前記記録部へ記録する。
また、本開示に係る情報処理装置は、上記開示において、前記設定部は、前記解析部によって前記注視度が高いと解析された期間の時刻において前記利用者が発話した場合、該期間の時刻において前記利用者が発話した前記音声データに前記重要度を割り当てて前記記録部へ記録する。
また、本開示に係る情報処理装置は、上記開示において、前記解析部は、前記視線の移動速度、一定の時間内における前記視線の移動距離、一定領域内における前記視線の滞留時間のいずれか1つを検出することによって、前記注視度を解析する。
また、本開示に係る情報処理装置は、上記開示において、外部から入力される画像データに対応する画像上に前記解析部が解析した前記注視度および該注視度の座標情報を関連付けた視線マッピングデータを生成する生成部をさらに備える。
また、本開示に係る情報処理装置は、上記開示において、前記解析部は、前記視線データに基づいて、前記利用者の視線の軌跡をさらに解析し、前記生成部は、前記解析部が解析した前記軌跡を前記画像上にさらに関連付けて前記視線マッピングデータを生成する。
また、本開示に係る情報処理装置は、上記開示において、前記音声データを文字情報に変換する変換部をさらに備え、前記生成部は、前記座標情報に前記文字情報をさらに関連付けて前記視線マッピングデータを生成する。
また、本開示に係る情報処理装置は、上記開示において、外部から入力された操作信号に応じて指定されたキーワードを前記変換部によって変換された前記文字情報から抽出する抽出部と、前記視線マッピングデータに対応する視線マッピング画像を表示部に表示させる表示制御部と、をさらに備え、前記表示制御部は、前記抽出部によって抽出された前記文字情報に関連付けられた前記注視度を前記表示部に強調表示させ、かつ、前記文字情報を前記表示部に表示させる。
また、本開示に係る情報処理装置は、上記開示において、前記利用者の視線を連続的に検出することによって前記視線データを生成する視線検出部と、前記利用者の音声の入力を受け付けて前記音声データを生成する音声入力部と、をさらに備える。
また、本開示に係る情報処理装置は、上記開示において、複数の利用者の各々を識別する識別情報を検出する検出部をさらに備え、前記解析部は、前記複数の利用者の各々の視線を検出した複数の前記視線データに基づいて、前記複数の利用者の各々の前記注視度を解析し、前記設定部は、前記検出部が検出した前記識別情報に基づいて、前記複数の利用者の各々の前記音声データに所定の時間間隔で割り当てる前記重要度を変更する。
また、本開示に係る情報処理装置は、上記開示において、標本を観察する観察倍率を変更可能であり、前記利用者が前記標本の観察像を観察可能な接眼部を有する顕微鏡と、前記顕微鏡に接続され、前記顕微鏡が結像した前記標本の観察像を撮像することによって画像データを生成する撮像部とをさらに備え、前記視線検出部は、前記顕微鏡の接眼部に設けられ、前記設定部は、前記観察倍率に応じて前記重要度の重み付けを行う。
また、本開示に係る情報処理装置は、上記開示において、被検体に挿入可能な挿入部の先端部に設けられ、被検体内の体内を撮像することによって画像データを生成する撮像部と、視野を変更するための各種の操作の入力を受け付ける操作部と、を有する内視鏡と、をさらに備える。
また、本開示に係る情報処理装置は、上記開示において、前記設定部は、前記操作部が受け付けた操作履歴に関する操作履歴に基づいて前記重要度の重み付けを行う。
また、本開示に係る情報処理装置は、上記開示において、前記設定部は、前記解析部が解析した前記注視度が高いと判別した期間を基準にして算出した期間の前記音声データに対して、重要度を割り当てる。
また、本開示に係る情報処理装置は、上記開示において、前記情報処理装置は、さらに、前記音声データに対して発話された発話期間を特定する発話検出部を有し、前記設定部は、前記解析部が解析した前記注視度が高いと判別した期間を基準にして、最も時間相関が高い発話期間に対して、重要度を割り当てる期間を設定することを特徴とする。
また、本開示に係る情報処理方法は、情報処理装置が実行する情報処理方法であって、外部から入力される利用者の視線を検出した視線データに基づいて、前記利用者の視線の注視度を解析する解析ステップと、外部から入力される前記利用者の音声データであって、前記視線データと同じ時間軸が対応付けられた音声データに対して、前記解析ステップで解析した前記注視度に応じた重要度を割り当てて記録部へ記録する設定ステップと、を含む。
また、本開示に係るプログラムは、情報処理装置に、情報処理装置に、外部から入力される利用者の視線を検出した視線データに基づいて、前記利用者の視線の注視度を解析する解析ステップと、外部から入力される前記利用者の音声データであって、前記視線データと同じ時間軸が対応付けられた音声データに対して、前記解析ステップで解析した前記注視度に応じた重要度を割り当てて記録部へ記録する設定ステップと、を実行させる。
本開示によれば、視線の動態に基づき、同時的に記録した音声データの重要な期間を把握することができるという効果を奏する。
図1は、実施の形態1に係る情報処理システムの機能構成を示すブロック図である。 図2は、実施の形態1に係る情報処理装置が実行する処理について説明するフローチャートである。 図3は、実施の形態1に係る解析部による視線の注視度の解析方法を模式的に説明する図である。 図4Aは、実施の形態1に係る設定部による音声データへの重要度の割り当ての設定方法を模式的に説明する図である。 図4Bは、実施の形態1に係る設定部による音声データへの重要度の割り当ての別の設定方法を模式的に説明する図である。 図5は、実施の形態1に係る表示部が表示する画像の一例を模式的に示す図である。 図6は、実施の形態1に係る表示部が表示する画像の別の一例を模式的に示す図である。 図7は、実施の形態1の変形例に係る情報処理システムの機能構成を示すブロック図である。 図8は、実施の形態1の変形例に係る情報処理装置が実行する処理の概要を示すフローチャートである。 図9は、実施の形態2に係る情報処理装置の構成を示す概略図である。 図10は、実施の形態2に係る情報処理装置の構成を示す概略図である。 図11は、実施の形態2に係る情報処理装置の機能構成を示すブロック図である。 図12は、情報処理装置が実行する処理の概要を示すフローチャートである。 図13は、実施の形態2に係る表示部が表示する視線マッピング画像の一例を示す図である。 図14は、実施の形態2に係る表示部が表示する視線マッピング画像の別の一例を示す図である。 図15は、実施の形態3に係る顕微鏡システムの構成を示す概略図である。 図16は、実施の形態3に係る顕微鏡システムの機能構成を示すブロック図である。 図17は、実施の形態3に係る顕微鏡システムが実行する処理の概要を示すフローチャートである。 図18は、実施の形態4に係る内視鏡システムの構成を示す概略図である。 図19は、実施の形態4に係る内視鏡システムの機能構成を示すブロック図である。 図20は、実施の形態4に係る内視鏡システムが実行する処理の概要を示すフローチャートである。 図21は、実施の形態4に係る画像データ記録部が記録する複数の画像データに対応する複数の画像の一例を模式的に示す図である。 図22は、実施の形態4に係る画像処理部が生成する統合画像データに対応する統合画像の一例を示す図である。 図23は、実施の形態5に係る情報処理システムの機能構成を示すブロック図である。 図24は、実施の形態5に係る情報処理システムが実行する処理の概要を示すフローチャートである。
以下、本開示を実施するための形態を図面とともに詳細に説明する。なお、以下の実施の形態により本開示が限定されるものではない。また、以下の説明において参照する各図は、本開示の内容を理解でき得る程度に形状、大きさ、および位置関係を概略的に示してあるに過ぎない。即ち、本開示は、各図で例示された形状、大きさおよび位置関係のみに限定されるものでない。
(実施の形態1)
〔情報処理システムの構成〕
図1は、実施の形態1に係る情報処理システムの機能構成を示すブロック図である。図1に示す情報処理システム1は、外部から入力される視線データ、音声データおよび画像データに対して各種の処理を行う情報処理装置10と、情報処理装置10から出力された各種データを表示する表示部20と、を備える。なお、情報処理装置10と表示部20は、無線または有線によって双方向に接続されている。
〔情報処理装置の構成〕
まず、情報処理装置10の構成について説明する。
図1に示す情報処理装置10は、例えばサーバやパーソナルコンピュータ等にインストールされたプログラムを用いて実現され、ネットワークを経由して各種データが入力される、または外部の装置で取得された各種データが入力される。図1に示すように、情報処理装置10は、解析部11と、設定部12と、生成部13と、記録部14と、表示制御部15と、を備える。
解析部11は、外部から入力される利用者の視線を検出した所定時間の視線データに基づいて、利用者の視線の注視度を解析する。ここで、視線データとは、角膜反射法に基づくものである。具体的には、視線データは、図示しない視線検出部(アイトラッキング)に設けられたLED光源等から近赤外線が利用者の角膜赤に照射された際に、視線検出部である光学センサが角膜上の瞳孔点と反射点を撮像することによって生成されたデータである。そして、視線データは、光学センサが角膜上の瞳孔点と反射点を撮像することによって生成されたデータに対して画像処理等を行うことによって解析した解析結果に基づく利用者の瞳孔点と反射点のパターンから利用者の視線を算出したものである。
また、図示していないが、視線検出部を備える装置が視線データを計測する際には、対応する画像データを使用者(利用者)に提示したうえで、視線データを計測している。この場合、図示しない視線検出部を備える装置は、使用者に表示している画像が固定している場合、すなわち表示領域の時間とともに絶対座標が変化しないとき、視線に計測領域と画像の絶対座標の相対的に位置関係を固定値として与えていれば良い。ここで、絶対座標とは、画像の所定の1点を基準に表記している座標を指している。
利用形態が内視鏡システムや光学顕微鏡を用いる場合には、解析部11は、視線を検出するために提示している視野が画像データの視野となるため、画像の絶対座標に対する観察視野の相対的な位置関係が変わらない。また、利用形態が内視鏡システムや光学顕微鏡を用いる場合において、動画として記録しているとき、解析部11は、視野のマッピングデータを生成するために、視線検出データと、視線の検出と同時に記録された画像または提示された画像を用いる。
一方で、利用形態がWSI(Whole Slide Imaging)では、顕微鏡のスライドサンプルの一部を視野として使用者が観察しており、時刻とともに観察視野が変化する。この場合、解析部11は、全体の画像データのどの部分が視野として提示されているか、すなわち全体の画像データに対する表示領域の絶対座標の切り替えの時間情報も、視線・音声の情報と同じく同期化して記録していること等が考えられる。
解析部11は、外部から入力される利用者の視線を検出した所定時間の視線データに基づいて、視線の移動速度、一定の時間内における視線の移動距離、一定領域内における視線の滞留時間のいずれか1つを検出することによって、視線(注視点)の注視度を解析する。なお、図示しない視線検出部は、所定の場所に載置されることによって利用者を撮像することによって視線を検出するものであってもよいし、利用者が装着することによって利用者を撮像することによって視線を検出するものであってもよい。また、視線データは、これ以外にも、周知のパターンマッチングによって生成されたものであってもよい。解析部11は、例えばCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)およびGPU(Graphics Processing Unit)等を用いて構成される。
設定部12は、外部から入力される利用者の音声データであって、視線データと同じ時間軸が対応付けられた音声データに対して、所定の時間間隔毎に解析部11が解析した注視度に応じた重要度を音声データに割り当てて記録部14へ記録する。具体的には、設定部12は、音声データのフレーム毎に、このフレームの同じタイミングで解析部11が解析した注視度に応じた重要度(例えば数値)を割り当てて記録部14へ記録する。また、外部から入力される利用者の音声データは、視線データと同じタイミングで図示しないマイク等の音声入力部によって生成されたものである。設定部12は、CPU、FPGAおよびGPU等を用いて構成される。
生成部13は、外部から入力される画像データに対応する画像上に解析部11が解析した注視度を関連付けた視線マッピングデータを生成し、この生成した視線マッピングデータを記録部14および表示制御部15へ出力する。具体的には、生成部13は、外部から入力される画像データに対応する画像上の所定領域毎に、解析部11が解析した注視度を画像上の座標情報に関連付けた視線マッピングデータを生成する。さらに、生成部13は、注視度に加えて、外部から入力される画像データに対応する画像上に解析部11が解析した利用者の視線の軌跡を関連付けて視線マッピングデータを生成する。生成部13は、CPU、FPGAおよびGPU等を用いて構成される。そして、生成部13は、上述のWSIで使用する場合、上述の様に視線マッピングデータを画像の絶対座標として得るとき、視線を計測した際の表示と画像の絶対座標の相対的位置関係を使用することによって視線マッピングデータを生成する。また、上述の様に、生成部13は、観察視野が時々刻々と変化する場合には、表示領域=視野の絶対座標(例えば表示画像の左上が元の画像データに絶対座標でどこに位置するか)の経時変化を入力することによって視線マッピングデータを生成する。
記録部14は、設定部12から入力された音声データと、所定の時間間隔毎に割り当たれた重要度と、解析部11が解析した注視度と、を対応付けて記録する。また、記録部14は、生成部13から入力された視線マッピングデータを記録する。また、記録部14は、情報処理装置10が実行する各種プログラムおよび処理中のデータを記録する。記録部14は、揮発性メモリ、不揮発性メモリおよび記録媒体等を用いて構成される。
表示制御部15は、外部から入力される画像データに対応する画像上に、生成部13が生成した視線マッピングデータを重畳して外部の表示部20に出力することによって表示させる。表示制御部15は、CPU、FPGAおよびGPU等を用いて構成される。なお、上述した解析部11、設定部12、視線マッピングおよび表示制御部15をCPU、FPGAおよびGPUのいずれか1つを用いて各機能が発揮できるように構成してもよいし、もちろん、CPU、FPGAおよびGPUを組み合わせて各機能が発揮できるように構成してもよい。
〔表示部の構成〕
次に、表示部20の構成について説明する。
表示部20は、表示制御部15から入力された画像データに対応する画像や視線マッピングデータに対応する視線マッピング情報を表示する。表示部20は、例えば有機EL(Electro Luminescence)や液晶等の表示モニタを用いて構成される。
〔情報処理装置の処理〕
次に、情報処理装置10の処理について説明する。図2は、情報処理装置10が実行する処理について説明するフローチャートである。
図2に示すように、まず、情報処理装置10は、外部から入力される視線データ、音声データおよび画像データを取得する(ステップS101)。
続いて、解析部11は、視線データに基づいて、利用者の視線の注視度を解析する(ステップS102)。ステップS102の後、情報処理装置10は、後述するステップS103へ移行する。
図3は、解析部11による視線の注視度の解析方法を模式的に説明する図である。図3の(a)および図3の(b)において、横軸が時間を示し、図3の(a)の縦軸が移動速度を示し、図3の(b)の縦軸が注視度を示す。また、図3の(a)の曲線L1が視線の移動速度の時間変化を示し、図3の(b)の曲線L2が注視度の時間変化を示す。
一般には、視線の移動速度が大きいほど、利用者の注視度が低く、視線の移動速度が小さいほど、利用者の視線の注視度が高いと解析することができる。即ち、図3の曲線L1および曲線L2に示すように、解析部11は、利用者の視線の移動速度が大きいほど、利用者の視線の注視度が低いと解析し、視線の移動速度が小さいほど(視線の移動速度が小さい区間D1を参照)、利用者の視線の注視度が高いと解析する。このように、解析部11は、所定時間毎(利用者が画像の観察や読影を行っている時間)の視線データに対して、利用者の視線の注視度を解析する。なお、図3では、解析部11は、利用者の視線の移動速度を解析することによって、利用者の視線の注視度を解析していたが、これに限定されることなく、一定の時間内における利用者の視線の移動距離および一定領域内における利用者の視線の滞留時間のいずれか1つを検出することによって、視線の注視度を解析してもよい。
図2に戻り、ステップS103以降の説明を続ける。
ステップS103において、設定部12は、視線データと同期化された音声データに対して、所定の時間間隔毎に解析部11が解析した注視度に応じた重要度を音声データに割り当てる設定を行って記録部14に記録する。ステップS103の後、情報処理装置10は、後述するステップS104へ移行する。
図4Aは、設定部12による音声データへの重要度の割り当ての設定方法を模式的に説明する図である。図4Aにおいて、横軸が時間を示し、図4Aの(a)の縦軸が注視度を示し、図4Aの(b)の縦軸が音声データ(発音)を示し、図4Aの(b)の縦軸が重要度を示す。また、図4Aの(a)の曲線L2が注視度の時間変化を示し、図4の(b)の曲線L3が音声データの時間変化を示し、図4Aの(c)の曲線L4が重要度の時間変化を示す。
図4Aに示すように、曲線L2,曲線L3,曲線L4では、音声データに変化があった場合において、利用者が注視していないとき(利用者の視線が移動(変化)しているため)、利用者が重要なことを発音している可能性が低いので、重要度が低いと推定することができる。これに対して、図4Aに示すように、曲線L2,曲線L3,曲線L4では、音声データに変化があった場合において、利用者視線の注視度が高いとき(区間D1)、利用者が重要なことを発音している可能性が高いため、重要度が高いと推定することができる。
即ち、設定部12は、音声データに対して、所定の時間間隔毎に解析部11が解析した注視度に応じた重要度を音声データに割り当てる設定を行って記録部14に記録する。具体的には、図4に示す場合、設定部12は、解析部11が注視度を高いと解析した区間D1の音声データに対して重要度(例えば数字、視線が滞在していた時間および大中小を示す記号等)を高いと割り当てる設定を行って記録部14に記録する。このとき、設定部12は、解析部11が注視度を高いと解析した区間D1と、音声データの発音区間D2にずれのディレイ期間d1が生じている場合、解析部11が注視度を高いと解析した区間D1に対応する音声データの前後の近傍である発音区間D2(例えば1秒前後の区間)を含む発音区間に重要度が高い割り当てを設定して記録部14に記録する。
なお、実施の形態1では、予め利用者の注視度と発音(発声)との時間差を算出し(キャリブレーションデータ)、この算出結果に基づいて利用者の注視度と発音(発声)とのずれを補正するキャリブレーション処理を行ってもよい。
また、図4Aにおいては、視線データの注視度と発話データとの時間的なずれに着目して、区間D1と発音区間D2に遅延時間を設けるようにしているが、図4Aの変形例として、設定部12は、視線データの注視度が高い区間の前後にマージンを設けることによって、音声データの重要度が高い期間としても良い。すなわち、設定部12は、発音区間D2の開始時間が区間D1の開始時間よりも先になっており、発音区間D2の終了時間が区間D1の終了時間よりも遅くするという様態としてもよい。
また、図4Aでは、設定部12は、注視度に応じた時間的な区間D1を設定し、この設定した時間的な区間D1とディレイ期間d1とを考慮して音声データの重要度の設定を行っている。なお、設定部12は、注視度のデータと、発話を検出する機能と、を組み合わせてもよい。具体的には、設定部12は、音声データに対して発話された発話期間を特定してもよい(発話検出部(図示せず)の機能を有してもよい)。この場合、図4Bに示すように、設定部12は、注視度が高い区間D1に基づいて、ウインドウ区間Dxを設定する。そして、設定部12は、入力された音声データに対して、利用者が発話した発話区間(発話期間)、具体的には発話区間P1,P2を検出(特定)する。ここで、設定部12は、発話区間P1,P2のうち、解析部11によって解析された注視度に基づくウインドウ区間Dxと重なりが大きい区間(例えば最も時間相関が高い発話期間)、具体的には重なりが大きい区間が発話区間P2なので、発話区間P2の区間内の音声データに高い重要度を設定する。すなわち、設定部12は、重要度を、注視度が高い期間と発話区間P2の開始終了区間の両方を考慮して設定する。より具体的には、設定部12は、解析部11によって注視度が高いと解析された区間D1(期間)内の時刻において利用者が発話した音声データの発話区間P2(期間)を重要期間と割り当てて記録部14に記録する。この場合、設定部12は、注視度が高いほど音声データに対して重要度を高く割り当てて記録部14へ記録する。さらに、設定部12は、解析部11によって注視度が高いと解析された期間の時刻において利用者が発話した場合、この期間の時刻において利用者が発話した音声データに重要度を割り当てて記録部14へ記録してもよい。
図2に戻り、ステップS104以降の説明を続ける。
ステップS104において、生成部13は、画像データに対応する画像上に解析部11が解析した注視度を関連付けた視線マッピングデータを生成する。
続いて、表示制御部15は、画像データに対応する画像上に、生成部13が生成した視線マッピングデータを重畳して外部の表示部20に出力する(ステップS105)。ステップS105の後、情報処理装置10は、本処理を終了する。
図5は、表示部20が表示する画像の一例を模式的に示す図である。図5に示すように、表示制御部15は、画像データに対応する画像上に、生成部13が生成した視線マッピングデータに重畳した視線マッピング画像P1を表示部20に表示させる。図5においては、視線の注視度が高いほど、等高線の本数が多いヒートマップM1〜M5の視線マッピング画像P1を表示部20に表示させる。
図6は、表示部20が表示する画像の別の一例を模式的に示す図である。図6に示すように、表示制御部15は、画像データに対応する画像上に、生成部13が生成した視線マッピングデータに重畳した視線マッピング画像P2を表示部20に表示させる。図6においては、視線の注視度が高いほど、円の領域が大きい注視度のマークM11〜M15が重畳された視線マッピング画像P2を表示部20に表示させる。さらに、表示制御部15は、利用者の視線の軌跡K1および注視度の順番を数字で表示部20に表示させる。なお、図6においては、表示制御部15は、各注視度の期間(時間)で利用者が発した音声データを、周知の文字変換技術を用いて変換した文字情報を、マークM11〜M15の近傍または重畳して表示部20に表示させてもよい。
以上説明した実施の形態1によれば、設定部12が外部から入力された音声データに対して、所定の時間間隔毎に解析部11が解析した注視度に応じた重要度を音声データに割り当てる設定を行って記録部14に記録するので、音声データのどの期間が重要であるか否かを把握することができる。
さらにまた、実施の形態1によれば、生成部13が外部から入力される画像データに対応する画像上に解析部11が解析した注視度、およびこの注視度の座標情報を関連付けた視線マッピングデータを生成するので、利用者が直感的に画像上における重要な位置を把握することができる。
また、実施の形態1によれば、記録部14が設定部12によって重要度を割り当てた音声データを記録するので、ディープラーニング等の機械学習で用いる視線のマッピングに基づく画像データと音声との対応関係を学習する際の学習データを容易に取得することができる。
また、実施の形態1によれば、設定部12が解析部11によって注視度が高いと解析された区間(期間)内の時刻において利用者が発話した音声データの期間を重要期間と割り当てて記録部14に記録するので、他の音声データの区間と区別できるように記録部14に記録することができる。
また、実施の形態1によれば、設定部12が解析部11によって解析された注視度が高いほど音声データに対して重要度を高く割り当てて記録部14へ記録するので、音声データの区間毎の重要度を相対的に把握することができる。
また、実施の形態1によれば、設定部12が解析部11によって注視度が高いと解析された期間の時刻において利用者が発話した場合、この期間の時刻において利用者が発話した音声データに重要度を割り当てて記録部14へ記録するので、単に注視度が高い場合であっても、音声データがない期間に対して重要度を低く割り当てるので、ディープラーニング等の機械学習で用いる視線のマッピングに基づく画像データと音声との対応関係を学習する際に重要度に応じた適応的な学習ができる。
(実施の形態1の変形例)
次に、本開示の実施の形態1の変形例について説明する。上述した実施の形態1では、設定部12が解析部11によって解析された注視度に応じた重要度を音声データに割り当てて記録部14へ記録していたが、実施の形態1の変形例では、設定部12が生成部13によって生成された視線マッピングデータに基づいて、所定の時間間隔毎に重要度を音声データに割り当てて記録部14へ記録する。以下においては、実施の形態1の変形例に係る情報処理システムの構成を説明後、実施の形態1の変形例に係る情報処理装置が実行する処理について説明する。なお、上述した実施の形態1に係る情報処理システム1と同一の構成には同一の符号を付して詳細な説明は省略する。
〔情報処理システムの構成〕
図7は、実施の形態1の変形例に係る情報処理システムの機能構成を示すブロック図である。図7に示す情報処理システム1aは、上述した実施の形態1に係る情報処理装置10に代えて、情報処理装置10aを備える。情報処理装置10aは、上述した実施の形態1に係る設定部12に代えて、設定部12aを備える。
設定部12aは、生成部13によって生成された視線マッピングデータに基づいて、所定の時間間隔毎に重要度を音声データに割り当てて記録部14へ記録する。
〔情報処理装置の処理〕
次に、情報処理装置10aが実行する処理について説明する。図8は、情報処理装置10aが実行する処理の概要を示すフローチャートである。図8において、ステップS201およびステップS202は、上述した図2のステップS101およびステップS102それぞれに対応する。また、図8において、ステップS203は、上述した図2のステップS104に対応する。
ステップS204において、設定部12は、生成部13によって生成された利用者の注視度を画像上に関連付けた視線マッピングデータに基づいて、所定の時間間隔毎に注視度に応じた重要度を音声データに割り当てる設定を行って記録部14に記録する。ステップS204の後、情報処理装置10aは、ステップS205へ以降する。ステップS205は、上述した図2のステップS105に対応する。
以上説明した実施の形態1の変形例によれば、設定部12が生成部13によって生成された利用者の注視度を画像上に関連付けた視線マッピングデータに基づいて、所定の時間間隔毎に注視度に応じた重要度を音声データに割り当てる設定を行って記録部14に記録するので、音声データのどの期間が重要であるか否かを把握することができる。
(実施の形態2)
次に、本開示の実施の形態2について説明する。実施の形態1では、外部から視線データおよび音声データの各々が入力されていたが、実施の形態2では、視線データおよび音声データを生成する。以下においては、実施の形態2に係る情報処理装置の構成を説明後、実施の形態2に係る情報処理装置が実行する処理について説明する。なお、上述した実施の形態1に係る情報処理システム1と同一の構成には同一の符号を付して詳細な説明は適宜省略する。
〔情報処理装置の構成〕
図9は、実施の形態2に係る情報処理装置の構成を示す概略図である。図10は、実施の形態2に係る情報処理装置の構成を示す概略図である。図11は、実施の形態2に係る情報処理装置の機能構成を示すブロック図である。
図9〜図11に示す情報処理装置1bは、解析部11と、表示部20と、視線検出部30と、音声入力部31と、制御部32と、時間計測部33と、記録部34と、変換部35と、抽出部36と、操作部37と、設定部38と、生成部39と、を備える。
視線検出部30は、近赤外線を照射するLED光源と、角膜上の瞳孔点と反射点を撮像する光学センサ(例えばCMOS、CCD等)と、を用いて構成される。視線検出部30は、利用者U1が表示部20を視認可能な情報処理装置1bの筐体の側面に設けられる(図9および図10を参照)。視線検出部30は、制御部32の制御のもと、表示部20が表示する画像に対する利用者U1の視線を検出した視線データを生成し、この視線データを制御部32へ出力する。具体的には、視線検出部30は、制御部32の制御のもと、LED光源等から近赤外線を利用者U1の角膜に照射し、光学センサが利用者U1の角膜上の瞳孔点と反射点を撮像することによって視線データを生成する。そして、視線検出部30は、制御部32の制御のもと、光学センサによって生成されたデータに対して画像処理等によって解析した解析結果に基づいて、利用者U1の瞳孔点と反射点のパターンから利用者の視線や視線を連続的に算出することによって所定時間の視線データを生成し、この視線データを後述する視線検出制御部321へ出力する。なお、視線検出部30は、単に光学センサのみで利用者U1の瞳を周知のパターンマッチングを用いることによって瞳を検出することによって、利用者U1の視線を検出した視線データを生成してもよいし、他のセンサや他の周知技術を用いて利用者U1の視線を検出することによって視線データを生成してもよい。
音声入力部31は、音声が入力されるマイクと、マイクが入力を受け付けた音声をデジタルの音声データに変換するとともに、この音声データを増幅することによって制御部32へ出力する音声コーデックと、を用いて構成される。音声入力部31は、制御部32の制御のもと、利用者U1の音声の入力を受け付けることによって音声データを生成し、この音声データを制御部32へ出力する。なお、音声入力部31は、音声の入力以外にも、音声を出力することができるスピーカ等を設け、音声出力機能を設けてもよい。
制御部32は、CPU、FPGAおよびGPU等を用いて構成され、視線検出部30、音声入力部31および表示部20を制御する。制御部32は、視線検出制御部321と、音声入力制御部322と、表示制御部323と、を有する。
視線検出制御部321は、視線検出部30を制御する。具体的には、視線検出制御部321は、視線検出部30を所定のタイミング毎に近赤外線を利用者U1へ照射させるとともに、利用者U1の瞳を視線検出部30に撮像させることによって視線データを生成させる。また、視線検出制御部321は、視線検出部30から入力された視線データに対して、各種の画像処理を行って記録部34へ出力する。
音声入力制御部322は、音声入力部31を制御し、音声入力部31から入力された音声データに対して各種の処理、例えばゲインアップやノイズ低減処理等を行って記録部34へ出力する。
表示制御部323は、表示部20の表示態様を制御する。表示制御部323は、記録部34に記録された画像データに対応する画像または生成部13によって生成された視線マッピングデータに対応する視線マッピング画像を表示部20に表示させる。
時間計測部33は、タイマーやクロックジェネレータ等を用いて構成され、視線検出部30によって生成された視線データおよび音声入力部31によって生成された音声データ等に対して時刻情報を付与する。
記録部34は、揮発性メモリ、不揮発性メモリおよび記録媒体等を用いて構成され、情報処理装置1bに関する各種の情報を記録する。記録部34は、視線データ記録部341と、音声データ記録部342と、画像データ記録部343と、プログラム記録部344と、を有する。
視線データ記録部341は、視線検出制御部321から入力された視線データを記録するとともに、視線データを解析部11へ出力する。
音声データ記録部342は、音声入力制御部322から入力された音声データを記録するとともに、音声データを変換部35へ出力する。
画像データ記録部343は、複数の画像データを記録する。この複数の画像データは、情報処理装置1bの外部から入力されたデータ、または記録媒体によって外部の撮像装置によって撮像されたデータである。
プログラム記録部344は、情報処理装置1bが実行する各種プログラム、各種プログラムの実行中に使用するデータ(例えば辞書情報やテキスト変換辞書情報)および各種プログラムの実行中の処理データを記録する。
変換部35は、音声データに対して周知のテキスト変換処理を行うことによって、音声データを文字情報(テキストデータ)に変換し、この文字情報を抽出部36へ出力する。
なお、音声の文字変換はこの時点で行わない構成も可能であり、その際には、音声情報のまま重要度を設定し、その後文字情報に変換するようにしても良い。
抽出部36は、後述する操作部37から入力された指示信号に対応する文字や単語(キーワード)を、変換部35によって変換された文字情報から抽出し、この抽出結果を設定部38へ出力する。なお、抽出部36は、後述する操作部37から指示信号が入力されていない場合、変換部35から入力されたままの文字情報を設定部38へ出力する。
操作部37は、マウス、キーボード、タッチパネルおよび各種スイッチ等を用いて構成され、利用者U1の操作の入力を受け付け、入力を受け付けた操作内容を制御部32へ出力する。
設定部38は、所定の時間間隔毎に解析部11が解析した注視度と抽出部36によって抽出された文字情報とに基づいて、視線データと同じ時間軸が対応付けられた音声データに重要度および変換部35によって変換された文字情報を割り当てて記録部34へ記録する。
生成部39は、表示部20が表示する画像データに対応する画像上に解析部11が解析した注視度および変換部35が変換した文字情報を関連付けた視線マッピングデータを生成し、この視線マッピングデータを画像データ記録部343または表示制御部323へ出力する。
〔情報処理装置の処理〕
次に、情報処理装置1bが実行する処理について説明する。図12は、情報処理装置1bが実行する処理の概要を示すフローチャートである。
図12に示すように、まず、表示制御部323は、画像データ記録部343が記録する画像データに対応する画像を表示部20に表示させる(ステップS301)。この場合、表示制御部323は、操作部37の操作に応じて選択された画像データに対応する画像を表示部20に表示させる。
続いて、制御部32は、視線検出部30が生成した視線データおよび音声入力部31が生成した音声データの各々と時間計測部33によって計測された時間とを対応付けて視線データ記録部341および音声データ記録部342に記録する(ステップS302)。
その後、変換部35は、音声データ記録部342が記録する音声データを文字情報に変換する(ステップS303)。なお、このステップは後述のS306の後に行っても良い。
続いて、操作部37から表示部20が表示する画像の観察を終了する指示信号が入力された場合(ステップS304:Yes)、情報処理装置1bは、後述するステップS305へ移行する。これに対して、操作部37から表示部20が表示する画像の観察を終了する指示信号が入力されていない場合(ステップS304:No)、情報処理装置1bは、ステップS302へ戻る。
ステップS305は、上述した図2のステップS102に対応する。ステップS305の後、情報処理装置1bは、後述するステップS306へ移行する。
ステップS306において、設定部38は、所定の時間間隔毎に解析部11が解析した注視度と抽出部36によって抽出された文字情報とに基づいて、視線データと同じ時間軸が対応付けられた音声データに重要度および変換部35によって変換された文字情報を割り当てて記録部34へ記録する。この場合、設定部38は、抽出部36によって抽出された文字情報に対応する音声データの重要度の重み付けを行って記録部34へ記録する。例えば、設定部38は、重要度に、抽出部36によって抽出された文字情報に基づく係数を注視度に乗じた値を重要度として音声データに割り当てを行って記録部34へ記録する。
続いて、生成部39は、表示部20が表示する画像データに対応する画像上に解析部11が解析した注視度および変換部35が変換した文字情報を関連付けた視線マッピングデータを生成する(ステップS307)。
続いて、表示制御部323は、生成部39が生成した視線マッピングデータに対応する視線マッピング画像を表示部20に表示させる(ステップS308)。
図13は、表示部20が表示する視線マッピング画像の一例を示す図である。図13に示すように、表示制御部323は、生成部13が生成した視線マッピングデータに対応する視線マッピング画像P3を表示部20に表示させる。視線マッピング画像P3には、視線の注視領域に対応するマークM11〜M15および視線の軌跡K1が重畳されるとともに、この注視度のタイミングで発せされた音声データの文字情報が関連付けられている。また、マークM11〜M15は、番号が利用者U1の視線の順番を示し、大きさ(領域)が注視度の大きさを示す。さらに、利用者U1が操作部37を操作してカーソルA1を所望の位置、例えばマークM14に移動させた場合、マークM14に関連付けられた文字情報Q1、例えば「ここで癌があります。」が表示される。なお、図13では、表示制御部323が文字情報を表示部20に表示させているが、例えば文字情報を音声に変換することによって音声データを出力してもよい。これにより、利用者U1は、重要な音声内容と注視していた領域とを直感的に把握することができる。さらに、利用者U1の観察時における視線の軌跡を直感的に把握することができる。
図14は、表示部20が表示する視線マッピング画像の別の一例を示す図である。図13に示すように、表示制御部323は、生成部13が生成した視線マッピングデータに対応する視線マッピング画像P4を表示部20に表示させる。さらに、表示制御部323は、文字情報と、この文字情報が発声された時間とを対応付けたアイコンB1〜B5を表示部20に表示させる。さらに、表示制御部323は、利用者U1が操作部37を操作してマークM11〜M15のいずれかを選択した場合、例えばマークM14を選択した場合、マークM14を表示部20に強調表示するとともに、マークM14の時間に対応する文字情報、例えばアイコンB4を表示部20に強調表示させる(例えば枠をハイライト表示または太線で表示)。これにより、利用者U1は、重要な音声内容と注視していた領域とを直感的に把握することができるうえ、発声した際の内容を直感的に把握することができる。
図12に戻り、ステップS309以降の説明を続ける。
ステップS309において、操作部37によって複数の注視領域に対応するマークのいずれか一つが操作された場合(ステップS309:Yes)、制御部32は、操作に応じた動作処理を実行する(ステップS310)。具体的には、表示制御部323は、操作部37によって選択された注視領域に対応するマークを表示部20に強調表示させる(例えば図13を参照)。また、音声入力制御部322は、注視度の高い領域に関連付けられた音声データを音声入力部31に再生させる。ステップS310の後、情報処理装置1bは、後述するステップS311へ移行する。
ステップS309において、操作部37によって複数の注視度領域に対応するマークのいずれか一つが操作されていない場合(ステップS309:No)、情報処理装置1bは、後述するステップS311へ移行する。
ステップS311において、操作部37から観察の終了を指示する指示信号が入力された場合(ステップS311:Yes)、情報処理装置1bは、本処理を終了する。これに対して、操作部37から観察の終了を指示する指示信号が入力されていない場合(ステップS311:No)、情報処理装置1bは、上述したステップS308へ戻る。
以上説明した実施の形態2によれば、生成部13が表示部20によって表示される画像データに対応する画像上に解析部11が解析した注視度および変換部35が変換した文字情報を関連付けた視線マッピングデータを生成するので、利用者U1は、重要な音声内容と注視していた領域とを直感的に把握することができるうえ、発声した際の内容を直感的に把握することができる。
また、実施の形態2によれば、表示制御部323は、生成部13が生成した視線マッピングデータに対応する視線マッピング画像を表示部20に表示させるので、画像に対する利用者の観察の見逃し防止の確認、利用者の読影等の技術スキルの確認、他の利用者に対する読影や観察等の教育およびカンファレンス等に用いることができる。
(実施の形態3)
次に、本開示の実施の形態3について説明する。上述した実施の形態2では、情報処理装置1bのみで構成されていたが、実施の形態3では、顕微鏡システムの一部に情報処理装置を組み込むことによって構成する。以下においては、実施の形態3に係る顕微鏡システムの構成を説明後、実施の形態3に係る顕微鏡システムが実行する処理について説明する。なお、上述した実施の形態2に係る情報処理装置1bと同一の構成には同一の符号を付して詳細な説明は適宜省略する。
〔顕微鏡システムの構成〕
図15は、実施の形態3に係る顕微鏡システムの構成を示す概略図である。図16は、実施の形態3に係る顕微鏡システムの機能構成を示すブロック図である。
図15および図16に示すように、顕微鏡システム100は、情報処理装置1cと、表示部20と、音声入力部31と、操作部37と、顕微鏡200と、撮像部210と、視線検出部220と、を備える。
〔顕微鏡の構成〕
まず、顕微鏡200の構成について説明する。
顕微鏡200は、本体部201と、回転部202と、昇降部203と、レボルバ204と、対物レンズ205と、倍率検出部206と、鏡筒部207と、接続部208と、接眼部209と、を備える。
本体部201は、標本SPが載置される。本体部201は、略U字状をなし、回転部202を用いて昇降部203が接続される。
回転部202は、利用者U2の操作に応じて回転することによって、昇降部203を垂直方向へ移動させる。
昇降部203は、本体部201に対して垂直方向へ移動可能に設けられている。昇降部203は、一端側の面にレボルバが接続され、他端側の面に鏡筒部207が接続される。
レボルバ204は、互いに倍率が異なる複数の対物レンズ205が接続され、光軸L1に対して回転可能に昇降部203に接続される。レボルバ204は、利用者U2の操作に応じて、所望の対物レンズ205を光軸L1上に配置する。なお、複数の対物レンズ205には、倍率を示す情報、例えばICチップやラベルが添付されている。なお、ICチップやラベル以外にも、倍率を示す形状を対物レンズ205に設けてもよい。
倍率検出部206は、光軸L1上に配置された対物レンズ205の倍率を検出し、この検出した検出結果を情報処理装置1cへ出力する。倍率検出部206は、例えば対物切り替えのレボルバ204の位置を検出する手段を用いて構成される。
鏡筒部207は、対物レンズ205によって結像された標本SPの被写体像の一部を接続部208に透過するとともに、接眼部209へ反射する。鏡筒部207は、内部にプリズム、ハーフミラーおよびコリメートレンズ等を有する。
接続部208は、一端が鏡筒部207と接続され、他端が撮像部210と接続される。接続部208は、鏡筒部207を透過した標本SPの被写体像を撮像部210へ導光する。接続部208は、複数のコリメートレンズおよび結像レンズ等を用いて構成される。
接眼部209は、鏡筒部207によって反射された被写体像を導光して結像する。接眼部209は、複数のコリメートレンズおよび結像レンズ等を用いて構成される。
〔撮像部の構成〕
次に、撮像部210の構成について説明する。
撮像部210は、接続部208が結像した標本SPの被写体像を受光することによって画像データを生成し、この画像データを情報処理装置1cへ出力する。撮像部210は、CMOSまたはCCD等のイメージセンサおよび画像データに対して各種の画像処理を施す画像処理エンジン等を用いて構成される。
〔視線検出部の構成〕
次に、視線検出部220の構成について説明する。
視線検出部220は、接眼部209の内部または外部に設けられ、利用者U2の視線を検出することによって視線データを生成し、この視線データを情報処理装置1cへ出力する。視線検出部220は、接眼部209の内部に設けられ、近赤外線を照射するLED光源と、接眼部209の内部に設けられ、角膜上の瞳孔点と反射点を撮像する光学センサ(例えばCMOS、CCD)と、を用いて構成される。視線検出部220は、情報処理装置1cの制御のもと、LED光源等から近赤外線を利用者U2の角膜に照射し、光学センサが利用者U2の角膜上の瞳孔点と反射点を撮像することによって生成する。そして、視線検出部222は、情報処理装置1cの制御のもと、光学センサによって生成されたデータに対して画像処理等によって解析した解析結果に基づいて、利用者U2の瞳孔点と反射点のパターンから利用者の視線を検出することによって視線データを生成し、この視線データを情報処理装置1cへ出力する。
〔情報処理装置の構成〕
次に、情報処理装置1cの構成について説明する。
情報処理装置1cは、上述した実施の形態2に係る情報処理装置1bの制御部32、記録部34および設定部38に換えて、制御部32c、記録部34c、設定部38cと、を備える。
制御部32cは、CPU、FPGAおよびGPU等を用いて構成され、表示部20、音声入力部31、撮像部210および視線検出部220を制御する。制御部32cは、上述した実施の形態2の制御部32の視線検出制御部321、音声入力制御部322、表示制御部323に加えて、撮影制御部324および倍率算出部325をさらに備える。
撮影制御部324は、撮像部210の動作を制御する。撮影制御部324は、撮像部210を所定のフレームレートに従って順次撮像させることによって画像データを生成させる。撮影制御部324は、撮像部210から入力された画像データに対して処理の画像処理(例えば現像処理等)を施して記録部34cへ出力する。
倍率算出部325は、倍率検出部206から入力された検出結果に基づいて、現在の顕微鏡200の観察倍率を算出し、この算出結果を設定部38cへ出力する。例えば、倍率算出部325は、倍率検出部206から入力された対物レンズ205の倍率と接眼部209の倍率とに基づいて、現在の顕微鏡200の観察倍率を算出する。
記録部34cは、揮発性メモリ、不揮発性メモリおよび記録媒体等を用いて構成される。記録部34cは、上述した実施の形態2に係る画像データ記録部343に換えて、画像データ記録部345を備える。画像データ記録部345は、撮影制御部324から入力された画像データを記録し、この画像データを生成部13へ出力する。
設定部38cは、所定の時間間隔毎に解析部11が解析した注視度と倍率算出部325が算出した算出結果とに基づいて、視線データと同じ時間軸が対応付けられた音声データに重要度および変換部35によって変換された文字情報を割り当てて記録部34cへ記録する。具体的には、設定部38cは、解析部11が解析した注視度に、倍率算出部325が算出した算出結果に基づく係数を乗じた値を、音声データのフレーム毎の重要度(例えば数値)として割り当てて記録部34cへ記録する。すなわち、設定部38cは、表示倍率が大きいほど重要度が高くなるような処理を行う。設定部38cは、CPU、FPGAおよびGPU等を用いて構成される。
〔顕微鏡システムの処理〕
次に、顕微鏡システム100が実行する処理について説明する。図17は、顕微鏡システム100が実行する処理の概要を示すフローチャートである。
図17に示すように、まず、制御部32cは、視線検出部30が生成した視線データ、音声入力部31が生成した音声データ、および倍率算出部325が算出した観察倍率の各々を時間計測部33によって計測された時間を対応付けて視線データ記録部341および音声データ記録部342に記録する(ステップS401)。ステップS401の後、顕微鏡システム100は、後述するステップS402へ移行する。
ステップS402〜ステップS404は、上述した図12のステップS303〜ステップS305それぞれに対応する。ステップS404の後、顕微鏡システム100は、ステップS405へ移行する。
ステップS405において、設定部38cは、所定の時間間隔毎に解析部11が解析した注視度と倍率算出部325が算出した算出結果とに基づいて、視線データと同じ時間軸が対応付けられた音声データに重要度および変換部35によって変換された文字情報を割り当てて記録部34cへ記録する。ステップS405の後、顕微鏡システム100は、ステップS406へ移行する。
ステップS406〜ステップS410は、上述した図12のステップS307〜ステップS311それぞれに対応する。
以上説明した実施の形態3によれば、設定部38cが解析部11によって解析された注視度と倍率算出部325が算出した算出結果とに基づいて、視線データと同じ時間軸が対応付けられた音声データに重要度および変換部35によって変換された文字情報を割り当てて記録部34cすることによって、観察倍率および注視度に基づいた重要度が音声データに割り当てられるので、観察内容および注視度を加味した音声データの重要な期間を把握することができる。
なお、実施の形態3では、倍率算出部325が算出した観察倍率を記録部14に記録していたが、利用者U2の操作履歴を記録し、この操作履歴をさらに加味して音声データの重要度を割り当ててもよい。
(実施の形態4)
次に、本開示の実施の形態4について説明する。実施の形態4では、内視鏡システムの一部に情報処理装置を組み込むことによって構成する。以下においては、実施の形態4に係る内視鏡システムの構成を説明後、実施の形態4に係る内視鏡システムが実行する処理について説明する。なお、上述した実施の形態2に係る情報処理装置1bと同一の構成には同一の符号を付して詳細な説明は適宜省略する。
〔内視鏡システムの構成〕
図18は、実施の形態4に係る内視鏡システムの構成を示す概略図である。図19は、実施の形態4に係る内視鏡システムの機能構成を示すブロック図である。
図18および図19に示す内視鏡システム300は、表示部20と、内視鏡400と、ウェアラブルデバイス500と、入力部600と、情報処理装置1dと、を備える。
〔内視鏡の構成〕
まず、内視鏡400の構成について説明する。
内視鏡400は、医者や術者等の利用者U3が被検体U4に挿入することによって、被検体U4の内部を撮像することによって画像データを生成し、この画像データを情報処理装置1dへ出力する。内視鏡400は、撮像部401と、操作部402と、を備える。
撮像部401は、内視鏡400の挿入部の先端部に設けられる。撮像部401は、情報処理装置1dの制御のもと、被検体U4の内部を撮像することによって画像データを生成し、この画像データを情報処理装置1dへ出力する。撮像部401は、観察倍率を変更することができる光学系と、光学系が結像した被写体像を受光することによって画像データを生成するCMOSやCCD等のイメージセンサ等を用いて構成される。
操作部402は、利用者U3の各種の操作の入力を受け付け、受け付けた各種操作に応じた操作信号を情報処理装置1dへ出力する。
〔ウェアラブルデバイスの構成〕
次に、ウェアラブルデバイス500の構成について説明する。
ウェアラブルデバイス500は、利用者U3に装着され、利用者U3の視線を検出するとともに、利用者U3の音声の入力を受け付ける。ウェアラブルデバイス500は、視線検出部510と、音声入力部520と、を有する。
視線検出部510は、ウェアラブルデバイス500に設けられ、利用者U3の視線の注視度を検出することによって視線データを生成し、この視線データを情報処理装置1dへ出力する。視線検出部510は、上述した実施の形態3に係る視線検出部220と同様の構成を有するため、詳細な構成は省略する。
音声入力部520は、ウェアラブルデバイス500に設けられ、利用者U3の音声の入力を受け付けることによって音声データを生成し、この音声データを情報処理装置1dへ出力する。音声入力部520は、マイク等を用いて構成される。
〔入力部の構成〕
入力部600の構成について説明する。
入力部600は、マウス、キーボード、タッチパネルおよび各種のスイッチを用いて構成される。入力部600は、利用者U3の各種の操作の入力を受け付け、受け付けた各種操作に応じた操作信号を情報処理装置1dへ出力する。
〔情報処理装置の構成〕
次に、情報処理装置1dの構成について説明する。
情報処理装置1dは、上述した実施の形態3に係る情報処理装置1cの制御部32c、記録部34c、設定部38c、生成部39に換えて、制御部32d、記録部34d、設定部38dおよび生成部39dを備える。さらに、情報処理装置1dは、画像処理部40をさらに備える。
制御部32dは、CPU、FPGAおよびGPU等を用いて構成され、内視鏡400、ウェアラブルデバイス500および表示部20を制御する。制御部32dは、視線検出制御部321、音声入力制御部322、表示制御部323、撮影制御部324に加えて、操作履歴検出部326を備える。
操作履歴検出部326は、内視鏡400の操作部402が入力を受け付けた操作の内容を検出し、この検出結果を記録部34dに出力する。具体的には、操作履歴検出部326は、内視鏡400の操作部402から拡大スイッチが操作された場合、この操作内容を検出し、この検出結果を記録部34dに出力する。なお、操作履歴検出部326は、内視鏡400を経由して被検体U4の内部に挿入される処置具の操作内容を検出し、この検出結果を記録部34dに出力してもよい。
記録部34dは、揮発性メモリ、不揮発性メモリおよび記録媒体等を用いて構成される。記録部34dは、上述した実施の形態3に係る記録部34cの構成に加えて、操作履歴記録部346をさらに備える。
操作履歴記録部346は、操作履歴検出部326から入力された内視鏡400の操作部402に対する操作の履歴を記録する。
設定部38dは、所定の時間間隔毎に解析部11が解析した注視度と操作履歴記録部346が記録する操作履歴とに基づいて、視線データと同じ時間軸が対応付けられた音声データに重要度および変換部35によって変換された文字情報を割り当てて記録部34dへ記録する。具体的には、設定部38dは、解析部11が解析した注視度と操作履歴記録部346が記録する操作履歴とに基づいて、音声データのフレーム毎に重要度(例えば数値)を割り当てて記録部34dへ記録する。すなわち、設定部38dは、操作履歴の内容に応じて設定された係数が大きいほど重要度が高くなるような処理を行う。設定部38dは、CPU、FPGAおよびGPU等を用いて構成される。
生成部39dは、画像処理部40が生成した統合画像データに対応する統合画像上に、解析部11が解析した注視度および文字情報を関連付けた視線マッピングデータを生成し、この生成した視線マッピングデータを記録部34dおよび表示制御部323へ出力する。
画像処理部40は、画像データ記録部345が記録する複数の画像データを合成することによって3次元画像の統合画像データを生成し、この統合画像データを生成部39dへ出力する。
〔内視鏡システムの処理〕
次に、内視鏡システム300が実行する処理について説明する。図20は、内視鏡システム300が実行する処理の概要を示すフローチャートである。
図20に示すように、まず、制御部32dは、視線検出部30が生成した視線データ、音声入力部31が生成した音声データ、および操作履歴検出部326が検出した操作履歴の各々を時間計測部33によって計測された時間と対応付けて視線データ記録部341、音声データ記録部342および操作履歴記録部346に記録する(ステップS501)。ステップS501の後、内視鏡システム300は、後述するステップS502へ移行する。
ステップS502〜ステップS504は、上述した図12のステップS303〜ステップS305それぞれに対応する。ステップS504の後、内視鏡システム300は、ステップS505へ移行する。
ステップS505において、設定部38dは、所定の時間間隔毎に解析部11が解析した注視度と操作履歴記録部346が記録する操作履歴とに基づいて、視線データと同じ時間軸が対応付けられた音声データに重要度および変換部35によって変換された文字情報を割り当てて記録部34dへ記録する。
続いて、画像処理部40は、画像データ記録部345が記録する複数の画像データを合成することによって3次元画像の統合画像データを生成し、この統合画像データを生成部39dへ出力する(ステップS506)。図21は、画像データ記録部345が記録する複数の画像データに対応する複数の画像の一例を模式的に示す図である。図22は、画像処理部40が生成する統合画像データに対応する統合画像の一例を示す図である。図21および図22に示すように、画像処理部40は、時間的に連続する複数の画像データP11〜P(N=整数)を合成することによって統合画像データに対応する統合画像P100を生成する。
その後、生成部39dは、画像処理部40が生成した統合画像データに対応する統合画像P100上に、解析部11が解析した注視度、視線および文字情報を関連付けた視線マッピングデータを生成し、この生成した視線マッピングデータを記録部34dおよび表示制御部323へ出力する(ステップS507)。この場合、生成部39dは、画像処理部40が生成した統合画像データに対応する統合画像P100上に、解析部11が解析した注視度、視線K2および文字情報に加えて、操作履歴を関連付けてもよい。ステップS507の後、内視鏡システム300は、後述するステップS508へ移行する。
ステップS508〜ステップS511は、上述した図12のステップS308〜ステップS311それぞれに対応する。
以上説明した実施の形態4によれば、設定部38dが解析部11によって解析された注視度と操作履歴記録部346が記録する操作履歴とに基づいて、視線データと同じ時間軸が対応付けられた音声データに重要度および変換部35によって変換された文字情報を割り当てて記録部34dへ記録することによって、操作履歴および注視度に基づいた重要度が音声データに割り当てられるので、操作内容および注視度を加味した音声データの重要な期間を把握することができる。
また、実施の形態4では、内視鏡システムであったが、例えばカプセル型の内視鏡、被検体を撮像するビデオマイクロスコープ、撮像機能を有する携帯電話および撮像機能を有するタブレット型端末であっても適用することができる。
また、実施の形態4では、軟性の内視鏡を備えた内視鏡システムであったが、硬性の内視鏡を備えた内視鏡システム、工業用の内視鏡を備えた内視鏡システムであっても適用することができる。
また、実施の形態4では、被検体に挿入される内視鏡を備えた内視鏡システムであったが、副鼻腔内視鏡および電気メスや検査プローブ等の内視鏡システムであっても適用することができる。
(実施の形態5)
次に、本開示の実施の形態5について説明する。上述した実施の形態1〜4は、利用者が一人の場合を想定していたが、実施の形態5では、2人以上の利用者を想定する。さらに、実施の形態5では、複数の利用者で画像を閲覧する情報処理システムに情報処理装置を組み込むことによって構成する。以下においては、実施の形態5に係る閲覧システムの構成を説明後、実施の形態5に係る情報処理システムが実行する処理について説明する。なお、上述した実施の形態2に係る情報処理装置1bと同一の構成には同一の符号を付して詳細な説明は適宜省略する。
〔情報処理システムの構成〕
図23は、実施の形態5に係る情報処理システムの機能構成を示すブロック図である。図23に示す情報処理システム700は、表示部20と、第1ウェアラブルデバイス710と、第2ウェアラブルデバイス720と、検出部730と、情報処理装置1eと、を備える。
〔第1ウェアラブルデバイスの構成〕
まず、第1ウェアラブルデバイス710の構成について説明する。
第1ウェアラブルデバイス710は、利用者に装着され、利用者の視線を検出するとともに、利用者の音声の入力を受け付ける。第1ウェアラブルデバイス710は、第1視線検出部711と、第1音声入力部712と、を有する。第1視線検出部711および第1音声入力部712は、上述した実施の形態4に係る視線検出部510および音声入力部520と同様の構成を有するため、詳細な構成は省略する。
〔第2ウェアラブルデバイスの構成〕
次に、第2ウェアラブルデバイス720の構成について説明する。
第2ウェアラブルデバイス720は、上述した第1ウェアラブルデバイス710と同様の構成を有し、利用者に装着され、利用者の視線を検出するとともに、利用者の音声の入力を受け付ける。第2ウェアラブルデバイス720は、第2視線検出部721と、第2音声入力部722と、を有する。第2視線検出部721および第2音声入力部722は、上述した実施の形態4に係る視線検出部510および音声入力部520と同様の構成を有するため、詳細な構成は省略する。
〔検出部の構成〕
次に、検出部730の構成について説明する。
検出部730は、複数の利用者の各々を識別する識別情報を検出し、この検出結果を情報処理装置1eへ出力する。検出部730は、複数の利用者の各々を識別する識別情報(例えばIDや名前等)を記録するICカードから利用者の識別情報を検出し、この検出結果を情報処理装置1eへ出力する。検出部730は、例えば、ICカードを読み取るカードリーダ等を用いて構成される。なお、検出部730は、複数の利用者の顔を撮像することによって生成した画像データに対応する画像に対して、予め設定された利用者の顔の特徴点および周知のパターンマッチングを用いて利用者を識別し、この識別結果を情報処理装置1eへ出力するようにしてもよい。もちろん、検出部730は、操作部37からの操作に応じて入力された信号に基づいて、利用者を識別し、この識別結果を情報処理装置1eへ出力するようにしてもよい。
〔情報処理装置の構成〕
次に、情報処理装置1eの構成について説明する。
情報処理装置1eは、上述した実施の形態4に係る情報処理装置1dの制御部32d、記録部34dおよび設定部38dに換えて、制御部32e、記録部34eおよび設定部38eを備える。
制御部32eは、CPU、FPGAおよびGPU等を用いて構成され、第1ウェアラブルデバイス710、第2ウェアラブルデバイス720、検出部730および表示部20を制御する。制御部32eは、視線検出制御部321、音声入力制御部322、表示制御部323に加えて、識別検出制御部327を備える。
識別検出制御部327は、検出部730を制御し、検出部730が取得した取得結果に基づいて、複数の利用者の各々を識別し、この識別結果を記録部34eへ出力する。
記録部34eは、揮発性メモリ、不揮発性メモリおよび記録媒体等を用いて構成される。記録部34eは、上述した実施の形態3に係る記録部34cの構成に加えて、識別情報記録部347をさらに備える。
識別情報記録部347は、識別検出制御部327から入力された複数の利用者の各々の識別情報を記録する。
設定部38eは、解析部11が解析した解析結果と、抽出部36が抽出した文字情報と、識別情報記録部347が記録する識別情報と、に基づいて、所定の時間間隔毎に視線データと同じ時間軸が対応付けられた音声データに重要度および変換部35によって変換された文字情報を割り当てて記録部34eに記録する。さらに、設定部38eは、識別情報記録部347が記録する各利用者の識別情報に応じて重要度の重み付けを行う。すなわち、設定部38eは、重要な利用者(例えば役職に応じて設定されたランク)ほど重要度が高くなる処理を行う。
〔情報処理システムの処理〕
次に、情報処理システム700が実行する処理について説明する。図24は、情報処理システム700が実行する処理の概要を示すフローチャートである。
図24に示すように、表示制御部323は、画像データ記録部343が記録する画像データに対応する画像を表示部20に表示させる(ステップS601)。
続いて、制御部32eは、第1ウェアラブルデバイス710および第2ウェアラブルデバイス720の各々が生成した視線データ、音声データ、および検出部730が取得した識別情報の各々を時間計測部33によって計測された時間と対応付けて視線データ記録部341、音声データ記録部342および識別情報記録部347に記録する(ステップS602)。ステップS602の後、情報処理システム700は、ステップS603へ移行する。
ステップS603およびステップS604は、上述した図12のステップS303およびステップS304それぞれに対応する。ステップS604の後、情報処理システム700は、後述するステップS605へ移行する。
ステップS605において、解析部11は、第1ウェアラブルデバイス710が生成した第1視線データおよび第2ウェアラブルデバイス720が生成した第2視線データに基づいて、各利用者の視線の注視度を解析する。
続いて、設定部38eは、所定の時間間隔毎に解析部11が解析した各注視度と、識別情報記録部347が記録する識別情報とに基づいて、視線データと同じ時間軸が対応付けられた第1音声データおよび第2音声データの各々に重要度および変換部35によって変換された文字情報を割り当てて記録部34eへ記録する(ステップS606)。
ステップS607〜ステップS611は、上述した図12のステップS307〜ステップS311それぞれに対応する。
以上説明した実施の形態5によれば、設定部38eが解析部11によって解析された各利用者の注視度と、識別情報記録部347が記録する識別情報とに基づいて、視線データと同じ時間軸が対応付けられた第1音声データおよび第2音声データの各々に重要度および変換部35によって変換された文字情報を割り当てて記録部34eへ記録することによって、識別情報よび注視度に基づいた重要度が第1音声データまたは第2音声データに割り当てられるので、利用者に応じた注視度を加味した音声データの重要な期間を把握することができる。
なお、実施の形態5では、設定部38eが解析部11によって解析された各利用者の注視度と、識別情報記録部347が記録する各利用者の識別情報とに基づいて、視線データと同じ時間軸が対応付けられた第1音声データおよび第2音声データの各々に重要度および変換部35によって変換された文字情報を割り当てて記録部34eへ記録していたが、これに限定されることなく、例えば複数の利用者の各々の位置を検出し、この検出結果と各利用者の注視度とに基づいて、第1音声データおよび第2音声データの各々に重要度および変換部35によって変換された文字情報を割り当てて記録部34eへ記録してもよい。
(その他の実施の形態)
上述した実施の形態1〜5に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上述した実施の形態1〜5に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、上述した実施の形態1〜5で説明した構成要素を適宜組み合わせてもよい。
また、実施の形態1〜5において、上述してきた「部」は、「手段」や「回路」などに読み替えることができる。例えば、制御部は、制御手段や制御回路に読み替えることができる。
また、実施の形態1〜5に係る情報処理装置に実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、実施の形態1〜5に係る情報処理装置に実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。さらに、実施の形態1〜5に係る情報処理装置に実行させるプログラムをインターネット等のネットワーク経由で提供または配布するようにしてもよい。
また、実施の形態1〜5では、伝送ケーブルを経由して各種機器から信号を送信していたが、例えば有線である必要はなく、無線であってもよい。この場合、所定の無線通信規格(例えばWi−Fi(登録商標)やBluetooth(登録商標))に従って、各機器から信号を送信するようにすればよい。もちろん、他の無線通信規格に従って無線通信を行ってもよい。
なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。
以上、本願の実施の形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、本発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
1a,700 情報処理システム
10,10a,1b,1b,1c,1d,1e 情報処理装置
11 解析部
12,12a,38,38c,38d,38e 設定部
13,39,39d 生成部
14,34,34c,34d,34e 記録部
15,323 表示制御部
20 表示部
30,222,510 視線検出部
31,520 音声入力部
32,32c,32d,32e 制御部
33 時間計測部
35 変換部
36 抽出部
37 操作部
40 画像処理部
100 顕微鏡システム
200 顕微鏡
201 本体部
202 回転部
203 昇降部
204 レボルバ
205 対物レンズ
206 倍率検出部
207 鏡筒部
208 接続部
209 接眼部
210,401 撮像部
300 内視鏡システム
321 視線検出制御部
322 音声入力制御部
324 撮影制御部
325 倍率算出部
326 操作履歴検出部
327 識別検出制御部
341 視線データ記録部
342 音声データ記録部
343,345 画像データ記録部
344 プログラム記録部
345 画像データ記録部
346 操作履歴記録部
347 識別情報記録部
400 内視鏡
402 操作部
500 ウェアラブルデバイス
600 入力部
710 第1ウェアラブルデバイス
711 第1視線検出部
712 第1音声入力部
720 第2ウェアラブルデバイス
721 第2視線検出部
722 第2音声入力部
730 検出部

Claims (18)

  1. 外部から入力される利用者の視線を検出した視線データに基づいて、前記利用者の視線の注視度を解析する解析部と、
    外部から入力される前記利用者の音声データであって、前記視線データと同じ時間軸が対応付けられた音声データに対して、前記解析部が解析した前記注視度に応じた重要度を割り当てて記録部へ記録する設定部と、
    を備える情報処理装置。
  2. 前記設定部は、
    前記解析部によって前記注視度が高いと解析された期間の時刻において前記利用者が発話した前記音声データの期間を重要期間と割り当てて前記記録部に記録する
    請求項1に記載の情報処理装置。
  3. 前記設定部は、
    前記注視度が高いほど前記音声データに対して前記重要度を高く割り当てて前記記録部へ記録する
    請求項1または2に記載の情報処理装置。
  4. 前記設定部は、
    前記解析部によって前記注視度が高いと解析された期間の時刻において前記利用者が発話した場合、該期間の時刻において前記利用者が発話した前記音声データに前記重要度を割り当てて前記記録部へ記録する
    請求項1に記載の情報処理装置。
  5. 前記解析部は、
    前記視線の移動速度、一定の時間内における前記視線の移動距離、一定領域内における前記視線の滞留時間のいずれか1つを検出することによって、前記注視度を解析する
    請求項1〜4のいずれか一つに記載の情報処理装置。
  6. 外部から入力される画像データに対応する画像上に前記解析部が解析した前記注視度および該注視度の座標情報を関連付けた視線マッピングデータを生成する生成部をさらに備える
    請求項1〜5のいずれか一つに記載の情報処理装置。
  7. 前記解析部は、前記視線データに基づいて、前記利用者の視線の軌跡をさらに解析し、
    前記生成部は、前記解析部が解析した前記軌跡を前記画像上にさらに関連付けて前記視線マッピングデータを生成する
    請求項6に記載の情報処理装置。
  8. 前記音声データを文字情報に変換する変換部をさらに備え、
    前記生成部は、前記座標情報に前記文字情報をさらに関連付けて前記視線マッピングデータを生成する
    請求項6または7に記載の情報処理装置。
  9. 外部から入力された操作信号に応じて指定されたキーワードを前記変換部によって変換された前記文字情報から抽出する抽出部と、
    前記視線マッピングデータに対応する視線マッピング画像を表示部に表示させる表示制御部と、
    をさらに備え、
    前記表示制御部は、前記抽出部によって抽出された前記文字情報に関連付けられた前記注視度を前記表示部に強調表示させ、かつ、前記文字情報を前記表示部に表示させる
    請求項8に記載の情報処理装置。
  10. 前記利用者の視線を連続的に検出することによって前記視線データを生成する視線検出部と、
    前記利用者の音声の入力を受け付けて前記音声データを生成する音声入力部と、
    をさらに備える
    請求項1〜9のいずれか一つに記載の情報処理装置。
  11. 複数の利用者の各々を識別する識別情報を検出する検出部をさらに備え、
    前記解析部は、前記複数の利用者の各々の視線を検出した複数の前記視線データに基づいて、前記複数の利用者の各々の前記注視度を解析し、
    前記設定部は、前記検出部が検出した前記識別情報に基づいて、前記複数の利用者の各々の前記音声データに所定の時間間隔で割り当てる前記重要度を変更する
    請求項1〜10のいずれか一つに記載の情報処理装置。
  12. 標本を観察する観察倍率を変更可能であり、前記利用者が前記標本の観察像を観察可能な接眼部を有する顕微鏡と、
    前記顕微鏡に接続され、前記顕微鏡が結像した前記標本の観察像を撮像することによって画像データを生成する撮像部をさらに備え、
    前記視線検出部は、前記顕微鏡の接眼部に設けられ、
    前記設定部は、前記観察倍率に応じて前記重要度の重み付けを行う
    請求項10に記載の情報処理装置。
  13. 被検体に挿入可能な挿入部の先端部に設けられ、被検体内の体内を撮像することによって画像データを生成する撮像部と、視野を変更するための各種の操作の入力を受け付ける操作部と、を有する内視鏡と、
    をさらに備える
    請求項1〜11のいずれか一つに記載の情報処理装置。
  14. 前記設定部は、前記操作部が受け付けた操作履歴に関する操作履歴に基づいて前記重要度の重み付けを行う
    請求項13に記載の情報処理装置。
  15. 前記設定部は、前記解析部が解析した前記注視度が高いと判別した期間を基準にして算出した期間の前記音声データに対して、前記重要度を割り当てる
    請求項1に記載の情報処理装置。
  16. 前記情報処理装置は、前記音声データに対して発話された発話期間を特定する発話検出部をさらに備え、
    前記設定部は、前記解析部が解析した前記注視度が高いと判別した期間を基準にして、最も時間相関が高い発話期間に対して、重要度を割り当てる期間を設定することを特徴とする
    請求項1に記載の情報処理装置。
  17. 情報処理装置が実行する情報処理方法であって、
    外部から入力される利用者の視線を検出した視線データに基づいて、前記利用者の視線の注視度を解析する解析ステップと、
    外部から入力される前記利用者の音声データであって、前記視線データと同じ時間軸が対応付けられた音声データに対して、前記解析ステップで解析した前記注視度に応じた重要度を割り当てて記録部へ記録する設定ステップと、
    を含むことを特徴とする情報処理方法。
  18. 情報処理装置に、
    外部から入力される利用者の視線を検出した視線データに基づいて、前記利用者の視線の注視度を解析する解析ステップと、
    外部から入力される前記利用者の音声データであって、前記視線データと同じ時間軸が対応付けられた音声データに対して、前記解析ステップで解析した前記注視度に応じた重要度を割り当てて記録部へ記録する設定ステップと、
    を実行させることを特徴とするプログラム。
JP2019088251A 2018-05-17 2019-05-08 情報処理装置、情報処理方法およびプログラム Pending JP2019204503A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/412,513 US10754425B2 (en) 2018-05-17 2019-05-15 Information processing apparatus, information processing method, and non-transitory computer readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018095519 2018-05-17
JP2018095519 2018-05-17

Publications (1)

Publication Number Publication Date
JP2019204503A true JP2019204503A (ja) 2019-11-28

Family

ID=68727121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019088251A Pending JP2019204503A (ja) 2018-05-17 2019-05-08 情報処理装置、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2019204503A (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123229A (ja) * 2008-12-25 2009-06-04 Japan Research Institute Ltd 情報管理装置、情報管理システム、及びプログラム
JP2015118448A (ja) * 2013-12-17 2015-06-25 株式会社東芝 医用情報処理システム及び情報処理システム
WO2016051519A1 (ja) * 2014-09-30 2016-04-07 三菱電機株式会社 音声認識システム
US20180031817A1 (en) * 2016-08-01 2018-02-01 Verily Life Sciences Llc Pathology data capture
US20180268737A1 (en) * 2017-03-15 2018-09-20 International Business Machines Corporation System and method to teach and evaluate image grading performance using prior learned expert knowledge base

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123229A (ja) * 2008-12-25 2009-06-04 Japan Research Institute Ltd 情報管理装置、情報管理システム、及びプログラム
JP2015118448A (ja) * 2013-12-17 2015-06-25 株式会社東芝 医用情報処理システム及び情報処理システム
WO2016051519A1 (ja) * 2014-09-30 2016-04-07 三菱電機株式会社 音声認識システム
US20180031817A1 (en) * 2016-08-01 2018-02-01 Verily Life Sciences Llc Pathology data capture
JP2019530048A (ja) * 2016-08-01 2019-10-17 ヴェリリー ライフ サイエンシズ エルエルシー 病理データ捕捉
US20180268737A1 (en) * 2017-03-15 2018-09-20 International Business Machines Corporation System and method to teach and evaluate image grading performance using prior learned expert knowledge base

Similar Documents

Publication Publication Date Title
JP7064952B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7171985B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5317415B2 (ja) 画像出力装置、画像出力方法、および画像出力プログラム
JP6366862B2 (ja) 作業支援装置、作業学習装置及び作業支援システム
JP4869978B2 (ja) 画像記録装置、画像記録方法、および画像記録プログラム
EP3491558A1 (en) Pathology data capture
KR20170120523A (ko) 표시 장치와 이를 이용한 입력 처리 방법 및 시스템
US10754425B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable recording medium
JP5044237B2 (ja) 画像記録装置、画像記録方法、および画像記録プログラム
US10275021B2 (en) Display apparatus of front-of-the-eye mounted type
US20210196174A1 (en) Apparatus, method and program for determining a cognitive state of a user of a mobile device
CN101453938B (zh) 图像记录装置
US20140132511A1 (en) Control apparatus based on eyes and method for controlling device thereof
JP2007289657A (ja) 画像記録装置、画像記録方法、および画像記録プログラム
JP2019202131A (ja) 情報処理装置、情報処理方法およびプログラム
JP2019204503A (ja) 情報処理装置、情報処理方法およびプログラム
US10971174B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable recording medium
WO2022070423A1 (ja) 情報処理装置、情報処理装置の作動方法、及びプログラム
WO2022044095A1 (ja) 情報処理装置、学習装置、及び学習済みモデル
EP4101367A1 (en) Method and device for determining a visual performance
WO2021144970A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2023042343A1 (ja) 手指の動きを計測処理する計測処理端末、方法およびコンピュータプログラム
KR101499044B1 (ko) 사용자의 손동작 및 음성에 기초하여 사용자가 의도한 텍스트를 취득하는 웨어러블 컴퓨터 및 사용자가 의도한 텍스트를 취득하는 방법
JP2005267380A (ja) 表示文字翻訳装置及びコンピュータプログラム
KR20160095430A (ko) 아이 트래킹 센서를 이용한 독해 지원 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220405

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230905