JP2022114958A - 医用情報処理装置、医用情報処理方法、及びプログラム - Google Patents

医用情報処理装置、医用情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2022114958A
JP2022114958A JP2021011465A JP2021011465A JP2022114958A JP 2022114958 A JP2022114958 A JP 2022114958A JP 2021011465 A JP2021011465 A JP 2021011465A JP 2021011465 A JP2021011465 A JP 2021011465A JP 2022114958 A JP2022114958 A JP 2022114958A
Authority
JP
Japan
Prior art keywords
information
neural activity
sensory
subject
evaluator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021011465A
Other languages
English (en)
Inventor
愛菜 池崎
Aina Ikezaki
恭子 藤澤
Kyoko Fujisawa
千尋 服部
Chihiro Hattori
尚孝 坂下
Naotaka Sakashita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2021011465A priority Critical patent/JP2022114958A/ja
Priority to US17/581,036 priority patent/US20220237774A1/en
Publication of JP2022114958A publication Critical patent/JP2022114958A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

【課題】被験者の感覚を体感することが可能な情報を提示すること。【解決手段】医用情報処理装置は、取得部と、第1推定部と、決定部と、備える。前記取得部は、被験者の神経の活動を示す第1神経活動情報を取得する。前記第1推定部は、前記第1神経活動情報に基づいて、前記被験者が感じている感覚を示す第1感覚情報を推定する。前記決定部は、前記第1感覚情報に基づいて、評価者に前記被験者の感覚を体感させるための提示情報を決定する。【選択図】図1

Description

本明細書及び図面に開示の実施形態は、医用情報処理装置、医用情報処理方法、及びプログラムに関する。
従来、機能的磁気共鳴画像法(functional Magnetic Resonance Imaging;fMRI)や脳波計(Electroencephalogram;EEG)などを用いて脳活動情報を計測し,計測データから認知情報や感覚情報を推定する技術が知られている。
また、患者等の被験者の精神症状を客観的に把握する困難な精神医学の分野では、医師や臨床心理士等の評価者は、被験者自身の主観的体験の報告と行動観察とに基づいて、主観的に診断や治療効果の評価を行っている。
しかしながら、評価者は、主観的に診断や治療効果の評価を行っていると、誤診や不適切な投薬判断を行ってしまう可能性がある。
特表2019-527416号公報 特開2019-32767号公報 特開2015-116213号公報
本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、被験者の感覚を体感することが可能な情報を提示することである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。
実施形態に係る医用情報処理装置は、取得部と、第1推定部と、決定部と、備える。前記取得部は、被験者の神経の活動を示す第1神経活動情報を取得する。前記第1推定部は、前記第1神経活動情報に基づいて、前記被験者が感じている感覚を示す第1感覚情報を推定する。前記決定部は、前記第1感覚情報に基づいて、評価者に前記被験者の感覚を体感させるための提示情報を決定する。
図1は、第1の実施形態に係る医用情報処理装置の構成の一例を示すブロック図である。 図2は、視覚デコーダの概要を説明する説明図である。 図3は、第1感覚推定機能における感覚デコーダの概要を説明する説明図である。 図4は、第2感覚推定機能における感覚デコーダの概要を説明する説明図である。 図5は、入出力された単語のベクトルを有するベクトル空間の一例を示す図である。 図6は、第1の実施形態に係る医用情報処理装置が実行する検査処理の一例を示すフローチャートである。 図7は、第1の実施形態に係る医用情報処理装置が実行する被験者感覚推定処理の一例を示すフローチャートである。 図8は、第1の実施形態に係る医用情報処理装置が実行する評価者感覚推定処理の一例を示すフローチャートである。 図9は、第1の実施形態に係る医用情報処理装置が実行する同調処理の一例を示すフローチャートである。 図10は、第1の実施形態に係る医用情報処理装置が実行する探索処理の一例を示すフローチャートである。 図11は、第2の実施形態に係る医用情報処理装置の構成の一例を示すブロック図である。 図12は、オノマトペの2次元分布図の一例を示す図である。
以下、図面を参照しながら、本実施形態に関する医用情報処理装置、医用情報処理方法、及びプログラムについて説明する。以下の実施形態では、同一の参照符号を付した部分は同様の動作をおこなうものとして、重複する説明を適宜省略する。
(第1の実施形態)
図1は、第1の実施形態に係る医用情報処理装置1の構成の一例を示すブロック図である。医用情報処理装置1は、機能的磁気共鳴画像法(functional Magnetic Resonance Imaging;fMRI)や脳波計(Electroencephalogram;EEG)等の計測装置から、患者等の被験者の第1神経活動情報及び第2神経活動情報を取得する。第1神経活動情報は、被験者の脳や神経の電気活動を記録した情報である。例えば、第1神経活動情報は、被検体の感覚に関連する前頭葉などの脳の活動を記録した脳活動情報である。第2神経活動情報は、第1神経活動情報とは異なる、被験者の脳や神経の電気活動を記録した情報である。例えば、第2神経活動情報は、被検体の視覚に関連する視覚野などの脳の活動を記録した脳活動情報である。なお、計測装置は、機能的磁気共鳴画像法や脳波計に限らず、他の装置であってもよい。
また、医用情報処理装置1は、第2神経活動情報に基づいて、被験者の視覚を示す視覚情報を生成する。すなわち、医用情報処理装置1は、第2神経活動情報により示された状態時の被験者の視覚を示す画像データを生成する。
また、医用情報処理装置1は、第1神経活動情報に基づいて、被験者が感じている感覚の種類と、感覚の程度とを推定することにより第1感覚情報を生成する。感覚の種類とは、例えば、歓喜、敬愛、恐怖、驚嘆、悲観、嫌悪、激怒、警戒等の種類である。感覚の程度とは、例えば、レベル1、レベル2、レベル3等の程度である。
また、医用情報処理装置1は、計測装置から、提示情報が提示された時の評価者の第3神経活動情報を取得する。提示情報は、被験者の感覚を体感されるために評価者に提示される情報である。例えば、提示情報は、視覚情報等の画像データである。または、提示情報は、被験者の感覚を体感されるために探索された画像データである。評価者とは、医師や臨床心理士等の被験者の感覚を評価する者である。第3神経活動情報とは、評価者の脳や神経の電気活動を記録した情報である。例えば、第3神経活動情報は、評価者の感覚に関連する前頭葉などの脳の活動を記録した脳活動情報である。
また、医用情報処理装置1は、第3神経活動情報に基づいて、評価者が感じている感覚の種類と、感覚の程度とを推定することにより第2感覚情報を生成する。
また、医用情報処理装置1は、第1感覚情報と、第2感覚情報との類似度が閾値以上であるか否かを判定する。医用情報処理装置1は、類似度が閾値未満の場合に、類似度が閾値以上になる提示情報を探索する。言い換えると、医用情報処理装置1は、被験者の感覚を評価者が体感することが可能な提示情報を探索する。例えば、医用情報処理装置1は、被験者が感じている恐怖と略同等な恐怖を評価者に感じさせることが可能な画像データ等の提示情報を探索する。
そして、医用情報処理装置1は、被験者の第1感覚情報と、評価者の第2感覚情報との類似度が閾値以上になった場合に、報知する。このようにして、医用情報処理装置1は、被験者の感覚を体感することが可能な提示情報を提示する。
次に、医用情報処理装置1の構成について説明する。医用情報処理装置1は、NW(ネットワーク)インタフェース11と、入力インタフェース12と、ディスプレイ13と、記憶回路14と、処理回路15とを有する。
NWインタフェース11は、処理回路15に接続され、ネットワークを介して接続された各装置との間で行われる各種データの伝送及び通信を制御する。例えば、NWインタフェース11は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。
入力インタフェース12は、処理回路15に接続され、操作者(医療従事者)から受け付けた入力操作を電気信号に変換して処理回路15に出力する。具体的には、入力インタフェース12は、操作者から受け付けた入力操作を電気信号へ変換して処理回路15に出力する。例えば、入力インタフェース12は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び音声入力回路等によって実現される。なお、本明細書において、入力インタフェース12は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インタフェース12の例に含まれる。
ディスプレイ13は、処理回路15に接続され、処理回路15から出力される各種情報及び各種画像データを表示する。例えば、ディスプレイ13は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ、有機ELディスプレイ、プラズマディスプレイ、タッチパネル等によって実現される。
記憶回路14は、処理回路15に接続され、各種データを記憶する。また、記憶回路14は、処理回路15が読み出して実行することで各種機能を実現するための種々のプログラムを記憶する。例えば、記憶回路14は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。
処理回路15は、医用情報処理装置1全体の動作を制御する。処理回路15は、例えば、神経活動情報取得機能151、視覚情報生成機能152、第1感覚推定機能153、第3神経活動情報取得機能154、第2感覚推定機能155、探索機能156、提示機能157、及び報知機能158にて行われる各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路14へ記憶されている。処理回路15は、プログラムを記憶回路14から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路15は、図1の処理回路15内に示された各機能を有することになる。
なお、図1においては単一のプロセッサにて、神経活動情報取得機能151、視覚情報生成機能152、第1感覚推定機能153、第3神経活動情報取得機能154、第2感覚推定機能155、探索機能156、提示機能157、及び報知機能158を実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路15を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、図1においては、記憶回路14等の単一の記憶回路が各処理機能に対応するプログラムを記憶するものとして説明したが、複数の記憶回路を分散して配置して、処理回路15は、個別の記憶回路から対応するプログラムを読み出す構成としても構わない。
上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD),及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路14に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路14にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
神経活動情報取得機能151は、被験者の神経の活動を示す第1神経活動情報を取得する。さらに、神経活動情報取得機能151は、被験者の視覚に関連する神経の活動を示す第2神経活動情報を取得する。神経活動情報取得機能151は、取得部の一例である。更に詳しくは、神経活動情報取得機能151は、機能的磁気共鳴画像法や脳波計等の計測装置から第1神経活動情報及び第2神経活動情報を取得する。また、神経活動情報取得機能151は、被験者における指定部分の第1神経活動情報及び第2神経活動情報を取得してもよい。例えば、神経活動情報取得機能151は、被験者の脳の前頭葉の第1神経活動情報を取得してもよい。また、神経活動情報取得機能151は、被験者の脳の視覚野の第2神経活動情報を取得してもよい。
視覚情報生成機能152は、第1神経活動情報が示す状態にある場合の被験者の視覚を再現した視覚情報を生成する。視覚情報は、被験者の視覚を再現した画像データである。
更に詳しくは、視覚情報生成機能152は、視覚デコーダにより第2神経活動情報から視覚情報を生成する。言い換えると、視覚情報生成機能152は、視覚に関連する神経の活動を示す第2神経活動情報と画像データとの対応関係を機械学習により学習した視覚デコーダに基づいて、画像データを生成する。ここで、図2は、視覚デコーダの概要を説明する説明図である。図2に示すように、視覚デコーダは、第2神経活動情報が入力された場合に、第2神経活動情報に対応する視覚情報を生成する。
例えば、視覚デコーダは、機械学習により生成された学習済みモデルにより実現される。更に詳しくは、視覚デコーダは、学習済みモデルの入力側の教師データとして第2神経活動情報を入力し、出力側の教師データとして第2神経活動情報に対応した視覚情報を入力する教師有り学習により生成される。
例えば、視覚デコーダは、入力側の教師データとして視野野の第2神経活動情報を入力し、出力側の教師データとしての第2神経活動情報を取得時に見ていた画像データを入力する教師有り学習により生成される。また、視覚デコーダを生成する教師データである第2神経活動情報を取得する対象となる人物は、何人であってもよいが、精神疾患を有していない健常者が好ましい。
第1感覚推定機能153は、第1神経活動情報に基づいて、被験者が感じている感覚を推定することにより第1感覚情報を生成する。言い換えると、第1感覚推定機能153は、第1神経活動情報に基づいて、被験者が感じている感覚を示す第1感覚情報を推定する。第1感覚推定機能153は、第1推定部の一例である。更に詳しくは、第1感覚推定機能153は、第1神経活動情報と第1感覚情報との対応関係を機械学習により学習した感覚デコーダに基づいて、第1感覚情報を推定する。第1感覚情報とは、被験者の五感及び当該五感の程度に関する情報である。
ここで、図3は、第1感覚推定機能153における感覚デコーダの概要を説明する説明図である。図3に示すように、感覚デコーダは、第1神経活動情報と、第1神経活動情報に対応した視覚情報とが入力された場合に、第1神経活動情報及び視覚情報に対応する第1感覚情報を生成する。言い換えると、感覚デコーダは、第1神経活動情報と、第1神経活動情報に対応する画像データと基づいて、第1感覚情報を推定する。例えば、感覚デコーダは、機械学習により生成された学習済みモデルにより実現される。更に詳しくは、感覚デコーダは、学習済みモデルの入力側の教師データとして第1神経活動情報及び視覚情報を入力し、出力側の教師データとして第1神経活動情報及び視覚情報に対応した第1感覚情報を入力する教師有り学習により生成される。
なお、図3に示す感覚デコーダは、視覚情報が入力されている。しかしながら、感覚デコーダは、視覚情報が入力されなくてもよい。すなわち、感覚デコーダは、第1神経活動情報が入力された場合に、第1神経活動情報に対応する第1感覚情報を生成してもよい。この場合、感覚デコーダは、学習済みモデルの入力側の教師データとして第1神経活動情報を入力し、出力側の教師データとして第1神経活動情報に対応した第1感覚情報を入力する教師有り学習により生成される。
第3神経活動情報取得機能154は、提示情報が提示された時の評価者の神経の活動を示す第3神経活動情報を取得する。更に詳しくは、第3神経活動情報取得機能154は、機能的磁気共鳴画像法や脳波計等の計測装置から第3神経活動情報を取得する。また、第3神経活動情報取得機能154は、評価者における指定部分の第3神経活動情報を取得してもよい。例えば、第3神経活動情報取得機能154は、評価者の感覚に関連する前頭葉の第3神経活動情報を取得してもよい。
第2感覚推定機能155は、第3神経活動情報に基づいて、評価者が感じている感覚を推定することにより第2感覚情報を生成する。更に詳しくは、第2感覚推定機能155は、感覚デコーダにより第3神経活動情報から第2感覚情報を生成する。第2感覚情報とは、評価者の五感及び当該五感の程度に関する情報である。
図4は、第2感覚推定機能155における感覚デコーダの概要を説明する説明図である。図4に示すように、評価者は、被験者の視覚情報を見る。言い換えると、評価者は、提示情報を見る。感覚デコーダは、視覚情報又は提示情報を見た時の第3神経活動情報と、第3神経活動情報に対応した視覚情報又は提示情報とが入力された場合に、第3神経活動情報及び視覚情報に対応する第2感覚情報を生成する。言い換えると、第2感覚推定機能155は、評価者の神経の活動を示す第3神経活動情報と、視覚デコーダが生成した前記画像データとに基づいて評価者が感じている感覚を示す第2感覚情報を推定する。また、第2感覚推定機能155は、第1感覚推定機能153と同じ感覚デコーダを使用してもよいし、専用に生成された感覚デコーダを使用してもよい。
なお、図4に示す感覚デコーダは、視覚情報が入力されている。しかしながら、第1感覚推定機能153と同様に、感覚デコーダは、視覚情報が入力されなくてもよい。すなわち、第2感覚推定機能155は、第1感覚推定機能153が第1神経活動情報及び視覚情報を感覚デコーダに入力している場合には、第1神経活動情報及び視覚情報を感覚デコーダに入力する。そして、第2感覚推定機能155は、第1感覚推定機能153が第1神経活動情報を感覚デコーダに入力している場合には、第1神経活動情報を感覚デコーダに入力する。
探索機能156は、評価者に被験者の感覚を体感させるための提示情報を探索する。更に詳しくは、探索機能156は、被験者の感覚を示す第1感覚情報と、評価者の感覚を示す第2感覚情報との類似度が閾値未満である場合に、感覚の類似度が閾値以上となる提示情報を探索する。そして、探索機能156は、第1感覚情報に基づいて、評価者に被験者の感覚を体感させるための提示情報を決定する。探索機能156は、決定部の一例である。
例えば、探索機能156は、第1感覚情報と、第2感覚情報との類似度を算出する。探索機能156は、第1感覚情報の感覚の種類と、第2感覚情報の感覚の種類との類似度を算出する。さらに、探索機能156は、第1感覚情報が示す感覚の程度と、第2感覚情報が示す感覚の程度との類似度を算出する。これにより、探索機能156は、感覚の類似度を算出する。言い換えると、探索機能156は、被験者の第1感覚情報と評価者の第2感覚情報とに基づいて、評価者への提示情報を決定する。ここで、第1感覚情報と、第2感覚情報とは、それぞれ第1神経活動情報と、第3神経活動情報とから生成される。そこで、探索機能156は、第1感覚情報と、第2感覚情報とに限らず、第1神経活動情報と、第3神経活動情報とにより類似度を算出してよい。さらに、探索機能156は、別の方法により感覚の類似度を算出してよい。言い換えると、探索機能156は、被験者の第1神経活動情報と、評価者の第3神経活動情報との類似度が閾値以上になるような提示情報を決定する。
次に、提示情報の探索方法について説明する。視覚情報が示す画像データを見た場合に、評価者が、どのような感覚になるかは気質や文化的背景により異なっている。例えば、蜘蛛の画像データを見た時に、評価者がどのような感覚になるのかは、評価者ごとに異なっている。そこで、探索機能156は、感覚の類似度が閾値以上となる提示情報を探索する処理を繰り返し実行する。
例えば、探索機能156は、視覚情報の対象を示す単語と、感情情報が示す感情の種類を示す単語とを入力した場合に、周辺単語を出力する自然言語処理モデルを使用する。周辺単語とは、入力した単語と意味合いが近い単語である。例えば、自然言語処理モデルは、機械学習により生成される。自然言語処理モデルは、「Word2Vec」などの自然言語処理アルゴリズムである。自然言語処理モデルは、単語と単語の意味的な関係性を適切に表現する多次元のベクトル空間を学習する。単語同士の意味的な近さは,対応する単語ベクトルの距離として表現される。探索機能156は、自然言語処理モデルから周辺単語が出力された場合に、入出力された単語のベクトルを有するベクトル空間を構築する。
図5は、入出力された単語のベクトルを有するベクトル空間の一例を示す図である。図5に示すベクトル空間は、自然言語処理モデルから2つの周辺単語が出力された場合を示している。探索機能156は、ベクトル空間を構築した場合に、評価者の感覚をベクトル空間に設定する。例えば、探索機能156は、第2感覚情報が示す感情の種類、及び感情の程度の意味に該当するベクトル空間の位置に設定する。
探索機能156は、ベクトル空間において、被験者と、評価者との感情の類似度が閾値以上になると推定される目標位置を設定する。また、探索機能156は、ベクトル空間を探索することで、目標位置の単語を特定する。例えば、探索機能156は、ベクトル空間において、コスト関数が最小となる単語を探索する。そして、探索機能156は、探索した単語により特定される提示情報を出力する。すなわち、探索機能156は、単語を示す対象が含まれる画像データを出力する。
さらに,自然言語処理モデルは,単語ベクトルを用いて「王-男性+女性=女王」のように、単語同士の仮想的な加算や減算を実行することができる。そこで、探索機能156は、既に構築されたベクトル空間を構成する各単語に対して,評価者が後処理として自らの気質や文化的背景に即した文脈の中で被験者の感覚情報を共有することを目的として、単語同士の演算を実行してもよい。これにより、探索機能156は、ベクトル空間を再構築することができる。なお、探索機能156は、音や匂い等の視覚とは異なる感覚に関連する単語ベクトルが出力された場合、探索した特定の提示情報に対して、追加の情報としてそれら単語ベクトルに関連する感覚の情報を付与してもよい。
提示機能157は、探索機能156が提示情報を探索する度に、評価者に提示情報を提示する。更に詳しくは、提示機能157は、ディスプレイ13に提示情報を表示させることで、評価者に提示情報を提示する。なお、提示機能157は、ディスプレイ13に限らず、XR(X Reality)等の仮想空間技術のデバイスにより評価者に提示情報を提示してもよい。更に詳しくは、AR(Augmented Reality;拡張現実)、MR(Mixed Reality;複合現実)、SR(Substitutional Reality;代替現実)、VR(Virtual Reality;仮想現実)等のデバイスより評価者に提示情報を提示してもよい。
報知機能158は、被験者の感覚と、評価者の感覚との類似度が閾値以上になった場合に、報知する。これにより、評価者は、被験者の感覚と略同じ感覚であることを知ることができる。
次に、医用情報処理装置1が実行する各種処理について説明する。
図6は、第1の実施形態に係る医用情報処理装置1が実行する検査処理の一例を示すフローチャートである。
医用情報処理装置1は、図7に示す被験者の感覚を推定する被験者感覚推定処理を実行する(ステップS1)。
医用情報処理装置1は、図8に示す評価者の感覚を推定する評価者感覚推定処理を実行する(ステップS2)。
医用情報処理装置1は、図9に示す同調処理を実行する(ステップS3)。
以上により、医用情報処理装置1は、検査処理を終了する。
図7は、第1の実施形態に係る医用情報処理装置1が実行する被験者感覚推定処理の一例を示すフローチャートである。
神経活動情報取得機能151は、被験者の脳波等を計測する計測装置から第1神経活動情報及び第2神経活動情報を取得する(ステップS11)。
視覚情報生成機能152は、視覚デコーダを使用して、第2神経活動情報から視覚情報を生成する(ステップS12)。
第1感覚推定機能153は、感覚デコーダを使用して、被験者の感覚を推定することで第1感覚情報を生成する(ステップS13)。
以上により、医用情報処理装置1は、被験者感覚推定処理を終了する。
図8は、第1の実施形態に係る医用情報処理装置1が実行する評価者感覚推定処理の一例を示すフローチャートである。
第3神経活動情報取得機能154は、提示された視覚情報を見た評価者の脳波等を計測する計測装置から第3神経活動情報を取得する(ステップS21)。
第2感覚推定機能155は、感覚デコーダを使用して、第3神経活動情報から第2感覚情報を生成する(ステップS22)。
以上により、医用情報処理装置1は、評価者感覚推定処理を終了する。
図9は、第1の実施形態に係る医用情報処理装置1が実行する同調処理の一例を示すフローチャートである。
探索機能156は、被験者の感覚と、評価者の感覚との類似度を算出する(ステップS31)。すなわち、探索機能156は、第1感覚情報と、第2感覚情報との類似度を算出する。
探索機能156は、被験者の感覚と、評価者の感覚との類似度が閾値以上であるか否かを判定する(ステップS32)。
感覚の類似度が閾値未満である場合に(ステップS32;No)、医用情報処理装置1は、図10に示す探索処理を実行する(ステップS33)。
提示機能157は、探索処理により取得した提示情報を提示する(ステップS34)。そして、医用情報処理装置1は、ステップS31に移行する。
感覚の類似度が閾値以上である場合に(ステップS32;Yes)、報知機能158は、被験者の感覚と評価者の感覚との類似を報知する(ステップS35)。
以上により、医用情報処理装置1は、同調処理を終了する。
図10は、第1の実施形態に係る医用情報処理装置1が実行する探索処理の一例を示すフローチャートである。
探索機能156は、視覚情報に関連する単語を特定する(ステップS41)。なお、探索機能156は、被験者の感覚と、視覚情報を提示された評価者の感覚との類似度が閾値以上にならなかった場合には、提示情報に関連する単語を特定する。
探索機能156は、視覚情報又は提示情報が示す対象を示す単語と、評価者の第2感情情報が示す感情の種類を示す単語との周辺単語を推定する(ステップS42)。すなわち、探索機能156は、画像データが示す対象を示す単語と、評価者の第2感情情報が示す感情の種類を示す単語とを自然言語処理モデルに入力する。そして、探索機能156は、自然言語処理モデルから出力された単語を周辺単語とする。
探索機能156は、自然言語処理モデルに入力した単語のベクトルと、自然言語処理モデルから出力された周辺単語のベクトルとを有するベクトル空間を構築する(ステップS43)。
探索機能156は、評価者の感覚を初期位置としてベクトル空間に設定する(ステップS44)。
探索機能156は、被験者と、評価者との感情の類似度が閾値以上になると推定される目標位置をベクトル空間に設定する(ステップS45)。
探索機能156は、ベクトル空間を探索することで、目標位置に対応する単語を特定する(ステップS46)。
探索機能156は、特定した単語に対応した提示情報を取得する(ステップS47)。すなわち、探索機能156は、単語を示す対象が含まれる画像データを取得する。
以上により、医用情報処理装置1は、探索処理を終了する。
以上のように、第1の実施形態に係る医用情報処理装置1は、被験者の神経の活動を示す第1神経活動情報を取得する。また、医用情報処理装置1は、第1神経活動情報に基づいて、被験者が感じている感覚を示す第1感覚情報を推定する。そして、医用情報処理装置1は、第1感覚情報に基づいて、評価者に被験者の感覚を体感させるための提示情報を決定する。これにより、評価者は、被験者の感覚を体感しつつ、診断等を行うことができる。すなわち、医用情報処理装置1は、被験者の感覚を体感することが可能な情報を提示することができる。
(変形例1)
提示情報は、画像データであると説明した。しかしながら、提示情報は、画像データに限らず、聴覚情報であってもよい。
ここで、視覚情報生成機能152は、評価者に提示するために、視覚情報を生成する。また、探索機能156は、視覚情報を提示しても、被験者と評価者との感覚の類似度が閾値未満の場合に、画像データを探索する。提示機能157は、視覚情報生成機能152が視覚情報を生成した場合や、探索機能156が画像データを生成した場合に、視覚情報や画像データが示す対象に対応した聴覚情報を取得する。
例えば、提示機能157は、視覚情報や画像データが示す対象が火事の場合、火事の現場の音声を有する聴覚情報を取得する。そして、提示機能157は、取得した聴覚情報を評価者に提示する。すなわち、提示機能157は、スピーカーなどから聴覚情報を出力させる。
また、提示機能157は、如何なる方法により聴覚情報を取得してもよい。例えば、提示機能157は、聴覚情報のデータベースから、視覚情報や画像データが示す対象により特定される聴覚情報を取得する。または、提示機能157は、視覚情報や画像データが示す対象を示す情報を入力した場合に聴覚情報を出力する学習済みモデルにより、聴覚情報を取得してもよい。
なお、医用情報処理装置1は、視覚情報や画像データを介さずに、直接的に聴覚情報を取得してもよい。例えば、医用情報処理装置1は、聴覚野から取得した第1神経活動情報に基づいて、聴覚情報を生成してもよい。
(変形例2)
提示情報は、画像データであると説明した。しかしながら、提示情報は、画像データに限らず、嗅覚情報であってもよい。
ここで、視覚情報生成機能152は、評価者に提示するために、視覚情報を生成する。また、探索機能156は、視覚情報を提示しても、被験者と評価者との感覚の類似度が閾値未満の場合に、画像データを探索する。
提示機能157は、視覚情報生成機能152が視覚情報を生成した場合や、探索機能156が画像データを生成した場合に、視覚情報や画像データが示す対象に対応した嗅覚情報を取得する。提示機能157は、視覚情報や画像データが示す対象が火事の場合、火事の現場のにおいの成分が示された嗅覚情報を取得する。そして、提示機能157は、取得した嗅覚情報を評価者に提示する。すなわち、提示機能157は、指定された成分のにおいを発生させる装置から、嗅覚情報が示す成分のにおいを出力させる。
また、提示機能157は、如何なる方法により嗅覚情報を取得してもよい。例えば、提示機能157は、嗅覚情報のデータベースから、視覚情報や画像データが示す対象により特定される嗅覚情報を取得する。または、提示機能157は、視覚情報や画像データが示す対象を示す情報を入力した場合に嗅覚情報を出力する学習済みモデルにより、嗅覚情報を取得してもよい。
なお、医用情報処理装置1は、嗅覚情報や画像データを介さずに、直接的に嗅覚情報を取得してもよい。例えば、医用情報処理装置1は、嗅覚野から取得した第1神経活動情報に基づいて、嗅覚情報を生成してもよい。
(第2の実施形態)
第2の実施形態に係る医用情報処理装置1aは、提示情報として、触覚情報を提示する。図11は、第1の実施形態に係る医用情報処理装置1aの構成の一例を示すブロック図である。
神経活動情報取得機能151aは、筋肉電気刺激(Electrical Muscle Stimulation;EMS)システムなどの触覚デバイスにより触覚刺激が与えられた被験者の第2神経活動情報を取得する。第2神経活動情報には、脊髄の神経電位や筋肉電位、又は大脳皮質における脳波や脳電位などの脳活動情報が含まれている。言い換えると、第2神経活動情報は、被検体の筋肉が収縮するときに生じる活動電位を示す筋電位情報である。
触覚情報生成機能159は、第2神経活動情報から触覚情報を生成する。触覚情報は、触覚デバイスを介して評価者に提示される提示情報である。例えば、触覚デバイスは、触覚情報に従って、接触刺激を評価者に与える。触覚情報生成機能159は、第2神経活動情報に基づいて、接触刺激の強度や持続時間等を含む触覚情報を生成する。例えば、触覚情報生成機能159は、基準線と振幅最大値との差分を接触刺激の強度とする。また、正規化が必要な場合は皮膚刺激を与えていない、すなわち触覚刺激のない時間スケールでの振幅値の平均を用いて補正する。また、触覚情報生成機能159は、測定時間中における基準線からある閾値以上の振幅値が続く時間の総和を持続時間とする。また、触覚情報生成機能159は、基準線上のノイズを考慮する。触覚情報生成機能159は、複数回断続してパルス状のノイズが続く場合には,その回数も一つの指標として算出する。さらに,触覚情報生成機能159は、接触刺激の強度と持続時間の積和を触覚全体の強度を示す指標として算出してもよい。
第1感覚推定機能153aは、被検体の前頭葉などから取得した第1神経活動情報に基づいて、被験者が感じている感覚を推定することにより第1感覚情報を生成する。例えば、第1感覚推定機能153aは、オノマトペにより被験者が感じている感覚を表現した第1感覚情報を生成する。言い換えると、第1感覚情報は、触覚を示す情報である。
ここで、図12は、オノマトペの2次元分布図の一例を示す図である。オノマトペは、「つるつる」「さらさら」など擬音語や擬態語の総称である。そして、オノマトペに抱く感覚イメージは個人によって異なる。図12は、触覚の対応関係を示した2次元分布図に、各個人が抱く「つるつる」「さらさら」等の各オノマトペが設定される。すなわち、オノマトペの2次元分布図は、被験者及び評価者ごとに作成される。よって、第1感覚推定機能153aは、第1神経活動情報により特定される感覚を、オノマトペの2次元分布図に投影することで、被験者に適したオノマトペを特定することができる。
例えば、第1感覚推定機能153aは、感覚デコーダを使用して、第1神経活動情報により特定される感覚を、オノマトペの2次元分布図に投影する。これにより、第1感覚推定機能153aは、被験者に適したオノマトペを特定することができる。そして、第1感覚推定機能153aは、特定したオノマトペを有する第1感覚情報を生成する。
第3神経活動情報取得機能154aは、触覚デバイスにより触覚刺激が与えられた評価者の第3神経活動情報を取得する。触覚デバイスは、被験者の触覚情報に基づいて、動作する。すなわち、触覚デバイスは、被験者の触覚情報に基づいて、触覚刺激を出力する。よって、第3神経活動情報取得機能154aは、被験者が感じた感覚が与えられた時の評価者の第3神経活動情報を取得することができる。
第2感覚推定機能155aは、第3神経活動情報に基づいて、評価者が感じている感覚を推定することにより第2感覚情報を生成する。例えば、第2感覚推定機能155aは、感覚デコーダを使用して、第3神経活動情報により特定される感覚を、オノマトペの2次元分布図に投影する。これにより、第2感覚推定機能155aは、評価者に適したオノマトペを特定することができる。そして、第2感覚推定機能155aは、特定したオノマトペを有する第2感覚情報を生成する。
探索機能156aは、評価者に被験者の感覚を体感させるための提示情報を探索する。更に詳しくは、探索機能156aは、被験者の感覚と、評価者の感覚との類似度が閾値未満である場合に、感覚の類似度が閾値以上となる提示情報を探索する。例えば、探索機能156aは、第1感覚情報のオノマトペにより特定される2次元分布図上の感覚の投影位置と、第2感覚情報のオノマトペにより特定される2次元分布図上の感覚の投影位置との類似度を算出する。そして、探索機能156aは、感覚の類似度が閾値未満である場合に、感覚の類似度が閾値以上になる提示情報を探索する。言い換えると、探索機能156aは、触覚デバイスを介して評価者に提示される触覚情報を探索する。
提示機能157aは、探索機能156aが提示情報を探索する度に、触覚デバイスを介して評価者に触覚情報を提示する。
報知機能158は、被験者の感覚と、評価者の感覚との類似度が閾値以上になった場合に、報知する。これにより、評価者は、触覚において、被験者の感覚と略同じ感覚であることを知ることができる。
以上のように、第2の実施形態に係る医用情報処理装置1aは、触覚刺激が与えられている被験者から1神経活動情報を取得する。医用情報処理装置1は、第1神経活動情報に基づいて、被験者が感じている触覚を示す第1感覚情報を推定する。そして、医用情報処理装置1は、第1感覚情報に基づいて、評価者に被験者の触覚を体感させるための提示情報を決定する。これにより、評価者は、被験者の触覚刺激を体感しつつ、診断等を行うことができる。すなわち、医用情報処理装置1は、被験者の感覚を体感することが可能な情報を提示することができる。
なお、提示機能157aは、触覚情報に限らず、オノマトペを提示情報として提示してもよい。第2感覚推定機能155aは、第1神経活動情報や第1感覚情報を使用して、評価者のオノマトペの2次元分布図上に、被験者の感覚を投影する。そして、第2感覚推定機能155aは、評価者のオノマトペの2次元分布図上における被験者の感覚が投影された位置に最も近い評価者のオノマトペを特定する。これにより、第2感覚推定機能155aは、被験者のオノマトペを、評価者のオノマトペに置換することができる。そして、提示機能157aは、置換した評価者のオノマトペを提示情報として提示してもよい。この場合においても、評価者は、被験者の感覚を疑似的に体感することができる。
また、接触を定量化する方法としてオノマトペを例に説明した。しかしながら、接触を定量化する方法は、オノマトペに限らず、他の方法であってもよい。個人の表情から痛みの強さを判定するFRS(Face Rating Scale)により接触を定量化してもよいし、個人の問診に使用されるPain Detectシートに基づいて接触を定量化してもよいし、他の方法により接触を定量化してもよい。
いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1、1a 医用情報処理装置
11 NW(ネットワーク)インタフェース
12 入力インタフェース
13 ディスプレイ
14 記憶回路
15 処理回路
151、151a 神経活動情報取得機能
152 視覚情報生成機能
153、153a 第1感覚推定機能
154、154a 第3神経活動情報取得機能
155、155a 第2感覚推定機能
156、156a 探索機能
157、157a 提示機能
158 報知機能
159 触覚情報生成機能

Claims (11)

  1. 被験者の神経の活動を示す第1神経活動情報を取得する取得部と、
    前記第1神経活動情報に基づいて、前記被験者が感じている感覚を示す第1感覚情報を推定する第1推定部と、
    前記第1感覚情報に基づいて、評価者に前記被験者の感覚を体感させるための提示情報を決定する決定部と、
    を備える、医用情報処理装置。
  2. 前記第1推定部は、前記第1神経活動情報と前記第1感覚情報との対応関係を機械学習により学習した感覚デコーダに基づいて、前記第1感覚情報を推定する、
    請求項1に記載の医用情報処理装置。
  3. 前記感覚デコーダは、前記第1神経活動情報と、前記第1神経活動情報に対応する画像データとに基づいて、前記第1感覚情報を推定する、
    請求項2に記載の医用情報処理装置。
  4. 視覚に関連する神経の活動を示す第2神経活動情報と前記画像データとの対応関係を機械学習により学習した視覚デコーダに基づいて、前記画像データを生成する生成部を更に備える、
    請求項3に記載の医用情報処理装置。
  5. 前記第1感覚情報は、前記被験者の五感及び当該五感の程度に関する情報である、
    請求項1乃至4の何れか一項に記載の医用情報処理装置。
  6. 前記第1神経活動情報は、脳活動情報である、
    請求項1乃至5の何れか一項に記載の医用情報処理装置。
  7. 前記第1神経活動情報は、筋電位情報であり、前記第1感覚情報は、触覚を示す情報である、
    請求項1乃至5の何れか一項に記載の医用情報処理装置。
  8. 前記評価者の神経の活動を示す第3神経活動情報と、前記視覚デコーダが生成した前記画像データとに基づいて前記評価者が感じている感覚を示す第2感覚情報を推定する第2推定部を更に備え、
    前記決定部は、前記被験者の第1感覚情報と前記評価者の第2感覚情報とに基づいて、前記評価者への提示情報を決定する、
    請求項4に記載の医用情報処理装置。
  9. 前記決定部は、前記被験者の前記第1神経活動情報と、前記評価者の前記第3神経活動情報との類似度が閾値以上になるような前記提示情報を決定する、
    請求項8に記載の医用情報処理装置。
  10. 被験者の神経の活動を示す第1神経活動情報を取得し、
    前記第1神経活動情報に基づいて、前記被験者が感じている感覚を示す第1感覚情報を推定し、
    前記第1感覚情報に基づいて、評価者に前記被験者の感覚を体感させるための提示情報を決定する、
    ことを含む、医用情報処理方法。
  11. コンピュータに、
    被験者の神経の活動を示す第1神経活動情報を取得し、
    前記第1神経活動情報に基づいて、前記被験者が感じている感覚を示す第1感覚情報を推定し、
    前記第1感覚情報に基づいて、評価者に前記被験者の感覚を体感させるための提示情報を決定する、
    ことを実現させるプログラム。
JP2021011465A 2021-01-27 2021-01-27 医用情報処理装置、医用情報処理方法、及びプログラム Pending JP2022114958A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021011465A JP2022114958A (ja) 2021-01-27 2021-01-27 医用情報処理装置、医用情報処理方法、及びプログラム
US17/581,036 US20220237774A1 (en) 2021-01-27 2022-01-21 Medical information processing apparatus, medical information processing method, and non-transitory computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021011465A JP2022114958A (ja) 2021-01-27 2021-01-27 医用情報処理装置、医用情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2022114958A true JP2022114958A (ja) 2022-08-08

Family

ID=82494791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021011465A Pending JP2022114958A (ja) 2021-01-27 2021-01-27 医用情報処理装置、医用情報処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US20220237774A1 (ja)
JP (1) JP2022114958A (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8560360B2 (en) * 2007-10-23 2013-10-15 Mindmetric Ltd. Method, system and computer program for automated interpretation of measurements in response to stimuli
JP2014239871A (ja) * 2013-05-07 2014-12-25 安東 秀夫 生体活動検出方法、生体活動測定装置、生体活動検出信号の転送方法および生体活動情報を利用したサービスの提供方法
US10285634B2 (en) * 2015-07-08 2019-05-14 Samsung Electronics Company, Ltd. Emotion evaluation
CN108135498B (zh) * 2015-10-15 2020-12-18 大金工业株式会社 有用信息呈现装置

Also Published As

Publication number Publication date
US20220237774A1 (en) 2022-07-28

Similar Documents

Publication Publication Date Title
Marín-Morales et al. Affective computing in virtual reality: emotion recognition from brain and heartbeat dynamics using wearable sensors
Zhao et al. Frontal EEG asymmetry and middle line power difference in discrete emotions
Bergström et al. First-person perspective virtual body posture influences stress: a virtual reality body ownership study
Sel et al. Heartfelt self: cardio-visual integration affects self-face recognition and interoceptive cortical processing
Ahn et al. Performance variation in motor imagery brain–computer interface: a brief review
Kalantari et al. Comparing physiological responses during cognitive tests in virtual environments vs. in identical real-world environments
Fritz et al. Using psycho-physiological measures to assess task difficulty in software development
Greco et al. Advances in Electrodermal activity processing with applications for mental health
Gürkök et al. Brain–computer interfaces for multimodal interaction: a survey and principles
Reuderink et al. Valence, arousal and dominance in the EEG during game play
Courtemanche et al. Physiological heatmaps: a tool for visualizing users’ emotional reactions
Nacke An introduction to physiological player metrics for evaluating games
US20070066916A1 (en) System and method for determining human emotion by analyzing eye properties
Rimbert et al. Can a subjective questionnaire be used as brain-computer interface performance predictor?
Cernea et al. A survey of technologies on the rise for emotion-enhanced interaction
Raheel et al. DEAR-MULSEMEDIA: Dataset for emotion analysis and recognition in response to multiple sensorial media
Wache et al. Implicit user-centric personality recognition based on physiological responses to emotional videos
Parsons et al. Neurocognitive and psychophysiological interfaces for adaptive virtual environments
Mello et al. Wearing same-and opposite-sex virtual bodies and seeing them caressed in intimate areas
Gall et al. The effect of haptic prediction accuracy on presence
Luong et al. A survey on affective and cognitive vr
Cernea et al. Measuring subjectivity: Supporting evaluations with the emotiv EPOC neuroheadset
Harrison et al. EEG and fMRI agree: Mental arithmetic is the easiest form of imagery to detect
JP2015091359A (ja) 脳機能訓練装置および脳機能訓練プログラム
Nam et al. Electroencephalogram microstates and functional connectivity of cybersickness