JP2023002822A - Information processing method, information processing device, and information processing system - Google Patents

Information processing method, information processing device, and information processing system Download PDF

Info

Publication number
JP2023002822A
JP2023002822A JP2022176080A JP2022176080A JP2023002822A JP 2023002822 A JP2023002822 A JP 2023002822A JP 2022176080 A JP2022176080 A JP 2022176080A JP 2022176080 A JP2022176080 A JP 2022176080A JP 2023002822 A JP2023002822 A JP 2023002822A
Authority
JP
Japan
Prior art keywords
subject
information processing
blood flow
moving image
cerebral blood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022176080A
Other languages
Japanese (ja)
Other versions
JP7312977B2 (en
Inventor
真明 柳田
Masaaki Yanagida
雅登 鈴木
Masato Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018079949A external-priority patent/JP7178614B2/en
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JP2023002822A publication Critical patent/JP2023002822A/en
Application granted granted Critical
Publication of JP7312977B2 publication Critical patent/JP7312977B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0261Measuring blood flow using optical means, e.g. infrared light
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1032Determining colour for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/14542Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue for measuring blood gases
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/14546Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue for measuring analytes not otherwise provided for, e.g. ions, cytochromes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • A61B5/14552Details of sensors specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1495Calibrating or testing of in-vivo probes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • A61B5/4064Evaluating the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/683Means for maintaining contact with the body
    • A61B5/6831Straps, bands or harnesses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0204Acoustic sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • A61B2576/026Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part for the brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Physiology (AREA)
  • Optics & Photonics (AREA)
  • Psychiatry (AREA)
  • Cardiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychology (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Neurology (AREA)
  • Social Psychology (AREA)
  • Dentistry (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hematology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Pulmonology (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

PROBLEM TO BE SOLVED: To more effectively perform diagnosis of a psychological state and the like of a subject.
SOLUTION: An information processing method includes: obtaining a first moving image indicating at least one portion of the face of a subject from a first camera; generating a second moving image indicating a secular change of a cerebral blood flow of the subject on the basis of the information on light from the head of the subject detected by an optical detector; and displaying an output image including the first moving image and the second moving image on a display via the network. A frame rate of the second moving image displayed on the display is lower than a frame rate of the first moving image displayed on the display.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

本願は、被検者の生体情報を利用して診断を行うための情報処理方法、情報処理装置、および情報処理システムに関する。 The present application relates to an information processing method, an information processing apparatus, and an information processing system for performing diagnosis using biological information of a subject.

近年、主に都市部ではない地域において、病院および医師が不足している。対策として、ネットワークを介した遠隔診断が有望であると考えられている。 In recent years, there has been a shortage of hospitals and doctors, mainly in non-urban areas. As a countermeasure, remote diagnosis via a network is considered promising.

精神疾患の診断では、医師は、問診によって、患者の表情、視線、および顔色などに基づいて病気の診断を行う。他方、診断の補助ツールとして、近赤外分光法(Near Infrared Spectroscopy:NIRS)を利用した装置(以下、「NIRS装置」と称することがある)が用いられている。NIRS装置は、被検者の被検部に近赤外線などの光を照射し、被検部から戻ってきた光を検出することにより、被検部の血流の情報を取得する。 In diagnosing a mental illness, a doctor diagnoses the illness based on the patient's facial expression, line of sight, complexion, and the like through interviews. On the other hand, as an auxiliary tool for diagnosis, an apparatus using Near Infrared Spectroscopy (NIRS) (hereinafter sometimes referred to as "NIRS apparatus") is used. The NIRS apparatus irradiates light such as near-infrared rays onto the subject's subject area and detects the light returned from the subject area, thereby acquiring blood flow information in the subject area.

NIRS装置を用いることにより、被検者の脳血流の変化を非侵襲に検出することができる。NIRSを利用した診断は、例えば以下のようにして行われる。まず、患者は、NIRS装置を装着した状態で、診断用タスクを実施する。当該タスクの前後において、NIRS装置を用いて、脳の血液中を伝搬した光の強度分布および経時変化などが計測される。計測されたそれらの情報に基づいて、医師は、被検者の精神疾患の有無および種類を診断する。 By using the NIRS device, changes in cerebral blood flow of a subject can be detected non-invasively. Diagnosis using NIRS is performed, for example, as follows. First, the patient performs a diagnostic task while wearing the NIRS device. Before and after the task, an NIRS device is used to measure the intensity distribution of light propagated in the blood of the brain and changes over time. Based on the measured information, the doctor diagnoses the presence and type of mental illness in the subject.

特許文献1は、NIRS装置を利用した脳活動状態の解析方法の一例を開示している。 Patent Literature 1 discloses an example of a brain activity analysis method using an NIRS device.

特開2014-023866号公報JP 2014-023866 A

本開示は、被検者の心理状態などの診断を、従来よりも効果的に行うための新規な技術を提供する。 The present disclosure provides a novel technique for diagnosing the psychological state of a subject more effectively than before.

本開示の一態様に係る情報処理方法は、第1のコンピュータに接続または内蔵される第1のカメラから、被検者の顔の少なくとも一部の画像を示す第1の画像データを取得することと、前記第1のコンピュータに接続または内蔵され、前記被検者の脳血流の状態を示す脳血流情報を検出する検出装置から、前記脳血流情報を取得することと、前記第1の画像データに基づく第1の画像と、前記脳血流情報に基づく第2の画像とを含む出力画像を、前記第1のコンピュータに遠隔ネットワークを介して接続される第2のコンピュータに接続または内蔵されるディスプレイに表示させることと、を含み、前記第1の画像は前記被検者の前記顔の前記少なくとも一部を含む動画像であり、前記第2の画像は前記脳血流情報の経時変化を示す画像である。 An information processing method according to an aspect of the present disclosure acquires first image data representing an image of at least a part of a subject's face from a first camera connected to or built into a first computer. obtaining the cerebral blood flow information from a detection device connected to or built in the first computer for detecting cerebral blood flow information indicating the state of cerebral blood flow of the subject; and the second image based on the cerebral blood flow information is connected to a second computer connected to the first computer via a remote network, or displaying on a built-in display, wherein the first image is a moving image including the at least part of the face of the subject, and the second image is the cerebral blood flow information. It is an image which shows a time-dependent change.

本開示の包括的または具体的な態様は、デバイス、システム、方法、またはこれらの任意の組み合わせによって実現されてもよい。 A general or specific aspect of this disclosure may be implemented by a device, system, method, or any combination thereof.

本開示の一態様によれば、例えば医師と患者とが遠く離れた場所にいる場合であっても、より効果的に診断を行うことが可能になる。 According to one aspect of the present disclosure, diagnosis can be made more effectively, for example, even when a doctor and a patient are far away from each other.

図1は、本開示の例示的な実施形態における情報処理システムの構成を模式的に示すブロック図である。FIG. 1 is a block diagram schematically showing the configuration of an information processing system according to an exemplary embodiment of the present disclosure. 図2は、検出装置を用いて、被検者の被検部における脳血流情報を検出している様子を模式的に示す図である。FIG. 2 is a diagram schematically showing how a detection device is used to detect cerebral blood flow information in a subject's subject. 図3は、検出装置が被検者コンピュータに内蔵され、ディスプレイが診断者コンピュータに内蔵された構成の例を示すブロック図である。FIG. 3 is a block diagram showing an example of a configuration in which the detection device is built in the subject's computer and the display is built in the diagnostician's computer. 図4は、被検者コンピュータ、検出装置、およびカメラの構成の一例を模式的に示す図である。FIG. 4 is a diagram schematically showing an example of the configuration of the subject computer, detection device, and camera. 図5は、被検者コンピュータ、検出装置、およびカメラの構成の他の例を模式的に示す図である。FIG. 5 is a diagram schematically showing another example of the configuration of the subject computer, detection device, and camera. 図6は、図5に示す被検者コンピュータを用いた情報処理システムの構成例を示すブロック図である。FIG. 6 is a block diagram showing a configuration example of an information processing system using the subject computer shown in FIG. 図7は、図6の変形例を示すブロック図である。FIG. 7 is a block diagram showing a modification of FIG. 図8は、ヘッドマウント装置を用いた例を示す図である。FIG. 8 is a diagram showing an example using a head-mounted device. 図9は、ヘッドマウント装置の構成例を模式的に示す図である。FIG. 9 is a diagram schematically showing a configuration example of a head mounted device. 図10は、本開示の例示的な実施形態における遠隔診断での各装置の動作の概要を示す図である。FIG. 10 is a diagram outlining the operation of each device in remote diagnosis in an exemplary embodiment of the present disclosure. 図11は、本開示の例示的な実施形態における遠隔診断の流れの一例を示すフローチャートである。FIG. 11 is a flow chart illustrating an example of a remote diagnosis flow in an exemplary embodiment of the present disclosure; 図12Aは、診断者コンピュータにおけるディスプレイへの表示例を模式的に示す図である。FIG. 12A is a diagram schematically showing a display example on the display of the diagnostician's computer. 図12Bは、図12Aに示す右上の画像の変形例を模式的に示す図である。FIG. 12B is a diagram schematically showing a modification of the upper right image shown in FIG. 12A. 図13は、診断者コンピュータにおけるディスプレイへの他の表示例を模式的に示す図である。FIG. 13 is a diagram schematically showing another display example on the display of the diagnostician's computer. 図14は、診断者コンピュータにおけるディスプレイへのさらに他の表示例を模式的に示す図である。FIG. 14 is a diagram schematically showing still another display example on the display of the diagnostician's computer.

従来の問診またはNIRS装置を用いた診断は、診断者(例えば医師)と被検者(例えば患者)とが対面で行う必要があった。しかし、前述したように、近年、病院または医師の不足により、遠隔での医療診断が求められている。本開示の実施形態は、遠隔での診断に特に効果的な情報処理方法を提供する。なお、本開示の技術は、診断者と被検者とが近くにいる場合でも利用することができる。 A conventional interview or diagnosis using an NIRS apparatus has required face-to-face contact between a diagnostician (eg, a doctor) and an examinee (eg, a patient). However, as mentioned above, in recent years there has been a demand for remote medical diagnosis due to shortages of hospitals or doctors. Embodiments of the present disclosure provide information processing methods that are particularly effective for remote diagnosis. Note that the technique of the present disclosure can be used even when the diagnostician and the subject are close to each other.

本開示の実施形態は、例えば以下の情報処理方法、情報処理装置、および情報処理システムを含む。 Embodiments of the present disclosure include, for example, the following information processing method, information processing apparatus, and information processing system.

[第1の項目]
第1の項目に係る情報処理方法は、第1のコンピュータに接続または内蔵される第1のカメラから、被検者の顔の少なくとも一部の画像を示す第1の画像データを取得することと、前記第1のコンピュータに接続または内蔵され、前記被検者の脳血流の状態を示す脳血流情報を検出する検出装置から、前記脳血流情報を取得することと、前記第1の画像データに基づく第1の画像と、前記脳血流情報に基づく第2の画像とを含む出力画像を、前記第1のコンピュータに遠隔ネットワークを介して接続される第2のコンピュータに接続
または内蔵されるディスプレイに表示させることと、を含む。前記第1の画像は前記被検者の前記顔の前記少なくとも一部を含む動画像であり、前記第2の画像は前記脳血流情報の経時変化を示す画像である。
[First item]
The information processing method according to the first item acquires first image data representing an image of at least a part of the subject's face from a first camera connected to or built into a first computer. obtaining the cerebral blood flow information from a detection device connected to or built in the first computer for detecting cerebral blood flow information indicating the state of cerebral blood flow of the subject; An output image including a first image based on the image data and a second image based on the cerebral blood flow information is connected to or built into a second computer connected to the first computer via a remote network. and causing the display to be displayed. The first image is a moving image including the at least part of the face of the subject, and the second image is an image showing temporal changes in the cerebral blood flow information.

この情報処理方法では、被検者の顔の動画像と、被検者の脳血流情報の経時変化とを含む出力画像が、遠隔ネットワークを介して、第1のコンピュータに接続される第2のコンピュータのディスプレイに表示される。これにより、第2のコンピュータを操作する診断者は、被検者を効果的に遠隔診断することができる。 In this information processing method, an output image including a moving image of the subject's face and changes in cerebral blood flow information of the subject over time is connected to a first computer via a remote network. displayed on the computer display. As a result, the diagnostician who operates the second computer can effectively diagnose the subject remotely.

[第2の項目]
第1の項目に係る情報処理方法において、前記第1の画像が、前記被検者の表情の変化、前記被検者の視線の変化、および前記被検者の顔色の変化からなる群から選択される少なくとも1つを示していてもよい。
[Second Item]
In the information processing method according to the first item, the first image is selected from the group consisting of a change in the subject's facial expression, a change in the subject's line of sight, and a change in the subject's complexion. may indicate at least one

これにより、診断者は、被検者を効果的に遠隔診断することができる。 This allows the diagnostician to effectively remotely diagnose the subject.

[第3の項目]
第1または第2の項目に係る情報処理方法において、前記第2の画像が、数値化された前記脳血流情報の前記経時変化を示すグラフであってもよい。
[Third Item]
In the information processing method according to the first or second item, the second image may be a graph showing the temporal change of the digitized cerebral blood flow information.

これにより、診断者は、被検者を効果的に遠隔診断することができる。 This allows the diagnostician to effectively remotely diagnose the subject.

[第4の項目]
第3の項目に係る情報処理方法は、前記第1のコンピュータに接続または内蔵される出力装置に、前記被検者により行われるタスクを示すタスク情報を出力させることをさらに含んでいてもよい。前記第2の画像は、前記脳血流情報の前記経時変化と、前記タスク情報が出力された期間との対応関係を示す画像を含んでいてもよい。
[Fourth Item]
The information processing method according to the third item may further include causing an output device connected to or built into the first computer to output task information indicating the task performed by the subject. The second image may include an image showing a correspondence relationship between the temporal change of the cerebral blood flow information and the period during which the task information was output.

これにより、タスクの実施中における被検者の脳血流情報の経時変化が明確になる。 This clarifies changes over time in the subject's cerebral blood flow information during execution of the task.

[第5の項目]
第4の項目に係る情報処理方法は、前記第1のカメラからの第2の画像データ、前記第1のコンピュータに接続または内蔵された第2のカメラからの第3の画像データ、および前記第1のコンピュータに接続または内蔵されるマイクからの音声データからなる群から選択される少なくとも1つのデータから基準を超える変化を検出すること、をさらに含んでいてもよい。前記第2の画像は、前記脳血流情報の前記経時変化と、前記少なくとも1つのデータから前記変化を検出した期間との対応関係を示す画像を含んでいてもよい。
[Fifth Item]
The information processing method according to the fourth item includes second image data from the first camera, third image data from a second camera connected to or built into the first computer, and The method may further include detecting a change exceeding a criterion from at least one data selected from the group consisting of audio data from a microphone connected to or built into one computer. The second image may include an image showing a correspondence relationship between the temporal change in the cerebral blood flow information and a period during which the change was detected from the at least one piece of data.

これにより、イベントが被検者の脳血流情報の経時変化に及ぼす影響が明確になる。 This clarifies the influence of the event on the time course of the cerebral blood flow information of the subject.

[第6の項目]
第3に係る情報処理方法は、前記脳血流情報のうち、前記被検者の脳の少なくとも一つの特定領域に関する部分を選択することと、前記部分をグラフ化することと、をさらに含んでいてもよい。
[Sixth Item]
The information processing method according to the third aspect further includes selecting a portion related to at least one specific region of the brain of the subject from the cerebral blood flow information, and graphing the portion. You can

脳血流情報の一部をグラフ化することにより、被検者の脳血流情報を広範囲に調べる必要がない。その結果、診断者は、被検者を効果的に遠隔診断することができる。 By graphing a part of the cerebral blood flow information, it is not necessary to extensively examine the cerebral blood flow information of the subject. As a result, the diagnostician can effectively remotely diagnose the subject.

[第7の項目]
第6の項目に係る情報処理方法は、前記ディスプレイに、前記特定領域を決定するため
の項目を表示させることと、前記第2のコンピュータに接続または内蔵される入力装置から、前記項目に関する入力情報を取得することと、をさらに含んでいてもよい。前記特定領域は、前記入力情報に応じて決定されてもよい。
[Seventh item]
The information processing method related to the sixth item comprises: displaying an item for determining the specific area on the display; inputting information about the item from an input device connected to or built into the second computer; and obtaining a . The specific area may be determined according to the input information.

この情報処理方法では、統計データから、病気または症状に応じて大きく活性化する脳の領域が既知である場合、当該脳の領域を設定することにより、特定領域を容易に決定することができる。 In this information processing method, when a brain region that is greatly activated according to a disease or symptom is known from statistical data, a specific region can be easily determined by setting the brain region.

[第8の項目]
第6の項目に係る情報処理方法は、前記第1のコンピュータに接続または内蔵される出力装置に、前記被検者により行われる予備タスクを示す予備タスク情報を出力させること、をさらに含んでいてもよい。前記特定領域は、前記予備タスク情報に対する前記脳血流情報の変化に応じて決定されてもよい。
[Eighth item]
The information processing method according to the sixth item further includes causing an output device connected to or built in the first computer to output preliminary task information indicating a preliminary task to be performed by the subject. good too. The specific region may be determined according to a change in the cerebral blood flow information with respect to the preliminary task information.

この決定方法は、病気または症状に応じて活性化する脳の領域が既知でない場合に有効である。 This method of determination is useful when the regions of the brain that are activated in response to disease or symptoms are not known.

[第9の項目]
第1の項目に係る情報処理方法は、前記脳血流情報のうち、前記被検者の脳の少なくとも一つの特定領域に関する部分を選択することと、前記部分を前記第1のコンピュータから前記第2のコンピュータへと前記遠隔ネットワークを介して送信することと、を含んでいてもよい。
[Ninth item]
The information processing method according to the first item includes selecting a portion related to at least one specific region of the subject's brain from the cerebral blood flow information, and transmitting the portion from the first computer to the first computer. and sending to two computers over the remote network.

これにより、第1のコンピュータから第2のコンピュータへの通信量を削減することができる。その結果、通信の遅延を抑制することができる。 Thereby, the amount of communication from the first computer to the second computer can be reduced. As a result, communication delay can be suppressed.

[第10の項目]
第9の項目に係る情報処理方法は、前記ディスプレイに、前記特定領域を決定するための項目を表示させることと、前記第2のコンピュータに接続または内蔵される入力装置から、前記項目に関する入力情報を取得することと、をさらに含んでいてもよい。前記特定領域は、前記入力情報に応じて決定されてもよい。
[Tenth item]
The information processing method according to the ninth item comprises: displaying an item for determining the specific area on the display; inputting information about the item from an input device connected to or built into the second computer; and obtaining a . The specific area may be determined according to the input information.

この情報処理方法では、統計データから、病気または症状に応じて大きく活性化する脳の領域が既知である場合、当該脳の領域を設定することにより、特定領域を容易に決定することができる。 In this information processing method, when a brain region that is greatly activated according to a disease or symptom is known from statistical data, a specific region can be easily determined by setting the brain region.

[第11の項目]
第9の項目に係る情報処理方法は、前記第1のコンピュータに接続または内蔵される出力装置に、前記被検者により行われる予備タスクを示す予備タスク情報を出力させること、をさらに含んでいてもよい。前記特定領域は、前記予備タスク情報に対する前記脳血流情報の変化に応じて決定されてもよい。
[11th Item]
The information processing method according to the ninth item further includes causing an output device connected to or built into the first computer to output preliminary task information indicating a preliminary task to be performed by the subject. good too. The specific region may be determined according to a change in the cerebral blood flow information with respect to the preliminary task information.

この決定方法は、病気または症状に応じて活性化する脳の領域が既知でない場合に有効である。 This method of determination is useful when the regions of the brain that are activated in response to disease or symptoms are not known.

[第12の項目]
第1から第3の項目のいずれかに係る情報処理方法において、前記出力画像が、前記第1の画像と第2の画像とが合成されることにより得られてもよい。
[Item 12]
In the information processing method according to any one of the first to third items, the output image may be obtained by synthesizing the first image and the second image.

これにより、診断者は、被検者の顔と脳血流情報との両方を見ながら効果的に遠隔診断
することができる。
As a result, the diagnostician can effectively perform remote diagnosis while viewing both the subject's face and cerebral blood flow information.

[第13の項目]
第12の項目に係る情報処理方法において、前記検出装置が、前記被検者の頭部における被検部に出射光を照射する少なくとも1つの光源と、前記被検部から戻った反射光を検出するイメージセンサと、前記イメージセンサによって検出された前記反射光の情報から、前記被検部における前記脳血流情報を生成して出力する処理回路と、を備えてもよい。前記少なくとも1つの光源は、前記被検部における複数の領域を前記出射光で照射してもよい。前記イメージセンサは、前記複数の領域からの前記反射光の強度分布を示す信号を出力してもよい。前記処理回路は、前記イメージセンサから出力された前記信号に基づいて、前記脳血流情報を生成して出力してもよい。前記第2の画像は、前記複数の領域における前記脳血流情報の前記経時変化を示してもよい。
[Item 13]
In the information processing method according to the twelfth item, the detection device detects at least one light source that irradiates emitted light onto a test site on the subject's head and reflected light returned from the test site. and a processing circuit that generates and outputs the cerebral blood flow information in the subject from the information of the reflected light detected by the image sensor. The at least one light source may irradiate a plurality of regions in the test site with the emitted light. The image sensor may output a signal indicating intensity distribution of the reflected light from the plurality of areas. The processing circuit may generate and output the cerebral blood flow information based on the signal output from the image sensor. The second image may show the temporal change of the cerebral blood flow information in the plurality of regions.

この情報処理方法では、イメージセンサによって検出された被検者の脳血流の2次元分布が、被検者の顔の動画像に合成されて表示される。これにより、診断者は、被検者を効果的に遠隔診断することができる。 In this information processing method, the two-dimensional distribution of the subject's cerebral blood flow detected by the image sensor is combined with the moving image of the subject's face and displayed. This allows the diagnostician to effectively remotely diagnose the subject.

[第14の項目]
第13の項目に係る情報処理方法において、前記少なくとも1つの光源が、波長が650nm以上805nm未満である第1の出射光を前記被検部に照射する第1の光源と、波長が805nmより長く950nm以下である第2の出射光を前記被検部に照射する第2の光源と、を含んでいてもよい。前記イメージセンサは、前記第1の出射光の照射に起因して前記被検部から戻った第1の反射光の量に応じた第1の電気信号、および前記第2の出射光の照射に起因して前記被検部から戻った第2の反射光の量に応じた第2の電気信号を出力してもよい。前記処理回路は、前記第1の電気信号および前記第2の電気信号に基づいて、前記被検部における脳血液中の酸素化ヘモグロビンおよび脱酸素化ヘモグロビンのそれぞれの濃度を示す情報を前記脳血流情報として生成してもよい。前記第2の画像は、前記被検部における前記酸素化ヘモグロビンおよび前記脱酸素化ヘモグロビンからなる群から選択される少なくとも一方の濃度の経時変化を示す情報を含んでいてもよい。
[Item 14]
In the information processing method according to the thirteenth item, the at least one light source is a first light source that irradiates the test area with first emitted light having a wavelength of 650 nm or more and less than 805 nm, and a wavelength longer than 805 nm A second light source that irradiates the test area with second emitted light of 950 nm or less may be included. The image sensor outputs a first electrical signal corresponding to the amount of first reflected light returned from the test site due to the irradiation of the first emitted light, and the irradiation of the second emitted light. A second electrical signal may be output according to the amount of the second reflected light that has returned from the part to be inspected. The processing circuit outputs information indicating respective concentrations of oxygenated hemoglobin and deoxygenated hemoglobin in the cerebral blood in the subject area based on the first electrical signal and the second electrical signal. You may generate|occur|produce as flow information. The second image may include information indicating temporal changes in the concentration of at least one selected from the group consisting of the oxygenated hemoglobin and the deoxygenated hemoglobin in the test site.

この情報処理方法では、2つの光源により、被検者の脳血液中の酸素化ヘモグロビンおよび脱酸素化ヘモグロビンを得ることができる。これにより、診断者は、被検者の脳活動の状態を詳細に診断することができる。 In this information processing method, oxygenated hemoglobin and deoxygenated hemoglobin in the cerebral blood of the subject can be obtained from two light sources. This allows the diagnostician to diagnose the state of brain activity of the subject in detail.

[第15の項目]
第1から第14の項目のいずれかに係る情報処理方法において、前記第2のコンピュータは、前記診断者の操作に応答して、前記ディスプレイに表示される画像を切り替えてもよい。第1から第14の項目のいずれかに係る情報処理方法は、前記第1の画像を前記ディスプレイに表示させることと、前記操作に応答して、前記第1の画像に加えて、または前記第1の画像に代えて、前記第2の画像を前記ディスプレイに表示させることと、をさらに含んでいてもよい。
[Item 15]
In the information processing method according to any one of the first to fourteenth items, the second computer may switch images displayed on the display in response to an operation by the diagnostician. The information processing method according to any one of the first to fourteenth items includes: displaying the first image on the display; Displaying the second image on the display instead of the one image may be further included.

この情報処理方法では、診断者の操作により、被検者の顔画像に加えて、または被検者の顔画像に代えて、第2の画像をディスプレイに表示させることができる。これにより、診断者は、被検者を効果的に遠隔診断することができる。 In this information processing method, the second image can be displayed on the display in addition to the face image of the subject or instead of the face image of the subject by the operation of the diagnostician. This allows the diagnostician to effectively remotely diagnose the subject.

[第16の項目]
第1から第15の項目のいずれかに係る情報処理方法において、前記検出装置が、前記第1のコンピュータに接続され、かつヘッドマウント装置に内蔵されていてもよい。
[Item 16]
In the information processing method according to any one of the first to fifteenth items, the detection device may be connected to the first computer and built in a head mounted device.

これにより、屋外で使用する場合でも、環境光の影響を小さくすることができる。 As a result, the influence of ambient light can be reduced even when used outdoors.

[第17の項目]
第1から第16の項目のいずれかに係る情報処理方法は、前記被検者の心理状態および前記被検者が病気である確率からなる群から選択される少なくとも1つの推定を行うことと、前記推定の結果を前記ディスプレイに表示させることと、をさらに含んでいてもよい。
[Item 17]
The information processing method according to any one of the first to sixteenth items includes: performing at least one estimation selected from the group consisting of the psychological state of the subject and the probability that the subject is ill; and causing the display to display the result of the estimation.

これにより、診断者は、被検者を効果的に遠隔診断することができる。 This allows the diagnostician to effectively remotely diagnose the subject.

[第18の項目]
第18の項目に係る情報処理装置は、第1のコンピュータと第2のコンピュータとにネットワークを介して接続される情報処理装置であって、処理回路と、コンピュータプログラムを格納したメモリと、を備える。前記コンピュータプログラムは、前記処理回路に、前記第1のコンピュータに接続または内蔵されるカメラから、被検者の顔の少なくとも一部の画像を示す第1の画像データを取得することと、前記第1のコンピュータに接続または内蔵され、前記被検者の脳血流の状態を示す脳血流情報を検出する検出装置から、前記脳血流情報を取得することと、前記第1の画像データに基づく第1の画像と、前記脳血流情報に基づく第2の画像とを含む出力画像を、前記第1のコンピュータに遠隔ネットワークを介して接続される前記第2のコンピュータに接続または内蔵されるディスプレイに表示させることと、を実行させる。前記第1の画像は前記被検者の前記顔の前記少なくとも一部を含む動画像であり、前記第2の画像は前記脳血流情報の経時変化を示す画像である。
[Item 18]
An information processing device according to the eighteenth item is an information processing device connected to a first computer and a second computer via a network, comprising a processing circuit and a memory storing a computer program. . The computer program causes the processing circuit to acquire first image data representing an image of at least a portion of the subject's face from a camera connected to or built into the first computer; Acquiring the cerebral blood flow information from a detection device connected to or built in one computer and detecting the cerebral blood flow information indicating the state of the cerebral blood flow of the subject; and the second image based on the cerebral blood flow information is connected to or built into the second computer connected to the first computer via a remote network. to display on a display; and to perform. The first image is a moving image including the at least part of the face of the subject, and the second image is an image showing temporal changes in the cerebral blood flow information.

これにより、第2のコンピュータを操作する診断者は、効果的に被検者を遠隔診断することができる。 As a result, the diagnostician who operates the second computer can effectively diagnose the subject remotely.

[第19の項目]
第19の項目に係る情報処理システムは、第18の項目に係る情報処理装置と、前記ディスプレイと、を備える。
[Item 19]
The information processing system according to the nineteenth item includes the information processing device according to the eighteenth item and the display.

この情報処理システムでは、第18の項目に係る情報処理装置と、ディスプレイとにより、診断者は、効果的に被検者を遠隔診断することができる。 In this information processing system, the diagnostician can effectively diagnose the subject remotely by using the information processing device according to the eighteenth item and the display.

[第20の項目]
第19の項目に係る情報処理システムは、前記検出装置と、前記カメラと、をさらに備えていてもよい。
[Item 20]
The information processing system according to the nineteenth item may further include the detection device and the camera.

この情報処理システムでは、第19の項目に係る情報処理装置と、出力装置と、カメラとにより、診断者は、効果的に被検者を遠隔診断することができる。 In this information processing system, the information processing device, the output device, and the camera according to the nineteenth item enable the diagnostician to effectively diagnose the subject remotely.

本開示において、回路、ユニット、装置、部材又は部の全部又は一部、又はブロック図の機能ブロックの全部又は一部は、半導体装置、半導体集積回路(IC)、又はLSI(large scale integration)を含む一つ又は複数の電子回路によって実行されてもよい。LSI又はICは、一つのチップに集積されてもよいし、複数のチップを組み合わせて構成されてもよい。例えば、記憶素子以外の機能ブロックは、一つのチップに集積されてもよい。ここでは、LSIまたはICと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(very large scale integration)、若しくはULSI(ultra large scale integration)と呼ばれるものであってもよい。 LSIの製造後にプ
ログラムされる、Field Programmable Gate Array(FPGA)、又はLSI内部の接合関係の再構成又はLSI内部の回路区画のセットアップができるreconfigurable logic deviceも同じ目的で使うことができる。
In the present disclosure, all or part of circuits, units, devices, members or parts, or all or part of functional blocks in block diagrams are semiconductor devices, semiconductor integrated circuits (ICs), or LSIs (large scale integration). may be performed by one or more electronic circuits comprising: An LSI or IC may be integrated on one chip, or may be configured by combining a plurality of chips. For example, functional blocks other than memory elements may be integrated on one chip. Although they are called LSIs or ICs here, they may be called system LSIs, VLSIs (very large scale integration), or ULSIs (ultra large scale integration) depending on the degree of integration. A Field Programmable Gate Array (FPGA), which is programmed after the LSI is manufactured, or a reconfigurable logic device capable of reconfiguring connection relationships inside the LSI or setting up circuit partitions inside the LSI can also be used for the same purpose.

さらに、回路、ユニット、装置、部材又は部の全部又は一部の機能又は操作は、ソフトウエア処理によって実行することが可能である。この場合、ソフトウエアは一つ又は複数のROM、光学ディスク、ハードディスクドライブなどの非一時的記録媒体に記録され、ソフトウエアが処理装置(processor)によって実行されたときに、そのソフトウエアで特定された機能が処理装置(processor)および周辺装置によって実行される。システム又は装置は、ソフトウエアが記録されている一つ又は複数の非一時的記録媒体、処理装置(processor)、及び必要とされるハードウエアデバイス、例えばインターフェース、を備えていても良い。 Furthermore, all or part of the functions or operations of circuits, units, devices, members or parts can be performed by software processing. In this case, the software is recorded on one or more non-transitory storage media such as ROMs, optical discs, hard disk drives, etc., and is identified by the software when it is executed by a processor. The functions are performed by processors and peripherals. A system or apparatus may include one or more non-transitory storage media on which software is recorded, a processor, and required hardware devices such as interfaces.

以下、本開示の実施形態をより具体的に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明および実質的に同一の構成に対する重複する説明を省略することがある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。以下の説明において、同一または類似する構成要素については、同じ参照符号を付している。 Hereinafter, embodiments of the present disclosure will be described more specifically. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art. It is noted that the inventors provide the accompanying drawings and the following description in order for those skilled in the art to fully understand the present disclosure, which are intended to limit the claimed subject matter. is not. In the following description, identical or similar components are given the same reference numerals.

(実施形態)
本実施形態は、診断者(例えば医師)が、例えば、被検者(例えば患者)の心理状態を遠隔診断するための情報処理方法、情報処理装置、および情報処理システムに関する。本実施形態では、診断者と被検者とは、遠く離れた2つの場所(例えば、病院と被検者の自宅)にいるものとする。当該2つの場所は、遠隔ネットワークによって接続される。
(embodiment)
The present embodiment relates to an information processing method, an information processing apparatus, and an information processing system for remotely diagnosing, for example, the psychological state of a subject (eg, a patient) by a diagnostician (eg, a doctor). In this embodiment, it is assumed that the diagnostician and the subject are in two distant locations (for example, a hospital and the subject's home). The two locations are connected by a remote network.

「遠隔ネットワーク」とは、離れた2拠点を接続する情報ネットワークを意味する。遠隔ネットワークは、例えば、インターネットまたは専用線などの広域ネットワークであり、ローカルエリアネットワーク(LAN)のみからなるネットワークを含まない。遠隔ネットワークとして、バーチャルプライベートネットワーク(VPN)を利用してもよい。 "Remote network" means an information network connecting two remote locations. A remote network is, for example, a wide area network such as the Internet or a leased line, and does not include networks consisting solely of local area networks (LANs). A virtual private network (VPN) may be used as the remote network.

本明細書において「心理状態」とは、気分(例えば、快、不快)、感情(例えば、安心、不安、悲しみ、憤り)、健康状態(例えば、元気、倦怠)、温度感覚(例えば、暑い、寒い、蒸し暑い)、病状(例えば、躁、鬱、統合失調症)、またはこれらに派生する脳活動の程度を表す指標(例えば、熟練度、習熟度、および集中度)を意味する。心理状態は、脳血流量または血液内成分(例えばヘモグロビン)の変化に基づいて推定することができる。例えば、人間の心理状態の変化に応じて神経細胞の活動が変化すると、脳血流量または血液内の成分が変化する。したがって、NIRS装置などの検出装置を用いて脳血流量または血液内成分の変化などの生体情報を計測することにより、被検者の心理状態を推定することができる。 As used herein, the term "mental state" refers to mood (e.g., comfort, discomfort), emotion (e.g., relief, anxiety, sadness, anger), health state (e.g., energy, malaise), temperature sensation (e.g., hot, cold, hot and humid), medical conditions (eg, mania, depression, schizophrenia), or indicators representing the degree of brain activity derived from these (eg, proficiency, proficiency, and concentration). Psychological state can be estimated based on changes in cerebral blood flow or blood components (eg, hemoglobin). For example, when the activity of nerve cells changes in response to changes in the human psychological state, the cerebral blood flow rate or components in the blood change. Therefore, the psychological state of the subject can be estimated by measuring biological information such as changes in cerebral blood flow or blood components using a detection device such as an NIRS device.

[構成]
図1は、本実施形態における情報処理システム100の構成を模式的に示すブロック図である。情報処理システム100は、検出装置10と、カメラ20と、ディスプレイ30と、情報処理装置40とを備える。検出装置10およびカメラ20は、被検者側の場所に配置されている。ディスプレイ30は、診断者側の場所に配置されている。情報処理装置40は、検出装置10と、カメラ20と、ディスプレイ30とに、遠隔ネットワークを介して接続されている。情報処理装置40は、例えばインターネット上のサーバコンピュー
タであり得る。なお、情報処理装置40が、遠隔ネットワークではなく、例えばLANまたは単なるケーブルから構成されるネットワークを介して、検出装置10、カメラ20、またはディスプレイ30と接続された場合であっても、本開示の技術を適用することができる。
[Constitution]
FIG. 1 is a block diagram schematically showing the configuration of an information processing system 100 according to this embodiment. The information processing system 100 includes a detection device 10 , a camera 20 , a display 30 and an information processing device 40 . The detection device 10 and the camera 20 are arranged at a location on the side of the subject. The display 30 is arranged at the diagnostician's side. Information processor 40 is connected to detector 10, camera 20 and display 30 via a remote network. The information processing device 40 may be, for example, a server computer on the Internet. Note that even if the information processing device 40 is connected to the detection device 10, the camera 20, or the display 30 not via a remote network, but via a network configured by, for example, a LAN or a simple cable, technology can be applied.

検出装置10は、例えばNIRS装置であり、被検者1の脳血流情報を検出する。検出装置10は、少なくとも1つの光源12と、光検出器14と、処理回路16とを備えている。カメラ20は、被検者1を撮影して画像データを出力する。当該画像データは、例えば、被検者1の表情、視線、および顔色の少なくとも1つを示す。情報処理装置40は、検出装置10によって検出された脳血流情報に基づいて、被検者1の心理状態を診断するための情報を生成し、ディスプレイ30に送信する。 The detection device 10 is, for example, an NIRS device, and detects cerebral blood flow information of the subject 1 . The detection device 10 comprises at least one light source 12 , a photodetector 14 and processing circuitry 16 . The camera 20 photographs the subject 1 and outputs image data. The image data indicates, for example, at least one of the subject's 1 facial expression, line of sight, and complexion. The information processing device 40 generates information for diagnosing the psychological state of the subject 1 based on the cerebral blood flow information detected by the detection device 10 and transmits the information to the display 30 .

情報処理装置40は、処理回路42と、メモリ44とを備える。メモリ44は、コンピュータプログラム46を格納している。コンピュータプログラム46は、処理回路42に、以下の(1)から(4)の処理を実行させる。
(1)カメラ20から、被検者1の顔の少なくとも一部を含む画像を示す第1の画像データを取得する。
(2)検出装置10から、被検者1の脳血流情報を取得する。
(3)取得した脳血流情報に基づいて、被検者1の心理状態を診断するための情報を含む第2の画像データを生成する。
(4)第1および第2の画像データに基づく少なくとも1つの画像を、ディスプレイ30に表示させる。
The information processing device 40 includes a processing circuit 42 and a memory 44 . Memory 44 stores computer program 46 . The computer program 46 causes the processing circuit 42 to execute the following processes (1) to (4).
(1) Acquire first image data representing an image including at least part of the face of the subject 1 from the camera 20 .
(2) Acquire cerebral blood flow information of the subject 1 from the detection device 10 .
(3) Generate second image data including information for diagnosing the psychological state of the subject 1 based on the acquired cerebral blood flow information.
(4) causing the display 30 to display at least one image based on the first and second image data;

上記(1)および(2)の動作の順序は逆でもよいし、同時であってもよい。 The order of the above operations (1) and (2) may be reversed or may be performed simultaneously.

上記の(4)の動作において、ディスプレイ30に表示される画像は、第1の画像データに基づく被検者の顔画像である第1の画像と、第2の画像データに基づく脳血流情報の経時変化を示す画像である第2の画像との組み合わせであり得る。これらの2つの画像を同時に表示してもよいし、異なるタイミングで表示してもよい。あるいは、これらの2つの画像を合成した1つの出力画像を表示してもよい。表示される画像は、静止画像に限らず、動画像であってもよい。動画像の場合、第1の画像は、例えば、被検者1の表情の変化、視線の変化、および顔色の変化からなる群から選択される少なくとも1つを示す。動画像の場合、第2の画像は、数値化された脳血流情報の経時変化を示す画像である。 In the above operation (4), the images displayed on the display 30 are the first image, which is the face image of the subject based on the first image data, and the cerebral blood flow information based on the second image data. may be combined with a second image, which is an image showing changes over time in . These two images may be displayed simultaneously, or may be displayed at different timings. Alternatively, one output image that combines these two images may be displayed. The image to be displayed is not limited to a still image, and may be a moving image. In the case of moving images, the first image shows, for example, at least one selected from the group consisting of changes in facial expression, changes in line of sight, and changes in complexion of subject 1 . In the case of a moving image, the second image is an image showing changes over time in digitized cerebral blood flow information.

動画像を表示する場合、情報処理装置40は、上記の(1)から(4)のステップを、例えば一定の時間ごとに繰り返し実行する。当該一定の時間は、動画像のフレームレートに依存する。例えば、30fpsのフレームレートの動画像を表示する場合、情報処理装置40は、1/30秒ごとに上記(1)から(4)のステップを繰り返し実行する。この周期が十分に短ければ、動画像を介したリアルタイムの遠隔診断が可能になる。繰り返しの周期は、各装置の処理能力およびネットワークの帯域幅に依存する。この周期は、例えば1秒以下、さらには1/30秒以下に設定され得る。ただし、この範囲に限定されない。第1の画像データに基づく動画像であるカメラ画像と、第2の画像データに基づく動画像である脳血流画像とを、異なるフレームレートで表示してもよい。例えば、カメラ画像を30fps以上のフレームレートで表示し、脳血流画像を数fps以上のフレームレートで表示してもよい。脳血流の変化は比較的遅いため、脳血流画像のフレームレートは、カメラ画像のフレームレートよりも低くても実用上問題はない。 When displaying a moving image, the information processing device 40 repeatedly executes steps (1) to (4) above, for example, at regular intervals. The fixed time depends on the frame rate of the moving image. For example, when displaying a moving image with a frame rate of 30 fps, the information processing device 40 repeatedly executes steps (1) to (4) above every 1/30 second. If this period is sufficiently short, real-time remote diagnosis via moving images becomes possible. The repetition period depends on the processing power of each device and the bandwidth of the network. This period can be set to, for example, 1 second or less, or even 1/30 second or less. However, it is not limited to this range. A camera image, which is a moving image based on the first image data, and a cerebral blood flow image, which is a moving image based on the second image data, may be displayed at different frame rates. For example, the camera image may be displayed at a frame rate of 30 fps or more, and the cerebral blood flow image may be displayed at a frame rate of several fps or more. Since changes in cerebral blood flow are relatively slow, there is no practical problem even if the frame rate of the cerebral blood flow image is lower than the frame rate of the camera image.

情報処理装置40における処理回路42は、例えば中央演算処理装置(CPU)または画像処理用演算プロセッサ(GPU)などのプロセッサであり得る。プロセッサとコンピュータプログラムとの組み合わせによって、本実施形態における情報処理方法が実現され
る。処理回路42と、メモリ44とは、1つの集積回路によって実現されていてもよい。処理回路42は、例えばデジタルシグナルプロセッサ(DSP)、またはフィールドプログラマブルゲートアレイ(FPGA)などのプログラマブルロジックデバイス(PLD)によって実現されてもよい。
The processing circuit 42 in the information processing device 40 may be a processor such as a central processing unit (CPU) or an image processing arithmetic processor (GPU). The information processing method in this embodiment is realized by a combination of a processor and a computer program. The processing circuit 42 and the memory 44 may be realized by one integrated circuit. Processing circuitry 42 may be implemented by, for example, a digital signal processor (DSP) or a programmable logic device (PLD) such as a field programmable gate array (FPGA).

図2は、検出装置10を用いて、被検者1の被検部2における脳血流情報を検出している様子を模式的に示す図である。図2に示す例では、被検部2は被検者1の額部である。図1および図2には示されていないが、検出装置10は、光源12および光検出器14の動作を同期して制御する制御回路をさらに備え得る。光源12の個数は用途によって異なる。例えば、被検部2における脈拍数を計測したり、脳血液中の酸素化ヘモグロビンの濃度の時間変化を検出したりする用途では、単一波長の光源12を使用できる。他方、脳血液中の酸素化ヘモグロビンおよび脱酸素化ヘモグロビンの両方の濃度などの情報を取得する用途では、後述するように、波長の異なる2種類の光をそれぞれ出射する2つの光源が用いられ得る。 FIG. 2 is a diagram schematically showing how the detecting device 10 is used to detect cerebral blood flow information in the subject's 1 subject area 2 . In the example shown in FIG. 2 , the subject 2 is the forehead of the subject 1 . Although not shown in FIGS. 1 and 2, detection device 10 may further comprise control circuitry for synchronously controlling the operation of light source 12 and photodetector 14 . The number of light sources 12 varies depending on the application. For example, the single-wavelength light source 12 can be used for applications such as measuring the pulse rate in the subject 2 and detecting temporal changes in oxygenated hemoglobin concentration in cerebral blood. On the other hand, for the purpose of acquiring information such as the concentration of both oxygenated hemoglobin and deoxygenated hemoglobin in cerebral blood, two light sources emitting two types of light with different wavelengths can be used, as described later. .

図2に示すように、光源12は、被検者1の頭部における被検部2を照射する光を出射する。被検部2に入射した光の一部は、被検者1の脳内組織によって散乱され、被検部2から出てくる。当該光は脳内の血液の状態を示す情報を含む。光検出器14は、被検部2から到達した当該光を受け、受光量に応じた電気信号を出力する。処理回路16は、出力された電気信号に基づいて、被検部2における脳血流情報を生成して出力する。 As shown in FIG. 2 , the light source 12 emits light that irradiates the subject 2 on the head of the subject 1 . Part of the light incident on the subject 2 is scattered by the intracerebral tissue of the subject 1 and leaves the subject 2 . The light contains information indicative of the state of blood in the brain. The photodetector 14 receives the light arriving from the test site 2 and outputs an electrical signal corresponding to the amount of received light. The processing circuit 16 generates and outputs cerebral blood flow information in the subject 2 based on the output electrical signal.

「脳血流情報」とは、脳内の血液の状態を示す任意の情報を意味する。脳血流情報は、例えば、光検出器14から出力される生データそのものであってもよいし、生データを加工して生成されるデータであってもよい。光検出器14から出力される生データとは、被検部の少なくとも一部の領域からの反射光量を示すデータを意味する。光検出器14が生データを情報処理装置40に送信する場合には、処理回路16は、生データに対して特段の処理を行わず、情報処理装置40に転送する。処理回路16は、被検部2の脳血液中の酸素化ヘモグロビンおよび脱酸素化ヘモグロビンの少なくとも一方の濃度を示す情報を脳血流情報として生成してもよい。処理回路16はまた、脈拍数の情報を脳血流情報として生成してもよい。これらの脳血流情報を生成するための処理は、処理回路16に代えて、情報処理装置40における処理回路42が行ってもよい。 "Cerebral blood flow information" means any information indicating the state of blood in the brain. The cerebral blood flow information may be, for example, the raw data output from the photodetector 14 itself, or may be data generated by processing the raw data. The raw data output from the photodetector 14 means data indicating the amount of reflected light from at least a partial area of the subject. When the photodetector 14 transmits the raw data to the information processing device 40 , the processing circuit 16 transfers the raw data to the information processing device 40 without performing any particular processing. The processing circuit 16 may generate information indicating the concentration of at least one of oxygenated hemoglobin and deoxygenated hemoglobin in the cerebral blood of the subject 2 as cerebral blood flow information. Processing circuitry 16 may also generate pulse rate information as cerebral blood flow information. The processing for generating the cerebral blood flow information may be performed by the processing circuit 42 in the information processing device 40 instead of the processing circuit 16 .

光検出器14は、光源12から出射される光に感度を有する少なくとも1つの受光素子を有する。典型的には、光検出器14は、2次元的に複数の受光素子が配列されたイメージセンサである。イメージセンサにおける各受光素子は、光電変換によって受光量に応じた電気信号を出力する。これらの電気信号の集合は、画像信号を構成する。 Photodetector 14 has at least one light receiving element sensitive to light emitted from light source 12 . Typically, the photodetector 14 is an image sensor in which a plurality of light receiving elements are arranged two-dimensionally. Each light receiving element in the image sensor outputs an electric signal according to the amount of light received by photoelectric conversion. A collection of these electrical signals constitutes an image signal.

光源12は、例えば波長が650nm以上950nm以下の光を出射する。この波長範囲は、赤色から近赤外線の波長範囲に含まれる。上記の波長範囲は、生体の窓と呼ばれ、体内での吸収率が低いことで知られている。本実施形態における光源12は、上記の波長範囲の光を出射するものとして説明するが、他の波長範囲の光を用いてもよい。本明細書では、可視光のみならず赤外線についても、「光」の用語を用いる。 The light source 12 emits light with a wavelength of 650 nm or more and 950 nm or less, for example. This wavelength range is included in the red to near-infrared wavelength range. The above wavelength range is called the biological window, and is known to have low absorptance in the body. The light source 12 in this embodiment is described as emitting light in the above wavelength range, but light in other wavelength ranges may be used. In this specification, the term "light" is used not only for visible light but also for infrared light.

波長650nm未満の可視光領域では、血液中の酸素化ヘモグロビン(HbO)および脱酸素化ヘモグロビン(Hb)による吸収率が大きく、950nmより長い波長域では、水による吸収率が大きい。一方、650nm以上950nm以下の波長範囲内では、酸素化ヘモグロビン、脱酸素化ヘモグロビン、および水による吸収率は比較的低く、酸素化および脱酸素化ヘモグロビンならびに水による散乱率は比較的大きい。波長が805nmにおいて、酸素化ヘモグロビンおよび脱酸素化ヘモグロビンによる吸収率が等しくなる。 Oxygenated hemoglobin (HbO 2 ) and deoxygenated hemoglobin (Hb) in blood have high absorptivity in the visible light region with a wavelength of less than 650 nm, and water has a high absorptance in the wavelength region longer than 950 nm. On the other hand, within the wavelength range from 650 nm to 950 nm, oxygenated hemoglobin, deoxygenated hemoglobin, and water have relatively low absorption, and oxygenated and deoxygenated hemoglobin, and water have relatively high scattering rates. At a wavelength of 805 nm, the absorption by oxygenated hemoglobin and deoxygenated hemoglobin are equal.

したがって、酸素化ヘモグロビンおよび脱酸素化ヘモグロビンの両方の情報を取得する場合には、光源12として、650nm以上805nm未満である第1の波長の光を出射する第1の光源と、805nmより長く950nm以下である第2の波長の光を出射する第2の光源とが利用され得る。例えば、第1の波長は、750nmであり、第2の波長は850nmであり得る。 Therefore, when obtaining information on both oxygenated hemoglobin and deoxygenated hemoglobin, the light source 12 is a first light source that emits light of a first wavelength of 650 nm or more and less than 805 nm, and a wavelength of 950 nm, which is longer than 805 nm. A second light source that emits light at a second wavelength that is: For example, the first wavelength can be 750 nm and the second wavelength can be 850 nm.

このように2つの波長の光が用いられる場合、光検出器14は、それぞれの波長の光を個別に検出するように構成される。例えば、光検出器14は、少なくとも1つのフォトダイオードと、複数の電荷蓄積部を備え得る。その場合、光源12は2つの波長の光を異なるタイミングで出射し、それらの光が戻ってくるタイミングに合わせて、2つの波長の光による信号電荷が2つの電荷蓄積部にそれぞれ蓄積される。これにより、2つの波長の光を個別に検出することができる。この場合、光検出器14は、被検部2から到達した第1の波長の光の量に応じた第1の電気信号、および被検部2から到達した第2の波長の光の量に応じた第2の電気信号を出力する。処理回路16は、第1および第2の電気信号に基づく所定の演算を行うことにより、被検部2における酸素化ヘモグロビンおよび脱酸素化ヘモグロビンのそれぞれの濃度を求めることができる。ある例において、処理回路16は、それらの濃度情報を、脳血流情報として生成する。 When two wavelengths of light are used in this way, the photodetector 14 is configured to detect each wavelength of light separately. For example, photodetector 14 may comprise at least one photodiode and multiple charge reservoirs. In that case, the light source 12 emits light of two wavelengths at different timings, and the signal charges from the light of the two wavelengths are accumulated in the two charge accumulation units in accordance with the timing of the return of these lights. Thereby, light of two wavelengths can be detected separately. In this case, the photodetector 14 outputs a first electrical signal corresponding to the amount of light of the first wavelength that has arrived from the test site 2 and the amount of light of the second wavelength that has arrived from the test site 2. Output a second electrical signal in response. The processing circuit 16 can obtain the respective concentrations of oxygenated hemoglobin and deoxygenated hemoglobin in the test area 2 by performing predetermined calculations based on the first and second electrical signals. In one example, processing circuitry 16 generates such concentration information as cerebral blood flow information.

情報処理装置40における処理回路42は、処理回路16から脳血流情報を取得し、被検者1の心理状態を診断するための情報を含む第2の画像データを生成する。第2の画像データは、例えば、被検部2における酸素化ヘモグロビンおよび脱酸素化ヘモグロビンの少なくとも一方の濃度の経時変化を示す情報を含み得る。そのような情報がディスプレイ30に表示されることにより、診断者は、被検者の脳活動の状態を詳細に診断することができる。 A processing circuit 42 in the information processing device 40 acquires cerebral blood flow information from the processing circuit 16 and generates second image data including information for diagnosing the psychological state of the subject 1 . The second image data may include, for example, information indicating changes over time in the concentration of at least one of oxygenated hemoglobin and deoxygenated hemoglobin in the subject 2 . By displaying such information on the display 30, the diagnostician can diagnose the state of brain activity of the subject in detail.

検出装置10およびカメラ20は、被検者1が操作する第1のコンピュータに接続または内蔵されていてもよい。他方、ディスプレイ30は、診断者が操作する第2のコンピュータに接続または内蔵されていてもよい。第1および第2のコンピュータは、例えばパーソナルコンピュータ(PC)、タブレットコンピュータ、またはスマートフォンなどの情報機器であり得る。被検者側の第1のコンピュータおよび診断者側の第2のコンピュータは、いずれも通信機能を有し、遠隔ネットワークを介して互いに接続され得る。このような態様において、情報処理装置40は、遠隔ネットワークを介して第1および第2のコンピュータに接続された第3のコンピュータであり得る。あるいは、診断者側の第2のコンピュータが情報処理装置40として機能してもよい。 The detection device 10 and the camera 20 may be connected to or built into a first computer operated by the subject 1 . Alternatively, the display 30 may be connected to or built into a second computer operated by the diagnostician. The first and second computers can be information appliances such as personal computers (PCs), tablet computers, or smart phones, for example. The first computer on the subject's side and the second computer on the diagnostician's side both have communication capabilities and can be connected to each other via a remote network. In such embodiments, information processing device 40 may be a third computer connected to the first and second computers via a remote network. Alternatively, a second computer on the diagnostician's side may function as the information processing device 40 .

図3は、検出装置10が、被検者が操作する第1のコンピュータである被検者コンピュータ50に内蔵され、ディスプレイ30が、診断者が操作する第2のコンピュータである診断者コンピュータ60に内蔵された構成の例を示すブロック図である。図3に示す例では、カメラ20も被検者コンピュータ50に内蔵されている。このような構成によれば、被検者コンピュータ50および診断者コンピュータ60は、それぞれの通信機能を介して情報処理装置40に接続される。被検者コンピュータ50および診断者コンピュータ60には、遠隔診断を実現するためのアプリケーションソフトウエアがインストールされる。遠隔診断を実施する際、被検者および診断者は、それぞれの被検者コンピュータ50、診断者コンピュータ60において所定のアプリケーションを立ち上げ、ビデオ通話を実施する。なお、図1のように被検者コンピュータ50および診断者コンピュータ60を設けない構成では、カメラ20、検出装置10、およびディスプレイ30の各々が通信機能を有し、情報処理装置40と通信する。 FIG. 3 shows that the detection device 10 is built in a subject computer 50, which is a first computer operated by a subject, and the display 30 is installed in a diagnostician computer 60, which is a second computer operated by a diagnostician. FIG. 4 is a block diagram showing an example of a built-in configuration; In the example shown in FIG. 3, the camera 20 is also built into the subject computer 50 . According to such a configuration, the subject computer 50 and the diagnostician computer 60 are connected to the information processing device 40 via their respective communication functions. Application software for realizing remote diagnosis is installed in the subject computer 50 and the diagnostician computer 60 . When performing remote diagnosis, the subject and the diagnostician launch a predetermined application on the subject's computer 50 and the diagnostician's computer 60, respectively, and perform a video call. Note that in a configuration in which the subject computer 50 and the diagnostician computer 60 are not provided as shown in FIG.

被検者コンピュータ50、検出装置10、およびカメラ20の構成には、様々なバリエーションが考えられる。以下、それらのバリエーションのいくつかの例を説明する。 Various variations are conceivable for the configurations of the subject computer 50, the detection device 10, and the camera 20. FIG. Some examples of those variations are described below.

図4は、被検者コンピュータ50、検出装置10、およびカメラ20の構成の一例を模式的に示す図である。図4に示す例では、被検者コンピュータ50が、検出装置10およびカメラ20を内蔵している。カメラ20によって撮影された被検者1の顔画像が被検者コンピュータ50のディスプレイに表示される。この顔画像は、診断者コンピュータ60のディスプレイ30に表示される画像と同じものである。これにより、被検者1は、診断者コンピュータ60のディスプレイ30に表示される自身の顔画像を確認することができる。なお、被検者1と診断者とが通話している期間は、被検者コンピュータ50に表示される被検者1の顔画像を、診断者の顔画像へと切り替えてもよい。診断者の顔画像は、例えば診断者コンピュータ60に設けられたカメラ(図示せず)により撮影される。図4に示す例では、検出装置10およびカメラ20が、被検者コンピュータ50に内蔵され、一体化されている。このため、被検者コンピュータ50は小型で持ち運びが容易である。被検者は、キーボードまたはマウスなどのユーザインターフェースを用いて、検出装置10、カメラ20、および被検者コンピュータ50を操作することができる。図4に示す例では、被検者コンピュータ50の一例としてノートPCが示されているが、被検者コンピュータ50はデスクトップPCであってもよい。また、PCに代えて、タブレットまたはスマートフォンを用いてもよい。 FIG. 4 is a diagram schematically showing an example of configurations of the subject computer 50, the detection device 10, and the camera 20. As shown in FIG. In the example shown in FIG. 4, the subject computer 50 incorporates the detection device 10 and the camera 20 . A face image of the subject 1 photographed by the camera 20 is displayed on the display of the subject computer 50 . This facial image is the same as the image displayed on the display 30 of the diagnostician's computer 60 . Thereby, the subject 1 can confirm his/her own face image displayed on the display 30 of the diagnostician's computer 60 . Note that the facial image of the subject 1 displayed on the subject computer 50 may be switched to the facial image of the diagnostician while the subject 1 and the diagnostician are talking. A face image of the diagnostician is captured by a camera (not shown) provided in the diagnostician's computer 60, for example. In the example shown in FIG. 4, the detection device 10 and the camera 20 are built into the subject computer 50 and integrated. Therefore, the subject computer 50 is small and easy to carry. The subject can operate the detection device 10, the camera 20, and the subject computer 50 using a user interface such as a keyboard or mouse. In the example shown in FIG. 4, a notebook PC is shown as an example of the subject computer 50, but the subject computer 50 may be a desktop PC. Also, a tablet or a smartphone may be used instead of the PC.

図5は、被検者コンピュータ50、検出装置10、およびカメラ20の構成の他の例を模式的に示す図である。図5に示す例では、検出装置10は、カメラ20が内蔵された被検者コンピュータ50に接続されて使用される外部デバイスである。検出装置10と被検者コンピュータ50との接続は、例えばUSB(Universal Serial Bus)などの公知の規格に準拠したケーブルによって実現される。検出装置10は外付け型の機器であることから、既存の被検者コンピュータ50に実行ソフトウエアを追加するだけで実現可能である。また、検出装置10だけを持ち運ぶことができるという利点がある。 FIG. 5 is a diagram schematically showing another example of the configuration of subject computer 50, detection device 10, and camera 20. As shown in FIG. In the example shown in FIG. 5, the detection device 10 is an external device used by being connected to a subject computer 50 in which a camera 20 is built. The connection between the detection device 10 and the subject computer 50 is realized by a cable complying with known standards such as USB (Universal Serial Bus). Since the detection device 10 is an external device, it can be realized by simply adding execution software to the existing subject computer 50 . There is also the advantage that only the detection device 10 can be carried.

図6は、図5に示す被検者コンピュータ50を用いた情報処理システムの構成例を示すブロック図である。検出装置10が被検者コンピュータ50に接続されているため、処理回路16は、被検者コンピュータ50を介して情報処理装置40の処理回路42に接続される。このような形態では、情報処理装置40は、被検者コンピュータ50すなわち第1のコンピュータを介して検出装置10から、脳血流情報を取得する。 FIG. 6 is a block diagram showing a configuration example of an information processing system using the subject computer 50 shown in FIG. Since the detection device 10 is connected to the subject computer 50 , the processing circuitry 16 is connected to the processing circuitry 42 of the information processing device 40 via the subject computer 50 . In such a form, the information processing device 40 acquires cerebral blood flow information from the detection device 10 via the subject computer 50, that is, the first computer.

図7は、図6の変形例を示すブロック図である。図7に示す例では、処理回路16が、検出装置10ではなく被検者コンピュータ50に設けられている。光検出器14から、生データが被検者コンピュータ50内の処理回路16(例えばCPUまたはDSP)に送られる。処理回路16は、生データに基づいて脳血流情報を生成して情報処理装置40における処理回路42に送信する。このような形態では、情報処理装置40は、被検者コンピュータ50から脳血流情報を取得する。しかし、被検者コンピュータ50も検出装置10の一部であるとみなして、情報処理装置40が検出装置10から脳血流情報を取得すると考えてもよい。 FIG. 7 is a block diagram showing a modification of FIG. In the example shown in FIG. 7, the processing circuitry 16 is provided in the subject computer 50 rather than in the detection device 10 . From photodetector 14 , raw data is sent to processing circuitry 16 (eg, CPU or DSP) within subject computer 50 . The processing circuit 16 generates cerebral blood flow information based on the raw data and transmits it to the processing circuit 42 in the information processing device 40 . In such a form, the information processing device 40 acquires cerebral blood flow information from the subject computer 50 . However, it may be considered that the subject computer 50 is also a part of the detection device 10 and that the information processing device 40 acquires cerebral blood flow information from the detection device 10 .

図8は、さらに他の変形例を示す図である。図8に示す例では、検出装置10は、ヘッドマウント装置70に内蔵されている。カメラ20は、被検者コンピュータ50に内蔵されている。被検者1は、診断時には、ヘッドマウント装置70を装着し、所定のアプリケーションを起動する。 FIG. 8 is a diagram showing still another modification. In the example shown in FIG. 8, the detection device 10 is built in the head mount device 70. As shown in FIG. The camera 20 is built into the subject computer 50 . At the time of diagnosis, the subject 1 wears the head-mounted device 70 and activates a predetermined application.

図9は、ヘッドマウント装置70の構成を模式的に示す図である。ヘッドマウント装置70は、装着されたときに被検者1の額部に対向する位置に、検出装置10を備えている。このような構成によれば、図5に示す例における利点に加えて、以下の利点がある。ま
ず、被検者1の額がヘッドマウント装置70で覆われることにより、屋外で使用する場合でも、環境光の影響を小さくすることができる。また、ヘッドマウント装置70がヘッドマウントディスプレイ装置であってもよい。その場合、バーチャルリアリティーによって、遠隔地からでも、その場にいるような自然な診断が可能になる。バーチャルリアリティーの特徴を活かした新しいタスクを実施することもできる。
FIG. 9 is a diagram schematically showing the configuration of the head mount device 70. As shown in FIG. The head mounted device 70 has the detection device 10 at a position facing the forehead of the subject 1 when worn. Such a configuration has the following advantages in addition to the advantages of the example shown in FIG. First, since the forehead of the subject 1 is covered with the head-mounted device 70, the influence of ambient light can be reduced even when the device is used outdoors. Moreover, the head mounted device 70 may be a head mounted display device. In that case, virtual reality enables natural diagnosis, even from a remote location, as if you were there. It is also possible to carry out new tasks that take advantage of the features of virtual reality.

以上の各構成例によれば、情報処理装置40は、被検者1の顔画像と、脳血流画像とを同時に取得し、ディスプレイ30にそれらの画像を表示させることができる。これにより、遠隔地からでも、診断者が被検者1を直接診断する場合と同様に、正確な診断が可能になる。 According to each of the configuration examples described above, the information processing device 40 can simultaneously acquire the face image and the cerebral blood flow image of the subject 1 and cause the display 30 to display those images. As a result, even from a remote location, the diagnostician can make an accurate diagnosis in the same way as when the subject 1 is directly diagnosed.

[動作]
次に、本実施形態における情報処理システムの動作の例を説明する。以下の説明では、一例として、図7および図8の構成が採用されているものとする。脳血流情報として、酸素化ヘモグロビンの濃度および脱酸素化ヘモグロビンの濃度の情報が生成されるものとする。
[motion]
Next, an example of the operation of the information processing system according to this embodiment will be described. In the following description, it is assumed that the configurations shown in FIGS. 7 and 8 are adopted as an example. It is assumed that oxygenated hemoglobin concentration information and deoxygenated hemoglobin concentration information are generated as cerebral blood flow information.

図10は、本実施形態における被検者1と診断者との間の遠隔診断における各装置の動作の概要を示すシーケンス図である。まず、被検者コンピュータ50と診断者コンピュータ60との間で、遠隔画像通信が確立される。この遠隔画像通信は、例えばSkype(登録商標)などのビデオ通話アプリケーションを利用して行うことができる。画像通信が確立すると、被検者コンピュータ50は、検出装置10に、初期化および位置補正のための制御信号を送信する。初期化とは、検出装置10の計測レンジを調整する動作を意味する。位置補正とは、被検者1の被検部の位置が検出装置10に対して適正な位置になるようにするための調整を意味する。酸素化ヘモグロビンおよび脱酸素化ヘモグロビンの濃度には個人差がある。また、検出装置10における光源12および光検出器14の特性は、温度などの環境条件に依存して変化し得る。このため、被検者コンピュータ50は、毎回の計測開始前に、脳血流の計測値が一定の範囲内に収まるように、光源12の出射光量または光検出器14の露光時間などの各種のパラメータを調整する。さらに、被検者コンピュータ50は、被検者1の体格または座る位置によって変化する被検部の位置に応じて、計測対象の領域を調整する。被検者コンピュータ50は、被検者1の被検部の位置が適正でない場合には、例えばディスプレイにその旨のメッセージを表示してもよい。そのようなメッセージが表示された場合、被検者1は、座る位置を調節したり、ヘッドマウント装置70を再装着したりして、被検部の位置を適正化する。 FIG. 10 is a sequence diagram showing an overview of the operation of each device in remote diagnosis between the subject 1 and the diagnostician in this embodiment. First, remote image communication is established between subject computer 50 and diagnostician computer 60 . This remote image communication can be performed using a video call application such as Skype (registered trademark), for example. When image communication is established, subject computer 50 sends control signals to detection device 10 for initialization and position correction. Initialization means the operation of adjusting the measurement range of the detection device 10 . The position correction means adjustment for adjusting the position of the test site of the subject 1 to an appropriate position with respect to the detection device 10 . Oxygenated hemoglobin and deoxygenated hemoglobin concentrations vary among individuals. Also, the characteristics of the light source 12 and photodetector 14 in the detection device 10 may vary depending on environmental conditions such as temperature. For this reason, before starting each measurement, the subject computer 50 sets various parameters such as the amount of emitted light from the light source 12 or the exposure time of the photodetector 14 so that the measured value of the cerebral blood flow falls within a certain range. Adjust parameters. Furthermore, the subject computer 50 adjusts the region to be measured according to the position of the subject that changes depending on the physique or sitting position of the subject 1 . The subject computer 50 may display a message to that effect, for example, on the display when the position of the subject 1 to be examined is not appropriate. When such a message is displayed, the subject 1 adjusts the sitting position or puts on the head mount device 70 again to optimize the position of the subject.

検出装置10は、被検者1の脳血流を計測し、当該脳血流の生データを被検者コンピュータ50に送信する。被検者コンピュータ50の処理回路16は、検出装置10から出力された生データを用いた信号処理を行い、当該生データから脳血流のデータを生成する。当該信号処理では、上記の第1および第2の電気信号に基づく所定の演算を行うことにより酸素化ヘモグロビンおよび脱酸素化ヘモグロビンの濃度が算出される。信号処理後、被検者コンピュータ50は、必要な場合には、検出装置10に、検出領域、露光、および照明強度などの設定を変更する制御信号を送信する。必要な場合は、例えば、被検者1と検出装置10との距離が、計測前の距離から変化した場合、また環境光の量が、計測前の量から変化した場合などである。 The detection device 10 measures the cerebral blood flow of the subject 1 and transmits raw data of the cerebral blood flow to the subject computer 50 . The processing circuit 16 of the subject computer 50 performs signal processing using the raw data output from the detection device 10, and generates cerebral blood flow data from the raw data. In the signal processing, the concentrations of oxygenated hemoglobin and deoxygenated hemoglobin are calculated by performing predetermined calculations based on the first and second electrical signals. After signal processing, subject computer 50 sends control signals to detector 10 to change settings such as detection area, exposure, and illumination intensity, if necessary. When necessary, for example, when the distance between the subject 1 and the detection device 10 changes from the distance before measurement, or when the amount of ambient light changes from the amount before measurement.

信号処理後、被検者コンピュータ50の処理回路16は、脳血流の生成データ(即ち脳血流情報)を、ネットワークを介して情報処理装置40に送信する。情報処理装置40における処理回路42は、当該データをメモリ44に保存する。情報処理装置40は、その時点までに蓄積されたデータに基づく統計処理により、被検者1の心理状態(例えば、精神疾患の有無および種類)を推定する。例えば、様々な人種、性別、病状ごとに、多数の
被検者の脳血流の経時変化および/または空間分布のデータが、そのときの病状に関連付けられて記録媒体に記録されている。情報処理装置40の処理回路42は、今回の被検者1の脳血流のデータと、蓄積された過去のデータとを比較することで、被検者1の状態を推定することができる。この推定結果を診断結果と呼ぶ。情報処理装置40は、脳血流の生成データである第2の画像データおよび診断結果を示すデータを、診断者コンピュータ60に送信する。診断者コンピュータ60は、ディスプレイ30に脳血流情報および診断結果を示す画像を表示させる。
After signal processing, the processing circuit 16 of the subject computer 50 transmits generated data of cerebral blood flow (ie, cerebral blood flow information) to the information processing apparatus 40 via the network. The processing circuit 42 in the information processing device 40 saves the data in the memory 44 . The information processing device 40 estimates the psychological state of the subject 1 (for example, the presence or absence and type of mental illness) by statistical processing based on the data accumulated up to that point. For example, data on changes in cerebral blood flow over time and/or spatial distribution of a large number of subjects for various races, sexes, and medical conditions are recorded in a recording medium in association with the medical conditions at that time. The processing circuit 42 of the information processing device 40 can estimate the condition of the subject 1 by comparing the current cerebral blood flow data of the subject 1 with the accumulated past data. This estimation result is called a diagnosis result. The information processing device 40 transmits the second image data, which is the generated data of the cerebral blood flow, and the data indicating the diagnosis result to the diagnostician's computer 60 . The diagnostician's computer 60 causes the display 30 to display images showing cerebral blood flow information and diagnostic results.

続いて、被検者と診断者との間で行われる遠隔診断の流れを説明する。 Next, the flow of remote diagnosis performed between the subject and the diagnostician will be described.

図11は、本実施形態における被検者と診断者との間の遠隔診断の流れの一例を示すフローチャートである。 FIG. 11 is a flow chart showing an example of the flow of remote diagnosis between a subject and a diagnostician in this embodiment.

まず、被検者コンピュータ50および検出装置10は、ベースライン計測を行う(ステップS101)。ベースライン計測とは、脳血流情報の初期値を取得するための計測をいう。被検者1は、計算などの単純タスクを一定時間(例えば2分間)行う。その間に、検出装置10が被検者1の額部を光で照射し、その反射光を検出する。処理回路16は、検出装置10の光検出器14から出力された信号に基づき、酸素化ヘモグロビンおよび脱酸素化ヘモグロビンのそれぞれの濃度を算出する。 First, the subject computer 50 and the detection device 10 perform baseline measurement (step S101). Baseline measurement refers to measurement for obtaining an initial value of cerebral blood flow information. Subject 1 performs a simple task such as calculation for a certain period of time (for example, 2 minutes). In the meantime, the detection device 10 irradiates the forehead of the subject 1 with light and detects the reflected light. The processing circuit 16 calculates the respective concentrations of oxygenated hemoglobin and deoxygenated hemoglobin based on the signal output from the photodetector 14 of the detection device 10 .

次に、処理回路16は、算出した脳血流のデータを解析し、被検者1の動きまたはノイズの有無を確認する(ステップS102)。例えば、被検者1の動きは、以下のようにして知ることができる。本来、酸素化ヘモグロビンの濃度および脱酸素化ヘモグロビンの濃度は、逆の経時変化を示す。したがって、酸素化ヘモグロビンの濃度および脱酸素化ヘモグロビンの濃度の両方の経時変化が増加または減少する場合、被検者1が動いていると判断できる。 Next, the processing circuit 16 analyzes the calculated cerebral blood flow data and confirms the presence or absence of movement of the subject 1 or noise (step S102). For example, the movement of subject 1 can be known as follows. Essentially, the concentration of oxygenated hemoglobin and the concentration of deoxygenated hemoglobin show inverse changes over time. Therefore, it can be determined that the subject 1 is moving when changes over time of both the concentration of oxygenated hemoglobin and the concentration of deoxygenated hemoglobin increase or decrease.

処理回路16は、解析結果から、当該データが正常であるか否かを判断する(ステップS103)。当該データが正常でない場合は、ステップS101からS103を再度繰り返す。 The processing circuit 16 determines whether or not the data is normal from the analysis result (step S103). If the data is not normal, steps S101 to S103 are repeated again.

当該データが正常である場合、被検者1および診断者間において遠隔通信を開始する。カメラ20によって被検者1の顔画像のデータが取得され、検出装置10によって被検者1の脳血流のデータが取得される(ステップS104)。これらのデータは、情報処理装置40の処理回路42に送られる。処理回路42は、それらのデータに基づく画像データを、診断者コンピュータ60のディスプレイ30に送信する。その結果、診断者コンピュータ60のディスプレイ30に、被検者1の顔画像と、脳血流の情報を示す画像とが表示される。これにより、診断者は、被検者1とビデオ通話による診察を行い、被検者1との会話から症状などの情報を収集する(ステップS106)。 If the data is normal, remote communication is started between the subject 1 and the diagnostician. The face image data of the subject 1 is acquired by the camera 20, and the cerebral blood flow data of the subject 1 is acquired by the detection device 10 (step S104). These data are sent to the processing circuit 42 of the information processing device 40 . Processing circuitry 42 transmits image data based on these data to display 30 of diagnostician's computer 60 . As a result, the display 30 of the diagnostician's computer 60 displays the face image of the subject 1 and an image showing information on the cerebral blood flow. As a result, the diagnostician conducts a medical examination with the subject 1 by video call, and collects information such as symptoms from the conversation with the subject 1 (step S106).

被検者コンピュータ50における処理回路16は、さらに、ステップS104で取得した脳血流のデータを解析し、解析結果を診断者コンピュータ60のディスプレイ30に表示させる(ステップS105)。診断者は、表示された解析データに基づき、被検者1を診断する(ステップS107)。診断者は、解析データから、被検者1に対してさらに詳細な検査が必要か否かを判断する(ステップS108)。被検者1の詳細な検査が必要なければ、診断を終了する。 The processing circuit 16 in the subject computer 50 further analyzes the cerebral blood flow data acquired in step S104 and displays the analysis results on the display 30 of the diagnostician computer 60 (step S105). The diagnostician diagnoses the subject 1 based on the displayed analysis data (step S107). The diagnostician determines from the analysis data whether further detailed examination is necessary for the subject 1 (step S108). If detailed examination of the subject 1 is not required, the diagnosis is terminated.

診断者が詳細な検査が必要と判断した場合、情報処理装置40は、診断用タスクなどのタスク情報を被検者コンピュータ50の出力装置に提示する(ステップS110)。被検者コンピュータ50の出力装置は、例えば、ディスプレイまたはマイクである。診断用タ
スクでは、被検者1がリラックスしている状態と、被検者1が課題に取り組んでいる状態との間の血流量の変化が調べられる。
When the diagnostician determines that a detailed examination is necessary, the information processing device 40 presents task information such as diagnostic tasks to the output device of the subject computer 50 (step S110). The output device of subject computer 50 is, for example, a display or a microphone. The diagnostic task examines changes in blood flow between the state in which the subject 1 is relaxed and the state in which the subject 1 is working on a task.

脳の機能はある程度局在していることが知られている。そのため、被検者1のどのような状態を知りたいかに応じて、診断用タスクが設計される。例えば、診断用タスクとして、Nバックタスクが用いられ得る。Nバックタスクは、持続処理課題とも呼ばれ、N個前の提示刺激について回答する課題である。課題を暗記しづらく、慣れによる脳血流変化の低下が起きにくいとされている。Nが大きくなるほど難易度が高くなる。そのため、課題の難易度を容易に設定することができる。 It is known that brain functions are localized to some extent. Therefore, a diagnostic task is designed according to what kind of condition the subject 1 wants to know. For example, an N-back task can be used as a diagnostic task. The N-back task is also called a continuous processing task, and is a task to answer the stimulus presented N times before. It is said that it is difficult to memorize tasks, and that changes in cerebral blood flow are less likely to decrease due to habituation. The higher the N, the higher the difficulty. Therefore, the difficulty level of the task can be easily set.

被検者1による診断用タスクの実施後、被検者コンピュータ50は、診断データおよび診断結果を、情報処理装置40を介して診断者コンピュータ60のディスプレイ30に提示する(ステップS111)。診断結果は、診断データとデータベースとを照合して得られる。これにより、被検者1の病気の種類および確率を推定することができる。 After the diagnostic task is performed by the subject 1, the subject computer 50 presents diagnostic data and diagnostic results on the display 30 of the diagnostician computer 60 via the information processing device 40 (step S111). A diagnostic result is obtained by collating the diagnostic data with the database. Thereby, the type and probability of the disease of the subject 1 can be estimated.

次に、診断タスク中における被検者1の脳血流の計測結果に影響を与える外乱要因であるイベントを説明する。 Next, an event, which is a disturbance factor affecting the measurement result of the cerebral blood flow of the subject 1 during the diagnostic task, will be described.

イベントには、大別して、被検者1側の計測環境に起因するイベントと、被検者1自身に起因するイベントとがある。 Events are roughly classified into events caused by the measurement environment on the subject 1 side and events caused by the subject 1 himself.

被検者1側の計測環境に起因するイベントとは、例えば、周囲の大きな音、または点灯もしくは消灯による部屋の照明の変化である。うつ病の診断には、診断タスク中の脳血流の経時変化が用いられる。計測環境によって脳血流の経時変化が変化すると、診断に影響を及ぼす可能性がある。 The event caused by the measurement environment on the subject 1 side is, for example, a loud ambient sound or a change in lighting in the room due to turning on or off. The time course of cerebral blood flow during a diagnostic task is used to diagnose depression. Changes in cerebral blood flow over time due to the measurement environment may affect diagnosis.

被検者1自身に起因するイベントとは、例えば、被検者1の体の大きな動き、または、診断タスク中における被検者1の集中力の低下である。被検者1と光検出器14との相対的な位置のずれ、または被検者1の集中力の低下は、脳血流の計測に影響を及ぼす可能性がある。 The event caused by the subject 1 himself is, for example, a large body movement of the subject 1 or a decrease in concentration of the subject 1 during the diagnostic task. A relative positional deviation between the subject 1 and the photodetector 14 or a decrease in concentration of the subject 1 may affect the measurement of cerebral blood flow.

上記のイベントは、以下の複数のデータの少なくとも1つに基づいて検出することができる。当該複数のデータとは、被検者コンピュータ50におけるカメラ20からの画像データ、被検者コンピュータ50に接続または内蔵された他のカメラからの画像データ、および被検者コンピュータ50に接続または内蔵されたマイクからの音声データである。例えば、上記のイベントは、遠隔診断に用いられるテレビ電話のカメラ、他のカメラ、またはマイクによって検出され得る。 The above event can be detected based on at least one of the following multiple data. The plurality of data includes image data from the camera 20 in the subject computer 50, image data from other cameras connected to or built into the subject computer 50, and data connected to or built into the subject computer 50. This is the audio data from the microphone. For example, the above events may be detected by a videophone camera, other camera, or microphone used for remote diagnosis.

次に、イベントの判定方法の例を説明する。 Next, an example of an event determination method will be described.

周囲の大きな音に起因するイベントは、以下のように判定することができる。被検者1および診断者の会話の声の大きさを基準として、マイクによって検出される音声の大きさが当該基準から既定の閾値を超えた場合、イベントが発生したと判定される。 Events caused by loud ambient sounds can be determined as follows. Using the loudness of conversation between the subject 1 and the diagnostician as a reference, if the loudness of the voice detected by the microphone exceeds the predetermined threshold from the reference, it is determined that an event has occurred.

部屋の照明の変化に起因するイベントは、以下のように判定することができる。カメラ画像から照度が一定量以上変化した場合、イベントが発生したと判定される。 Events due to changes in room lighting can be determined as follows. If the illuminance changes from the camera image by a certain amount or more, it is determined that an event has occurred.

被検者1の体の大きな動きに起因するイベントは、以下のように判定することができる。カメラ画像において、被検者1と光検出器14との相対的な位置が一定量以上変化した場合、イベントが発生したと判定される。一定量とは、例えば±3cmである。 Events caused by large body movements of the subject 1 can be determined as follows. In the camera image, when the relative position between the subject 1 and the photodetector 14 changes by a certain amount or more, it is determined that an event has occurred. The constant amount is ±3 cm, for example.

被検者1の集中力の低下に起因するイベントは、以下のように判定することができる。被検者1の視線が一定量変化した場合、イベントが発生したと判定される。 An event caused by a decrease in concentration of the subject 1 can be determined as follows. When the line of sight of subject 1 changes by a certain amount, it is determined that an event has occurred.

上記のイベントは、情報処理装置40または被検者コンピュータ50に内蔵された人工知能(Artificial Intelligence(AI))によって判定されてもよい。 The above events may be determined by artificial intelligence (AI) built into the information processing device 40 or the subject computer 50 .

[表示例]
次に、診断者コンピュータ60におけるディスプレイ30への表示例を説明する。
[Display example]
Next, an example of display on the display 30 of the diagnostician's computer 60 will be described.

図12Aは、診断者コンピュータ60におけるディスプレイ30への表示例を模式的に示す図である。図12Aに示す例では、ディスプレイ30の画面の左側に被検者1の顔の動画像が表示され、右上に脳血流の経時変化を示すグラフが表示され、右下に被検者1の被検部2が表示される。図12Aに示す右上のグラフにおいて、実線は酸素化ヘモグロビンの濃度の経時変化を示し、破線は脱酸素化ヘモグロビンの濃度の経時変化を示している。図12Aに示す例に限らず、酸素化ヘモグロビンおよび脱酸素化ヘモグロビンの一方の濃度の経時変化が示されていてもよい。図12Aに示す右上の画像は、被検部2の一箇所から得られた脳血流の経時変化であってもよく、被検部2の複数箇所または領域から得られた平均の脳血流の経時変化であってもよい。脳血流の経時変化の波形には現時点を示すカーソルまたはタスクの期間を示す表記が示されていてもよい。 FIG. 12A is a diagram schematically showing a display example on the display 30 of the diagnostician's computer 60. FIG. In the example shown in FIG. 12A , a moving image of the face of subject 1 is displayed on the left side of the screen of display 30, a graph showing changes in cerebral blood flow over time is displayed on the upper right side, and the image of subject 1 is displayed on the lower right side. A subject 2 is displayed. In the upper right graph shown in FIG. 12A, the solid line indicates the time course of the concentration of oxygenated hemoglobin, and the broken line indicates the time course of the concentration of deoxygenated hemoglobin. It is not limited to the example shown in FIG. 12A, and the time course of the concentration of either oxygenated hemoglobin or deoxygenated hemoglobin may be shown. The upper right image shown in FIG. 12A may be the change over time of the cerebral blood flow obtained from one location of the subject 2, and the average cerebral blood flow obtained from multiple locations or regions of the subject 2. may be a change over time. A cursor indicating the current time point or a notation indicating the period of the task may be displayed on the waveform of the cerebral blood flow over time.

図12Bは、図12Aに示す右上の画像の変形例を模式的に示す図である。図12Bに示す例では、タスクの開始および終了、ならびにイベントの発生が、縦線によって表されている。 FIG. 12B is a diagram schematically showing a modification of the upper right image shown in FIG. 12A. In the example shown in FIG. 12B, the start and end of tasks and the occurrence of events are represented by vertical lines.

図12Bに示すように、図12Aに示す右上の画像は、脳血流の経時変化と、タスク情報が出力された期間との対応関係を含んでもよい。これにより、タスク中における被検者1の脳血流の経時変化が明確になる。当該期間は、診断用タスクのタスク開始からタスク終了までの期間に相当する。 As shown in FIG. 12B, the upper right image shown in FIG. 12A may include a correspondence relationship between changes in cerebral blood flow over time and periods during which task information was output. This clarifies the temporal change in the cerebral blood flow of the subject 1 during the task. This period corresponds to the period from the start of the diagnostic task to the end of the task.

図12Bに示すように、図12Aに示す右上の画像は、脳血流の経時変化と、イベントが発生した期間との対応関係を含んでもよい。これにより、イベントが被検者1の脳血流の経時変化に及ぼす影響が明確になる。当該期間が短ければ、一箇所だけを示してもよい。 As shown in FIG. 12B, the upper right image shown in FIG. 12A may include a correspondence relationship between changes in cerebral blood flow over time and periods in which events occurred. This clarifies the influence of the event on the change in the cerebral blood flow of the subject 1 over time. If the period is short, only one location may be indicated.

図13は、診断者コンピュータ60におけるディスプレイ30への他の表示例を模式的に示す図である。図13に示す例では、被検部2における脳血流の2次元濃度分布を示す画像が、被検者1の顔の動画像に合成されて表示されている。当該2次元濃度分布は、例えば、酸素化ヘモグロビンの濃度分布であり得る。さらに、被検者1の顔の動画像の周辺において、被検部2の複数の領域における脳血流の経時変化を示す複数のグラフが表示されている。これらのグラフは、各領域における酸素化ヘモグロビンおよび脱酸素化ヘモグロビンのそれぞれの平均の濃度の経時変化を示す。 FIG. 13 is a diagram schematically showing another display example on the display 30 of the diagnostician's computer 60. As shown in FIG. In the example shown in FIG. 13 , an image showing the two-dimensional concentration distribution of cerebral blood flow in the subject 2 is synthesized with a moving image of the face of the subject 1 and displayed. The two-dimensional concentration distribution can be, for example, the concentration distribution of oxygenated hemoglobin. Furthermore, a plurality of graphs showing temporal changes in cerebral blood flow in a plurality of regions of the subject 2 are displayed around the moving image of the subject's 1 face. These graphs show changes over time in the respective average concentrations of oxygenated hemoglobin and deoxygenated hemoglobin in each region.

図13に示す例では、脳血流の経時変化を示す複数のグラフと、被検部2における複数の領域とが、異なる種類の囲い線(破線、点線、一点鎖線、および二点鎖線)によって関連付けられている。これにより、どのグラフがどの領域における脳血流の経時変化を示しているのかを判別できる。関連付けは囲い線に限らず、例えば色、数字、または文字を用いて行ってもよい。 In the example shown in FIG. 13, a plurality of graphs showing temporal changes in cerebral blood flow and a plurality of regions in the subject 2 are separated by different types of encircling lines (broken lines, dotted lines, dashed-dotted lines, and dashed-two dotted lines). Associated. As a result, it can be determined which graph indicates the temporal change in cerebral blood flow in which region. The association is not limited to the encircling line, and may be performed using colors, numbers, or letters, for example.

本実施形態では、図12A、図12B、および図13に示すように、リアルタイムでグラフ化された脳血流情報の画像が表示される。そのため、計測前に、脳血流情報をグラフ化するための脳の領域である特定領域が選択される。特定領域は、例えば、タスクによって脳血流量が大きく変化する脳の領域である。当該脳の領域は、個人によって異なる。 In this embodiment, as shown in FIGS. 12A, 12B, and 13, images of cerebral blood flow information graphed in real time are displayed. Therefore, a specific area of the brain for graphing the cerebral blood flow information is selected before measurement. The specific region is, for example, a region of the brain where the cerebral blood flow significantly changes depending on the task. The area of the brain varies from individual to individual.

以下に、特定領域を決定する方法の例を説明する。 An example of a method for determining the specific area will be described below.

統計データから、病気または症状に応じて大きく活性化する脳の領域が既知である場合、診断前に予めグラフ化される特定領域を、候補の中から選択することができる。例えば、病気または症状に応じた少なくとも1つの特定領域の部位の名前が、候補として設定される。本明細書では、設定された候補を、「設定項目」と称する。処理回路42は、診断者コンピュータ60のディスプレイ30に、設定項目を表示させる。設定項目を表示する代わりに、図13に示すように、線で囲まれた少なくとも1つの特定領域を表示してもよい。その他にも、設定項目は、病気または症状の名前でもよい。 If it is known from statistical data which areas of the brain are highly active in response to a disease or condition, specific areas can be selected from among the candidates to be pre-graphed prior to diagnosis. For example, the name of at least one specific region site corresponding to a disease or symptom is set as a candidate. In this specification, the set candidate is referred to as a "setting item". The processing circuit 42 causes the display 30 of the diagnostician's computer 60 to display the setting items. Instead of displaying the setting items, as shown in FIG. 13, at least one specific area surrounded by lines may be displayed. Alternatively, the setting item may be the name of a disease or symptom.

診断者は、診断者コンピュータ60に接続または内蔵された入力装置に、設定項目に関する入力情報を入力する。入力装置は、例えば、キーボードまたはマウスなどのユーザインターフェースである。処理回路42は、当該入力情報を取得し、当該入力情報に応じて特定領域を決定する。診断者コンピュータ60のディスプレイ30には、決定した特定領域のみが、線で囲まれ表示される。病気または症状に応じて大きく活性化する脳の領域は、複数存在し得る。したがって、決定した特定領域は、1つである必要はなく、複数であってもよい。 The diagnostician inputs input information regarding setting items to an input device connected to or built into the diagnostician's computer 60 . The input device is, for example, a user interface such as a keyboard or mouse. The processing circuit 42 acquires the input information and determines the specific area according to the input information. Only the determined specific area is displayed surrounded by lines on the display 30 of the diagnostician's computer 60 . There may be multiple areas of the brain that are highly activated in response to a disease or condition. Therefore, the determined specific area need not be one, and may be plural.

特定領域を決定する方法の他の例として、診断用タスクの前に、被検者1に単純計算などの予備タスクを行わせることにより、特定領域を調べてもよい。例えば、図11に示すステップS104において、処理回路42は、被検者コンピュータ50のディスプレイに、予備タスク情報を出力させる。被検者1は、出力された予備タスクを行う。処理回路42は、予備タスクによって変化する被検者1の脳血流情報の大きさに応じて特定領域を決定する。例えば、脳血流情報が既定の閾値よりも大きく変化する領域を、特定領域としてもよい。決定した特定領域は、1つである必要はなく、複数あってもよい。この特定領域の決定方法は、病気または症状に応じて活性化する脳の領域が既知でない場合に有効である。 As another example of how the specific region is determined, the specific region may be examined by having the subject 1 perform preliminary tasks such as simple calculations prior to the diagnostic task. For example, in step S104 shown in FIG. 11, the processing circuit 42 causes the display of the subject computer 50 to output preliminary task information. Subject 1 performs the output preliminary task. The processing circuit 42 determines the specific region according to the magnitude of the cerebral blood flow information of the subject 1 that changes depending on the preliminary task. For example, a region where cerebral blood flow information changes more than a predetermined threshold may be set as the specific region. The determined specific area need not be one, and may be plural. This method of determining specific regions is effective when brain regions that are activated in response to disease or symptoms are not known.

上記のように、本実施形態では、被検者1の脳の広範囲の脳血流を計測する必要はない。本明細書において、被検者1の脳の少なくとも1つの特定領域に関する脳血流情報を、「一部の脳血流情報」と称する。 As described above, in this embodiment, it is not necessary to measure the cerebral blood flow in the brain of the subject 1 over a wide area. In this specification, cerebral blood flow information about at least one specific region of the brain of subject 1 is referred to as "partial cerebral blood flow information".

本実施形態では、一部の脳血流情報を、例えば前述した決定方法を用いて選択し、選択した一部の脳血流情報をグラフ化してもよい。一部の脳血流情報をグラフ化することにより、診断の効率化を図ることができる。 In this embodiment, a portion of the cerebral blood flow information may be selected using, for example, the above-described determination method, and the selected portion of the cerebral blood flow information may be graphed. By graphing a part of the cerebral blood flow information, efficiency of diagnosis can be improved.

本実施形態では、一部の脳血流情報を、例えば前述した決定方法を用いて選択し、選択した一部の脳血流情報を、被検者コンピュータ50から診断者コンピュータ60に遠隔ネットワークを介して送信してもよい。グラフ化する前の一部の脳血流情報を送信することにより、通信量を削減することができる。その結果、通信の遅延を抑制することができる。 In this embodiment, a part of the cerebral blood flow information is selected using, for example, the above-described determination method, and the selected part of the cerebral blood flow information is transferred from the subject computer 50 to the diagnostician computer 60 via a remote network. may be sent via By transmitting a part of the cerebral blood flow information before graphing, the amount of communication can be reduced. As a result, communication delay can be suppressed.

一部の脳血流情報は、診断者の代わりに、被検者1によって選択されてもよい。その場合、被検者コンピュータ50のディスプレイに、設定項目が表示される。 Some cerebral blood flow information may be selected by the subject 1 instead of the diagnostician. In that case, the setting items are displayed on the display of the subject computer 50 .

図13に示す表示を行う場合、光検出器14として、光源12から出射される光(例えば近赤外線)に感度を有するイメージセンサが用いられる。イメージセンサは、2次元的に配列された複数の受光素子を備える。各受光素子は、例えばフォトダイオードなどの光電変換素子であり、受光量に応じた電気信号を出力する。複数の受光素子から出力された電気信号の集合が画像信号として扱われる。被検部2における複数の領域の脳血流情報を取得するために、光源12は、当該複数の領域を光で照射する。処理回路16は、イメージセンサから出力された信号に基づいて、複数の領域のそれぞれにおける脳血流情報を生成して出力する。 When performing the display shown in FIG. 13, an image sensor sensitive to light (for example, near-infrared rays) emitted from the light source 12 is used as the photodetector 14 . The image sensor includes a plurality of light receiving elements arranged two-dimensionally. Each light receiving element is, for example, a photoelectric conversion element such as a photodiode, and outputs an electric signal according to the amount of light received. A set of electrical signals output from a plurality of light receiving elements is treated as an image signal. In order to acquire cerebral blood flow information of multiple regions in the subject 2, the light source 12 irradiates the multiple regions with light. The processing circuit 16 generates and outputs cerebral blood flow information in each of the plurality of regions based on the signal output from the image sensor.

図12および図13に示すように、被検者1の顔画像と脳血流の変化を示す画像とを同時に表示することにより、診断者は、被検者1の心理状態をより効果的に診断することができる。 As shown in FIGS. 12 and 13, by simultaneously displaying the face image of the subject 1 and the image showing changes in cerebral blood flow, the diagnostician can more effectively assess the psychological state of the subject 1. can be diagnosed.

図14は、診断者コンピュータ60におけるディスプレイ30へのさらに他の表示例を模式的に示す図である。図14に示す例では、被検部2のうちの領域1および領域2のそれぞれにおける酸素化ヘモグロビンおよび脱酸素化ヘモグロビンのそれぞれの平均の濃度の経時変化を示すグラフと、被検者の診断結果を示すチャートとが同時に表示されている。図14に示す例において、領域1は前頭部であり、領域2は側頭部である。図14に示す右側のチャートにおける星印は、被検者が罹患していると推定される疾患を表している。被検者がどの疾患に罹患しているかは、各領域における酸素化ヘモグロビンおよび脱酸素化ヘモグロビンのそれぞれの濃度の経時変化から推定される。情報処理装置40は、被検者の心理状態または病気である確率を推定し、推定結果をディスプレイ30に表示させてもよい。 FIG. 14 is a diagram schematically showing still another display example on the display 30 of the diagnostician's computer 60. As shown in FIG. In the example shown in FIG. 14, graphs showing changes over time in the average concentrations of oxygenated hemoglobin and deoxygenated hemoglobin in regions 1 and 2 of the test site 2, respectively, and the diagnostic results of the subject. are displayed at the same time. In the example shown in FIG. 14, region 1 is the frontal region and region 2 is the temporal region. The asterisks in the chart on the right side of FIG. 14 represent diseases presumed to affect the subject. Which disease a subject suffers from is estimated from changes over time in the concentrations of oxygenated hemoglobin and deoxygenated hemoglobin in each region. The information processing device 40 may estimate the psychological state or the probability that the subject is ill, and cause the display 30 to display the estimation result.

診断者コンピュータ60は、診断者の操作に応答して、ディスプレイ30に表示される画像を切り換えてもよい。例えば、最初は顔画像のみを表示させ、診断者の操作に応じて、脳血流画像または図14に示す画像に切り替えたり、顔画像と脳血流画像とを合成した画像を表示したりしてもよい。その場合、被検者1の顔画像をディスプレイ30に表示させた状態で、診断者が画像を切り換える操作を行うと、診断者コンピュータ60は、表示画像を切り替えるべき旨の信号を情報処理装置40に送信する。情報処理装置40は、その信号を受信すると、当該顔画像に加えて、または当該顔画像に代えて、脳血流の状態を示す画像をディスプレイ30に表示させる。 The diagnostician's computer 60 may switch the image displayed on the display 30 in response to the diagnostician's operation. For example, only the face image is displayed at first, and then switched to the cerebral blood flow image or the image shown in FIG. may In this case, when the diagnostician performs an operation to switch the image while the face image of the subject 1 is displayed on the display 30, the diagnostician's computer 60 sends a signal to the information processing device 40 to indicate that the display image should be switched. Send to Upon receiving the signal, information processing apparatus 40 causes display 30 to display an image indicating the state of cerebral blood flow in addition to or instead of the facial image.

本開示における情報処理方法は、生体・医療センシングに利用できる。例えば、医師と患者との間の遠隔医療に適用できる。 The information processing method according to the present disclosure can be used for biological/medical sensing. For example, it can be applied to telemedicine between a doctor and a patient.

1 被検者
2 被検部
10 検出装置
12 光源
14 光検出器
16 処理回路
20 カメラ
30 ディスプレイ
40 信号処理装置
42 処理回路
44 メモリ
46 プログラム
50 被検者コンピュータ
60 診断者コンピュータ
70 ヘッドマウント装置
1 Examinee 2 Subject 10 Detecting Device 12 Light Source 14 Photodetector 16 Processing Circuit 20 Camera 30 Display 40 Signal Processing Device 42 Processing Circuit 44 Memory 46 Program 50 Examinee Computer 60 Diagnosis Computer 70 Head Mount Device

Claims (7)

第1のカメラから、被検者の顔の少なくとも一部を示す第1動画像を取得することと、
光検出器によって検出された前記被検者の頭部からの光の情報に基づき、前記被検者の脳血流の経時変化を示す第2動画像を生成することと、
前記第1動画像と、前記第2動画像とを含む出力画像を、ネットワークを介してディスプレイに表示させることと、
を含み、
前記ディスプレイに表示される前記第2動画像のフレームレートは、前記ディスプレイに表示される前記第1動画像のフレームレートよりも低い、
情報処理方法。
obtaining from a first camera a first moving image showing at least a portion of the subject's face;
generating a second moving image showing temporal changes in cerebral blood flow of the subject based on information on light from the subject's head detected by a photodetector;
displaying an output image including the first moving image and the second moving image on a display via a network;
including
a frame rate of the second moving image displayed on the display is lower than a frame rate of the first moving image displayed on the display;
Information processing methods.
前記第1動画像は、前記被検者の表情の変化、前記被検者の視線の変化、および前記被
検者の顔色の変化からなる群から選択される少なくとも1つを示す、
請求項1に記載の情報処理方法。
The first moving image shows at least one selected from the group consisting of a change in the subject's facial expression, a change in the subject's line of sight, and a change in the subject's complexion.
The information processing method according to claim 1 .
前記出力画像は、前記第1動画像と前記第2動画像とが合成されることにより得られる、
請求項1に記載の情報処理方法。
The output image is obtained by synthesizing the first moving image and the second moving image,
The information processing method according to claim 1 .
前記第2動画像に基づいて、前記被検者の心理状態および前記被検者が病気である確率からなる群から選択される少なくとも1つの推定を行うことと、
をさらに含む、
請求項1に記載の情報処理方法。
performing at least one estimation selected from the group consisting of the psychological state of the subject and the probability that the subject is ill, based on the second moving image;
further comprising
The information processing method according to claim 1 .
前記第2動画像は、前記被検者の被検部における前記脳血流の2次元濃度分布を示す画像を含み、
前記ディスプレイに前記出力画像を表示させることは、前記2次元濃度分布を示す画像と、前記脳血流の前記経時変化を示すグラフをともに表示させることを含む、
請求項1に記載の情報処理方法。
the second moving image includes an image showing a two-dimensional concentration distribution of the cerebral blood flow in the subject's test area;
Displaying the output image on the display includes displaying both the image showing the two-dimensional concentration distribution and the graph showing the temporal change of the cerebral blood flow;
The information processing method according to claim 1 .
請求項1に記載の情報処理方法をコンピュータに実行させるプログラム。 A program that causes a computer to execute the information processing method according to claim 1 . 第1のカメラと、
光検出器と、
処理回路と、
を備え、
前記処理回路は、
前記第1のカメラから、被検者の顔の少なくとも一部を示す第1動画像を取得し、
前記光検出器によって検出された前記被検者の頭部からの光の情報に基づき、前記被検者の脳血流の経時変化を示す第2動画像を生成し、
前記第1動画像と、前記第2動画像とを含む出力画像を、ネットワークを介してディスプレイに表示させるために出力し、
出力される前記第2動画像のフレームレートは、出力される前記第1動画像のフレームレートよりも低い、
情報処理システム。
a first camera;
a photodetector;
a processing circuit;
with
The processing circuit is
Acquiring a first moving image showing at least part of the subject's face from the first camera;
generating a second moving image showing temporal changes in cerebral blood flow of the subject based on information on light from the subject's head detected by the photodetector;
outputting an output image including the first moving image and the second moving image to be displayed on a display via a network;
A frame rate of the second moving image to be output is lower than a frame rate of the first moving image to be output.
Information processing system.
JP2022176080A 2017-06-23 2022-11-02 Information processing method, information processing device, and information processing system Active JP7312977B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017123223 2017-06-23
JP2017123223 2017-06-23
JP2018079949A JP7178614B2 (en) 2017-06-23 2018-04-18 Information processing method, information processing device, and information processing system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018079949A Division JP7178614B2 (en) 2017-06-23 2018-04-18 Information processing method, information processing device, and information processing system

Publications (2)

Publication Number Publication Date
JP2023002822A true JP2023002822A (en) 2023-01-10
JP7312977B2 JP7312977B2 (en) 2023-07-24

Family

ID=64735735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022176080A Active JP7312977B2 (en) 2017-06-23 2022-11-02 Information processing method, information processing device, and information processing system

Country Status (3)

Country Link
US (1) US12029530B2 (en)
JP (1) JP7312977B2 (en)
WO (1) WO2018235466A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019176535A1 (en) * 2018-03-15 2019-09-19 パナソニックIpマネジメント株式会社 System, recording medium, and method for estimating user's psychological state
CN111528826A (en) * 2020-05-25 2020-08-14 陈聪 Method for acquiring brain impedance blood flow graph data

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004255075A (en) * 2003-02-27 2004-09-16 Hamamatsu Photonics Kk Concentration measuring apparatus
JP2009268707A (en) * 2008-05-08 2009-11-19 Hitachi Ltd Biological optical measuring apparatus
WO2012074039A1 (en) * 2010-12-02 2012-06-07 大日本印刷株式会社 Medical image processing device
JP2015116213A (en) * 2013-12-16 2015-06-25 株式会社国際電気通信基礎技術研究所 Brain activity training device and brain activity training method
JP2015134157A (en) * 2013-12-20 2015-07-27 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Optical brain function measurement apparatus
JP2016007300A (en) * 2014-06-24 2016-01-18 株式会社日立メディコ Biological optical measurement apparatus and biological optical measurement method
WO2016084834A1 (en) * 2014-11-25 2016-06-02 株式会社日立ハイテクノロジーズ Measurement system, head-mounted device, program, and service providing method

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002143097A (en) 2000-11-10 2002-05-21 Kuniaki Otsuka System and method for predicting and notifying disease sideration
JP3711385B2 (en) 2002-05-20 2005-11-02 独立行政法人情報通信研究機構 Life activity measurement device
JP3598379B2 (en) 2002-05-24 2004-12-08 独立行政法人情報通信研究機構 Imaging biological diagnostic equipment
JP4285012B2 (en) * 2003-01-31 2009-06-24 株式会社日立製作所 Learning situation judgment program and user situation judgment system
US20110144520A1 (en) * 2009-12-16 2011-06-16 Elvir Causevic Method and device for point-of-care neuro-assessment and treatment guidance
JP6008099B2 (en) 2012-07-30 2016-10-19 学校法人日本大学 Brain activity state analysis device, brain activity state analysis method, and brain activity state analysis program
US20140275891A1 (en) * 2013-03-13 2014-09-18 Cephalogics, LLC Optical tomography sensor and related apparatus and methods
WO2015168579A1 (en) * 2014-05-02 2015-11-05 Stephanie Littell Methods of measuring head, neck, and brain function and predicting and diagnosing memory impairment
CN106236060B (en) 2015-06-04 2021-04-09 松下知识产权经营株式会社 Biological information detection device
JP6865384B2 (en) 2016-02-17 2021-04-28 パナソニックIpマネジメント株式会社 Biological information detector
JP7178614B2 (en) * 2017-06-23 2022-11-28 パナソニックIpマネジメント株式会社 Information processing method, information processing device, and information processing system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004255075A (en) * 2003-02-27 2004-09-16 Hamamatsu Photonics Kk Concentration measuring apparatus
JP2009268707A (en) * 2008-05-08 2009-11-19 Hitachi Ltd Biological optical measuring apparatus
WO2012074039A1 (en) * 2010-12-02 2012-06-07 大日本印刷株式会社 Medical image processing device
JP2015116213A (en) * 2013-12-16 2015-06-25 株式会社国際電気通信基礎技術研究所 Brain activity training device and brain activity training method
JP2015134157A (en) * 2013-12-20 2015-07-27 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Optical brain function measurement apparatus
JP2016007300A (en) * 2014-06-24 2016-01-18 株式会社日立メディコ Biological optical measurement apparatus and biological optical measurement method
WO2016084834A1 (en) * 2014-11-25 2016-06-02 株式会社日立ハイテクノロジーズ Measurement system, head-mounted device, program, and service providing method

Also Published As

Publication number Publication date
WO2018235466A1 (en) 2018-12-27
US12029530B2 (en) 2024-07-09
US20220378298A1 (en) 2022-12-01
JP7312977B2 (en) 2023-07-24

Similar Documents

Publication Publication Date Title
JP7178614B2 (en) Information processing method, information processing device, and information processing system
JP7312977B2 (en) Information processing method, information processing device, and information processing system
US20240090833A1 (en) Smart watch
US9820657B2 (en) Mobile wireless appliance
AU2014225626B2 (en) Form factors for the multi-modal physiological assessment of brain health
US9814425B2 (en) Health monitoring appliance
US8708903B2 (en) Patient monitoring appliance
US8968195B2 (en) Health monitoring appliance
US8500636B2 (en) Health monitoring appliance
US20150269825A1 (en) Patient monitoring appliance
JP7386438B2 (en) Biometric device, biometric method, computer readable recording medium, and program
Nie et al. SPIDERS+: A light-weight, wireless, and low-cost glasses-based wearable platform for emotion sensing and bio-signal acquisition
JP2024016142A (en) Information processing method in computer and biological measurement system
Banerjee et al. Exploratory analysis of older adults’ sedentary behavior in the primary living area using kinect depth data
JP6014869B2 (en) Operation identification system, information processing apparatus, information processing program, and information processing system
WO2022126024A1 (en) Foldable sensor-based devices
Walsh et al. Continuous real-world gait monitoring in community-based older adults
JP2017074214A (en) Feeling determination device
Güttler Development of an Ambient Health Monitoring System for a Self-Sufficient and Independent Life in Old Age
Ulsamer et al. Motor Imagery to Control Mobile Applications-An fNIRS Study.
Ubale et al. SMART HEALTHCARE MONITORING SYSTEM
JP2017086992A (en) Feeling determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230629

R151 Written notification of patent or utility model registration

Ref document number: 7312977

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151