JP2021520551A - Presentation of augmented reality associated with the patient's medical condition and / or treatment - Google Patents

Presentation of augmented reality associated with the patient's medical condition and / or treatment Download PDF

Info

Publication number
JP2021520551A
JP2021520551A JP2020554401A JP2020554401A JP2021520551A JP 2021520551 A JP2021520551 A JP 2021520551A JP 2020554401 A JP2020554401 A JP 2020554401A JP 2020554401 A JP2020554401 A JP 2020554401A JP 2021520551 A JP2021520551 A JP 2021520551A
Authority
JP
Japan
Prior art keywords
patient
medical
augmented reality
cognitive
reality display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020554401A
Other languages
Japanese (ja)
Other versions
JP7300802B2 (en
Inventor
サイラー、アンカ
ブラウン、エリック、ウィリアム
ツォウ、チンホゥエイ
エレフテリアウ、マリア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2021520551A publication Critical patent/JP2021520551A/en
Application granted granted Critical
Publication of JP7300802B2 publication Critical patent/JP7300802B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring

Abstract

患者の実際のビュー上にオーバーレイされる、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示すヘッドマウント・ディスプレイ(HMD)システムを介して、拡張現実ディスプレイを実施するための機構が提供される。HMDシステムを介して、医療専門家が見ている患者の身体の部位のリアルタイム画像がキャプチャされる。リアルタイム画像内で患者の1つ又は複数の身体部分が特定される。1つ又は複数の特定された身体部分が、患者と関連付けられた医学的状態もしくは治療又はその両方を示す患者の電子医療記録(EMR)と相関される。次に、患者の身体の部位のリアルタイム画像にオーバーレイする、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の1つ又は複数の部位の拡張現実ディスプレイが、HMDシステム内に生成される。To perform an augmented reality display via a head-mounted display (HMD) system that shows the part of the patient's body that corresponds to the patient's medical condition and / or treatment, overlaid on the patient's actual view. Mechanism is provided. Through the HMD system, real-time images of the patient's body parts viewed by the medical professional are captured. One or more body parts of the patient are identified within the real-time image. One or more identified body parts are correlated with the patient's electronic medical record (EMR) showing the medical condition and / or treatment associated with the patient. An augmented reality display of one or more parts of the patient's body corresponding to the patient's medical condition and / or treatment is then generated within the HMD system to overlay a real-time image of the patient's body part. NS.

Description

本出願は、一般に、改善されたデータ処理装置及び方法に関し、より具体的には、患者の医学的状態(medical condition)もしくは治療又はその両方と関連付けられた拡張現実表現を、医療専門家(medical professional)に提示するための機構に関する。 The present application generally relates to improved data processing devices and methods, more specifically to provide augmented reality representations associated with the patient's medical condition and / or treatment. Regarding the mechanism for presenting to professional).

電子健康記録(EHR:electronic health record)又は電子医療記録(EMR:electronic medical record)は、健康情報をデジタル方式で電子的に格納した患者及び母集団の体系化された集合である。これらの記録は、異なる医療現場にわたって共有することができる。記録は、ネットワーク接続された企業規模の情報システム又は他の情報ネットワーク及び交換を通じて共有される。EMRは、人口統計学、診療歴、投薬及びアレルギー、予防接種記録(immunization status)、臨床検査結果、放射線画像、バイタルサイン(vital sign)、年齢及び体重のような個人統計、並びに課金情報を含む様々なデータを含み得る。 An electronic health record (EHR) or electronic medical record (EMR) is a systematic collection of patients and populations that electronically stores health information in a digital manner. These records can be shared across different medical settings. Records are shared through networked enterprise-scale information systems or other information networks and exchanges. EMR includes demographics, medical history, medication and allergies, immunization status, laboratory results, radiographic images, vital signs, personal statistics such as age and weight, and billing information. It can contain various data.

EMRシステムは、データを正確に格納し、過去の患者の状態を捉えるように設計されている。EMRシステムは、患者のこれまでの紙の医療記録を見つけ出す必要性をなくし、データが正確であり、読みやすいことを保証するのを助ける。EMRシステムは、変更可能なファイルが1つしかなく、それは、ファイルが最新のものである可能性が高いことを意味するので、データ複製のリスクを減らし、書類紛失のリスクを減少させる。デジタル情報は検索可能であり、単一のファイル内にあるため、EMRは、患者における考え得る傾向及び長期的変化の調査のために医療データを抽出するときにより有効である。EMRを幅広く採用することにより、医療記録の母集団ベースの研究も促進され得る。 The EMR system is designed to accurately store data and capture past patient status. The EMR system eliminates the need to find out the patient's previous paper medical records and helps ensure that the data is accurate and easy to read. The EMR system reduces the risk of data duplication and reduces the risk of document loss because there is only one changeable file, which means that the file is likely to be up to date. Because the digital information is searchable and in a single file, EMR is more useful when extracting medical data to investigate possible trends and long-term changes in patients. Widespread adoption of EMR can also facilitate population-based studies of medical records.

本概要は、詳細な説明において本明細書でさらに説明される概念の選択を、簡略化した形で導入するために提供される。本概要は、特許請求される主題の主要な要因又は本質的な特徴を識別することを意図するものではなく、また、特許請求される主題の範囲を制限するために使用されることを意図するものでもない。 This overview is provided to introduce, in a simplified form, the selection of concepts further described herein in the detailed description. This summary is not intended to identify the key factors or essential features of the claimed subject matter and is intended to be used to limit the scope of the claimed subject matter. It's not a thing.

1つの例示的実施形態では、患者の実際のビュー上にオーバーレイされる、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示すヘッドマウント・ディスプレイ(HMD)を介して拡張現実ディスプレイを実施するための、データ処理システムにおける方法が提供される。例示的実施形態は、コグニティブ・ヘルスケア・システム(cognitive healthcare system)のキャプチャ機構により、HMDシステムを介して医療専門家が見ている患者の身体の部位のリアルタイム画像をキャプチャする。例示的実施形態は、リアルタイム画像内の患者の1つ又は複数の身体部分を特定する。例示的実施形態は、1つ又は複数の特定された身体部分を、患者と関連付けられた医学的状態もしくは治療又はその両方を示す患者の電子医療記録(EMR)と相関させる。例示的実施形態は、患者の身体の部位のリアルタイム画像にオーバーレイする、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の1つ又は複数の部位の拡張現実ディスプレイを、HMDシステム内に生成する。 In one exemplary embodiment, it is extended through a head-mounted display (HMD) that shows the part of the patient's body that corresponds to the patient's medical condition and / or treatment, superimposed on the patient's actual view. A method in a data processing system for implementing a real-life display is provided. An exemplary embodiment captures a real-time image of a part of the patient's body viewed by a healthcare professional via an HMD system by a capture mechanism of a cognitive healthcare system. An exemplary embodiment identifies one or more body parts of a patient in a real-time image. An exemplary embodiment correlates one or more identified body parts with a patient's electronic medical record (EMR) showing the medical condition and / or treatment associated with the patient. An exemplary embodiment provides an augmented reality display of one or more parts of the patient's body that corresponds to the patient's medical condition and / or treatment, overlaying a real-time image of the part of the patient's body within the HMD system. To generate.

他の例示的実施形態において、コンピュータ可読プログラムを有するコンピュータ使用可能もしくは可読媒体を含むコンピュータ・プログラム製品が提供される。コンピュータ可読プログラムは、コンピューティング・デバイス上で実行されたとき、コンピューティング・デバイスに、方法の例示的実施形態に関して上に概説された動作の種々のもの及びそれらの組み合わせを実行させる。 In another exemplary embodiment, a computer program product comprising a computer-enabled or readable medium having a computer-readable program is provided. A computer-readable program, when run on a computing device, causes the computing device to perform various of the actions outlined above with respect to exemplary embodiments of the method and combinations thereof.

さらに別の例示的実施形態において、システム/装置が提供される。システム/装置は、1つ又は複数のプロセッサと、1つ又は複数のプロセッサに結合されたメモリとを含むことができる。メモリは、1つ又は複数のプロセッサにより実行されたとき、1つ又は複数のプロセッサに、方法の例示的実施形態に関して上に概説された動作の種々のもの及びそれらの組み合わせを実行させる命令を含むことができる。 In yet another exemplary embodiment, a system / device is provided. The system / device can include one or more processors and memory coupled to the one or more processors. Memory contains instructions that, when executed by one or more processors, cause one or more processors to perform various of the operations outlined above with respect to exemplary embodiments of the method and combinations thereof. be able to.

本発明のこれら及び他の特徴及び利点は、本発明の例示的実施形態の以下の詳細な説明に鑑みて説明される又は当業者には明らかになるであろう。 These and other features and advantages of the present invention will be explained or will be apparent to those skilled in the art in light of the following detailed description of the exemplary embodiments of the present invention.

本発明、並びに、その使用、さらなる目的及び利点の好ましいモードは、添付図面と併せて読むときに、例示的実施形態の以下の詳細な説明を参照することにより、最もよく理解されるであろう。 The present invention, and preferred modes of its use, additional purpose and advantages, will be best understood by reference to the following detailed description of exemplary embodiments when read in conjunction with the accompanying drawings. ..

コンピュータ・ネットワークにおけるコグニティブ・システムの1つの例示的実施形態の概略図を示す。A schematic diagram of one exemplary embodiment of a cognitive system in a computer network is shown. 例証的実施形態の態様が実施される例示的データ処理システムのブロック図である。FIG. 6 is a block diagram of an exemplary data processing system in which aspects of an exemplary embodiment are implemented. 1つの例示的実施形態による、入力を処理して、ヘッドマウント・ディスプレイ(HMD:head mounted display)システムの拡張現実ディスプレイ(augmented reality display)内にオーバーレイを生成するためのコグニティブ・システム処理パイプラインを示す。An exemplary embodiment of a cognitive system processing pipeline for processing inputs to generate overlays within an augmented reality display (HMD) system. show. 例示的実施形態による、医療専門家の目に捉えられた患者の実際のビュー上にオーバーレイされる、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示すヘッドマウント・ディスプレイ(HMD)システムを介して拡張現実ディスプレイを実施する際にコグニティブ・ヘルスケア・システムにより実行される動作の例示的フローチャートを示す。A head-mounted display, according to an exemplary embodiment, showing the part of the patient's body that corresponds to the patient's medical condition and / or treatment, superimposed on the actual view of the patient as seen by the medical professional. (HMD) Shows an exemplary flowchart of actions performed by a cognitive healthcare system when performing an augmented reality display through a system.

現在の医学的評価(medical assessment)において、医療専門家は、患者の治療のための最適な情報を見つけようとして、患者についての大量の医療情報を取捨選択しなければならない。一般的に、これらの評価は、医療専門家が患者についての物理的医療ファイルにアクセスできること、又は電子健康記録(EMR)の使用の増大に伴い、患者のEMRで示される大量のデータを解析することを必要とする。このことは、既に患者を治療する時間が限られている医療専門家の側に多くの時間と労力を必要とする。このため、患者は、多くの場合、医療専門家が患者のことを個人的に知らないか又は個人ベースで患者の治療をしておらず、かつ予定された予約の際に患者に十分な時間を費やしていないように感じる、すなわち、医療専門家が、患者をどのように治療するかという発想を得るために、患者と実際に対話し、患者と目を合わせるのではなくて、患者のEMRデータ又は物理ファイルを検索するのにあまりにも忙し過ぎるように感じる。 In current medical assessments, medical professionals have to sort out large amounts of medical information about patients in an attempt to find the best information for their treatment. In general, these assessments analyze the large amount of data presented in a patient's EMR as health professionals have access to physical medical files about the patient or the increased use of electronic health records (EMRs). Need that. This requires a lot of time and effort on the part of the medical professional who already has limited time to treat the patient. For this reason, patients often do not know the patient personally or are not treated on an individual basis by a medical professional and have sufficient time for the patient at the time of the scheduled appointment. I feel like I'm not spending, that is, the patient's EMR, rather than having the medical professional actually interact with the patient and look at the patient to get an idea of how to treat the patient. I feel too busy searching for data or physical files.

従って、例示的実施形態は、医療専門家の目に捉えられた患者の実際のビュー上にオーバーレイされる、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示す、装着型ヘッドセット、眼鏡等などのヘッドマウント・ディスプレイ(HMD)システムを介して拡張現実ディスプレイを実施するための機構を提供する。本発明の機構は、医療専門家が見ている患者の身体の部位の画像をキャプチャする。見られている患者の身体の部分に基づいて、機構は、ビュー内の対応する身体部分を特定し、それらの身体部分を、患者と関連付けられた医学的状態もしくは治療又はその両方を示す患者の電子医療記録(EMR)データと相関させる。場合によっては、顔認識を用いて、見られている特定の患者を特定することができる。 Thus, an exemplary embodiment is worn to indicate a part of the patient's body that corresponds to the patient's medical condition and / or treatment, which is superimposed on the actual view of the patient as seen by the medical professional. A mechanism for implementing an augmented reality display via a head-mounted display (HMD) system such as a type headset, eyeglasses, etc. is provided. The mechanism of the present invention captures an image of a part of the patient's body as seen by a medical professional. Based on the patient's body parts being viewed, the mechanism identifies the corresponding body parts in the view and indicates those body parts to the patient's medical condition and / or treatment associated with the patient. Correlate with electronic medical record (EMR) data. In some cases, facial recognition can be used to identify a particular patient being seen.

患者の身体上の重ね合わせられたグラフィカル表現は、医学的状態及び実装特有のものとすることができる。つまり、重ね合わせられたグラフィカル表現は、医学的状態を表すグラフィカル画像、罹患した(affected)又はさらに調べる必要がある身体の部分の強調表示、検査結果を表す文字情報、治療の選択肢、メディカル・コード等を含むことができる。また、機構は、複数の媒体ビューに対して注釈付けされたデータの医療コーパスへのアクセスも提供し、所与の患者の気分(mood)、1日のうちの時間、医療専門家のスケジュールの可用性(availability)等に適した媒体のリアルタイムの選択を可能にする。医療専門家のスケジュールに関して、スケジュールに応じて、可用性が限られている場合、より簡潔なもの(基本的器官モデル)を表示することができ、一方、可用性が長期にわたる場合、詳細なもの(患者の器官上でシミュレートされた手術の技術)を表示することができる。 The superpositioned graphical representation on the patient's body can be specific to the medical condition and implementation. That is, the superimposed graphical representation is a graphical image of the medical condition, highlighting of affected or parts of the body that need further examination, textual information of test results, treatment options, medical code. Etc. can be included. PMDA also provides access to a medical corpus of annotated data for multiple media views, the mood of a given patient, the time of day, the schedule of a medical professional. It enables real-time selection of media suitable for availability and the like. Regarding the schedule of medical professionals, depending on the schedule, it is possible to display a more concise one (basic organ model) when availability is limited, while a detailed one (patient) when availability is long-term. Surgery techniques simulated on the organs of the patient) can be displayed.

例示的実施形態の種々の態様のより詳細な議論を始める前に、最初に、本説明全体を通じて、「機構」という用語は、種々の動作、機能等を実行する本発明の要素を指すために使用されることを理解されたい。この用語が本明細書で使用される場合、「機構」は、装置、プロシージャ、又はコンピュータ・プログラム製品の形態の、例示的実施形態の機能又は態様の実装とすることができる。プロシージャの場合、プロシージャは、1つ又は複数のデバイス、装置、コンピュータ、データ処理システム等により実施される。コンピュータ・プログラム製品の場合、コンピュータ・プログラム製品内又はその上に具体化されたコンピュータ・コード又は命令により表される論理が、1つ又は複数のハードウェア・デバイスにより実行され、機能を実施する又は特定の「機構」と関連付けられた動作を実行する。従って、本明細書で説明される機構は、専用ハードウェア、汎用ハードウェア上で実行されるソフトウェア、媒体上に格納されるソフトウェア命令として実装することができ、命令は、専用又は汎用ハードウェア、機能を実行するためのプロシージャもしくは方法、又は上記のいずれかの組み合わせにより容易に実行可能である。 Before beginning a more detailed discussion of the various aspects of the exemplary embodiment, first, throughout this description, the term "mechanism" is meant to refer to an element of the invention that performs various actions, functions, etc. Please understand that it is used. As the term is used herein, "mechanism" can be an implementation of a function or embodiment of an exemplary embodiment in the form of a device, procedure, or computer program product. In the case of a procedure, the procedure is performed by one or more devices, devices, computers, data processing systems, and the like. In the case of a computer program product, the logic represented by the computer code or instructions embodied in or on the computer program product is executed by one or more hardware devices to perform or perform a function. Performs an action associated with a particular "mechanism". Therefore, the mechanisms described herein can be implemented as dedicated hardware, software executed on general purpose hardware, software instructions stored on a medium, and the instructions are dedicated or general purpose hardware. It can be easily executed by a procedure or method for performing a function, or a combination of any of the above.

本説明及び特許請求の範囲は、例示的実施形態の特定の特徴及び要素に関して、「1つの(a)」、「〜の少なくとも1つ(at least one of)」及び「〜の1つ又は複数(one or more of)」という用語を利用することがある。これらの用語及び句は、特定の例示的実施形態内に存在する特定の特徴又は要素の少なくとも1つが存在するが、1つより多くも存在し得ることを述べるように意図されることを理解されたい。つまり、これらの用語/句は、説明又は特許請求の範囲を存在する単一の特徴/要素に限定することも、又は複数のこうした特徴/要素が存在することを必要とすることも意図しない。逆に、これらの用語/句は、説明及び特許請求の範囲内にある複数のこうした特徴/要素の可能性を有する少なくとも単一の特徴/要素のみを必要とする。 The present description and claims cover "one (a)", "at least one of" and "one or more of" with respect to specific features and elements of the exemplary embodiments. (One or more of) "may be used. It is understood that these terms and phrases are intended to state that at least one of the particular features or elements present within a particular exemplary embodiment is present, but more than one can be present. sea bream. That is, these terms / phrases are not intended to limit the scope of the description or claims to a single feature / element that exists, or to require the existence of multiple such features / elements. Conversely, these terms / phrases require only at least a single feature / element that has the potential for multiple such features / elements within the scope of the description and claims.

さらに、本発明の実施形態及び特徴の記載に関して本明細書で使用される場合、「エンジン」という用語の使用は、エンジンに起因し得る、もしくはエンジンにより実行される又はその両方の動作、ステップ、プロセス等を達成もしくは実行又はその両方をするために、いずれかの特定の実装を制限することを意図するものではないことを理解されたい。エンジンは、これらに限定されるものではないが、機械可読メモリ内にロードもしくは格納され、プロセッサにより実行される適切なソフトウェアと組み合わせて汎用プロセッサもしくは専用プロセッサ又はその両方のいずれかの使用を含むがこれに限定されない指定された機能を実行する、ソフトウェア、ハードウェア、及び/又はファームウェア、又はそれらの任意の組み合わせとすることができる。さらに、特に定めのない限り、特定のエンジンと関連付けられたいずれの名称も、参照の利便性のためのものであり、特定の実装に制限することを意図するものではない。付加的に、エンジンに起因するいずれの機能も、複数のエンジンにより等しく実行すること、同じもしくは異なるタイプの別のエンジンの機能に組み入れること及び/又はそれと結合すること、又は種々の構成の1つ又は複数のエンジンにわたって分散させることができる。 Moreover, as used herein with respect to the description of embodiments and features of the present invention, the use of the term "engine" may be attributed to, or performed by, an engine, an operation, a step, a step. It should be understood that it is not intended to limit any particular implementation in order to achieve, execute, or both process, etc. The engine includes, but is not limited to, the use of a general purpose processor and / or a dedicated processor in combination with appropriate software loaded or stored in machine-readable memory and executed by the processor. It can be software, hardware, and / or firmware, or any combination thereof that performs a specified function, not limited to this. Furthermore, unless otherwise specified, any name associated with a particular engine is for convenience of reference and is not intended to be restricted to a particular implementation. In addition, any function resulting from an engine may be performed equally by multiple engines, incorporated into and / or combined with the function of another engine of the same or different type, or one of various configurations. Or it can be distributed across multiple engines.

さらに、以下の説明は、例示的実施形態の種々の要素についての複数の種々の例を用いて、例示的実施形態の例示的実装をさらに示し、例示的実施形態の機構の理解を助けることを理解されたい。これらの例は、限定ではなく、例示的実施形態の機構を実装するための種々の可能性を網羅するものでもない。本発明の趣旨及び範囲から逸脱することなく、本明細書で与えられる例に加えて又はその代わりに利用することができるこれらの種々の要素の多くの他の代替的な実装があることは、本説明に鑑みて当業者には明らかであろう。 In addition, the following description further illustrates the exemplary implementation of the exemplary embodiment with a number of different examples of the various elements of the exemplary embodiment to aid in understanding the mechanism of the exemplary embodiment. I want to be understood. These examples are not limited and do not cover the various possibilities for implementing the mechanisms of exemplary embodiments. It is possible that there are many other alternative implementations of these various elements that can be used in addition to or in place of the examples provided herein without departing from the spirit and scope of the invention. It will be apparent to those skilled in the art in light of this description.

上述のように、本発明は、医療専門家の目に捉えられた患者の実際のビュー上にオーバーレイされる、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示す、装着型ヘッドセット、眼鏡等などのヘッドマウント・ディスプレイ(HMD)システムを介して拡張現実ディスプレイを実施するための機構を提供する。例示的実施形態は、多くの異なるタイプのデータ処理環境で用いることができる。例示的実施形態の特定の要素及び機能の説明についての文脈を提供するために、例示的実施形態の態様を実施することができる例示的環境として、図1〜図3が以下に与えられる。図1〜図3は、単なる例に過ぎず、本発明の態様又は実施形態を実施することができる環境に関する何らかの制限を主張又は意味することを意図するものではないことを理解されたい。本発明の範囲から逸脱することなく、示される実施形態への多くの修正を行うことができる。 As mentioned above, the invention refers to a part of the patient's body that corresponds to the patient's medical condition and / or treatment, superimposed on the actual view of the patient as seen by a medical professional. Provided is a mechanism for implementing an augmented reality display via a head-mounted display (HMD) system such as a wearable headset, eyeglasses, or the like. Illustrative embodiments can be used in many different types of data processing environments. FIGS. 1-3 are provided below as exemplary environments in which the embodiments of the exemplary embodiments can be implemented to provide context for the description of specific elements and functions of the exemplary embodiments. It should be understood that FIGS. 1-3 are merely examples and are not intended to assert or imply any limitation on the environment in which aspects or embodiments of the invention can be practiced. Many modifications to the embodiments shown can be made without departing from the scope of the invention.

図1〜図3は、医療専門家の目に捉えられた患者の実際のビュー上にオーバーレイされる、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示す、装着型ヘッドセット、眼鏡等などのヘッドマウント・ディスプレイ(HMD)システムを介して拡張現実ディスプレイを実施するための例示的なコグニティブ・システムの説明に向けられる。従って、患者と関連付けられた医学的状態もしくは治療又はその両方を特定するために、コグニティブ・システムは、例示的実施形態の機構を実装する要求処理パイプライン、要求処理方法、及び要求処理コンピュータ・プログラム製品を実装する。これらの要求は、構造化又は非構造化要求メッセージ、自然言語の質問、又はコグニティブ・システムにより実行される動作を要求するための他のいずれかの適切な形式として提供することができる。以下により詳細に説明されるように、本発明のコグニティブ・システムにおいて実施される特定のアプリケーションは、医療専門家の目に捉えられた患者の実際のビュー上にオーバーレイされる、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示すヘッドマウント・ディスプレイ(HMD)システムを介して拡張現実ディスプレイを実施するためのアプリケーションである。 1 to 3 are wearable, showing the part of the patient's body that corresponds to the patient's medical condition and / or treatment, superimposed on the actual view of the patient as seen by the medical professional. A description of an exemplary cognitive system for implementing an augmented reality display via a head-mounted display (HMD) system such as a headset, eyeglasses, etc. is directed. Therefore, in order to identify the medical condition and / or treatment associated with a patient, the cognitive system implements a requirements processing pipeline, a requirements processing method, and a requirements processing computer program that implements the mechanisms of an exemplary embodiment. Implement the product. These requests can be provided as a structured or unstructured request message, a natural language question, or any other suitable form for requesting an action performed by a cognitive system. As described in more detail below, the particular application performed in the cognitive system of the present invention overlays the patient's medical condition on the actual view of the patient as seen by a medical professional. Alternatively, it is an application for performing an augmented reality display via a head-mounted display (HMD) system that shows a part of the patient's body corresponding to treatment or both.

コグニティブ・システムは、以下の例では単一の要求処理パイプラインとして示されるが、実際には、複数の要求処理パイプラインを有し得ることを理解されたい。各要求処理パイプラインは、所望の実施に応じて、別個に訓練すること、及び/又は異なる領域と関連付けられた要求を処理するように構成すること、又は入力要求(又は、QAパイプラインを用いる実装における質問)に対して同じ又は異なる分析を実行するように構成することが可能である。例えば、場合によっては、第1の要求処理パイプラインは、患者の医学的状態の特定に向けられた入力要求に対して動作するように訓練し、患者の医者が、医学的状態と関連する患者の部位を見ることができるようにすることが可能である。他の場合には、例えば、要求処理パイプラインは、1つの要求処理パイプラインが、患者の医学的治療を特定するために使用されるなど、異なるタイプのコグニティブ機能を与える又は異なるタイプのアプリケーションをサポートするように構成し、患者の処置を行っている看護師が、適用される処置が関連する患者の部位等を見ることができるようにすることが可能である。 It should be understood that a cognitive system may actually have multiple request processing pipelines, although it is shown as a single request processing pipeline in the example below. Each request processing pipeline can be trained separately and / or configured to process requests associated with different regions, or input requests (or use QA pipelines), depending on the desired implementation. It can be configured to perform the same or different analysis for the implementation question). For example, in some cases, the first request processing pipeline may be trained to work in response to input requests directed to identify the patient's medical condition, and the patient's physician may be associated with the patient's medical condition. It is possible to be able to see the part of. In other cases, for example, a requirements processing pipeline may provide different types of cognitive functions or different types of applications, such as one request processing pipeline being used to identify a patient's medical treatment. It can be configured to support and allow the nurse performing the patient's treatment to see the patient's site, etc. to which the applied treatment is associated.

さらに、各要求処理パイプラインは、それらが取り込み、動作する関連したコーパス(単数又は複数)を有することができ、例えば、1つのコーパスは医学的状態の文書用のものであり、別のコーパスは上の例における医学的治療関連の文書用のものである。場合によっては、要求処理パイプラインはそれぞれ、入力質問の同じ領域に対して動作し得るが、異なる分析及び潜在的な回答が生成されるように、異なる注釈者又は異なるように訓練された注釈者などの異なる構成を有することができる。コグニティブ・システムは、入力要求の判断された領域に基づくなど、入力質問を適切な要求処理パイプラインに経路指定し、複数の要求処理パイプラインにより実行される処理によって生成された最終結果を組み合わせて評価するための付加的な論理、並びに複数の要求処理パイプラインの利用を容易にする他の制御及び相互作用論理を提供することができる。 In addition, each request processing pipeline can have an associated corpus (s) that they capture and operate, for example, one corpus is for medical condition documents and another corpus is. It is for medical treatment related documents in the above example. In some cases, each request processing pipeline may work for the same area of input questions, but different annotators or trained annotators to generate different analyzes and potential answers. Can have different configurations such as. The cognitive system routes input questions to the appropriate request processing pipeline, such as based on the determined area of the input request, and combines the final results produced by the processing performed by multiple request processing pipelines. Additional logic for evaluation, as well as other control and interaction logics that facilitate the use of multiple request processing pipelines, can be provided.

本発明は、要求に対して動作する1つ又は複数の要求パイプラインを実装するコグニティブ・システムの文脈で説明されるが、例示的実施形態はそれに制限されないことを理解されたい。むしろ、例示的実施形態の機構は、「質問」として提示されない要求に対して動作できるが、関連したコーパス(単数又は複数)及びコグニティブ・システムを構成するために用いられる特定の構成情報を用いて、入力データの特定のセットに対するコグニティブ動作を実行するように、コグニティブ・システムに対する要求としてフォーマットされる。 The present invention is described in the context of a cognitive system that implements one or more requirements pipelines that operate on requirements, but it should be understood that exemplary embodiments are not limited thereto. Rather, the mechanisms of the exemplary embodiments can operate on requests that are not presented as "questions", but with the associated corpus (s) and specific configuration information used to configure the cognitive system. , Formatted as a request to the cognitive system to perform cognitive actions on a particular set of input data.

以下により詳細に説明されるように、例示的実施形態は、医療専門家の目に捉えられた患者の実際のビュー上にオーバーレイされる、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示す拡張現実ディスプレイの実施に関して要求処理パイプラインの機能を統合し、拡張し、拡大することができる。例えば、患者が虫垂炎の医学的状態を有する場合、医者が、ヘッドマウント・ディスプレイ(HMD)システムの拡張現実ディスプレイを通じて患者の身体を見る場合、患者の盲腸は、HMDシステムの拡張現実ディスプレイを通じて患者の身体の下腹部をHMDシステムの拡張現実ディスプレイを見たときに患者の身体の下腹部をオーバーレイするように示される。 As described in more detail below, the exemplary embodiment is a patient corresponding to the patient's medical condition and / or treatment, which is overlaid on the actual view of the patient as seen by the medical professional. The capabilities of the request processing pipeline can be integrated, extended and expanded with respect to the implementation of augmented reality displays that show parts of the body. For example, if the patient has a medical condition of ptosis, if the doctor looks at the patient's body through the augmented reality display of the head-mounted display (HMD) system, the patient's cecum is the patient's cul-de-sac through the augmented reality display of the HMD system. The lower abdomen of the body is shown to overlay the lower abdomen of the patient's body when looking at the augmented reality display of the HMD system.

図1〜図3に記載される機構は、単なる例に過ぎず、例示的な実施形態が実施されるコグニティブ・システム機構のタイプに関する何らかの制限を述べる又は意味することを意図するものではないことを理解されたい。本発明の趣旨及び範囲から逸脱することなく、本発明の種々の実施形態において、図1〜図3に示される例示的コグニティブ・システムへの多くの修正を実施することができる。 It is intended that the mechanisms described in FIGS. 1-3 are merely examples and are not intended to state or imply any limitation on the type of cognitive system mechanism in which the exemplary embodiments are implemented. I want to be understood. Many modifications to the exemplary cognitive system shown in FIGS. 1 to 3 can be implemented in various embodiments of the invention without departing from the spirit and scope of the invention.

概要として、コグニティブ・システムは、人間のコグニティブ機能をエミュレートするように、ハードウェア論理もしくはソフトウェア論理又はその両方を有するように(ソフトウェアが実行するハードウェア論理と組み合わせて)構成された専用コンピュータ・システム、又はコンピュータ・システムのセットである。これらのコグニティブ・システムは、人間のような特性を適用して考えを伝達及び処理し、それにより、デジタル・コンピューティングの本来の強度と組み合わせられると、高い精度及び大規模なレジリエンスを有して問題を解決することができる。コグニティブ・システムは、人間の思考プロセスに近似し、人と機械がより自然な方法で対話して人間の専門知識及び認知を拡大し強めることを可能にする、1つ又は複数のコンピュータ実施コグニティブ動作を実行する。コグニティブ・システムは、例えば自然言語処理(NLP)ベースの論理などの人工知能論理と、専用ハードウェア、ハードウェア上で実行されるソフトウェア、又は専用ハードウェアとハードウェア上で実行されるソフトウェアとの任意の組み合わせとして提供することができる機械学習論理とを含む。コグニティブ・システムの論理は、コグニティブ動作を実施し、その例として、これらに限定されるものではないが、質問応答、コーパス内のコンテンツの異なる部分内の関連概念の識別、例えばインターネット・ウェブページ検索などのインテリジェント検索アルゴリズム、医療診断及び治療の推奨、例えば特定のユーザに対する関心ある項目、潜在的な新しい連絡先の推奨等など他のタイプの推奨の生成が含まれる。 In summary, a cognitive system is a dedicated computer configured to have hardware logic and / or software logic (in combination with the hardware logic performed by the software) to emulate human cognitive functionality. A system, or a set of computer systems. These cognitive systems apply human-like characteristics to convey and process ideas, thereby having high precision and large resilience when combined with the inherent strength of digital computing. Can solve the problem. A cognitive system mimics the human thinking process and allows one or more computer-implemented cognitive operations to allow humans and machines to interact in a more natural way to expand and enhance human expertise and cognition. To execute. A cognitive system is a combination of artificial intelligence logic, such as natural language processing (NLP) -based logic, and dedicated hardware, software that runs on hardware, or dedicated hardware and software that runs on hardware. Includes machine learning logic that can be provided as any combination. The logic of a cognitive system implements cognitive behavior, such as, but not limited to, question answering, identification of related concepts within different parts of content within a corpus, eg, Internet web page search. Includes the generation of other types of recommendations such as intelligent search algorithms such as, medical diagnosis and treatment recommendations, such as items of interest to a particular user, potential new contact recommendations, etc.

IBM Watson(商標)は、人間可読言語を処理し、テキスト・パッセージ間の推論を、人間よりはるかに高速かつ大規模で人間のような高精度で識別することができる1つのそうしたコグニティブ・システムの例である。一般に、そうしたコグニティブ・システムは、以下の機能を実施することができる。:
●人間の言語の複雑さ及び理解をナビゲートする
●膨大な量の構造化及び非構造化データを取り込み、処理する
●仮説を生成し、評価する
●関連証拠のみに基づいている応答を重み付けし、評価する
●状況固有のアドバイス、洞察及び助言を提供する
●知識を改善し、繰り返すたびに、機械学習プロセスを通した対話により学習する
●衝撃時に意思決定を可能にする(文脈上の助言)
●タスクに比例して縮小拡大する
●人間の専門知識及び認知(cognition)を拡大し、強める
●自然言語から、共鳴する人間のような属性及び特徴を識別する
●自然言語から、種々の言語固有の又は不可知論的(agnostic)属性を推測する
●データ・ポイント(画像、テキスト、音声)からの高度の関連記憶力(記憶し、呼び出す)
●経験に基づいて人間の認知を模倣する状況認識で予測し、感知する
●自然言語及び具体的証拠に基づいて質問に回答する。
IBM Watson ™ is one such cognitive system that can process human-readable languages and identify inferences between text passages much faster than humans, on a larger scale, and with human-like precision. This is an example. In general, such cognitive systems can perform the following functions: :
● Navigate the complexity and understanding of human language ● Capture and process vast amounts of structured and unstructured data ● Generate and evaluate hypotheses ● Weight responses based solely on relevant evidence ● Provide situation-specific advice, insights and advice ● Improve knowledge and learn through dialogue through machine learning processes each time ● Enable decision-making in the event of impact (contextual advice)
● Scale in proportion to the task ● Expand and strengthen human expertise and cognition ● Identify resonating human-like attributes and characteristics from natural language ● Various language-specific from natural language Guess the or agnostic attribute ● Highly relevant memory (memorize and recall) from data points (image, text, voice)
● Predict and perceive with situational awareness that mimics human cognition based on experience ● Answer questions based on natural language and concrete evidence.

1つの態様において、コグニティブ・システムは、要求処理パイプライン、もしくは自然言語要求として提示されることも又はされないこともある処理要求又はその両方を用いて、これらのコグニティブ・システムに提示された要求に応答するための機構を提供する。要求処理パイプラインは、自然言語で提示される所与の主題領域に関する要求に応答するデータ処理ハードウェア上で実行される人工知能アプリケーションである。要求処理パイプラインは、ネットワーク上での入力、電子文書又は他のデータのコーパス、コンテンツ・クリエータからのデータ、1つ又は複数のコンテンツ・ユーザからの情報、及び他の可能な入力ソースからの他のそうした入力を含む、種々のソースから入力を受け取る。データ・ストレージ・デバイスは、データのコーパスを格納する。コンテンツ・クリエータは、要求処理パイプラインにおいてデータのコーパスの一部として用いられる文書内のコンテンツを作成する。文書は、要求処理システムで用いられる任意のファイル、テキスト、記事、又はデータのソースを含むことができる。例えば、要求処理パイプラインは、例えば、財務領域、医療領域、法的領域等といった、領域又は主題領域についての知識体系にアクセスし、そこで、知識体系(知識ベース)を、例えば、オントロジなどの領域固有の情報の構造化リポジトリ、又は領域に関連した非構造化データ、又は領域についての自然言語文書の集合などの種々の構成で編成することができる。 In one embodiment, the cognitive systems use the request processing pipeline, and / or processing requests that may or may not be presented as natural language requirements, to the requests presented to these cognitive systems. Provide a mechanism for responding. A request processing pipeline is an artificial intelligence application that runs on data processing hardware that responds to requests for a given subject area presented in natural language. Request processing pipelines include input on the network, corpus of electronic documents or other data, data from content creators, information from one or more content users, and others from other possible input sources. Receives input from various sources, including such input. A data storage device stores a corpus of data. Content creators create in-document content that is used as part of a corpus of data in the request processing pipeline. The document can include any file, text, article, or source of data used in the request processing system. For example, a request processing pipeline accesses a body of knowledge about an area or subject area, such as a financial area, a medical area, a legal area, etc., where the body of knowledge (knowledge base), for example, an area such as an ontology, is accessed. It can be organized in various configurations, such as a structured repository of unique information, or unstructured data related to an area, or a collection of natural language documents about an area.

コンテンツ・ユーザは、要求処理パイプラインを実装するコグニティブ・システムに要求を入力する。次に、要求処理パイプラインは、文書、文書のセクション、コーパス内のデータの部分等を評価することにより、データのコーパス内のコンテンツを用いて要求に応答する。プロセスが、意味コンテンツに関して文書の所与のセクションを評価すると、プロセスは、種々の規則を用いて、要求処理パイプラインからこうした文書に照会し、例えば、適格な要求としてクエリを要求処理パイプラインに送り、次に、要求処理パイプラインにより要求を解釈し、1つ又は複数の応答を含む応答が要求に与えられる。意味コンテンツは、語、句、符号及び記号などの記号表現(signifier)間の関係、それらが何を表しているか、それらの明示的意味(denotation)、又は暗示的意味(connotation)に基づいたコンテンツである。言い換えれば、意味コンテンツは、自然言語処理などを用いて、表現を解釈するコンテンツである。 Content users enter requests into a cognitive system that implements a request processing pipeline. The request processing pipeline then responds to the request using the content in the corpus of data by evaluating the document, the section of the document, the portion of the data in the corpus, and so on. When a process evaluates a given section of a document with respect to semantic content, the process queries these documents from the request processing pipeline, using various rules, for example, querying the request processing pipeline as eligible requests. Send, then the request processing pipeline interprets the request and a response containing one or more responses is given to the request. Semantic content is content based on the relationships between signifiers such as words, phrases, signs and symbols, what they represent, their denotation or denotation. Is. In other words, semantic content is content that interprets expressions using natural language processing or the like.

以下により詳細に説明されるように、要求処理パイプラインは、要求を受け取り、要求を解析して要求の主な特徴を抽出し、抽出した特徴を用いてクエリを定式化し、これらのクエリをデータのコーパスに適用する。データのコーパスへのクエリの適用に基づいて、要求処理パイプラインは、データのコーパスにわたって、要求への有益な応答を含む何らかの可能性を有するデータのコーパスの部分を探すことにより、要求への応答のセットを生成する。次に、要求処理パイプラインは、要求の言語、及び種々の推論アルゴリズムを用いたクエリの適用中に見出されたデータのコーパスの部分の各々において用いられる言語の深い分析を実行する。適用される推論アルゴリズムは何百又は何千になることさえあり、その各々は、例えば比較、自然言語分析、語彙分析(lexical analysis)等などの異なる分析を実行し、スコアを生成する。例えば、幾つかの推論アルゴリズムは、要求の言語内の用語及び同義語と、データのコーパスの見つかった部分との一致を調べることができる。他の推論アルゴリズムは、言語内の時間的又は空間的特徴を調べる一方で、他のものは、データのコーパスの部分のソースを評価し、その正確さを評価することができる。 As described in more detail below, the request processing pipeline receives the request, parses the request, extracts the main features of the request, formulates the query using the extracted features, and data these queries. Applies to the corpus of. Based on applying a query to a corpus of data, the request processing pipeline responds to a request by looking across the corpus of data for a portion of the corpus of data that has some potential, including a useful response to the request. Generate a set of. The request processing pipeline then performs an in-depth analysis of the language of the request and the language used in each of the corpus pieces of data found during the application of queries using various inference algorithms. The inference algorithms applied can be in the hundreds or even thousands, each performing different analyzes such as comparison, natural language analysis, lexical analysis, etc. to generate scores. For example, some inference algorithms can look for matches between terms and synonyms in the requested language and the found portion of the corpus of data. While other inference algorithms examine temporal or spatial features within a language, others can evaluate the source of a corpus portion of the data and evaluate its accuracy.

上述のように、要求処理パイプライン機構は、データ又は情報のコーパス(コンテンツのコーパスとも呼ばれる)からの情報にアクセスし、それを分析し、次に、このデータの分析に基づいて回答結果を生成することによって動作する。データのコーパスからの情報にアクセスすることは、一般的に、構造化記録の集合内に何があるかについての要求に回答するデータベース・クエリと、非構造化データ(テキスト、マークアップ言語等)の集合に対するクエリに応答して文書リンクの集合を伝える検索とを含む。従来の要求処理システムは、データのコーパス及び入力要求に基づいて回答を生成し、データのコーパスについての要求の集合への回答を検証し、データのコーパスを用いてデジタル・テキストにおけるエラーを訂正し、潜在的な回答のプール、すなわち候補回答から、要求への応答を選択する。 As mentioned above, the request processing pipeline mechanism accesses information from a data or corpus of information (also called a corpus of content), analyzes it, and then generates response results based on the analysis of this data. It works by doing. Accessing information from a corpus of data generally involves database queries that answer requests for what is in a set of structured records, and unstructured data (text, markup languages, etc.). Includes a search that conveys a set of document links in response to a query on the set of. Traditional request processing systems generate answers based on a corpus of data and input requests, validate the answers to a set of requests for the corpus of data, and use the corpus of data to correct errors in digital text. , Select a response to a request from a pool of potential answers, ie candidate answers.

図1は、幾つかの実施形態においては、コンピュータ・ネットワーク102における要求処理パイプラインとすることができる、要求処理パイプライン108を実装するコグニティブ・システム100の1つの例示的実施形態の概略図を示す。本説明のために、要求処理パイプライン108は、入力質問の形態の構造化要求もしくは非構造化要求又はその両方に対して動作すると仮定される。本明細書で説明される原理と関連して用いることができる質問処理(question processing)動作の一例は、米国特許出願公開第2011/0125734号に記載され、これは、その全体が引用により本明細書に組み入れられる。コグニティブ・システム100は、コンピュータ・ネットワーク102に接続された1つ又は複数のコンピューティング・デバイス104A〜D(1つ又は複数のプロセッサ及び1つ又は複数のメモリ、並びに、バス、ストレージ・デバイス、通信インターフェース等を含む、一般的に当技術分野において周知の潜在的に任意の他のコンピューティング・デバイス要素を含む)上に実装される。単に説明のために、図1は、コンピューティング・デバイス104A上のみに実装されているコグニティブ・システム100を示すが、上述のように、コグニティブ・システム100は、複数のコンピューティング・デバイス104A〜Dなど、複数のコンピューティング・デバイスにわたって分散され得る。ネットワーク102は、サーバ・コンピューティング・デバイスとして動作し得る複数のコンピューティング・デバイス104A〜Dと、1つ又は複数の有線データ通信リンクもしくは無線データ通信リンク又はその両方を介して、互いに及び他のデバイス又はコンポーネントと通信するクライアント・コンピューティング・デバイスとして動作し得るコンピューティング・デバイス110〜112とを含み、ここで、各通信リンクは、有線、ルータ、スイッチ、送信機、受信機等のうちの1つ又は複数を含む。幾つかの例示的実施形態において、コグニティブ・システム100及びネットワーク102は、それぞれのコンピューティング・デバイス110〜112を介する、1つ又は複数のコグニティブ・システムのユーザのための要求処理機能を可能にする。他の実施形態において、コグニティブ・システム100及びネットワーク102は、これに限定されるものではないが、例えば、コグニティブ情報の取り出し、ユーザの訓練/命令、データのコグニティブ評価等など、所望の実施に応じて多くの異なる形態を取ることができる要求処理及びコグニティブ応答生成を含む、他のタイプのコグニティブ動作を提供することができる。コグニティブ・システム100の他の実施形態は、本明細書に示されるもの以外のコンポーネント、システム、サブシステム、もしくはデバイス又はそれらの組み合わせと共に用いることができる。 FIG. 1 illustrates a schematic of one exemplary embodiment of a cognitive system 100 that implements a request processing pipeline 108, which in some embodiments can be a request processing pipeline in a computer network 102. show. For the purposes of this description, the request processing pipeline 108 is assumed to operate for structured and / or unstructured requests in the form of input questions. An example of a question processing operation that can be used in connection with the principles described herein is described in US Patent Application Publication No. 2011/0125734, which is hereby incorporated by reference in its entirety. Incorporated into the book. The cognitive system 100 includes one or more computing devices 104A-D (one or more processors and one or more memories, as well as buses, storage devices, and communications) connected to the computer network 102. Implemented on (including potentially any other computing device element commonly known in the art), including interfaces and the like. For illustration purposes only, FIG. 1 shows a cognitive system 100 implemented only on computing devices 104A, but as described above, the cognitive system 100 includes a plurality of computing devices 104A-D. Can be distributed across multiple computing devices, such as. The network 102 includes a plurality of computing devices 104A-D capable of operating as server computing devices and one or more wired data communication links and / or wireless data communication links to each other and others. Includes computing devices 110-112 that may operate as client computing devices that communicate with devices or components, where each communication link is of a wired, router, switch, transmitter, receiver, etc. Includes one or more. In some exemplary embodiments, the cognitive system 100 and network 102 enable request processing capabilities for users of one or more cognitive systems via their respective computing devices 110-112. .. In other embodiments, the cognitive system 100 and the network 102 are, but are not limited to, depending on the desired implementation, such as, for example, retrieval of cognitive information, user training / instruction, cognitive evaluation of data, and the like. Other types of cognitive behavior can be provided, including request processing and cognitive response generation that can take many different forms. Other embodiments of the cognitive system 100 can be used with components, systems, subsystems, or devices or combinations thereof other than those set forth herein.

コグニティブ・システム100は、種々のソースから入力を受け取る要求処理パイプライン108を実装するように構成される。要求は、自然言語の質問、情報に対する自然言語の要求、コグニティブ動作の実行のための自然言語の要求等の形態で提示され得る。例えば、コグニティブ・システム100は、ネットワーク102、電子文書のコーパス(単数又は複数)106、コグニティブ・システムのユーザ、及び/又は入力の他のデータ及び他の可能なソースから、入力を受け取る。1つの実施形態において、コグニティブ・システム100への入力の一部又は全ては、ネットワーク102を通じて経路指定される。ネットワーク102上の種々のコンピューティング・デバイス104A〜Dは、コンテンツ・クリエータ及びコグニティブ・システムのユーザのためのアクセス・ポイントを含む。コンピューティング・デバイス104A〜Dの幾つかは、データのコーパス(単数又は複数)106(単に説明のために図1では別個のエンティティとして示される)を格納するデータベースのためのデバイスを含む。データのコーパス(単数又は複数)106の一部は、1つ又は複数の他のネットワーク接続型デバイス(network attached device)上、1つ又は複数のデータベース内、又は図1には明示的に示されない他のコンピューティング・デバイス上に設けることもできる。ネットワーク102は、種々の実施形態において、ローカル・ネットワーク接続及び遠隔接続を含み、コグニティブ・システム100は、ローカル及び例えばインターネットなどのグローバルを含む、任意のサイズの環境で動作することができる。 The cognitive system 100 is configured to implement a request processing pipeline 108 that receives input from various sources. Requests can be presented in the form of natural language questions, natural language requests for information, natural language requests for performing cognitive actions, and so on. For example, the cognitive system 100 receives input from a network 102, a corpus (s) 106 of electronic documents, a user of the cognitive system, and / or other data and other possible sources of input. In one embodiment, some or all of the inputs to the cognitive system 100 are routed through the network 102. Various computing devices 104A-D on network 102 include access points for content creators and users of cognitive systems. Some of the computing devices 104A-D include devices for databases that store a corpus (s) 106 of data (shown as separate entities in FIG. 1 for illustration purposes only). A portion of a corpus (s) 106 of data is not explicitly shown in one or more databases on one or more other network attached devices, or in FIG. It can also be placed on other computing devices. In various embodiments, the network 102 includes a local network connection and a remote connection, and the cognitive system 100 can operate in an environment of any size, including local and global, such as the Internet.

1つの実施形態において、コンテンツ・クリエータは、コグニティブ・システム100においてデータのコーパスの一部として用いるために、データのコーパス(単数又は複数)106の文書内にコンテンツを作成する。文書は、コグニティブ・システム100で用いられる任意のファイル、テキスト、記事、又はデータのソースを含むことができる。コグニティブ・システムのユーザは、ネットワーク102へのネットワーク接続又はインターネット接続を介して、コグニティブ・システム100にアクセスし、データのコーパス(単数又は複数)106内のコンテンツに基づいて回答/処理される質問/要求をコグニティブ・システム100に入力する。1つの実施形態において、質問/要求は、自然言語を用いて作られる。コグニティブ・システム100は、要求処理パイプライン108を介して質問/要求を解析及び解釈し、提示された質問への1つ又は複数の回答を含む応答、要求への応答、要求を処理した結果等を、例えばコグニティブ・システムのユーザ110などのコグニティブ・システムのユーザに提供する。幾つかの実施形態において、コグニティブ・システム100は、候補回答/応答のランク付けされたリストの形で応答をユーザに提供する一方で、他の例示的実施形態においては、コグニティブ・システム100は、単一の最終回答/応答、又は最終回答/応答と他の候補回答/応答のランク付けされたリストの組み合わせを提供する。 In one embodiment, the content creator creates content within a document of the data corpus (s) 106 for use as part of the data corpus in the cognitive system 100. The document can include any file, text, article, or source of data used in the cognitive system 100. A user of the cognitive system accesses the cognitive system 100 via a network connection or an internet connection to the network 102, and questions / processed based on the content in the corpus (s) 106 of the data. The request is entered into the cognitive system 100. In one embodiment, the question / request is made using natural language. The cognitive system 100 analyzes and interprets the question / request via the request processing pipeline 108, and responds to the presented question including one or more answers, the response to the request, the result of processing the request, and the like. Is provided to a user of the cognitive system, for example, the user 110 of the cognitive system. In some embodiments, the cognitive system 100 provides the user with a response in the form of a ranked list of candidate responses / responses, while in other exemplary embodiments, the cognitive system 100 provides a response. Provide a single final answer / response, or a combination of a final answer / response and a ranked list of other candidate answers / responses.

コグニティブ・システム100は、データのコーパス(単数又は複数)106から取得した情報に基づいて、入力質問/要求を処理するための複数の段階を含む要求処理108を実装する。要求処理108は、入力質問/要求の処理、及びデータのコーパス(単数又は複数)106に基づいて、入力質問又は要求に対する回答/応答を生成する。要求処理108は、図3に関して以下により詳細に説明される。 The cognitive system 100 implements request processing 108, which includes multiple steps for processing input questions / requests, based on information obtained from a corpus (s) 106 of data. Request processing 108 generates an answer / response to an input question or request based on the processing of the input question / request and the corpus (s) 106 of the data. Request processing 108 is described in more detail below with respect to FIG.

幾つかの例示的実施形態において、コグニティブ・システム100は、以下に説明される例示的実施形態の機構により拡張される、ニューヨーク州アーモンク所在のインターナショナル・ビジネス・マシーンズ・コーポレーションから入手可能なIBM Watson(商標)コグニティブ・システムとすることができる。前に概説したように、IBM Watson(商標)コグニティブ・システムのパイプラインは、入力質問又は要求を受け取り、次にそれを解析して、質問/要求の主な特徴を抽出し、次いで、それを用いて、データのコーパス(単数又は複数)106に適用されるクエリを定式化する。データのコーパス(単数又は複数)106へのクエリの適用に基づいて、データのコーパス(単数又は複数)106にわたって、入力質問/応答(以下、入力質問と仮定される)への有益な応答を含む何らかの可能性があるデータのコーパス(単数又は複数)106(以下、単にコーパス106と呼ばれる)の部分を探すことにより、仮説のセット、すなわち入力質問/要求への候補回答/応答が生成される。次に、IBM Watson(商標)コグニティブ・システムの要求処理108は、入力質問の言語、及び種々の推論アルゴリズムを用いたクエリの適用中に見出されたコーパス106の部分の各々において使用される言語の深い分析を実行する。 In some exemplary embodiments, the cognitive system 100 is extended by the mechanisms of the exemplary embodiments described below, IBM Watson, available from International Business Machines Corporation in Armonk, NY. Trademark) Can be a cognitive system. As outlined earlier, the IBM Watson ™ cognitive system pipeline receives an input question or request, then parses it to extract the main features of the question / request, and then it It is used to formulate a query that applies to a corpus (s) 106 of data. Includes informative responses to input questions / responses (hereinafter referred to as input questions) across the data corpus (s) 106, based on the application of the query to the data corpus (s) 106. By searching for a portion of the corpus (singular or plural) 106 (hereinafter simply referred to as the corpus 106) of any possible data, a set of hypotheses, i.e. candidate answers / responses to input questions / requests, is generated. The request processing 108 of the IBM Watson ™ cognitive system is then the language used in each of the input question language and the portion of the corpus 106 found during the application of queries using various inference algorithms. Perform a deep analysis of.

次に、種々の推論アルゴリズムから得られたスコアが、質問により潜在的な候補回答が推論される証拠に関して、この例ではIBM Watson(商標)コグニティブ・システム100の要求処理108が有する信頼度を要約する統計モデルに対して、重み付けされる。このプロセスは、候補回答の各々について繰り返され、候補回答のランク付けされたリストを生成し、次にそれを、例えばクライアント・コンピューティング・デバイス110のユーザなど、入力質問をサブミットしたユーザに提示することができ、又は、そこから最終回答が選択され、ユーザに提示される。IBM Watson(商標)コグニティブ・システム100の要求処理108についてのさらなる情報は、例えば、IBMコーポレーションのウェブサイト、IBM Redbooks等から得ることができる。例えば、IBM Watson(商標)コグニティブ・システムのパイプラインについての情報は、Yuan他著、「Watson and Healthcare」、IBM developerWorks、2011年、及びTob High著、「The Era of Cognitive Systems:An Inside Look at IBM and Watson and How it Works」、IBM Redbooks、2012年に見出すことができる。 Scores from various inference algorithms then summarize the reliability of request processing 108 of IBM Watson ™ cognitive system 100 in this example with respect to evidence that the question infers potential candidate answers. Weights are given to the statistical model to be used. This process is repeated for each of the candidate answers, generating a ranked list of candidate answers and then presenting it to the user who submitted the input question, for example the user of client computing device 110. It can, or the final answer is selected from it and presented to the user. Further information about the request processing 108 of the IBM Watson ™ Cognitive System 100 can be obtained, for example, from the IBM Corporation website, IBM Redbooks, and the like. For example, information about the pipeline of IBM Watson ™ cognitive systems can be found in Yuan et al., "Watson and Healthcare," IBM developerWorks, 2011, and Tob High, "The Era of It can be found in "IBM and Watson and How it Works", IBM Redbooks, 2012.

上述のように、クライアント・デバイスからコグニティブ・システム100への入力は、自然言語の質問の形で提示され得るが、例示的実施形態は、それに限定されない。むしろ、実際には、入力質問は、これに限定されるものではないが、認識分析を実行するベースを決定するための、IBM Watson(商標)のようなコグニティブ・システムの自然言語解析及び分析機構を含む、構造化及び/又は非構造化入力分析を用いて解析及び分析し、コグニティブ分析の結果を提供することができる任意の好適なタイプの要求としてフォーマット又は構造化することができる。ヘルスケア・ベースのコグニティブ・システムの場合、この分析は、患者の電子医療記録、1つ又は複数のコーパスからの医療指導文書等を処理して、ヘルスケア重視のコグニティブ・システムの結果を提供することを含むことができる。 As mentioned above, the input from the client device to the cognitive system 100 can be presented in the form of a natural language question, but exemplary embodiments are not limited thereto. Rather, in practice, input questions are, but are not limited to, natural language analysis and analysis mechanisms of cognitive systems such as IBM Watson ™ for determining the basis for performing cognitive analysis. It can be analyzed and analyzed using structured and / or unstructured input analysis, including, and formatted or structured as any suitable type of requirement that can provide the results of cognitive analysis. For healthcare-based cognitive systems, this analysis processes patient electronic medical records, medical guidance documents from one or more corpora, etc. to provide the results of a healthcare-focused cognitive system. Can include that.

本発明の文脈において、コグニティブ・システム100は、医療専門家の目に捉えられた患者の実際のビュー上にオーバーレイされる、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示すヘッドマウント・ディスプレイ(HMD)システムを介して拡張現実ディスプレイを実施するためのコグニティブ機能を提供することができる。例えば、特定の実施に応じて、ヘルスケア・ベースの動作は、患者の診断、医療行為管理システム、個人の患者ケアプランの監視、患者の医学的状態もしくは治療又はその両方の特定、及び医療専門家の目に捉えられた患者の実際のビュー上にオーバーレイされる、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示す拡張現実ディスプレイの実装といった、種々の目的のための患者の電子医療記録(EMR)の評価を含むことができる。従って、コグニティブ・システム100は、医療又はヘルスケア・タイプの領域において動作し、構造化要求又は非構造化要求、自然言語の入力質問等のような要求処理パイプライン108の入力を介して、そうしたヘルスケア動作に対する要求を処理することができる、ヘルスケア・コグニティブ・システム100とすることができる。1つの例示的実施形態において、コグニティブ・システム100は、患者のEMRを分析し、患者の医学的状態もしくは患者が受けている治療又はその両方の表示を提供する、コグニティブ・ヘルスケア・システム100である。特定された医学的状態もしくは治療又はその両方を用いて、コグニティブ・ヘルスケア・システム100は、特定の医学的状態もしくは治療又はその両方と関連付けられた患者の身体の特定の部分を分離し、医療専門家の目に捉えられた患者の実際のビュー上にオーバーレイされる、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示す拡張現実ディスプレイを実施する。 In the context of the present invention, the cognitive system 100 is a part of the patient's body that corresponds to the patient's medical condition and / or treatment, superimposed on the actual view of the patient as seen by a medical professional. A cognitive function for implementing an augmented reality display can be provided via a head-mounted display (HMD) system indicating. For example, depending on the particular practice, healthcare-based behaviors include patient diagnosis, medical practice management systems, monitoring of individual patient care plans, identification of a patient's medical condition and / or treatment, and medical specialty. For a variety of purposes, such as implementing an augmented reality display that shows the part of the patient's body that corresponds to the patient's medical condition and / or treatment, superimposed on the actual view of the patient in the eyes of the house. Evaluation of the patient's electronic medical record (EMR) can be included. Thus, the cognitive system 100 operates in the medical or healthcare type domain and has done so via the input of the request processing pipeline 108 such as structured or unstructured requests, natural language input questions, etc. It can be a healthcare cognitive system 100 capable of processing requests for healthcare operations. In one exemplary embodiment, the cognitive system 100 analyzes the patient's EMR and provides an indication of the patient's medical condition and / or the treatment the patient is receiving in the cognitive healthcare system 100. be. Using the identified medical condition and / or treatment, the cognitive healthcare system 100 isolates a particular part of the patient's body associated with the particular medical condition and / or treatment and medical treatment. An augmented reality display is performed that shows the part of the patient's body that corresponds to the patient's medical condition and / or treatment, superimposed on the actual view of the patient as seen by the expert.

図1に示されるように、コグニティブ・システム100は、医療専門家の目に捉えられた患者の実際のビュー上にオーバーレイされる、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示すコグニティブ・ヘルスケア・システム120を実装するための、専門ハードウェア、ハードウェア上で実行されるソフトウェア、又は専門ハードウェアとハードウェア上で実行されるソフトウェアの任意の組み合わせで実装される論理を含むように、例示的実施形態の機構に従ってさらに拡張される。図1に示されるように、コグニティブ・ヘルスケア・システム120は、画像キャプチャ及び分析エンジン122と、音声キャプチャ及び分析エンジン124と、相関エンジン126と、医学的状態/治療分析エンジン128と、ディスプレイ・エンジン130とを含む。 As shown in FIG. 1, the cognitive system 100 superimposes on the actual view of the patient as seen by the medical professional, the patient's body corresponding to the patient's medical condition and / or treatment. Implemented with specialized hardware, software running on hardware, or any combination of specialized hardware and software running on hardware to implement a cognitive healthcare system 120 that indicates the location of It is further extended according to the mechanism of the exemplary embodiment to include the logic. As shown in FIG. 1, the cognitive healthcare system 120 includes an image capture and analysis engine 122, a voice capture and analysis engine 124, a correlation engine 126, a medical condition / treatment analysis engine 128, and a display. Includes engine 130.

コグニティブ・システム100において、より具体的には、コグニティブ・ヘルスケア・システム120、画像キャプチャ及び分析エンジン122は、医療専門家によりケアされる患者もしくは該医療専門家又はその両方の1つ又は複数のリアルタイム画像をキャプチャする。つまり、画像キャプチャ及び分析エンジン122は、患者に面するカメラ、医療専門家の目に向けられた網膜カメラ等のような、HMDシステムと関連付けられた1つ又は複数のカメラを用いて、1つ又は複数の画像をキャプチャすることができる。画像キャプチャ及び分析エンジン122は、例示的実施形態の多数の異なる態様に対して1つ又は複数のリアルタイム画像を利用する。1つの実施形態において、画像キャプチャ及び分析エンジン122は、医療専門家の目の画像を利用して、患者のケアをしている医療専門家を特定する。別の実施形態において、画像キャプチャ及び分析エンジン122は、どの患者が医療専門家に見られているかを特定するために用いることができる患者の顔の画像、もしくは患者の気分又はその両方をキャプチャする。つまり、画像キャプチャ及び分析エンジン122は、顔認識を通じて、ケアされている患者を特定するのに用い得る患者の顔の画像をキャプチャすることができる。さらに、画像キャプチャ及び分析エンジン122は、患者が泣いているかどうか、又は顔の表情が恐怖、幸福、懸念、心配等を示すかどうかを識別することによって、患者の気分を識別するのに用い得る患者の顔の画像をキャプチャすることができる。 In the cognitive system 100, more specifically, the cognitive healthcare system 120, the image capture and analysis engine 122 is a patient cared for by a medical professional and / or one or more of the medical professional. Capture real-time images. That is, the image capture and analysis engine 122 uses one or more cameras associated with the HMD system, such as a camera facing the patient, a retinal camera aimed at the eyes of a medical professional, and the like. Alternatively, a plurality of images can be captured. The image capture and analysis engine 122 utilizes one or more real-time images for a number of different aspects of the exemplary embodiment. In one embodiment, the image capture and analysis engine 122 utilizes an image of the medical professional's eyes to identify the medical professional who is caring for the patient. In another embodiment, the image capture and analysis engine 122 captures an image of the patient's face that can be used to identify which patient is being viewed by a medical professional, and / or the patient's mood. .. That is, the image capture and analysis engine 122 can capture an image of the patient's face that can be used to identify the patient being cared for through face recognition. In addition, the image capture and analysis engine 122 can be used to identify a patient's mood by identifying whether the patient is crying or whether facial expressions indicate fear, happiness, anxiety, anxiety, etc. An image of the patient's face can be captured.

また、コグニティブ・ヘルスケア・システム120において、音声キャプチャ及び分析エンジン124は、患者もしくは患者をケアしている医療専門家又はその両方により1又は複数の可聴発話(audible utterance)をキャプチャする。音声キャプチャ及び分析エンジン124は、例示的実施形態の多数の異なる態様において1又は複数の可聴発話を利用する。1つの実施形態において、音声キャプチャ及び分析エンジン124は、患者をケアしている医療専門家を特定するために用いることができる、医療専門家による可聴発話をキャプチャする。別の実施形態において、音声キャプチャ及び分析エンジン124は、HMDシステムの拡張現実ディスプレイを介してさらなる情報を医療専門家に提示する際にコグニティブ・ヘルスケア・システム120により用いることができる、医療専門家により与えられる可聴命令をキャプチャする。更に別の実施形態において、音声キャプチャ及び分析エンジン124は、患者の気分を識別するために、患者の可聴発話をキャプチャする。つまり、音声キャプチャ及び分析エンジン124は、懸念、心配、恐怖、幸福等の1つ又は複数を識別するために、患者が泣いている音、患者の声における不安感、笑い声等をキャプチャすることができる。 Also, in the cognitive healthcare system 120, the audio capture and analysis engine 124 captures one or more audible utterances by the patient and / or the medical professional caring for the patient. The voice capture and analysis engine 124 utilizes one or more audible utterances in a number of different aspects of the exemplary embodiment. In one embodiment, the voice capture and analysis engine 124 captures audible speech by a medical professional that can be used to identify the medical professional who is caring for the patient. In another embodiment, the voice capture and analysis engine 124 can be used by the medical professional in presenting further information to the medical professional via the augmented reality display of the HMD system by the medical professional. Capture the audible instructions given by. In yet another embodiment, the voice capture and analysis engine 124 captures the patient's audible utterances to identify the patient's mood. That is, the voice capture and analysis engine 124 can capture the sound of a patient crying, anxiety in the patient's voice, laughter, etc. in order to identify one or more of concerns, worries, fears, happiness, etc. can.

画像キャプチャ及び分析エンジン122によりキャプチャされた1つ又は複数の画像、及び音声キャプチャ及び分析エンジン124によりキャプチャされた1又は複数の可聴発話を用いて、相関エンジン126が、必要な情報を医療専門家に与えるために、多数の相関を実行する。1つの例示的な相関は、相関エンジン126が、顔認識を用いて、1つ又は複数の画像を医療専門家データ・コーパス(単数又は複数)140内に格納された医療専門家の画像と比較する場合に、患者をケアしている医療専門家を特定することである。別の例示的な相関は、相関エンジン126が音声認識を用いて、1又は複数の音声発話を医療専門家データのコーパス(単数又は複数)140内に格納された医療専門家の音声パターンと比較する場合に、患者をケアしている医療専門家を特定することである。同様に、相関エンジン126は、医療専門家によりケアされている患者を特定するために相関を実行する。患者を特定するために、相関エンジン126は、顔認識を利用して、1つ又は複数の画像を、データのコーパス(単数又は複数)142内に格納された患者についての電子医療記録(EMR)のセット内の画像と比較する。それに加えて又は完全に異なる形態の特定として、相関エンジン126は、音声認識を利用して、1又は複数の可聴発話を、データのコーパス(単数又は複数)142内に格納された患者についての電子医療記録(EMR)のセット内の患者の音声パターンと比較する。 Using one or more images captured by the image capture and analysis engine 122, and one or more audible utterances captured by the voice capture and analysis engine 124, the correlation engine 126 provides the necessary information to the medical professional. Perform a number of correlations to give to. One exemplary correlation is that the correlation engine 126 uses face recognition to compare one or more images with a medical professional image stored within the medical professional data corpus (s) 140. When doing so, identify the medical professional who is caring for the patient. Another exemplary correlation is that the correlation engine 126 uses speech recognition to compare one or more speech utterances to a medical professional voice pattern stored in a corpus (s) 140 of medical professional data. When doing so, identify the medical professional who is caring for the patient. Similarly, the correlation engine 126 performs correlation to identify patients being cared for by a healthcare professional. To identify a patient, the correlation engine 126 utilizes facial recognition to store one or more images in a corpus (s) 142 of the data, an electronic medical record (EMR) for the patient. Compare with the images in the set. In addition to or as a completely different form of identification, the correlation engine 126 utilizes speech recognition to store one or more audible utterances in a corpus (s) 142 of the data electronically for the patient. Compare with the patient's voice pattern in a set of medical records (EMR).

医療専門家及び患者を特定することに加えて、相関エンジン126は、医療専門家が見ている患者の1又は複数の身体部分も特定する。拡張現実ディスプレイを通して医療専門家の目に捉えられた患者の実際のビュー上に患者の医学的状態をオーバーレイするとき、見ている特定の身体部分の特定は特に重要である。つまり、医療専門家が見ている患者の身体の部分に基づいて、相関エンジン126は、患者と関連付けられた医学的状態もしくは治療又はその両方を示す患者の電子医療記録(EMR)におけるそれらの身体部分にさらに相関させるために、特定の身体部分を特定する。従って、相関エンジン126が見ている特定の身体部分を特定すると、医学的状態/治療分析エンジン128は、データのコーパス(単数又は複数)142内に格納された患者の電子医療記録(EMR)を分析し、患者と関連付けられた医学的状態もしくは治療又はその両方を特定する。患者の特定された医学的状態もしくは治療又はその両方を利用して、相関エンジン126は、医療専門家が患者の身体のその部分を見るとき、特定の医学的状態もしくは治療又はその両方と関連付けられた患者の身体の部分を特定する。例えば、患者が虫垂炎の医学的状態を有する場合、医療専門家は、拡張現実ディスプレイを通じて患者の身体を見て、患者の下腹部が視野に入ると、相関エンジン126は、患者の下腹部のビューを、患者の医学的状態と相関させ、患者の身体の下腹部にオーバーレイして示される虫垂のオーバーレイを提供する。相関エンジン126は、このオーバーレイをディスプレイ・エンジン130に提供し、ディスプレイ・エンジン130は、HMDシステムにおける拡張現実ディスプレイを介して、オーバーレイを医療専門家に提示する。 In addition to identifying the medical professional and the patient, the correlation engine 126 also identifies one or more body parts of the patient that the medical professional is looking at. The identification of the particular body part being viewed is especially important when overlaying the patient's medical condition on the actual view of the patient as seen by the medical professional through an augmented reality display. That is, based on the parts of the patient's body as seen by the medical professional, the correlation engine 126 indicates those bodies in the patient's electronic medical record (EMR) indicating the medical condition and / or treatment associated with the patient. Identify specific body parts to further correlate with parts. Thus, identifying the particular body part seen by the correlation engine 126, the medical condition / treatment analysis engine 128 records the patient's electronic medical record (EMR) stored within a corpus (s) 142 of the data. Analyze to identify the medical condition and / or treatment associated with the patient. Utilizing the patient's identified medical condition and / or treatment, the correlation engine 126 is associated with the specific medical condition and / or treatment when a medical professional looks at that part of the patient's body. Identify the body part of the patient. For example, if the patient has a medical condition of appendicitis, the medical professional looks at the patient's body through the augmented reality display, and when the patient's lower abdomen comes into view, the correlation engine 126 provides a view of the patient's lower abdomen. Correlates with the patient's medical condition and provides an appendicitis overlay shown as an overlay on the lower abdomen of the patient's body. The correlation engine 126 provides this overlay to the display engine 130, which presents the overlay to the medical professional via an augmented reality display in the HMD system.

例示的実施形態に特に留意すべきなのは、相関エンジン126により提供されるオーバーレイが、医療専門家が必要とするビューに応じて変わり得ることである。つまり、医療専門家が看護師である場合、相関エンジン126は、一般的な器官を示す基本的器官モデルを提供することができる。しかしながら、医療専門家が医師である場合、相関エンジン126は、器官の実際のx線オーバーレイを提供することができる。さらに、医療専門家が外科医である場合、相関エンジン126は、部位全体のコンピュータ断層撮影(CAT)スキャン(CT)オーバーレイ又は磁気共鳴イメージング(MRI)スキャン・オーバーレイを提供することができる。基本的器官モデル、x線、CTスキャン、MRIスキャン等を提供することに加えて、相関エンジン126は、1つ又は複数の解剖モデル、重なり合う器官系、以前の医学的状態/治療からのx線、CTスキャン、MRIスキャン等、手術もしくは圧迫の位置等を提供することもできる。画像キャプチャ及び分析エンジン122もしくは音声キャプチャ及び分析エンジン124又はその両方を介して、医療専門家からの目の動き、顔の表情、頭の動き、可聴発話等を監視することにより、提供すべきあらゆる付加的な情報の表示を識別することができる。 Of particular note to the exemplary embodiments is that the overlay provided by the correlation engine 126 can vary depending on the view required by the medical professional. That is, if the medical professional is a nurse, the correlation engine 126 can provide a basic organ model that shows common organs. However, if the medical professional is a physician, the correlation engine 126 can provide an actual x-ray overlay of the organ. In addition, if the medical professional is a surgeon, the correlation engine 126 can provide a computed tomography (CAT) scan (CT) overlay or a magnetic resonance imaging (MRI) scan overlay for the entire site. In addition to providing basic organ models, x-rays, CT scans, MRI scans, etc., Correlation Engine 126 includes one or more anatomical models, overlapping organ systems, x-rays from previous medical conditions / treatments. , CT scan, MRI scan, etc., the position of surgery or compression, etc. can also be provided. Anything that should be provided by monitoring eye movements, facial expressions, head movements, audible speech, etc. from medical professionals through the image capture and analysis engine 122 and / or the audio capture and analysis engine 124. The display of additional information can be identified.

付加的に、相関エンジン126により提供されるオーバーレイは、医療専門家が患者に費やす必要がある時間に基づくことができる。例えば、医療専門家データ・コーパス(単数又は複数)140を通じて相関エンジン126によりアクセスできる医療専門家のスケジュールに基づいて、医療専門家は、朝の回診時中に起こり得るように患者に費やす時間が数分しかない場合がある。従って、相関エンジン126は、一般的器官を示す基本的器官モデルを提供することができる。しかしながら、医療専門家が手術の前に手術の相談を行っていることをスケジュールが示す場合、相関エンジン126は、部位全体のx線オーバーレイ、コンピュータ断層撮影(CAT)スキャン(CT)オーバーレイ、又は磁気共鳴イメージング(MRI)スキャン・オーバーレイを提供することができる。さらに、スケジュールがより多くの時間を許容するかどうかに関係なく、医療専門家が要求した場合には、相関エンジン126は、任意の付加的なオーバーレイを提供することができる。つまり、朝の回診時中に起こり得るように医療専門家が患者に費やす時間が数分しかなく、最初に一般的器官を示す基本的器官モデルを提供できることを、医療専門家のスケジュールが示したとしても、医療専門家が付加的な情報を要求した場合には、相関エンジン126は、x線オーバーレイ、CTスキャン・オーバーレイ、MRIスキャン・オーバーレイ、1つ又は複数の解剖モデル、重なり合う器官系、以前の医学的状態/治療からのx線、CTスキャン、MRIスキャン等、手術もしくは圧迫の位置等を提供することができる。画像キャプチャ及び分析エンジン122もしくは音声キャプチャ及び分析エンジン124又はその両方を介して、医療専門家からの目の動き、顔の表情、頭の動き、可聴発話等を監視することにより、提供すべきあらゆる付加的な情報の表示を識別することができる。 Additionally, the overlay provided by the correlation engine 126 can be based on the time the healthcare professional needs to spend on the patient. For example, based on the medical professional's schedule accessible by the correlation engine 126 through the medical professional data corpus 140, the medical professional spends time on the patient as it may occur during the morning round. It may only take a few minutes. Therefore, the correlation engine 126 can provide a basic organ model showing general organs. However, if the schedule indicates that the medical professional is consulting the surgery prior to the surgery, the correlation engine 126 may be an x-ray overlay of the entire site, a computed tomography (CAT) scan (CT) overlay, or a magnetic resonance imaging. Resonance imaging (MRI) scan overlays can be provided. In addition, the correlation engine 126 can provide any additional overlay if the medical professional requires it, regardless of whether the schedule allows more time. This means that the medical professional's schedule shows that the medical professional spends only a few minutes on the patient as it can occur during the morning round, and can provide a basic organ model that first shows the general organs. Even if medical professionals request additional information, the correlation engine 126 may include x-ray overlays, CT scan overlays, MRI scan overlays, one or more anatomical models, overlapping organ systems, previously. X-rays from medical conditions / treatments, CT scans, MRI scans, etc., surgical or compression locations, etc. can be provided. Anything that should be provided by monitoring eye movements, facial expressions, head movements, audible speech, etc. from medical professionals through the image capture and analysis engine 122 and / or the audio capture and analysis engine 124. The display of additional information can be identified.

さらに、相関エンジン126は、患者をケアしている医療専門家の特定の専門分野に基づいたオーバーレイを提供することができる。つまり、医療専門家の識別が麻酔専門医又は麻酔医である場合、相関エンジン126は、特定の医学的状態と関連付けられてさえいない器官オーバーレイを提供することができる。つまり、麻酔専門医又は麻酔医は、患者の肺、気道、鼻腔等により関心があり得る。逆に、医療専門家の識別が外科医である場合、相関エンジン126は、特定の医学的状態に直接関連した器官オーバーレイを提供することができる。さらに、医療専門家の識別が、患者に薬剤を与える看護師である場合、相関エンジン126は、特定の腕、腕の部位等のような薬剤が投与される場所の器官オーバーレイを提供することができる。 In addition, the correlation engine 126 can provide overlays based on the particular discipline of the medical professional caring for the patient. That is, if the medical professional's identification is an anesthesiologist or anesthesiologist, the correlation engine 126 can provide an organ overlay that is not even associated with a particular medical condition. That is, the anesthesiologist or anesthesiologist may be more interested in the patient's lungs, airways, nasal passages, etc. Conversely, if the medical professional's identification is a surgeon, the correlation engine 126 can provide an organ overlay that is directly related to a particular medical condition. In addition, if the medical professional's identification is a nurse giving the drug to the patient, the correlation engine 126 may provide an organ overlay of where the drug is administered, such as a particular arm, arm site, etc. can.

医学的状態を表し、罹患した又はさらに調査する必要がある身体の部分を強調表示するグラフィカル画像を識別するオーバーレイを提供することに加えて、相関エンジン126は、検査結果、治療の選択肢、メディカル・コード、最新の医学研究スタディ、移植に利用可能な器官等を表す文字情報を提供することもできる。医療専門家からの目の動き、顔の表情、頭の動き、可聴発話等を監視することにより、提供すべきあらゆる付加的な情報の表示を識別することができる。つまり、医療専門家により提供される入力に基づいて、相関エンジンは、要求された文字情報を識別し、次に、ディスプレイ・エンジン130が、HMDシステムの拡張現実ディスプレイ上に表示することができる。さらに、患者の1つ又は複数の画像もしくは1又は複数の可聴発話又はその両方を用いて識別された気分に基づいて、相関エンジン126は、医療専門家が、どのように情報を患者に提示すべきかの指示を与えることができる。つまり、患者が冷静であると識別された場合、相関エンジン126は、リラックスした口調で話すように医療専門家に指示を与えることができる。しかしながら、患者が神経質になっていると識別された場合、相関エンジン126は、より安心させる口調を使用するように医療専門家に指示を与えることができる。 In addition to providing overlays that identify graphical images that represent medical conditions and highlight affected or parts of the body that need further investigation, Correlation Engine 126 provides test results, treatment options, medical. Textual information representing codes, the latest medical research studies, organs available for transplantation, etc. can also be provided. By monitoring eye movements, facial expressions, head movements, audible utterances, etc. from medical professionals, the display of any additional information to be provided can be identified. That is, based on the input provided by the medical professional, the correlation engine can identify the requested textual information and then the display engine 130 can display it on the augmented reality display of the HMD system. In addition, based on the mood identified using one or more images of the patient and / or one or more audible utterances, the correlation engine 126 should allow medical professionals to present information to the patient. You can give instructions. That is, if the patient is identified as calm, the correlation engine 126 can instruct the medical professional to speak in a relaxed tone. However, if the patient is identified as nervous, the correlation engine 126 can instruct the medical professional to use a more reassuring tone.

付加的に、ひとたび医療専門家が、医療専門家からの目の動き、顔の表情、頭の動き、可聴発話等を監視することにより識別することができる、患者が従うべき治療を選択し、指示し、又は他の方法で特定すると、相関エンジン126は、1つ又は複数の電子通知手段を介して、手術の予定、手術中に提供される機器、相談の要求、投与される薬剤等を含むことができる治療を、リアルタイムで、ほぼリアルタイムで、又は非リアルタイムで、1又は複数の他の医療専門家に通知することができる。治療の指示は、画像キャプチャ及び分析エンジン122もしくは音声キャプチャ及び分析エンジン124又はその両方を介して、医療専門家からの目の動き、顔の表情、頭の動き、可聴発話等を監視することにより、識別することができる。 In addition, once the medical professional selects the treatment that the patient should follow, which can be identified by monitoring eye movements, facial expressions, head movements, audible speech, etc. from the medical professional, When directed or otherwise identified, the correlation engine 126, via one or more electronic notification means, determines the schedule of surgery, equipment provided during surgery, requests for consultation, medications to be administered, and the like. Treatments that can be included can be notified to one or more other healthcare professionals in real time, near real time, or non-real time. Treatment instructions are given by monitoring eye movements, facial expressions, head movements, audible speech, etc. from medical professionals via image capture and analysis engine 122 and / or voice capture and analysis engine 124. , Can be identified.

上述のように、例示的実施形態の機構は、コンピュータ技術の分野に根差しており、そうしたコンピューティング又はデータ処理システム内に存在する論理を用いて実装される。これらのコンピューティング又はデータ処理システムは、上述した種々の動作を実施するように、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの組み合わせのいずれかを通じて特別に構成される。従って、図2は、本発明の態様を実施することができる1つのタイプのデータ処理システムの例として与えられる。同様に多くの他のタイプのデータ処理システムを、例示的実施形態の機構を特別に実装するように構成することができる。 As mentioned above, the mechanisms of the exemplary embodiments are rooted in the field of computer technology and are implemented using the logic that exists within such computing or data processing systems. These computing or data processing systems are specially configured through either hardware, software, or a combination of hardware and software to perform the various operations described above. Therefore, FIG. 2 is given as an example of one type of data processing system capable of implementing aspects of the invention. Similarly, many other types of data processing systems can be configured to specifically implement the mechanisms of exemplary embodiments.

図2は、例示的実施形態の態様が実施される例示的データ処理システムのブロック図である。データ処理システム200は、図1のサーバ104又はクライアント110のようなコンピュータの一例であり、その中に、本発明の例示的実施形態のプロセスを実施するコンピュータ使用可能コード又は命令が配置される。1つの例示的実施形態において、図2は、以下に説明される例示的実施形態の付加的な機構を含むように拡張されたコグニティブ・システム100及び要求処理パイプライン108を実装する、サーバ104のようなサーバ・コンピューティング・デバイスを表す。 FIG. 2 is a block diagram of an exemplary data processing system in which aspects of the exemplary embodiment are implemented. The data processing system 200 is an example of a computer such as the server 104 or client 110 of FIG. 1, in which a computer-enabled code or instruction that implements the process of an exemplary embodiment of the invention is arranged. In one exemplary embodiment, FIG. 2 shows a server 104 that implements a cognitive system 100 and a request processing pipeline 108 that are extended to include additional mechanisms of the exemplary embodiments described below. Represents a server computing device such as.

示される例において、データ処理システム200は、ノース・ブリッジ及びメモリ・コントローラ・ハブ(NB/MCH)202と、サウス・ブリッジ及び入力/出力(I/O)コントローラ・ハブ(SB/ICH)204とを使用する。処理ユニット206、メイン・メモリ208、及びグラフィックス・プロセッサ210は、NB/MCH202に接続される。グラフィックス・プロセッサ210は、加速グラフィックス・ポート(AGP)を通じて、NB/MCH202に接続される。 In the example shown, the data processing system 200 includes a north bridge and a memory controller hub (NB / MCH) 202 and a south bridge and an input / output (I / O) controller hub (SB / ICH) 204. To use. The processing unit 206, the main memory 208, and the graphics processor 210 are connected to the NB / MCH 202. The graphics processor 210 is connected to the NB / MCH 202 through an accelerated graphics port (AGP).

示される例において、ローカル・エリア・ネットワーク(LAN)アダプタ212が、SB/ICH204に接続される。音声アダプタ216、キーボード及びマウス・アダプタ220、モデム222、読み出し専用メモリ(ROM)224、ハードディスク・ドライブ(HDD)226、CD−ROMドライブ230、ユニバーサル・シリアル・バス(USB)ポート及び他の通信ポート232、並びにPCI/PCIeデバイス234が、バス238及びバス240を通じてSB/ICH204に接続される。PCI/PCIeデバイスは、例えば、イーサネット・アダプタ、アドイン・カード、及びノートブック型コンピュータ用のPCカードを含むことができる。PCIは、カード・バス・コントローラを使用するが、PCIeは使用しない。ROM224は、例えば、フラッシュ基本入力/出力システム(BIOS)とすることができる。 In the example shown, the local area network (LAN) adapter 212 is connected to the SB / ICH204. Voice adapter 216, keyboard and mouse adapter 220, modem 222, read-only memory (ROM) 224, hard disk drive (HDD) 226, CD-ROM drive 230, universal serial bus (USB) port and other communication ports The 232 and the PCI / PCIe device 234 are connected to the SB / ICH 204 through the bus 238 and the bus 240. PCI / PCIe devices can include, for example, Ethernet adapters, add-in cards, and PC cards for notebook computers. PCI uses a card bus controller, but does not use PCIe. The ROM 224 can be, for example, a flash basic input / output system (BIOS).

HDD226及びCD−ROMドライブ230は、バス240を通じてSB/ICH204に接続される。HDD226及びCD−ROMドライブ230は、例えば、integrated drive electronics(IDE)又はserial advanced technology attachment(SATA)インターフェースを使用することができる。スーパーI/O(SIO)デバイス236は、SB/ICH204に接続される。 The HDD 226 and the CD-ROM drive 230 are connected to the SB / ICH 204 via the bus 240. The HDD 226 and the CD-ROM drive 230 can use, for example, an integrated driven electronics (IDE) or serial advanced technology attributes (SATA) interface. The super I / O (SIO) device 236 is connected to the SB / ICH204.

オペレーティング・システムは、処理ユニット206上で実行される。オペレーティング・システムは、連携して図2のデータ処理システム200内の様々なコンポーネントの制御を提供する。クライアントとして、オペレーティング・システムは、Microsoft(登録商標)Windows8(登録商標)などの市販のオペレーティング・システムである。Java(商標)プログラミング・システムなどのオブジェクト指向プログラミング・システムは、オペレーティング・システムと共に実行することができ、データ処理システム200上で実行されるJava(商標)プログラム又はアプリケーションからのオペレーティング・システムに対する呼び出しを提供する。 The operating system runs on processing unit 206. The operating system works together to provide control of the various components within the data processing system 200 of FIG. As a client, the operating system is a commercially available operating system such as Microsoft® Windows 8®. Object-oriented programming systems, such as the Java ™ programming system, can run with the operating system and make calls to the operating system from Java ™ programs or applications running on the data processing system 200. offer.

サーバとして、データ処理システム200は、例えば、Advanced Interactive Executive(AIX(登録商標))オペレーティング・システム又はLINUX(登録商標)オペレーティング・システムを実行するIBM(登録商標) eServer(商標)System p(登録商標)コンピュータ・システムとすることができる。データ処理システム200は、処理ユニット206内に複数のプロセッサを含む対称型マルチプロセッサ(SMP)システムとすることができる。代替的に、シングル・プロセッサ・システムを用いることもできる。 As a server, the data processing system 200 may, for example, run an Advanced Interactive Executive (AIX®) operating system or an IBM® eServer® System p® operating system. ) Can be a computer system. The data processing system 200 can be a symmetric multiprocessor (SMP) system including a plurality of processors in the processing unit 206. Alternatively, a single processor system can be used.

オペレーティング・システム、オブジェクト指向プログラミング・システム及びアプリケーション又はプログラムに対する命令は、HDD226などのストレージ・デバイス上に配置され、メイン・メモリ208内にロードされ、処理ユニット206により実行される。本発明の例示的実施形態のためのプロセスは、コンピュータ使用可能プログラム・コードを用いて処理ユニット206により実行され、コンピュータ使用可能プログラム・コードは、例えば、メイン・メモリ208、ROM224などのメモリ内、又は1つ又は複数の周辺機器226及び230内に配置される。 Instructions to the operating system, object-oriented programming system and application or program are placed on a storage device such as HDD 226, loaded into main memory 208 and executed by processing unit 206. The process for an exemplary embodiment of the invention is performed by processing unit 206 with computer-enabled program code, which is stored in memory such as, for example, main memory 208, ROM 224. Alternatively, it is placed in one or more peripheral devices 226 and 230.

図2に示されるバス238又はバス240などのバス・システムは、1つ又は複数のバスから成る。もちろん、バス・システムは、ファブリック又はアーキテクチャに取り付けられた異なるコンポーネント又はデバイス間のデータ転送を提供する任意のタイプの通信ファブリック又はアーキテクチャを用いて実装することができる。図2のモデム222又はネットワーク・アダプタ212などの通信ユニットは、データを送受信するのに用いられる1つ又は複数のデバイスを含む。メモリは、例えば、メイン・メモリ208、ROM224、又は図2のNB/MCH202内に見られるようなキャッシュとすることができる。 A bus system, such as bus 238 or bus 240 shown in FIG. 2, consists of one or more buses. Of course, bus systems can be implemented using any type of communication fabric or architecture that provides data transfer between different components or devices attached to the fabric or architecture. A communication unit, such as the modem 222 or network adapter 212 of FIG. 2, includes one or more devices used to send and receive data. The memory can be, for example, a cache as found in the main memory 208, ROM 224, or NB / MCH 202 of FIG.

当業者であれば、図1及び図2に示されるハードウェアは、実装によって異なり得ることを認識するであろう。図1及び図2に示されるハードウェアに加えて又はその代わりに、他の内部ハードウェア、フラッシュ・メモリ、同等の不揮発性メモリ、もしくは光ディスク・ドライブ等のような周辺機器を使用することができる。また、本発明の範囲から逸脱することなく、例示的実施形態のプロセスを、前述のSMPシステム以外のマルチプロセッサ・データ処理システムに適用することもできる。 Those skilled in the art will recognize that the hardware shown in FIGS. 1 and 2 can vary from implementation to implementation. Peripheral devices such as other internal hardware, flash memory, equivalent non-volatile memory, or optical disk drives may be used in addition to or in place of the hardware shown in FIGS. 1 and 2. .. It is also possible to apply the process of the exemplary embodiment to a multiprocessor data processing system other than the SMP system described above without departing from the scope of the present invention.

さらに、データ処理システム200は、クライアント・コンピューティング・デバイス、サーバ・コンピューティング・デバイス、タブレット・コンピュータ、ラップトップ・コンピュータ、電話又は他の通信機器、携帯情報端末(PDA)等を含む多数の異なるデータ処理システムのいずれかの形をとることができる。幾つかの説明に役立つ実例において、データ処理システム200は、例えば、オペレーティング・システム・ファイルもしくはユーザ生成データ又はその両方を格納するための不揮発性メモリを提供するようにフラッシュ・メモリを備えるように構成された携帯型コンピューティング・デバイスとすることができる。本質的に、データ処理システム200は、アーキテクチャ上の制限なしに、いずれかの周知の又は後で開発されるデータ処理システムとすることができる。 In addition, the data processing system 200 includes a number of different types including client computing devices, server computing devices, tablet computers, laptop computers, telephones or other communication devices, personal digital assistants (PDAs), and the like. It can take any form of data processing system. In some demonstrable examples, the data processing system 200 is configured to include flash memory to provide, for example, non-volatile memory for storing operating system files and / or user-generated data. It can be a portable computing device. In essence, the data processing system 200 can be any well-known or later developed data processing system without architectural limitations.

図3は、1つの例示的実施形態による、コグニティブ・システムの要素の相互作用を示す例示的な図である。図3の例示的な図は、コグニティブ・システム300の実装を示し、このコグニティブ・システム300は、医療専門家の目に捉えられた患者の実際のビュー上にオーバーレイされる、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示す、装着型ヘッドセット、眼鏡等を介するなど、ヘッドマウント・ディスプレイ(HMD)システムを介して拡張現実ディスプレイを実施するように構成された、図1に記載されるコグニティブ・システム100のようなコグニティブ・システムとすることができる。しかしながら、これは、単に例示的な実施に過ぎず、本発明の趣旨及び範囲から逸脱することなく、ヘルスケア・コグニティブ・システム300の他の実施形態において、他のヘルスケア動作を実施できることを理解されたい。 FIG. 3 is an exemplary diagram showing the interaction of elements of a cognitive system according to one exemplary embodiment. The exemplary diagram of FIG. 3 shows an implementation of the cognitive system 300, which is superimposed on the actual view of the patient as seen by a medical professional, the patient's medical condition. An augmented reality display is configured to be performed via a head-mounted display (HMD) system, such as through a wearable headset, glasses, etc., which indicates the part of the patient's body that corresponds to treatment or both. It can be a cognitive system such as the cognitive system 100 described in FIG. However, it is understood that this is merely an exemplary practice and that other healthcare operations can be performed in other embodiments of the Healthcare Cognitive System 300 without departing from the spirit and scope of the present invention. I want to be.

さらに、図3は、患者302及び医療専門家306を人間の姿として示すが、これらのエンティティとの及びこれらの間の相互作用は、これらに限定されるものではないが、コンピューティング・デバイス、医療機器、及び/又は同類のものを含む多数のデバイスを用いて実行することができる。例えば、患者302とユーザ306との間の相互作用304、314、316、及び330は、例えば医者が患者に問診するなど、口頭で実行することができ、患者の属性318のような、コグニティブ・システム300に入力できる情報を収集するために、例示的実施形態のヘッドマウント・ディスプレイ(HMD)システムなどの1つ又は複数の医療機器、監視デバイス等の使用を要することがある。ユーザ306とコグニティブ・システム300との間の相互作用は、図1のクライアント・コンピューティング・デバイス110又は112などのユーザ・コンピューティング・デバイス(図示せず)を介する電子的なものとなり、それは、例示的実施形態においては、1つ又は複数のデータ通信リンク及び潜在的に1つ又は複数のデータ・ネットワークを介してコグニティブ・システム300と通信するHMDシステムである。 In addition, FIG. 3 shows the patient 302 and the medical professional 306 as human figures, but the interactions with and between these entities are, but are not limited to, computing devices. It can be performed using a number of devices, including medical devices and / or the like. For example, the interactions 304, 314, 316, and 330 between patient 302 and user 306 can be performed verbally, for example by a doctor asking the patient, and cognitive methods such as patient attribute 318. In order to collect information that can be input to the system 300, it may be necessary to use one or more medical devices, surveillance devices, etc., such as a head-mounted display (HMD) system of an exemplary embodiment. The interaction between the user 306 and the cognitive system 300 will be electronic via a user computing device (not shown) such as the client computing device 110 or 112 of FIG. In an exemplary embodiment, it is an HMD system that communicates with the cognitive system 300 via one or more data communication links and potentially one or more data networks.

図3に示されるように、1つの例示的実施形態によると、患者302は、医学的疾患(medical malady)又は状態の症状304を、医療専門家、医療関係者(healthcare practitioner)、技術者等のようなユーザ306に提示する。ユーザ306は、質問314及び応答316の交換を介して患者302と対話することができ、そこで、ユーザ306は、患者302、症状304、及び患者302の医学的疾患又は状態についてのさらなる情報を集める。質問/応答は、実際には、例えば、HMDシステム、血圧計、体温計、FitBit(商標)、ウェアラブル心臓モニターなどの患者302と関連付けられたウェアラブル健康及び活動監視デバイス、又は患者302の1つ又は複数の医学的特徴を監視することができる任意の他の医療機器などの種々の医療機器を用いて、患者302から情報を集めるユーザ306を表し得ることも理解されたい。場合によっては、そうした医療機器は、観察又は治療のために病院のベッドにいる患者のバイタルサイン及び医学的状態を監視するために、病院又は医療センターで一般的に使用される医療機器とすることができる。例示的実施形態によると、医療機器は、患者302及びユーザ306の両方から、画像及び可聴発話の両方を集めるHMDシステムである。 As shown in FIG. 3, according to one exemplary embodiment, patient 302 has a medical malady or condition symptom 304, such as a medical professional, health care practitioner, technician, etc. Presented to user 306 such as. User 306 can interact with patient 302 through the exchange of question 314 and response 316, where user 306 gathers further information about patient 302, symptom 304, and patient 302's medical illness or condition. .. The question / response is actually one or more of a wearable health and activity monitoring device associated with patient 302, such as an HMD system, blood pressure monitor, thermometer, FitBit ™, wearable heart monitor, or patient 302. It should also be appreciated that a variety of medical devices, such as any other medical device capable of monitoring the medical features of the patient, may be used to represent the user 306 gathering information from the patient 302. In some cases, such medical devices should be medical devices commonly used in hospitals or medical centers to monitor the vital signs and medical condition of patients in hospital beds for observation or treatment. Can be done. According to an exemplary embodiment, the medical device is an HMD system that collects both images and audible utterances from both patient 302 and user 306.

これに応答して、ユーザ306は、ユーザが、コグニティブ・システム300が解析及び処理できる形式で要求をコグニティブ・システム300にサブミットするのを可能にするように構成されたHMDシステムなどを介して、要求308をコグニティブ・システム300にサブミットする。要求308は、患者302及びユーザ306の属性318を識別する情報を含むこと、又はこれを伴うことができる。つまり、上述のHMDシステムは、患者302もしくは患者をケアしているユーザ306又はその両方の1つ又は複数のリアルタイム画像、並びに患者302もしくは患者302をケアしているユーザ306又はその両方による1又は複数の可聴発話をキャプチャすることができる。従って、患者属性318は、例えば、患者302についての患者EMR322を取り出すことができる患者302からの可聴発話の患者の顔の画像、患者302、症状304、及び質問314への応答316から得られる他の関連情報についての人口学的情報、又は患者302と関連付けられた医学的状態を含む患者302の状態についてのデータを監視する又は集めるために用いられる、医療機器から得られた情報を含むことができる。コグニティブ・システム300による患者302のコグニティブ評価に関連し得る患者302についてのいずれの情報も、要求308もしくは患者属性318又はその両方に含まれ得る。 In response, the user 306 may use an HMD system or the like configured to allow the user to submit a request to the cognitive system 300 in a format that the cognitive system 300 can analyze and process. Request 308 is submitted to the cognitive system 300. Request 308 may include, or may be accompanied by, information identifying attributes 318 of patient 302 and user 306. That is, the HMD system described above is one or more real-time images of one or more real-time images of patient 302 and / or user 306 caring for the patient, and one or more by user 306 caring for patient 302 and / or patient 302. Multiple audible utterances can be captured. Thus, patient attribute 318 can be obtained, for example, from an image of the patient's face in audible speech from patient 302 from which patient EMR322 can be retrieved for patient 302, patient 302, symptoms 304, and response 316 to question 314. May include information obtained from medical devices used to monitor or collect demographic information about the relevant information of the patient, or data about the condition of the patient 302, including the medical condition associated with the patient 302. can. Any information about patient 302 that may be relevant to the cognitive assessment of patient 302 by the cognitive system 300 may be included in request 308 and / or patient attribute 318.

コグニティブ・システム300は、特定のヘルスケア指向のコグニティブ動作の実施を実行するように特別に構成される。示される例において、このコグニティブ精密コホート(cognitive precision cohort)動作は、ユーザ306が、質問314及び応答316のプロセスもしくは医療機器の監視/データ収集又はその両方を介して、報告された症状304と、患者302について集められた他の情報とに基づいて患者302をケアするのを助けるために、ユーザ306の目に捉えられた患者の実際のビュー上にオーバーレイされる、HMDシステムの拡張現実ディスプレイ内に、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示すことに向けられる。コグニティブ・システム300は、患者302の医学的状態を特定するために、患者302と関連付けられた患者EMR322から集められた情報を用いて、要求308及び患者属性318に対して動作する。 The cognitive system 300 is specially configured to perform the implementation of a particular healthcare-oriented cognitive action. In the example shown, this cognitive precision cohort operation is associated with Symptom 304 reported by User 306 through the process of Question 314 and Response 316 and / or data collection of the medical device. Within the augmented reality display of the HMD system, superimposed on the actual view of the patient as seen by the user 306, to help care for the patient 302 based on other information gathered about the patient 302. To indicate the part of the patient's body that corresponds to the patient's medical condition and / or treatment. The cognitive system 300 operates on request 308 and patient attribute 318 using information gathered from patient EMR322 associated with patient 302 to identify the medical condition of patient 302.

例えば、要求308及び患者属性318に基づいて、コグニティブ・システム300は、要求308及び患者属性318を解析し、どの患者を治療するかだけでなく、患者302が、HMDシステムのディスプレイを介して提示するのに利用可能な医学的状態と関連付けられたオーバーレイを有する特定の医学的状態も判断するように、要求に対して動作し得る。従って、コグニティブ・システム300は、要求308及び患者属性318を解析し、何が要求されているか及び患者属性318により識別されるように要求が生成される基準を判断するように要求に対して動作し、かつ、データを取り出すために患者EMR322に送られるクエリを生成するための種々の動作を実行し、データと関連付けられた関連表示を生成し、患者EMR322内に見出される証拠のサポートを提供することができる。示される例において、患者EMR322は、例えば、病院、実験室、診察室、健康保険会社、薬局等などの種々のソースから患者のデータを収集する患者情報リポジトリである。患者EMR322は、コグニティブ・システム300により情報を取り出し、処理することができる方法で(構造化形式、非構造化形式、又は構造化形式と非構造化形式の混合)、患者302などの個々の患者についての種々の情報を格納する。この患者情報は、患者についての種々の人口学的情報、患者についての個人連絡情報、雇用情報、健康保険情報、実験報告、外来診療による医師レポート、診療記録、以前の診断に関する履歴情報、症状、治療、投薬情報等を含むことができる。患者302の識別子に基づいて、この患者のリポジトリを、コグニティブ・システム300により取り出し、検索/処理して、類似の患者のコホートが従った治療経路328を提供することができる。 For example, based on request 308 and patient attribute 318, the cognitive system 300 analyzes request 308 and patient attribute 318 and presents not only which patient to treat, but also patient 302 through the display of the HMD system. It may also act on the request to determine a particular medical condition that has an overlay associated with the medical condition available to do so. Therefore, the cognitive system 300 acts on the request to analyze the request 308 and the patient attribute 318 and determine what is required and the criteria by which the request is generated to be identified by the patient attribute 318. And perform various actions to generate a query sent to patient EMR322 to retrieve the data, generate an association display associated with the data, and provide support for evidence found within patient EMR322. be able to. In the example shown, patient EMR322 is a patient information repository that collects patient data from various sources such as hospitals, laboratories, doctor's offices, health insurance companies, pharmacies, and the like. Patient EMR322 is an individual patient, such as patient 302, in a manner that allows information to be retrieved and processed by the cognitive system 300 (structured, unstructured, or a mixture of structured and unstructured). Stores various information about. This patient information includes various demographic information about the patient, personal contact information about the patient, employment information, health insurance information, experiment reports, outpatient doctor reports, medical records, history information about previous diagnoses, symptoms, etc. It can include treatment, medication information, etc. Based on the identifier of patient 302, this patient's repository can be retrieved by the cognitive system 300 and retrieved / processed to provide treatment routes 328 followed by a cohort of similar patients.

本明細書における例示的実施形態によると、コグニティブ・システム300は、コグニティブ・ヘルスケア・システム340を含むように拡張される。コグニティブ・ヘルスケア・システム340は、図1の対応する要素122〜130に関して既に上述したのと同じような方法で動作する、画像キャプチャ及び分析エンジン342、音声キャプチャ及び分析エンジン344、相関エンジン346、医学的状態/治療分析エンジン348、及びディスプレイ・エンジン350を含む。つまり、画像キャプチャ及び分析エンジン342は、患者属性318から識別される患者302もしくはユーザ306又はその両方の1つ又は複数のリアルタイム画像をキャプチャする。画像キャプチャ及び分析エンジン342は、例示的実施形態の多数の異なる態様において1つ又は複数のリアルタイム画像を利用する。1つの実施形態において、画像キャプチャ及び分析エンジン342は、ユーザ306の目の画像を利用し、患者302をケアしている特定の医療専門家を特定する。別の実施形態において、画像キャプチャ及び分析エンジン342は、ユーザ306がどの患者をみているか、もしくは患者302の気分又はその両方を識別するために使用できる患者302の顔の画像をキャプチャする。つまり、画像キャプチャ及び分析エンジン342は、顔認識を通じてケアされている患者の識別に使用できる患者302の顔の画像をキャプチャすることができる。さらに、画像キャプチャ及び分析エンジン342は、患者302が泣いているか、又は顔の表情が恐怖、幸福、懸念、心配等を示しているかどうかを識別することにより、患者の気分の識別に使用できる患者302の画像をキャプチャすることができる。 According to an exemplary embodiment herein, the cognitive system 300 is extended to include a cognitive healthcare system 340. The cognitive healthcare system 340 operates in a manner similar to that already described above for the corresponding elements 122-130 of FIG. 1, image capture and analysis engine 342, audio capture and analysis engine 344, correlation engine 346, It includes a medical condition / treatment analysis engine 348 and a display engine 350. That is, the image capture and analysis engine 342 captures one or more real-time images of patient 302 and / or user 306 identified from patient attribute 318. The image capture and analysis engine 342 utilizes one or more real-time images in a number of different aspects of the exemplary embodiment. In one embodiment, the image capture and analysis engine 342 utilizes the eye image of user 306 to identify a particular medical professional caring for patient 302. In another embodiment, the image capture and analysis engine 342 captures an image of the patient 302's face that can be used to identify which patient the user 306 is looking at, and / or the mood of the patient 302. That is, the image capture and analysis engine 342 can capture an image of the face of the patient 302 that can be used to identify the patient being cared for through face recognition. In addition, the image capture and analysis engine 342 can be used to identify the patient's mood by identifying whether the patient 302 is crying or the facial expression indicates fear, happiness, anxiety, anxiety, etc. 302 images can be captured.

音声キャプチャ及び分析エンジン344は、患者302もしくは患者302をケアしているユーザ306又はその両方による1又は複数の可聴発話をキャプチャする。音声キャプチャ及び分析エンジン344は、例示的実施形態の多数の異なる態様において1又は複数の可聴発話を利用する。1つの実施形態において、音声キャプチャ及び分析エンジン344は、ユーザ306による可聴発話をキャプチャし、これを用いて、患者302をケアしている医療専門家を識別することができる。別の実施形態において、音声キャプチャ及び分析エンジン344は、HMDシステムの拡張現実ディスプレイを介して、さらなる情報をユーザ306に提示する際にコグニティブ・ヘルスケア・システム340により用いることができる、ユーザ306により提供される可聴命令をキャプチャする。さらに別の実施形態において、音声キャプチャ及び分析エンジン344は、患者302の気分を識別するために、患者302の可聴発話をキャプチャする。つまり、音声キャプチャ及び分析エンジン344は、懸念、心配、恐怖、幸福等の1つ又は複数を識別するために用いられる、患者が泣いている音、患者の声における不安感、笑い声等をキャプチャすることができる。 The voice capture and analysis engine 344 captures one or more audible utterances by patient 302 and / or user 306 caring for patient 302. The voice capture and analysis engine 344 utilizes one or more audible utterances in a number of different aspects of the exemplary embodiment. In one embodiment, the voice capture and analysis engine 344 can capture audible utterances by user 306 and use them to identify a medical professional caring for patient 302. In another embodiment, the voice capture and analysis engine 344 can be used by the cognitive healthcare system 340 in presenting further information to the user 306 via the augmented reality display of the HMD system, by the user 306. Capture the audible instructions provided. In yet another embodiment, the voice capture and analysis engine 344 captures the audible utterances of patient 302 to identify the mood of patient 302. That is, the voice capture and analysis engine 344 captures the patient's crying sound, anxiety in the patient's voice, laughter, etc., which is used to identify one or more of concerns, worries, fears, happiness, etc. be able to.

画像キャプチャ及び分析エンジン342によりキャプチャされた1つ又は複数の画像及び音声キャプチャ及び分析エンジン344によりキャプチャされた1又は複数の可聴発話を用いて、相関エンジン346は、必要な情報を医療専門家に与えるために、多数の相関を実行する。1つの例示的な相関は、患者をケアしているユーザ306を特定することであり、そこで、相関エンジン346は、顔認識を利用して、1つ又は複数の画像を、医療専門家のコーパス及び他のソース・データ324内に格納されている医療専門家の画像と比較する。別の例示的な相関は、患者のケアをしているユーザ306を特定することであり、そこで、相関エンジン346は、音声認識を利用して、1又は複数の可聴発話を、医療専門家のコーパス及び他のソース・データ324内に格納されている医療専門家の音声パターンと比較する。同様に、相関エンジン346は、相関を実行して、ユーザ306にケアされている患者302を特定する。患者302を識別するために、相関エンジン346は、顔認識を用いて、1つ又は複数の画像を、患者EMR322内に格納された患者についての電子医療記録(EMR)のセット内の画像と比較する。これに加えて又は完全に異なる形の特定として、相関エンジン346は、音声認識を用いて、1又は複数の可聴発話を、患者EMR322内に格納された患者についての電子医療記録(EMR)のセット内の患者の音声パターンと比較する。 Using one or more images and audio captured by the image capture and analysis engine 342 and one or more audible utterances captured by the audio capture and analysis engine 344, the correlation engine 346 provides the medical professional with the necessary information. Perform a number of correlations to give. One exemplary correlation is to identify a user 306 caring for a patient, where the correlation engine 346 utilizes facial recognition to produce one or more images into a corpus of medical professionals. And other source data 324 for comparison with images of medical professionals stored. Another exemplary correlation is identifying a user 306 caring for a patient, where the correlation engine 346 utilizes speech recognition to produce one or more audible utterances of a medical professional. Compare with medical professional voice patterns stored in the corpus and other source data 324. Similarly, the correlation engine 346 performs the correlation to identify the patient 302 being cared for by user 306. To identify patient 302, the correlation engine 346 uses facial recognition to compare one or more images with images in a set of electronic medical records (EMR) for the patient stored within patient EMR322. do. In addition to this or as a completely different form of identification, the correlation engine 346 uses speech recognition to make one or more audible utterances, a set of electronic medical records (EMR) for a patient stored within patient EMR322. Compare with the patient's voice pattern in.

ユーザ306及び患者302を特定することに加えて、相関エンジン346は、HMDシステムを介して、ユーザ306が見ている患者302の1又は複数の身体部分も特定する。HMDシステムの拡張現実ディスプレイを通じてユーザ306の目に捉えられた患者の実際のビュー上に患者302の医学的状態をオーバーレイするとき、見られている特定の身体部分の特定は特に重要である。つまり、ユーザ306に見られている患者302の身体の部分に基づいて、相関エンジン346は、患者302と関連付けられた医学的状態もしくは治療又はその両方を示す、患者EMR322のデータ内の身体部分へのさらなる相関のために特定の身体部分を特定する。従って、相関エンジン346が、見られている特定の身体部分を特定すると、医学的状態/治療分析エンジン348は、患者EMR322内に格納された患者302の電子医療記録(EMR)を分析し、患者302と関連付けられた医学的状態もしくは治療又はその両方を特定する。患者302の特定された医学的状態もしくは治療又はその両方を利用して、相関エンジン346は、患者の身体のその部分がHMDシステムを介してユーザ306により見られるとき、特定の医学的状態もしくは治療又はその両方と関連付けられた患者の身体の部分と特定する。例えば、患者302が虫垂炎の医学的状態を有する場合、ユーザ306がHMDシステムの拡張現実ディスプレイを通じて患者302の身体を見て、患者302の下腹部が視野に入ると、相関エンジン346は、下腹部のビューを患者302の医学的状態と相関させ、患者302の下腹部にオーバーレイして示される虫垂のオーバーレイを提供する。相関エンジン346は、このオーバーレイをディスプレイ・エンジン350に提供し、ディスプレイ・エンジン350が、HMDシステムの拡張現実ディスプレイを介してオーバーレイ328を医療専門家に提示する。 In addition to identifying user 306 and patient 302, the correlation engine 346 also identifies one or more body parts of patient 302 that user 306 is viewing via the HMD system. The identification of the particular body part being viewed is of particular importance when overlaying the medical condition of the patient 302 on the actual view of the patient as seen by the user 306 through the augmented reality display of the HMD system. That is, based on the body part of patient 302 seen by user 306, the correlation engine 346 goes to the body part in the data of patient EMR322 indicating the medical condition and / or treatment associated with patient 302. Identify specific body parts for further correlation. Thus, when the correlation engine 346 identifies a particular body part being viewed, the medical condition / treatment analysis engine 348 analyzes the patient 302's electronic medical record (EMR) stored within the patient EMR322 and the patient. Identify the medical condition and / or treatment associated with 302. Utilizing the identified medical condition and / or treatment of patient 302, the correlation engine 346 uses the specific medical condition or treatment when that part of the patient's body is viewed by the user 306 via the HMD system. Identify the part of the patient's body associated with or both. For example, if patient 302 has a medical condition of appendicitis, when user 306 looks at patient 302's body through the augmented reality display of the HMD system and the lower abdomen of patient 302 comes into view, the correlation engine 346 will perform the lower abdomen. The view of is correlated with the medical condition of patient 302 to provide an appendix overlay shown as an overlay on the lower abdomen of patient 302. The correlation engine 346 provides this overlay to the display engine 350, which presents the overlay 328 to the medical professional via the augmented reality display of the HMD system.

例示的実施形態に特に留意すべきなのは、相関エンジン346により提供されるオーバーレイが、ユーザ306が必要とするビューに応じて変わり得ることである。つまり、ユーザ306が看護師の場合、相関エンジン346は、一般的器官を示す基本的器官モデルを提供することができる。しかしながら、ユーザ306が医者である場合、相関エンジン346は、器官の実際のX線オーバーレイを提供することができる。さらに、ユーザ306が外科医である場合、相関エンジン346は、部位全体のコンピュータ断層撮影(CAT)スキャン(CT)オーバーレイ又は磁気共鳴イメージング(MRI)スキャン・オーバーレイを提供することができる。基本的器官モデル、x線、CTスキャン、MRIスキャン等を提供することに加えて、相関エンジン346は、1つ又は複数の解剖モデル、重なり合う器官系、以前の医学的状態/治療からのx線、CTスキャン、MRIスキャン等、手術又は圧迫の位置等を提供することもできる。画像キャプチャ及び分析エンジン342もしくは音声キャプチャ及び分析エンジン344又はその両方を介して、医療専門家からの目の動き、顔の表情、頭の動き、可聴発話等を監視することにより、提供すべきあらゆる付加的な情報の表示を識別することができる。 Of particular note in the exemplary embodiment is that the overlay provided by the correlation engine 346 can vary depending on the view required by user 306. That is, if the user 306 is a nurse, the correlation engine 346 can provide a basic organ model showing general organs. However, if user 306 is a doctor, the correlation engine 346 can provide an actual X-ray overlay of the organ. In addition, if user 306 is a surgeon, the correlation engine 346 can provide a computed tomography (CT) scan (CT) overlay or a magnetic resonance imaging (MRI) scan overlay for the entire site. In addition to providing basic organ models, x-rays, CT scans, MRI scans, etc., the correlation engine 346 has one or more anatomical models, overlapping organ systems, x-rays from previous medical conditions / treatments. , CT scan, MRI scan, etc., the position of surgery or compression, etc. can also be provided. Anything that should be provided by monitoring eye movements, facial expressions, head movements, audible speech, etc. from medical professionals through the image capture and analysis engine 342 and / or the audio capture and analysis engine 344. The display of additional information can be identified.

付加的に、相関エンジン346により提供されるオーバーレイは、ユーザ306が患者302に費やす必要がある時間に基づくことができる。例えば、医療専門家のコーパス及び他のソース・データ324を通じて相関エンジン346によりアクセスできるユーザ306のスケジュールに基づいて、ユーザ306は、朝の回診時中に起こり得るように患者302に費やす時間が数分しかない場合がある。従って、相関エンジン346は、一般的器官を示す基本的器官モデルを提供することができる。しかしながら、ユーザ306が手術の前に手術の相談を行っていることをスケジュールが示す場合、相関エンジン346は、部位全体のx線オーバーレイ、コンピュータ断層撮影(CAT)スキャン(CT)オーバーレイ、又は磁気共鳴イメージング(MRI)スキャンを提供することができる。さらに、スケジュールがより多くの時間を許容するかどうかに関係なく、医療専門家が要求した場合には、相関エンジン346は、任意の付加的なオーバーレイを提供することができる。つまり、朝の回診時中に起こり得るように医療専門家が患者に費やす時間が数分しかなく、最初に一般的器官を示す基本的器官モデルを提供できることを、医療専門家のスケジュールが示したとしても、医療専門家が付加的な情報を要求した場合には、相関エンジン346は、x線オーバーレイ、CTスキャン・オーバーレイ、MRIスキャン・オーバーレイ、1つ又は複数の解剖モデル、重なり合う器官系、以前の医学的状態/治療からのx線、CTスキャン、MRIスキャン等、手術もしくは圧迫の位置等を提供することができる。画像キャプチャ及び分析エンジン342もしくは音声キャプチャ及び分析エンジン344又はその両方を介して、医療専門家からの目の動き、顔の表情、頭の動き、可聴発話等を監視することにより、提供すべきあらゆる付加的な情報の表示を識別することができる。 Additionally, the overlay provided by the correlation engine 346 can be based on the time the user 306 needs to spend on the patient 302. For example, based on the schedule of user 306 accessible by the correlation engine 346 through the corpus of medical professionals and other source data 324, user 306 spends a number of hours on patient 302 to occur during the morning rounds. Sometimes there is only a minute. Therefore, the correlation engine 346 can provide a basic organ model showing general organs. However, if the schedule indicates that user 306 is consulting for surgery prior to surgery, the correlation engine 346 will have an x-ray overlay of the entire site, a computed tomography (CAT) scan (CT) overlay, or magnetic resonance imaging. Imaging (MRI) scans can be provided. In addition, the correlation engine 346 can provide any additional overlay if the medical professional requires it, regardless of whether the schedule allows more time. This means that the medical professional's schedule shows that the medical professional spends only a few minutes on the patient as it can occur during the morning round, and can provide a basic organ model that first shows the general organs. Even if medical professionals request additional information, the correlation engine 346 will include x-ray overlays, CT scan overlays, MRI scan overlays, one or more anatomical models, overlapping organ systems, previously. X-rays from medical conditions / treatments, CT scans, MRI scans, etc., surgical or compression locations, etc. can be provided. Anything that should be provided by monitoring eye movements, facial expressions, head movements, audible speech, etc. from medical professionals through the image capture and analysis engine 342 and / or the audio capture and analysis engine 344. The display of additional information can be identified.

さらに、相関エンジン346は、患者302をケアしているユーザ306の特定の専門分野に基づいたオーバーレイを提供することができる。つまり、ユーザ306の識別が麻酔専門医又は麻酔医である場合、相関エンジン346は、特定の医学的状態とは関連付けられてさえいない器官オーバーレイを提供することができる。つまり、麻酔専門医又は麻酔医は、患者の肺、気道、鼻腔等により関心があり得る。逆に、ユーザ306の識別が外科医である場合、相関エンジン346は、患者302の特定の医学的状態に直接関連した器官オーバーレイを提供することができる。さらに、ユーザ306の識別が、患者302に薬剤を与える看護師である場合、相関エンジン346は、患者302の特定の腕、腕の部位等といった薬剤が投与される場所の器官オーバーレイを提供することができる。 In addition, the correlation engine 346 can provide overlays based on the particular discipline of user 306 caring for patient 302. That is, if the identification of user 306 is an anesthesiologist or anesthesiologist, the correlation engine 346 can provide an organ overlay that is not even associated with a particular medical condition. That is, the anesthesiologist or anesthesiologist may be more interested in the patient's lungs, airways, nasal passages, etc. Conversely, if the identification of user 306 is a surgeon, the correlation engine 346 can provide an organ overlay that is directly related to the particular medical condition of patient 302. Further, if the identification of user 306 is a nurse giving the drug to patient 302, the correlation engine 346 provides an organ overlay of where the drug is administered, such as a particular arm, arm site, etc. of patient 302. Can be done.

医学的状態を表し、罹患した又はさらに検査する必要がある身体の部分の強調表示するグラフィカル画像を識別するオーバーレイを提供することに加えて、相関エンジン346は、検査結果、治療の選択肢、メディカル・コード、最新の医学研究スタディ、移植に利用可能な器官等を表す文字情報を提供することもできる。つまり、ユーザ306により提供された入力に基づいて、相関エンジンは、要求された文字情報を識別し、次に、ディスプレイ・エンジン350が、HMDシステムの拡張現実ディスプレイ上に表示する。さらに、患者302の1つ又は複数の画像もしくは1又は複数の可聴発話又はその両方を用いて識別された気分に基づいて、相関エンジン346は、ユーザ306が、どのように情報を患者302に提示するべきかの指示を与えることができる。つまり、相関エンジン346が、患者302の気分を冷静であると識別した場合、相関エンジン346は、リラックスした口調で話すようにユーザ306に指示を与えることができ、次に、ディスプレイ・エンジン350が、HMDシステムの拡張現実ディスプレイ上に表示する。しかしながら、相関エンジン346が、患者302の気分を神経質になっていると識別した場合、相関エンジン346は、より安心させる口調を使用するようにユーザ306に指示を与え次に、それをディスプレイ・エンジン350がHMDシステムの拡張現実ディスプレイ上に表示することができる。 In addition to providing an overlay that identifies a graphical image that represents a medical condition and highlights a part of the body that is affected or needs further examination, the correlation engine 346 provides test results, treatment options, medical. Textual information representing codes, the latest medical research studies, organs available for transplantation, etc. can also be provided. That is, based on the input provided by user 306, the correlation engine identifies the requested textual information and then the display engine 350 displays it on the augmented reality display of the HMD system. Further, based on the mood identified using one or more images of patient 302 and / or one or more audible utterances, the correlation engine 346 presents information to patient 302 by user 306. Can give instructions on what to do. That is, if the correlation engine 346 identifies the mood of the patient 302 as calm, the correlation engine 346 can instruct the user 306 to speak in a relaxed tone, and then the display engine 350 can instruct the user 306 to speak. , Display on the augmented reality display of the HMD system. However, if the correlation engine 346 identifies that the mood of the patient 302 is nervous, the correlation engine 346 instructs the user 306 to use a more reassuring tone and then displays it to the display engine. The 350 can be displayed on the augmented reality display of the HMD system.

付加的に、ひとたび医療専門家が、医療専門家からの目の動き、顔の表情、頭の動き、可聴発話等を監視することにより識別することができる、患者が従うべき治療を選択し、指示し、又は他の方法で特定すると、相関エンジン346は、1つ又は複数の電子通知手段を介して、手術の予定、手術中に提供される機器、相談の要求、投与される薬剤等を含むことができる治療を、リアルタイムで、ほぼリアルタイムで、又は非リアルタイムで、1又は複数の他の医療専門家に通知することができる。治療の指示は、画像キャプチャ及び分析エンジン342もしくは音声キャプチャ及び分析エンジン344又はその両方を介して、医療専門家からの目の動き、顔の表情、頭の動き、可聴発話等を監視することにより、識別することができる。 In addition, once the medical professional selects the treatment that the patient should follow, which can be identified by monitoring eye movements, facial expressions, head movements, audible speech, etc. from the medical professional, When directed or otherwise identified, the correlation engine 346, via one or more electronic notification means, informs the schedule of surgery, equipment provided during surgery, requests for consultation, medications to be administered, etc. Treatments that can be included can be notified to one or more other healthcare professionals in real time, near real time, or non-real time. Treatment instructions are given by monitoring eye movements, facial expressions, head movements, audible speech, etc. from medical professionals via image capture and analysis engine 342 and / or voice capture and analysis engine 344. , Can be identified.

従って、例示的実施形態は、医療専門家の目に捉えられた患者の実際のビュー上にオーバーレイされる、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示す装着型ヘッドセット、眼鏡等を介するなどのヘッドマウント・ディスプレイ(HMD)システムを介して拡張現実ディスプレイを実施するための機構を提供する。本発明の機構は、医療専門家に見られている患者の身体の部位の画像をキャプチャする。見られている患者の身体の部分に基づいて、機構は、ビュー内の対応する身体部分を特定し、それらの身体部分を、患者と関連付けられた医学的状態もしくは治療又はその両方を示す患者の電子医療記録(EMR)データと相関させる。 Thus, an exemplary embodiment is a wearable type that indicates a part of the patient's body that corresponds to the patient's medical condition and / or treatment, superimposed on the actual view of the patient as seen by a medical professional. Provided is a mechanism for implementing an augmented reality display via a head-mounted display (HMD) system, such as through a headset, eyeglasses, or the like. The mechanism of the present invention captures an image of a part of the patient's body as seen by a medical professional. Based on the patient's body parts being viewed, the mechanism identifies the corresponding body parts in the view and indicates those body parts to the patient's medical condition and / or treatment associated with the patient. Correlate with electronic medical record (EMR) data.

本発明は、システム、方法、もしくはコンピュータ・プログラム製品又はその組み合わせとすることができる。コンピュータ・プログラム製品は、プロセッサに本発明の態様を実行させるためのコンピュータ可読プログラム命令をその上に有するコンピュータ可読ストレージ媒体(単数又は複数)を含むことができる。 The present invention can be a system, method, computer program product, or a combination thereof. The computer program product can include a computer-readable storage medium (s) having computer-readable program instructions on it to cause the processor to perform aspects of the invention.

コンピュータ可読ストレージ媒体は、命令実行デバイスにより使用される命令を保持及び格納できる有形デバイスとすることができる。コンピュータ可読ストレージ媒体は、例えば、これらに限定されるものではないが、電子記憶装置、磁気記憶装置、光学記憶装置、電磁気記憶装置、半導体記憶装置、又は上記のいずれかの適切な組み合わせとすることができる。コンピュータ可読ストレージ媒体のより具体的な例の非網羅的なリストとして、以下のもの:すなわち、ポータブル・コンピュータ・ディスケット、ハードディスク、ランダム・アクセス・メモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラム可能読み出し専用メモリ(EPROM又はフラッシュ・メモリ)、スタティック・ランダム・アクセス・メモリ(SRAM)、ポータブル・コンパクト・ディスク読み出し専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリ・スティック、フロッピー・ディスク、命令がそこに記録された機械的にエンコードされたデバイス、及び上記のいずれかの適切な組み合わせが挙げられる。本明細書で使用される場合、コンピュータ可読ストレージ媒体は、電波、又は他の自由に伝搬する電磁波、導波管もしくは他の伝送媒体を通じて伝搬する電磁波(例えば、光ファイバ・ケーブルを通る光パルス)、又はワイヤを通って送られる電気信号などの、一時的信号自体として解釈されない。 The computer-readable storage medium can be a tangible device capable of holding and storing instructions used by the instruction executing device. The computer-readable storage medium is, for example, but not limited to, an electronic storage device, a magnetic storage device, an optical storage device, an electromagnetic storage device, a semiconductor storage device, or an appropriate combination of any of the above. Can be done. A non-exhaustive list of more specific examples of computer-readable storage media includes: Portable computer diskettes, hard disks, random access memory (RAM), read-only memory (ROM), erasable Programmable read-only memory (EPROM or flash memory), static random access memory (SRAM), portable compact disk read-only memory (CD-ROM), digital versatile disk (DVD), memory stick, Included are floppy disks, mechanically encoded devices in which instructions are recorded, and the appropriate combination of any of the above. As used herein, a computer-readable storage medium is a radio wave, or other freely propagating electromagnetic wave, or an electromagnetic wave propagating through a waveguide or other transmission medium (eg, an optical pulse through a fiber optic cable). , Or is not interpreted as a temporary signal itself, such as an electrical signal sent through a wire.

本明細書で説明されるコンピュータ可読プログラム命令は、コンピュータ可読ストレージ媒体からそれぞれのコンピューティング/処理デバイスに、又は、例えばインターネット、ローカル・エリア・ネットワーク、広域ネットワーク、もしくは無線ネットワーク又はその組み合わせなどのネットワークを介して外部コンピュータ又は外部ストレージ・デバイスにダウンロードすることができる。ネットワークは、銅伝送ケーブル、光伝送ファイバ、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイ・コンピュータ、もしくはエッジ・サーバ又はその組み合わせを含むことができる。各コンピューティング/処理デバイスにおけるネットワーク・アダプタ・カード又はネットワーク・インターフェースは、ネットワークからコンピュータ可読プログラム命令を受け取り、コンピュータ可読プログラム命令を転送して、それぞれのコンピューティング/処理デバイス内のコンピュータ可読ストレージ媒体に格納する。 The computer-readable program instructions described herein are from computer-readable storage media to their respective computing / processing devices, or networks such as, for example, the Internet, local area networks, wide area networks, or wireless networks or combinations thereof. Can be downloaded to an external computer or external storage device via. The network can include copper transmission cables, optical transmission fibers, wireless transmissions, routers, firewalls, switches, gateway computers, or edge servers or combinations thereof. The network adapter card or network interface on each computing / processing device receives computer-readable program instructions from the network and transfers the computer-readable program instructions to the computer-readable storage medium within each computing / processing device. Store.

本発明の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、又は、Smalltalk、C++などのオブジェクト指向プログラミング言語、及び、「C」プログラミング言語もしくは類似のプログラミング言語などの従来の手続き型プログラミング言語を含む1つ又は複数のプログラミング言語の任意の組み合わせで記述されるソース・コード又はオブジェクト・コードとすることができる。コンピュータ可読プログラム命令は、完全にユーザのコンピュータ上で実行される場合もあり、一部がユーザのコンピュータ上で、独立型ソフトウェア・パッケージとして実行される場合もあり、一部がユーザのコンピュータ上で実行され、一部が遠隔コンピュータ上で実行される場合もあり、又は完全に遠隔コンピュータもしくはサーバ上で実行される場合もある。最後のシナリオにおいて、遠隔コンピュータは、ローカル・エリア・ネットワーク(LAN)もしくは広域ネットワーク(WAN)を含むいずれかのタイプのネットワークを通じてユーザのコンピュータに接続される場合もあり、又は外部コンピュータへの接続がなされる場合もある(例えば、インターネットサービスプロバイダを用いたインターネットを通じて)。幾つかの実施形態において、例えば、プログラム可能論理回路、フィールド・プログラマブル・ゲート・アレイ(FPGA)、又はプログラム可能論理アレイ(PLA)を含む電子回路は、本発明の態様を実施するために、コンピュータ可読プログラム命令の状態情報を利用することによって、コンピュータ可読プログラム命令を実行して、電子回路を個別化することができる。 Computer-readable program instructions for performing the operations of the present invention include assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcode, firmware instructions, state setting data, or Smalltalk, C ++, etc. Source code or object code written in any combination of one or more programming languages, including object-oriented programming languages and traditional procedural programming languages such as the "C" programming language or similar programming languages. can do. Computer-readable program instructions may be executed entirely on the user's computer, partly on the user's computer, as a stand-alone software package, and partly on the user's computer. It may be run, partly on a remote computer, or entirely on a remote computer or server. In the final scenario, the remote computer may be connected to the user's computer through either type of network, including a local area network (LAN) or wide area network (WAN), or a connection to an external computer. It may also be done (eg, through the internet with an internet service provider). In some embodiments, electronic circuits, including, for example, programmable logic circuits, field programmable gate arrays (FPGAs), or programmable logic arrays (PLAs), are computers to implement aspects of the invention. By using the state information of the readable program instruction, the computer readable program instruction can be executed to individualize the electronic circuit.

本発明の態様は、本発明の実施形態による方法、装置(システム)及びコンピュータ・プログラム製品のフローチャート図もしくはブロック図又はその両方を参照して説明される。フローチャート図もしくはブロック図又はその両方の各ブロック、並びにフローチャート図もしくはブロック図又はその両方におけるブロックの組み合わせは、コンピュータ可読プログラム命令によって実装できることが理解されるであろう。 Aspects of the present invention will be described with reference to the flow charts and / or block diagrams of the methods, devices (systems) and computer program products according to the embodiments of the present invention. It will be appreciated that each block of the flow chart and / or block diagram, and the combination of blocks in the flow chart and / or block diagram, can be implemented by computer-readable program instructions.

これらのコンピュータ可読プログラム命令を、汎用コンピュータ、専用コンピュータ、又は他のプログラム可能データ処理装置のプロセッサに与えて機械を製造し、それにより、コンピュータ又は他のプログラム可能データ処理装置のプロセッサによって実行される命令が、フローチャートもしくはブロック図又はその両方の1つ又は複数のブロック内で指定された機能/動作を実施するための手段を作り出すようにすることができる。これらのコンピュータ・プログラム命令を、コンピュータ、他のプログラム可能データ処理装置、もしくは他のデバイス又はその組み合わせを特定の方式で機能させるように指示することができるコンピュータ可読媒体内に格納し、それにより、そのコンピュータ可読媒体内に格納された命令が、フローチャートもしくはブロック図又はその両方の1つ又は複数のブロックにおいて指定された機能/動作の態様を実施する命令を含む製品を含むようにすることもできる。 These computer-readable program instructions are given to the processor of a general purpose computer, dedicated computer, or other programmable data processor to build a machine, thereby being executed by the processor of the computer or other programmable data processor. The instructions can be made to create means for performing the specified function / operation within one or more blocks of the flowchart and / or block diagram. These computer program instructions are stored in a computer-readable medium that can instruct a computer, other programmable data processor, or other device or combination thereof to function in a particular manner, thereby. The instructions stored in the computer-readable medium may also include a product containing instructions that perform the specified function / operation mode in one or more blocks of the flowchart and / or block diagram. ..

コンピュータ・プログラム命令を、コンピュータ、他のプログラム可能データ処理装置、又は他のデバイス上にロードして、一連の動作ステップをコンピュータ、他のプログラム可能データ処理装置、又は他のデバイス上で行わせてコンピュータ実施のプロセスを生産し、それにより、コンピュータ又は他のプログラム可能装置上で実行される命令が、フローチャートもしくはブロック図又はその両方の1つ又は複数のブロックにおいて指定された機能/動作を実行するためのプロセスを提供するようにすることもできる。 A computer program instruction can be loaded onto a computer, other programmable data processor, or other device to perform a series of operating steps on the computer, other programmable data processor, or other device. It produces a computer-implemented process in which instructions executed on a computer or other programmable device perform a specified function / operation in one or more blocks of a flow chart and / or block diagram. It is also possible to provide a process for this.

図4は、例示的実施形態による、医療専門家の目に捉えられた患者の実際のビュー上にオーバーレイされる、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示すヘッドマウント・ディスプレイ(HMD)システムを介して拡張現実ディスプレイを実施する際の、コグニティブ・ヘルスケア・システムにより実行される動作の例示的フローチャートを示す。動作が開始すると、コグニティブ・ヘルスケア・システムは、HMDシステムからキャプチャした1つ又は複数のリアルタイム画像もしくは1又は複数のリアルタイム可聴発話又はその両方を受け取る(ステップ402)。1つ又は複数のリアルタイム画像もしくは1又は複数のリアルタイム可聴発話又はその両方を用いて、コグニティブ・ヘルスケア・システムは、患者の顔画像、ユーザの顔画像、患者の可聴発話、ユーザの可聴発話、患者の身体部分等のような1つ又は複数の特定の画像もしくは発話又はその両方を特定する(ステップ404)。コグニティブ・ヘルスケア・システムは、1つ又は複数の顔画像内の各顔画像を、患者EMRのコーパス内に格納された患者についての電子医療記録(EMR)のセット内に格納された顔画像のセットと比較することにより、患者の識別を特定することができる(ステップ406)。代替的に又はそれに加えて、コグニティブ・ヘルスケア・システムは、1又は複数の可聴発話内の各可聴発話を、患者EMRのコーパス内に格納された患者についての電子医療記録(EMR)のセット内に格納された音声記録のセットと比較することにより、患者の識別を特定することができる(ステップ408)。患者を特定することに加えて、コグニティブ・ヘルスケア・システムは、1つ又は複数の顔画像内の各顔画像を、医療専門家コーパス内に格納された医療専門家についての記録のセット内に格納された顔画像のセットと比較することにより、ユーザの識別を特定することができる(ステップ410)。代替的に又はそれに加えて、コグニティブ・ヘルスケア・システムは、1又は複数の可聴発話内の各可聴発話を、医療専門家コーパス内に格納された医療専門家についての記録のセット内に格納された顔画像のセットと比較することにより、ユーザの識別を特定することができる(ステップ412)。 FIG. 4 shows a part of the patient's body that corresponds to the patient's medical condition and / or treatment, superimposed on the actual view of the patient as perceived by the medical professional, according to an exemplary embodiment. FIG. Upon initiation of operation, the cognitive healthcare system receives one or more real-time images and / or one or more real-time audible utterances captured from the HMD system (step 402). Using one or more real-time images and / or one or more real-time audible utterances, the cognitive healthcare system uses the patient's facial image, the user's facial image, the patient's audible utterance, the user's audible utterance, Identify one or more specific images and / or utterances, such as a patient's body part (step 404). The cognitive healthcare system puts each face image in one or more face images into a set of electronic medical records (EMR) for the patient stored in the patient's EMR corpus. Patient identification can be identified by comparison with the set (step 406). Alternatively or additionally, the cognitive healthcare system puts each audible utterance in one or more audible utterances within a set of electronic medical records (EMR) for the patient stored in the patient's EMR corpus. Patient identification can be identified by comparing with a set of audio recordings stored in (step 408). In addition to identifying patients, the cognitive healthcare system places each facial image in one or more facial images within a set of records about the medical professional stored within the medical professional corpus. The identification of the user can be identified by comparing with the stored set of facial images (step 410). Alternatively or additionally, the cognitive healthcare system stores each audible utterance within one or more audible utterances within a set of records about the medical professional stored within the medical professional corpus. The user's identification can be identified by comparing with the set of facial images (step 412).

ユーザ及び患者が特定されると、コグニティブ・ヘルスケア・システムは、ユーザの識別を用いて、患者の1つ又は複数の医学的状態もしくは治療又はその両方を特定する(ステップ414)。特定された医学的状態を用いて、コグニティブ・ヘルスケア・システムは、1つ又は複数の身体部分の画像を走査して、患者の医学的状態もしくは治療又はその両方が存在する身体の部分に相関する1つ又は複数の画像を特定する(ステップ416)。次に、HMDシステムの拡張現実ディスプレイを通じて、身体のその部分がユーザにより見られるとき、コグニティブ・ヘルスケア・システムは、医学的状態が存在する場所を強調表示するオーバーレイをユーザに提示する(ステップ418)。例えば、コグニティブ・ヘルスケア・システムは、一般的器官、器官の実際のx線オーバーレイ、部位全体のコンピュータ断層撮影(CAT)スキャン(CT)オーバーレイ又は磁気共鳴イメージング(MRI)スキャン・オーバーレイ等を示す基本的器官モデルを提示することができる。コグニティブ・ヘルスケア・システムにより用いられるオーバーレイは、ユーザのレベル又は専門分野に基づくことができ、ユーザと関連付けられたスケジュール等に基づくこともできる。 Once the user and patient have been identified, the cognitive healthcare system uses the user's identification to identify one or more medical conditions and / or treatments for the patient (step 414). Using the identified medical condition, the cognitive healthcare system scans images of one or more body parts and correlates to the part of the body in which the patient's medical condition and / or treatment is present. Identify one or more images to be performed (step 416). Then, when that part of the body is viewed by the user through the augmented reality display of the HMD system, the cognitive healthcare system presents the user with an overlay highlighting where the medical condition is (step 418). ). For example, a cognitive health care system is a basic showing general organs, actual x-ray overlays of organs, computed tomography (CT) overlays or magnetic resonance imaging (MRI) scan overlays of the entire site, etc. A target organ model can be presented. The overlays used by the cognitive healthcare system can be based on the user's level or discipline, and can also be based on the schedule associated with the user, etc.

特定された医学的状態もしくは治療又はその両方と関連付けられたオーバーレイを提供することに加えて、コグニティブ・ヘルスケア・システムは、患者の肺、気道、鼻腔等を示すオーバーレイを次回の手術に関連し得る麻酔専門医又は麻酔医に提供するなど、医学的状態には際立つものではないが、特定された医学的状態の治療には重要であり得る他のオーバーレイ、又は特定の薬剤を投与する場所のオーバーレイを、患者をケアしている看護師に提示することができる(ステップ420)。さらに、コグニティブ・ヘルスケア・システムは、検査結果、治療の選択肢、メディカル・コード等を表す文字情報を提示することができる(ステップ422)。さらに、コグニティブ・ヘルスケア・システムは、患者と話すときにユーザが口調を変えることができるように、検知された患者の気分と関連付けられた情報を提示することができる(ステップ424)。識別されたオーバーレイもしくは文字情報又はその両方の提示にも関わらず、コグニティブ・ヘルスケア・システムは、オーバーレイもしくは文字情報又はその両方をHMDシステムに送り、HMDシステムの拡張現実ディスプレイ上に表示する(ステップ426)。次に、コグニティブ・ヘルスケア・システムは、HMDシステムがオフにされたかどうかを判断した(ステップ428)。ステップ428において、HMDシステムがオフにされていない場合、ユーザが患者と対話するとき、オーバーレイもしくは文字情報又はその両方は、後で変更する必要がある場合があるので、プロセスはステップ414に戻る。ステップ428において、HMDシステムがオフにされると、動作は終了する。 In addition to providing an overlay associated with the identified medical condition and / or treatment, the cognitive healthcare system will relate overlays showing the patient's lungs, airways, nasal passages, etc. to the next surgery. Obtaining Other overlays that are not prominent in the medical condition, such as providing to an anesthesiologist or anesthesiologist, but may be important in the treatment of the identified medical condition, or overlays where a particular drug is administered. Can be presented to the nurse caring for the patient (step 420). In addition, the cognitive healthcare system can present textual information representing test results, treatment options, medical codes, and the like (step 422). In addition, the cognitive healthcare system can present information associated with the detected patient's mood so that the user can change tone when talking to the patient (step 424). Despite the presentation of the identified overlay and / or textual information, the cognitive healthcare system sends the overlay and / or textual information to the HMD system for display on the augmented reality display of the HMD system (step). 426). The cognitive healthcare system then determined if the HMD system was turned off (step 428). In step 428, if the HMD system is not turned off, the process returns to step 414 as the overlay and / or textual information may need to be changed later when the user interacts with the patient. In step 428, when the HMD system is turned off, the operation ends.

図面内のフローチャート及びブロック図は、本発明の様々な実施形態による、システム、方法、及びコンピュータ・プログラム製品の可能な実装の、アーキテクチャ、機能及び動作を示す。この点に関して、フローチャート又はブロック図内の各ブロックは、指定された論理機能を実装するための1つ又は複数の実行可能命令を含む、モジュール、セグメント、又はコードの一部を表すことができる。幾つかの代替的な実装において、ブロック内に示される機能は、図に示される順序とは異なる順序で生じることがある。例えば、連続して示される2つのブロックは、関与する機能に応じて、実際には実質的に同時に実行されることもあり、又はこれらのブロックはときとして逆順で実行されることもある。ブロック図もしくはフローチャート図又はその両方の各ブロック、及びブロック図もしくはフローチャート図又はその両方におけるブロックの組み合わせは、指定された機能又は動作を実行する、又は専用のハードウェアとコンピュータ命令との組み合わせを実行する、専用ハードウェア・ベースのシステムによって実装できることにも留意されたい。 Flowcharts and block diagrams in the drawings show the architecture, functionality, and operation of possible implementations of systems, methods, and computer program products according to various embodiments of the invention. In this regard, each block in a flowchart or block diagram can represent a part of a module, segment, or code that contains one or more executable instructions for implementing a specified logical function. In some alternative implementations, the functions shown within a block may occur in a different order than shown in the figure. For example, two blocks shown in succession may actually be executed at substantially the same time, depending on the function involved, or these blocks may sometimes be executed in reverse order. Each block of the block diagram and / or flowchart diagram, and the block combination in the block diagram or flowchart diagram or both, performs a specified function or operation, or performs a combination of dedicated hardware and computer instructions. Also note that it can be implemented by a dedicated hardware-based system.

従って、例示的実施形態は、医療専門家の目に捉えられた患者の実際のビュー上にオーバーレイされる、患者の医学的状態もしくは治療又はその両方に対応する患者の身体の部位を示す、装着型ヘッドセット、眼鏡等を介するなどのヘッドマウント・ディスプレイ(HMD)システムを介して拡張現実ディスプレイを実施するための機構を提供する。本発明の機構は、医療専門家に見られている患者の身体の部位の画像をキャプチャする。見られている患者の身体の部位に基づいて、機構は、ビュー内の対応する身体部位を特定し、それらの身体部位を、患者と関連付けられた医学的状態もしくは治療又はその両方を示す患者の電子医療記録(EMR)データと相関させる。場合によっては、顔認識を用いて、見られている特定の患者を特定することができる。 Thus, an exemplary embodiment is worn to indicate a part of the patient's body that corresponds to the patient's medical condition and / or treatment, which is superimposed on the actual view of the patient as seen by the medical professional. Provided is a mechanism for implementing an augmented reality display via a head-mounted display (HMD) system, such as through a type headset, eyeglasses, or the like. The mechanism of the present invention captures an image of a part of the patient's body as seen by a medical professional. Based on the part of the patient's body being viewed, the mechanism identifies the corresponding body parts in the view and refers to those body parts of the patient as indicating the medical condition and / or treatment associated with the patient. Correlate with electronic medical record (EMR) data. In some cases, facial recognition can be used to identify a particular patient being seen.

患者の身体上に重ね合わせられたグラフィカル表現は、医学的状態及び特有の実装とすることができる。つまり、重ね合わせられたグラフィカル表現は、医学的状態を表すグラフィカル画像、罹患した又はさらに調べる必要がある身体の部分の強調表示、検査結果を表す文字情報、治療の選択肢、メディカル・コード等を含むことができる。機構はまた、複数の媒体ビューに対して注釈付けされたデータの医療コーパスへのアクセスも提供し、所与の患者の気分、1日のうちの時間、医療専門家のスケジュールの予約状況等に適した媒体をリアルタイムでの選択することを可能にする。医療専門家のスケジュールに関して、スケジュールに応じて、予約状況が限られている場合、より簡潔なもの(基本的器官モデル)を表示することができ、一方、予約状況が長期の場合、詳細なもの(患者の器官上でシミュレートされた手術技術)を表示することができる。 Graphical representations superimposed on the patient's body can be medical conditions and specific implementations. That is, the superimposed graphical representation includes a graphical image of the medical condition, highlighting of affected or further examined body parts, textual information of test results, treatment options, medical code, etc. be able to. PMDA also provides access to a medical corpus of annotated data for multiple media views, such as the mood of a given patient, the time of day, the appointment status of a medical professional's schedule, etc. Allows the selection of suitable media in real time. Regarding the schedule of medical professionals, depending on the schedule, if the reservation status is limited, it is possible to display a more concise one (basic organ model), while if the reservation status is long-term, it is detailed. (Simulated surgical technique on the patient's organ) can be displayed.

上述のように、例示的な実施形態は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態、又はハードウェア要素及びソフトウェア要素の両方を含む実施形態の形をとることができる。1つの例示的な実施形態において、例示的な実施形態の機構は、これらに限定されるものではないが、ファームウェア、常駐ソフトウェア、マイクロコード等を含むソフトウェア又はプログラム・コードの形で実装される。 As mentioned above, exemplary embodiments can take the form of fully hardware embodiments, fully software embodiments, or embodiments that include both hardware and software elements. In one exemplary embodiment, the mechanisms of the exemplary embodiments are implemented in the form of software or program code, including, but not limited to, firmware, resident software, microcode, and the like.

プログラム・コードを格納もしくは実行又はその両方をするのに適したデータ処理システムは、例えばシステム・バスなどの通信バスを介してメモリ要素に直接又は間接的に結合された少なくとも1つのプロセッサを含む。メモリ要素は、プログラム・コードの実際の実行中に用いられるローカル・メモリ、大容量記憶装置、及び実行中に大容量記憶装置からコードを取り出さなければならない回数を減らすために少なくとも幾つかのプログラム・コードの一時的なストレージを提供するキャッシュ・メモリを含むことができる。メモリは、これらに限定されるものではないが、ROM、PROM、EPROM、EEPROM、DRAM、SRAM、フラッシュ・メモリ、ソリッド・ステート・メモリ等を含む種々のタイプのものとすることができる。 A data processing system suitable for storing and / or executing program code includes at least one processor directly or indirectly coupled to a memory element via a communication bus, such as a system bus. Memory elements include local memory used during the actual execution of program code, mass storage, and at least some programs to reduce the number of times code must be retrieved from mass storage during execution. It can include cache memory that provides temporary storage for code. The memory can be of various types including, but not limited to, ROM, PROM, EPROM, EEPROM, DRAM, SRAM, flash memory, solid state memory and the like.

入力/出力すなわちI/Oデバイス(これらに限定されるものではないが、キーボード、ディスプレイ、ポインティング・デバイス等)は、直接システムに結合することもでき、又は介在する有線もしくは無線のI/Oインターフェースもしくはコントローラ又はその両方等を介してシステムに結合することができる。I/Oデバイスは、例えば、これらに限定されるものではないが、スマートフォン、タブレット・コンピュータ、タッチスクリーン・デバイス、音声認識デバイス等を含む有線又は無線接続を通じて結合される通信デバイスのような、従来のキーボード、ディスプレイ、ポインティング・デバイス等以外の多くの異なる形をとることができる。いずれの周知の又は後で開発されるI/Oデバイスも、例示的な実施形態の範囲内にあることが意図される。 Input / output or I / O devices (such as, but not limited to, keyboards, displays, pointing devices, etc.) can also be directly coupled to or intervened in a wired or wireless I / O interface. Alternatively, it can be coupled to the system via a controller or both. I / O devices are conventional, such as, but not limited to, communication devices coupled through wired or wireless connections, including, but not limited to, smartphones, tablet computers, touch screen devices, voice recognition devices, and the like. It can take many different forms other than the keyboard, display, pointing device, etc. Any well-known or later developed I / O device is intended to be within the scope of exemplary embodiments.

ネットワーク・アダプタをシステムに結合させて、データ処理システムが、介在する私的ネットワーク又は公衆ネットワークを通じて他のデータ処理システム又は遠隔プリンタもしくはストレージ・デバイスに結合されるのを可能にすることもできる。モデム、ケーブル・モデム及びイーサネット・カードは、有線通信のためのネットワーク・アダプタの現在利用可能なタイプのうちのほんの数例である。無線通信ベースのネットワーク・アダプタは、これらに限定されるものではないが、802.11a/b/g/n無線通信アダプタ、Bluetooth無線アダプタ等を含む、無線通信ベースのネットワーク・アダプタを用いることもできる。いずれの周知の又は後で開発されるネットワーク・アダプタも、本発明の趣旨にあることが意図される。 A network adapter can also be coupled to a system to allow a data processing system to be coupled to another data processing system or remote printer or storage device through an intervening private or public network. Modems, cable modems and Ethernet cards are just a few of the currently available types of network adapters for wired communication. The wireless communication-based network adapter is not limited to these, but a wireless communication-based network adapter including, but is not limited to, an 802.11a / b / g / n wireless communication adapter, a Bluetooth wireless adapter, and the like can also be used. can. Any well-known or later developed network adapter is intended to be within the spirit of the present invention.

本発明の説明は、例証及び説明の目的のために提示されたが、これらは、網羅的であること、又は本発明を開示した形に限定することを意図するものではない。当業者には、説明される実施形態の範囲及び趣旨から逸脱することなく、多くの修正及び変形が明らかであろう。実施形態は、本発明の原理及び実際の用途を最もよく説明するため、及び、当業者が、企図した特定の用途に適するように種々の修正を有する種々の実施形態に関して本発明を理解することができるように、選択され記述された。本明細書で用いられる用語は、実施形態の原理、実際の用途、又は市場に見られる技術に優る技術的改善を最もよく説明するため、又は、当業者が、本明細書に開示される実施形態を理解するのを可能にするために選択された。 The description of the invention has been presented for purposes of illustration and illustration, but these are not intended to be exhaustive or limited to the disclosed form of the invention. Many modifications and variations will be apparent to those skilled in the art without departing from the scope and intent of the embodiments described. Embodiments are intended to best illustrate the principles and practical use of the invention, and one of ordinary skill in the art will understand the invention with respect to various embodiments with various modifications to suit the particular application intended. Was selected and described so that The terms used herein are to best describe the principles of the embodiment, the practical use, or the technical improvements that are superior to the techniques found on the market, or by those skilled in the art. Selected to allow understanding of morphology.

Claims (20)

少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサに、コグニティブ・ヘルスケア・システムを実施させるための、前記少なくとも1つのプロセッサにより実行される命令を含む少なくとも1つのメモリとを含むデータ処理システムにおける方法であって、前記コグニティブ・ヘルスケア・システムは、
前記コグニティブ・ヘルスケア・システムのキャプチャ機構により、ヘッドマウント・ディスプレイ(HMD)システムを介して医療専門家が見ている患者の身体の部位のリアルタイム画像をキャプチャすることと、
前記コグニティブ・ヘルスケア・システムにより、前記リアルタイム画像内の前記患者の1つ又は複数の身体部分を特定することと、
前記コグニティブ・ヘルスケア・システムにより、前記1つ又は複数の特定された身体部分を、前記患者と関連付けられた医学的状態もしくは治療又はその両方を示す前記患者の電子医療記録(EMR)と相関させることと、
前記コグニティブ・ヘルスケア・システムにより、前記患者の身体の前記部位の前記リアルタイム画像にオーバーレイする、前記患者の前記医学的状態もしくは前記治療又はその両方に対応する前記患者の身体の1つ又は複数の部位の拡張現実ディスプレイを前記HMDシステム内に生成することと、
を行うように動作する、方法。
A method in a data processing system that includes at least one processor and at least one memory containing instructions executed by the at least one processor to cause the at least one processor to implement a cognitive healthcare system. The cognitive healthcare system is
The capture mechanism of the cognitive healthcare system captures real-time images of the patient's body parts viewed by a medical professional via a head-mounted display (HMD) system.
Identifying one or more body parts of the patient in the real-time image by the cognitive healthcare system.
The cognitive healthcare system correlates the one or more identified body parts with the patient's electronic medical record (EMR) showing the medical condition and / or treatment associated with the patient. That and
One or more of the patient's body corresponding to the patient's medical condition and / or treatment that overlays the real-time image of the part of the patient's body with the cognitive healthcare system. Creating an augmented reality display of the part in the HMD system
How to work to do.
前記患者の電子医療記録(EMR)は、前記患者の顔の画像をキャプチャする前記キャプチャ機構と、顔認識を用いて前記患者を特定する前記コグニティブ・ヘルスケア・システムとによって、前記患者に相関される、請求項1に記載の方法。 The patient's electronic medical record (EMR) is correlated with the patient by the capture mechanism that captures an image of the patient's face and the cognitive healthcare system that identifies the patient using face recognition. The method according to claim 1. 前記患者の電子医療記録(EMR)は、前記患者から可聴発話をキャプチャする前記キャプチャ機構と、音声認識を用いて前記患者を特定する前記コグニティブ・ヘルスケア・システムとによって、前記患者に相関される、請求項1に記載の方法。 The patient's electronic medical record (EMR) is correlated with the patient by the capture mechanism that captures audible utterances from the patient and the cognitive healthcare system that identifies the patient using voice recognition. , The method according to claim 1. 前記拡張現実ディスプレイは、基本的器官モデル、現在のx線、現在のコンピュータ断層撮影(CAT)スキャン(CT)、現在の磁気共鳴イメージング(MRI)スキャン、1つ又は複数の解剖モデル、重なり合う器官系、以前のx線、以前のCTスキャン、以前のMRIスキャン、又は手術もしくは圧迫の位置のうちの1つ又は複数を表示する、請求項1に記載の方法。 The augmented reality display includes a basic organ model, current x-rays, current computed tomography (CAT) scans (CT), current magnetic resonance imaging (MRI) scans, one or more anatomical models, overlapping organ systems. The method of claim 1, wherein one or more of a previous x-ray, a previous CT scan, a previous MRI scan, or a position of surgery or compression is displayed. 前記拡張現実ディスプレイはさらに、前記医学的状態に関して罹患した又はさらに調べる必要がある前記患者の身体の部分を強調表示する、請求項1に記載の方法。 The method of claim 1, wherein the augmented reality display further highlights a part of the patient's body that has suffered or needs further investigation with respect to the medical condition. 前記拡張現実ディスプレイはさらに、検査結果、治療の選択肢、メディカル・コード、最新の医学研究スタディ、又は移植に利用可能な器官を表す文字情報を表示する、請求項1に記載の方法。 The method of claim 1, wherein the augmented reality display further displays textual information representing test results, treatment options, medical codes, the latest medical research studies, or organs available for transplantation. 前記拡張現実ディスプレイはさらに、前記患者が現在示している気分を表示する、請求項1に記載の方法。 The method of claim 1, wherein the augmented reality display further displays the mood the patient is currently showing. 前記患者を治療する前記医療専門家は、前記医療専門家の顔の画像をキャプチャする前記キャプチャ機構と、顔認識を用いて前記医療専門家を特定する前記コグニティブ・ヘルスケア・システムとによって特定される、請求項1に記載の方法。 The medical professional treating the patient is identified by the capturing mechanism that captures an image of the medical professional's face and the cognitive healthcare system that identifies the medical professional using face recognition. The method according to claim 1. 前記患者を治療する前記医療専門家は、前記医療専門家から可聴発話をキャプチャする前記キャプチャ機構と、音声認識を用いて前記医療専門家を特定する前記コグニティブ・ヘルスケア・システムとによって特定される、請求項1に記載の方法。 The medical professional treating the patient is identified by the capturing mechanism that captures audible utterances from the medical professional and the cognitive healthcare system that identifies the medical professional using voice recognition. , The method according to claim 1. 前記拡張現実ディスプレイ内に表示される情報は、前記医療専門家のスケジュールに基づいている、請求項1に記載の方法。 The method of claim 1, wherein the information displayed in the augmented reality display is based on the schedule of the medical professional. コンピュータ可読プログラムが内部に格納されたコンピュータ可読ストレージ媒体を含むコンピュータ・プログラム製品であって、前記コンピュータ可読プログラムは、コンピューティング・デバイス上で実行されたとき、前記コンピューティング・デバイスに、
キャプチャ機構により、ヘッドマウント・ディスプレイ(HMD)システムを介して医療専門家が見ている患者の身体の部位のリアルタイム画像をキャプチャすることと、
前記リアルタイム画像内の前記患者の1つ又は複数の身体部分を特定することと、
前記1つ又は複数の特定された身体部分を、前記患者と関連付けられた医学的状態もしくは治療又はその両方を示す前記患者の電子医療記録(EMR)と相関させることと、
前記患者の身体の前記部位の前記リアルタイム画像にオーバーレイする、前記患者の前記医学的状態もしくは前記治療又はその両方に対応する前記患者の身体の1つ又は複数の部位の拡張現実ディスプレイを前記HMDシステム内に生成することと、
を行わせる、コンピュータ・プログラム製品。
A computer program product that includes a computer-readable storage medium in which a computer-readable program is stored, said computer-readable program, when executed on the computing device, to the computing device.
The capture mechanism captures real-time images of parts of the patient's body as seen by a medical professional via a head-mounted display (HMD) system.
Identifying one or more body parts of the patient in the real-time image and
Correlating the one or more identified body parts with the patient's electronic medical record (EMR) indicating the medical condition and / or treatment associated with the patient.
An augmented reality display of one or more parts of the patient's body corresponding to the patient's medical condition and / or treatment that overlays the real-time image of the part of the patient's body. To generate in and
A computer program product that lets you do.
前記拡張現実ディスプレイは、基本的器官モデル、現在のx線、現在のコンピュータ断層撮影(CAT)スキャン(CT)、現在の磁気共鳴イメージング(MRI)スキャン、1つ又は複数の解剖モデル、重なり合う器官系、以前のx線、以前のCTスキャン、以前のMRIスキャン、又は手術もしくは圧迫の位置のうちの1つ又は複数を表示する、請求項11に記載のコンピュータ・プログラム製品。 The augmented reality display includes a basic organ model, current x-rays, current computed tomography (CAT) scans (CT), current magnetic resonance imaging (MRI) scans, one or more anatomical models, overlapping organ systems. The computer program product of claim 11, displaying one or more of a previous x-ray, a previous CT scan, a previous MRI scan, or a surgical or compression position. 前記拡張現実ディスプレイはさらに、前記医学的状態に関して罹患した又はさらに調べる必要がある前記患者の身体の部分を強調表示する、請求項11に記載のコンピュータ・プログラム製品。 The computer program product of claim 11, wherein the augmented reality display further highlights the part of the patient's body that has suffered or needs further investigation with respect to the medical condition. 前記拡張現実ディスプレイはさらに、検査結果、治療の選択肢、メディカル・コード、最新の医学研究スタディ、又は移植に利用可能な器官を表す文字情報を表示する、請求項11に記載のコンピュータ・プログラム製品。 The computer program product according to claim 11, wherein the augmented reality display further displays textual information representing test results, treatment options, medical codes, the latest medical research studies, or organs available for transplantation. 前記拡張現実ディスプレイはさらに、前記患者が現在示している気分を表示する、請求項11に記載のコンピュータ・プログラム製品。 The computer program product of claim 11, wherein the augmented reality display further displays the mood that the patient is currently exhibiting. 装置であって、
プロセッサと、
前記プロセッサに結合されたメモリと、
を含み、前記メモリは、前記プロセッサにより実行されたとき、前記プロセッサに、
キャプチャ機構により、ヘッドマウント・ディスプレイ(HMD)システムを介して医療専門家が見ている患者の身体の部位のリアルタイム画像をキャプチャすることと、
前記リアルタイム画像内の前記患者の1つ又は複数の身体部分を特定することと、
前記1つ又は複数の特定された身体部分を、前記患者と関連付けられた医学的状態もしくは治療又はその両方を示す前記患者の電子医療記録(EMR)と相関させることと、
前記患者の身体の前記部位の前記リアルタイム画像にオーバーレイする、前記患者の前記医学的状態もしくは前記治療又はその両方に対応する前記患者の身体の1つ又は複数の部位の拡張現実ディスプレイを前記HMDシステム内に生成することと、
を行わせる命令を含む、
装置。
It ’s a device,
With the processor
The memory coupled to the processor and
When executed by the processor, the memory includes the processor.
The capture mechanism captures real-time images of parts of the patient's body as seen by a medical professional via a head-mounted display (HMD) system.
Identifying one or more body parts of the patient in the real-time image and
Correlating the one or more identified body parts with the patient's electronic medical record (EMR) indicating the medical condition and / or treatment associated with the patient.
An augmented reality display of one or more parts of the patient's body corresponding to the patient's medical condition and / or treatment that overlays the real-time image of the part of the patient's body. To generate in and
Including instructions to do
Device.
前記拡張現実ディスプレイは、基本的器官モデル、現在のx線、現在のコンピュータ断層撮影(CAT)スキャン(CT)、現在の磁気共鳴イメージング(MRI)スキャン、1つ又は複数の解剖モデル、重なり合う器官系、以前のx線、以前のCTスキャン、以前のMRIスキャン、又は手術もしくは圧迫の位置のうちの1つ又は複数を表示する、請求項16に記載の装置。 The augmented reality display includes a basic organ model, current x-rays, current computed tomography (CAT) scans (CT), current magnetic resonance imaging (MRI) scans, one or more anatomical models, overlapping organ systems. 16. The device of claim 16, displaying one or more of a previous x-ray, a previous CT scan, a previous MRI scan, or a position of surgery or compression. 前記拡張現実ディスプレイはさらに、前記医学的状態に関して罹患した又はさらに調べる必要がある前記患者の身体の部分を強調表示する、請求項16に記載の装置。 16. The device of claim 16, wherein the augmented reality display further highlights a part of the patient's body that is affected or needs further investigation with respect to the medical condition. 前記拡張現実ディスプレイはさらに、検査結果、治療の選択肢、メディカル・コード、最新の医学研究スタディ、又は移植に利用可能な器官を表す文字情報を表示する、請求項16に記載の装置。 The device of claim 16, wherein the augmented reality display further displays textual information representing test results, treatment options, medical codes, the latest medical research studies, or organs available for transplantation. 前記拡張現実ディスプレイはさらに、前記患者が現在示している気分を表示する、請求項16に記載の装置。 The device of claim 16, wherein the augmented reality display further displays the mood that the patient is currently showing.
JP2020554401A 2018-04-27 2019-03-21 Augmented reality presentations associated with patient medical conditions and/or treatments Active JP7300802B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/964,687 2018-04-27
US15/964,687 US20190333274A1 (en) 2018-04-27 2018-04-27 Augmented Reality Presentation Associated with a Patient's Medical Condition and/or Treatment
PCT/IB2019/052293 WO2019207371A1 (en) 2018-04-27 2019-03-21 Augmented reality presentation associated with a patient's medical condition and/or treatment

Publications (2)

Publication Number Publication Date
JP2021520551A true JP2021520551A (en) 2021-08-19
JP7300802B2 JP7300802B2 (en) 2023-06-30

Family

ID=68291656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020554401A Active JP7300802B2 (en) 2018-04-27 2019-03-21 Augmented reality presentations associated with patient medical conditions and/or treatments

Country Status (6)

Country Link
US (2) US20190333274A1 (en)
JP (1) JP7300802B2 (en)
CN (1) CN112041939A (en)
DE (1) DE112019000747T5 (en)
GB (1) GB2587098A (en)
WO (1) WO2019207371A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102567007B1 (en) 2017-02-24 2023-08-16 마시모 코오퍼레이션 Medical monitoring data display system
WO2018156809A1 (en) * 2017-02-24 2018-08-30 Masimo Corporation Augmented reality system for displaying patient data
WO2018208616A1 (en) 2017-05-08 2018-11-15 Masimo Corporation System for pairing a medical system to a network controller by use of a dongle
US11205306B2 (en) * 2019-05-21 2021-12-21 At&T Intellectual Property I, L.P. Augmented reality medical diagnostic projection
US11695758B2 (en) * 2020-02-24 2023-07-04 International Business Machines Corporation Second factor authentication of electronic devices
US20220139514A1 (en) * 2020-11-03 2022-05-05 Nuance Communications, Inc. Communication System and Method
CN112542229A (en) * 2020-12-22 2021-03-23 武汉联影医疗科技有限公司 Medical image data processing method, device, system and storage medium
US20220238194A1 (en) * 2021-01-26 2022-07-28 Unify Patente Gmbh & Co. Kg System and method for augmentating video data
US11418609B1 (en) * 2021-06-16 2022-08-16 International Business Machines Corporation Identifying objects using networked computer system resources during an event
US20230067403A1 (en) * 2021-08-31 2023-03-02 International Business Machines Corporation Patient monitoring and treatment using electronic textiles
CN114883014B (en) * 2022-04-07 2023-05-05 南方医科大学口腔医院 Patient emotion feedback device and method based on biological recognition and treatment bed

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11197159A (en) * 1998-01-13 1999-07-27 Hitachi Ltd Operation supporting system
US20140145915A1 (en) * 2012-11-14 2014-05-29 Hill-Rom Services, Inc. Augmented reality system in the patient care environment
JP2015019679A (en) * 2013-07-16 2015-02-02 セイコーエプソン株式会社 Information processing device, information processing method, and information processing system
JP2016520339A (en) * 2013-03-14 2016-07-14 ルミセル, インコーポレーテッドLumicell, Inc. Medical imaging device and method of use
JP2016206428A (en) * 2015-04-23 2016-12-08 京セラ株式会社 Electronic device and voiceprint authentication method
JP2017016347A (en) * 2015-06-30 2017-01-19 キヤノン株式会社 Information processing device, information processing method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090318891A1 (en) * 2006-04-05 2009-12-24 Ronald Marcotte Delivery device, system, and method for delivering substances into blood vessels
TW201505603A (en) * 2013-07-16 2015-02-16 Seiko Epson Corp Information processing apparatus, information processing method, and information processing system
CN106845120A (en) * 2017-01-19 2017-06-13 杭州古珀医疗科技有限公司 A kind of Telemedicine System and its operating method based on mixed reality technology
CN107169306A (en) * 2017-06-30 2017-09-15 远影医疗信息科技(北京)有限公司 Electronics or biological identification technology obtain the system and exchange method of medical information

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11197159A (en) * 1998-01-13 1999-07-27 Hitachi Ltd Operation supporting system
US20140145915A1 (en) * 2012-11-14 2014-05-29 Hill-Rom Services, Inc. Augmented reality system in the patient care environment
JP2016520339A (en) * 2013-03-14 2016-07-14 ルミセル, インコーポレーテッドLumicell, Inc. Medical imaging device and method of use
JP2015019679A (en) * 2013-07-16 2015-02-02 セイコーエプソン株式会社 Information processing device, information processing method, and information processing system
JP2016206428A (en) * 2015-04-23 2016-12-08 京セラ株式会社 Electronic device and voiceprint authentication method
JP2017016347A (en) * 2015-06-30 2017-01-19 キヤノン株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
GB2587098A (en) 2021-03-17
GB202015886D0 (en) 2020-11-18
US20190333276A1 (en) 2019-10-31
US20190333274A1 (en) 2019-10-31
JP7300802B2 (en) 2023-06-30
DE112019000747T5 (en) 2020-10-29
CN112041939A (en) 2020-12-04
WO2019207371A1 (en) 2019-10-31

Similar Documents

Publication Publication Date Title
JP7300802B2 (en) Augmented reality presentations associated with patient medical conditions and/or treatments
US11942221B2 (en) Disambiguation of ambiguous portions of content for processing by automated systems
US11182550B2 (en) Cognitive building of medical condition base cartridges based on gradings of positional statements
US11200968B2 (en) Verifying medical conditions of patients in electronic medical records
US11031103B2 (en) Personalized questionnaire for health risk assessment
US10818394B2 (en) Cognitive building of medical condition base cartridges for a medical system
US11031107B2 (en) Extracting patient information from an electronic medical record
US11495332B2 (en) Automated prediction and answering of medical professional questions directed to patient based on EMR
US11031109B2 (en) Contextual EMR based dashboard graphical user interface elements
US20180121603A1 (en) Identification of Related Electronic Medical Record Documents in a Question and Answer System
US20240053307A1 (en) Identifying Repetitive Portions of Clinical Notes and Generating Summaries Pertinent to Treatment of a Patient Based on the Identified Repetitive Portions
US11837343B2 (en) Identifying repetitive portions of clinical notes and generating summaries pertinent to treatment of a patient based on the identified repetitive portions
US20190295695A1 (en) SOAP Based Analysis of Patient EMR to Identify Treatment Plan Features in a Patient EMR
US20190172569A1 (en) Presenting Contextually Relevant Patient Data to a Medical Professional
US10886030B2 (en) Presenting contextually relevant patient data in relation to other patients to a medical professional
US20210090691A1 (en) Cognitive System Candidate Response Ranking Based on Personal Medical Condition
US10165945B1 (en) Cognitively integrated indicating system
US11521724B2 (en) Personalized patient engagement in care management using explainable behavioral phenotypes
US20190205012A1 (en) Graphical Presentation of Relevant Information From Electronic Medical Records
US11568997B2 (en) Dynamic context-based collaborative medical concept interpreter
US20190392324A1 (en) Cognitive Analysis and Disambiguation of Electronic Medical Records for Presentation of Pertinent Information for a Medical Treatment Plan

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210204

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201028

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210816

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230616

R150 Certificate of patent or registration of utility model

Ref document number: 7300802

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150