JP2024003313A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2024003313A
JP2024003313A JP2022102362A JP2022102362A JP2024003313A JP 2024003313 A JP2024003313 A JP 2024003313A JP 2022102362 A JP2022102362 A JP 2022102362A JP 2022102362 A JP2022102362 A JP 2022102362A JP 2024003313 A JP2024003313 A JP 2024003313A
Authority
JP
Japan
Prior art keywords
expert
user
image
terminal
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022102362A
Other languages
Japanese (ja)
Inventor
敏雄 千葉
Toshio Chiba
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Online Master Co Ltd
Original Assignee
Online Master Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Online Master Co Ltd filed Critical Online Master Co Ltd
Priority to JP2022102362A priority Critical patent/JP2024003313A/en
Publication of JP2024003313A publication Critical patent/JP2024003313A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To build a reliability relation between a patient and a doctor on the occasion of online medical care and then transmit a high quality image needed for diagnosis of a diseased part to the doctor.
SOLUTION: A server 1 assists an online medical care between a doctor and a patient, and comprises a user image transmission unit 101, a user permission acceptance unit 102, and a specific region image transmission unit 103. The user image transmission unit 101 transmits an image to an expert terminal 3 in accordance with the acceptance of a request for transmission of the image from a user terminal 2 that includes the face of a patient. The user permission acceptance unit 102 accepts from the user terminal 2 an indication for permission to transmit an 8K video of a patient's diseased part (e.g., an eye) to the expert terminal 3. The specific region image transmission unit 103 switches the transmission quality to a high image quality in response to the acceptance of the indication for permission and transmits the 8K video of the patient's diseased part (e.g., an eye) to the expert terminal 3.
SELECTED DRAWING: Figure 9
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

従来、対話装置のための画像処理装置において、対話者の視線が一致するように補正し、「オクルージョン」の問題を同時に解決しかつ顔美化も行うシステムが存在する(特許文献1参照)。 BACKGROUND ART Conventionally, in an image processing device for a dialogue device, there is a system that corrects the line of sight of the dialogue person to match, simultaneously solves the problem of "occlusion", and also performs facial beautification (see Patent Document 1).

特許第6329121号公報Patent No. 6329121

しかしながら、ユーザと専門家との信頼関係を構築したうえで、専門家の判断が必要な画像を専門家に送信する仕組みは提案されていない。 However, no mechanism has been proposed for building a relationship of trust between a user and an expert and then transmitting an image that requires the expert's judgment to the expert.

本発明は、このような状況に鑑みてなされたものであり、ユーザと専門家との信頼関係を構築したうえで、専門家の判断が必要な画像を専門家に送信することができるようにすることを目的とする。 The present invention was made in view of this situation, and it is possible to build a relationship of trust between a user and an expert and then send an image that requires the expert's judgment to the expert. The purpose is to

上記目的を達成するため、本発明の一態様の情報処理装置は、
通信ネットワークを介してユーザと専門家との対話を支援する対話支援装置であって、
前記ユーザの端末から前記ユーザの顔面を含む画像の送信を受け付けたことに応じて、前記専門家の端末に前記画像を送信するユーザ画像送信手段と、
前記専門家の端末から前記専門家の顔面を含む画像の送信を受け付けたことに応じて、前記ユーザの端末に前記画像を送信する専門家画像送信手段と、
前記ユーザの体の特定部位の画像であって所定の品質を伴う画像を前記専門家の端末に送信するための許可を前記ユーザの端末から受け付けるユーザ許可受付手段と、
前記許可を受け付けたことに応じて、前記特定部位の画像を前記専門家の端末に送信する特定部位画像送信手段と、
を備える。
本発明の一態様の上記情報処理装置に対応する情報処理方法及びプログラムも、本発明の一態様の情報処理方法及びプログラムとして提供される。
To achieve the above object, an information processing device according to one embodiment of the present invention includes:
A dialogue support device that supports dialogue between a user and an expert via a communication network,
User image transmitting means for transmitting the image to the expert's terminal in response to receiving the transmission of the image including the user's face from the user's terminal;
Expert image transmitting means for transmitting the image to the user's terminal in response to receiving the transmission of the image including the expert's face from the expert's terminal;
user permission receiving means for receiving permission from the user's terminal to transmit an image of a specific part of the user's body with a predetermined quality to the expert's terminal;
specific part image transmitting means for transmitting an image of the specific part to the terminal of the expert in response to receiving the permission;
Equipped with.
An information processing method and program corresponding to the above information processing apparatus according to one embodiment of the present invention are also provided as an information processing method and program according to one embodiment of the present invention.

本発明によれば、ユーザと専門家との信頼関係を構築したうえで、専門家の判断が必要な画像を専門家に送信することができる。 According to the present invention, it is possible to build a relationship of trust between a user and an expert, and then transmit an image that requires the expert's judgment to the expert.

本発明の情報処理装置の一実施形態に係るサーバを含む、情報処理システムにより実現可能な本サービスの概要を示す図である。1 is a diagram illustrating an overview of this service that can be realized by an information processing system including a server according to an embodiment of an information processing apparatus of the present invention. リモート医療機器と医療診断AIによる遠隔医療診断を説明するための図である。It is a diagram for explaining remote medical diagnosis using remote medical equipment and medical diagnosis AI. 図1の本サービスが適用されるオンライン診療の通信ビジネスモデルの一例を示す図である。FIG. 2 is a diagram showing an example of a communication business model for online medical treatment to which the present service of FIG. 1 is applied. 図1の本サービスを適用する遠隔医療診断イノベーションの将来像を示す図である。FIG. 2 is a diagram showing a future image of telemedicine diagnosis innovation applying the service shown in FIG. 1. 図1の本サービスが適用される情報処理システムの一例のIoT聴診システムを示す図である。FIG. 2 is a diagram showing an IoT auscultation system as an example of an information processing system to which the present service of FIG. 1 is applied. 図5のIoT聴診システムの各機器の動作を示す図である。6 is a diagram showing the operation of each device of the IoT auscultation system of FIG. 5. FIG. 本発明の情報処理装置の一実施形態に係るサーバを含む、情報処理システムの構成の一例を示す図である。1 is a diagram illustrating an example of the configuration of an information processing system including a server according to an embodiment of an information processing apparatus of the present invention. 図7に示した情報処理システムのうちサーバのハードウェア構成の一例を示すブロック図である。8 is a block diagram showing an example of the hardware configuration of a server in the information processing system shown in FIG. 7. FIG. 図8のハードウェア構成を有するサーバの機能的構成のうちオンライン診療に関する処理を実行するための機能的構成の一例を示すブロック図である。9 is a block diagram illustrating an example of a functional configuration for executing processing related to online medical treatment among the functional configurations of a server having the hardware configuration of FIG. 8. FIG. 図9のサーバの機能的構成のうちオンライン遠隔診療機能部の詳細機能を説明するための図である。10 is a diagram for explaining detailed functions of an online telemedicine function section in the functional configuration of the server in FIG. 9. FIG. 本発明の実施形態による会話内容表示機能により表示される表示画面の一例を示す図である。FIG. 3 is a diagram showing an example of a display screen displayed by the conversation content display function according to the embodiment of the present invention. 本発明の実施形態によるキーワード特定機能により表示される表示画面の一例を示す図である。FIG. 3 is a diagram showing an example of a display screen displayed by the keyword specifying function according to the embodiment of the present invention. 本発明の実施形態によるカルテ記述生成機能により表示される表示画面の一例を示す図である。FIG. 3 is a diagram showing an example of a display screen displayed by the medical record description generation function according to the embodiment of the present invention. 本発明の実施形態による参考情報提示機能により表示される表示画面の一例を示す図である。FIG. 3 is a diagram showing an example of a display screen displayed by the reference information presentation function according to the embodiment of the present invention. 本発明の実施形態による誤認識語句誤り訂正機能により表示される表示画面の一例を示す図である。It is a figure which shows an example of the display screen displayed by the misrecognized word error correction function by embodiment of this invention. 図8、図9のサーバにおいて、オンライン診療に関する処理を実行する動作を示すフローチャートである。10 is a flowchart showing the operation of executing processing related to online medical treatment in the server of FIGS. 8 and 9. FIG.

以下、本発明の実施形態について、図面を用いて説明する。
まず、図1乃至図4を適宜参照して、本発明の一実施形態に係る情報処理装置が適用される情報処理システム(後述する図5参照)の適用対象となるサービス(以下、「本サービス」と呼ぶ)の概要について説明する。
Embodiments of the present invention will be described below with reference to the drawings.
First, with reference to FIGS. 1 to 4 as appropriate, a service to which an information processing system (see FIG. 5 described later) to which an information processing apparatus according to an embodiment of the present invention is applied (hereinafter referred to as "this service") ”) will be explained below.

図1は、本発明の情報処理装置の一実施形態に係るサーバを含む、情報処理システムにより実現可能な本サービスの概要を示す図である。 FIG. 1 is a diagram showing an overview of this service that can be realized by an information processing system including a server according to an embodiment of the information processing apparatus of the present invention.

従来から、患者と医師とが夫々の端末をネットワークに接続してオンライン診療が行われているが、図1(a)に示すように、医師の話は対面でも伝わり難く、患者の表情や幹部の状態が不明瞭である、患者の脈をとるにも医療スタッフが患者側に居る必要がある、等の問題を抱えている。
具体的には、聴診の際に患者が聴診器を操作することになるが、医師から患者への聴診器の操作指示が難しい。問診の際に、患者に言いたいことが伝わらない。視診の際に患者の様子がよくわからない。
Traditionally, patients and doctors have connected their respective terminals to a network to conduct online medical consultations, but as shown in Figure 1(a), it is difficult to understand what the doctor is saying even face-to-face. The patient's condition is unclear, and medical staff must be present at the patient's side to take the patient's pulse.
Specifically, the patient operates the stethoscope during auscultation, but it is difficult for the doctor to instruct the patient to operate the stethoscope. I can't understand what I want to say to the patient during an interview. It is difficult to understand the patient's condition during visual examination.

そこで、本サービスは、図1(b)に示すように、高画質な撮影機材(カメラやマイク等)や操作が簡単なリモート聴診器(しゃべる、ひかる)等のリモート医療機器と、8K画質の映像(8K映像)、5G通信等の高画質及び高速通信等のリモート環境を整備することでリッチな生体情報を収集し、医療診断用のAI(Artificial Intelligence)が患者と医師との会話をモニタリングし診断の支援情報を医師に提示する。
医療診断用のAIによる診断の支援情報としては、例えば「XX病の疑いがあり、拡張期雑音の有無を確認してください」等のメッセージが提示される。
また、リモート医療機器は、8Kの目(視力4.27相当)で、患者を観察できるので、患者の表情や患部の状態が鮮明に見ることができる。
これにより、本サービスによれば、オンライン診療において、対面診療と同等以上に聴診、視診、及び問診を可能にすることができる。
Therefore, as shown in Figure 1(b), this service provides remote medical equipment such as high-quality imaging equipment (cameras, microphones, etc.) and easy-to-operate remote stethoscopes (Shaberu, Hikaru), as well as 8K image quality. Rich biological information is collected by creating a remote environment with video (8K video), high resolution such as 5G communication, and high-speed communication, and AI (Artificial Intelligence) for medical diagnosis monitors conversations between patients and doctors. and present diagnostic support information to the doctor.
As diagnostic support information using AI for medical diagnosis, a message such as "You suspect that you have XX disease, please check for the presence of diastolic murmur" is presented, for example.
In addition, the remote medical device can observe the patient with 8K eyes (equivalent to 4.27 visual acuity), so the patient's facial expressions and the condition of the affected area can be clearly seen.
As a result, according to this service, it is possible to perform auscultation, visual inspection, and questioning in online medical treatment at a level equivalent to or better than that in face-to-face medical treatment.

ここで、図2を参照して具体的な遠隔医療診断について説明する。
図2は、リモート医療機器と医療診断AIによる遠隔医療診断を説明するための図である。
Here, specific telemedicine diagnosis will be explained with reference to FIG. 2.
FIG. 2 is a diagram for explaining remote medical diagnosis using remote medical equipment and medical diagnosis AI.

図2に示すように、患者からの「先週から胸が苦しくて…」、「降圧剤を飲んでいます」等の発話があると、カメラ及びマイクにより問診の内容が収集される。また、発話に伴いリモート医療機器により患者の生体情報が収集される。
ここで、患者の生体情報は、例えば8K映像、心拍音、血流音、脈波、血圧、体温、血中酸素濃度等が収集される。
As shown in FIG. 2, when a patient makes an utterance such as ``I've had chest pain since last week'' or ``I'm taking antihypertensive medication,'' the content of the interview is collected using a camera and microphone. Furthermore, as the patient speaks, the patient's biological information is collected by the remote medical device.
Here, the patient's biological information includes, for example, 8K video, heartbeat sound, blood flow sound, pulse wave, blood pressure, body temperature, blood oxygen concentration, etc.

なお、8K映像とは、横×縦の解像度が7680×4320画素を持つ映像のことをいう。1000を1キロ(K)と数える。8K映像は、横方向の解像度が約8000である。4Kは3840×2160で4K、フルハイビジョン(フルHD)は1920×1080で2Kと表す。縦×横の画素数で比較すれば、8Kは4Kの4倍、2Kの16倍にあたる。同じ画素密度なら、8Kは2Kの16倍も広い面積の映像を表現できる。逆に面積が同じなら16倍緻密な表現ができる。 Note that 8K video refers to video with a horizontal x vertical resolution of 7680 x 4320 pixels. Count 1000 as 1 kilometer (K). 8K video has a horizontal resolution of about 8000 pixels. 4K is 3840 x 2160, which is 4K, and full high-definition (full HD) is 1920 x 1080, which is 2K. Comparing the number of vertical and horizontal pixels, 8K is four times as many as 4K and 16 times as many as 2K. With the same pixel density, 8K can display an image 16 times larger than 2K. Conversely, if the area is the same, it can be expressed 16 times more precisely.

医療診断AIは、収集された問診の内容(症状等)と生体情報(数値データ)と、データベースに予め記憶されている患者の情報(既往症、生活状況等)に基づいて、例えば「大動脈狭窄症、大動脈逆流症、僧帽弁狭窄症等の疑いがあります」等のメッセージを医師の端末に掲示する。
具体的には、医療診断AIは、会話中の診療キーワードを自動認識し、診療キーワードと生体情報から疾病(大動脈狭窄症)を推定し、推定した疾病をレコメント(大動脈狭窄症の疑いあり)、その根拠(胸が苦しい、降圧剤服用、心突拍動等)、レコメントされた次のアクション(例えば「上腕ギョウ骨遅延を確認してください」等)が医師の端末の画面に表示される。
Medical diagnosis AI diagnoses, for example, "aortic stenosis" based on the collected interview contents (symptoms, etc.), biological information (numerical data), and patient information (pre-existing conditions, living conditions, etc.) stored in the database in advance. , aortic regurgitation disease, mitral stenosis, etc. are suspected.'' is posted on the doctor's terminal.
Specifically, the medical diagnosis AI automatically recognizes medical treatment keywords during a conversation, infers a disease (aortic stenosis) from the medical treatment keyword and biological information, and comments on the estimated disease (suspicion of aortic stenosis). , the reason (chest pain, taking antihypertensive medication, heart attack, etc.), and the recommended next action (e.g., ``Please check for humeral bone delay,'' etc.) are displayed on the screen of the doctor's terminal. Ru.

これにより、医師は、自身では気が付かなかった疾病、例えば「大動脈逆流症は気づかなかった」や、レアな疾病(例えばOsler結節、Janeway病変等)の見落とし等を防止することができる。
また、疑義のある疾病を効率的に絞り込むことができる。
このように、本サービスを利用したオンライン診療によれば、対面診断よりもリッチな診断情報を得ることができる。
As a result, doctors can prevent diseases that they did not notice, such as "I did not notice aortic reflux disease" or overlooking rare diseases (such as Osler's nodules, Janeway lesions, etc.).
In addition, it is possible to efficiently narrow down suspected diseases.
In this way, online medical treatment using this service can provide richer diagnostic information than face-to-face diagnosis.

ここで、図3を参照してオンライン診療の通信ビジネスモデルについて説明する。
図3は、図1の本サービスが適用されるオンライン診療の通信ビジネスモデルの一例を示す図である。
図3に示すように、本サービスにおけるオンライン診療の通信ビジネスモデルは、医師側の機器(聴診器やバイタル計、Bluetooth等の近距離無線通信網)、AIサーバセンタ、4G/5G/IP等の広域無線通信網、みまもり電球、独自照明型リモート診断機器、激甚災害用ルータ、患者側の機器(Bluetooth等の近距離無線通信網、リモート医療機器、スマートウォッチ、IoT医療機器)等から構成される。Bluetoothは登録商標である。
この通信ビジネスモデルでは、患者と医師とを高品質で高速大容量通信により接続し、オンライン診療に関わるサービスを提供することができる。
Here, a communication business model for online medical treatment will be explained with reference to FIG.
FIG. 3 is a diagram showing an example of an online medical treatment communication business model to which the present service of FIG. 1 is applied.
As shown in Figure 3, the communication business model for online medical treatment in this service includes doctor-side equipment (stethoscope, vital meter, short-range wireless communication network such as Bluetooth), AI server center, 4G/5G/IP, etc. Consists of a wide area wireless communication network, a watchful light bulb, a unique lighting type remote diagnostic device, a router for severe disasters, and patient-side devices (short-range wireless communication networks such as Bluetooth, remote medical devices, smart watches, IoT medical devices), etc. . Bluetooth is a registered trademark.
This telecommunications business model connects patients and doctors through high-quality, high-speed, large-capacity communications, making it possible to provide services related to online medical treatment.

ここで、図4を参照して遠隔医療診断イノベーションの将来像について説明する。
図4は、図1の本サービスを適用する遠隔医療診断イノベーションの将来像を示す図である。
Here, the future image of telemedicine diagnosis innovation will be explained with reference to FIG.
FIG. 4 is a diagram showing the future image of telemedicine diagnosis innovation applying the service shown in FIG. 1.

図4に示すように、遠隔医療診断イノベーションは、将来、スマートフォン、スマートウォッチ等のリモート通信機器及びバイタル情報機器から患者の情報を収集し、その収集した情報をAIがライフログバンクにて一括管理すると共に、AIは、収集された情報から患者の異変を検出し、患者の異変に適した医療機関(かかりつけ医、高度医療機関、緊急医療機関等)に通報する。 As shown in Figure 4, in the future, telemedicine diagnosis innovation will collect patient information from remote communication devices and vital information devices such as smartphones and smart watches, and AI will centrally manage the collected information in a life log bank. At the same time, the AI detects abnormalities in the patient from the collected information and reports them to medical institutions appropriate for the patient's abnormalities (family doctor, advanced medical institution, emergency medical institution, etc.).

例えば患者に取り付け24時間補聴型デバイスにより患者(Aさん)の健康状態のデータを記録し、またコミュニケーションロボットと患者(Aさん)の会話を記録し、みまもり電球や監視デバイス等でそれらのデバイスを監視し、ライフログバンクがその監視デバイスを介してデータを収集する。
また、災害時には、スマートウォッチが被害者(Bさん)の状態のデータを記録しライフログバンクに送信する。
さらに、緊急医療機関(救急隊等)が現地に赴いて患者(Cさん)に処置を行っている中で、例えばAEDからスマートフォンを介してライフログバンクが取得する。
For example, a 24-hour hearing aid device attached to the patient records data on the health status of the patient (Mr. A), a conversation between a communication robot and the patient (Mr. A), and monitoring of these devices using a monitoring light bulb or monitoring device. Monitor and Lifelog Bank collects data through its monitoring devices.
Additionally, in the event of a disaster, the smart watch records data on the victim's (Mr. B) condition and sends it to the lifelog bank.
Furthermore, while an emergency medical institution (ambulance team, etc.) goes to the scene and treats the patient (Mr. C), the life log bank acquires information from, for example, an AED via a smartphone.

将来像におけるAIは、ライフログバンクに収集又は取得される夫々の患者(Aさん、Bさん、Cさん)のデータを分析し、夫々の状況に応じて通報を行う。具体的には、AIは、ライフログバンクに収集又は取得される夫々の患者(Aさん、Bさん、Cさん)のデータを入力として、夫々の患者の状況に応じて通報を出力する。
例えば患者(Aさん)の場合、AIは、「軽度の心疾患の予兆あり。かかりつけ医に通知します」等と連絡する。
また、例えば「患者(Bさん)の場合、AIは、「血圧低下、ショック状態です。すぐに治療が必要です。」等と緊急医療チームに連絡する。
さらに、例えば「患者(Cさん)の場合、AIは、「現在、心拍数40.血圧50-90、人工心肺が必要です。」等と高度医療機関に連絡する。
The AI in the future image will analyze the data of each patient (Mr. A, Mr. B, and Mr. C) collected or acquired in the life log bank, and will make a report according to each patient's situation. Specifically, the AI inputs the data of each patient (Mr. A, Mr. B, and Mr. C) collected or acquired in the life log bank, and outputs a report according to the situation of each patient.
For example, in the case of a patient (Mr. A), the AI will contact the patient with a message such as "There are signs of mild heart disease. I will notify your family doctor."
Further, for example, in the case of the patient (Mr. B), the AI informs the emergency medical team, saying, ``He has decreased blood pressure and is in shock. Immediate treatment is required.''
Further, for example, in the case of the patient (Mr. C), the AI informs the advanced medical institution, ``Currently, heart rate is 40, blood pressure is 50-90, and cardiopulmonary bypass is required.''.

このように、遠隔医療診断イノベーションの将来像によれば、いつでもどこでもウェアラブル医療機器が患者の生体情報を記録し、ウェアラブル医療機器に記録された情報をAIが分析し、生体データとAIによる分析結果を医療機関に提供することで、早期治療の実現、診断の精度向上、治療の迅速化等に貢献することができる。 In this way, according to the future vision of telemedicine diagnosis innovation, wearable medical devices record patients' biometric information anytime and anywhere, AI analyzes the information recorded on the wearable medical devices, and biometric data and AI analysis results are generated. By providing this to medical institutions, it is possible to contribute to the realization of early treatment, improved diagnostic accuracy, and faster treatment.

ここで、図5を参照してIoT聴診システムについて説明する。
図5は、図1の本サービスが適用される情報処理システムの一例のIoT聴診システムを示す図である。
図5に示すように、IoT聴診システムは、聴診グラフ端末51と、聴診医師側機器(聴診用ヘッドセット(マイク付き)52及びジョイスティック装置53)と、リモート患者側機器(マイク付きの聴診器54)と、これら聴診医師側機器とリモート患者側機器とを接続する通信網(4G/5G/IP網)と、無線ルータ55(近距離無線通信/広域無線通信用ルータ)とから構成される。
Here, the IoT auscultation system will be explained with reference to FIG.
FIG. 5 is a diagram showing an IoT auscultation system as an example of an information processing system to which the present service of FIG. 1 is applied.
As shown in FIG. 5, the IoT auscultation system includes an auscultation graph terminal 51, auscultation doctor's equipment (auscultation headset (with microphone) 52 and joystick device 53), and remote patient-side equipment (stethoscope with microphone 54). ), a communication network (4G/5G/IP network) that connects these auscultation doctor side devices and remote patient side devices, and a wireless router 55 (near field wireless communication/wide area wireless communication router).

聴診グラフ端末51は、スマートフォンやパーソナルコンピュータ等にインストールしたアプリケーションプログラムと連携動作させることで、聴診グラフを解析することが可能である。 The auscultation graph terminal 51 can analyze an auscultation graph by operating in cooperation with an application program installed on a smartphone, a personal computer, or the like.

聴診医師側機器(聴診用ヘッドセット(マイク付き)52及びジョイスティック装置53)と、リモート患者側機器(マイク付きの聴診器54)とでリモート聴診器が構成される。 A remote stethoscope is configured by an auscultation doctor side device (auscultation headset (with microphone) 52 and joystick device 53) and a remote patient side device (stethoscope 54 with a microphone).

聴診医師側機器のジョイスティック装置53は、上部から見ると円形状の部位を有し、その円形の部位の中央部にジョイスティックを配置し、ジョイスティックの周囲8方向(放射状)に三角形状のLEDを配置したものである。ジョイスティック装置53本体の側面には、USB-C規格のコネクタが配置されている。コネクタは医師側のPC等に接続される。 The joystick device 53 of the auscultation doctor's equipment has a circular portion when viewed from above, a joystick is placed in the center of the circular portion, and triangular LEDs are placed in eight directions (radially) around the joystick. This is what I did. A USB-C standard connector is arranged on the side surface of the joystick device 53 body. The connector is connected to a doctor's PC or the like.

聴診医師側機器のジョイスティック装置53は、医師がジョイスティックを操作すると、操作指示受信を意味する全てのLEDが点滅する。そして、医師がジョイスティックを傾ける操作をすると、医師がジョイスティックを傾けた方向のLEDが点滅する。 In the joystick device 53 of the auscultation doctor's equipment, when the doctor operates the joystick, all the LEDs blink, indicating that an operation instruction has been received. Then, when the doctor tilts the joystick, the LED in the direction in which the doctor tilts the joystick blinks.

医師がジョイスティックを8方向のうちのいずれかの方向に傾ける操作を行うと、対応するリモート患者側機器のジョイスティック装置の移動方向指示LEDが点灯し患者に移動方向を指示することができる。医師がジョイスティックを回転させると、音量が調整される。
医師がジョイスティックをプッシュすると、低音域(心臓音等)、高音域(肺呼吸音等)の切り替えができる。
When the doctor tilts the joystick in any of the eight directions, the movement direction indication LED of the joystick device of the corresponding remote patient-side device lights up, allowing him to instruct the patient in the movement direction. When the doctor rotates the joystick, the volume is adjusted.
By pushing the joystick, the doctor can switch between low-frequency sounds (such as heart sounds) and high-frequency sounds (such as lung breathing sounds).

リモート患者側機器であるマイク付きの聴診器54は、上部から見ると円形の部位を有し、その円形の部位の中央部にスピーカを配置し、スピーカの周囲8方向(放射状)に三角形状のLEDを配置したものである。聴診器54本体の側面には、応答用のマイクが配置されている。 The stethoscope 54 with a microphone, which is a remote patient-side device, has a circular part when viewed from the top, a speaker is placed in the center of the circular part, and triangular parts are arranged in eight directions (radially) around the speaker. It is equipped with LEDs. A response microphone is arranged on the side of the stethoscope 54 body.

通常、リモート聴診器等を遠隔医療で使用する場合、医師からの会話による指示で聴診器の操作を患者にしてもらうが、会話の操作指示では医師の意図する聴診位置を正確に支持することが難しく、聴診診断を円滑に行うのが難しいという課題があった。 Normally, when a remote stethoscope is used for telemedicine, the patient is asked to operate the stethoscope based on conversational instructions from the doctor, but the conversational instructions do not accurately support the doctor's intended auscultation position. The problem was that it was difficult to perform auscultation diagnosis smoothly.

このIoT聴診システムの機能は、以下の「1」乃至「8」の機能を有する。
具体的には、「1」リアルタイムバイタル波形データ送信機能、「2」装置の移動を検知するモーションセンサ、「3」方向を指示するリモート操作できる矢印LED、「4」医師の指示等の音声を出力するスピーカ、応答用マイク、「5」近距離無線通信を用いてスマートフォン、ルータに接続する機能、「6」近距離無線通信網と広域無線通信のIP接続機能により2つのジョイスティック装置間で遠距離リモート通信を可能とする機能、「7」非接触充電器での充電機能(機器に触らずに済むので衛生的)、「8」バイタル波形解析用ソフトウェアでの聴診補助及びデータ記録機能である。
The functions of this IoT auscultation system include the following functions "1" to "8".
Specifically, ``1'' real-time vital waveform data transmission function, ``2'' motion sensor that detects movement of the device, ``3'' arrow LED that can be remotely operated to indicate direction, and ``4'' voice of doctor's instructions, etc. Output speaker, response microphone, ``5'' function to connect to smartphones and routers using short-range wireless communication, ``6'' IP connection function for short-range wireless communication network and wide area wireless communication to connect two joystick devices over long distances. ``7'' Charging function with a non-contact charger (hygienic as you don't have to touch the device); ``8'' Auscultation assistance and data recording function using vital waveform analysis software. .

本実施形態のIoT聴診システムでは、聴診医師側機器のジョイスティック装置53のジョイスティックで、患者側の聴診器の移動方向の指示操作を行う。
医師は、例えば聴診したい部位の移動方向にジョイスティックを傾ける。すると、患者側に配置されている聴診器54のLEDが方向を知らせる。
患者は、LEDの点灯方向に、聴診器を移動させる。
医師は、会話機能を使用して「強く押す」、「もう少し右」等の会話で細かい指示を出すことができる。
また、医師は、ジョイスティック装置53をプッシュすることにより、低音域(心臓音等)と、高音域(肺呼吸音等)との切り替えを行うことができる。これは、通常の聴診器の表と裏での聴診と同じである。
医師は、ジョイスティック装置53のジョイスティックの軸を回転させるようにジョイスティックを回すことにより、聴診器の音量のボリュームを調整できる。
In the IoT auscultation system of this embodiment, the joystick of the joystick device 53 of the auscultation doctor's device is used to instruct the direction of movement of the patient's stethoscope.
For example, the doctor tilts the joystick in the direction of movement of the part he wants to auscultate. Then, the LED of the stethoscope 54 placed on the patient side informs the direction.
The patient moves the stethoscope in the direction in which the LED lights up.
Doctors can use the conversation function to give detailed instructions such as "push harder" or "a little more to the right."
Further, by pushing the joystick device 53, the doctor can switch between a low frequency range (such as heart sounds) and a high frequency range (such as lung breathing sounds). This is the same as auscultation using the front and back sides of a regular stethoscope.
The physician can adjust the volume of the stethoscope by rotating the joystick to rotate the joystick axis of the joystick device 53.

ここで、図6を参照してIoT聴診システムの各機器の動作を説明する。
図6は、図5のIoT聴診システムの各機器の動作を示す図である。
IoT聴診システムにおいて、図6に示すように、リモート患者側機器であるマイク付きの聴診器54は、スマートフォン61とBluetooth通信(例えばBLE等)により接続される。
聴診音は、Bluetooth Audioを使用して当該聴診器54からスマートフォン61へ伝送される。スマートフォン61は、インストールされた録音及び波形解析アプリ(汎用)により波形を解析することができる。
Here, the operation of each device of the IoT auscultation system will be explained with reference to FIG.
FIG. 6 is a diagram showing the operation of each device of the IoT auscultation system of FIG. 5.
In the IoT auscultation system, as shown in FIG. 6, a stethoscope 54 with a microphone, which is a remote patient-side device, is connected to a smartphone 61 via Bluetooth communication (for example, BLE, etc.).
The auscultation sound is transmitted from the stethoscope 54 to the smartphone 61 using Bluetooth Audio. The smartphone 61 can analyze waveforms using an installed recording and waveform analysis application (general purpose).

このように実施形態のIoT聴診システムによれば、オンライン診療において、医師側にジョイスティック装置53を配置し、このジョイスティック装置53の操作に従動するマイク付きの聴診器54を患者側に配置することで、医師による聴診器54の移動指示を患者に的確に伝達できるようにしたことで、遠隔による聴診を実現することができる。 As described above, according to the IoT auscultation system of the embodiment, in online medical treatment, the joystick device 53 is placed on the doctor's side, and the stethoscope 54 with a microphone that follows the operation of the joystick device 53 is placed on the patient's side. Since the doctor's instruction to move the stethoscope 54 can be accurately transmitted to the patient, remote auscultation can be realized.

次に、図7を参照して、上述した本サービスの提供を実現化させる情報処理システム、即ち本発明の情報処理装置の一実施形態に係るサーバを含む、情報処理システムの構成について説明する。
図7は、本発明の情報処理装置の一実施形態に係るサーバを含む、情報処理システムの構成の一例を示す図である。
Next, with reference to FIG. 7, the configuration of an information processing system that realizes the provision of the above-described service, that is, an information processing system including a server according to an embodiment of the information processing apparatus of the present invention will be described.
FIG. 7 is a diagram illustrating an example of the configuration of an information processing system including a server according to an embodiment of the information processing apparatus of the present invention.

図7に示す情報処理システムは、サーバ1と、ユーザ端末2と、専門家端末3とを含むように構成されている。
サーバ1、ユーザ端末2、及び専門家端末3の夫々は、インターネット等の所定のネットワークNを介して相互に通信可能に接続されている。
The information processing system shown in FIG. 7 is configured to include a server 1, a user terminal 2, and an expert terminal 3.
The server 1, user terminal 2, and expert terminal 3 are each connected to be able to communicate with each other via a predetermined network N such as the Internet.

サーバ1は、サービス提供者Gにより管理される情報処理装置である。サーバ1は、ユーザ端末2、及び専門家端末3の夫々と適宜通信をしながら、本サービスを実現するための各種処理を実行する。 The server 1 is an information processing device managed by a service provider G. The server 1 executes various processes for realizing this service while appropriately communicating with each of the user terminal 2 and the expert terminal 3.

ユーザ端末2は、患者1により操作される情報処理装置である。ユーザ端末2は、例えばパーソナルコンピュータ、スマートフォン、タブレット等で構成される。 The user terminal 2 is an information processing device operated by the patient 1. The user terminal 2 is composed of, for example, a personal computer, a smartphone, a tablet, or the like.

専門家端末3は、医師により操作される情報処理装置である。専門家端末3は、例えばパーソナルコンピュータ、スマートフォン、タブレット等で構成される。 The expert terminal 3 is an information processing device operated by a doctor. The expert terminal 3 is composed of, for example, a personal computer, a smartphone, a tablet, or the like.

ユーザ端末2、及び専門家端末3の夫々には、本サービスの利用者向けの専用のアプリケーションソフトウェア(以下、「専用アプリ」と呼ぶ)をインストールすることができる。これにより、患者、及び医師の夫々は、専用アプリがインストールされたユーザ端末2、及び専門家端末3の夫々を用いて本サービスを利用することができる。
また、患者、及び医師の夫々は、ユーザ端末2、及び専門家端末3の夫々のブラウザ機能により表示される、専用サイトにアクセスすることで本サービスを利用することもできる。
Dedicated application software for users of this service (hereinafter referred to as "dedicated application") can be installed on each of the user terminal 2 and the expert terminal 3. Thereby, each of the patient and the doctor can use this service using each of the user terminal 2 and the expert terminal 3 in which the dedicated application is installed.
Furthermore, each of the patient and the doctor can also use this service by accessing a dedicated site displayed by the browser function of the user terminal 2 and the expert terminal 3, respectively.

なお、以下、断りのない限り、「患者がユーザ端末2を操作する」と表現している場合、それは、次のいずれかを意味している。即ち、患者が、ユーザ端末2にインストールされた専用アプリを起動して各種操作を行うこと、又はユーザ端末2のブラウザ機能により表示される専用サイトにアクセスして本サービスを利用することを意味している。
また、「医師が専門家端末3を操作する」と表現している場合、それは、次のいずれかを意味している。即ち、医師が、専門家端末3にインストールされた専用アプリを起動して各種操作を行うこと、又は専門家端末3のブラウザ機能により表示される専用サイトにアクセスして本サービスを利用することを意味している。
In addition, unless otherwise specified, when the expression "the patient operates the user terminal 2" is used, it means any of the following. In other words, this means that the patient launches a dedicated application installed on the user terminal 2 and performs various operations, or accesses a dedicated site displayed by the browser function of the user terminal 2 and uses this service. ing.
Furthermore, when the phrase "a doctor operates the expert terminal 3" is used, it means one of the following. In other words, doctors are not allowed to use this service by launching a dedicated application installed on the expert terminal 3 and performing various operations, or by accessing a dedicated site displayed by the browser function of the expert terminal 3. It means.

図8は、図7に示した情報処理システムのうちサーバのハードウェア構成の一例を示すブロック図である。 FIG. 8 is a block diagram showing an example of the hardware configuration of a server in the information processing system shown in FIG. 7.

サーバ1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、入力部16と、出力部17と、記憶部18と、通信部19と、ドライブ20とを備えている。 The server 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input/output interface 15, an input section 16, and an output section 17. , a storage section 18, a communication section 19, and a drive 20.

CPU11は、ROM12に記録されているプログラム、又は、記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 11 executes various processes according to programs recorded in the ROM 12 or programs loaded into the RAM 13 from the storage section 18 .
The RAM 13 also appropriately stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、入力部16、出力部17、記憶部18、通信部19及びドライブ20が接続されている。 The CPU 11, ROM 12, and RAM 13 are interconnected via a bus 14. An input/output interface 15 is also connected to this bus 14 . An input section 16 , an output section 17 , a storage section 18 , a communication section 19 , and a drive 20 are connected to the input/output interface 15 .

入力部16は、例えばキーボード等により構成され、各種情報を入力する。
出力部17は、液晶等のディスプレイやスピーカ等により構成され、各種情報を画像や音声として出力する。
記憶部18は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部19は、インターネットを含むネットワークNを介して他の装置(例えば図4のユーザ端末2、及び専門家端末3等)との間で通信を行う。
The input unit 16 includes, for example, a keyboard, and inputs various information.
The output unit 17 includes a display such as a liquid crystal display, a speaker, and the like, and outputs various information as images and sounds.
The storage unit 18 is composed of a DRAM (Dynamic Random Access Memory) or the like, and stores various data.
The communication unit 19 communicates with other devices (for example, the user terminal 2 and the expert terminal 3 in FIG. 4) via a network N including the Internet.

ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア30が適宜装着される。ドライブ20によってリムーバブルメディア30から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。
また、リムーバブルメディア30は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。
A removable medium 30 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately installed in the drive 20. The program read from the removable medium 30 by the drive 20 is installed in the storage unit 18 as necessary.
Further, the removable medium 30 can also store various data stored in the storage section 18 in the same manner as the storage section 18.

なお、図示はしないが、図7のユーザ端末2及び専門家端末3も、図8に示すハードウェア構成と基本的に同様の構成を有することができる。従って、ユーザ端末2及び専門家端末3のハードウェア構成の説明については省略する。
なお、ユーザ端末2及び専門家端末3には、リモート会議を実施するためのハードウェアや機能が搭載されているものとする。
具体的には、ユーザ端末2には、例えばフルHDから8K画質への切替機能やズーム機能等のように、撮像する画像を高画質化する機能をサポートするカメラ(撮像装置)とマイクが搭載又は外部接続されているものとする。専門家端末3には、一般的な画質のカメラ(撮像装置)とマイクが搭載又は外部接続されているものとする。
Although not illustrated, the user terminal 2 and expert terminal 3 in FIG. 7 can also have basically the same hardware configuration as the hardware configuration shown in FIG. 8. Therefore, description of the hardware configurations of the user terminal 2 and the expert terminal 3 will be omitted.
It is assumed that the user terminal 2 and the expert terminal 3 are equipped with hardware and functions for conducting a remote conference.
Specifically, the user terminal 2 is equipped with a camera (imaging device) and a microphone that support functions to improve the quality of captured images, such as a switching function from full HD to 8K image quality, a zoom function, etc. or externally connected. It is assumed that the expert terminal 3 is equipped with or externally connected to a camera (imaging device) of general image quality and a microphone.

このような図8のサーバ1の各種ハードウェアと、サーバ1にインストールされた各種ソフトウェアとの協働により、サーバ1におけるオンライン診療に関する処理を含む各種処理の実行が可能になる。その結果、サービス提供者Gは、医師及び患者に対して上述の本サービスを提供することができる。
ここで、オンライン診療に関する処理とは、上述の本サービスを提供するために実行される処理であって、例えば医師により患者に対するオンライン診療がなされる一連の処理をいう。
Through cooperation between the various hardware of the server 1 shown in FIG. 8 and the various software installed on the server 1, it becomes possible for the server 1 to execute various processes including processes related to online medical treatment. As a result, the service provider G can provide the above-described service to doctors and patients.
Here, the processing related to online medical treatment is a process executed to provide the above-mentioned service, and refers to a series of processes in which, for example, a doctor performs online medical treatment for a patient.

以下、図9を参照して、本実施形態に係るサーバ1において実行される、オンライン診療に関する処理を実行するための機能的構成について説明する。
図9は、図7のサーバを含む情報処理システムの機能的構成のうちオンライン診療に関する処理を実行するための機能的構成の一例を示すブロック図である。
Hereinafter, with reference to FIG. 9, a functional configuration for executing processing related to online medical treatment, which is executed in the server 1 according to the present embodiment, will be described.
FIG. 9 is a block diagram illustrating an example of a functional configuration of an information processing system including the server of FIG. 7 for executing processing related to online medical treatment.

図9に示すように、サーバ1のCPU11においては、オンライン診療に関する処理が実行される場合、ユーザ画像送信部101と、ユーザ許可受付部102と、特定部位画像送信部103と、バイタル情報送信部104と、専門家画像送信部105と、対話内容表示部106と、専門家文書生成部107と、発話支援部108と、判断支援部109と、オンライン診療機能部110とが機能する。 As shown in FIG. 9, in the CPU 11 of the server 1, when processing related to online medical treatment is executed, a user image transmitting section 101, a user permission receiving section 102, a specific region image transmitting section 103, and a vital information transmitting section 104, an expert image transmission section 105, a dialogue content display section 106, an expert document generation section 107, a speech support section 108, a judgment support section 109, and an online medical treatment function section 110.

また、サーバ1の記憶部18の一領域には、対話DB181が設けられている。
対話DB181には、ユーザ情報と、専門家情報と、患者のカルテの情報(患者IDに対応付けられた診療情報)、オンライン診療で夫々の端末から取得される動画の音声から抽出されるテキスト情報と、患者や医師のジェスチャーに対応するシステム動作のリストと、キーワードに対する医療用語の辞書と、音声をテキストへ変換するための音声テキスト変換テーブルと、所定のキーワード(例えば目、胃、胸、痛い、XX時間前、YY日前等)と、問診した患者に対して医師が発するべき発話内容に関する情報が登録された辞書と、医師と患者の対話情報(例えば医師と患者双方の発話内容や画像情報等)、ユーザ端末2から得られる患者のバイタル情報(聴診器54から得られる心拍数や心音、呼吸音、視線の動き等)、専門家文書(患者夫々のカルテ等)が記憶されており、必要に応じて読み出し可能である。
Furthermore, a dialogue DB 181 is provided in one area of the storage unit 18 of the server 1 .
The dialogue DB 181 includes user information, expert information, patient medical record information (medical information associated with patient ID), and text information extracted from the audio of videos obtained from each terminal during online medical treatment. a list of system actions corresponding to patient and doctor gestures; a dictionary of medical terms for keywords; a speech-to-text conversion table for converting speech to text; , XX hours ago, YY days ago, etc.), a dictionary that stores information about the content of utterances that the doctor should say to the patient during the interview, and dialogue information between the doctor and the patient (for example, utterances and image information from both the doctor and the patient). etc.), patient vital information obtained from the user terminal 2 (heart rate, heart sounds, breathing sounds, eye movement, etc. obtained from the stethoscope 54), and expert documents (medical records of each patient, etc.) are stored. It can be read out as needed.

ユーザ情報は、例えば患者に関する情報であり、患者の氏名、住所、連絡先等と患者固有の識別情報(患者ID)とが対応付けられた情報である。
専門家情報は、例えば医師に関する情報であり、医師の氏名と医師固有の識別情報(医師ID)とが対応付けられた情報である。
The user information is, for example, information about a patient, and is information in which the patient's name, address, contact information, etc. are associated with patient-specific identification information (patient ID).
The expert information is, for example, information about a doctor, and is information in which the name of the doctor is associated with identification information unique to the doctor (doctor ID).

システム動作のリストには、医師からの画像切替依頼(問い合わせ)に対して患者が8K映像の送信を許可する文言やジェスチャーと、これらの文言やジェスチャーに対応するシステム動作としてカメラ映像を2K(又は4K)から8Kへ切り替える動作等がユーザ許可情報として設定されている。 The list of system actions includes text and gestures that allow the patient to transmit 8K video in response to an image switching request (inquiry) from the doctor, and system actions that allow the patient to transmit 8K video (or The operation of switching from 4K) to 8K is set as user permission information.

システム動作のリストには、例えば右手を上げるジェスチャーに対して、システムの動作として、1つ前の挙動を許可する、右手を下げるジェスチャーに対して、システムの動作として、1つ前の挙動を中止する等が登録されている。
例えば患者の画像を高品質の8K映像に切り替えて送信することが事前に準備されていた場合は、右手を上げるジェスチャーにより8K映像の送信が許可されたことになり、特定部位画像送信部103により8K映像が送信される。
For example, in the list of system actions, for a gesture that raises the right hand, the system action is to allow the previous action, and for a gesture that lowers the right hand, the system action is to cancel the previous action. etc. are registered.
For example, if it has been prepared in advance to switch the patient's image to a high-quality 8K video and transmit it, the gesture of raising the right hand indicates that transmission of the 8K video is permitted, and the specific region image transmitting unit 103 8K video is transmitted.

また、システム動作のリストに、所定の条件(8K映像切替中に軌跡送信等の文言や右手を横にするジェスチャー等)を満たしたことに応じて、患者の患部(目の瞳孔の画像)を追尾し、その部位(視線)の動きの軌跡(画像)を送信する、というシステム動作が設定されている。この場合、医師が上記文言を発した場合や上記ジェスチャーをした場合に、視線の動きの軌跡(画像)が専門家端末3に送信される。 In addition, in the list of system operations, the patient's affected area (image of the pupil of the eye) is displayed in response to meeting certain conditions (words such as transmitting a trajectory while switching 8K video, gesture of turning the right hand sideways, etc.). The system operation is set to track and transmit the trajectory (image) of the movement of that part (line of sight). In this case, when the doctor utters the above-mentioned words or makes the above-mentioned gesture, the locus (image) of the movement of the line of sight is transmitted to the expert terminal 3.

ユーザ画像送信部101は、ユーザ端末2から患者の顔面を含む画像(例えば胸像画像等)の送信要求を受け付けたことに応じて、当該画像を専門家端末3に送信する。
具体的には、患者と医者が夫々の端末にオンライン診療の画面を表示させてログインし、オンライン診療が開始されると、ユーザ画像送信部101は、ユーザ端末2から送信されてきた患者の画像を受信し、受信された画像を送信先の専門家端末3に送信する。
The user image transmitting unit 101 transmits the image to the expert terminal 3 in response to receiving a request from the user terminal 2 to transmit an image including a patient's face (for example, a bust image, etc.).
Specifically, when the patient and the doctor display the online medical treatment screen on their respective terminals and log in to start the online medical treatment, the user image transmission unit 101 transmits the patient's image transmitted from the user terminal 2. and transmits the received image to the destination expert terminal 3.

ユーザ許可受付部102は、患者の患部(例えば目等)の8K映像を専門家端末3に送信するための許可の指示をユーザ端末2から受け付ける。
具体的には、専門家端末3の画面の8K画像送信許可ボタン(8Kボタン等)が患者により操作されると、そのボタン操作を、高画質化の許可を示す指示として受け付ける。
The user permission reception unit 102 receives from the user terminal 2 an instruction for permission to transmit 8K video of a patient's affected area (for example, the eye) to the expert terminal 3.
Specifically, when an 8K image transmission permission button (8K button, etc.) on the screen of the expert terminal 3 is operated by the patient, the button operation is accepted as an instruction indicating permission for higher image quality.

特定部位画像送信部103は、許可の指示を受け付けたことに応じて、患者の目の8K映像を専門家端末3に送信する。
具体的には、特定部位画像送信部103は、例えば8Kボタンの操作を受け付けたこと等の所定の条件を満たしたことに応じて、例えば患者の目の8K映像等の特定部位の画像を送信する。所定の条件を満たしたことには、トリガの発生も含まれる。
この他、許可の指示としては、例えば専門家端末3から所定の発話を受け付けたこと、所定のジェスチャーを検知したこと、所定のボタン(8Kボタン等)の操作を受け付けたこと等がある。
また、特定部位画像送信部103は、所定の条件を満たしたこと又はトリガの発生に応じて患者の視線の動きの軌跡に関する画像を送信する。ここでの所定の条件とは、例えばユーザ端末2の画面の視線トラッキングボタンが患者によって操作されたこと等である。
The specific region image transmitting unit 103 transmits the 8K video of the patient's eyes to the expert terminal 3 in response to receiving the permission instruction.
Specifically, the specific region image transmitting unit 103 transmits an image of a specific region, such as an 8K video of the patient's eyes, in response to a predetermined condition being met, such as receiving an 8K button operation. do. Satisfying the predetermined condition also includes the occurrence of a trigger.
Other permission instructions include, for example, receiving a predetermined utterance from the expert terminal 3, detecting a predetermined gesture, and accepting an operation of a predetermined button (such as an 8K button).
In addition, the specific region image transmitting unit 103 transmits an image related to the locus of the patient's line of sight movement in response to the satisfaction of a predetermined condition or the occurrence of a trigger. The predetermined condition here is, for example, that the eye tracking button on the screen of the user terminal 2 has been operated by the patient.

バイタル情報送信部104は、例えば、所定の条件を満たしたことに応じて患者のバイタル情報(例えば患者の心拍数や呼吸数、体温等)を専門家端末3へ送信する。
ここで、所定の条件は、例えば専門家端末3から所定の発話(例えば呼吸数を計るので、8K映像に切り替えていただいて宜しいですか?等)を受け付けたこと、所定のジェスチャー(例えば手を上げる等)を検知したこと、所定のボタン操作(例えば8Kボタンの操作)を受け付けたこと等のうちいずれか1以上である。
The vital information transmitting unit 104 transmits the patient's vital information (for example, the patient's heart rate, breathing rate, body temperature, etc.) to the expert terminal 3 in response to, for example, satisfying a predetermined condition.
Here, the predetermined conditions include, for example, receiving a predetermined utterance from the expert terminal 3 (e.g., "Is it okay if I switch to 8K video because I am going to measure your breathing rate?"), and receiving a predetermined gesture (e.g., handing a hand). This is any one or more of the following: detecting a button (such as raising the button), or receiving a predetermined button operation (for example, an 8K button operation).

専門家画像送信部105は、専門家端末3から医師の顔面を含む画像の送信要求を受け付けたことに応じて、当該画像をユーザ端末2に送信する。
具体的には、患者と医者が夫々の端末にオンライン診療の画面を表示させてログインし、オンライン診療が開始されると、専門家画像送信部105は、専門家端末3から送信されてきた医師の画像を受信し、受信された画像を送信先のユーザ端末2に送信する。
The expert image transmitting unit 105 transmits the image to the user terminal 2 in response to receiving a request from the expert terminal 3 to transmit an image including the doctor's face.
Specifically, when the patient and the doctor display the online medical treatment screen on their respective terminals and log in to start the online medical treatment, the expert image transmitting unit 105 transmits the doctor's image transmitted from the expert terminal 3. and transmits the received image to the destination user terminal 2.

対話内容表示部106は、患者及び医師の発話情報を受け付けたことに応じて、当該発話情報をテキスト情報として、患者のユーザ端末2及び専門家端末3に出力する。
具体的には、対話内容表示部106は、対話DB181の音声テキスト変換テーブルを参照して、受け付けた音声データを対応するテキストデータに変換して、患者のユーザ端末2及び医師の専門家端末3に夫々チャット形式で(画面の左右にテキストを分けて表示(図11参照))出力する。
また、対話内容表示部106は、テキスト情報のうち所定のキーワード(例えば目の奥が痛い等)を抽出して専門家端末3の画面に出力、又はそのキーワードの部分を強調したテキスト情報を専門家端末3の画面に出力する。
これにより、医師は、患者が目の奥が痛い等の所定のキーワードを見逃すことなく、発話内容から問診を進め、患部に対する処置や薬の投与等を検討し提示することができる。
In response to receiving the utterance information from the patient and the doctor, the dialogue content display unit 106 outputs the utterance information as text information to the patient's user terminal 2 and the expert terminal 3.
Specifically, the dialogue content display unit 106 refers to the audio-text conversion table in the dialogue DB 181, converts the received audio data into corresponding text data, and sends the data to the patient's user terminal 2 and the doctor's expert terminal 3. The text is output in chat format (text is displayed separately on the left and right sides of the screen (see Figure 11)).
Further, the dialogue content display unit 106 extracts a predetermined keyword (for example, the back of the eye hurts) from the text information and outputs it on the screen of the expert terminal 3, or displays text information with the keyword portion emphasized. Output to the screen of home terminal 3.
As a result, the doctor can proceed with the interview based on the content of the patient's utterances, and consider and suggest treatment for the affected area, administration of medicine, etc., without missing a predetermined keyword such as the patient's pain in the back of the eye.

専門家文書生成部107は、対話内容表示部106により抽出された所定のキーワード(例えば目、胃、胸、痛い、XX時間前、YY日前等)に基づいて、カルテ等の所定の専門家文書を生成する。
具体的には、専門家文書生成部107は、対話内容表示部106により抽出された所定のキーワード(例えば目、胃、胸、痛い、XX時間前、YY日前等)と診察中の患者のユーザIDに基づいて、対話DB181を検索し、患者の診察情報を読み出して患者のカルテ等の所定の専門家文書を生成する。患者が初診であれば患者との対話で取得された患者の情報から患者のカルテを新規作成する。
このように、抽出された目、胃、胸、痛い、XX時間前、YY日前等の所定のキーワードに基づいて、医師は、患者に対してカルテを提示しながら対話を進めることができる。
The expert document generation unit 107 generates a predetermined expert document such as a medical record based on a predetermined keyword (for example, eyes, stomach, chest, pain, XX hours ago, YY days ago, etc.) extracted by the dialogue content display unit 106. generate.
Specifically, the expert document generation unit 107 uses predetermined keywords (for example, eyes, stomach, chest, pain, XX hours ago, YY days ago, etc.) extracted by the dialogue content display unit 106 and the user of the patient under examination. Based on the ID, the dialog DB 181 is searched, the patient's examination information is read out, and a predetermined expert document such as the patient's medical record is generated. If the patient is seeing the patient for the first time, a new patient chart is created from the patient information obtained through dialogue with the patient.
In this way, based on the extracted predetermined keywords such as eyes, stomach, chest, pain, XX hours ago, YY days ago, etc., the doctor can proceed with the dialogue while presenting the patient's medical record.

発話支援部108は、患者又は医師の対話情報(例えば発話内容、画像情報、バイタル情報等)に基づいて、医師が発するべき発話内容に関する情報(問診のためのメッセージ等)を専門家端末3に送信する。
具体的には、発話支援部108は、患者又は医師の対話情報(例えば発話内容、画像情報、バイタル情報等)からキーワード(胸、苦しい等)を抽出して、キーワードに対応する疾患、疾病等に関する情報(例えば問診のためのメッセージ(聴診器で心拍や心音を確認する等の定型文等)を対話DB181の医学辞書より読み出し、医師が発するべき発話内容に関する情報として専門家端末3に送信することで、専門家端末3の画面に、問診のためのメッセージ(例えば「以下の疑いあり、大動脈弁狭窄症…等」、図2参照)を表示する。
これにより、経験の浅い医師が患者からの信頼関係が得られ難い場合に、問診のためのメッセージ等を参考にして、オンライン遠隔診療をすることで、経験の浅さを表に出すことなくオンライン遠隔診療を効率的に行うことができる。
The speech support unit 108 sends information regarding the content of speech that the doctor should utter (such as a message for interviewing) to the expert terminal 3 based on dialogue information of the patient or doctor (for example, content of speech, image information, vital information, etc.). Send.
Specifically, the speech support unit 108 extracts keywords (chest, pain, etc.) from patient or doctor interaction information (for example, speech content, image information, vital information, etc.) and identifies diseases, diseases, etc. that correspond to the keywords. (For example, messages for interview (such as fixed phrases such as checking the heartbeat and heart sounds with a stethoscope) are read from the medical dictionary of the dialogue DB 181 and sent to the expert terminal 3 as information regarding the content of speech that the doctor should utter. As a result, a message for an interview (for example, "Suspected: Aortic valve stenosis, etc.", see FIG. 2) is displayed on the screen of the expert terminal 3.
As a result, inexperienced doctors who have difficulty gaining a relationship of trust from patients can conduct online telemedicine without showing their inexperience by referring to messages for interviewing, etc. Telemedicine can be conducted efficiently.

判断支援部109は、患者又は医師の対話情報に基づいて、例えば患部の部位を特定する情報等、患者に関する判断情報を専門家端末3に送信する。
具体的には、判断支援部109は、患者又は医師の対話情報(例えば発話内容、画像情報、バイタル情報等)に基づいて、例えば患部の部位を特定する情報(心臓の画像等)、患者に関する判断情報(例えば病名や患部を特定した診断情報(「以下の疑いあり、大動脈弁狭窄症…等」)を専門家端末3に送信する。
これにより、経験の浅い医師が患者の患部の部位を特定する情報(心臓の画像等)を参考にして、遠隔でのオンライン遠隔診療をより効率的に行うことができる。
The judgment support unit 109 transmits judgment information regarding the patient, such as information specifying the affected area, to the expert terminal 3 based on the dialogue information of the patient or the doctor.
Specifically, the judgment support unit 109 generates, for example, information identifying the affected area (heart image, etc.), information related to the patient, based on dialogue information of the patient or doctor (for example, utterance content, image information, vital information, etc.). Judgment information (for example, diagnosis information specifying the name of the disease and the affected area ("suspected of the following, aortic stenosis, etc.") is transmitted to the expert terminal 3.
This allows an inexperienced doctor to more efficiently perform remote online telemedicine by referring to information (heart images, etc.) that identifies the patient's affected area.

オンライン診療機能部110は、オンライン診療に関する各種機能の処理を実行する。
なお、オンライン診療機能部110の各種機能の詳細については図10で詳述する。
具体的には、オンライン診療機能部110は、サーバ1のリモート会議提供手段が提供するリモート会議機能により、ユーザ端末2及び専門家端末3の夫々により取得される医師又は患者の動画像(映像)及び音声データを、リアルタイムで交換して医師と患者が円滑な会話が行える環境を提供する。
The online medical treatment function unit 110 executes processing of various functions related to online medical treatment.
Note that details of various functions of the online medical treatment function section 110 will be explained in detail with reference to FIG. 10.
Specifically, the online medical treatment function unit 110 uses the remote conference function provided by the remote conference providing means of the server 1 to collect moving images (videos) of the doctor or patient obtained by the user terminal 2 and the expert terminal 3, respectively. This provides an environment where doctors and patients can have smooth conversations by exchanging audio and voice data in real time.

ここで、図10を参照して、図9に示したサーバ1のオンライン診療機能部110の詳細機能について説明する。
図10は、図9に示したオンライン診療機能部110の詳細機能を説明するための図である。
図10に示すように、オンライン診療機能部110は、リモート会議機能、キーワード特定機能、会話内容表示機能、キーワード特定機能、誤認識語句誤り訂正機能、参考情報提示機能等を備える。
Here, with reference to FIG. 10, detailed functions of the online medical treatment function section 110 of the server 1 shown in FIG. 9 will be described.
FIG. 10 is a diagram for explaining detailed functions of the online medical treatment function section 110 shown in FIG. 9.
As shown in FIG. 10, the online medical treatment function unit 110 includes a remote conference function, a keyword identification function, a conversation content display function, a keyword identification function, an error correction function for misrecognized words, a reference information presentation function, and the like.

リモート会議におけるオンライン診療の中で行われる医師と患者の会話の内容は、会話内容表示機能により、サーバ1で音声認識手段(図示せず)によりテキスト化され、文字情報としてユーザ端末2及び専門家端末3の夫々の画面に表示される。 The content of the conversation between the doctor and the patient during online medical treatment in a remote conference is converted into text by the voice recognition means (not shown) on the server 1 using the conversation content display function, and is sent to the user terminal 2 and the expert as text information. displayed on each screen of the terminal 3.

サーバ1でのテキスト化の際に、キーワード特定機能によりテキスト化した会話の内容の中にキーワードが含まれるか否かがチェックされ、キーワードが含まれる場合、会話の内容はキーワードを強調表示するように表示色、フォント、文字サイズ等、表示仕様のいずれかを変更した後、ユーザ端末2及び専門家端末3の夫々の画面に表示される。 When converting into text on server 1, the keyword identification function checks whether the keyword is included in the text of the conversation, and if the keyword is included, the conversation is displayed with the keyword highlighted. After changing any of the display specifications such as display color, font, character size, etc., the information is displayed on the screens of the user terminal 2 and the expert terminal 3 respectively.

画面に表示された会話の内容にテキスト化の誤りが見つかった場合は、医師又は患者の操作に基づき、誤認識語句誤り訂正機能により正しい文字に訂正される。また、テキスト化した会話の内容の中に専門用語が含まれるか否かがチェックされ専門用語が含まれる場合は、参考情報提示機能により専門用語が検索可能なリンク先が張られた項目情報としてユーザ端末2及び専門家端末3の夫々の画面に表示されるので、医師又は患者はこのリンク先が張られた項目情報をクリックすることで検索が行われ、その専門用語の解説を確認することができる。 If an error in text is found in the content of the conversation displayed on the screen, the text will be corrected by the misrecognized phrase error correction function based on the doctor's or patient's operations. In addition, it is checked whether or not technical terms are included in the content of the text-based conversation, and if technical terms are included, the reference information display function displays item information with a link destination where the technical term can be searched. Since it is displayed on the respective screens of the user terminal 2 and the expert terminal 3, the doctor or patient can search by clicking on the item information to which this link is attached, and check the explanation of the technical term. I can do it.

医師又は患者は、テキスト化した会話の内容の中にカルテの作成に必要なキーワードが含まれる場合、そのキーワードをカルテ記述生成画面にドラッグ アンド ドロップするとカルテ記述生成機能によりカルテ作成に必要なカルテ記述が生成される。生成されたカルテ記述は、カルテ作成機能によりカルテ入力画面に転記されるので、医師はカルテ作成にかかる手間が省け、患者との会話により注力して診断に必要な情報を引き出すことが可能となる。 If the doctor or patient contains a keyword necessary for creating a medical record in the content of the conversation that has been converted into text, by dragging and dropping the keyword onto the medical record description generation screen, the medical record description generation function will generate the medical record description necessary for creating a medical record. is generated. The generated medical record description is transferred to the medical record input screen using the medical record creation function, which saves doctors the time and effort required to create medical records, allowing them to focus more on conversation with the patient and extract the information necessary for diagnosis. .

図11は、本発明の実施形態による会話内容表示機能により表示される表示画面の一例を示す図である。
図11を参照すると、ユーザ端末2及び専門家端末3の夫々の会話内容表示画面に表示される表示内容が示されており、医師と患者が問診の中で交わした会話の内容が、発言者がわかるようにして文字化されて表示される。発言者は、それぞれ別のアイコンとして会話内容の両側に分かれて表示されるため、一目で医師の発言と患者の発言を見分けることができる。
FIG. 11 is a diagram showing an example of a display screen displayed by the conversation content display function according to the embodiment of the present invention.
Referring to FIG. 11, the display contents displayed on the conversation contents display screens of the user terminal 2 and the expert terminal 3 are shown, and the contents of the conversation exchanged between the doctor and the patient during the interview are displayed by the speaker. will be transcribed and displayed in an easy-to-understand manner. Since the speakers are displayed as separate icons on both sides of the conversation, it is possible to distinguish between the doctor's statement and the patient's statement at a glance.

会話の内容は、逐次サーバ1によりテキスト化され、会話内容表示画面に追加表示されていく。新しい会話の内容は画面の下側に追加されてゆき、会話内容表示画面が会話内容の表示で埋まると、新しい会話の内容が最下段に追加される毎に最上段の古い会話が消えていくように表示される。会話内容表示画面は、上方にスクロールすることで消えてしまった古い会話の内容も再度確認する予ことができるように表示する。
医師も患者も会話内容表示画面により会話の内容を確認することができる。これにより言い足りなかったことや、聞き足りなかったことを発言したり聞き取ったりすることができるので問診の内容がより充実したものとなる。
The content of the conversation is sequentially converted into text by the server 1 and additionally displayed on the conversation content display screen. New conversation content is added to the bottom of the screen, and when the conversation content display screen is filled with conversation content, the old conversations at the top disappear as new conversation content is added to the bottom row. It will be displayed as follows. The conversation content display screen is displayed so that the contents of old conversations that have disappeared can be checked again by scrolling upward.
Both the doctor and the patient can check the content of the conversation on the conversation content display screen. This allows you to say or listen to things that you didn't say or hear enough, making the interview more fulfilling.

図12は、本発明の実施形態によるキーワード特定機能により表示される表示画面の一例を示す図である。
図12を参照すると、ユーザ端末2及び専門家端末3の夫々の会話内容表示画面に表示される表示内容としては、図11に示したものと内容的には変わらないが、この図12の例では、キーワードが例えば網掛けや太字、色替え等で強調されて表示されている。
強調表示されている「胃」、「痛み」、「鋭い痛み」等の文言は、患者の症状を表す重要な表現であり、病名等の原因を確定するために必要な情報である。
FIG. 12 is a diagram showing an example of a display screen displayed by the keyword specifying function according to the embodiment of the present invention.
Referring to FIG. 12, the display contents displayed on the conversation content display screens of the user terminal 2 and the expert terminal 3 are the same as those shown in FIG. 11, but the example shown in FIG. , the keywords are highlighted and displayed, for example, by shading, boldface, color change, etc.
The highlighted phrases such as "stomach,""pain," and "sharp pain" are important expressions expressing the patient's symptoms, and are information necessary to determine the cause of the disease.

会話の中に特に重要なキーワードが含まれない場合は、図12に示した例示図のように強調表示されたキーワードがない平易な表現で画面表示されるが、キーワードが含まれる場合は、図12のように画面表示される際、キーワードが目立つように表示される。 If a particularly important keyword is not included in the conversation, the screen will be displayed in plain language without any highlighted keywords, as shown in the example diagram shown in Figure 12, but if the keyword is included, the diagram will be displayed. When displayed on the screen as in 12, the keywords are displayed prominently.

患者は自分の発言の中でキーワードが強調されて表示されるため、医師に伝えるべき情報のうちどのような内容が重要であるかを把握することができ、そのキーワードにかかわる補足の情報についてさらに発言するきっかけとなり得る。 Keywords in their statements are highlighted and displayed, allowing patients to understand what information is important to convey to the doctor, and also to find out additional information related to the keyword. It can be an opportunity to speak out.

図13は、本発明の実施形態によるカルテ記述生成機能により表示される表示画面の一例を示す図である。
図13を参照すると、ユーザ端末2及び専門家端末3の夫々の会話内容表示画面、カルテ記述生成画面、カルテ入力画面が分割して表示されている。尚、会話内容表示画面は図中では縮小して示しているが、これは操作の説明を示すために縮小して示したものであり実施形態では、カルテ記述生成画面、カルテ入力画面の横に見やすい大きさで表示される。
FIG. 13 is a diagram showing an example of a display screen displayed by the medical record description generation function according to the embodiment of the present invention.
Referring to FIG. 13, the conversation content display screen, medical record description generation screen, and medical record input screen of the user terminal 2 and the expert terminal 3 are divided and displayed. Note that the conversation content display screen is shown in a reduced size in the figure, but this is shown in a reduced size to explain the operation. Displayed in an easy-to-read size.

会話内容表示画面には、図12の例と同様に「胃」、「痛み」、等のキーワードが強調表示されている。医師はキーワードのうちからカルテ作成に必要なキーワードを選択し、選択したキーワードをカルテ記述生成画面の中の対応する項目欄にドラッグ アンド ドロップすることにより、そのキーワードがカルテ記述生成画面に反映される。 Keywords such as "stomach" and "pain" are highlighted on the conversation content display screen, similar to the example of FIG. 12. The doctor selects the keywords necessary for chart creation from the keywords, drags and drops the selected keywords into the corresponding item field in the chart description generation screen, and the keywords are reflected in the chart description generation screen. .

カルテ記述生成画面は、カルテに入力する記載事項を生成するのを支援する画面であり、「症状」、「家族歴」、「旅行歴」、「薬物歴」などの大項目が用意され、更にそれぞれの大項目の中には小項目が用意されている。例えば「症状」欄では「症状、部位」、「始まり方、性質、開始時期、程度」等という小項目が用意されている。 The medical record description generation screen is a screen that supports the generation of items to be entered into the medical record, and includes major items such as "symptoms," "family history," "travel history," and "drug history." Small items are prepared within each large item. For example, in the "Symptoms" column, there are sub-items such as "Symptoms, location", "How it starts, nature, time of onset, severity", etc.

図13の例では会話内容表示画面の中の「胃」、「痛みます」のキーワードは「症状」欄の「症状、部位」の項目欄に、「6時間前」、「鋭い痛み」のキーワードは「症状」欄の「始まり方、性質、開始時期、程度」の項目欄に、ドラッグ アンド ドロップすることで必要なキーワードがカルテ記述生成画面に反映される。カルテ記述生成画面に反映されるキーワードは1つの症状に限らない。 In the example in Figure 13, the keywords ``stomach'' and ``pain'' in the conversation content display screen are added to the ``symptoms, site'' column of the ``symptoms'' column, and the keywords ``six hours ago'' and ``sharp pain'' are By dragging and dropping the required keywords into the ``How to begin, nature, time of onset, severity'' item column in the ``Symptoms'' column, the necessary keywords will be reflected on the medical record description generation screen. The keywords reflected on the medical record description generation screen are not limited to one symptom.

このため、サーバ1のカルテ作成機能は、カルテ記述生成画面に反映されたキーワードの反映された順番や時間に基づいてキーワードを整理し、カルテ記述を生成する。生成されたカルテ記述は、カルテ入力画面に転記される。カルテ記述生成画面に反映されるキーワードは、順番に並べただけでは正しい文の記述になるとは限らない。 For this reason, the medical record creation function of the server 1 organizes the keywords based on the order and time of the keywords reflected on the medical record description generation screen, and generates a medical record description. The generated medical record description is transferred to the medical record input screen. The keywords reflected on the medical record description generation screen do not necessarily result in correct sentence descriptions just by arranging them in order.

そこで、カルテ作成機能は、AI機能を備えることで、キーワードを含む正しい文の記述を生成するようにしてもよい。このとき「胃」を「上腹部」と置き換えるような用語変換機能を持つようにしてもよい。 Therefore, the medical record creation function may be provided with an AI function to generate correct sentence descriptions that include keywords. At this time, a term conversion function may be provided to replace "stomach" with "upper abdomen."

図14は、本発明の実施形態による参考情報提示機能により表示される表示画面の一例を示す図である。
図14を参照すると、ユーザ端末2及び専門家端末3の夫々の会話内容表示画面に表示される表示内容の一部が示され、医師の「胃潰瘍の原因はストレスというよりピロリ菌であるケースが多いです」という発言に対し、発言に含まれる専門用語などの参照用語「胃潰瘍」、「ピロリ菌」に反応して、医師の発言の下に「胃潰瘍」、「ピロリ菌」という項目情報が表示されている。「胃潰瘍」、「ピロリ菌」という項目情報にはそれぞれの解説記述が検索可能なリンクが張られている。
FIG. 14 is a diagram showing an example of a display screen displayed by the reference information presentation function according to the embodiment of the present invention.
Referring to FIG. 14, part of the display content displayed on the conversation content display screens of the user terminal 2 and the expert terminal 3 is shown, and a doctor's message ``The cause of gastric ulcers is Helicobacter pylori rather than stress.'' In response to the statement "There are many", the item information "gastric ulcer" and "H. pylori" is displayed below the doctor's statement in response to the reference terms "gastric ulcer" and "H. pylori", such as technical terms included in the statement. has been done. Item information such as ``gastric ulcer'' and ``Helicobacter pylori'' has links that allow you to search for explanations of each.

例えば「胃潰瘍」については解説の記述が内部コンテンツとして保存されている場合、医師又は患者が「胃潰瘍」という項目情報をクリックすると、保存されている「胃潰瘍」の解説の記述が画面に表示される。
また、例えば「ピロリ菌」が内部コンテンツとして保存されていない場合は、外部コンテンツとして検索可能なリンクが張られており、医師又は患者が「ピロリ菌」という項目情報をクリックすると、リンク先の「ピロリ菌」に関する解説の記述が画面に表示される。
For example, if the explanation for "stomach ulcer" is saved as internal content, when a doctor or patient clicks on the item information "stomach ulcer", the saved explanation for "stomach ulcer" will be displayed on the screen. .
For example, if "H. pylori" is not saved as internal content, a searchable link is provided as external content, and when a doctor or patient clicks on the item information "H. pylori", the linked " An explanatory statement about "H. pylori" is displayed on the screen.

これにより、患者は医師の説明だけではよく理解できない場合でも、解説の記述を参照して正しい知識を習得することができる。また医師の側でも適宜解説の記述を参照して患者に分かり易く解説することができる。 As a result, even if the patient cannot fully understand the information from the doctor's explanation alone, the patient can refer to the explanation and acquire correct knowledge. Furthermore, the doctor can appropriately refer to the explanatory notes and explain the information in an easy-to-understand manner to the patient.

図15は、本発明の実施形態による誤認識語句誤り訂正機能により表示される表示画面の一例を示す図である。
図15を参照すると、ユーザ端末2及び専門家端末3の夫々の会話内容表示画面に表示される表示内容の一部が示され、医師の「痛みの始まり方はどんな感じでしたか」との質問に対し、患者が「だんだん痛くなりました」と回答したところ、音声認識で誤認識されて「旦那痛くなりました」と表示された例が示される。本来「だんだん痛くなる」という表現は症状を表すキーワードとなる文言であるが、「だんだん」が「旦那」と誤認識されるとキーワードとして認識されない。
FIG. 15 is a diagram showing an example of a display screen displayed by the misrecognized word error correction function according to the embodiment of the present invention.
Referring to FIG. 15, part of the display contents displayed on the conversation content display screens of the user terminal 2 and the expert terminal 3 are shown, and the doctor's question ``How did the pain start?'' is shown. An example is shown in which when a patient answers a question, ``It's getting more and more painful,'' the voice recognition is misrecognized and the answer is ``My husband's getting more and more painful.'' Originally, the expression ``It's getting more and more painful'' is a keyword that represents a symptom, but if ``gradually'' is mistakenly interpreted as ``husband,'' it is not recognized as a keyword.

そこで、医師又は患者が誤認識を見つけるとマウスにより誤認識された文言を選択した状態で、「だんだん」と再度発音すると、誤認識語句誤り訂正機能により「旦那」が「だんだん」に修正される。その結果「だんだん痛くなりました」の部分がキーワードとして強調表示される。
なお、誤認識語句誤り訂正機能が訂正するのは、キーワードには限らず、会話の内容として発言と異なる誤認識語句が含まれる場合は、同様に選択して修正がなされる。このように後から修正ができるため、最終的に正しい問診の経過情報データとして保存することができる。
Therefore, when the doctor or patient finds a misrecognized word and selects the misrecognized word with the mouse and pronounces it again as "dandan," the misrecognized word error correction function corrects "husband" to "dandan." . As a result, the part "It's getting more and more painful" is highlighted as a keyword.
Note that the misrecognized phrase error correction function corrects not only keywords, but also if the content of the conversation includes a misrecognized phrase that is different from the utterance, it will be selected and corrected in the same way. Since it can be corrected later in this way, it can ultimately be saved as correct progress information data of the medical interview.

次に、図16を参照してオンライン診療が実施される際のサーバの動作を説明する。
図16は、図8、図9のサーバにおいて、オンライン診療に関する処理を実行する動作を示すフローチャートである。
Next, the operation of the server when online medical treatment is performed will be described with reference to FIG. 16.
FIG. 16 is a flowchart showing the operation of executing processing related to online medical treatment in the servers of FIGS. 8 and 9.

この場合、サーバ1では、図16のステップS11において、ユーザ画像送信部101は、ユーザ端末2から患者の顔面を含む画像の送信要求を受け付けたことに応じて、当該画像を専門家端末3に送信する。 In this case, in the server 1, in step S11 of FIG. Send.

ステップS12において、専門家画像送信部105は、専門家端末3から医師の顔面を含む画像の送信要求を受け付けたことに応じて、当該画像をユーザ端末2に送信する。 In step S12, the expert image transmitting unit 105 transmits the image to the user terminal 2 in response to receiving a request from the expert terminal 3 to transmit an image including the doctor's face.

ステップS13において、ユーザ許可受付部102は、患者の目の8K映像を専門家端末3に送信するための許可の指示をユーザ端末2から受け付ける。 In step S13, the user permission reception unit 102 receives an instruction for permission to transmit the 8K video of the patient's eyes to the expert terminal 3 from the user terminal 2.

ステップS14において、特定部位画像送信部103は、許可の指示を受け付けたことに応じて、患者の目の8K映像を専門家端末3に送信する。 In step S14, the specific region image transmitting unit 103 transmits the 8K video of the patient's eyes to the expert terminal 3 in response to receiving the permission instruction.

これにより、患者と医師がネットワークNを介して対話診療を行う中で、患者は自らの判断に基づいて医師に許可を与えることにより、例えば目の診療では患者の目の画像を8K画質で送信する。医師は、目の画像を8K画質で閲覧することで医師として患者の目についてあたかも目の前に居るように目視で診断することができるので、患者と医師との信頼関係を構築したうえで、患部の診断に必要な画像を医師に送信して医師の判断を仰ぐことができる。 As a result, while patients and doctors perform interactive medical treatment via Network N, the patient can transmit images of the patient's eyes in 8K quality for eye treatment by giving permission to the doctor based on his/her own judgment. do. By viewing images of the eyes in 8K quality, doctors can visually diagnose the patient's eyes as if they were right in front of them, so they can build a relationship of trust between patient and doctor. Images necessary for diagnosing the affected area can be sent to a doctor and the doctor can make a decision.

以上、本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものとみなす。 Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and modifications, improvements, etc. within the range that can achieve the purpose of the present invention are included in the present invention. regarded as.

例えば、上述の実施形態において、8K映像の例を説明したが、これ以外、例えば16K映像や32K映像等であってもよく、またカメラがズーム機能付きのものであればズーム動作等を組み合わせてもよい。 For example, in the above embodiment, an example of 8K video was explained, but other than this, for example, 16K video, 32K video, etc. may be used, and if the camera has a zoom function, zoom operation etc. may be combined. Good too.

上述の実施形態では、ユーザ画像送信部101は、ユーザ端末2から患者の顔面を含む画像の送信を受け付けたことに応じて、専門家端末3に画像を送信したが、これ以外であってもよく、ユーザの端末から前記ユーザの顔面を含む画像の送信を受け付けたことに応じて、前記専門家の端末に前記画像を送信すれば足りる。 In the above-described embodiment, the user image transmitting unit 101 transmits the image to the expert terminal 3 in response to receiving the transmission of the image including the patient's face from the user terminal 2. Often, it is sufficient to transmit the image to the expert's terminal in response to receiving the transmission of the image including the user's face from the user's terminal.

また、上述の実施形態では、ユーザ許可受付部102は、患者の目の画像であって8K画質を伴う8K映像を専門家端末3に送信するための許可をユーザ端末2から受け付けたが、これ以外であってもよく、ユーザの体の特定部位の画像であって所定の品質を伴う画像を前記専門家の端末に送信するための許可を前記ユーザの端末から受け付ければ足りる。 Furthermore, in the embodiment described above, the user permission receiving unit 102 receives permission from the user terminal 2 to transmit an 8K video with 8K image quality, which is an image of the patient's eyes, to the expert terminal 3. It is sufficient to receive permission from the user's terminal to transmit an image of a specific part of the user's body with a predetermined quality to the expert's terminal.

さらに、上述の実施形態では、特定部位画像送信部103は、許可を受け付けたことに応じて、患者の患部(目等)の8K映像を専門家端末3に送信したが、これ以外であってもよく、許可を受け付けたことに応じて、特定部位の所定の品質を伴う画像を専門家の端末に送信すれば足りる。 Further, in the above-described embodiment, the specific region image transmitting unit 103 transmits the 8K video of the patient's affected region (eyes, etc.) to the expert terminal 3 in response to receiving permission. It is sufficient to send an image of a specific region with a predetermined quality to the expert's terminal in response to acceptance of permission.

また、上述の実施形態では、専門家画像送信部105は、専門家端末3から医師の顔面を含む画像の送信を受け付けたことに応じて、ユーザ端末2に画像を送信したが、これ以外であってもよく、専門家の端末から前記専門家の顔面を含む画像の送信を受け付けたことに応じて、前記ユーザの端末に前記画像を送信すれば足りる。 Further, in the above-described embodiment, the expert image transmitting unit 105 transmits the image to the user terminal 2 in response to receiving the transmission of the image including the doctor's face from the expert terminal 3. It is sufficient that the image is transmitted to the user's terminal in response to receiving the transmission of the image including the expert's face from the expert's terminal.

また、上述の実施形態では、オンライン診療(医師による患者への遠隔問診)のサービスを説明したが、これ以外であってもよく、患者(ユーザ)の音声による心理分析、瞳孔のサイズの画像による心理分析、皮膚の温度による心理分析等のユーザの心理分析を行うサービスに適用してもよく、これらを視線分析やポリグラフによる分析と組み合わせたサービスを提供することができる。 In addition, in the above-described embodiment, a service of online medical treatment (remote interview by a doctor to a patient) was described, but services other than this may also be used, such as psychological analysis using the patient's (user's) voice, or using images of pupil size. The present invention may be applied to services that perform psychological analysis of users, such as psychological analysis and psychological analysis based on skin temperature, and it is possible to provide services that combine these with line-of-sight analysis and polygraph analysis.

また、図7に示すシステム構成、図8に示すサーバ1のハードウェア構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。 Further, the system configuration shown in FIG. 7 and the hardware configuration of the server 1 shown in FIG. 8 are merely examples for achieving the object of the present invention, and are not particularly limited.

また、図9に示す機能ブロック図は、例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロック及びデータベースを用いるのかは、特に図9の例に限定されない。 Further, the functional block diagram shown in FIG. 9 is merely an example and is not particularly limited. In other words, it is sufficient that the information processing system is equipped with a function that can execute the above-mentioned series of processes as a whole, and what kind of functional blocks and databases are used to realize this function can be determined by referring to the example in FIG. 9 in particular. Not limited.

また、機能ブロック及びデータベースの存在場所も、図9に限定されず、任意でよい。
例えば、図9の例において、上述のオンライン診療に関する処理はサーバ1側で行われる構成となっているが、これに限定されず、ユーザ端末2又は専門家端末3側で処理の少なくとも一部が行われてもよい。
即ち、処理の実行に必要となる機能ブロック及びデータベースは、サーバ1等の情報処理装置が備える構成となっているが、これは例示に過ぎない。サーバ1側に配置された機能ブロック及びデータベースの少なくとも一部を、ユーザ端末2又は専門家端末3等の情報処理装置が備える構成としてもよい。
Further, the locations of the functional blocks and the database are not limited to those shown in FIG. 9, and may be arbitrary.
For example, in the example of FIG. 9, the above-mentioned processing related to online medical treatment is performed on the server 1 side, but the configuration is not limited to this, and at least part of the processing is performed on the user terminal 2 or the expert terminal 3 side. May be done.
That is, the functional blocks and database necessary for executing the process are configured to be included in an information processing device such as the server 1, but this is merely an example. An information processing device such as the user terminal 2 or the expert terminal 3 may include at least a portion of the functional blocks and database located on the server 1 side.

また、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
Furthermore, the series of processes described above can be executed by hardware or by software.
Further, one functional block may be configured by a single piece of hardware, a single piece of software, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。
また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
When a series of processes is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer built into dedicated hardware.
Further, the computer may be a computer that can execute various functions by installing various programs, such as a server, a general-purpose smartphone, or a personal computer.

このようなプログラムを含む記録媒体は、広告主にプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態で広告主に提供される記録媒体等で構成される。 Recording media containing such programs not only consist of removable media (not shown) that is distributed separately from the device itself in order to provide the program to advertisers, but also include a recording medium that is pre-installed in the device body and is used to store advertisements. It mainly consists of provided recording media, etc.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
Note that in this specification, the step of writing a program to be recorded on a recording medium is not only a process that is performed chronologically in accordance with the order, but also a process that is not necessarily performed chronologically but in parallel or individually. It also includes the processing to be executed.
Furthermore, in this specification, the term system refers to an overall device composed of a plurality of devices, a plurality of means, and the like.

以上まとめると、本発明が適用される情報処理装置は、次のような構成を取れば足り、各種各様な実施形態を取ることができる。
即ち、本発明が適用される情報処理装置(例えば図9のサーバ1等)は、
通信ネットワークを介してユーザ(例えば患者等)と専門家(例えば医師等)との対話(例えばオンライン診療等)を支援する情報処理装置(例えば図9のサーバ1等)であって、
前記ユーザの端末(例えば図9のユーザ端末2等)から前記ユーザ(例えば患者等)の顔面を含む画像の送信を受け付けたことに応じて、前記専門家の端末(例えば図9の専門家端末3等)に前記画像を送信するユーザ画像送信手段(例えば図9のユーザ画像送信部101等)と、
前記専門家の端末(例えば図9の専門家端末3等)から前記専門家(例えば医師等)の顔面を含む画像の送信を受け付けたことに応じて、前記ユーザの端末(例えば図9のユーザ端末2等)に前記画像を送信する専門家画像送信手段(例えば図9の専門家画像送信部105等)と、
前記ユーザ(例えば患者等)の体の特定部位(例えば目等の患部)の画像であって所定の品質(例えば横7680画素×縦4320画素の解像度:8K画質等)を伴う画像(例えば8K映像等)を前記専門家の端末(例えば図9の専門家端末3等)に送信するための許可を前記ユーザの端末(例えば図9のユーザ端末2等)から受け付けるユーザ許可受付手段(例えば図9のユーザ許可受付部102等)と、
前記許可を受け付けたことに応じて、前記特定部位(例えば目等の患部)の画像(例えば8K映像等)を前記専門家の端末(例えば図9の専門家端末3等)に送信する特定部位画像送信手段(例えば図9の特定部位画像送信部103等)と、
を備える。
In summary, the information processing apparatus to which the present invention is applied only needs to have the following configuration, and can take various embodiments.
That is, an information processing device (for example, server 1 in FIG. 9) to which the present invention is applied,
An information processing device (e.g., server 1 in FIG. 9) that supports dialogue (e.g., online medical treatment, etc.) between a user (e.g., patient, etc.) and an expert (e.g., doctor, etc.) via a communication network,
In response to receiving the transmission of an image including the face of the user (e.g., patient, etc.) from the user's terminal (e.g., user terminal 2 in FIG. 9), the expert's terminal (e.g., the expert terminal in FIG. 9) a user image transmitting means (for example, the user image transmitting unit 101 in FIG. 9),
In response to receiving the transmission of an image including the face of the expert (for example, a doctor, etc.) from the expert's terminal (for example, the expert terminal 3 in FIG. 9), the user's terminal (for example, the user in FIG. 9) an expert image transmitting means (for example, the expert image transmitting unit 105 in FIG. 9) that transmits the image to the terminal 2, etc.;
An image (for example, 8K video) that is an image of a specific part of the body of the user (for example, a patient, etc.) (for example, an affected part such as an eye) with a predetermined quality (for example, a resolution of 7680 pixels horizontally x 4320 pixels vertically: 8K image quality, etc.) etc.) to the expert's terminal (for example, the expert terminal 3 in FIG. 9) from the user's terminal (for example, the user terminal 2 in FIG. 9). (user permission reception unit 102, etc.);
A specific part that transmits an image (for example, 8K video, etc.) of the specific part (for example, an affected part such as an eye) to the terminal of the expert (for example, the expert terminal 3 in FIG. 9) in response to receiving the permission. An image transmitting means (for example, the specific part image transmitting unit 103 in FIG. 9),
Equipped with.

このような構成によれば、ユーザ(例えば患者等)と専門家(例えば医師等)が通信ネットワークを介して対話を行う中で、ユーザ(例えば患者等)は自らの判断に基づいて専門家(例えば医師等)に許可を与えることにより、ユーザ(例えば患者等)の体の特定部位(例えば目等の患部)の画像を所定の品質(例えば8K画質等)で送信し、専門家(例えば医師等)は特定部位(例えば目等の患部)の画像を所定の品質(例えば8K映像等)で閲覧することで専門家(例えば医師等)としてユーザ(例えば患者等)の体の特定部位(例えば目等の患部)についての判断(例えば患部の診断等)をすることができるので、ユーザ(例えば患者等)と専門家(例えば医師等)との信頼関係を構築したうえで、専門家(例えば医師等)の判断に必要な画像を専門家(例えば医師等)に送信して専門家(例えば医師等)の判断を仰ぐことができる。
即ちユーザ(例えば患者等)は、自らの判断に基づいて専門家に許可を与えることにより、ユーザの体の特定部位(例えば目等の患部)の画像を送信するので、ユーザ(例えば患者等)と専門家(例えば医師等)との信頼関係に基づく対面相談(例えばオンライン遠隔診療等)を支援することができる。
この結果、ユーザ(例えば患者等)と専門家(例えば医師等)との信頼関係を築いた上で、遠隔での対面相談(例えばオンライン遠隔診療等)を実用に耐え得る形で実現することができる。
According to such a configuration, while a user (e.g., patient, etc.) and an expert (e.g., doctor, etc.) interact via a communication network, the user (e.g., patient, etc.) By granting permission to an expert (e.g. doctor, etc.), an image of a specific part of the user's (e.g. patient's) body (e.g. an affected area such as an eye) can be transmitted at a predetermined quality (e.g. 8K image quality, etc.) etc.) allows an expert (e.g. doctor, etc.) to view an image of a specific body part (e.g., an affected part of the eye, etc.) at a predetermined quality (e.g., 8K video, etc.). Since it is possible to make judgments (e.g., diagnosis of the affected part) regarding the affected part of the eye, etc., it is possible to make judgments (e.g., diagnosis of the affected part, etc.) after building a relationship of trust between the user (e.g., patient, etc.) and the expert (e.g., doctor, etc.). Images necessary for judgment by a doctor, etc. can be sent to an expert (for example, a doctor, etc.), and the expert (for example, a doctor, etc.) can make a judgment.
In other words, a user (e.g., a patient, etc.) sends an image of a specific part of the user's body (e.g., an affected area such as an eye) by giving permission to an expert based on his or her own judgment. It is possible to support face-to-face consultation (for example, online telemedicine, etc.) based on a relationship of trust between the patient and a specialist (for example, a doctor).
As a result, it is possible to build a relationship of trust between users (e.g., patients, etc.) and experts (e.g., doctors, etc.) and then realize remote face-to-face consultations (e.g., online telemedicine, etc.) in a practical manner. can.

上記情報処理装置(例えば図9のサーバ1等)は、
前記特定部位画像送信手段(例えば図9の特定部位画像送信部103等)は、所定の条件(例えば専門家端末3から所定の発話を受け付けたこと、所定のジェスチャーを検知したこと、所定のボタン操作を受け付けたこと等)を満たしたことに応じて前記特定部位の画像(例えば患者の目の8K映像等)を送信する。
これにより、医師が必要と感じたときに、所定の発話やボタン操作等をするだけで、目線の動き等臨床上見逃してはいけないユーザの状態を知ることができる。
The information processing device (for example, server 1 in FIG. 9) is
The specific part image transmitting means (for example, the specific part image transmitting unit 103 in FIG. 9) is configured to meet predetermined conditions (for example, receiving a predetermined utterance from the expert terminal 3, detecting a predetermined gesture, and pressing a predetermined button). The image of the specific region (for example, 8K video of the patient's eyes, etc.) is transmitted in response to the condition (such as acceptance of an operation) being satisfied.
As a result, when a doctor feels it necessary, he or she can learn about the user's condition, such as eye movements, which should not be overlooked clinically, simply by making a predetermined utterance or operating a button.

前記特定部位画像送信手段(例えば図9の特定部位画像送信部103等)は、所定の条件を満たしたこと又はトリガの発生(例えば専門家端末から所定の発話を受け付けたこと、所定のジェスチャーを検知したこと、所定のボタン操作を受け付けたこと等)に応じて前記ユーザの視線の動きの軌跡に関する画像を送信する。
これにより、専門家(例えば医師等)が必要と感じたときに、所定の発話やボタン操作等をするだけで、目線の動き等、臨床上見逃してはいけないユーザ(例えば患者等)の状態を視線の動きの軌跡の画像に基づいて知ることができ、より的確な診断を行うことができる。
The specific part image transmitting means (for example, the specific part image transmitting unit 103 in FIG. 9, etc.) transmits a message when a predetermined condition is satisfied or a trigger occurs (for example, a predetermined utterance is received from an expert terminal, a predetermined gesture is received, etc.). (detection, reception of a predetermined button operation, etc.), an image related to the locus of the movement of the user's line of sight is transmitted.
This allows experts (e.g., doctors, etc.) to monitor user (e.g., patients') conditions that should not be overlooked clinically, such as eye movements, simply by making predetermined utterances or button operations when they feel it is necessary. This information can be determined based on the image of the line of sight movement trajectory, allowing for more accurate diagnosis.

上記情報処理装置(例えば図9のサーバ1等)は、
所定の条件を満たしたこと(例えば専門家端末3から所定の発話を受け付けたこと、所定のジェスチャーを検知したこと、所定のボタン操作を受け付けたこと等)に応じて前記ユーザ(例えば患者等)のバイタル情報(例えば患者の心拍数や呼吸数、体温等)を送信するバイタル情報送信手段(例えば図9のバイタル情報送信部104等)、
をさらに備える。
これにより、医師が必要と感じたときに、所定の発話やボタン操作等をするだけで、臨床上見逃してはいけないユーザ(例えば患者等)のバイタル情報を知り、より的確な診断を行うことができる。
The information processing device (for example, server 1 in FIG. 9) is
The user (for example, a patient, etc.) in response to satisfying a predetermined condition (for example, receiving a predetermined utterance from the expert terminal 3, detecting a predetermined gesture, accepting a predetermined button operation, etc.) Vital information transmitting means (for example, the vital information transmitting unit 104 in FIG. 9) for transmitting vital information (for example, the patient's heart rate, breathing rate, body temperature, etc.);
Furthermore, it is equipped with.
This allows doctors to obtain vital information about users (e.g., patients) that should not be overlooked clinically, and make more accurate diagnoses, simply by making predetermined utterances or button operations when they feel it is necessary. can.

上記情報処理装置(例えば図9のサーバ1等)は、
前記ユーザ(例えば患者等)及び前記専門家(例えば医師等)の発話情報を受け付けたことに応じて、当該発話情報をテキスト情報として(音声データをテキストデータに変換して)、前記ユーザ(例えば患者等)及び前記専門家の端末(例えばユーザ端末2や専門家端末3等)に出力する対話内容表示手段(例えば図9の対話内容表示部106等)、
をさらに備える。
これにより、専門家(例えば医師等)がユーザ(例えば患者等)と交わした対話(例えば問診等)の内容が夫々の端末にテキスト情報として出力されるので、専門的な内容も含めてユーザ(例えば患者等)の理解を確認しながら対話を継続することができる。
The information processing device (for example, server 1 in FIG. 9) is
In response to receiving utterance information from the user (e.g., patient, etc.) and the expert (e.g., doctor, etc.), the utterance information is converted into text information (by converting audio data into text data), and the user (e.g., patient, etc.) and a dialog content display means (for example, the dialog content display unit 106 in FIG. 9, etc.) outputted to the terminals of the experts (for example, the user terminal 2, the expert terminal 3, etc.);
Furthermore, it is equipped with.
As a result, the content of the dialogue (e.g., medical interview, etc.) that an expert (e.g., a doctor, etc.) has with a user (e.g., a patient, etc.) is output as text information to each terminal, so that the user (e.g., including specialized content) can be outputted as text information to each terminal. For example, the dialogue can be continued while confirming the patient's understanding.

前記対話内容表示手段(例えば図9の対話内容表示部106等)は、前記テキスト情報のうち所定のキーワード(例えば目、胃、胸、痛い、XX時間前、YY日前等)を抽出して強調して出力する。
これにより、専門家(例えば医師等)は、所定のキーワード(例えば目の奥が痛い等)を見逃すことなく、発話内容から対話(例えば問診等)を進め、相談に対する解決策(例えば患部に対する処置や薬の投与等)を検討し提示することができる。
The dialogue content display means (for example, the dialogue content display unit 106 in FIG. 9) extracts and emphasizes predetermined keywords (for example, eyes, stomach, chest, pain, XX hours ago, YY days ago, etc.) from the text information. and output it.
This allows experts (e.g., doctors) to proceed with dialogue (e.g., interviewing) based on the content of the utterance without overlooking predetermined keywords (e.g., pain in the back of the eye), and to come up with solutions to the consultation (e.g., how to treat the affected area). and the administration of drugs, etc.) and present them.

前記対話内容表示手段(例えば図9の対話内容表示部106等)により抽出された前記所定のキーワード(例えば目、胃、胸、痛い、XX時間前、YY日前等)に基づいて、所定の専門家文書(例えばカルテ等)を生成する専門家文書生成手段(例えば図9の専門家文書生成部107等)、
をさらに備える。
このように、抽出された所定のキーワード(例えば目、胃、胸、痛い、XX時間前、YY日前等)に基づいて、専門家(例えば医師等)は、ユーザ(例えば患者等)に対して専門家文書(例えばカルテ等)を提示しながら対話を進めることができる。
Based on the predetermined keywords (for example, eyes, stomach, chest, pain, XX hours ago, YY days ago, etc.) extracted by the dialog content display means (for example, the dialog content display section 106 in FIG. 9), a predetermined specialty is displayed. expert document generation means (for example, the expert document generation unit 107 in FIG. 9) that generates professional documents (for example, medical records, etc.);
Furthermore, it is equipped with.
In this way, based on the extracted predetermined keywords (e.g., eyes, stomach, chest, pain, XX hours ago, YY days ago, etc.), experts (e.g., doctors, etc.) can provide information to users (e.g., patients, etc.). Dialogue can proceed while presenting expert documents (for example, medical records, etc.).

上記情報処理装置(例えば図9のサーバ1等)は、
前記ユーザ(例えば患者等)又は前記専門家(例えば医師等)の対話情報(例えば発話内容、画像情報、バイタル情報等)に基づいて、前記専門家(例えば医師等)が発するべき発話内容に関する情報(問診のためのメッセージ等)を前記専門家の端末(例えば図9の専門家端末3等)に送信する発話支援手段(例えば図9の発話支援部108等)、
をさらに備える。
これにより、経験の浅い専門家(例えば医師等)がユーザ(例えば患者等)からの信頼関係が得られ難い場合に、発話内容に関する情報(問診のためのメッセージ等)を参考にして、対面相談(例えばオンライン遠隔診療等)をすることで、経験の浅さを表に出すことなく対面相談(例えばオンライン遠隔診療等)を効率的に行うことができる。
The information processing device (for example, server 1 in FIG. 9) is
Information regarding the content of utterances that should be uttered by the expert (e.g., doctor, etc.) based on dialogue information (e.g., utterance content, image information, vital information, etc.) of the user (e.g., patient, etc.) or the expert (e.g., doctor, etc.) utterance support means (for example, the utterance support unit 108 in FIG. 9) that transmits (a message for medical interview, etc.) to the terminal of the expert (for example, the expert terminal 3 in FIG. 9);
Furthermore, it is equipped with.
This allows inexperienced professionals (e.g. doctors, etc.) to consult face-to-face consultations based on information about the content of utterances (messages for questioning, etc.) when it is difficult to gain a relationship of trust from users (e.g. patients, etc.). By doing (for example, online telemedicine, etc.), face-to-face consultations (for example, online telemedicine, etc.) can be efficiently conducted without showing the lack of experience.

上記情報処理装置(例えば図9のサーバ1等)において、
前記ユーザ(例えば患者等)又は前記専門家(例えば医師等)の対話情報(例えば発話内容、画像情報)、バイタル情報等)に基づいて、前記ユーザに関する判断情報(例えば患部の部位を特定する情報等)を前記専門家の端末(例えば図9の専門家端末3等)に送信する判断支援手段(例えば図9の判断支援部109等)、
をさらに備える。
これにより、経験の浅い専門家(例えば医師等)がユーザに関する判断情報(例えば患部の部位を特定する情報等)を参考にして、遠隔での対面相談(例えばオンライン遠隔診療等)をより効率的に行うことができる。
In the information processing device (for example, server 1 in FIG. 9),
Judgment information regarding the user (for example, information identifying the affected area) based on dialogue information (for example, utterance content, image information, vital information, etc.) of the user (for example, patient, etc.) or the expert (for example, doctor, etc.) etc.) to the terminal of the expert (for example, the expert terminal 3 in FIG. 9) (for example, the decision support unit 109 in FIG. 9);
Furthermore, it is equipped with.
This allows inexperienced experts (e.g., doctors) to refer to judgment information about the user (e.g., information identifying the affected area) to make remote face-to-face consultations (e.g., online telemedicine, etc.) more efficient. can be done.

通信ネットワークを介してユーザ(例えば患者等)と専門家(例えば医師等)との対話(例えばオンライン診療等)を支援する情報処理装置(例えば図9のサーバ1等)が実行する情報処理方法であって、
前記ユーザの端末(例えば図9のユーザ端末2等)から前記ユーザの顔面を含む画像の送信を受け付けたことに応じて、前記専門家の端末(例えば図9の専門家端末3等)に前記画像を送信するユーザ画像送信ステップ(例えば図16のステップS11等)と、
前記専門家の端末(例えば図9の専門家端末3等)から前記専門家(例えば医師等)の顔面を含む画像の送信を受け付けたことに応じて、前記ユーザの端末(例えば図9のユーザ端末2等)に前記画像を送信する専門家画像送信ステップ(例えば図16のステップS12等)と、
前記ユーザ(例えば患者等)の体の特定部位(例えば目等の患部)の画像であって所定の品質(例えば横7680画素×縦4320画素の解像度等)を伴う画像(例えば8K映像等)を前記専門家の端末(例えば図9の専門家端末3等)に送信するための許可を前記ユーザの端末(例えば図9のユーザ端末2等)から受け付けるユーザ許可受付ステップ(例えば図16のステップS13等)と、
前記許可を受け付けたことに応じて、前記特定部位(例えば目等の患部)の画像(例えば8K映像等)を前記専門家の端末(例えば図9の専門家端末3等)に送信する特定部位画像送信ステップ(例えば図16のステップS14等)と、
を含む。
このように、ユーザ(例えば患者等)は、自らの判断に基づいて専門家に許可を与えることにより、ユーザの体の特定部位(例えば目等の患部)の画像を送信するので、ユーザ(例えば患者等)と専門家(例えば医師等)との信頼関係に基づく対面相談(例えばオンライン遠隔診療等)を支援することができる。
この結果、ユーザ(例えば患者等)と専門家(例えば医師等)との信頼関係を築いた上で、遠隔での対面相談(例えばオンライン遠隔診療等)を実用に耐え得る形で実現することができる。
An information processing method executed by an information processing device (e.g., server 1 in FIG. 9) that supports dialogue (e.g., online medical treatment, etc.) between a user (e.g., patient, etc.) and an expert (e.g., doctor, etc.) via a communication network. There it is,
In response to receiving the transmission of an image including the user's face from the user's terminal (for example, user terminal 2 in FIG. 9), the expert's terminal (for example, expert terminal 3 in FIG. 9) transmits the image. a user image transmission step of transmitting an image (for example, step S11 in FIG. 16, etc.);
In response to receiving the transmission of an image including the face of the expert (for example, a doctor, etc.) from the expert's terminal (for example, the expert terminal 3 in FIG. 9), the user's terminal (for example, the user in FIG. 9) an expert image transmission step (for example, step S12 in FIG. 16) of transmitting the image to a terminal 2, etc.);
An image (e.g., 8K video, etc.) of a specific part of the body of the user (e.g., patient, etc.) (e.g., an affected area such as an eye) with a predetermined quality (e.g., resolution of 7680 pixels horizontally x 4320 pixels vertically, etc.) A user permission receiving step (for example, step S13 in FIG. 16) of accepting permission from the user terminal (for example, user terminal 2 in FIG. 9) to transmit data to the expert's terminal (for example, expert terminal 3 in FIG. 9); etc.) and
A specific part that transmits an image (for example, 8K video, etc.) of the specific part (for example, an affected part such as an eye) to the terminal of the expert (for example, the expert terminal 3 in FIG. 9) in response to receiving the permission. an image transmission step (for example, step S14 in FIG. 16),
including.
In this way, a user (e.g., a patient) sends an image of a specific part of the user's body (e.g., an affected area such as an eye) by giving permission to an expert based on his or her own judgment. It is possible to support face-to-face consultation (for example, online telemedicine, etc.) based on a relationship of trust between a patient, etc.) and an expert (for example, a doctor, etc.).
As a result, it is possible to build a relationship of trust between users (e.g., patients, etc.) and experts (e.g., doctors, etc.) and then realize remote face-to-face consultations (e.g., online telemedicine, etc.) in a practical manner. can.

通信ネットワークを介してユーザ(例えば患者等)と専門家(例えば医師等)との対話(例えばオンライン診療等)を支援する情報処理装置(例えば図9のサーバ1等)を制御するコンピュータ(図9のCPU11等)に、
前記ユーザの端末(例えば図9のユーザ端末2等)から前記ユーザの顔面を含む画像の送信を受け付けたことに応じて、前記専門家の端末(例えば図9の専門家端末3等)に前記画像を送信するユーザ画像送信ステップ(例えば図16のステップS11等)と、
前記専門家の端末(例えば図9の専門家端末3等)から前記専門家(例えば医師等)の顔面を含む画像の送信を受け付けたことに応じて、前記ユーザの端末(例えば図9のユーザ端末2等)に前記画像を送信する専門家画像送信ステップ(例えば図16のステップS12等)と、
前記ユーザ(例えば患者等)の体の特定部位(例えば目等の患部)の画像であって所定の品質(例えば横7680画素×縦4320画素の解像度等)を伴う画像(例えば8K映像等)を前記専門家の端末(例えば図9の専門家端末3等)に送信するための許可を前記ユーザの端末(例えば図9のユーザ端末2等)から受け付けるユーザ許可受付ステップ(例えば図16のステップS13等)と、
前記許可を受け付けたことに応じて、前記特定部位(例えば目等の患部)の画像(例えば8K映像等)を前記専門家の端末(例えば図9の専門家端末3等)に送信する特定部位画像送信ステップ(例えば図16のステップS14等)と、
を含む制御処理を実行させる。
このように、ユーザ(例えば患者等)は、自らの判断に基づいて専門家に許可を与えることにより、ユーザの体の特定部位(例えば目等の患部)の画像を送信するので、ユーザ(例えば患者等)と専門家(例えば医師等)との信頼関係に基づく対面相談(例えばオンライン遠隔診療等)を支援することができる。
この結果、ユーザ(例えば患者等)と専門家(例えば医師等)との信頼関係を築いた上で、遠隔での対面相談(例えばオンライン遠隔診療等)を実用に耐え得る形で実現することができる。
A computer (see FIG. 9 CPU11 etc.),
In response to receiving the transmission of an image including the user's face from the user's terminal (for example, user terminal 2 in FIG. 9), the expert's terminal (for example, expert terminal 3 in FIG. 9) transmits the image. a user image transmission step of transmitting an image (for example, step S11 in FIG. 16, etc.);
In response to receiving the transmission of an image including the face of the expert (for example, a doctor, etc.) from the expert's terminal (for example, the expert terminal 3 in FIG. 9), the user's terminal (for example, the user in FIG. 9) an expert image transmission step (for example, step S12 in FIG. 16) of transmitting the image to a terminal 2, etc.);
An image (e.g., 8K video, etc.) of a specific part of the body of the user (e.g., patient, etc.) (e.g., an affected area such as an eye) with a predetermined quality (e.g., resolution of 7680 pixels horizontally x 4320 pixels vertically, etc.) A user permission receiving step (for example, step S13 in FIG. 16) of accepting permission from the user terminal (for example, user terminal 2 in FIG. 9) to transmit data to the expert's terminal (for example, expert terminal 3 in FIG. 9); etc.) and
A specific part that transmits an image (for example, 8K video, etc.) of the specific part (for example, an affected part such as an eye) to the terminal of the expert (for example, the expert terminal 3 in FIG. 9) in response to receiving the permission. an image transmission step (for example, step S14 in FIG. 16),
Execute control processing including
In this way, a user (e.g., a patient) sends an image of a specific part of the user's body (e.g., an affected area such as an eye) by giving permission to an expert based on his or her own judgment. It is possible to support face-to-face consultation (for example, online telemedicine, etc.) based on a relationship of trust between a patient, etc.) and an expert (for example, a doctor, etc.).
As a result, it is possible to build a relationship of trust between users (e.g., patients, etc.) and experts (e.g., doctors, etc.) and then realize remote face-to-face consultations (e.g., online telemedicine, etc.) in a practical manner. can.

1・・・サーバ、2・・・ユーザ端末、3・・・専門家端末、11・・・CPU、12・・・ROM、13・・・RAM、14・・・バス、15・・・入出力インターフェース、16・・・入力部、17・・・出力部、18・・・記憶部、19・・・通信部、20・・・ドライブ、30・・・リムーバブルメディア、101・・・ユーザ画像送信部、102・・・ユーザ許可受付部、103・・・特定部位画像送信部、104・・・バイタル情報送信部、105・・・専門家画像送信部、106・・・対話内容表示部、107・・・専門家文書生成部、108・・・発話支援部、109・・・判断支援部、110・・・オンライン診療機能部、181・・・対話DB、G・・・サービス提供者、B・・・バイヤー、C・・・サプライヤ、N・・・ネットワーク 1... Server, 2... User terminal, 3... Expert terminal, 11... CPU, 12... ROM, 13... RAM, 14... Bus, 15... Input Output interface, 16... Input section, 17... Output section, 18... Storage section, 19... Communication section, 20... Drive, 30... Removable media, 101... User image Transmission unit, 102... User permission reception unit, 103... Specific region image transmission unit, 104... Vital information transmission unit, 105... Expert image transmission unit, 106... Dialogue content display unit, 107... Expert document generation unit, 108... Speech support unit, 109... Judgment support unit, 110... Online medical treatment function unit, 181... Dialogue DB, G... Service provider, B...buyer, C...supplier, N...network

Claims (11)

通信ネットワークを介してユーザと専門家との対話を支援する情報処理装置であって、
前記ユーザの端末から前記ユーザの顔面を含む画像の送信を受け付けたことに応じて、前記専門家の端末に前記画像を送信するユーザ画像送信手段と、
前記専門家の端末から前記専門家の顔面を含む画像の送信を受け付けたことに応じて、前記ユーザの端末に前記画像を送信する専門家画像送信手段と、
前記ユーザの体の特定部位の画像であって所定の品質を伴う画像を前記専門家の端末に送信するための許可を前記ユーザの端末から受け付けるユーザ許可受付手段と、
前記許可を受け付けたことに応じて、前記特定部位の画像を前記専門家の端末に送信する特定部位画像送信手段と、
を備える情報処理装置。
An information processing device that supports dialogue between a user and an expert via a communication network,
User image transmitting means for transmitting the image to the expert's terminal in response to receiving the transmission of the image including the user's face from the user's terminal;
Expert image transmitting means for transmitting the image to the user's terminal in response to receiving the transmission of the image including the expert's face from the expert's terminal;
user permission receiving means for receiving permission from the user's terminal to transmit an image of a specific part of the user's body with a predetermined quality to the expert's terminal;
specific part image transmitting means for transmitting an image of the specific part to the terminal of the expert in response to receiving the permission;
An information processing device comprising:
前記特定部位画像送信手段は、所定の条件を満たしたことに応じて前記ユーザの前記特定部位の画像を送信する、
請求項1に記載の情報処理装置。
The specific part image transmitting means transmits an image of the specific part of the user in response to satisfying a predetermined condition.
The information processing device according to claim 1.
前記特定部位画像送信手段は、所定の条件を満たしたことに応じて前記ユーザの視線の動きの軌跡に関する画像を送信する、
請求項1に記載の情報処理装置。
The specific part image transmitting means transmits an image related to the trajectory of the user's line of sight movement in response to satisfying a predetermined condition.
The information processing device according to claim 1.
所定の条件を満たしたことに応じて前記ユーザのバイタル情報を送信するバイタル情報送信手段、
をさらに備える請求項1に記載の情報処理装置。
vital information transmitting means for transmitting the user's vital information in response to satisfying a predetermined condition;
The information processing device according to claim 1, further comprising:
前記ユーザ及び前記専門家の発話情報を受け付けたことに応じて、前記ユーザ及び前記専門家の端末に当該発話情報をテキスト情報として出力する対話内容表示手段、
をさらに備える請求項1に記載の情報処理装置。
Dialogue content display means for outputting the utterance information as text information to the terminals of the user and the expert in response to receiving the utterance information of the user and the expert;
The information processing device according to claim 1, further comprising:
前記対話内容表示手段は、前記テキスト情報のうち所定のキーワードを抽出して強調して出力する、
請求項5に記載の情報処理装置。
The dialogue content display means extracts a predetermined keyword from the text information, emphasizes it, and outputs it.
The information processing device according to claim 5.
前記対話内容表示手段により抽出された前記所定のキーワードに基づいて、所定の専門家文書(例えばカルテ等)を生成する専門家文書生成手段、
をさらに備える請求項6に記載の情報処理装置。
expert document generation means for generating a predetermined expert document (for example, a medical record, etc.) based on the predetermined keyword extracted by the dialogue content display means;
The information processing device according to claim 6, further comprising:
前記ユーザ又は前記専門家の対話情報に基づいて、前記専門家が発するべき発話内容に関する情報を前記専門家の端末に送信する発話支援手段、
をさらに備える請求項1に記載の情報処理装置。
speech support means for transmitting information regarding the content of speech to be uttered by the expert to the terminal of the expert based on dialogue information of the user or the expert;
The information processing device according to claim 1, further comprising:
前記ユーザ又は前記専門家の対話情報に基づいて、前記ユーザに関する判断情報を前記専門家の端末に送信する判断支援手段、
をさらに備える請求項1に記載の情報処理装置。
Judgment support means for transmitting judgment information regarding the user to the terminal of the expert based on interaction information of the user or the expert;
The information processing device according to claim 1, further comprising:
通信ネットワークを介してユーザと専門家との対話を支援する情報処理装置が実行する情報処理方法であって、
前記ユーザの端末から前記ユーザの顔面を含む画像の送信を受け付けたことに応じて、前記専門家の端末に前記画像を送信するユーザ画像送信ステップと、
前記専門家の端末から前記専門家の顔面を含む画像の送信を受け付けたことに応じて、前記ユーザの端末に前記画像を送信する専門家画像送信ステップと、
前記ユーザの体の特定部位の画像であって所定の品質を伴う画像を前記専門家の端末に送信するための許可を前記ユーザの端末から受け付けるユーザ許可受付ステップと、
前記許可を受け付けたことに応じて、前記特定部位の画像を前記専門家の端末に送信する特定部位画像送信ステップと、
を含む情報処理方法。
An information processing method executed by an information processing device that supports dialogue between a user and an expert via a communication network, the method comprising:
a user image transmitting step of transmitting the image to the expert's terminal in response to receiving the transmission of the image including the user's face from the user's terminal;
an expert image transmitting step of transmitting the image to the user's terminal in response to receiving the transmission of the image including the expert's face from the expert's terminal;
a user permission receiving step of receiving permission from the user's terminal to transmit an image of a specific part of the user's body with a predetermined quality to the expert's terminal;
a specific part image transmitting step of transmitting an image of the specific part to the terminal of the expert in response to receiving the permission;
Information processing methods including.
通信ネットワークを介してユーザと専門家との対話を支援する情報処理装置を制御するコンピュータに、
前記ユーザの端末から前記ユーザの顔面を含む画像の送信を受け付けたことに応じて、前記専門家の端末に前記画像を送信するユーザ画像送信ステップと、
前記専門家の端末から前記専門家の顔面を含む画像の送信を受け付けたことに応じて、前記ユーザの端末に前記画像を送信する専門家画像送信ステップと、
前記ユーザの体の特定部位の画像であって所定の品質を伴う画像を前記専門家の端末に送信するための許可を前記ユーザの端末から受け付けるユーザ許可受付ステップと、
前記許可を受け付けたことに応じて、前記特定部位の画像を前記専門家の端末に送信する特定部位画像送信ステップと、
を含む制御処理を実行させるプログラム。
A computer that controls an information processing device that supports dialogue between users and experts via a communication network,
a user image transmitting step of transmitting the image to the expert's terminal in response to receiving the transmission of the image including the user's face from the user's terminal;
an expert image transmitting step of transmitting the image to the user's terminal in response to receiving the transmission of the image including the expert's face from the expert's terminal;
a user permission receiving step of receiving permission from the user's terminal to transmit an image of a specific part of the user's body with a predetermined quality to the expert's terminal;
a specific part image transmitting step of transmitting an image of the specific part to the terminal of the expert in response to receiving the permission;
A program that executes control processing including.
JP2022102362A 2022-06-27 2022-06-27 Information processing device, information processing method, and program Pending JP2024003313A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022102362A JP2024003313A (en) 2022-06-27 2022-06-27 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022102362A JP2024003313A (en) 2022-06-27 2022-06-27 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2024003313A true JP2024003313A (en) 2024-01-15

Family

ID=89534127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022102362A Pending JP2024003313A (en) 2022-06-27 2022-06-27 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2024003313A (en)

Similar Documents

Publication Publication Date Title
US11776669B2 (en) System and method for synthetic interaction with user and devices
JP4615629B2 (en) Computer-based medical diagnosis and processing advisory system, including access to the network
CN110675951A (en) Intelligent disease diagnosis method and device, computer equipment and readable medium
TWI520714B (en) Alzheimer's cognitive enabler
US20230291728A1 (en) System and method for a patient initiated medical interview using a voice-based medical history questionnaire
Maslen Layers of sense: the sensory work of diagnostic sensemaking in digital health
WO2011116340A2 (en) Context-management framework for telemedicine
Lisetti et al. Affective computing in tele-home health
CN115917492A (en) Method and system for video collaboration
Zhang et al. Constructing awareness through speech, gesture, gaze and movement during a time-critical medical task
US20220254514A1 (en) Medical Intelligence System and Method
US20220093220A1 (en) System and method for patient assessment using disparate data sources and data-informed clinician guidance via a shared patient/clinician user interface
JP2024003313A (en) Information processing device, information processing method, and program
Awada et al. Mobile@ old-an assistive platform for maintaining a healthy lifestyle for elderly people
US20240136033A1 (en) Automated transcription and documentation of tele-health encounters
Iqbal et al. Characterising consumer engagement in virtual models of care: A systematic review and narrative synthesis
US20230185524A1 (en) System and method for leveraging audio communication and guidance to improve medical workflow
WO2023053267A1 (en) Information processing system, information processing device, information processing method, and non-transitory computer-readable medium having program stored therein
Stevenson Observing interactions as an approach to understanding patients’ experiences
Tsuchiya et al. Different Frames in Emergency Care Interactions Between the UK and Japan: Timed Recap and Repetition Chain for Grounding1
Ossai et al. Telehealth Implementation: A Synopsis of Patients’ Experience of Clinical Outcomes
WO2022272017A1 (en) Telehealth system and method
JP2023035076A (en) Medical information processing apparatus and medical information processing system
JP2023104396A (en) Remote medical treatment assistance device, control method and program for remote medical treatment assistance device, and remote medical treatment assistance system