JP2018195164A - Analysis device, analysis program, and analysis method - Google Patents
Analysis device, analysis program, and analysis method Download PDFInfo
- Publication number
- JP2018195164A JP2018195164A JP2017099772A JP2017099772A JP2018195164A JP 2018195164 A JP2018195164 A JP 2018195164A JP 2017099772 A JP2017099772 A JP 2017099772A JP 2017099772 A JP2017099772 A JP 2017099772A JP 2018195164 A JP2018195164 A JP 2018195164A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- analysis
- image information
- item
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 139
- 230000008859 change Effects 0.000 claims abstract description 17
- 230000008451 emotion Effects 0.000 claims description 84
- 238000000034 method Methods 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 25
- 238000011282 treatment Methods 0.000 claims description 25
- 201000010099 disease Diseases 0.000 claims description 19
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 7
- 230000014509 gene expression Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 8
- 238000003909 pattern recognition Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 6
- 238000012546 transfer Methods 0.000 description 5
- 208000027418 Wounds and injury Diseases 0.000 description 4
- 239000003795 chemical substances by application Substances 0.000 description 4
- 230000002996 emotional effect Effects 0.000 description 4
- 210000004709 eyebrow Anatomy 0.000 description 4
- 206010052428 Wound Diseases 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000011084 recovery Methods 0.000 description 3
- 241001122315 Polites Species 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
本発明は、解析装置、解析プログラム及び解析方法に関し、特に、ユーザの画像情報や音声情報に基づいてユーザが満足する紹介先を適切に提示する解析装置、当該解析装置で動作する解析プログラム及び当該解析装置における解析方法に関する。 The present invention relates to an analysis apparatus, an analysis program, and an analysis method, and in particular, an analysis apparatus that appropriately presents an introduction destination that a user is satisfied based on the user's image information and audio information, an analysis program that operates on the analysis apparatus, and The present invention relates to an analysis method in an analysis apparatus.
近年、地域の診療所等に従事する医師は不足する傾向にあり、地域の患者が中核病院に集中するようになってきていることから、中核病院での医師の負担が増大し、医師が辞めていくという悪循環が発生している。この問題に対して、地域における医師確保に加えて、地域の診療所等と中核病院とを適切に役割分担して患者の治療を一体的に実現することが重要になってきている。 In recent years, there has been a tendency for the number of doctors engaged in local clinics to become scarce, and since local patients have become concentrated in core hospitals, the burden on doctors at core hospitals has increased and doctors have quit. A vicious cycle of going on has occurred. In response to this problem, in addition to securing doctors in the region, it has become important to realize the treatment of patients in an integrated manner by appropriately sharing the roles of the local clinics and the core hospitals.
例えば、回復期の患者や軽い疾患の患者は地域の診療所等で診てもらい、重い疾患の患者は中核病院で診てもらうように、疾患やその重症度合に応じて、地域の診療所等と中核病院とで医療の役割分担を行うことが重要であり、このような役割分担を行うために、患者に適切な医療施設を紹介する方法の提案が求められている。 For example, depending on the disease and its severity, the local clinic, etc. should be used so that patients in the recovery phase and patients with mild illness are examined at a local clinic, etc. It is important to divide medical roles between the hospital and the core hospital, and in order to perform such role sharing, a proposal of a method for introducing appropriate medical facilities to patients is required.
このような医療施設の紹介に関する技術として、例えば、下記特許文献1には、医療機関が他の医療機関に患者を紹介したときの紹介事由、紹介元と紹介先の医療機関、紹介状作成日および患者情報を一レコードとして蓄積記憶している記憶部と、前記紹介先の医療機関ごとに前記記憶部のレコード数を計数する計数部と、前記計数部が計数結果に基づき前記紹介先の医療機関ごとに前記紹介事由に適した紹介先であるかを示す評価ポイントを付与する評価部を備えた医療機関評価装置において、前記計数部は、前記紹介事由が一致するレコード数を紹介先医療機関の紹介件数として計数する紹介件数計数手段と、前記紹介件数として計数されたレコードの紹介先医療機関を紹介元医療機関にしているレコードであって、前記紹介件数として計数されたレコードの患者情報と一致、且つ前記紹介件数として計数されたレコードの紹介状作成日から第一の所定期間内の紹介状作成日となっているレコード数を再紹介補正値として計数する再紹介補正値計数手段を有し、前記評価部は、前記紹介件数を前記再紹介補正値にて減算補正して評価ポイントを付与する構成が開示されている。 As a technique related to such medical facility introduction, for example, the following Patent Document 1 describes the reason for introduction when a medical institution introduces a patient to another medical institution, the institution of introduction and introduction destination, the date of introduction of the letter of introduction. And a storage unit that stores and stores patient information as one record, a counting unit that counts the number of records in the storage unit for each medical institution to which the referee is introduced, and the medical unit that receives the referral based on the counting result In the medical institution evaluation apparatus including an evaluation unit that assigns an evaluation point indicating whether the introduction is suitable for the introduction reason for each institution, the counting unit calculates the number of records with the same introduction reason as the introduction destination medical institution. The number of referrals counting means as the number of referrals, and a record in which the referral medical institution of the record counted as the number of referrals is the referral source medical institution, The number of records that coincides with the patient information of the counted records and that falls on the referral letter creation date within the first predetermined period from the referral letter creation date counted as the number of referrals is counted as a reintroduction correction value. There is disclosed a configuration having re-introduction correction value counting means, wherein the evaluation unit subtracts and corrects the number of introductions by the re-introduction correction value to give an evaluation point.
また、下記特許文献2には、患者を特定する患者情報と、患者の傷病名と、自医療機関を特定する自己情報とに基づいて、他の医療機関に患者を紹介する紹介状の作成機能を備えた診療支援装置であって、傷病の診療に適した少なくとも1の診療科名を傷病名毎に対応付けて記憶している傷病−診療科記憶手段と、紹介先として設定可能な医療機関に設置されている診療科名を医療機関毎に対応付けて記憶している医療機関情報記憶手段と、紹介状発行対象の患者の傷病名に対応する診療科が設置されている医療機関を紹介先候補として抽出して表示する候補表示手段と、を有する構成が開示されている。
また、医療施設の紹介に関する技術ではないが、会話の発音からユーザの満足度を解析する技術に関して、下記特許文献3には、対象会話における対象会話参加者の音声から抽出される、複数の単語データ、及び、対象会話参加者における各単語の発声時間を示す複数の発音時間データを取得するデータ取得部と、データ取得部により取得される複数の単語データの中から、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データを抽出する抽出部と、抽出部により抽出される複数の特定単語データ及び複数の特定単語データに関する複数の発声時間データに基づいて、対象会話における、対象会話参加者の丁寧表現から非丁寧表現への変化点を検出する変化検出部と、変化検出部による変化点の検出結果に基づいて、当該対象会話が不満会話であるか否かを判定する不満判定部と、を有する不満会話判定装置が開示されている。 Moreover, although it is not a technique regarding introduction of a medical facility, regarding the technique for analyzing user satisfaction from the pronunciation of a conversation, Patent Document 3 below discloses a plurality of words extracted from the speech of a target conversation participant in the target conversation. A data acquisition unit that acquires data and a plurality of pronunciation time data indicating the utterance time of each word in the target conversation participant, and a polite expression or a non-poor expression from the plurality of word data acquired by the data acquisition unit A target conversation participation in a target conversation based on a plurality of specific word data extracted by the extraction unit and a plurality of utterance time data related to the plurality of specific word data Based on the detection result of the change point by the change detection unit and the change detection unit that detects the change point from the polite expression of the person to the non-poor expression. Dissatisfaction conversation determination device is disclosed having a determining dissatisfaction judging section that judges whether the conversation.
地域にある診療所等では、ある疾患に対して精査や治療が行えないという理由で、診療所の患者を中核病院に紹介する場合(診療所→中核病院)、または、中核病院で回復期にある患者を診療所に紹介する場合(中核病院→診療所)には、どちらのケースでも、主治医は、患者に紹介する医療施設を選定する必要がある。この紹介先の選定に際し、特許文献1では、過去の紹介実績に基づいて紹介先を選定している。また、特許文献2では、患者の疾患を診療可能な診療科を有する医療施設を抽出し、更に患者の生活地(自宅、会社)に近い順に紹介先の候補として通知している。
When a clinic in the area introduces a patient at a clinic to a core hospital (clinic → core hospital) or because it is not possible to conduct a close examination or treatment for a disease, or during a recovery period at a core hospital When introducing a patient to a clinic (core hospital → clinic), in either case, the attending physician needs to select a medical facility to be introduced to the patient. In selecting the introduction destination, in Patent Document 1, the introduction destination is selected based on the past introduction results. Further, in
ここで、中核病院で回復期にある患者を診療所に紹介する場合(中核病院→診療所)は、経過観察が主な目的となるため、特許文献1、2のように、過去の紹介実績に基づいて紹介先を選定したり、患者の生活地に近くて治療可能な施設を選定したりする方法でも顕著な問題は生じない。 Here, when introducing a patient in recovery phase at a core hospital to a clinic (core hospital → clinic), the main purpose is to follow-up. The method of selecting a referral destination based on the above or selecting a facility that can be treated close to the patient's place of life does not cause significant problems.
しかしながら、診療所で精査や治療が行えないために、患者を中核病院に紹介する場合(診療所→中核病院)においては、対象疾患の治療が可能な複数の中核病院は、病院ごとに医療(検査技術、治療技術)の質に差が存在し、また、患者の価値観は多種多様(治療成績、外部機関からの評価、紹介先医師の性別、通い易さ)であり、どの観点を重視するかによって患者が望んでいる紹介先は大きく異なるため、ユーザが満足する紹介先を適切に紹介することが難しいという問題があった。 However, when a patient is referred to a core hospital because it cannot be examined or treated at the clinic (clinic office → core hospital), multiple core hospitals that can treat the target disease are treated by each hospital ( There is a difference in the quality of examination technology and treatment technology, and patient values vary widely (therapeutic results, evaluation from external institutions, gender of referral physicians, ease of attendance), and what viewpoint is emphasized Since the referral destination desired by the patient varies greatly depending on whether or not the user is satisfied, there is a problem that it is difficult to appropriately introduce the referral destination that the user is satisfied with.
本発明は、上記問題点に鑑みてなされたものであって、その主たる目的は、ユーザが満足する紹介先を適切に提示することができる解析装置、解析プログラム及び解析方法を提供することにある。 The present invention has been made in view of the above problems, and a main object of the present invention is to provide an analysis apparatus, an analysis program, and an analysis method capable of appropriately presenting an introduction destination satisfied by a user. .
本発明の一側面は、第1ユーザが第2ユーザに紹介先を提示する解析装置であって、前記解析装置又は当該解析装置と通信可能な装置に設けられた映像入力部及び/又は音声入力部から、前記第1ユーザが提示する項目に対する前記第2ユーザの反応を表す、前記第2ユーザの顔又は上半身の画像情報、及び/又は、前記第2ユーザの会話の音声情報を取得する情報取得部と、前記第1ユーザが提示する項目と前記第2ユーザの画像情報及び/又は音声情報に基づいて判定された感情レベルとを対応付け、前記項目毎の前記感情レベルの変化に基づいて、各々の前記項目に対する前記第2ユーザの満足度を解析する解析部と、前記第2ユーザの満足度に基づいて紹介先の候補を抽出して前記第2ユーザに提示する出力部と、を備えることを特徴とする。 One aspect of the present invention is an analysis apparatus in which a first user presents an introduction destination to a second user, and a video input unit and / or audio input provided in the analysis apparatus or an apparatus capable of communicating with the analysis apparatus Information for acquiring image information of the face or upper body of the second user and / or voice information of the conversation of the second user, which represents a response of the second user to an item presented by the first user An acquisition unit, an item presented by the first user, and an emotion level determined based on the image information and / or audio information of the second user are associated with each other, and based on a change in the emotion level for each item An analysis unit that analyzes the satisfaction level of the second user for each of the items, and an output unit that extracts introduction destination candidates based on the satisfaction level of the second user and presents the candidates to the second user. Specially prepared To.
本発明の一側面は、第1ユーザが第2ユーザに紹介先を提示する解析装置で動作する解析プログラムであって、前記解析装置に、前記解析装置又は当該解析装置と通信可能な装置に設けられた映像入力部及び/又は音声入力部から、前記第1ユーザが提示する項目に対する前記第2ユーザの反応を表す、前記第2ユーザの顔又は上半身の画像情報、及び/又は、前記第2ユーザの会話の音声情報を取得する情報取得処理、前記第1ユーザが提示する項目と前記第2ユーザの画像情報及び/又は音声情報に基づいて判定された感情レベルとを対応付け、前記項目毎の前記感情レベルの変化に基づいて、各々の前記項目に対する前記第2ユーザの満足度を解析する解析処理、前記第2ユーザの満足度に基づいて紹介先の候補を抽出して前記第2ユーザに提示する出力処理、を実行させることを特徴とする。 One aspect of the present invention is an analysis program that operates on an analysis device in which a first user presents an introduction destination to a second user, and is provided in the analysis device or in a device that can communicate with the analysis device. Image information of the second user's face or upper body representing the reaction of the second user to the item presented by the first user from the video input unit and / or audio input unit, and / or the second Information acquisition processing for acquiring voice information of a user's conversation, an item presented by the first user and an emotion level determined based on the image information and / or voice information of the second user, Analysis processing for analyzing the satisfaction level of the second user with respect to each of the items based on the change in the emotion level, extracting introduction destination candidates based on the satisfaction level of the second user, and extracting the second user. Output process of presenting to The, characterized in that to the execution.
本発明の一側面は、第1ユーザが第2ユーザに紹介先を提示する解析装置を含むシステムにおける解析方法であって、前記解析装置は、前記解析装置又は当該解析装置と通信可能な装置に設けられた映像入力部及び/又は音声入力部から、前記第1ユーザが提示する項目に対する前記第2ユーザの反応を表す、前記第2ユーザの顔又は上半身の画像情報、及び/又は、前記第2ユーザの会話の音声情報を取得する情報取得処理と、前記第1ユーザが提示する項目と前記第2ユーザの画像情報及び/又は音声情報に基づいて判定された感情レベルとを対応付け、前記項目毎の前記感情レベルの変化に基づいて、各々の前記項目に対する前記第2ユーザの満足度を解析する解析処理と、前記第2ユーザの満足度に基づいて紹介先の候補を抽出して前記第2ユーザに提示する出力処理と、を実行することを特徴とする。 One aspect of the present invention is an analysis method in a system including an analysis device in which a first user presents an introduction destination to a second user, and the analysis device is a device that can communicate with the analysis device or the analysis device. Image information of the face or upper body of the second user representing the reaction of the second user to an item presented by the first user from the provided video input unit and / or audio input unit, and / or the first An information acquisition process for acquiring voice information of a conversation between two users, an item presented by the first user, and an emotion level determined based on the image information and / or voice information of the second user, Based on the change in the emotion level for each item, an analysis process for analyzing the satisfaction level of the second user with respect to each of the items, and extracting introduction candidates based on the satisfaction level of the second user An output process of presenting the serial second user, characterized in that the run.
本発明の解析装置、解析プログラム及び解析方法によれば、ユーザが満足する紹介先を適切に提示することができる。 According to the analysis apparatus, the analysis program, and the analysis method of the present invention, it is possible to appropriately present an introduction destination that the user is satisfied with.
その理由は、第1ユーザが第2ユーザに紹介先を提示する解析装置は、第1ユーザが提示する項目(話題)を取得すると共に、第1ユーザが提示する項目に対する第2ユーザの画像情報及び/又は音声情報を取得し、第1ユーザが提示する項目と第2ユーザの画像情報及び/又は音声情報に基づいて判定された感情レベルとを対応付け、項目毎の感情レベルの変化に基づいて、各々の項目に対する第2ユーザの満足度を解析し、満足度が高い紹介先の候補を抽出して第2ユーザに提示するからである。 The reason is that the analysis device in which the first user presents the introduction destination to the second user obtains the item (topic) presented by the first user and the image information of the second user with respect to the item presented by the first user. And / or audio information is acquired, the item presented by the first user is associated with the emotion level determined based on the image information and / or audio information of the second user, and the emotion level is changed for each item. This is because the satisfaction level of the second user for each item is analyzed, and introduction destination candidates with high satisfaction levels are extracted and presented to the second user.
背景技術で示したように、地域の診療所等と中核病院とで医療の役割分担を行うことが重要であり、診療所の患者を中核病院に紹介する場合(診療所→中核病院)や、中核病院の患者を診療所に紹介する場合(中核病院→診療所)には、主治医は患者に紹介する医療施設を選定する必要がある。 As shown in the background art, it is important to divide the role of medical care between local clinics and core hospitals, and when introducing patients from the clinic to the core hospital (clinic office → core hospital) When introducing a patient from a core hospital to a clinic (core hospital → clinic), the attending physician needs to select a medical facility to introduce the patient.
この紹介先の選定に際し、過去の紹介実績に基づいて紹介先を選定したり、患者の生活地に近くて治療可能な施設を選定したりする方法が提案されているが、診療所で精査や治療が行えないために、患者を中核病院に紹介する場合(診療所→中核病院)においては、対象疾患の治療が可能な複数の中核病院は病院ごとに医療の質に差が存在し、また、患者の価値観は多種多様であるため、ユーザが満足する紹介先を適切に紹介することが難しいという問題があった。 At the time of selection of this referral destination, methods of selecting a referral destination based on past referral results and selecting a facility that can be treated close to the patient's place of life have been proposed. When patients are referred to a core hospital because treatment cannot be performed (clinic office → core hospital), there are differences in the quality of medical care among multiple core hospitals that can treat the target disease. Since patient values vary, there is a problem that it is difficult to appropriately introduce a referral destination that the user is satisfied with.
また、このような問題は、医師が患者に医療施設を紹介する場合に限らず、不動産業者が顧客に不動産を紹介する場合、証券マンが顧客に株式を紹介する場合、旅行業者が顧客に旅行プランを紹介する場合、保険外交員が顧客に保険を紹介する場合など、第1のユーザが第2のユーザに、任意の種類の物や情報を紹介する場合に対して同様に生じる。 Such a problem is not limited to the case where a doctor introduces a medical facility to a patient. When a real estate agent introduces real estate to a customer, a securities agent introduces shares to a customer, a travel agent travels to the customer. In the case of introducing a plan, the same occurs when the first user introduces an arbitrary kind of object or information to the second user, such as when an insurance agent introduces insurance to a customer.
そこで、本発明の一実施の形態では、第1ユーザ(例えば、医師)が第2ユーザ(例えば、患者)に紹介先を提示する際に、第1ユーザが提示する項目(話題)に対する第2ユーザの表情や仕草を撮影した画像情報や第2ユーザが発音した音声情報を取得し、第1ユーザが提示する項目と第2ユーザの画像情報や音声情報に基づいて判定された感情レベルとを対応付け、項目毎の第2ユーザの感情レベルの変化に基づいて、各々の項目に対する第2ユーザの満足度を解析(第2ユーザが満足している項目や不満に感じている項目を特定)し、満足度が高い紹介先の候補を抽出して第2ユーザに提示するようにする。以下、医師が患者に医療施設を紹介する場合を例にして、具体的に説明する。 Therefore, in one embodiment of the present invention, when a first user (for example, a doctor) presents an introduction destination to a second user (for example, a patient), a second item for an item (topic) presented by the first user. The image information obtained by photographing the user's facial expression and gesture and the sound information pronounced by the second user are acquired, and the items presented by the first user and the emotion level determined based on the image information and sound information of the second user are obtained. Based on the association and the change in the emotion level of the second user for each item, the satisfaction level of the second user for each item is analyzed (identified items that the second user is satisfied with or feels dissatisfied with) Then, introduction candidate candidates with high satisfaction are extracted and presented to the second user. Hereinafter, a case where a doctor introduces a medical facility to a patient will be described as an example.
上記した本発明の実施の形態についてさらに詳細に説明すべく、本発明の一実施例に係る解析装置、解析プログラム及び解析方法について、図1乃至図11を参照して説明する。図1乃至図4は、本実施例の紹介システムの構成を示す模式図であり、図5は、本実施例の管理装置の構成を示すブロック図、図6は、本実施例の解析装置の構成を示すブロック図である。また、図7は、本実施例の紹介システムの概略動作を示す模式図であり、図8は、本実施例の解析装置の表示部に表示される紹介画面の一例を示す図である。また、図9及び図10は、本実施例の解析装置の動作を示すフローチャート図であり、図11は、本実施例の管理装置の動作を示すフローチャート図である。 In order to describe the above-described embodiment of the present invention in more detail, an analysis apparatus, an analysis program, and an analysis method according to an embodiment of the present invention will be described with reference to FIGS. 1 to 4 are schematic diagrams showing the configuration of the introduction system of the present embodiment, FIG. 5 is a block diagram showing the configuration of the management device of the present embodiment, and FIG. 6 is the analysis device of the present embodiment. It is a block diagram which shows a structure. FIG. 7 is a schematic diagram illustrating a schematic operation of the introduction system according to the present embodiment. FIG. 8 is a diagram illustrating an example of an introduction screen displayed on the display unit of the analysis apparatus according to the present embodiment. FIGS. 9 and 10 are flowcharts illustrating the operation of the analysis apparatus according to the present embodiment. FIG. 11 is a flowchart illustrating the operation of the management apparatus according to the present embodiment.
図1に示すように、本実施例の紹介システム10は、DB(Data Base)を参照して、ユーザの感情レベルを判定する管理装置20と、ユーザの画像情報や音声情報を取得して管理装置20に提供すると共に、管理装置20から取得した項目毎の感情レベルを解析して、ユーザが満足する医療施設を紹介する解析装置30などで構成される。これらはイーサネット(登録商標)、トークンリング、FDDI(Fiber-Distributed Data Interface)等の規格により定められるLAN(Local Area Network)やWAN(Wide Area Network)等の通信ネットワーク40を介して接続されている。
As shown in FIG. 1, the
なお、図1では、紹介システム10を管理装置20と解析装置30とで構成したが、図2に示すように、紹介システム10に、解析装置30と通信可能な入力装置50(後述する映像入力部や音声入力部を備える装置)を設け、入力装置50が取得したユーザの画像情報や音声情報を有線、無線LAN、Bluetooth(登録商標)やNFC(Near Field Communication)などの近距離無線通信などを用いて解析装置30に送信する構成としてもよい。
In FIG. 1, the
また、図1及び図2では、紹介システム10にDBを備える管理装置20を設けたが、解析装置30の記憶部にDBを備える場合は、図3に示すように、紹介システム10を解析装置30、又は、解析装置30及び入力装置50で構成してもよい。
In FIG. 1 and FIG. 2, the
また、図1乃至図3では、解析装置30の前で第1ユーザ(本実施例では医師とする。)と第2ユーザ(本実施例では患者とする。)とが対面して会話を行う構成としているが、図4に示すように、第1ユーザ(医師)が使用する解析装置30とは別に、第2ユーザ(患者)が使用するクライアント装置51を設け、解析装置30とクライアント装置51とを通信ネットワーク40で接続し、映像及び音声をリアルタイムで双方向通信できるようにしてもよい。以下、図1の構成を前提にして、各装置について詳細に説明する。 Further, in FIGS. 1 to 3, a first user (referred to as a doctor in this embodiment) and a second user (referred to as a patient in this embodiment) face each other and have a conversation in front of the analysis device 30. As shown in FIG. 4, a client device 51 used by the second user (patient) is provided separately from the analysis device 30 used by the first user (doctor), and the analysis device 30 and the client device 51 are provided. May be connected via the communication network 40 so that video and audio can be bidirectionally communicated in real time. Hereinafter, each device will be described in detail on the assumption of the configuration of FIG.
[管理装置]
管理装置20は、解析装置30から送信される情報とDBに保存された情報とを比較して第2ユーザの感情レベルを判定するコンピュータ装置やサーバなどであり、図5(a)に示すように、制御部21、記憶部22、ネットワークI/F部23などで構成される。
[Management device]
The management device 20 is a computer device or server that compares the information transmitted from the analysis device 30 with the information stored in the DB to determine the emotion level of the second user, as shown in FIG. The
制御部21は、マイクロプロセッサ等により構成されるCPU(Central Processing Unit)とROM(Read Only Memory)やRAM(Random Access Memory)などのメモリとで構成され、CPUは、ROMや記憶部22に記憶した制御プログラムをRAMに展開して実行することにより、管理装置20全体の動作を制御する。
The
記憶部22は、HDD(Hard Disk Drive)やSSD(Solid State Drive)などで構成され、CPUが各部を制御するためのプログラム、DB(各感情レベル(満足〜不満)の代表的な画像情報や音声情報)などを記憶する。 The storage unit 22 includes an HDD (Hard Disk Drive), an SSD (Solid State Drive), and the like, a program for the CPU to control each unit, and DB (representative image information of each emotion level (satisfaction to dissatisfaction)) Voice information) is stored.
ネットワークI/F部23は、NIC(Network Interface Card)やモデムなどで構成され、管理装置20を通信ネットワーク40に接続し、解析装置30からの画像情報や音声情報を受信すると共に、解析装置30に感情レベルの判定結果を送信する。
The network I /
また、上記制御部21は、図5(b)に示すように、レベル判定部21aなどとして機能する。レベル判定部21aは、解析装置30から、第2ユーザの顔(ジェスチャも判断要素にする場合は上半身)を撮影した画像情報を受信したら、受信した顔又は上半身の画像情報と記憶部22のDBに保存されている各感情レベルの顔又は上半身の代表的な画像情報とを比較し、公知のパターン認識技術を利用して、例えば、眉毛や目尻、口元の角度、目や口の開き具合、顔のうつむき具合などの一致率を計算することによって、受信した画像情報がどの感情レベルに属するかを判定し、判定結果(感情レベル)を解析装置30に送信する。また、解析装置30から、第2ユーザが発音した音声情報を受信したら、受信した音声情報と記憶部22のDBに保存されている各感情レベルの代表的な音声情報とを比較し、公知のパターン認識技術を利用して、音声の強弱、高低、抑揚、会話のスピード、会話の間合いなどの一致率を計算することによって、受信した音声情報がどの感情レベルに属するかを判定し、判定結果(感情レベル)を解析装置30に送信する。なお、感情レベルの判定は画像情報又は音声情報の一方に基づいて行ってもよいし、画像情報及び音声情報の双方に基づいて行ってもよい。
Further, the
[解析装置]
解析装置30は、第1ユーザが第2ユーザと対面しながら使用するパーソナルコンピュータ、タブレット端末などであり、図6(a)に示すように、制御部31、記憶部32、ネットワークI/F部33、映像入力部34、音声入力部35、表示部36、操作部37などで構成される。
[Analyzer]
The analysis device 30 is a personal computer, a tablet terminal, or the like that the first user uses while facing the second user. As shown in FIG. 6A, the
制御部31は、マイクロプロセッサ等により構成されるCPUとROMやRAMなどのメモリとで構成され、CPUは、ROMや記憶部32に記憶した制御プログラムをRAMに展開して実行することにより、解析装置30全体の動作を制御する。
The
記憶部32は、HDDやSSDなどで構成され、CPUが各部を制御するためのプログラム、自装置の処理機能に関する情報、映像入力部34が取得した画像情報、音声入力部35が取得した音声情報、医療施設に関する情報、必要に応じて、DB(各感情のレベル(満足〜不満)の代表的な画像情報や音声情報)などを記憶する。
The
ネットワークI/F部33は、NICやモデムなどで構成され、解析装置30を通信ネットワーク40に接続し、管理装置20に第2ユーザの画像情報及び/又は音声情報などを送信し、管理装置20から感情レベルの判定結果を受信する。なお、図2に示すように、入力装置50が別に配置される場合は、ネットワークI/F部33は、更に、有線、無線LAN、Bluetooth(登録商標)やNFCなどの近距離無線通信により、入力装置50から第2ユーザの画像情報及び/又は音声情報などを受信する。
The network I /
映像入力部34は、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)カメラなどで構成され、一定間隔(例えば、1秒毎)又は連続して、第2ユーザ(患者)の顔又は上半身を撮影して、画像情報(静止画又は動画)を取得する。
The
音声入力部35は、マイクなどで構成され、第2ユーザ(患者)の音声を録音して、音声情報を取得する。なお、第1ユーザ(医師)の音声に基づいて項目を特定する場合は、第1ユーザ(医師)及び第2ユーザ(患者)の音声情報を取得する。その際、第1ユーザの音声と第2ユーザの音声とは、例えば、音声の強弱や高低などに基づいて判別してもよいし、指向性を有する音声入力部35を2つ設け、各々の音声入力部35を第1ユーザと第2ユーザとに向けて設置することにより、第1ユーザの音声と第2ユーザの音声とを判別できるようにしてもよい。
The
表示部36は、液晶表示装置(LCD:Liquid Crystal Display)や有機EL(electroluminescence)表示装置などで構成され、第1ユーザが第2ユーザに医療施設を紹介する紹介画面などを表示する。
The
操作部37は、マウスやキーボード、表示部36上に形成された電極が格子状に配列されたタッチセンサなどで構成され、本実施例の解析に関する各種操作や上記の紹介画面に対する各種操作を可能にする。
The
また、上記制御部31は、図6(b)に示すように、計時部31a、情報取得部31b、解析部31c、出力部31dなどとしても機能する。
Further, as shown in FIG. 6B, the
計時部31aは、CPUのクロックなどに基づいて時間を計測する。具体的には、映像入力部34が画像情報を取得した時刻、音声入力部35が音声情報を取得した時刻などを計測する。
The timer 31a measures time based on the CPU clock and the like. Specifically, the time when the
情報取得部31bは、映像入力部34及び/又は音声入力部35から、第1ユーザ(医師)が提示する項目に対する第2ユーザ(患者)の反応を表す、第2ユーザの画像情報及び/又は音声情報を取得する。具体的には、予め定めた時間毎(例えば、1秒毎)に、映像入力部34から第2ユーザ(患者)の顔又は上半身を撮影した画像情報を取得すると共に、音声入力部35から第2ユーザ(患者)の音声を一定時間録音した音声情報(及び、必要に応じて第1ユーザ(医師)の音声を一定時間録音した音声情報)を取得し、第2ユーザ(患者)の画像情報及び/又は音声情報を管理装置20に送信して感情レベルの判定を指示する。その際、管理装置20での感情レベルの判定が容易になるように、情報取得部31bは、必要に応じて、公知の手法を用いて画像情報及び/又は音声情報をパターン化し、パターン化した画像情報(例えば、眉毛や目尻、口元の角度、目や口の開き具合、顔のうつむき具合などを識別可能にした画像情報)及び/又はパターン化した音声情報(例えば、声の強弱や高低、抑揚、会話のスピード、会話の間合いなどを識別可能にした音声情報)を管理装置20に送信してもよい。
The information acquisition unit 31b receives from the
解析部31cは、管理装置20から感情レベルの判定結果を受信し、各々の画像情報及び/又は音声情報に対応する感情レベルと計時部31aが計測した時刻とを関連付ける。また、公知の音声認識技術を利用して、第1ユーザ(医師)の音声情報から第1ユーザが提示する項目を特定し、特定した項目と計時部31aが計測した時刻とを関連付ける。そして、計時部31aが計測した時刻に基づいて、管理装置20から受信した感情レベルと第1ユーザ(医師)の音声情報から特定した項目とを対応付け、どの項目に対して第2ユーザ(患者)の感情がどのように変化したかに基づいて、各々の項目に対する第2ユーザ(患者)の満足度を解析し、第2ユーザが満足している(感情レベルが高い)項目や第2ユーザが不満を感じている(感情レベルが低い)項目を特定する。 The analysis unit 31c receives the emotion level determination result from the management device 20, and associates the emotion level corresponding to each piece of image information and / or audio information with the time measured by the time measuring unit 31a. Further, using a known voice recognition technology, an item presented by the first user is identified from the voice information of the first user (doctor), and the identified item is associated with the time measured by the timer unit 31a. Then, based on the time measured by the time measuring unit 31a, the emotion level received from the management device 20 is associated with the item specified from the voice information of the first user (doctor), to which item the second user (patient ) The second user (patient) 's satisfaction with each item is analyzed based on how the emotion of () has changed, and the second user is satisfied (high emotion level) and the second user Identify items that are dissatisfied (low emotion level).
なお、第1ユーザが提示する項目は、例えば、第2ユーザの対象疾患の治療成績に関する項目、第2ユーザの対象疾患の治療件数又は処置件数に関する項目、紹介先医師の性別に関する項目などであり、上記治療成績は、例えば、第2ユーザの対象疾患を手術した後の平均入院日数、第2ユーザの対象疾患の治療の成功率、第2ユーザの対象疾患を手術した後の所定の年数後の生存率などである。また、解析装置30の記憶部32にDBを備える場合は、解析部31cをレベル判定部として機能させ、情報取得部31bが取得した画像情報及び/又は音声情報と、DBに保存されている各感情レベルの代表的な画像情報及び/又は音声情報とを比較し、公知のパターン認識技術を利用して感情レベルを判定してもよい。また、情報取得部31bが取得した画像情報及び/又は音声情報の時間的な変化(初期状態からの変化)に基づいて感情レベルを相対的に判定してもよい。
The items presented by the first user are, for example, items related to the treatment results of the target disease of the second user, items related to the number of treatments or treatments of the target disease of the second user, items related to the gender of the referring doctor, and the like. The treatment results are, for example, the average number of days of hospitalization after operating the target disease of the second user, the success rate of treatment of the target disease of the second user, after a predetermined number of years after operating the target disease of the second user Such as the survival rate. Further, when the
出力部31dは、解析部31cの解析結果に基づいて、記憶部32に記憶した医療施設の中から第2ユーザ(患者)の満足度が高い医療施設の候補を抽出し、抽出した候補を選択可能にする紹介画面を表示部36に表示させる。具体的には、第2ユーザ(患者)が満足している(感情のレベルが高い)項目に基づいて、医療施設の候補を抽出したり、第2ユーザ(患者)が不満を感じている(感情のレベルが低い)項目に基づいて、抽出した候補を除外したりする。そして、1又は複数の医療施設の候補を選択可能に記載した紹介画面を作成して表示部36に表示させる。
Based on the analysis result of the analysis unit 31c, the output unit 31d extracts a medical facility candidate with a high degree of satisfaction of the second user (patient) from the medical facilities stored in the
上記計時部31a、情報取得部31b、解析部31c、出力部31dはハードウェアとして構成してもよいし、制御部31を、計時部31a、情報取得部31b、解析部31c、出力部31dとして機能させる解析プログラムとして構成し、当該解析プログラムを制御部31のCPUに実行させるようにしてもよい。
The timing unit 31a, the information acquisition unit 31b, the analysis unit 31c, and the output unit 31d may be configured as hardware, and the
なお、図1乃至図6は、本実施例の紹介システム10、管理装置20、解析装置30の一例であり、その構成や制御は適宜変更可能である。例えば、上記では表示部36に紹介画面を表示させて紹介先を通知する構成としたが、紹介先を音声で通知する構成としてもよく、その場合は、解析装置30にスピーカなどの音声出力部を設ければよい。
1 to 6 are examples of the
以下、上記構成の紹介システムの概略動作について、図7を参照して説明する。ここでは、一定間隔(t0、t1、t2、…)で、第2ユーザの表情や仕草を撮影する(時刻t0の時:画像0、時刻t1の時:画像1、時刻t2の時:画像2、…)。そして、会話の中で、第2ユーザの感情レベルの変化を常時測定する。 The schematic operation of the introduction system configured as described above will be described below with reference to FIG. Here, the facial expression and gesture of the second user are photographed at regular intervals (t0, t1, t2,...) (Time t0: image 0, time t1: image 1, time t2: image 2). ...). And the change of an emotion level of a 2nd user is always measured in conversation.
まず、図7(a)に示すように、時刻t0で撮影した画像0(第2ユーザの表情)を管理装置20に送信し、画像0がどの感情レベルに属するかを管理装置20(DB)に問い合わせる。DBは、受信した画像0(第2ユーザの表情)の特徴と、予め保存している各感情レベル(レベル2〜レベル−2)の画像群の特徴と、を比較することで、受信した画像0(第2ユーザの表情)がどの感情レベルに属するかを公知のパターン認識技術を利用して判定し、その判定結果を解析装置30に送信する。ここでは、時刻t0での画像0はレベル0と判定される。
First, as shown in FIG. 7A, the image 0 (second user's facial expression) taken at time t0 is transmitted to the management device 20, and the emotion level to which the image 0 belongs is managed by the management device 20 (DB). Contact The DB compares the characteristics of the received image 0 (the second user's facial expression) with the characteristics of the image groups of each emotion level (
そして、図7(b)に示すように、上記処理を一定時間毎に繰り返し、管理装置20から受信した感情レベルを第1ユーザ(医師)の音声情報から特定した項目に対応付けることで、どの会話の時に、第2ユーザ(患者)の感情がどのように変化したのかを読み取ることが可能となる。ここでは、第2ユーザ(患者)は、転院に際して、転院先の病院の候補における治療成績の話の時に感情レベルが上昇していることから、転院先の治療成績に満足していると判断することができる。また、転院先の病院の候補における通院時間の話の時に感情レベルが低下していることから、通院時間に少し不満を感じていると判断することができる。また、転院先の病院の候補における紹介先の医師の話の時は感情レベルが通常レベルであることから、医師の性別(男性、女性)の観点を重視していないと判断することができる。 And as shown in FIG.7 (b), the said process is repeated for every fixed time, and by matching the emotion level received from the management apparatus 20 with the item specified from the audio | voice information of the 1st user (doctor), which conversation At this time, it is possible to read how the emotion of the second user (patient) has changed. Here, the second user (patient) judges that he / she is satisfied with the treatment result of the transfer destination because the emotional level has risen when talking about the treatment result in the hospital candidate of the transfer destination during the transfer. be able to. In addition, since the emotional level is lowered when talking about the hospital visit time in the hospital candidate of the transfer destination, it can be determined that the patient feels a little dissatisfied with the hospital visit time. Further, since the emotional level is the normal level when talking to the referral doctor in the hospital candidate of the transfer destination, it can be determined that the gender (male, female) viewpoint of the doctor is not emphasized.
なお、上記の一定時間は、解析装置30又は入力装置50の設定画面(図示せず)にて調整が可能である。また、ここでは、第2ユーザ(患者)の画像情報に基づいて感情レベルを判定しているが、画像情報に代えて、若しくは画像情報に加えて、音声情報に基づいて感情レベルを判定しても良い。 Note that the predetermined time can be adjusted on the setting screen (not shown) of the analysis device 30 or the input device 50. Here, the emotion level is determined based on the image information of the second user (patient), but the emotion level is determined based on the audio information instead of or in addition to the image information. Also good.
図8は、上記の解析結果に基づいて病院を検索した結果を示す紹介画面60の一例である。解析装置30では、第2ユーザ(患者)の表情や仕草(画像情報)、会話(音声情報)を解析した結果、治療成績の良さや対象疾患の処置件数の多さを、病院選びの重要な観点としていることが分かったので、解析装置30の紹介画面60には、治療成績が良い病院の観点と、対象疾患の処置件数の多い病院の観点で、いくつか(ここでは、それぞれ2病院)候補を抽出して表示する。なお、それぞれの抽出件数は、解析装置30側で任意に設定可能である。 FIG. 8 is an example of an introduction screen 60 showing the result of searching for a hospital based on the above analysis result. The analysis device 30 analyzes the second user's (patient) 's facial expression, gesture (image information), and conversation (voice information). As a result, the treatment results and the number of treatments for the target disease are important for selecting a hospital. The introduction screen 60 of the analysis device 30 has several viewpoints (here, two hospitals each) from the viewpoint of a hospital with good treatment results and a hospital with a large number of treatments for the target disease. Extract candidates and display them. Note that the number of each extraction can be arbitrarily set on the analysis device 30 side.
このように、解析装置30は、第2ユーザ(患者)の画像情報や音声情報を管理装置20に送信して感情レベルの判定を指示し、管理装置20がパターン認識技術を利用して判定した感情レベルを受信し、受信した感情レベルを第1ユーザ(医師)の音声情報に基づいて特定した項目に対応付けることにより、どの項目に満足しているか不満を感じているかを認識することができるため、第2ユーザ(患者)が所望する候補(病院)を適切に紹介することができる。 As described above, the analysis device 30 transmits the image information and voice information of the second user (patient) to the management device 20 to instruct the determination of the emotion level, and the management device 20 makes the determination using the pattern recognition technology. It is possible to recognize which item is satisfied or dissatisfied by receiving the emotion level and associating the received emotion level with the item specified based on the voice information of the first user (doctor). The candidate (hospital) desired by the second user (patient) can be introduced appropriately.
なお、上記では、解析装置30で取得した第2ユーザ(患者)の画像情報や音声情報をそのまま管理装置20に送信したが、画像情報の構成(第2ユーザのどの部分をどの角度で撮影した画像であるかなど)が変化すると、管理装置20でのパターン認識が困難になる恐れがある。そのような場合は、解析装置30側で画像情報から特徴部位(例えば、顔の輪郭部分、目や眉毛、唇など)を抽出し、特徴部位の情報を管理装置20に送信するようにしてもよいし、パターン化した画像情報(例えば、眉毛や目尻、口元の角度、目や口の開き具合などを識別可能にした画像情報)を管理装置20に送信するようにしてもよい。また、音声情報の構成(第2ユーザの音声の中に他のユーザの音声が混在しているかなど)が変化すると、管理装置20でのパターン認識が困難になる恐れがある。そのような場合は、解析装置30側で第2ユーザの画像情報と音声情報とを比較して、第2ユーザの画像情報を参照して第2のユーザの音声のみを抽出し、抽出した音声情報を管理装置20に送信するようにしてもよく、また、管理装置20でのパターン認識を容易にするために、パターン化した音声情報(例えば、声の強弱や高低、抑揚などを識別可能にした音声情報)を管理装置20に送信するようにしてもよい。 In the above, the image information and audio information of the second user (patient) acquired by the analysis device 30 are transmitted to the management device 20 as they are, but the configuration of the image information (which part of the second user is captured at which angle) If the image or the like changes, it may be difficult for the management device 20 to recognize the pattern. In such a case, the analysis device 30 may extract a feature part (for example, a face outline, eyes, eyebrows, lips, etc.) from the image information, and transmit the feature part information to the management device 20. Alternatively, patterned image information (for example, image information that can identify the eyebrows, the corners of the eyes, the angle of the mouth, the degree of opening of the eyes and the mouth, etc.) may be transmitted to the management device 20. In addition, if the configuration of the audio information (such as whether the voice of another user is mixed in the voice of the second user) changes, pattern recognition in the management device 20 may become difficult. In such a case, the analysis device 30 compares the second user's image information and audio information, extracts only the second user's audio by referring to the second user's image information, and extracts the extracted audio. The information may be transmitted to the management device 20, and in order to facilitate pattern recognition in the management device 20, it is possible to identify patterned voice information (for example, voice strength, level, inflection, etc.). Audio information) may be transmitted to the management apparatus 20.
また、第2ユーザの要望抽出において、第2ユーザの顕在意識に基づいて抽出するのではなく、第2ユーザ自身も知らない重要項目の面から、満足度が高そうな項目を抽出できるようにしてもよい。 In addition, in extracting requests from the second user, it is possible to extract items that seem to be highly satisfactory in terms of important items that the second user himself does not know, rather than extracting based on the consciousness of the second user. May be.
以下、解析装置30の動作について、図9及び図10を参照して説明する。解析装置30のCPUは、ROM又は記憶部32に記憶した解析プログラムをRAMに展開して実行することにより、図9及び図10のフローチャート図に示す各ステップの処理を実行する。なお、以下では、解析装置30に映像入力部34及び音声入力部35を備えるものとして説明する。
Hereinafter, the operation of the analysis device 30 will be described with reference to FIGS. 9 and 10. The CPU of the analysis device 30 executes the processing of each step shown in the flowcharts of FIGS. 9 and 10 by developing the analysis program stored in the ROM or the
[全体処理]
図9に示すように、まず、解析装置30の制御部31は、解析機能の使用開始が指示されたかを判断し(S101)、解析機能の使用開始が指示されたら(S101のYes)、解析処理を実行する(S102)。
[Overall processing]
As shown in FIG. 9, first, the
図10はこのステップの詳細を示しており、まず、制御部31(計時部31a)は、現在の時刻を取得し(S201)、予め定めた一定時間が経過したら(S202のYes)、制御部31(情報取得部31b)は、映像入力部34から第2ユーザ(患者)の画像情報を取得し(S203)、音声入力部35から第1ユーザ(医師)及び第2ユーザ(患者)の音声情報を取得する(S204)。
FIG. 10 shows the details of this step. First, the controller 31 (timer 31a) acquires the current time (S201), and when a predetermined time has elapsed (Yes in S202), the controller 31 (information acquisition unit 31b) acquires image information of the second user (patient) from the video input unit 34 (S203), and voices of the first user (doctor) and the second user (patient) from the
次に、制御部31(情報取得部31b)は、管理装置20に、取得した第2ユーザ(患者)の画像情報及び音声情報を送信して、管理装置20に第2ユーザ(患者)の感情レベルを問い合わせる(S205)。 Next, the control unit 31 (information acquisition unit 31b) transmits the acquired image information and audio information of the second user (patient) to the management device 20, and the emotion of the second user (patient) to the management device 20. The level is inquired (S205).
次に、制御部31(解析部31c)は、管理装置20から感情レベルの判定結果を受信したら(S206のYes)、管理装置20から受信した感情レベルと計時部31aが測定した現在時刻とを関連付けて記憶部32などに記憶する(S207)。また、制御部31(解析部31c)は、第1ユーザの音声情報を解析して項目を特定し、特定した項目と計時部31aが測定した現在時刻とを関連付けて記憶部32などに記憶する(S208)。なお、第1ユーザの操作部37の操作に応じて、各項目が表示部36に順に表示されるようにしてもよく、その場合は、S204で第1ユーザ(医師)の音声情報を取得する必要はなく、S208では、項目と操作時刻とを関連付ければよい。
Next, if the control part 31 (analysis part 31c) receives the determination result of the emotion level from the management apparatus 20 (Yes of S206), the emotion level received from the management apparatus 20 and the present time which the time measuring part 31a measured will be shown. The associated information is stored in the
そして、制御部31(解析部31c)は、解析機能の終了操作が行われたかを判断し(S209)、終了操作が行われていない場合は、S201に戻って同様の処理を繰り返す。一方、終了操作が行われたら(S209のYes)、制御部31(解析部31c)は、計時部31aが測定した時刻に基づいて、第1ユーザの音声情報から特定した項目と管理装置20から受信した感情レベルとを対応付け(S210)、項目毎の感情レベルの変化から、第2ユーザが満足している項目及び不満に感じている項目を特定する(S211)。
Then, the control unit 31 (analysis unit 31c) determines whether or not the analysis function end operation has been performed (S209). If the end operation has not been performed, the
図9に戻って、制御部31(出力部31d)は、紹介機能の使用開始が指示されたかを判断し(S103)、紹介機能の使用開始が指示されていない場合は(S103のNo)、S102に戻って解析処理を継続する。 Returning to FIG. 9, the control unit 31 (output unit 31 d) determines whether or not the start of use of the introduction function is instructed (S <b> 103), and when the start of use of the introduction function is not instructed (No in S <b> 103), Returning to S102, the analysis process is continued.
紹介機能の使用開始が指示されたら(S103のYes)、制御部31(出力部31d)は、記憶部32に記憶された医療施設に関する情報を参照して、現在の施設でユーザの要望が満たされない項目を抽出し(S104)、抽出した項目を満たすことが可能な別の施設の有無を確認する(S105)。
When the start of use of the introduction function is instructed (Yes in S103), the control unit 31 (output unit 31d) refers to the information on the medical facility stored in the
確認の結果、抽出した項目を満たすことが可能な別の施設が存在する場合は(S106のYes)、制御部31(出力部31d)は、表示部36に現在の施設よりも第2ユーザにとって良い施設が存在すること、その施設の優れた箇所を案内表示する(S107)。一方、抽出した項目を満たすことが可能な別の施設が存在しない場合は(S106のNo)、制御部31(出力部31d)は、表示部36に現在の施設よりもユーザにとって良い施設が存在しないことを案内表示する(S108)。
As a result of the confirmation, if there is another facility that can satisfy the extracted item (Yes in S106), the control unit 31 (output unit 31d) is displayed on the
次に、管理装置20の動作(感情レベルの判定処理)について、図11を参照して説明する。 Next, the operation of the management device 20 (emotion level determination process) will be described with reference to FIG.
管理装置20の制御部21は、解析装置30から受信した第2ユーザの画像情報、音声情報を記憶部22(DB)に保存する(S301)。
The
次に、制御部21(レベル判定部21a)は、受信した第2ユーザの画像情報、音声情報と、DBに予め保存された画像情報、音声情報とを比較し、公知のパターン認識技術を利用して、第2ユーザの感情がどのレベルに属するかを判定する(S302)。そして、判定結果(感情レベル)を解析装置30に送信する(S303)。 Next, the control unit 21 (level determination unit 21a) compares the received image information and audio information of the second user with image information and audio information stored in advance in the DB, and uses a known pattern recognition technique. Then, it is determined to which level the emotion of the second user belongs (S302). Then, the determination result (emotion level) is transmitted to the analysis device 30 (S303).
なお、本発明は、上記実施例の記載に限定されるものではなく、本発明の趣旨を逸脱しない限りにおいて、その構成や制御は適宜変更可能である。 In addition, this invention is not limited to description of the said Example, The structure and control can be suitably changed unless it deviates from the meaning of this invention.
例えば、上記実施例では、DBに保存された画像情報や音声情報と第2ユーザ(患者)の画像情報や音声情報とを比較して感情レベルを判定する場合について記載したが、第2ユーザ(患者)の画像情報や音声情報の初期状態からの変化に基づいて、感情レベルを相対的に判定してもよい。 For example, in the above embodiment, the case where the emotion level is determined by comparing the image information and audio information stored in the DB with the image information and audio information of the second user (patient) is described. The emotion level may be relatively determined based on changes in the image information and audio information of the patient) from the initial state.
また、上記実施例では、第2ユーザ(患者)の画像情報や音声情報を取得する場合について記載したが、取得する情報は、第1ユーザ(医師)が提示する項目に対する第2ユーザ(患者)の反応が認識できる情報であればよく、例えば、体温や脈拍、発汗などの生体情報を取得する場合に対して、本発明の解析方法を同様に適用することができる。 Moreover, in the said Example, although the case where image information and audio | voice information of a 2nd user (patient) were acquired was described, the information to acquire is the 2nd user (patient) with respect to the item which a 1st user (doctor) presents. For example, the analysis method of the present invention can be similarly applied to the case of acquiring biological information such as body temperature, pulse, and sweating.
また、上記実施例では、第1ユーザ(医師)の音声情報を解析して項目を特定したが、第1ユーザ(医師)の操作部37の操作(例えば、マウスのクリック操作)に応じて、各項目が表示部36に順に表示されるようにしてもよく、その場合は、第1ユーザ(医師)の音声情報を取得する必要はなく、項目と操作時刻とを関連付ければよい。
Moreover, in the said Example, although the audio | voice information of the 1st user (doctor) was analyzed and the item was specified, according to operation (for example, mouse click operation) of the
また、上記実施例では、患者の画像情報や音声情報に基づいて医師が患者に医療施設を紹介する場合について記載したが、第1のユーザが第2のユーザに任意の種類の物や情報を紹介する場合に対して、本発明の解析方法を同様に適用することができる。 Moreover, in the said Example, although the case where a doctor introduces a medical facility to a patient based on a patient's image information and audio | voice information was described, the 1st user gave arbitrary types of things and information to a 2nd user. The analysis method of the present invention can be similarly applied to the case of introducing.
本発明は、ユーザの画像情報や音声情報に基づいてユーザが満足する紹介先を提示する解析装置、当該解析装置で動作する解析プログラム、当該解析プログラムを記録した記録媒体及び当該解析装置における解析方法に利用可能である。 The present invention relates to an analysis device that presents an introduction destination that a user is satisfied based on image information and audio information of the user, an analysis program that operates in the analysis device, a recording medium that records the analysis program, and an analysis method in the analysis device Is available.
10 紹介システム
20 管理装置
21 制御部
21a レベル判定部
22 記憶部
23 ネットワークI/F部
30 解析装置
31 制御部
31a 計時部
31b 情報取得部
31c 解析部
31d 出力部
32 記憶部
33 ネットワークI/F部
34 映像入力部
35 音声入力部
36 表示部
37 操作部
40 通信ネットワーク
50 入力装置
51 クライアント装置
60 紹介画面
DESCRIPTION OF
Claims (21)
前記解析装置又は当該解析装置と通信可能な装置に設けられた映像入力部及び/又は音声入力部から、前記第1ユーザが提示する項目に対する前記第2ユーザの反応を表す、前記第2ユーザの顔又は上半身の画像情報、及び/又は、前記第2ユーザの会話の音声情報を取得する情報取得部と、
前記第1ユーザが提示する項目と前記第2ユーザの画像情報及び/又は音声情報に基づいて判定された感情レベルとを対応付け、前記項目毎の前記感情レベルの変化に基づいて、各々の前記項目に対する前記第2ユーザの満足度を解析する解析部と、
前記第2ユーザの満足度に基づいて紹介先の候補を抽出して前記第2ユーザに提示する出力部と、を備える、
ことを特徴とする解析装置。 An analysis device in which a first user presents an introduction destination to a second user,
The second user's response to the second user's response to an item presented by the first user from the video input unit and / or the voice input unit provided in the analysis device or a device communicable with the analysis device. An information acquisition unit for acquiring image information of the face or upper body and / or audio information of the conversation of the second user;
The item presented by the first user is associated with the emotion level determined based on the image information and / or audio information of the second user, and each of the items is determined based on the change in the emotion level for each item. An analysis unit for analyzing satisfaction of the second user with respect to an item;
An output unit that extracts introduction destination candidates based on the satisfaction degree of the second user and presents it to the second user;
An analysis device characterized by that.
前記解析部は、前記第1ユーザの音声情報を解析して前記項目を特定する、
ことを特徴とする請求項1に記載の解析装置。 The information acquisition unit acquires voice information of the first user,
The analysis unit analyzes the first user's voice information to identify the item;
The analysis apparatus according to claim 1, wherein:
ことを特徴とする請求項1又は2に記載の解析装置。 The analysis unit associates the time when the image information and / or sound information of the second user is acquired with the emotion level determined based on the image information and / or sound information, and the first user selects the item. Associating the presented time with the item, and associating the item with the emotion level based on the time,
The analysis apparatus according to claim 1 or 2, characterized in that:
前記解析部は、前記装置から、前記第2ユーザの画像情報及び/又は音声情報と前記感情レベル毎の画像情報及び/又は音声情報とを比較することによって判定された前記感情レベルを受信する、
ことを特徴とする請求項1乃至3のいずれか一に記載の解析装置。 The information acquisition unit transmits the acquired image information and / or audio information of the second user to an apparatus including a database that stores image information and / or audio information for each emotion level,
The analysis unit receives the emotion level determined by comparing the image information and / or voice information of the second user with the image information and / or voice information for each emotion level from the device.
The analysis device according to claim 1, wherein
ことを特徴とする請求項1乃至3のいずれか一に記載の解析装置。 The analysis unit compares the image information and / or audio information of the second user with the image information and / or audio information for each emotion level stored in the storage unit in advance, or the image of the second user Determining the emotion level corresponding to the image information and / or audio information of the second user based on a change from the initial state of the information and / or audio information;
The analysis device according to claim 1, wherein
ことを特徴とする請求項1乃至5のいずれか一に記載の解析装置。 The output unit displays on the display unit an introduction screen that enables selection of the extracted introduction destination.
The analysis apparatus according to claim 1, wherein
前記第1ユーザが提示する項目は、前記第2ユーザの対象疾患の治療成績に関する項目、前記第2ユーザの対象疾患の治療件数又は処置件数に関する項目、紹介先医師の性別に関する項目の中から選択される1つを含む、
ことを特徴とする請求項1乃至6のいずれか一に記載の解析装置。 The referral destination is a medical facility,
The item presented by the first user is selected from the items related to the treatment results of the target disease of the second user, the items related to the number of treatments or the number of treatments of the target disease of the second user, and the items related to the sex of the referring doctor Including one to be
The analysis apparatus according to claim 1, wherein
前記解析装置に、
前記解析装置又は当該解析装置と通信可能な装置に設けられた映像入力部及び/又は音声入力部から、前記第1ユーザが提示する項目に対する前記第2ユーザの反応を表す、前記第2ユーザの顔又は上半身の画像情報、及び/又は、前記第2ユーザの会話の音声情報を取得する情報取得処理、
前記第1ユーザが提示する項目と前記第2ユーザの画像情報及び/又は音声情報に基づいて判定された感情レベルとを対応付け、前記項目毎の前記感情レベルの変化に基づいて、各々の前記項目に対する前記第2ユーザの満足度を解析する解析処理、
前記第2ユーザの満足度に基づいて紹介先の候補を抽出して前記第2ユーザに提示する出力処理、を実行させる、
ことを特徴とする解析プログラム。 An analysis program that operates on an analysis device in which a first user presents an introduction destination to a second user,
In the analysis device,
The second user's response to the second user's response to an item presented by the first user from the video input unit and / or the voice input unit provided in the analysis device or a device communicable with the analysis device. Information acquisition processing for acquiring image information of the face or upper body and / or voice information of the conversation of the second user;
The item presented by the first user is associated with the emotion level determined based on the image information and / or audio information of the second user, and each of the items is determined based on the change in the emotion level for each item. Analysis processing for analyzing satisfaction of the second user with respect to an item;
An output process for extracting introduction candidates and presenting them to the second user based on the satisfaction degree of the second user;
An analysis program characterized by that.
前記解析処理では、前記第1ユーザの音声情報を解析して前記項目を特定する、
ことを特徴とする請求項8に記載の解析プログラム。 In the information acquisition process, the voice information of the first user is acquired,
In the analysis process, the item is identified by analyzing the voice information of the first user.
The analysis program according to claim 8.
ことを特徴とする請求項8又は9に記載の解析プログラム。 In the analysis process, the time when the image information and / or audio information of the second user is acquired is associated with the emotion level determined based on the image information and / or audio information, and the item is selected by the first user. Associating the presented time with the item, and associating the item with the emotion level based on the time,
The analysis program according to claim 8 or 9, characterized in that.
前記解析処理では、前記装置から、前記第2ユーザの画像情報及び/又は音声情報と前記感情レベル毎の画像情報及び/又は音声情報とを比較することによって判定された前記感情レベルを受信する、
ことを特徴とする請求項8乃至10のいずれか一に記載の解析プログラム。 In the information acquisition process, the acquired image information and / or audio information of the second user is transmitted to an apparatus including a database that stores image information and / or audio information for each emotion level,
In the analysis process, the emotion level determined by comparing the image information and / or voice information of the second user with the image information and / or voice information for each emotion level is received from the device.
The analysis program according to any one of claims 8 to 10, wherein:
ことを特徴とする請求項8乃至10のいずれか一に記載の解析プログラム。 In the analysis process, the image information and / or sound information of the second user is compared with the image information and / or sound information for each emotion level stored in the storage unit in advance, or the image of the second user Determining the emotion level corresponding to the image information and / or audio information of the second user based on a change from the initial state of the information and / or audio information;
The analysis program according to any one of claims 8 to 10, wherein:
ことを特徴とする請求項8乃至12のいずれか一に記載の解析プログラム。 In the output process, an introduction screen that enables selection of the extracted introduction destination is displayed on the display unit.
The analysis program according to any one of claims 8 to 12.
前記第1ユーザが提示する項目は、前記第2ユーザの対象疾患の治療成績に関する項目、前記第2ユーザの対象疾患の治療件数又は処置件数に関する項目、紹介先医師の性別に関する項目の中から選択される1つを含む、
ことを特徴とする請求項8乃至13のいずれか一に記載の解析プログラム。 The referral destination is a medical facility,
The item presented by the first user is selected from the items related to the treatment results of the target disease of the second user, the items related to the number of treatments or the number of treatments of the target disease of the second user, and the items related to the sex of the referring doctor Including one to be
The analysis program according to any one of claims 8 to 13.
前記解析装置は、
前記解析装置又は当該解析装置と通信可能な装置に設けられた映像入力部及び/又は音声入力部から、前記第1ユーザが提示する項目に対する前記第2ユーザの反応を表す、前記第2ユーザの顔又は上半身の画像情報、及び/又は、前記第2ユーザの会話の音声情報を取得する情報取得処理と、
前記第1ユーザが提示する項目と前記第2ユーザの画像情報及び/又は音声情報に基づいて判定された感情レベルとを対応付け、前記項目毎の前記感情レベルの変化に基づいて、各々の前記項目に対する前記第2ユーザの満足度を解析する解析処理と、
前記第2ユーザの満足度に基づいて紹介先の候補を抽出して前記第2ユーザに提示する出力処理と、を実行する、
ことを特徴とする解析方法。 An analysis method in a system including an analysis device in which a first user presents an introduction destination to a second user,
The analysis device includes:
The second user's response to the second user's response to an item presented by the first user from the video input unit and / or the voice input unit provided in the analysis device or a device communicable with the analysis device. Information acquisition processing for acquiring image information of the face or upper body and / or voice information of the conversation of the second user;
The item presented by the first user is associated with the emotion level determined based on the image information and / or audio information of the second user, and each of the items is determined based on the change in the emotion level for each item. An analysis process for analyzing the degree of satisfaction of the second user with respect to an item;
An output process of extracting introduction destination candidates based on the satisfaction degree of the second user and presenting the candidate to the second user;
An analysis method characterized by that.
前記解析処理では、前記第1ユーザの音声情報を解析して前記項目を特定する、
ことを特徴とする請求項15に記載の解析方法。 In the information acquisition process, the voice information of the first user is acquired,
In the analysis process, the item is identified by analyzing the voice information of the first user.
The analysis method according to claim 15.
ことを特徴とする請求項15又は16に記載の解析方法。 In the analysis process, the analysis process associates the time when the image information and / or sound information of the second user is acquired with the emotion level determined based on the image information and / or sound information, and Associating the time when the user presented the item with the item, and associating the item with the emotion level based on the time;
The analysis method according to claim 15 or 16, wherein:
前記情報取得処理では、取得した前記第2ユーザの画像情報及び/又は音声情報を前記装置に送信し、
前記解析処理では、前記装置から、前記第2ユーザの画像情報及び/又は音声情報と前記感情レベル毎の画像情報及び/又は音声情報とを比較することによって判定された前記感情レベルを受信する、
ことを特徴とする請求項15乃至17のいずれか一に記載の解析方法。 The system includes an apparatus including a database storing image information and / or audio information for each emotion level,
In the information acquisition process, the acquired image information and / or audio information of the second user is transmitted to the device,
In the analysis process, the emotion level determined by comparing the image information and / or voice information of the second user with the image information and / or voice information for each emotion level is received from the device.
The analysis method according to any one of claims 15 to 17, characterized in that:
ことを特徴とする請求項15乃至17のいずれか一に記載の解析方法。 In the analysis process, the image information and / or sound information of the second user is compared with the image information and / or sound information for each emotion level stored in the storage unit in advance, or the image of the second user Determining the emotion level corresponding to the image information and / or audio information of the second user based on a change from the initial state of the information and / or audio information;
The analysis method according to any one of claims 15 to 17, characterized in that:
ことを特徴とする請求項15乃至19のいずれか一に記載の解析方法。 In the output process, an introduction screen that enables selection of the extracted introduction destination is displayed on the display unit.
The analysis method according to any one of claims 15 to 19, wherein
前記第1ユーザが提示する項目は、前記第2ユーザの対象疾患の治療成績に関する項目、前記第2ユーザの対象疾患の治療件数又は処置件数に関する項目、紹介先医師の性別に関する項目の中から選択される1つを含む、
ことを特徴とする請求項15乃至20のいずれか一に記載の解析方法。 The referral destination is a medical facility,
The item presented by the first user is selected from the items related to the treatment results of the target disease of the second user, the items related to the number of treatments or the number of treatments of the target disease of the second user, and the items related to the sex of the referring doctor Including one to be
The analysis method according to any one of claims 15 to 20, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017099772A JP2018195164A (en) | 2017-05-19 | 2017-05-19 | Analysis device, analysis program, and analysis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017099772A JP2018195164A (en) | 2017-05-19 | 2017-05-19 | Analysis device, analysis program, and analysis method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018195164A true JP2018195164A (en) | 2018-12-06 |
Family
ID=64570496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017099772A Pending JP2018195164A (en) | 2017-05-19 | 2017-05-19 | Analysis device, analysis program, and analysis method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018195164A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109961804A (en) * | 2019-02-12 | 2019-07-02 | 百度在线网络技术(北京)有限公司 | Smart machine satisfaction assessment method, apparatus and storage medium |
JP2021056786A (en) * | 2019-09-30 | 2021-04-08 | 富士通株式会社 | Impression estimation method, impression estimation program and impression estimation device |
JP2021064035A (en) * | 2019-10-10 | 2021-04-22 | 株式会社日立製作所 | Purchase promotion system and purchase promotion method |
WO2022209416A1 (en) * | 2021-03-30 | 2022-10-06 | ソニーグループ株式会社 | Information processing device, information processing system, and information processing method |
JP7154675B1 (en) * | 2021-04-28 | 2022-10-18 | 株式会社スクリエ | Medical Facility Referral System, Medical Facility Referral Method and Program |
-
2017
- 2017-05-19 JP JP2017099772A patent/JP2018195164A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109961804A (en) * | 2019-02-12 | 2019-07-02 | 百度在线网络技术(北京)有限公司 | Smart machine satisfaction assessment method, apparatus and storage medium |
CN109961804B (en) * | 2019-02-12 | 2021-11-02 | 百度在线网络技术(北京)有限公司 | Intelligent equipment satisfaction evaluation method and device and storage medium |
JP2021056786A (en) * | 2019-09-30 | 2021-04-08 | 富士通株式会社 | Impression estimation method, impression estimation program and impression estimation device |
JP7283336B2 (en) | 2019-09-30 | 2023-05-30 | 富士通株式会社 | IMPRESSION ESTIMATION METHOD, IMPRESSION ESTIMATION PROGRAM AND IMPRESSION ESTIMATION DEVICE |
JP2021064035A (en) * | 2019-10-10 | 2021-04-22 | 株式会社日立製作所 | Purchase promotion system and purchase promotion method |
JP7227884B2 (en) | 2019-10-10 | 2023-02-22 | 株式会社日立製作所 | Purchase promotion system and purchase promotion method |
WO2022209416A1 (en) * | 2021-03-30 | 2022-10-06 | ソニーグループ株式会社 | Information processing device, information processing system, and information processing method |
JP7154675B1 (en) * | 2021-04-28 | 2022-10-18 | 株式会社スクリエ | Medical Facility Referral System, Medical Facility Referral Method and Program |
WO2022230150A1 (en) * | 2021-04-28 | 2022-11-03 | 株式会社スクリエ | Medical facility referral system, medical facility referral method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11875895B2 (en) | Method and system for characterizing and/or treating poor sleep behavior | |
KR102116664B1 (en) | Online based health care method and apparatus | |
JP2018195164A (en) | Analysis device, analysis program, and analysis method | |
Rabbi et al. | Passive and in-situ assessment of mental and physical well-being using mobile sensors | |
US20190216333A1 (en) | Thermal face image use for health estimation | |
US10515631B2 (en) | System and method for assessing the cognitive style of a person | |
CN108778097A (en) | Device and method for assessing heart failure | |
US20170344713A1 (en) | Device, system and method for assessing information needs of a person | |
US20210118323A1 (en) | Method and apparatus for interactive monitoring of emotion during teletherapy | |
JP6891535B2 (en) | Behavior prediction | |
EP4251048A1 (en) | Method and system for detecting mood | |
US20210228130A1 (en) | Method, device and system for assessing an autism spectrum disorder | |
CN113096808B (en) | Event prompting method, device, computer equipment and storage medium | |
US20220036481A1 (en) | System and method to integrate emotion data into social network platform and share the emotion data over social network platform | |
JP2015103183A (en) | Medical examination support system | |
JP2019133271A (en) | Telemedicine terminal device, computer program, and server | |
JP6402345B1 (en) | Instruction support system, instruction support method and instruction support program | |
Migliorelli et al. | A store-and-forward cloud-based telemonitoring system for automatic assessing dysarthria evolution in neurological diseases from video-recording analysis | |
JP2002078699A (en) | Measurement of cognitive impairment due to incidental or intentional exposure to neurotoxic element | |
KR102179850B1 (en) | System and method for predicting health using analysis device for intraoral microbes (bacteria, virus, viroid, and/or fungi) | |
CN116344048A (en) | Causal reasoning device for care of cognition disorder patient | |
EP3117301A1 (en) | A method for controlling an individualized video data output on a display device and system | |
CN112168141B (en) | Information processing method, device, equipment and storage medium for remote inquiry | |
KR20130115706A (en) | Service providing method for physical condition based on user voice using smart device | |
JP7547687B1 (en) | Information processing device, system, program, and method for estimating diagnosis-related information regarding a neuropsychiatric disorder in a subject |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20191119 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20191122 |