JP2018195164A - Analysis device, analysis program, and analysis method - Google Patents

Analysis device, analysis program, and analysis method Download PDF

Info

Publication number
JP2018195164A
JP2018195164A JP2017099772A JP2017099772A JP2018195164A JP 2018195164 A JP2018195164 A JP 2018195164A JP 2017099772 A JP2017099772 A JP 2017099772A JP 2017099772 A JP2017099772 A JP 2017099772A JP 2018195164 A JP2018195164 A JP 2018195164A
Authority
JP
Japan
Prior art keywords
user
information
analysis
image information
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017099772A
Other languages
Japanese (ja)
Inventor
泰明 杉本
Yasuaki Sugimoto
泰明 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017099772A priority Critical patent/JP2018195164A/en
Publication of JP2018195164A publication Critical patent/JP2018195164A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To provide an analysis device, an analysis program, and an analysis method for appropriately presenting an introduction destination satisfying a user.SOLUTION: An analysis device is configured to, when a first user (for example, a doctor) presents an introduction destination to a second user (for example, a patient), acquire image information acquired by photographing expressions or gestures of the second user for items (topics) presented by the first user or voice information issued by the second user, and to associate the items presented by the first user with a feeling level determined on the basis of the image information or voice information of the second user, and to analyze a satisfaction level of the second user for each item (specify the items satisfying or dissatisfying the second user) on the basis of a change in the feeling level of the second user of each item, and to extract candidates of the introduction destination having a high satisfaction level to be presented to the second user.SELECTED DRAWING: Figure 7

Description

本発明は、解析装置、解析プログラム及び解析方法に関し、特に、ユーザの画像情報や音声情報に基づいてユーザが満足する紹介先を適切に提示する解析装置、当該解析装置で動作する解析プログラム及び当該解析装置における解析方法に関する。   The present invention relates to an analysis apparatus, an analysis program, and an analysis method, and in particular, an analysis apparatus that appropriately presents an introduction destination that a user is satisfied based on the user's image information and audio information, an analysis program that operates on the analysis apparatus, and The present invention relates to an analysis method in an analysis apparatus.

近年、地域の診療所等に従事する医師は不足する傾向にあり、地域の患者が中核病院に集中するようになってきていることから、中核病院での医師の負担が増大し、医師が辞めていくという悪循環が発生している。この問題に対して、地域における医師確保に加えて、地域の診療所等と中核病院とを適切に役割分担して患者の治療を一体的に実現することが重要になってきている。   In recent years, there has been a tendency for the number of doctors engaged in local clinics to become scarce, and since local patients have become concentrated in core hospitals, the burden on doctors at core hospitals has increased and doctors have quit. A vicious cycle of going on has occurred. In response to this problem, in addition to securing doctors in the region, it has become important to realize the treatment of patients in an integrated manner by appropriately sharing the roles of the local clinics and the core hospitals.

例えば、回復期の患者や軽い疾患の患者は地域の診療所等で診てもらい、重い疾患の患者は中核病院で診てもらうように、疾患やその重症度合に応じて、地域の診療所等と中核病院とで医療の役割分担を行うことが重要であり、このような役割分担を行うために、患者に適切な医療施設を紹介する方法の提案が求められている。   For example, depending on the disease and its severity, the local clinic, etc. should be used so that patients in the recovery phase and patients with mild illness are examined at a local clinic, etc. It is important to divide medical roles between the hospital and the core hospital, and in order to perform such role sharing, a proposal of a method for introducing appropriate medical facilities to patients is required.

このような医療施設の紹介に関する技術として、例えば、下記特許文献1には、医療機関が他の医療機関に患者を紹介したときの紹介事由、紹介元と紹介先の医療機関、紹介状作成日および患者情報を一レコードとして蓄積記憶している記憶部と、前記紹介先の医療機関ごとに前記記憶部のレコード数を計数する計数部と、前記計数部が計数結果に基づき前記紹介先の医療機関ごとに前記紹介事由に適した紹介先であるかを示す評価ポイントを付与する評価部を備えた医療機関評価装置において、前記計数部は、前記紹介事由が一致するレコード数を紹介先医療機関の紹介件数として計数する紹介件数計数手段と、前記紹介件数として計数されたレコードの紹介先医療機関を紹介元医療機関にしているレコードであって、前記紹介件数として計数されたレコードの患者情報と一致、且つ前記紹介件数として計数されたレコードの紹介状作成日から第一の所定期間内の紹介状作成日となっているレコード数を再紹介補正値として計数する再紹介補正値計数手段を有し、前記評価部は、前記紹介件数を前記再紹介補正値にて減算補正して評価ポイントを付与する構成が開示されている。   As a technique related to such medical facility introduction, for example, the following Patent Document 1 describes the reason for introduction when a medical institution introduces a patient to another medical institution, the institution of introduction and introduction destination, the date of introduction of the letter of introduction. And a storage unit that stores and stores patient information as one record, a counting unit that counts the number of records in the storage unit for each medical institution to which the referee is introduced, and the medical unit that receives the referral based on the counting result In the medical institution evaluation apparatus including an evaluation unit that assigns an evaluation point indicating whether the introduction is suitable for the introduction reason for each institution, the counting unit calculates the number of records with the same introduction reason as the introduction destination medical institution. The number of referrals counting means as the number of referrals, and a record in which the referral medical institution of the record counted as the number of referrals is the referral source medical institution, The number of records that coincides with the patient information of the counted records and that falls on the referral letter creation date within the first predetermined period from the referral letter creation date counted as the number of referrals is counted as a reintroduction correction value. There is disclosed a configuration having re-introduction correction value counting means, wherein the evaluation unit subtracts and corrects the number of introductions by the re-introduction correction value to give an evaluation point.

また、下記特許文献2には、患者を特定する患者情報と、患者の傷病名と、自医療機関を特定する自己情報とに基づいて、他の医療機関に患者を紹介する紹介状の作成機能を備えた診療支援装置であって、傷病の診療に適した少なくとも1の診療科名を傷病名毎に対応付けて記憶している傷病−診療科記憶手段と、紹介先として設定可能な医療機関に設置されている診療科名を医療機関毎に対応付けて記憶している医療機関情報記憶手段と、紹介状発行対象の患者の傷病名に対応する診療科が設置されている医療機関を紹介先候補として抽出して表示する候補表示手段と、を有する構成が開示されている。   Patent Document 2 below describes a function for creating an introduction letter that introduces a patient to another medical institution based on patient information for identifying the patient, the name of the patient's injury and illness, and self-information for identifying the own medical institution. And a medical institution that can be set as a referral destination, and a wound / disease / department storage unit that stores at least one name of a department that is suitable for the treatment of a wound Introduce medical institution information storage means that stores medical department names installed in the hospital in association with each medical institution, and medical institutions in which clinical departments corresponding to the names of wounds and illnesses for patients who are issued referral letters are installed A configuration having candidate display means for extracting and displaying as a previous candidate is disclosed.

また、医療施設の紹介に関する技術ではないが、会話の発音からユーザの満足度を解析する技術に関して、下記特許文献3には、対象会話における対象会話参加者の音声から抽出される、複数の単語データ、及び、対象会話参加者における各単語の発声時間を示す複数の発音時間データを取得するデータ取得部と、データ取得部により取得される複数の単語データの中から、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データを抽出する抽出部と、抽出部により抽出される複数の特定単語データ及び複数の特定単語データに関する複数の発声時間データに基づいて、対象会話における、対象会話参加者の丁寧表現から非丁寧表現への変化点を検出する変化検出部と、変化検出部による変化点の検出結果に基づいて、当該対象会話が不満会話であるか否かを判定する不満判定部と、を有する不満会話判定装置が開示されている。   Moreover, although it is not a technique regarding introduction of a medical facility, regarding the technique for analyzing user satisfaction from the pronunciation of a conversation, Patent Document 3 below discloses a plurality of words extracted from the speech of a target conversation participant in the target conversation. A data acquisition unit that acquires data and a plurality of pronunciation time data indicating the utterance time of each word in the target conversation participant, and a polite expression or a non-poor expression from the plurality of word data acquired by the data acquisition unit A target conversation participation in a target conversation based on a plurality of specific word data extracted by the extraction unit and a plurality of utterance time data related to the plurality of specific word data Based on the detection result of the change point by the change detection unit and the change detection unit that detects the change point from the polite expression of the person to the non-poor expression. Dissatisfaction conversation determination device is disclosed having a determining dissatisfaction judging section that judges whether the conversation.

特開2008−112390号公報JP 2008-112390 A 特開2003−167955号公報JP 2003-167955 A WO2014/069075WO2014 / 069095

地域にある診療所等では、ある疾患に対して精査や治療が行えないという理由で、診療所の患者を中核病院に紹介する場合(診療所→中核病院)、または、中核病院で回復期にある患者を診療所に紹介する場合(中核病院→診療所)には、どちらのケースでも、主治医は、患者に紹介する医療施設を選定する必要がある。この紹介先の選定に際し、特許文献1では、過去の紹介実績に基づいて紹介先を選定している。また、特許文献2では、患者の疾患を診療可能な診療科を有する医療施設を抽出し、更に患者の生活地(自宅、会社)に近い順に紹介先の候補として通知している。   When a clinic in the area introduces a patient at a clinic to a core hospital (clinic → core hospital) or because it is not possible to conduct a close examination or treatment for a disease, or during a recovery period at a core hospital When introducing a patient to a clinic (core hospital → clinic), in either case, the attending physician needs to select a medical facility to be introduced to the patient. In selecting the introduction destination, in Patent Document 1, the introduction destination is selected based on the past introduction results. Further, in Patent Document 2, a medical facility having a medical department capable of treating a patient's disease is extracted, and further notified as an introduction destination candidate in the order closer to the patient's living place (home, company).

ここで、中核病院で回復期にある患者を診療所に紹介する場合(中核病院→診療所)は、経過観察が主な目的となるため、特許文献1、2のように、過去の紹介実績に基づいて紹介先を選定したり、患者の生活地に近くて治療可能な施設を選定したりする方法でも顕著な問題は生じない。   Here, when introducing a patient in recovery phase at a core hospital to a clinic (core hospital → clinic), the main purpose is to follow-up. The method of selecting a referral destination based on the above or selecting a facility that can be treated close to the patient's place of life does not cause significant problems.

しかしながら、診療所で精査や治療が行えないために、患者を中核病院に紹介する場合(診療所→中核病院)においては、対象疾患の治療が可能な複数の中核病院は、病院ごとに医療(検査技術、治療技術)の質に差が存在し、また、患者の価値観は多種多様(治療成績、外部機関からの評価、紹介先医師の性別、通い易さ)であり、どの観点を重視するかによって患者が望んでいる紹介先は大きく異なるため、ユーザが満足する紹介先を適切に紹介することが難しいという問題があった。   However, when a patient is referred to a core hospital because it cannot be examined or treated at the clinic (clinic office → core hospital), multiple core hospitals that can treat the target disease are treated by each hospital ( There is a difference in the quality of examination technology and treatment technology, and patient values vary widely (therapeutic results, evaluation from external institutions, gender of referral physicians, ease of attendance), and what viewpoint is emphasized Since the referral destination desired by the patient varies greatly depending on whether or not the user is satisfied, there is a problem that it is difficult to appropriately introduce the referral destination that the user is satisfied with.

本発明は、上記問題点に鑑みてなされたものであって、その主たる目的は、ユーザが満足する紹介先を適切に提示することができる解析装置、解析プログラム及び解析方法を提供することにある。   The present invention has been made in view of the above problems, and a main object of the present invention is to provide an analysis apparatus, an analysis program, and an analysis method capable of appropriately presenting an introduction destination satisfied by a user. .

本発明の一側面は、第1ユーザが第2ユーザに紹介先を提示する解析装置であって、前記解析装置又は当該解析装置と通信可能な装置に設けられた映像入力部及び/又は音声入力部から、前記第1ユーザが提示する項目に対する前記第2ユーザの反応を表す、前記第2ユーザの顔又は上半身の画像情報、及び/又は、前記第2ユーザの会話の音声情報を取得する情報取得部と、前記第1ユーザが提示する項目と前記第2ユーザの画像情報及び/又は音声情報に基づいて判定された感情レベルとを対応付け、前記項目毎の前記感情レベルの変化に基づいて、各々の前記項目に対する前記第2ユーザの満足度を解析する解析部と、前記第2ユーザの満足度に基づいて紹介先の候補を抽出して前記第2ユーザに提示する出力部と、を備えることを特徴とする。   One aspect of the present invention is an analysis apparatus in which a first user presents an introduction destination to a second user, and a video input unit and / or audio input provided in the analysis apparatus or an apparatus capable of communicating with the analysis apparatus Information for acquiring image information of the face or upper body of the second user and / or voice information of the conversation of the second user, which represents a response of the second user to an item presented by the first user An acquisition unit, an item presented by the first user, and an emotion level determined based on the image information and / or audio information of the second user are associated with each other, and based on a change in the emotion level for each item An analysis unit that analyzes the satisfaction level of the second user for each of the items, and an output unit that extracts introduction destination candidates based on the satisfaction level of the second user and presents the candidates to the second user. Specially prepared To.

本発明の一側面は、第1ユーザが第2ユーザに紹介先を提示する解析装置で動作する解析プログラムであって、前記解析装置に、前記解析装置又は当該解析装置と通信可能な装置に設けられた映像入力部及び/又は音声入力部から、前記第1ユーザが提示する項目に対する前記第2ユーザの反応を表す、前記第2ユーザの顔又は上半身の画像情報、及び/又は、前記第2ユーザの会話の音声情報を取得する情報取得処理、前記第1ユーザが提示する項目と前記第2ユーザの画像情報及び/又は音声情報に基づいて判定された感情レベルとを対応付け、前記項目毎の前記感情レベルの変化に基づいて、各々の前記項目に対する前記第2ユーザの満足度を解析する解析処理、前記第2ユーザの満足度に基づいて紹介先の候補を抽出して前記第2ユーザに提示する出力処理、を実行させることを特徴とする。   One aspect of the present invention is an analysis program that operates on an analysis device in which a first user presents an introduction destination to a second user, and is provided in the analysis device or in a device that can communicate with the analysis device. Image information of the second user's face or upper body representing the reaction of the second user to the item presented by the first user from the video input unit and / or audio input unit, and / or the second Information acquisition processing for acquiring voice information of a user's conversation, an item presented by the first user and an emotion level determined based on the image information and / or voice information of the second user, Analysis processing for analyzing the satisfaction level of the second user with respect to each of the items based on the change in the emotion level, extracting introduction destination candidates based on the satisfaction level of the second user, and extracting the second user. Output process of presenting to The, characterized in that to the execution.

本発明の一側面は、第1ユーザが第2ユーザに紹介先を提示する解析装置を含むシステムにおける解析方法であって、前記解析装置は、前記解析装置又は当該解析装置と通信可能な装置に設けられた映像入力部及び/又は音声入力部から、前記第1ユーザが提示する項目に対する前記第2ユーザの反応を表す、前記第2ユーザの顔又は上半身の画像情報、及び/又は、前記第2ユーザの会話の音声情報を取得する情報取得処理と、前記第1ユーザが提示する項目と前記第2ユーザの画像情報及び/又は音声情報に基づいて判定された感情レベルとを対応付け、前記項目毎の前記感情レベルの変化に基づいて、各々の前記項目に対する前記第2ユーザの満足度を解析する解析処理と、前記第2ユーザの満足度に基づいて紹介先の候補を抽出して前記第2ユーザに提示する出力処理と、を実行することを特徴とする。   One aspect of the present invention is an analysis method in a system including an analysis device in which a first user presents an introduction destination to a second user, and the analysis device is a device that can communicate with the analysis device or the analysis device. Image information of the face or upper body of the second user representing the reaction of the second user to an item presented by the first user from the provided video input unit and / or audio input unit, and / or the first An information acquisition process for acquiring voice information of a conversation between two users, an item presented by the first user, and an emotion level determined based on the image information and / or voice information of the second user, Based on the change in the emotion level for each item, an analysis process for analyzing the satisfaction level of the second user with respect to each of the items, and extracting introduction candidates based on the satisfaction level of the second user An output process of presenting the serial second user, characterized in that the run.

本発明の解析装置、解析プログラム及び解析方法によれば、ユーザが満足する紹介先を適切に提示することができる。   According to the analysis apparatus, the analysis program, and the analysis method of the present invention, it is possible to appropriately present an introduction destination that the user is satisfied with.

その理由は、第1ユーザが第2ユーザに紹介先を提示する解析装置は、第1ユーザが提示する項目(話題)を取得すると共に、第1ユーザが提示する項目に対する第2ユーザの画像情報及び/又は音声情報を取得し、第1ユーザが提示する項目と第2ユーザの画像情報及び/又は音声情報に基づいて判定された感情レベルとを対応付け、項目毎の感情レベルの変化に基づいて、各々の項目に対する第2ユーザの満足度を解析し、満足度が高い紹介先の候補を抽出して第2ユーザに提示するからである。   The reason is that the analysis device in which the first user presents the introduction destination to the second user obtains the item (topic) presented by the first user and the image information of the second user with respect to the item presented by the first user. And / or audio information is acquired, the item presented by the first user is associated with the emotion level determined based on the image information and / or audio information of the second user, and the emotion level is changed for each item. This is because the satisfaction level of the second user for each item is analyzed, and introduction destination candidates with high satisfaction levels are extracted and presented to the second user.

本発明の一実施例に係る紹介システムの構成を示す模式図である。It is a schematic diagram which shows the structure of the introduction system which concerns on one Example of this invention. 本発明の一実施例に係る紹介システムの他の構成を示す模式図である。It is a schematic diagram which shows the other structure of the introduction system which concerns on one Example of this invention. 本発明の一実施例に係る紹介システムの他の構成を示す模式図である。It is a schematic diagram which shows the other structure of the introduction system which concerns on one Example of this invention. 本発明の一実施例に係る紹介システムの他の構成を示す模式図である。It is a schematic diagram which shows the other structure of the introduction system which concerns on one Example of this invention. 本発明の一実施例に係る管理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the management apparatus which concerns on one Example of this invention. 本発明の一実施例に係る解析装置の構成を示すブロック図である。It is a block diagram which shows the structure of the analyzer which concerns on one Example of this invention. 本発明の一実施例に係る紹介システムの概略動作を示す模式図である。It is a schematic diagram which shows schematic operation | movement of the introduction system which concerns on one Example of this invention. 本発明の一実施例に係る解析装置の表示部に表示される出力画面の一例を示す図である。It is a figure which shows an example of the output screen displayed on the display part of the analyzer which concerns on one Example of this invention. 本発明の一実施例に係る解析装置の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the analyzer which concerns on one Example of this invention. 本発明の一実施例に係る解析装置の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the analyzer which concerns on one Example of this invention. 本発明の一実施例に係る管理装置の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the management apparatus which concerns on one Example of this invention.

背景技術で示したように、地域の診療所等と中核病院とで医療の役割分担を行うことが重要であり、診療所の患者を中核病院に紹介する場合(診療所→中核病院)や、中核病院の患者を診療所に紹介する場合(中核病院→診療所)には、主治医は患者に紹介する医療施設を選定する必要がある。   As shown in the background art, it is important to divide the role of medical care between local clinics and core hospitals, and when introducing patients from the clinic to the core hospital (clinic office → core hospital) When introducing a patient from a core hospital to a clinic (core hospital → clinic), the attending physician needs to select a medical facility to introduce the patient.

この紹介先の選定に際し、過去の紹介実績に基づいて紹介先を選定したり、患者の生活地に近くて治療可能な施設を選定したりする方法が提案されているが、診療所で精査や治療が行えないために、患者を中核病院に紹介する場合(診療所→中核病院)においては、対象疾患の治療が可能な複数の中核病院は病院ごとに医療の質に差が存在し、また、患者の価値観は多種多様であるため、ユーザが満足する紹介先を適切に紹介することが難しいという問題があった。   At the time of selection of this referral destination, methods of selecting a referral destination based on past referral results and selecting a facility that can be treated close to the patient's place of life have been proposed. When patients are referred to a core hospital because treatment cannot be performed (clinic office → core hospital), there are differences in the quality of medical care among multiple core hospitals that can treat the target disease. Since patient values vary, there is a problem that it is difficult to appropriately introduce a referral destination that the user is satisfied with.

また、このような問題は、医師が患者に医療施設を紹介する場合に限らず、不動産業者が顧客に不動産を紹介する場合、証券マンが顧客に株式を紹介する場合、旅行業者が顧客に旅行プランを紹介する場合、保険外交員が顧客に保険を紹介する場合など、第1のユーザが第2のユーザに、任意の種類の物や情報を紹介する場合に対して同様に生じる。   Such a problem is not limited to the case where a doctor introduces a medical facility to a patient. When a real estate agent introduces real estate to a customer, a securities agent introduces shares to a customer, a travel agent travels to the customer. In the case of introducing a plan, the same occurs when the first user introduces an arbitrary kind of object or information to the second user, such as when an insurance agent introduces insurance to a customer.

そこで、本発明の一実施の形態では、第1ユーザ(例えば、医師)が第2ユーザ(例えば、患者)に紹介先を提示する際に、第1ユーザが提示する項目(話題)に対する第2ユーザの表情や仕草を撮影した画像情報や第2ユーザが発音した音声情報を取得し、第1ユーザが提示する項目と第2ユーザの画像情報や音声情報に基づいて判定された感情レベルとを対応付け、項目毎の第2ユーザの感情レベルの変化に基づいて、各々の項目に対する第2ユーザの満足度を解析(第2ユーザが満足している項目や不満に感じている項目を特定)し、満足度が高い紹介先の候補を抽出して第2ユーザに提示するようにする。以下、医師が患者に医療施設を紹介する場合を例にして、具体的に説明する。   Therefore, in one embodiment of the present invention, when a first user (for example, a doctor) presents an introduction destination to a second user (for example, a patient), a second item for an item (topic) presented by the first user. The image information obtained by photographing the user's facial expression and gesture and the sound information pronounced by the second user are acquired, and the items presented by the first user and the emotion level determined based on the image information and sound information of the second user are obtained. Based on the association and the change in the emotion level of the second user for each item, the satisfaction level of the second user for each item is analyzed (identified items that the second user is satisfied with or feels dissatisfied with) Then, introduction candidate candidates with high satisfaction are extracted and presented to the second user. Hereinafter, a case where a doctor introduces a medical facility to a patient will be described as an example.

上記した本発明の実施の形態についてさらに詳細に説明すべく、本発明の一実施例に係る解析装置、解析プログラム及び解析方法について、図1乃至図11を参照して説明する。図1乃至図4は、本実施例の紹介システムの構成を示す模式図であり、図5は、本実施例の管理装置の構成を示すブロック図、図6は、本実施例の解析装置の構成を示すブロック図である。また、図7は、本実施例の紹介システムの概略動作を示す模式図であり、図8は、本実施例の解析装置の表示部に表示される紹介画面の一例を示す図である。また、図9及び図10は、本実施例の解析装置の動作を示すフローチャート図であり、図11は、本実施例の管理装置の動作を示すフローチャート図である。   In order to describe the above-described embodiment of the present invention in more detail, an analysis apparatus, an analysis program, and an analysis method according to an embodiment of the present invention will be described with reference to FIGS. 1 to 4 are schematic diagrams showing the configuration of the introduction system of the present embodiment, FIG. 5 is a block diagram showing the configuration of the management device of the present embodiment, and FIG. 6 is the analysis device of the present embodiment. It is a block diagram which shows a structure. FIG. 7 is a schematic diagram illustrating a schematic operation of the introduction system according to the present embodiment. FIG. 8 is a diagram illustrating an example of an introduction screen displayed on the display unit of the analysis apparatus according to the present embodiment. FIGS. 9 and 10 are flowcharts illustrating the operation of the analysis apparatus according to the present embodiment. FIG. 11 is a flowchart illustrating the operation of the management apparatus according to the present embodiment.

図1に示すように、本実施例の紹介システム10は、DB(Data Base)を参照して、ユーザの感情レベルを判定する管理装置20と、ユーザの画像情報や音声情報を取得して管理装置20に提供すると共に、管理装置20から取得した項目毎の感情レベルを解析して、ユーザが満足する医療施設を紹介する解析装置30などで構成される。これらはイーサネット(登録商標)、トークンリング、FDDI(Fiber-Distributed Data Interface)等の規格により定められるLAN(Local Area Network)やWAN(Wide Area Network)等の通信ネットワーク40を介して接続されている。   As shown in FIG. 1, the introduction system 10 of this embodiment refers to a DB (Data Base), acquires a management device 20 that determines a user's emotion level, and acquires and manages user image information and audio information. In addition to providing to the device 20, the emotion level for each item acquired from the management device 20 is analyzed, and the analysis device 30 or the like that introduces a medical facility that the user is satisfied with. These are connected via a communication network 40 such as a LAN (Local Area Network) or a WAN (Wide Area Network) defined by standards such as Ethernet (registered trademark), token ring, and FDDI (Fiber-Distributed Data Interface). .

なお、図1では、紹介システム10を管理装置20と解析装置30とで構成したが、図2に示すように、紹介システム10に、解析装置30と通信可能な入力装置50(後述する映像入力部や音声入力部を備える装置)を設け、入力装置50が取得したユーザの画像情報や音声情報を有線、無線LAN、Bluetooth(登録商標)やNFC(Near Field Communication)などの近距離無線通信などを用いて解析装置30に送信する構成としてもよい。   In FIG. 1, the introduction system 10 includes the management device 20 and the analysis device 30. However, as illustrated in FIG. 2, the introduction system 10 includes an input device 50 (video input described later) that can communicate with the analysis device 30. Short-distance wireless communication such as wired, wireless LAN, Bluetooth (registered trademark) or NFC (Near Field Communication), etc. It is good also as a structure which transmits to the analysis apparatus 30 using.

また、図1及び図2では、紹介システム10にDBを備える管理装置20を設けたが、解析装置30の記憶部にDBを備える場合は、図3に示すように、紹介システム10を解析装置30、又は、解析装置30及び入力装置50で構成してもよい。   In FIG. 1 and FIG. 2, the introduction system 10 includes the management device 20 including the DB. However, when the storage unit of the analysis device 30 includes the DB, as illustrated in FIG. 30 or the analysis device 30 and the input device 50.

また、図1乃至図3では、解析装置30の前で第1ユーザ(本実施例では医師とする。)と第2ユーザ(本実施例では患者とする。)とが対面して会話を行う構成としているが、図4に示すように、第1ユーザ(医師)が使用する解析装置30とは別に、第2ユーザ(患者)が使用するクライアント装置51を設け、解析装置30とクライアント装置51とを通信ネットワーク40で接続し、映像及び音声をリアルタイムで双方向通信できるようにしてもよい。以下、図1の構成を前提にして、各装置について詳細に説明する。   Further, in FIGS. 1 to 3, a first user (referred to as a doctor in this embodiment) and a second user (referred to as a patient in this embodiment) face each other and have a conversation in front of the analysis device 30. As shown in FIG. 4, a client device 51 used by the second user (patient) is provided separately from the analysis device 30 used by the first user (doctor), and the analysis device 30 and the client device 51 are provided. May be connected via the communication network 40 so that video and audio can be bidirectionally communicated in real time. Hereinafter, each device will be described in detail on the assumption of the configuration of FIG.

[管理装置]
管理装置20は、解析装置30から送信される情報とDBに保存された情報とを比較して第2ユーザの感情レベルを判定するコンピュータ装置やサーバなどであり、図5(a)に示すように、制御部21、記憶部22、ネットワークI/F部23などで構成される。
[Management device]
The management device 20 is a computer device or server that compares the information transmitted from the analysis device 30 with the information stored in the DB to determine the emotion level of the second user, as shown in FIG. The control unit 21, the storage unit 22, the network I / F unit 23, etc.

制御部21は、マイクロプロセッサ等により構成されるCPU(Central Processing Unit)とROM(Read Only Memory)やRAM(Random Access Memory)などのメモリとで構成され、CPUは、ROMや記憶部22に記憶した制御プログラムをRAMに展開して実行することにより、管理装置20全体の動作を制御する。   The control unit 21 includes a CPU (Central Processing Unit) configured by a microprocessor and the like, and a memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory), and the CPU is stored in the ROM or the storage unit 22. The operation of the entire management apparatus 20 is controlled by developing and executing the control program on the RAM.

記憶部22は、HDD(Hard Disk Drive)やSSD(Solid State Drive)などで構成され、CPUが各部を制御するためのプログラム、DB(各感情レベル(満足〜不満)の代表的な画像情報や音声情報)などを記憶する。   The storage unit 22 includes an HDD (Hard Disk Drive), an SSD (Solid State Drive), and the like, a program for the CPU to control each unit, and DB (representative image information of each emotion level (satisfaction to dissatisfaction)) Voice information) is stored.

ネットワークI/F部23は、NIC(Network Interface Card)やモデムなどで構成され、管理装置20を通信ネットワーク40に接続し、解析装置30からの画像情報や音声情報を受信すると共に、解析装置30に感情レベルの判定結果を送信する。   The network I / F unit 23 includes a NIC (Network Interface Card), a modem, and the like, connects the management device 20 to the communication network 40, receives image information and audio information from the analysis device 30, and also analyzes the analysis device 30. Send emotion level judgment results to

また、上記制御部21は、図5(b)に示すように、レベル判定部21aなどとして機能する。レベル判定部21aは、解析装置30から、第2ユーザの顔(ジェスチャも判断要素にする場合は上半身)を撮影した画像情報を受信したら、受信した顔又は上半身の画像情報と記憶部22のDBに保存されている各感情レベルの顔又は上半身の代表的な画像情報とを比較し、公知のパターン認識技術を利用して、例えば、眉毛や目尻、口元の角度、目や口の開き具合、顔のうつむき具合などの一致率を計算することによって、受信した画像情報がどの感情レベルに属するかを判定し、判定結果(感情レベル)を解析装置30に送信する。また、解析装置30から、第2ユーザが発音した音声情報を受信したら、受信した音声情報と記憶部22のDBに保存されている各感情レベルの代表的な音声情報とを比較し、公知のパターン認識技術を利用して、音声の強弱、高低、抑揚、会話のスピード、会話の間合いなどの一致率を計算することによって、受信した音声情報がどの感情レベルに属するかを判定し、判定結果(感情レベル)を解析装置30に送信する。なお、感情レベルの判定は画像情報又は音声情報の一方に基づいて行ってもよいし、画像情報及び音声情報の双方に基づいて行ってもよい。   Further, the control unit 21 functions as a level determination unit 21a and the like as shown in FIG. When the level determination unit 21a receives image information of the second user's face (upper body if a gesture is also used as a determination element) from the analysis device 30, the level determination unit 21a receives the received face or upper body image information and the DB of the storage unit 22 Compared with the representative image information of the face or upper body of each emotion level stored in, using known pattern recognition technology, for example, eyebrows and eye corners, the angle of the mouth, the degree of opening of the eyes and mouth, By calculating the matching rate such as the degree of facial depression, it is determined to which emotion level the received image information belongs, and the determination result (emotion level) is transmitted to the analysis device 30. Moreover, when the voice information pronounced by the second user is received from the analysis device 30, the received voice information is compared with representative voice information of each emotion level stored in the DB of the storage unit 22. Use pattern recognition technology to determine the emotion level to which the received voice information belongs by calculating the match rate of voice strength, height, inflection, conversation speed, conversation pause, etc. (Emotion level) is transmitted to the analysis device 30. The determination of the emotion level may be performed based on either image information or audio information, or may be performed based on both image information and audio information.

[解析装置]
解析装置30は、第1ユーザが第2ユーザと対面しながら使用するパーソナルコンピュータ、タブレット端末などであり、図6(a)に示すように、制御部31、記憶部32、ネットワークI/F部33、映像入力部34、音声入力部35、表示部36、操作部37などで構成される。
[Analyzer]
The analysis device 30 is a personal computer, a tablet terminal, or the like that the first user uses while facing the second user. As shown in FIG. 6A, the control unit 31, the storage unit 32, the network I / F unit 33, a video input unit 34, an audio input unit 35, a display unit 36, an operation unit 37, and the like.

制御部31は、マイクロプロセッサ等により構成されるCPUとROMやRAMなどのメモリとで構成され、CPUは、ROMや記憶部32に記憶した制御プログラムをRAMに展開して実行することにより、解析装置30全体の動作を制御する。   The control unit 31 includes a CPU constituted by a microprocessor or the like and a memory such as a ROM or a RAM, and the CPU analyzes the control program stored in the ROM or the storage unit 32 by developing the program in the RAM and executing it. The operation of the entire apparatus 30 is controlled.

記憶部32は、HDDやSSDなどで構成され、CPUが各部を制御するためのプログラム、自装置の処理機能に関する情報、映像入力部34が取得した画像情報、音声入力部35が取得した音声情報、医療施設に関する情報、必要に応じて、DB(各感情のレベル(満足〜不満)の代表的な画像情報や音声情報)などを記憶する。   The storage unit 32 is configured by an HDD, an SSD, or the like, and includes a program for the CPU to control each unit, information on processing functions of the own device, image information acquired by the video input unit 34, and audio information acquired by the audio input unit 35. Information on medical facilities, DB (representative image information and voice information of each emotion level (satisfaction to dissatisfaction)) and the like are stored as necessary.

ネットワークI/F部33は、NICやモデムなどで構成され、解析装置30を通信ネットワーク40に接続し、管理装置20に第2ユーザの画像情報及び/又は音声情報などを送信し、管理装置20から感情レベルの判定結果を受信する。なお、図2に示すように、入力装置50が別に配置される場合は、ネットワークI/F部33は、更に、有線、無線LAN、Bluetooth(登録商標)やNFCなどの近距離無線通信により、入力装置50から第2ユーザの画像情報及び/又は音声情報などを受信する。   The network I / F unit 33 is configured by a NIC, a modem, and the like, connects the analysis device 30 to the communication network 40, transmits image information and / or voice information of the second user to the management device 20, and the management device 20 Receives emotion level judgment results from. As shown in FIG. 2, when the input device 50 is separately provided, the network I / F unit 33 further performs short-range wireless communication such as wired, wireless LAN, Bluetooth (registered trademark), NFC, etc. The image information and / or audio information of the second user is received from the input device 50.

映像入力部34は、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)カメラなどで構成され、一定間隔(例えば、1秒毎)又は連続して、第2ユーザ(患者)の顔又は上半身を撮影して、画像情報(静止画又は動画)を取得する。   The video input unit 34 is configured by a CCD (Charge Coupled Devices), a CMOS (Complementary Metal Oxide Semiconductor) camera, or the like, and the face or upper body of the second user (patient) at regular intervals (for example, every second) or continuously. To obtain image information (still image or moving image).

音声入力部35は、マイクなどで構成され、第2ユーザ(患者)の音声を録音して、音声情報を取得する。なお、第1ユーザ(医師)の音声に基づいて項目を特定する場合は、第1ユーザ(医師)及び第2ユーザ(患者)の音声情報を取得する。その際、第1ユーザの音声と第2ユーザの音声とは、例えば、音声の強弱や高低などに基づいて判別してもよいし、指向性を有する音声入力部35を2つ設け、各々の音声入力部35を第1ユーザと第2ユーザとに向けて設置することにより、第1ユーザの音声と第2ユーザの音声とを判別できるようにしてもよい。   The voice input unit 35 includes a microphone and records voice of the second user (patient) to acquire voice information. In addition, when specifying an item based on the voice of the first user (doctor), the voice information of the first user (doctor) and the second user (patient) is acquired. At that time, the voice of the first user and the voice of the second user may be discriminated based on, for example, the intensity or height of the voice, or two voice input sections 35 having directivity are provided, By installing the voice input unit 35 toward the first user and the second user, the voice of the first user and the voice of the second user may be discriminated.

表示部36は、液晶表示装置(LCD:Liquid Crystal Display)や有機EL(electroluminescence)表示装置などで構成され、第1ユーザが第2ユーザに医療施設を紹介する紹介画面などを表示する。   The display unit 36 is composed of a liquid crystal display (LCD), an organic EL (electroluminescence) display device, or the like, and displays an introduction screen for introducing a medical facility to the second user by the first user.

操作部37は、マウスやキーボード、表示部36上に形成された電極が格子状に配列されたタッチセンサなどで構成され、本実施例の解析に関する各種操作や上記の紹介画面に対する各種操作を可能にする。   The operation unit 37 includes a mouse, a keyboard, a touch sensor in which electrodes formed on the display unit 36 are arranged in a grid, and can perform various operations related to the analysis of the present embodiment and various operations on the introduction screen. To.

また、上記制御部31は、図6(b)に示すように、計時部31a、情報取得部31b、解析部31c、出力部31dなどとしても機能する。   Further, as shown in FIG. 6B, the control unit 31 also functions as a timing unit 31a, an information acquisition unit 31b, an analysis unit 31c, an output unit 31d, and the like.

計時部31aは、CPUのクロックなどに基づいて時間を計測する。具体的には、映像入力部34が画像情報を取得した時刻、音声入力部35が音声情報を取得した時刻などを計測する。   The timer 31a measures time based on the CPU clock and the like. Specifically, the time when the video input unit 34 acquires image information, the time when the audio input unit 35 acquires audio information, and the like are measured.

情報取得部31bは、映像入力部34及び/又は音声入力部35から、第1ユーザ(医師)が提示する項目に対する第2ユーザ(患者)の反応を表す、第2ユーザの画像情報及び/又は音声情報を取得する。具体的には、予め定めた時間毎(例えば、1秒毎)に、映像入力部34から第2ユーザ(患者)の顔又は上半身を撮影した画像情報を取得すると共に、音声入力部35から第2ユーザ(患者)の音声を一定時間録音した音声情報(及び、必要に応じて第1ユーザ(医師)の音声を一定時間録音した音声情報)を取得し、第2ユーザ(患者)の画像情報及び/又は音声情報を管理装置20に送信して感情レベルの判定を指示する。その際、管理装置20での感情レベルの判定が容易になるように、情報取得部31bは、必要に応じて、公知の手法を用いて画像情報及び/又は音声情報をパターン化し、パターン化した画像情報(例えば、眉毛や目尻、口元の角度、目や口の開き具合、顔のうつむき具合などを識別可能にした画像情報)及び/又はパターン化した音声情報(例えば、声の強弱や高低、抑揚、会話のスピード、会話の間合いなどを識別可能にした音声情報)を管理装置20に送信してもよい。   The information acquisition unit 31b receives from the video input unit 34 and / or the audio input unit 35 the image information of the second user and / or the response of the second user (patient) to the items presented by the first user (doctor). Get audio information. Specifically, at predetermined time intervals (for example, every second), image information obtained by photographing the face or upper body of the second user (patient) is acquired from the video input unit 34 and the voice input unit 35 receives the first information. Audio information obtained by recording voices of two users (patients) for a certain period of time (and voice information obtained by recording voices of the first user (doctor) for a certain period of time if necessary) is acquired, and image information of the second user (patient) is obtained. And / or audio | voice information is transmitted to the management apparatus 20, and determination of an emotion level is instruct | indicated. At that time, the information acquisition unit 31b patterns the image information and / or the sound information using a known method as necessary so as to facilitate the determination of the emotion level in the management device 20. Image information (for example, image information that makes it possible to identify the eyebrows, the corners of the eyes, the angle of the mouth, the degree of opening of the eyes and the mouth, the state of depression of the face, etc.) and / or the patterned audio information (for example, the strength or weakness of the voice, Audio information that enables identification of inflection, conversation speed, conversation pause, etc.) may be transmitted to the management device 20.

解析部31cは、管理装置20から感情レベルの判定結果を受信し、各々の画像情報及び/又は音声情報に対応する感情レベルと計時部31aが計測した時刻とを関連付ける。また、公知の音声認識技術を利用して、第1ユーザ(医師)の音声情報から第1ユーザが提示する項目を特定し、特定した項目と計時部31aが計測した時刻とを関連付ける。そして、計時部31aが計測した時刻に基づいて、管理装置20から受信した感情レベルと第1ユーザ(医師)の音声情報から特定した項目とを対応付け、どの項目に対して第2ユーザ(患者)の感情がどのように変化したかに基づいて、各々の項目に対する第2ユーザ(患者)の満足度を解析し、第2ユーザが満足している(感情レベルが高い)項目や第2ユーザが不満を感じている(感情レベルが低い)項目を特定する。   The analysis unit 31c receives the emotion level determination result from the management device 20, and associates the emotion level corresponding to each piece of image information and / or audio information with the time measured by the time measuring unit 31a. Further, using a known voice recognition technology, an item presented by the first user is identified from the voice information of the first user (doctor), and the identified item is associated with the time measured by the timer unit 31a. Then, based on the time measured by the time measuring unit 31a, the emotion level received from the management device 20 is associated with the item specified from the voice information of the first user (doctor), to which item the second user (patient ) The second user (patient) 's satisfaction with each item is analyzed based on how the emotion of () has changed, and the second user is satisfied (high emotion level) and the second user Identify items that are dissatisfied (low emotion level).

なお、第1ユーザが提示する項目は、例えば、第2ユーザの対象疾患の治療成績に関する項目、第2ユーザの対象疾患の治療件数又は処置件数に関する項目、紹介先医師の性別に関する項目などであり、上記治療成績は、例えば、第2ユーザの対象疾患を手術した後の平均入院日数、第2ユーザの対象疾患の治療の成功率、第2ユーザの対象疾患を手術した後の所定の年数後の生存率などである。また、解析装置30の記憶部32にDBを備える場合は、解析部31cをレベル判定部として機能させ、情報取得部31bが取得した画像情報及び/又は音声情報と、DBに保存されている各感情レベルの代表的な画像情報及び/又は音声情報とを比較し、公知のパターン認識技術を利用して感情レベルを判定してもよい。また、情報取得部31bが取得した画像情報及び/又は音声情報の時間的な変化(初期状態からの変化)に基づいて感情レベルを相対的に判定してもよい。   The items presented by the first user are, for example, items related to the treatment results of the target disease of the second user, items related to the number of treatments or treatments of the target disease of the second user, items related to the gender of the referring doctor, and the like. The treatment results are, for example, the average number of days of hospitalization after operating the target disease of the second user, the success rate of treatment of the target disease of the second user, after a predetermined number of years after operating the target disease of the second user Such as the survival rate. Further, when the storage unit 32 of the analysis apparatus 30 includes a DB, the analysis unit 31c functions as a level determination unit, and image information and / or audio information acquired by the information acquisition unit 31b and each stored in the DB. The emotion level may be determined using a known pattern recognition technique by comparing typical image information and / or voice information of the emotion level. Further, the emotion level may be relatively determined based on temporal changes (changes from the initial state) of the image information and / or audio information acquired by the information acquisition unit 31b.

出力部31dは、解析部31cの解析結果に基づいて、記憶部32に記憶した医療施設の中から第2ユーザ(患者)の満足度が高い医療施設の候補を抽出し、抽出した候補を選択可能にする紹介画面を表示部36に表示させる。具体的には、第2ユーザ(患者)が満足している(感情のレベルが高い)項目に基づいて、医療施設の候補を抽出したり、第2ユーザ(患者)が不満を感じている(感情のレベルが低い)項目に基づいて、抽出した候補を除外したりする。そして、1又は複数の医療施設の候補を選択可能に記載した紹介画面を作成して表示部36に表示させる。   Based on the analysis result of the analysis unit 31c, the output unit 31d extracts a medical facility candidate with a high degree of satisfaction of the second user (patient) from the medical facilities stored in the storage unit 32, and selects the extracted candidate An introductory screen to be enabled is displayed on the display unit 36. Specifically, based on items that the second user (patient) is satisfied with (high emotional level), medical facility candidates are extracted, or the second user (patient) feels dissatisfied ( Or the extracted candidates are excluded based on items with a low emotion level. Then, an introduction screen describing that one or a plurality of medical facility candidates can be selected is created and displayed on the display unit 36.

上記計時部31a、情報取得部31b、解析部31c、出力部31dはハードウェアとして構成してもよいし、制御部31を、計時部31a、情報取得部31b、解析部31c、出力部31dとして機能させる解析プログラムとして構成し、当該解析プログラムを制御部31のCPUに実行させるようにしてもよい。   The timing unit 31a, the information acquisition unit 31b, the analysis unit 31c, and the output unit 31d may be configured as hardware, and the control unit 31 may be configured as the timing unit 31a, the information acquisition unit 31b, the analysis unit 31c, and the output unit 31d. The analysis program may be configured to function, and the analysis program may be executed by the CPU of the control unit 31.

なお、図1乃至図6は、本実施例の紹介システム10、管理装置20、解析装置30の一例であり、その構成や制御は適宜変更可能である。例えば、上記では表示部36に紹介画面を表示させて紹介先を通知する構成としたが、紹介先を音声で通知する構成としてもよく、その場合は、解析装置30にスピーカなどの音声出力部を設ければよい。   1 to 6 are examples of the introduction system 10, the management device 20, and the analysis device 30 of the present embodiment, and the configuration and control thereof can be changed as appropriate. For example, in the above description, the introduction screen is displayed on the display unit 36 and the introduction destination is notified. However, the introduction destination may be notified by voice. In this case, the analysis apparatus 30 may be provided with a voice output unit such as a speaker. May be provided.

以下、上記構成の紹介システムの概略動作について、図7を参照して説明する。ここでは、一定間隔(t0、t1、t2、…)で、第2ユーザの表情や仕草を撮影する(時刻t0の時:画像0、時刻t1の時:画像1、時刻t2の時:画像2、…)。そして、会話の中で、第2ユーザの感情レベルの変化を常時測定する。   The schematic operation of the introduction system configured as described above will be described below with reference to FIG. Here, the facial expression and gesture of the second user are photographed at regular intervals (t0, t1, t2,...) (Time t0: image 0, time t1: image 1, time t2: image 2). ...). And the change of an emotion level of a 2nd user is always measured in conversation.

まず、図7(a)に示すように、時刻t0で撮影した画像0(第2ユーザの表情)を管理装置20に送信し、画像0がどの感情レベルに属するかを管理装置20(DB)に問い合わせる。DBは、受信した画像0(第2ユーザの表情)の特徴と、予め保存している各感情レベル(レベル2〜レベル−2)の画像群の特徴と、を比較することで、受信した画像0(第2ユーザの表情)がどの感情レベルに属するかを公知のパターン認識技術を利用して判定し、その判定結果を解析装置30に送信する。ここでは、時刻t0での画像0はレベル0と判定される。   First, as shown in FIG. 7A, the image 0 (second user's facial expression) taken at time t0 is transmitted to the management device 20, and the emotion level to which the image 0 belongs is managed by the management device 20 (DB). Contact The DB compares the characteristics of the received image 0 (the second user's facial expression) with the characteristics of the image groups of each emotion level (level 2 to level-2) stored in advance, thereby receiving the received image. Which emotion level 0 (facial expression of the second user) belongs to is determined using a known pattern recognition technique, and the determination result is transmitted to the analysis device 30. Here, image 0 at time t0 is determined to be level 0.

そして、図7(b)に示すように、上記処理を一定時間毎に繰り返し、管理装置20から受信した感情レベルを第1ユーザ(医師)の音声情報から特定した項目に対応付けることで、どの会話の時に、第2ユーザ(患者)の感情がどのように変化したのかを読み取ることが可能となる。ここでは、第2ユーザ(患者)は、転院に際して、転院先の病院の候補における治療成績の話の時に感情レベルが上昇していることから、転院先の治療成績に満足していると判断することができる。また、転院先の病院の候補における通院時間の話の時に感情レベルが低下していることから、通院時間に少し不満を感じていると判断することができる。また、転院先の病院の候補における紹介先の医師の話の時は感情レベルが通常レベルであることから、医師の性別(男性、女性)の観点を重視していないと判断することができる。   And as shown in FIG.7 (b), the said process is repeated for every fixed time, and by matching the emotion level received from the management apparatus 20 with the item specified from the audio | voice information of the 1st user (doctor), which conversation At this time, it is possible to read how the emotion of the second user (patient) has changed. Here, the second user (patient) judges that he / she is satisfied with the treatment result of the transfer destination because the emotional level has risen when talking about the treatment result in the hospital candidate of the transfer destination during the transfer. be able to. In addition, since the emotional level is lowered when talking about the hospital visit time in the hospital candidate of the transfer destination, it can be determined that the patient feels a little dissatisfied with the hospital visit time. Further, since the emotional level is the normal level when talking to the referral doctor in the hospital candidate of the transfer destination, it can be determined that the gender (male, female) viewpoint of the doctor is not emphasized.

なお、上記の一定時間は、解析装置30又は入力装置50の設定画面(図示せず)にて調整が可能である。また、ここでは、第2ユーザ(患者)の画像情報に基づいて感情レベルを判定しているが、画像情報に代えて、若しくは画像情報に加えて、音声情報に基づいて感情レベルを判定しても良い。   Note that the predetermined time can be adjusted on the setting screen (not shown) of the analysis device 30 or the input device 50. Here, the emotion level is determined based on the image information of the second user (patient), but the emotion level is determined based on the audio information instead of or in addition to the image information. Also good.

図8は、上記の解析結果に基づいて病院を検索した結果を示す紹介画面60の一例である。解析装置30では、第2ユーザ(患者)の表情や仕草(画像情報)、会話(音声情報)を解析した結果、治療成績の良さや対象疾患の処置件数の多さを、病院選びの重要な観点としていることが分かったので、解析装置30の紹介画面60には、治療成績が良い病院の観点と、対象疾患の処置件数の多い病院の観点で、いくつか(ここでは、それぞれ2病院)候補を抽出して表示する。なお、それぞれの抽出件数は、解析装置30側で任意に設定可能である。   FIG. 8 is an example of an introduction screen 60 showing the result of searching for a hospital based on the above analysis result. The analysis device 30 analyzes the second user's (patient) 's facial expression, gesture (image information), and conversation (voice information). As a result, the treatment results and the number of treatments for the target disease are important for selecting a hospital. The introduction screen 60 of the analysis device 30 has several viewpoints (here, two hospitals each) from the viewpoint of a hospital with good treatment results and a hospital with a large number of treatments for the target disease. Extract candidates and display them. Note that the number of each extraction can be arbitrarily set on the analysis device 30 side.

このように、解析装置30は、第2ユーザ(患者)の画像情報や音声情報を管理装置20に送信して感情レベルの判定を指示し、管理装置20がパターン認識技術を利用して判定した感情レベルを受信し、受信した感情レベルを第1ユーザ(医師)の音声情報に基づいて特定した項目に対応付けることにより、どの項目に満足しているか不満を感じているかを認識することができるため、第2ユーザ(患者)が所望する候補(病院)を適切に紹介することができる。   As described above, the analysis device 30 transmits the image information and voice information of the second user (patient) to the management device 20 to instruct the determination of the emotion level, and the management device 20 makes the determination using the pattern recognition technology. It is possible to recognize which item is satisfied or dissatisfied by receiving the emotion level and associating the received emotion level with the item specified based on the voice information of the first user (doctor). The candidate (hospital) desired by the second user (patient) can be introduced appropriately.

なお、上記では、解析装置30で取得した第2ユーザ(患者)の画像情報や音声情報をそのまま管理装置20に送信したが、画像情報の構成(第2ユーザのどの部分をどの角度で撮影した画像であるかなど)が変化すると、管理装置20でのパターン認識が困難になる恐れがある。そのような場合は、解析装置30側で画像情報から特徴部位(例えば、顔の輪郭部分、目や眉毛、唇など)を抽出し、特徴部位の情報を管理装置20に送信するようにしてもよいし、パターン化した画像情報(例えば、眉毛や目尻、口元の角度、目や口の開き具合などを識別可能にした画像情報)を管理装置20に送信するようにしてもよい。また、音声情報の構成(第2ユーザの音声の中に他のユーザの音声が混在しているかなど)が変化すると、管理装置20でのパターン認識が困難になる恐れがある。そのような場合は、解析装置30側で第2ユーザの画像情報と音声情報とを比較して、第2ユーザの画像情報を参照して第2のユーザの音声のみを抽出し、抽出した音声情報を管理装置20に送信するようにしてもよく、また、管理装置20でのパターン認識を容易にするために、パターン化した音声情報(例えば、声の強弱や高低、抑揚などを識別可能にした音声情報)を管理装置20に送信するようにしてもよい。   In the above, the image information and audio information of the second user (patient) acquired by the analysis device 30 are transmitted to the management device 20 as they are, but the configuration of the image information (which part of the second user is captured at which angle) If the image or the like changes, it may be difficult for the management device 20 to recognize the pattern. In such a case, the analysis device 30 may extract a feature part (for example, a face outline, eyes, eyebrows, lips, etc.) from the image information, and transmit the feature part information to the management device 20. Alternatively, patterned image information (for example, image information that can identify the eyebrows, the corners of the eyes, the angle of the mouth, the degree of opening of the eyes and the mouth, etc.) may be transmitted to the management device 20. In addition, if the configuration of the audio information (such as whether the voice of another user is mixed in the voice of the second user) changes, pattern recognition in the management device 20 may become difficult. In such a case, the analysis device 30 compares the second user's image information and audio information, extracts only the second user's audio by referring to the second user's image information, and extracts the extracted audio. The information may be transmitted to the management device 20, and in order to facilitate pattern recognition in the management device 20, it is possible to identify patterned voice information (for example, voice strength, level, inflection, etc.). Audio information) may be transmitted to the management apparatus 20.

また、第2ユーザの要望抽出において、第2ユーザの顕在意識に基づいて抽出するのではなく、第2ユーザ自身も知らない重要項目の面から、満足度が高そうな項目を抽出できるようにしてもよい。   In addition, in extracting requests from the second user, it is possible to extract items that seem to be highly satisfactory in terms of important items that the second user himself does not know, rather than extracting based on the consciousness of the second user. May be.

以下、解析装置30の動作について、図9及び図10を参照して説明する。解析装置30のCPUは、ROM又は記憶部32に記憶した解析プログラムをRAMに展開して実行することにより、図9及び図10のフローチャート図に示す各ステップの処理を実行する。なお、以下では、解析装置30に映像入力部34及び音声入力部35を備えるものとして説明する。   Hereinafter, the operation of the analysis device 30 will be described with reference to FIGS. 9 and 10. The CPU of the analysis device 30 executes the processing of each step shown in the flowcharts of FIGS. 9 and 10 by developing the analysis program stored in the ROM or the storage unit 32 in the RAM and executing it. In the following description, it is assumed that the analysis apparatus 30 includes the video input unit 34 and the audio input unit 35.

[全体処理]
図9に示すように、まず、解析装置30の制御部31は、解析機能の使用開始が指示されたかを判断し(S101)、解析機能の使用開始が指示されたら(S101のYes)、解析処理を実行する(S102)。
[Overall processing]
As shown in FIG. 9, first, the control unit 31 of the analysis device 30 determines whether or not the start of use of the analysis function is instructed (S101), and when the start of use of the analysis function is instructed (Yes in S101), the analysis is performed. Processing is executed (S102).

図10はこのステップの詳細を示しており、まず、制御部31(計時部31a)は、現在の時刻を取得し(S201)、予め定めた一定時間が経過したら(S202のYes)、制御部31(情報取得部31b)は、映像入力部34から第2ユーザ(患者)の画像情報を取得し(S203)、音声入力部35から第1ユーザ(医師)及び第2ユーザ(患者)の音声情報を取得する(S204)。   FIG. 10 shows the details of this step. First, the controller 31 (timer 31a) acquires the current time (S201), and when a predetermined time has elapsed (Yes in S202), the controller 31 (information acquisition unit 31b) acquires image information of the second user (patient) from the video input unit 34 (S203), and voices of the first user (doctor) and the second user (patient) from the audio input unit 35. Information is acquired (S204).

次に、制御部31(情報取得部31b)は、管理装置20に、取得した第2ユーザ(患者)の画像情報及び音声情報を送信して、管理装置20に第2ユーザ(患者)の感情レベルを問い合わせる(S205)。   Next, the control unit 31 (information acquisition unit 31b) transmits the acquired image information and audio information of the second user (patient) to the management device 20, and the emotion of the second user (patient) to the management device 20. The level is inquired (S205).

次に、制御部31(解析部31c)は、管理装置20から感情レベルの判定結果を受信したら(S206のYes)、管理装置20から受信した感情レベルと計時部31aが測定した現在時刻とを関連付けて記憶部32などに記憶する(S207)。また、制御部31(解析部31c)は、第1ユーザの音声情報を解析して項目を特定し、特定した項目と計時部31aが測定した現在時刻とを関連付けて記憶部32などに記憶する(S208)。なお、第1ユーザの操作部37の操作に応じて、各項目が表示部36に順に表示されるようにしてもよく、その場合は、S204で第1ユーザ(医師)の音声情報を取得する必要はなく、S208では、項目と操作時刻とを関連付ければよい。   Next, if the control part 31 (analysis part 31c) receives the determination result of the emotion level from the management apparatus 20 (Yes of S206), the emotion level received from the management apparatus 20 and the present time which the time measuring part 31a measured will be shown. The associated information is stored in the storage unit 32 or the like (S207). Further, the control unit 31 (analysis unit 31c) identifies the item by analyzing the voice information of the first user, associates the identified item with the current time measured by the time measuring unit 31a, and stores the associated item in the storage unit 32 or the like. (S208). In addition, according to operation of the operation part 37 of a 1st user, you may make it display each item in order on the display part 36, In that case, voice information of a 1st user (doctor) is acquired by S204. There is no need, and in S208, the item and the operation time may be associated with each other.

そして、制御部31(解析部31c)は、解析機能の終了操作が行われたかを判断し(S209)、終了操作が行われていない場合は、S201に戻って同様の処理を繰り返す。一方、終了操作が行われたら(S209のYes)、制御部31(解析部31c)は、計時部31aが測定した時刻に基づいて、第1ユーザの音声情報から特定した項目と管理装置20から受信した感情レベルとを対応付け(S210)、項目毎の感情レベルの変化から、第2ユーザが満足している項目及び不満に感じている項目を特定する(S211)。   Then, the control unit 31 (analysis unit 31c) determines whether or not the analysis function end operation has been performed (S209). If the end operation has not been performed, the control unit 31 returns to S201 and repeats the same processing. On the other hand, when the end operation is performed (Yes in S209), the control unit 31 (analysis unit 31c) determines from the items identified from the voice information of the first user and the management device 20 based on the time measured by the time measuring unit 31a. The received emotion level is associated (S210), and the item that the second user is satisfied with and the item that is dissatisfied with are specified from the change in the emotion level for each item (S211).

図9に戻って、制御部31(出力部31d)は、紹介機能の使用開始が指示されたかを判断し(S103)、紹介機能の使用開始が指示されていない場合は(S103のNo)、S102に戻って解析処理を継続する。   Returning to FIG. 9, the control unit 31 (output unit 31 d) determines whether or not the start of use of the introduction function is instructed (S <b> 103), and when the start of use of the introduction function is not instructed (No in S <b> 103), Returning to S102, the analysis process is continued.

紹介機能の使用開始が指示されたら(S103のYes)、制御部31(出力部31d)は、記憶部32に記憶された医療施設に関する情報を参照して、現在の施設でユーザの要望が満たされない項目を抽出し(S104)、抽出した項目を満たすことが可能な別の施設の有無を確認する(S105)。   When the start of use of the introduction function is instructed (Yes in S103), the control unit 31 (output unit 31d) refers to the information on the medical facility stored in the storage unit 32 and satisfies the user's request at the current facility. Items that are not to be extracted are extracted (S104), and it is confirmed whether there is another facility that can satisfy the extracted items (S105).

確認の結果、抽出した項目を満たすことが可能な別の施設が存在する場合は(S106のYes)、制御部31(出力部31d)は、表示部36に現在の施設よりも第2ユーザにとって良い施設が存在すること、その施設の優れた箇所を案内表示する(S107)。一方、抽出した項目を満たすことが可能な別の施設が存在しない場合は(S106のNo)、制御部31(出力部31d)は、表示部36に現在の施設よりもユーザにとって良い施設が存在しないことを案内表示する(S108)。   As a result of the confirmation, if there is another facility that can satisfy the extracted item (Yes in S106), the control unit 31 (output unit 31d) is displayed on the display unit 36 for the second user rather than the current facility. Information indicating that there is a good facility and excellent locations of the facility is displayed (S107). On the other hand, when there is no other facility that can satisfy the extracted item (No in S106), the control unit 31 (output unit 31d) has a better facility for the user than the current facility on the display unit 36. Information not to be displayed is displayed (S108).

次に、管理装置20の動作(感情レベルの判定処理)について、図11を参照して説明する。   Next, the operation of the management device 20 (emotion level determination process) will be described with reference to FIG.

管理装置20の制御部21は、解析装置30から受信した第2ユーザの画像情報、音声情報を記憶部22(DB)に保存する(S301)。   The control unit 21 of the management device 20 stores the image information and audio information of the second user received from the analysis device 30 in the storage unit 22 (DB) (S301).

次に、制御部21(レベル判定部21a)は、受信した第2ユーザの画像情報、音声情報と、DBに予め保存された画像情報、音声情報とを比較し、公知のパターン認識技術を利用して、第2ユーザの感情がどのレベルに属するかを判定する(S302)。そして、判定結果(感情レベル)を解析装置30に送信する(S303)。   Next, the control unit 21 (level determination unit 21a) compares the received image information and audio information of the second user with image information and audio information stored in advance in the DB, and uses a known pattern recognition technique. Then, it is determined to which level the emotion of the second user belongs (S302). Then, the determination result (emotion level) is transmitted to the analysis device 30 (S303).

なお、本発明は、上記実施例の記載に限定されるものではなく、本発明の趣旨を逸脱しない限りにおいて、その構成や制御は適宜変更可能である。   In addition, this invention is not limited to description of the said Example, The structure and control can be suitably changed unless it deviates from the meaning of this invention.

例えば、上記実施例では、DBに保存された画像情報や音声情報と第2ユーザ(患者)の画像情報や音声情報とを比較して感情レベルを判定する場合について記載したが、第2ユーザ(患者)の画像情報や音声情報の初期状態からの変化に基づいて、感情レベルを相対的に判定してもよい。   For example, in the above embodiment, the case where the emotion level is determined by comparing the image information and audio information stored in the DB with the image information and audio information of the second user (patient) is described. The emotion level may be relatively determined based on changes in the image information and audio information of the patient) from the initial state.

また、上記実施例では、第2ユーザ(患者)の画像情報や音声情報を取得する場合について記載したが、取得する情報は、第1ユーザ(医師)が提示する項目に対する第2ユーザ(患者)の反応が認識できる情報であればよく、例えば、体温や脈拍、発汗などの生体情報を取得する場合に対して、本発明の解析方法を同様に適用することができる。   Moreover, in the said Example, although the case where image information and audio | voice information of a 2nd user (patient) were acquired was described, the information to acquire is the 2nd user (patient) with respect to the item which a 1st user (doctor) presents. For example, the analysis method of the present invention can be similarly applied to the case of acquiring biological information such as body temperature, pulse, and sweating.

また、上記実施例では、第1ユーザ(医師)の音声情報を解析して項目を特定したが、第1ユーザ(医師)の操作部37の操作(例えば、マウスのクリック操作)に応じて、各項目が表示部36に順に表示されるようにしてもよく、その場合は、第1ユーザ(医師)の音声情報を取得する必要はなく、項目と操作時刻とを関連付ければよい。   Moreover, in the said Example, although the audio | voice information of the 1st user (doctor) was analyzed and the item was specified, according to operation (for example, mouse click operation) of the operation part 37 of the 1st user (doctor), Each item may be displayed in order on the display unit 36. In that case, it is not necessary to acquire the voice information of the first user (doctor), and the item and the operation time may be associated with each other.

また、上記実施例では、患者の画像情報や音声情報に基づいて医師が患者に医療施設を紹介する場合について記載したが、第1のユーザが第2のユーザに任意の種類の物や情報を紹介する場合に対して、本発明の解析方法を同様に適用することができる。   Moreover, in the said Example, although the case where a doctor introduces a medical facility to a patient based on a patient's image information and audio | voice information was described, the 1st user gave arbitrary types of things and information to a 2nd user. The analysis method of the present invention can be similarly applied to the case of introducing.

本発明は、ユーザの画像情報や音声情報に基づいてユーザが満足する紹介先を提示する解析装置、当該解析装置で動作する解析プログラム、当該解析プログラムを記録した記録媒体及び当該解析装置における解析方法に利用可能である。   The present invention relates to an analysis device that presents an introduction destination that a user is satisfied based on image information and audio information of the user, an analysis program that operates in the analysis device, a recording medium that records the analysis program, and an analysis method in the analysis device Is available.

10 紹介システム
20 管理装置
21 制御部
21a レベル判定部
22 記憶部
23 ネットワークI/F部
30 解析装置
31 制御部
31a 計時部
31b 情報取得部
31c 解析部
31d 出力部
32 記憶部
33 ネットワークI/F部
34 映像入力部
35 音声入力部
36 表示部
37 操作部
40 通信ネットワーク
50 入力装置
51 クライアント装置
60 紹介画面
DESCRIPTION OF SYMBOLS 10 Introduction system 20 Management apparatus 21 Control part 21a Level determination part 22 Storage part 23 Network I / F part 30 Analysis apparatus 31 Control part 31a Timekeeping part 31b Information acquisition part 31c Analysis part 31d Output part 32 Storage part 33 Network I / F part 34 Video Input Unit 35 Audio Input Unit 36 Display Unit 37 Operation Unit 40 Communication Network 50 Input Device 51 Client Device 60 Introduction Screen

Claims (21)

第1ユーザが第2ユーザに紹介先を提示する解析装置であって、
前記解析装置又は当該解析装置と通信可能な装置に設けられた映像入力部及び/又は音声入力部から、前記第1ユーザが提示する項目に対する前記第2ユーザの反応を表す、前記第2ユーザの顔又は上半身の画像情報、及び/又は、前記第2ユーザの会話の音声情報を取得する情報取得部と、
前記第1ユーザが提示する項目と前記第2ユーザの画像情報及び/又は音声情報に基づいて判定された感情レベルとを対応付け、前記項目毎の前記感情レベルの変化に基づいて、各々の前記項目に対する前記第2ユーザの満足度を解析する解析部と、
前記第2ユーザの満足度に基づいて紹介先の候補を抽出して前記第2ユーザに提示する出力部と、を備える、
ことを特徴とする解析装置。
An analysis device in which a first user presents an introduction destination to a second user,
The second user's response to the second user's response to an item presented by the first user from the video input unit and / or the voice input unit provided in the analysis device or a device communicable with the analysis device. An information acquisition unit for acquiring image information of the face or upper body and / or audio information of the conversation of the second user;
The item presented by the first user is associated with the emotion level determined based on the image information and / or audio information of the second user, and each of the items is determined based on the change in the emotion level for each item. An analysis unit for analyzing satisfaction of the second user with respect to an item;
An output unit that extracts introduction destination candidates based on the satisfaction degree of the second user and presents it to the second user;
An analysis device characterized by that.
前記情報取得部は、前記第1ユーザの音声情報を取得し、
前記解析部は、前記第1ユーザの音声情報を解析して前記項目を特定する、
ことを特徴とする請求項1に記載の解析装置。
The information acquisition unit acquires voice information of the first user,
The analysis unit analyzes the first user's voice information to identify the item;
The analysis apparatus according to claim 1, wherein:
前記解析部は、前記第2ユーザの画像情報及び/又は音声情報を取得した時刻と当該画像情報及び/又は音声情報に基づいて判定された感情レベルとを関連付けると共に、前記第1ユーザが項目を提示した時刻と当該項目とを関連付け、前記時刻に基づいて、前記項目と前記感情レベルとを対応付ける、
ことを特徴とする請求項1又は2に記載の解析装置。
The analysis unit associates the time when the image information and / or sound information of the second user is acquired with the emotion level determined based on the image information and / or sound information, and the first user selects the item. Associating the presented time with the item, and associating the item with the emotion level based on the time,
The analysis apparatus according to claim 1 or 2, characterized in that:
前記情報取得部は、取得した前記第2ユーザの画像情報及び/又は音声情報を、感情レベル毎の画像情報及び/又は音声情報を記憶するデータベースを備える装置に送信し、
前記解析部は、前記装置から、前記第2ユーザの画像情報及び/又は音声情報と前記感情レベル毎の画像情報及び/又は音声情報とを比較することによって判定された前記感情レベルを受信する、
ことを特徴とする請求項1乃至3のいずれか一に記載の解析装置。
The information acquisition unit transmits the acquired image information and / or audio information of the second user to an apparatus including a database that stores image information and / or audio information for each emotion level,
The analysis unit receives the emotion level determined by comparing the image information and / or voice information of the second user with the image information and / or voice information for each emotion level from the device.
The analysis device according to claim 1, wherein
前記解析部は、前記第2ユーザの画像情報及び/又は音声情報と予め記憶部に記憶した前記感情レベル毎の画像情報及び/又は音声情報とを比較して、又は、前記第2ユーザの画像情報及び/又は音声情報の初期状態からの変化に基づいて、前記第2ユーザの画像情報及び/又は音声情報に対応する前記感情レベルを判定する、
ことを特徴とする請求項1乃至3のいずれか一に記載の解析装置。
The analysis unit compares the image information and / or audio information of the second user with the image information and / or audio information for each emotion level stored in the storage unit in advance, or the image of the second user Determining the emotion level corresponding to the image information and / or audio information of the second user based on a change from the initial state of the information and / or audio information;
The analysis device according to claim 1, wherein
前記出力部は、抽出した紹介先を選択可能にする紹介画面を表示部に表示させる、
ことを特徴とする請求項1乃至5のいずれか一に記載の解析装置。
The output unit displays on the display unit an introduction screen that enables selection of the extracted introduction destination.
The analysis apparatus according to claim 1, wherein
前記紹介先は、医療施設であり、
前記第1ユーザが提示する項目は、前記第2ユーザの対象疾患の治療成績に関する項目、前記第2ユーザの対象疾患の治療件数又は処置件数に関する項目、紹介先医師の性別に関する項目の中から選択される1つを含む、
ことを特徴とする請求項1乃至6のいずれか一に記載の解析装置。
The referral destination is a medical facility,
The item presented by the first user is selected from the items related to the treatment results of the target disease of the second user, the items related to the number of treatments or the number of treatments of the target disease of the second user, and the items related to the sex of the referring doctor Including one to be
The analysis apparatus according to claim 1, wherein
第1ユーザが第2ユーザに紹介先を提示する解析装置で動作する解析プログラムであって、
前記解析装置に、
前記解析装置又は当該解析装置と通信可能な装置に設けられた映像入力部及び/又は音声入力部から、前記第1ユーザが提示する項目に対する前記第2ユーザの反応を表す、前記第2ユーザの顔又は上半身の画像情報、及び/又は、前記第2ユーザの会話の音声情報を取得する情報取得処理、
前記第1ユーザが提示する項目と前記第2ユーザの画像情報及び/又は音声情報に基づいて判定された感情レベルとを対応付け、前記項目毎の前記感情レベルの変化に基づいて、各々の前記項目に対する前記第2ユーザの満足度を解析する解析処理、
前記第2ユーザの満足度に基づいて紹介先の候補を抽出して前記第2ユーザに提示する出力処理、を実行させる、
ことを特徴とする解析プログラム。
An analysis program that operates on an analysis device in which a first user presents an introduction destination to a second user,
In the analysis device,
The second user's response to the second user's response to an item presented by the first user from the video input unit and / or the voice input unit provided in the analysis device or a device communicable with the analysis device. Information acquisition processing for acquiring image information of the face or upper body and / or voice information of the conversation of the second user;
The item presented by the first user is associated with the emotion level determined based on the image information and / or audio information of the second user, and each of the items is determined based on the change in the emotion level for each item. Analysis processing for analyzing satisfaction of the second user with respect to an item;
An output process for extracting introduction candidates and presenting them to the second user based on the satisfaction degree of the second user;
An analysis program characterized by that.
前記情報取得処理では、前記第1ユーザの音声情報を取得し、
前記解析処理では、前記第1ユーザの音声情報を解析して前記項目を特定する、
ことを特徴とする請求項8に記載の解析プログラム。
In the information acquisition process, the voice information of the first user is acquired,
In the analysis process, the item is identified by analyzing the voice information of the first user.
The analysis program according to claim 8.
前記解析処理では、前記第2ユーザの画像情報及び/又は音声情報を取得した時刻と当該画像情報及び/又は音声情報に基づいて判定された感情レベルとを関連付けると共に、前記第1ユーザが項目を提示した時刻と当該項目とを関連付け、前記時刻に基づいて、前記項目と前記感情レベルとを対応付ける、
ことを特徴とする請求項8又は9に記載の解析プログラム。
In the analysis process, the time when the image information and / or audio information of the second user is acquired is associated with the emotion level determined based on the image information and / or audio information, and the item is selected by the first user. Associating the presented time with the item, and associating the item with the emotion level based on the time,
The analysis program according to claim 8 or 9, characterized in that.
前記情報取得処理では、取得した前記第2ユーザの画像情報及び/又は音声情報を、感情レベル毎の画像情報及び/又は音声情報を記憶するデータベースを備える装置に送信し、
前記解析処理では、前記装置から、前記第2ユーザの画像情報及び/又は音声情報と前記感情レベル毎の画像情報及び/又は音声情報とを比較することによって判定された前記感情レベルを受信する、
ことを特徴とする請求項8乃至10のいずれか一に記載の解析プログラム。
In the information acquisition process, the acquired image information and / or audio information of the second user is transmitted to an apparatus including a database that stores image information and / or audio information for each emotion level,
In the analysis process, the emotion level determined by comparing the image information and / or voice information of the second user with the image information and / or voice information for each emotion level is received from the device.
The analysis program according to any one of claims 8 to 10, wherein:
前記解析処理では、前記第2ユーザの画像情報及び/又は音声情報と予め記憶部に記憶した前記感情レベル毎の画像情報及び/又は音声情報とを比較して、又は、前記第2ユーザの画像情報及び/又は音声情報の初期状態からの変化に基づいて、前記第2ユーザの画像情報及び/又は音声情報に対応する前記感情レベルを判定する、
ことを特徴とする請求項8乃至10のいずれか一に記載の解析プログラム。
In the analysis process, the image information and / or sound information of the second user is compared with the image information and / or sound information for each emotion level stored in the storage unit in advance, or the image of the second user Determining the emotion level corresponding to the image information and / or audio information of the second user based on a change from the initial state of the information and / or audio information;
The analysis program according to any one of claims 8 to 10, wherein:
前記出力処理では、抽出した紹介先を選択可能にする紹介画面を表示部に表示させる、
ことを特徴とする請求項8乃至12のいずれか一に記載の解析プログラム。
In the output process, an introduction screen that enables selection of the extracted introduction destination is displayed on the display unit.
The analysis program according to any one of claims 8 to 12.
前記紹介先は、医療施設であり、
前記第1ユーザが提示する項目は、前記第2ユーザの対象疾患の治療成績に関する項目、前記第2ユーザの対象疾患の治療件数又は処置件数に関する項目、紹介先医師の性別に関する項目の中から選択される1つを含む、
ことを特徴とする請求項8乃至13のいずれか一に記載の解析プログラム。
The referral destination is a medical facility,
The item presented by the first user is selected from the items related to the treatment results of the target disease of the second user, the items related to the number of treatments or the number of treatments of the target disease of the second user, and the items related to the sex of the referring doctor Including one to be
The analysis program according to any one of claims 8 to 13.
第1ユーザが第2ユーザに紹介先を提示する解析装置を含むシステムにおける解析方法であって、
前記解析装置は、
前記解析装置又は当該解析装置と通信可能な装置に設けられた映像入力部及び/又は音声入力部から、前記第1ユーザが提示する項目に対する前記第2ユーザの反応を表す、前記第2ユーザの顔又は上半身の画像情報、及び/又は、前記第2ユーザの会話の音声情報を取得する情報取得処理と、
前記第1ユーザが提示する項目と前記第2ユーザの画像情報及び/又は音声情報に基づいて判定された感情レベルとを対応付け、前記項目毎の前記感情レベルの変化に基づいて、各々の前記項目に対する前記第2ユーザの満足度を解析する解析処理と、
前記第2ユーザの満足度に基づいて紹介先の候補を抽出して前記第2ユーザに提示する出力処理と、を実行する、
ことを特徴とする解析方法。
An analysis method in a system including an analysis device in which a first user presents an introduction destination to a second user,
The analysis device includes:
The second user's response to the second user's response to an item presented by the first user from the video input unit and / or the voice input unit provided in the analysis device or a device communicable with the analysis device. Information acquisition processing for acquiring image information of the face or upper body and / or voice information of the conversation of the second user;
The item presented by the first user is associated with the emotion level determined based on the image information and / or audio information of the second user, and each of the items is determined based on the change in the emotion level for each item. An analysis process for analyzing the degree of satisfaction of the second user with respect to an item;
An output process of extracting introduction destination candidates based on the satisfaction degree of the second user and presenting the candidate to the second user;
An analysis method characterized by that.
前記情報取得処理では、前記第1ユーザの音声情報を取得し、
前記解析処理では、前記第1ユーザの音声情報を解析して前記項目を特定する、
ことを特徴とする請求項15に記載の解析方法。
In the information acquisition process, the voice information of the first user is acquired,
In the analysis process, the item is identified by analyzing the voice information of the first user.
The analysis method according to claim 15.
前記解析処理では、前記解析処理では、前記第2ユーザの画像情報及び/又は音声情報を取得した時刻と当該画像情報及び/又は音声情報に基づいて判定された感情レベルとを関連付けると共に、前記第1ユーザが項目を提示した時刻と当該項目とを関連付け、前記時刻に基づいて、前記項目と前記感情レベルとを対応付ける、
ことを特徴とする請求項15又は16に記載の解析方法。
In the analysis process, the analysis process associates the time when the image information and / or sound information of the second user is acquired with the emotion level determined based on the image information and / or sound information, and Associating the time when the user presented the item with the item, and associating the item with the emotion level based on the time;
The analysis method according to claim 15 or 16, wherein:
前記システムに、感情レベル毎の画像情報及び/又は音声情報を記憶したデータベースを備える装置を含み、
前記情報取得処理では、取得した前記第2ユーザの画像情報及び/又は音声情報を前記装置に送信し、
前記解析処理では、前記装置から、前記第2ユーザの画像情報及び/又は音声情報と前記感情レベル毎の画像情報及び/又は音声情報とを比較することによって判定された前記感情レベルを受信する、
ことを特徴とする請求項15乃至17のいずれか一に記載の解析方法。
The system includes an apparatus including a database storing image information and / or audio information for each emotion level,
In the information acquisition process, the acquired image information and / or audio information of the second user is transmitted to the device,
In the analysis process, the emotion level determined by comparing the image information and / or voice information of the second user with the image information and / or voice information for each emotion level is received from the device.
The analysis method according to any one of claims 15 to 17, characterized in that:
前記解析処理では、前記第2ユーザの画像情報及び/又は音声情報と予め記憶部に記憶した前記感情レベル毎の画像情報及び/又は音声情報とを比較して、又は、前記第2ユーザの画像情報及び/又は音声情報の初期状態からの変化に基づいて、前記第2ユーザの画像情報及び/又は音声情報に対応する前記感情レベルを判定する、
ことを特徴とする請求項15乃至17のいずれか一に記載の解析方法。
In the analysis process, the image information and / or sound information of the second user is compared with the image information and / or sound information for each emotion level stored in the storage unit in advance, or the image of the second user Determining the emotion level corresponding to the image information and / or audio information of the second user based on a change from the initial state of the information and / or audio information;
The analysis method according to any one of claims 15 to 17, characterized in that:
前記出力処理では、抽出した紹介先を選択可能にする紹介画面を表示部に表示させる、
ことを特徴とする請求項15乃至19のいずれか一に記載の解析方法。
In the output process, an introduction screen that enables selection of the extracted introduction destination is displayed on the display unit.
The analysis method according to any one of claims 15 to 19, wherein
前記紹介先は、医療施設であり、
前記第1ユーザが提示する項目は、前記第2ユーザの対象疾患の治療成績に関する項目、前記第2ユーザの対象疾患の治療件数又は処置件数に関する項目、紹介先医師の性別に関する項目の中から選択される1つを含む、
ことを特徴とする請求項15乃至20のいずれか一に記載の解析方法。
The referral destination is a medical facility,
The item presented by the first user is selected from the items related to the treatment results of the target disease of the second user, the items related to the number of treatments or the number of treatments of the target disease of the second user, and the items related to the sex of the referring doctor Including one to be
The analysis method according to any one of claims 15 to 20, wherein:
JP2017099772A 2017-05-19 2017-05-19 Analysis device, analysis program, and analysis method Pending JP2018195164A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017099772A JP2018195164A (en) 2017-05-19 2017-05-19 Analysis device, analysis program, and analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017099772A JP2018195164A (en) 2017-05-19 2017-05-19 Analysis device, analysis program, and analysis method

Publications (1)

Publication Number Publication Date
JP2018195164A true JP2018195164A (en) 2018-12-06

Family

ID=64570496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017099772A Pending JP2018195164A (en) 2017-05-19 2017-05-19 Analysis device, analysis program, and analysis method

Country Status (1)

Country Link
JP (1) JP2018195164A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109961804A (en) * 2019-02-12 2019-07-02 百度在线网络技术(北京)有限公司 Smart machine satisfaction assessment method, apparatus and storage medium
JP2021056786A (en) * 2019-09-30 2021-04-08 富士通株式会社 Impression estimation method, impression estimation program and impression estimation device
JP2021064035A (en) * 2019-10-10 2021-04-22 株式会社日立製作所 Purchase promotion system and purchase promotion method
WO2022209416A1 (en) * 2021-03-30 2022-10-06 ソニーグループ株式会社 Information processing device, information processing system, and information processing method
JP7154675B1 (en) * 2021-04-28 2022-10-18 株式会社スクリエ Medical Facility Referral System, Medical Facility Referral Method and Program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109961804A (en) * 2019-02-12 2019-07-02 百度在线网络技术(北京)有限公司 Smart machine satisfaction assessment method, apparatus and storage medium
CN109961804B (en) * 2019-02-12 2021-11-02 百度在线网络技术(北京)有限公司 Intelligent equipment satisfaction evaluation method and device and storage medium
JP2021056786A (en) * 2019-09-30 2021-04-08 富士通株式会社 Impression estimation method, impression estimation program and impression estimation device
JP7283336B2 (en) 2019-09-30 2023-05-30 富士通株式会社 IMPRESSION ESTIMATION METHOD, IMPRESSION ESTIMATION PROGRAM AND IMPRESSION ESTIMATION DEVICE
JP2021064035A (en) * 2019-10-10 2021-04-22 株式会社日立製作所 Purchase promotion system and purchase promotion method
JP7227884B2 (en) 2019-10-10 2023-02-22 株式会社日立製作所 Purchase promotion system and purchase promotion method
WO2022209416A1 (en) * 2021-03-30 2022-10-06 ソニーグループ株式会社 Information processing device, information processing system, and information processing method
JP7154675B1 (en) * 2021-04-28 2022-10-18 株式会社スクリエ Medical Facility Referral System, Medical Facility Referral Method and Program
WO2022230150A1 (en) * 2021-04-28 2022-11-03 株式会社スクリエ Medical facility referral system, medical facility referral method and program

Similar Documents

Publication Publication Date Title
US11875895B2 (en) Method and system for characterizing and/or treating poor sleep behavior
KR102116664B1 (en) Online based health care method and apparatus
JP2018195164A (en) Analysis device, analysis program, and analysis method
Rabbi et al. Passive and in-situ assessment of mental and physical well-being using mobile sensors
US20190216333A1 (en) Thermal face image use for health estimation
US10515631B2 (en) System and method for assessing the cognitive style of a person
CN108778097A (en) Device and method for assessing heart failure
US20170344713A1 (en) Device, system and method for assessing information needs of a person
US20210118323A1 (en) Method and apparatus for interactive monitoring of emotion during teletherapy
JP6891535B2 (en) Behavior prediction
EP4251048A1 (en) Method and system for detecting mood
US20210228130A1 (en) Method, device and system for assessing an autism spectrum disorder
CN113096808B (en) Event prompting method, device, computer equipment and storage medium
US20220036481A1 (en) System and method to integrate emotion data into social network platform and share the emotion data over social network platform
JP2015103183A (en) Medical examination support system
JP2019133271A (en) Telemedicine terminal device, computer program, and server
JP6402345B1 (en) Instruction support system, instruction support method and instruction support program
Migliorelli et al. A store-and-forward cloud-based telemonitoring system for automatic assessing dysarthria evolution in neurological diseases from video-recording analysis
JP2002078699A (en) Measurement of cognitive impairment due to incidental or intentional exposure to neurotoxic element
KR102179850B1 (en) System and method for predicting health using analysis device for intraoral microbes (bacteria, virus, viroid, and/or fungi)
CN116344048A (en) Causal reasoning device for care of cognition disorder patient
EP3117301A1 (en) A method for controlling an individualized video data output on a display device and system
CN112168141B (en) Information processing method, device, equipment and storage medium for remote inquiry
KR20130115706A (en) Service providing method for physical condition based on user voice using smart device
JP7547687B1 (en) Information processing device, system, program, and method for estimating diagnosis-related information regarding a neuropsychiatric disorder in a subject

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191119

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20191122