JP2024037111A - Information processing program, information processing method, and information processing device - Google Patents
Information processing program, information processing method, and information processing device Download PDFInfo
- Publication number
- JP2024037111A JP2024037111A JP2022141784A JP2022141784A JP2024037111A JP 2024037111 A JP2024037111 A JP 2024037111A JP 2022141784 A JP2022141784 A JP 2022141784A JP 2022141784 A JP2022141784 A JP 2022141784A JP 2024037111 A JP2024037111 A JP 2024037111A
- Authority
- JP
- Japan
- Prior art keywords
- target person
- information processing
- section
- processing device
- specifically
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 297
- 238000003672 processing method Methods 0.000 title claims description 11
- 238000012545 processing Methods 0.000 claims abstract description 78
- 238000000034 method Methods 0.000 claims abstract description 49
- 230000008569 process Effects 0.000 claims abstract description 41
- 230000004044 response Effects 0.000 claims description 17
- 238000010586 diagram Methods 0.000 abstract description 25
- 230000008859 change Effects 0.000 description 131
- 230000008451 emotion Effects 0.000 description 35
- 230000006870 function Effects 0.000 description 25
- 230000002996 emotional effect Effects 0.000 description 22
- 238000004364 calculation method Methods 0.000 description 21
- 230000002123 temporal effect Effects 0.000 description 9
- 230000036760 body temperature Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000008520 organization Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000006996 mental state Effects 0.000 description 2
- 230000008450 motivation Effects 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000035900 sweating Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
【課題】対象の人物に対する犯罪行為の発生状況を精度よく評価すること。【解決手段】情報処理装置100は、対象の期間における対象の人物の会話を示す音声データ101に基づいて、対象の期間のうち、1以上の音声パターンそれぞれに合致する区間を特定する。情報処理装置100は、特定した区間それぞれについて、当該区間における対象の人物の生体データ102を取得する。情報処理装置100は、特定した区間それぞれについて、取得した当該区間における対象の人物の生体データ102に対して、1以上の音声パターンのうち、当該区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施する。情報処理装置100は、特定した区間それぞれにおける、当該区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の対象の人物の生体データ102に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。【選択図】図1[Problem] To accurately evaluate the occurrence of criminal acts against a target person. An information processing device (100) specifies, in a target period, sections that match each of one or more voice patterns, based on audio data (101) indicating a conversation of a target person during the target period. For each of the identified sections, the information processing device 100 acquires biometric data 102 of the target person in the section. For each identified section, the information processing device 100 generates noise corresponding to one of the voice patterns that matches the section among the one or more voice patterns, based on the acquired biometric data 102 of the target person in the section. Perform the removal process. The information processing device 100 detects a criminal act against the target person based on the target person's biometric data 102 after performing noise removal processing corresponding to one of the voice patterns that matches the specified interval in each of the identified intervals. Assess the situation of occurrence. [Selection diagram] Figure 1
Description
本発明は、情報処理プログラム、情報処理方法、および情報処理装置に関する。 The present invention relates to an information processing program, an information processing method, and an information processing apparatus.
従来、電話を介して詐欺被害が発生する場合がある。例えば、詐欺師が、電話を介して、標的とした人物の近親者を騙り、当該人物から金銭を騙し取ろうとする、オレオレ詐欺と呼ばれる詐欺行為による詐欺被害が発生することがある。これに対し、対象の人物の通話時の音声データを解析し、対象の人物に対する詐欺行為の発生を検出しようとする技術が考えられる。 Traditionally, fraud can occur over the telephone. For example, fraud damage may occur due to a fraudulent act called "Ore Ore Fraud" in which a fraudster pretends to be a close relative of a targeted person over the phone and attempts to defraud the targeted person of money. On the other hand, a possible technique is to analyze the voice data of the target person during a phone call and attempt to detect the occurrence of fraud against the target person.
先行技術としては、例えば、通話者の生体データに基づいて、通話者の緊張の度合いなどのような通話者の精神状態が平常時の精神状態と異なる度合いを示す、通話者のストレス度合いを判定するものがある。 Prior art includes, for example, determining the stress level of a caller based on the caller's biometric data, which indicates the degree to which the caller's mental state differs from his or her normal mental state, such as the caller's level of tension. There is something to do.
しかしながら、従来技術では、対象の人物に対する犯罪行為の発生を精度よく検出することが難しいという問題がある。例えば、対象の人物が、電話を介した詐欺行為の標的となった場合、対象の人物の発話時間または発話回数などが少なくなる傾向があり、対象の人物の通話時の音声データを解析しても、対象の人物に対する詐欺行為の発生を精度よく検出することが難しい。 However, the conventional technology has a problem in that it is difficult to accurately detect the occurrence of a criminal act against a target person. For example, if a target person becomes the target of fraudulent activity over the telephone, the target person's speaking time or number of utterances tends to decrease. However, it is difficult to accurately detect the occurrence of fraud against a target person.
1つの側面では、本発明は、対象の人物に対する犯罪行為の発生状況を精度よく評価することを目的とする。 In one aspect, the present invention aims to accurately evaluate the occurrence of a criminal act against a target person.
1つの実施態様によれば、ある期間における対象の人物の会話を示す音声データを取得し、取得した前記音声データに基づいて、前記期間のうち、設定された1以上の音声パターンそれぞれに合致する区間を特定し、特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する情報処理プログラム、情報処理方法、および情報処理装置が提案される。 According to one embodiment, audio data indicating a conversation of a target person in a certain period is acquired, and based on the acquired audio data, one or more set audio patterns are matched in the period. Identifying sections, and for each of the identified sections, removing noise corresponding to any one of the one or more voice patterns that matches the section, with respect to the biometric data of the target person in the section. A crime against the target person based on the biometric data of the target person after performing processing and performing noise removal processing corresponding to one of the voice patterns that matched the interval in each of the identified intervals. An information processing program, an information processing method, and an information processing device for evaluating the occurrence of an act are proposed.
一態様によれば、対象の人物に対する犯罪行為の発生状況を精度よく評価することが可能になる。 According to one aspect, it becomes possible to accurately evaluate the occurrence of a criminal act against a target person.
以下に、図面を参照して、本発明にかかる情報処理プログラム、情報処理方法、および情報処理装置の実施の形態を詳細に説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of an information processing program, an information processing method, and an information processing apparatus according to the present invention will be described in detail below with reference to the drawings.
(実施の形態にかかる情報処理方法の一実施例)
図1は、実施の形態にかかる情報処理方法の一実施例を示す説明図である。情報処理装置100は、犯罪行為の発生状況を評価するためのコンピュータである。
(An example of an information processing method according to an embodiment)
FIG. 1 is an explanatory diagram showing an example of an information processing method according to an embodiment. The
情報処理装置100は、例えば、サーバまたはPC(Personal Computer)などである。情報処理装置100は、例えば、スマートフォンまたはスマートスピーカーなどであってもよい。
The
犯罪行為は、例えば、特殊詐欺と呼ばれる詐欺行為である。犯罪行為は、具体的には、電話を介した詐欺行為である。例えば、詐欺師が、電話を介して、標的とした人物の近親者を騙り、当該人物から金銭を騙し取ろうとする、オレオレ詐欺と呼ばれる詐欺行為が存在する。 The criminal act is, for example, a fraudulent act called special fraud. Specifically, the criminal act is an act of fraud over the telephone. For example, there is a fraudulent act called "Ore Ore Fraud" in which a fraudster pretends to be a close relative of a targeted person over the telephone and attempts to defraud the targeted person of money.
また、例えば、詐欺師が、自治体または税務署などの職員を騙り、標的とした人物に、医療費または保険料などに対する過払い金の受け取りを示唆し、当該人物から金銭を騙し取ろうとする、還付金詐欺と呼ばれる詐欺行為が存在する。また、例えば、複数の詐欺師が、それぞれ、標的とした人物の近親者、警察官、および、弁護士などを騙り、当該人物から金銭を騙し取ろうとする、劇場型詐欺と呼ばれる詐欺行為が存在する。 In addition, for example, a scammer pretends to be an employee of a local government or tax office, suggests to a targeted person that he/she will receive overpayments for medical expenses, insurance premiums, etc., and attempts to defraud the targeted person of money. There is a fraudulent act called fraud. For example, there is a fraudulent act called theatrical fraud in which multiple fraudsters pretend to be a close family member, a police officer, a lawyer, etc. of the targeted person and attempt to defraud the targeted person of money. .
このため、詐欺行為による詐欺被害を防止する技術が望まれる。例えば、対象の人物の通話時の音声データを解析し、詐欺行為の発生状況を評価することにより、対象の人物に対する詐欺行為の発生を検出し、詐欺行為による詐欺被害を防止しようとする第1の技術が考えられる。具体的には、通話開始から通話終了までの通話期間における対象の人物の通話時の音声データを解析し、詐欺行為の発生状況を評価することが考えられる。 Therefore, there is a need for technology that prevents fraud damage caused by fraudulent acts. For example, the first step is to detect the occurrence of fraud against a target person and prevent damage caused by fraud by analyzing the voice data of the target person's phone call and evaluating the occurrence of fraud. possible technologies. Specifically, it is conceivable to analyze the voice data of the target person's phone call during the call period from the start of the call to the end of the call to evaluate the occurrence of fraud.
しかしながら、この第1の技術では、対象の人物に対する詐欺行為の発生を精度よく検出することが難しいという問題がある。例えば、対象の人物が、電話を介した詐欺行為の標的となった場合、対象の人物の発話時間または発話回数などが少なくなる傾向がある。このため、対象の人物の通話時の音声データを解析しても、対象の人物に対する詐欺行為の発生を精度よく検出することが難しい。例えば、対象の人物の通話時の音声データのうち、対象の人物が相槌した区間などの発話時間が比較的短い区間に関する部分データが、対象の人物に対する詐欺行為の発生状況を評価する際にノイズとなることが考えられる。 However, this first technique has a problem in that it is difficult to accurately detect the occurrence of fraud against a target person. For example, if a target person becomes the target of fraudulent activity over the telephone, the target person's speaking time or number of times he or she speaks tends to decrease. For this reason, it is difficult to accurately detect the occurrence of fraud against a target person even if the voice data of the target person's phone call is analyzed. For example, of the voice data of a target person's phone call, partial data related to sections with relatively short utterance times, such as sections where the target person chimed in, may be used as noise when evaluating the occurrence of fraud against the target person. It is possible that
また、例えば、対象の人物の通話時の生体データを解析し、詐欺行為の発生状況を評価することにより、対象の人物に対する詐欺行為の発生を検出し、詐欺行為による詐欺被害を防止しようとする第2の技術が考えられる。具体的には、通話開始から通話終了までの通話期間における対象の人物の通話時の生体データを解析し、詐欺行為の発生状況を評価することが考えられる。 In addition, for example, by analyzing the target person's biometric data during a call and evaluating the occurrence of fraud, the system can detect the occurrence of fraud against the target person and try to prevent fraud damage due to fraud. A second technique is possible. Specifically, it is conceivable to analyze the biometric data of the target person during the call during the call period from the start of the call to the end of the call to evaluate the occurrence of fraud.
この第2の技術でも、対象の人物に対する詐欺行為の発生を精度よく検出することが難しい。例えば、対象の人物の通話時の生体データにノイズが含まれるため、対象の人物の通話時の生体データを解析しても、対象の人物に対する詐欺行為の発生を精度よく検出することが難しい場合がある。 Even with this second technique, it is difficult to accurately detect the occurrence of fraud against a target person. For example, if the target person's biometric data during a call contains noise, it is difficult to accurately detect the occurrence of fraud against the target person even if the target person's biometric data during the call is analyzed. There is.
具体的には、呼吸周期の影響により、対象の人物の通話時の生体データに、大きさが一定ではなく変動するノイズが含まれることがある。また、具体的には、対象の人物の発話中、対象の人物の体動により、対象の人物の通話時の生体データに含まれるノイズが大きくなる傾向がある。また、具体的には、対象の人物の会話の流れによって、対象の人物が様々な動作を行ったり、対象の人物の体動の大きさなどが変化したりすることにより、対象の人物の通話時の生体データに、大きさが一定ではなく変動するノイズが含まれることがある。このため、対象の人物の通話時の生体データを解析しても、対象の人物に対する詐欺行為の発生を精度よく検出することが難しい。例えば、対象の人物の通話時の生体データから、一律の基準でノイズを除去しようとしても、ノイズを適切に除去することができない場合がある。 Specifically, due to the influence of the breathing cycle, the biometric data of a target person during a call may include noise whose size is not constant but fluctuates. Further, specifically, while the target person is speaking, noise included in the biometric data of the target person during the call tends to increase due to body movements of the target person. Specifically, depending on the flow of the conversation of the target person, the target person may perform various actions or the size of the target person's body movements may change, causing the target person's conversation to Biometric data may contain noise whose size is not constant but fluctuates. For this reason, even if the biometric data of the target person during a call is analyzed, it is difficult to accurately detect the occurrence of fraud against the target person. For example, even if an attempt is made to remove noise from biometric data of a target person during a phone call using a uniform standard, it may not be possible to appropriately remove the noise.
そこで、本実施の形態では、対象の人物に対する犯罪行為の発生状況を精度よく評価することができる情報処理方法について説明する。 Therefore, in this embodiment, an information processing method that can accurately evaluate the occurrence of a criminal act against a target person will be described.
図1において、(1-1)情報処理装置100は、対象の期間における対象の人物の会話を示す音声データ101を取得する。対象の人物は、犯罪行為から保護することが望まれる人物である。犯罪行為は、例えば、詐欺行為である。音声データ101は、電話を介した、対象の人物と他の人物との会話を示す。他の人物は、例えば、犯罪者である場合が考えられる。犯罪者は、例えば、詐欺師である。対象の期間は、例えば、対象の人物が会話中の期間である。対象の期間は、具体的には、通話開始から通話終了までの通話期間である。
In FIG. 1, (1-1) the
情報処理装置100は、例えば、マイクを有し、マイクを用いて対象の人物の会話を録音することにより、音声データ101を取得する。情報処理装置100は、例えば、音声データ101を、他のコンピュータから受信することにより取得してもよい。他のコンピュータは、例えば、スマートフォンまたはスマートスピーカーなどである。
The
情報処理装置100は、具体的には、対象の人物の通話中、マイクを用いて対象の人物の会話を録音し続け、対象の人物の通話開始から通話終了までの期間における対象の人物の会話を示す音声データ101を取得する。情報処理装置100は、具体的には、対象の人物の通話中、マイクを用いて対象の人物の会話を録音し続け、対象の人物の通話中の所定のタイミングごとに、現時点から一定時間前までの期間における対象の人物の会話を示す音声データ101を取得してもよい。所定のタイミングは、例えば、一定時間ごとのタイミングである。
Specifically, the
(1-2)情報処理装置100は、1以上の音声パターンを記憶する。音声パターンは、例えば、ある発話属性に対応する音声データが示す会話音声の特徴を示す。発話属性は、例えば、対象の人物が沈黙したことを示す「沈黙」、および、対象の人物が相槌したことを示す「相槌」などである。発話属性は、例えば、対象の人物が他の人物の発話を聴取したことを示す「聴取」などであってもよい。発話属性は、例えば、対象の人物が発話したことを示す「発話」などであってもよい。
(1-2) The
音声パターンは、例えば、ある区間の音声または発話内容などと照合することにより、当該区間に対応する発話属性を特定可能にする基準パターンを示す。音声パターンは、具体的には、ある発話属性に対応するキーワードを示す。音声パターンは、具体的には、ある発話属性に対応する音声のトーン、声量、または、波長などを示していてもよい。 The voice pattern indicates a reference pattern that makes it possible to identify the utterance attribute corresponding to a certain section by comparing it with the voice or utterance content of a certain section, for example. Specifically, the voice pattern indicates a keyword corresponding to a certain utterance attribute. Specifically, the voice pattern may indicate the tone, volume, or wavelength of voice corresponding to a certain speech attribute.
情報処理装置100は、具体的には、「沈黙」に対応する音声パターン、および、「相槌」に対応する音声パターンなどを記憶する。情報処理装置100は、具体的には、「発話」に対応する音声パターンを記憶していてもよい。「発話」に対応する音声パターンは、「沈黙」に対応する音声パターン、および、「相槌」に対応する音声パターンに合致しないことを、音声の特徴として示していてもよい。
Specifically, the
情報処理装置100は、取得した音声データ101に基づいて、対象の期間のうち、1以上の音声パターンそれぞれに合致する区間を特定する。情報処理装置100は、例えば、音声データ101に基づいて、対象の期間のうち、「沈黙」に対応する音声パターンが現れる区間を、沈黙区間に分類して特定する。情報処理装置100は、例えば、音声データ101に基づいて、対象の期間のうち、「相槌」に対応する音声パターンが現れる区間を、相槌区間に分類して特定する。沈黙区間と相槌区間とは、聴取区間の一部である。
Based on the acquired
情報処理装置100は、例えば、音声データ101に基づいて、対象の期間のうち、「発話」に対応する音声パターンが現れる区間を、発話区間に分類して特定する。情報処理装置100は、具体的には、音声データ101に基づいて、対象の期間のうち、沈黙区間および相槌区間以外の残余の区間を、発話区間に分類して特定してもよい。
For example, based on the
(1-3)情報処理装置100は、特定した区間それぞれについて、当該区間における対象の人物の生体データ102を取得する。情報処理装置100は、例えば、沈黙区間、相槌区間、および、発話区間について、対象の人物の生体データ102を取得する。
(1-3) For each specified section, the
情報処理装置100は、具体的には、生体センサを有し、生体センサを用いて対象の人物の心拍、脈拍、体温、または、発汗などの特徴値を計測することにより、生体データ102を取得する。情報処理装置100は、具体的には、生体データ102を、他のコンピュータから受信することにより取得してもよい。他のコンピュータは、例えば、スマートフォンまたはウェアラブル端末などである。
Specifically, the
情報処理装置100は、より具体的には、対象の人物の通話中、生体センサを用いて対象の人物の特徴値を計測し続け、対象の人物の通話開始から通話終了までの期間における対象の人物の特徴値の時間変化を示す、全体の生体データを取得する。情報処理装置100は、より具体的には、取得した全体の生体データのうち、沈黙区間、相槌区間、および、発話区間における対象の人物の生体データ102を抽出することにより、対象の人物の生体データ102を取得する。
More specifically, the
情報処理装置100は、より具体的には、対象の人物の通話中、生体センサを用いて対象の人物の特徴値を計測し続ける。そして、情報処理装置100は、より具体的には、対象の人物の通話中の所定のタイミングごとに、現時点から一定時間前までの期間における対象の人物の特徴値の時間変化を示す、全体の生体データを取得してもよい。所定のタイミングは、例えば、一定時間ごとのタイミングである。情報処理装置100は、より具体的には、取得した全体の生体データのうち、沈黙区間、相槌区間、および、発話区間における対象の人物の生体データ102を抽出することにより、対象の人物の生体データ102を取得する。
More specifically, the
(1-4)情報処理装置100は、特定した区間それぞれについて、取得した当該区間における対象の人物の生体データ102に対して、1以上の音声パターンのうち、当該区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施する。情報処理装置100は、例えば、特定した区間と合致した音声パターンに対応する発話傾向または動作傾向などに応じて、当該区間における対象の人物の生体データ102から、当該発話傾向または当該動作傾向に対応する大きさおよび種類のノイズを除去する。
(1-4) For each of the identified sections, the
動作傾向は、例えば、人物が沈黙する場合の動作が比較的小さいことを示す。動作傾向は、例えば、人物が相槌する場合の動作が、人物が沈黙する場合に比べて大きくなり易いことを示す。動作傾向は、例えば、人物が発話する場合の動作が比較的大きく、人物が発話する場合の動作が、人物が相槌する場合に比べて大きくなり易いことを示す。 The movement tendency indicates, for example, that when a person is silent, the movement is relatively small. The movement tendency indicates, for example, that the movement when a person is in agreement tends to be larger than when the person is silent. The movement tendency indicates, for example, that the movement when a person speaks is relatively large, and that the movement when a person speaks is likely to be large compared to when a person chimes in.
(1-5)情報処理装置100は、特定した区間それぞれにおける、当該区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の対象の人物の生体データ102に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。
(1-5) The
情報処理装置100は、例えば、特定した区間それぞれにおける、当該区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の対象の人物の生体データ102に基づいて、対象の人物に関する特徴量を生成する。
For example, the
特徴量は、例えば、生体的な特徴量である。特徴量は、具体的には、生体的な1以上の特徴値、生体的な特徴値の統計値、または、生体的な特徴値の変化量などである。生体的な特徴値は、例えば、心拍、脈拍、体温、または、発汗などに関する特徴値である。生体的な特徴値は、具体的には、心拍数である。統計値は、例えば、平均値、中央値、最頻値、最大値、または、最小値などである。これにより、情報処理装置100は、対象の人物に対する犯罪行為の発生状況を評価する指標値となる特徴量を得ることができる。
The feature amount is, for example, a biological feature amount. Specifically, the feature amount is one or more biometric feature values, a statistical value of the biometric feature value, an amount of change in the biometric feature value, or the like. The biological characteristic value is, for example, a characteristic value related to heartbeat, pulse, body temperature, sweating, or the like. Specifically, the biological characteristic value is heart rate. The statistical value is, for example, an average value, median value, mode, maximum value, or minimum value. Thereby, the
情報処理装置100は、例えば、生成した特徴量に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。情報処理装置100は、具体的には、特定した区間それぞれについて、生成した特徴量が、生体的な特徴値の変化量であれば、生成した特徴量と閾値とを比較する。閾値は、例えば、予め利用者によって設定される。情報処理装置100は、具体的には、生成した特徴量が閾値以上であれば、対象の人物に対する犯罪行為が発生したと評価する。情報処理装置100は、具体的には、生成した特徴量が閾値未満であれば、対象の人物に対する犯罪行為が発生していないと評価する。
For example, the
情報処理装置100は、具体的には、特定した区間それぞれについて、生成した特徴量が、生体的な1以上の特徴値であれば、当該区間における特徴量の変化パターンに基づいて、対象の人物に対する犯罪行為の発生状況を評価してもよい。情報処理装置100は、具体的には、特定した区間それぞれについて、生成した特徴量が、生体的な特徴値の統計値であれば、複数の区間に跨った特徴量の変化パターンに基づいて、対象の人物に対する犯罪行為の発生状況を評価してもよい。
Specifically, if the generated feature amount for each identified section is one or more biometric feature values, the
これにより、情報処理装置100は、対象の人物に対する詐欺行為の発生状況を精度よく評価することができる。このため、情報処理装置100は、対象の人物に対する詐欺行為の発生を精度よく検出可能にすることができる。情報処理装置100は、対象の人物に対する詐欺行為による詐欺被害の発生を防止し易くすることができる。
Thereby, the
情報処理装置100は、例えば、特定した区間ごとに、当該区画と合致したいずれかの音声パターンに対応する発話傾向または動作傾向などに応じて、当該区間における対象の人物の生体データ102から、適切にノイズを除去することができる。このため、情報処理装置100は、ノイズを適切に除去した生体データ102に基づいて、対象の人物に対する詐欺行為の発生状況を精度よく評価することができる。
For example, for each identified section, the
ここでは、情報処理装置100が、単独で動作する場合について説明したが、これに限らない。例えば、情報処理装置100が、他のコンピュータと協働する場合があってもよい。例えば、複数のコンピュータが、情報処理装置100としての機能を実現する場合があってもよい。具体的には、クラウド上に情報処理装置100としての機能が実現される場合があってもよい。
Although the case where the
(情報処理システム200の一例)
次に、図2を用いて、図1に示した情報処理装置100を適用した、情報処理システム200の一例について説明する。
(Example of information processing system 200)
Next, an example of an
図2は、情報処理システム200の一例を示す説明図である。図2において、情報処理システム200は、情報処理装置100と、音声データ取得装置201と、生体データ取得装置202と、アラート出力装置203とを含む。
FIG. 2 is an explanatory diagram showing an example of the
情報処理システム200において、情報処理装置100と音声データ取得装置201とは、有線または無線のネットワーク210を介して接続される。ネットワーク210は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどである。
In the
また、情報処理システム200において、情報処理装置100と生体データ取得装置202とは、有線または無線のネットワーク210を介して接続される。また、情報処理システム200において、情報処理装置100とアラート出力装置203とは、有線または無線のネットワーク210を介して接続される。
Further, in the
情報処理装置100は、対象の人物に対する犯罪行為の発生状況を評価するためのコンピュータである。対象の人物は、犯罪行為から保護することが望まれる人物である。犯罪行為は、例えば、詐欺行為である。発生状況は、例えば、発生有無である。
The
情報処理装置100は、対象の期間における対象の人物の音声データを取得する。音声データは、電話を介した、対象の人物と他の人物との会話を示す。他の人物は、例えば、犯罪者である場合が考えられる。犯罪者は、例えば、詐欺師である。情報処理装置100は、例えば、対象の期間における対象の人物の音声データを、音声データ取得装置201から受信することにより取得する。
The
情報処理装置100は、具体的には、一定時間ごとに、過去一定時間分の対象の期間における対象の人物の音声データを、音声データ取得装置201から受信することにより取得する。情報処理装置100は、具体的には、対象の人物の通話終了時、通話開始から通話終了までの対象の期間における対象の人物の音声データを、音声データ取得装置201から受信することにより取得してもよい。
Specifically, the
情報処理装置100は、対象の期間における対象の人物の生体データを取得する。生体データは、対象の人物の生体的な特徴値の時間変化を示す。生体的な特徴値は、例えば、心拍数、脈拍数、体温、または、発汗量などである。情報処理装置100は、例えば、対象の期間における対象の人物の生体データを、生体データ取得装置202から受信することにより取得する。
The
情報処理装置100は、具体的には、一定時間ごとに、過去一定時間分の対象の期間における対象の人物の生体データを、生体データ取得装置202から受信することにより取得する。情報処理装置100は、具体的には、対象の人物の通話終了時、通話開始から通話終了までの対象の期間における対象の人物の生体データを、生体データ取得装置202から受信することにより取得してもよい。
Specifically, the
情報処理装置100は、取得した音声データと、取得した生体データとに基づいて、対象の人物に対する詐欺行為の発生状況を評価する。情報処理装置100は、例えば、取得した音声データに基づいて、対象の期間を、発話区間と、聴取区間とに分類する。情報処理装置100は、具体的には、取得した音声データに基づいて、対象の期間における複数の発話者を特定する。情報処理装置100は、具体的には、取得した音声データに基づいて、それぞれの発話者について、当該発話者が発話した区間、当該区間における当該発話者の音声、および、当該区間における当該発話者の発話内容などを特定する。
The
ここで、情報処理装置100は、具体的には、音声パターンと、発話属性とを対応付けて記憶する。音声パターンは、例えば、対象の人物の音声または発話内容と照合することにより、区間に対応する発話属性を特定可能にする基準パターンである。発話属性は、例えば、対象の人物が沈黙したことを示す「沈黙」、および、対象の人物が相槌したことを示す「相槌」などである。発話属性は、例えば、対象の人物が発話したことを示す「発話」などであってもよい。情報処理装置100は、より具体的には、図6に後述するフィルタ情報管理テーブル600を記憶する。
Here, the
情報処理装置100は、具体的には、特定した発話者に基づいて、特定した対象の人物の音声または発話内容と、記憶した音声パターンとを照合することにより、対象の期間のうち、「沈黙」、または、「相槌」などの発話属性を有する区間を特定する。情報処理装置100は、具体的には、特定した発話者に基づいて、特定した対象の人物の音声または発話内容と、記憶した音声パターンとを照合することにより、対象の期間のうち、「発話」の発話属性を有する区間を特定してもよい。
Specifically, based on the identified speaker, the
情報処理装置100は、具体的には、対象の期間のうち、「沈黙」の発話属性を有し、発話者が対象の人物とは異なる他の人物のみである区間を、聴取区間に分類する。情報処理装置100は、例えば、「相槌」の発話属性を有する区間を、聴取区間に分類する。情報処理装置100は、具体的には、対象の期間のうち、発話者が少なくとも対象の人物を含み、「相槌」の発話属性を有さない区間を、発話区間に分類する。情報処理装置100は、より具体的には、対象の期間のうち、「発話」の発話属性を有する区間を、発話区間に分類してもよい。情報処理装置100は、具体的には、連続する2以上の聴取区間を結合してもよい。情報処理装置100は、具体的には、連続する2以上の発話区間を結合してもよい。
Specifically, the
情報処理装置100は、対象の期間における対象の人物の生体データのうち、聴取区間における対象の人物の生体データを抽出して加工する。ここで、情報処理装置100は、例えば、発話属性と、生体データを加工するためのフィルタとを対応付けて記憶する。情報処理装置100は、具体的には、図6に後述するフィルタ情報管理テーブル600を記憶する。
The
情報処理装置100は、分類した聴取区間のうち、沈黙の発話属性を有する区間における対象の人物の生体データに対して、沈黙の発話属性に対応するフィルタを適用することにより、当該生体データからノイズを除去する。情報処理装置100は、分類した聴取区間のうち、相槌の発話属性を有する区間における対象の人物の生体データに対して、相槌の発話属性に対応するフィルタを適用することにより、当該生体データからノイズを除去する。
The
情報処理装置100は、それぞれの聴取区間について、当該聴取区間におけるノイズを除去した後の対象の人物の生体データに基づいて、第1の特徴量を算出する。第1の特徴量は、例えば、聴取区間における心拍数の統計値などである。第1の特徴量は、聴取区間における心拍数の変化量などであってもよい。
The
情報処理装置100は、それぞれの発話区間について、当該発話区間における対象の人物の音声データに基づいて、第2の特徴量を算出する。第2の特徴量は、例えば、発話区間における対象の人物の感情の特徴値である。感情の特徴値は、例えば、対象の人物の感情がネガティブであるか、または、ポジティブであるかを示す。
The
感情の特徴値は、例えば、対象の人物の感情が、喜び、怒り、悲しみ、残念、驚き、意欲的、または、消極的などであることを示していてもよい。感情の特徴値は、例えば、ストレス度合いなどであってもよい。第2の特徴量は、例えば、発話区間における対象の人物の感情の特徴値の変化量などであってもよい。第2の特徴量は、具体的には、発話区間における対象の人物のストレス度合いの変化量などであってもよい。 The emotion characteristic value may indicate, for example, that the emotion of the target person is joy, anger, sadness, regret, surprise, motivation, or reluctance. The characteristic value of emotion may be, for example, the degree of stress. The second feature amount may be, for example, the amount of change in the feature value of the emotion of the target person during the utterance period. Specifically, the second feature amount may be the amount of change in the stress level of the target person during the utterance period.
情報処理装置100は、算出した第1の特徴量と、算出した第2の特徴量とに基づいて、対象の人物に対する詐欺行為の発生状況を評価する。ここで、情報処理装置100は、例えば、第1の特徴量の変化パターンと、詐欺行為の発生状況の解とを対応付けて記憶する。情報処理装置100は、具体的には、図7に後述する感情パターン情報管理テーブル700を記憶する。情報処理装置100は、例えば、算出した第1の特徴量の変化パターンに対応する詐欺行為の発生状況の解を特定することにより、対象の人物に対する詐欺行為の発生状況を評価する。
The
情報処理装置100は、例えば、算出した第1の特徴量が心拍数の変化量であれば、第1の特徴量と閾値とを比較することにより、対象の人物に対する詐欺行為の発生状況を評価してもよい。閾値は、例えば、予め利用者によって設定される。情報処理装置100は、具体的には、第1の特徴量が閾値以上であれば、対象の人物に対する詐欺行為が発生したと評価する。情報処理装置100は、具体的には、第1の特徴量が閾値未満であれば、対象の人物に対する詐欺行為が発生していないと評価する。
For example, if the calculated first feature amount is the amount of change in heart rate, the
また、情報処理装置100は、例えば、第2の特徴量の変化パターンと、詐欺行為の発生状況の解とを対応付けて記憶する。情報処理装置100は、具体的には、図8に後述する生体パターン情報管理テーブル800を記憶する。情報処理装置100は、例えば、算出した第2の特徴量の変化パターンに対応する詐欺行為の発生状況の解を特定することにより、対象の人物に対する詐欺行為の発生状況を評価する。
Further, the
情報処理装置100は、例えば、算出した第2の特徴量がストレス度合いの変化量であれば、第2の特徴量と閾値とを比較することにより、対象の人物に対する詐欺行為の発生状況を評価してもよい。閾値は、例えば、予め利用者によって設定される。情報処理装置100は、具体的には、第2の特徴量が閾値以上であれば、対象の人物に対する詐欺行為が発生したと評価する。情報処理装置100は、具体的には、第2の特徴量が閾値未満であれば、対象の人物に対する詐欺行為が発生していないと評価する。
For example, if the calculated second feature amount is the amount of change in stress level, the
情報処理装置100は、対象の人物に対する詐欺行為の発生状況を評価した結果、対象の人物に対する詐欺行為が発生したと判定した場合、対象の人物に対する詐欺行為が発生したことを示す通知を、アラート出力装置203に送信する。情報処理装置100は、例えば、サーバ、または、PCなどである。
If it is determined that a fraudulent act has occurred against the target person as a result of evaluating the occurrence status of the fraudulent act against the target person, the
音声データ取得装置201は、対象の期間における対象の人物の音声データを取得するコンピュータである。音声データ取得装置201は、例えば、対象の人物の通話時、対象の人物の会話を録音し続ける。音声データ取得装置201は、例えば、一定時間ごとに、過去一定時間分の対象の期間における、録音した対象の人物の会話を示す音声データを生成し、情報処理装置100に送信する。音声データ取得装置201は、例えば、PC、タブレット端末、スマートフォン、ウェアラブル端末、または、スマートスピーカーなどである。
The audio
生体データ取得装置202は、対象の期間における対象の人物の生体データを取得するコンピュータである。生体データ取得装置202は、例えば、対象の人物の通話時、対象の人物の生体的な特徴値を計測し続ける。生体データ取得装置202は、例えば、一定時間ごとに、過去一定時間分の対象の期間における、計測した対象の人物の生体的な特徴値の時間変化を示す生体データを生成し、情報処理装置100に送信する。生体データ取得装置202は、例えば、PC、タブレット端末、スマートフォン、または、ウェアラブル端末などである。
The biometric
アラート出力装置203は、対象の人物に対する詐欺行為が発生したことを示すアラートを出力するコンピュータである。アラート出力装置203は、例えば、対象の人物に対する詐欺行為が発生したことを示す通知を、情報処理装置100から受信する。アラート出力装置203は、例えば、対象の人物に対する詐欺行為が発生したことを示す通知を受信したことに応じて、対象の人物に対する詐欺行為が発生したことを示すアラートを出力する。
The
アラート出力装置203は、具体的には、対象の人物に対する詐欺行為が発生したことを示すアラートを、特定の人物または特定の組織宛てに出力する。特定の人物は、例えば、対象の人物本人、または、対象の人物の近親者などである。特定の組織は、例えば、警察、金融機関、警備会社、または、介護施設などである。アラート出力装置203は、例えば、PC、タブレット端末、スマートフォン、ウェアラブル端末、または、スマートスピーカーなどである。
Specifically, the
ここでは、情報処理装置100と、音声データ取得装置201とが異なる装置である場合について説明したが、これに限らない。例えば、情報処理装置100が、音声データ取得装置201としての機能を有し、音声データ取得装置201としても動作する場合があってもよい。
Although the case where the
ここでは、情報処理装置100と、生体データ取得装置202とが異なる装置である場合について説明したが、これに限らない。例えば、情報処理装置100が、生体データ取得装置202としての機能を有し、生体データ取得装置202としても動作する場合があってもよい。
Although the case where the
ここでは、情報処理装置100と、アラート出力装置203とが異なる装置である場合について説明したが、これに限らない。例えば、情報処理装置100が、アラート出力装置203としての機能を有し、アラート出力装置203としても動作する場合があってもよい。
Although the case where the
ここでは、音声データ取得装置201と、生体データ取得装置202とが異なる装置である場合について説明したが、これに限らない。例えば、音声データ取得装置201が、生体データ取得装置202としての機能を有し、生体データ取得装置202としても動作する場合があってもよい。
Although the case where the audio
ここでは、音声データ取得装置201と、アラート出力装置203とが異なる装置である場合について説明したが、これに限らない。例えば、音声データ取得装置201が、アラート出力装置203としての機能を有し、アラート出力装置203としても動作する場合があってもよい。
Although the case where the audio
ここでは、生体データ取得装置202と、アラート出力装置203とが異なる装置である場合について説明したが、これに限らない。例えば、生体データ取得装置202が、アラート出力装置203としての機能を有し、アラート出力装置203としても動作する場合があってもよい。
Although the case where the biometric
(情報処理システム200の適用例)
次に、図3および図4を用いて、情報処理システム200の適用例について説明する。
(Application example of information processing system 200)
Next, an application example of the
図3は、情報処理システム200の第1の適用例を示す説明図である。図3において、詐欺行為から保護する対象の人物となるユーザ301は、スマートフォン310を有する。ユーザ301は、例えば、ユーザ301の自宅などに居る。ユーザ301は、例えば、外出していてもよい。情報処理システム200は、ユーザ301が、スマートフォン310を介して、他の人物と会話する場合に対して適用することができる。他の人物は、例えば、詐欺師302である。
FIG. 3 is an explanatory diagram showing a first application example of the
この場合、例えば、スマートフォン310が、情報処理装置100としての機能、音声データ取得装置201としての機能、生体データ取得装置202としての機能、および、アラート出力装置203としての機能を実現することになる。
In this case, for example, the
スマートフォン310は、例えば、マイクを有し、ユーザ301の通話時、マイクを用いて、ユーザ301の会話を示す音声データを取得することにより、音声データ取得装置201としての機能を実現する。スマートフォン310は、例えば、側面に生体センサ311を有し、ユーザ301の通話時、ユーザ301の手に接触した生体センサ311を用いて、ユーザ301の生体データを取得することにより、生体データ取得装置202としての機能を実現する。
The
スマートフォン310は、例えば、音声データと、生体データとに基づいて、対象の人物に対する犯罪行為の発生状況を評価し、対象の人物に対する詐欺行為が発生したか否かを判定することにより、情報処理装置100としての機能を実現する。スマートフォン310は、例えば、対象の人物に対する詐欺行為が発生したと判定した場合、対象の人物に対する詐欺行為が発生したことを示すアラートを出力することにより、アラート出力装置203としての機能を実現する。これにより、情報処理システム200は、ユーザ301が、スマートフォン310を介して、詐欺師と会話する場合において、詐欺行為による詐欺被害を防止し易くすることができる。次に、図4の説明に移行する。
For example, the
図4は、情報処理システム200の第2の適用例を示す説明図である。図4において、詐欺行為から保護する対象の人物となるユーザ401は、ウェアラブル端末411を装着する。また、ユーザ401の近傍に、スマートスピーカー412が存在するとする。ユーザ401は、例えば、ユーザ401の自宅などに居る。
FIG. 4 is an explanatory diagram showing a second application example of the
また、ウェアラブル端末411、および、スマートスピーカー412と通信可能なサーバ413が存在するとする。また、ユーザ401の関係者403は、スマートフォン414を有するとする。関係者403は、例えば、ユーザ401の近親者などである。関係者403は、例えば、関係者403の自宅である関係者宅などに居る。情報処理システム200は、ユーザ401が、固定電話機415を介して、他の人物と会話する場合に対して適用することができる。他の人物は、例えば、詐欺師402である。
Further, it is assumed that there is a
この場合、例えば、サーバ413が、情報処理装置100としての機能を実現することになる。サーバ413は、例えば、情報処理システム200を管理する管理会社などに設けられる。また、スマートスピーカー412が、音声データ取得装置201としての機能を実現することになる。また、ウェアラブル端末411が、生体データ取得装置202としての機能を実現することになる。また、スマートフォン414が、アラート出力装置203としての機能を実現することになる。
In this case, for example, the
スマートスピーカー412は、例えば、マイクを有し、ユーザ401の通話時、マイクを用いて、ユーザ401の会話を示す音声データを取得することにより、音声データ取得装置201としての機能を実現する。スマートスピーカー412は、例えば、取得した音声データを、サーバ413に送信する。
The
ウェアラブル端末411は、例えば、生体センサを有し、ユーザ401の通話時、ユーザ401の手に接触した生体センサを用いて、ユーザ401の生体データを取得することにより、生体データ取得装置202としての機能を実現する。ウェアラブル端末411は、例えば、取得した生体データを、サーバ413に送信する。
The
サーバ413は、例えば、音声データと、生体データとに基づいて、対象の人物に対する犯罪行為の発生状況を評価し、対象の人物に対する詐欺行為が発生したか否かを判定することにより、情報処理装置100としての機能を実現する。サーバ413は、例えば、対象の人物に対する詐欺行為が発生したと判定した場合、対象の人物に対する詐欺行為が発生したことを示す通知を、スマートフォン414に送信する。
The
スマートフォン414は、例えば、対象の人物に対する詐欺行為が発生したことを示す通知を受信したことに応じて、対象の人物に対する詐欺行為が発生したことを示すアラートを出力することにより、アラート出力装置203としての機能を実現する。これにより、情報処理システム200は、ユーザ401が、固定電話機415を介して、詐欺師402と会話する場合において、詐欺行為による詐欺被害を防止し易くすることができる。
For example, in response to receiving a notification indicating that a fraudulent act against the target person has occurred, the
情報処理システム200は、例えば、ユーザ401に対する詐欺行為が発生したと判定した場合、関係者403が、ユーザ401に対する詐欺行為が発生したことを把握可能にすることができる。このため、情報処理システム200は、関係者403が、詐欺行為による詐欺被害を防止するために、ユーザ401に連絡を取ったり、警察または銀行に連絡を取ったりするような対策を素早く実施し易くすることができる。
For example, when the
ここでは、ユーザ401の関係者403が有するスマートフォン414が、アラート出力装置203としての機能を実現する場合について説明したが、これに限らない。例えば、警察または銀行に設置されたサーバまたはPCなどのコンピュータが、アラート出力装置203としての機能を実現する場合があってもよい。
Here, a case has been described in which the
ここでは、詐欺師402が、電話を介して詐欺行為を行おうとする状況に対して、情報処理システム200を適用する場合について説明したが、これに限らない。例えば、詐欺師402が、ユーザ401と対面して、詐欺行為を行おうとする状況に対して、情報処理システム200を適用する場合があってもよい。
Here, a case has been described in which the
(情報処理装置100のハードウェア構成例)
次に、図5を用いて、情報処理装置100のハードウェア構成例について説明する。
(Example of hardware configuration of information processing device 100)
Next, an example of the hardware configuration of the
図5は、情報処理装置100のハードウェア構成例を示すブロック図である。図5において、情報処理装置100は、CPU(Central Processing Unit)501と、メモリ502と、ネットワークI/F(Interface)503と、記録媒体I/F504と、記録媒体505とを有する。また、各構成部は、バス500によってそれぞれ接続される。
FIG. 5 is a block diagram showing an example of the hardware configuration of the
ここで、CPU501は、情報処理装置100の全体の制御を司る。メモリ502は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)およびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU501のワークエリアとして使用される。メモリ502に記憶されるプログラムは、CPU501にロードされることにより、コーディングされている処理をCPU501に実行させる。メモリ502は、例えば、図6に後述するフィルタ情報管理テーブル600と、図7に後述する感情パターン情報管理テーブル700と、図8に後述する生体パターン情報管理テーブル800とを記憶する。
Here, the
ネットワークI/F503は、通信回線を通じてネットワーク210に接続され、ネットワーク210を介して他のコンピュータに接続される。そして、ネットワークI/F503は、ネットワーク210と内部のインターフェースを司り、他のコンピュータからのデータの入出力を制御する。ネットワークI/F503は、例えば、モデムやLANアダプタなどである。
Network I/
記録媒体I/F504は、CPU501の制御に従って記録媒体505に対するデータのリード/ライトを制御する。記録媒体I/F504は、例えば、ディスクドライブ、SSD(Solid State Drive)、USB(Universal Serial Bus)ポートなどである。記録媒体505は、記録媒体I/F504の制御で書き込まれたデータを記憶する不揮発メモリである。記録媒体505は、例えば、ディスク、半導体メモリ、USBメモリなどである。記録媒体505は、情報処理装置100から着脱可能であってもよい。
The recording medium I/
情報処理装置100は、上述した構成部の他、例えば、キーボード、マウス、プリンタ、または、スキャナなどを有してもよい。また、情報処理装置100は、記録媒体I/F504や記録媒体505を複数有していてもよい。また、情報処理装置100は、記録媒体I/F504や記録媒体505を有していなくてもよい。
In addition to the components described above, the
また、情報処理装置100は、上述した構成部の他、図9に後述する音声センサ906に対応する構成部を有していてもよい。また、情報処理装置100は、上述した構成部の他、図9に後述する生体センサ907に対応する構成部を有していてもよい。また、情報処理装置100は、上述した構成部の他、図9に後述する出力装置908に対応する構成部を有していてもよい。
In addition to the above-described components, the
(フィルタ情報管理テーブル600の記憶内容)
次に、図6を用いて、フィルタ情報管理テーブル600の記憶内容の一例について説明する。フィルタ情報管理テーブル600は、例えば、図5に示した情報処理装置100のメモリ502や記録媒体505などの記憶領域により実現される。
(Stored contents of filter information management table 600)
Next, an example of the stored contents of the filter information management table 600 will be explained using FIG. 6. The filter information management table 600 is realized, for example, by a storage area such as the
図6は、フィルタ情報管理テーブル600の記憶内容の一例を示す説明図である。図6に示すように、フィルタ情報管理テーブル600は、音声パターンと、種類と、フィルタとのフィールドを有する。フィルタ情報管理テーブル600は、音声パターンごとに各フィールドに情報を設定することにより、フィルタ情報がレコード600-aとして記憶される。aは、任意の整数である。 FIG. 6 is an explanatory diagram showing an example of the stored contents of the filter information management table 600. As shown in FIG. 6, the filter information management table 600 has fields for voice pattern, type, and filter. In the filter information management table 600, filter information is stored as a record 600-a by setting information in each field for each voice pattern. a is any integer.
音声パターンのフィールドには、対象の人物が会話中の期間を複数の区間に分類して当該区間に発話属性を割り振るための条件を示す音声パターンが設定される。音声パターンは、区間に割り振る発話属性を特定可能にする。音声パターンは、例えば、発話属性に対応する音声データが示す会話音声の特徴を示す。音声パターンは、具体的には、発話属性に対応するキーワードを示す。音声パターンは、具体的には、発話属性に対応する音声のトーン、声量、または、波長などを示していてもよい。 In the voice pattern field, a voice pattern indicating conditions for classifying the period during which the target person is having a conversation into a plurality of sections and assigning speech attributes to the sections is set. The voice pattern makes it possible to specify the utterance attributes to be assigned to the sections. The voice pattern indicates, for example, the characteristics of the conversational voice indicated by the voice data corresponding to the utterance attribute. Specifically, the voice pattern indicates a keyword corresponding to an utterance attribute. Specifically, the voice pattern may indicate the tone, volume, wavelength, etc. of the voice corresponding to the speech attribute.
音声パターンのフィールドには、具体的には、「沈黙」に対応する音声パターン、または、「相槌」に対応する音声パターンなどが設定される。音声パターンのフィールドには、具体的には、「発話」に対応する音声パターンなどが設定されていてもよい。「発話」に対応する音声パターンは、特定のキーワードではなく、特定の音声のトーン、声量、または、波長などではなく、「沈黙」に対応する音声パターン、および、「相槌」に対応する音声パターンに合致しないことを示していてもよい。 Specifically, in the voice pattern field, a voice pattern corresponding to "silence" or a voice pattern corresponding to "agoushu" is set. Specifically, a voice pattern corresponding to "utterance" may be set in the voice pattern field. The speech pattern corresponding to "speech" is not a specific keyword, nor is it a specific tone, volume, or wavelength of speech, but rather a speech pattern corresponding to "silence" and a speech pattern corresponding to "agoushu". It may also indicate that it does not match.
種類のフィールドには、上記発話属性の種類が設定される。種類のフィールドには、例えば、対象の人物が会話中の期間のうち、上記音声パターンに対応する区間に割り振る発話属性の種類が設定される。フィルタのフィールドには、上記音声パターンに対応する区間における生体データに適用するフィルタが設定される。フィルタは、例えば、生体データのノイズを除去する機能を有する。 The type of the utterance attribute is set in the type field. In the type field, for example, the type of speech attribute to be assigned to the section corresponding to the voice pattern during the conversation of the target person is set. A filter to be applied to the biometric data in the section corresponding to the voice pattern is set in the filter field. The filter has, for example, a function of removing noise from biometric data.
(感情パターン情報管理テーブル700の記憶内容)
次に、図7を用いて、感情パターン情報管理テーブル700の記憶内容の一例について説明する。感情パターン情報管理テーブル700は、例えば、図5に示した情報処理装置100のメモリ502や記録媒体505などの記憶領域により実現される。
(Memory contents of emotion pattern information management table 700)
Next, an example of the contents stored in the emotional pattern information management table 700 will be explained using FIG. 7. The emotional pattern information management table 700 is realized, for example, by a storage area such as the
図7は、感情パターン情報管理テーブル700の記憶内容の一例を示す説明図である。図7に示すように、感情パターン情報管理テーブル700は、感情パターンと、判定結果とのフィールドを有する。感情パターン情報管理テーブル700は、感情パターンごとに各フィールドに情報を設定することにより、感情パターン情報がレコード700-bとして記憶される。bは、任意の整数である。 FIG. 7 is an explanatory diagram showing an example of the stored contents of the emotional pattern information management table 700. As shown in FIG. 7, the emotion pattern information management table 700 has fields for emotion patterns and determination results. In the emotional pattern information management table 700, emotional pattern information is stored as a record 700-b by setting information in each field for each emotional pattern. b is an arbitrary integer.
感情パターンのフィールドには、詐欺行為の発生状況を評価する基準を示す感情パターンが設定される。感情パターンは、例えば、複数の区間のそれぞれの区間における対象の人物の感情の特徴値の組み合わせのパターンである。判定結果のフィールドには、複数の区間のそれぞれの区間について、実際に特定した対象の人物の感情の特徴値の組み合わせのパターンが、上記感情パターンに該当する場合に対応する、詐欺行為の発生状況の解となる判定結果が設定される。 In the field of emotion pattern, an emotion pattern indicating a standard for evaluating the occurrence of fraud is set. The emotion pattern is, for example, a pattern of combinations of characteristic values of emotions of a target person in each of a plurality of intervals. In the judgment result field, for each of the multiple intervals, the occurrence situation of fraud corresponding to the case where the pattern of the combination of characteristic values of the emotions of the actually identified target person corresponds to the above emotion pattern is displayed. The determination result that is the solution is set.
例えば、レコード700-bは、具体的には、複数の発話区間のそれぞれの発話区間における対象の人物の感情の特徴値が、先頭からポジティブ、ネガティブ、ポジティブの順序の組み合わせである場合に、詐欺行為が発生したと評価するといった規則を示す。 For example, record 700-b specifies that the target person's emotion characteristic values in each of the plurality of speech sections are a combination of positive, negative, and positive from the beginning. Indicates rules such as evaluating that an act has occurred.
(生体パターン情報管理テーブル800の記憶内容)
次に、図8を用いて、生体パターン情報管理テーブル800の記憶内容の一例について説明する。生体パターン情報管理テーブル800は、例えば、図5に示した情報処理装置100のメモリ502や記録媒体505などの記憶領域により実現される。
(Stored contents of biometric pattern information management table 800)
Next, an example of the stored contents of the biometric pattern information management table 800 will be described using FIG. 8. The biometric pattern information management table 800 is realized, for example, by a storage area such as the
図8は、生体パターン情報管理テーブル800の記憶内容の一例を示す説明図である。図8に示すように、生体パターン情報管理テーブル800は、生体パターンと、判定結果とのフィールドを有する。生体パターン情報管理テーブル800は、生体パターンごとに各フィールドに情報を設定することにより、生体パターン情報がレコード800-cとして記憶される。cは、任意の整数である。 FIG. 8 is an explanatory diagram showing an example of the stored contents of the biometric pattern information management table 800. As shown in FIG. 8, the biometric pattern information management table 800 has fields for biometric patterns and determination results. In the biometric pattern information management table 800, biometric pattern information is stored as a record 800-c by setting information in each field for each biometric pattern. c is any integer.
生体パターンのフィールドには、詐欺行為の発生状況を評価する基準を示す生体パターンが設定される。生体パターンは、例えば、複数の区間のそれぞれの区間における対象の人物の生体的な特徴値の組み合わせのパターンである。生体パターンは、例えば、複数の区間のそれぞれの区間における対象の人物の生体的な特徴値の統計値の組み合わせのパターンであってもよい。生体パターンは、例えば、ある区間における対象の人物の生体的な特徴値の時間変化のパターンであってもよい。 In the biometric pattern field, a biometric pattern indicating a standard for evaluating the occurrence of fraud is set. The biological pattern is, for example, a pattern of combinations of biological characteristic values of a target person in each of a plurality of sections. The biological pattern may be, for example, a pattern of a combination of statistical values of biological characteristic values of the target person in each of a plurality of sections. The biological pattern may be, for example, a pattern of temporal changes in biological characteristic values of a target person in a certain section.
判定結果のフィールドには、複数の区間のそれぞれの区間について、実際に特定した対象の人物の生体的な特徴値の組み合わせのパターンが、上記生体パターンに該当する場合に対応する、詐欺行為の発生状況の解となる判定結果が設定される。判定結果のフィールドには、複数の区間のそれぞれの区間について、実際に特定した対象の人物の生体的な特徴値の統計値の組み合わせのパターンが、上記生体パターンに該当する場合に対応する、詐欺行為の発生状況の解となる判定結果が設定される。判定結果のフィールドには、ある区間について、実際に特定した対象の人物の生体的な特徴値の時間変化のパターンが、上記生体パターンに該当する場合に対応する、詐欺行為の発生状況の解となる判定結果が設定されていてもよい。 In the judgment result field, for each of the multiple sections, the occurrence of fraud corresponding to the case where the pattern of combination of biometric feature values of the target person actually identified corresponds to the above biometric pattern. A determination result that is a solution to the situation is set. In the judgment result field, for each of the multiple sections, if the pattern of the combination of the statistical values of the biometric feature values of the target person actually identified corresponds to the above biometric pattern, the fraud A determination result that is a solution to the situation in which the act occurs is set. In the judgment result field, the solution to the occurrence of fraud corresponding to the case where the pattern of time change of the biological characteristic values of the actually identified target person corresponds to the above biological pattern for a certain interval is displayed. A determination result may be set.
例えば、レコード800-cは、具体的には、ある区間について、実際に特定した対象の人物の生体的な特徴値の時間変化のパターンが、単調増加を示す生体パターンに合致する場合に、詐欺行為が発生したと評価するといった規則を示す。 For example, record 800-c specifies that if the pattern of time change in the biometric feature values of the actually identified target person matches the biometric pattern showing a monotonous increase in a certain interval, Indicates rules such as evaluating that an act has occurred.
(音声データ取得装置201のハードウェア構成例)
次に、図9を用いて、音声データ取得装置201のハードウェア構成例について説明する。
(Example of hardware configuration of audio data acquisition device 201)
Next, an example of the hardware configuration of the audio
図9は、音声データ取得装置201のハードウェア構成例を示すブロック図である。図9において、音声データ取得装置201は、CPU901と、メモリ902と、ネットワークI/F903と、記録媒体I/F904と、記録媒体905と、音声センサ906と、生体センサ907と、出力装置908とを有する。また、各構成部は、バス900によってそれぞれ接続される。
FIG. 9 is a block diagram showing an example of the hardware configuration of the audio
ここで、CPU901は、音声データ取得装置201の全体の制御を司る。メモリ902は、例えば、ROM、RAMおよびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU901のワークエリアとして使用される。メモリ902に記憶されるプログラムは、CPU901にロードされることにより、コーディングされている処理をCPU901に実行させる。
Here, the
ネットワークI/F903は、通信回線を通じてネットワーク210に接続され、ネットワーク210を介して他のコンピュータに接続される。そして、ネットワークI/F903は、ネットワーク210と内部のインターフェースを司り、他のコンピュータからのデータの入出力を制御する。ネットワークI/F903は、例えば、モデムやLANアダプタなどである。
Network I/
記録媒体I/F904は、CPU901の制御に従って記録媒体905に対するデータのリード/ライトを制御する。記録媒体I/F904は、例えば、ディスクドライブ、SSD、USBポートなどである。記録媒体905は、記録媒体I/F904の制御で書き込まれたデータを記憶する不揮発メモリである。記録媒体905は、例えば、ディスク、半導体メモリ、USBメモリなどである。記録媒体905は、音声データ取得装置201から着脱可能であってもよい。
The recording medium I/
音声センサ906は、音声を検出するマイクを有し、マイクを用いて対象の人物に関する音声を検出することにより、検出した音声を示す音声データを取得する。音声センサ906は、例えば、マイクを用いて検出した、対象の人物と他の人物との会話音声を示す音声データを生成することにより取得する。
The
生体センサ907は、対象の人物の生体データを取得する。生体センサ907は、例えば、心拍数、脈拍数、発汗量、または、体温などに関する対象の人物の生体的な特徴値を計測し、計測した生体的な特徴値の時間変化を示す生体データを生成することにより取得する。生体センサ907は、例えば、撮像装置を含み、撮像装置で撮像した対象の人物の画像情報に基づいて、心拍数、脈拍数、発汗量、または、体温などに関する対象の人物の生体的な特徴値を計測していてもよい。生体センサ907は、例えば、ミリ波センサを含み、ミリ波センサを用いて、心拍数、脈拍数、発汗量、または、体温などに関する対象の人物の生体的な特徴値を計測していてもよい。
A
出力装置908は、スピーカーまたはディスプレイを含む。出力装置908は、スピーカーまたはディスプレイを用いて、音声、文書、または、画像などのデータを出力する。出力装置908は、例えば、詐欺行為が発生したことを示すアラートを出力する。ディスプレイは、例えば、CRT(Cathode Ray Tube)、液晶ディスプレイ、有機EL(Electroluminescence)ディスプレイなどである。
音声データ取得装置201は、上述した構成部の他、例えば、キーボード、マウス、プリンタ、または、スキャナなどを有してもよい。また、音声データ取得装置201は、記録媒体I/F904や記録媒体905を複数有していてもよい。また、音声データ取得装置201は、記録媒体I/F904や記録媒体905を有していなくてもよい。
The audio
(生体データ取得装置202のハードウェア構成例)
生体データ取得装置202のハードウェア構成例は、具体的には、図9に示した音声データ取得装置201のハードウェア構成例と同様であるため、説明を省略する。
(Example of hardware configuration of biological data acquisition device 202)
The hardware configuration example of the biometric
(アラート出力装置203のハードウェア構成例)
アラート出力装置203のハードウェア構成例は、具体的には、図9に示した音声データ取得装置201のハードウェア構成例と同様であるため、説明を省略する。
(Example of hardware configuration of alert output device 203)
The hardware configuration example of the
(情報処理装置100の機能的構成例)
次に、図10を用いて、情報処理装置100の機能的構成例について説明する。
(Functional configuration example of information processing device 100)
Next, an example of the functional configuration of the
図10は、情報処理装置100の機能的構成例を示すブロック図である。情報処理装置100は、記憶部1000と、取得部1001と、分類部1002と、加工部1003と、算出部1004と、判定部1005と、出力部1006とを含む。
FIG. 10 is a block diagram showing an example of the functional configuration of the
記憶部1000は、例えば、図5に示したメモリ502や記録媒体505などの記憶領域によって実現される。以下では、記憶部1000が、情報処理装置100に含まれる場合について説明するが、これに限らない。例えば、記憶部1000が、情報処理装置100とは異なる装置に含まれ、記憶部1000の記憶内容が情報処理装置100から参照可能である場合があってもよい。
The
取得部1001~出力部1006は、制御部の一例として機能する。取得部1001~出力部1006は、具体的には、例えば、図5に示したメモリ502や記録媒体505などの記憶領域に記憶されたプログラムをCPU501に実行させることにより、または、ネットワークI/F503により、その機能を実現する。各機能部の処理結果は、例えば、図5に示したメモリ502や記録媒体505などの記憶領域に記憶される。
The
記憶部1000は、各機能部の処理において参照され、または更新される各種情報を記憶する。記憶部1000は、例えば、音声データを記憶する。記憶部1000は、具体的には、対象の期間における対象の人物の会話を示す音声データを取得する。対象の人物は、犯罪行為から保護することが望まれる人物である。
The
犯罪行為は、例えば、詐欺行為である。犯罪行為は、具体的には、電話を介した詐欺行為である。犯罪行為は、具体的には、対象の人物と対面で行われる詐欺行為であってもよい。音声データは、例えば、電話を介した、対象の人物と他の人物との会話を示す。他の人物は、例えば、犯罪者である場合が考えられる。犯罪者は、例えば、詐欺師である。 The criminal act is, for example, fraud. Specifically, the criminal act is an act of fraud over the telephone. Specifically, the criminal act may be a fraudulent act performed face-to-face with the target person. The audio data indicates a conversation between the target person and another person, for example via telephone. The other person may be a criminal, for example. A criminal is, for example, a fraudster.
対象の期間は、例えば、対象の人物が会話中の期間である。会話中の期間は、例えば、通話中の期間に対応する。対象の期間は、具体的には、対象の人物の会話開始から、対象の人物の会話終了までの期間である。会話開始は、例えば、通話開始に対応する。会話終了は、例えば、通話終了に対応する。対象の期間は、具体的には、対象の人物の会話開始から、対象の人物の会話終了までの全体の期間に含まれる一部の期間であってもよい。音声データは、例えば、取得部1001によって取得される。
The target period is, for example, a period during which the target person is having a conversation. The period during a conversation corresponds to, for example, a period during a telephone call. Specifically, the target period is a period from the start of a conversation with the target person to the end of the conversation with the target person. The conversation start corresponds to, for example, the start of a phone call. The end of the conversation corresponds to the end of a phone call, for example. Specifically, the target period may be a part of the period included in the entire period from the start of the conversation of the target person to the end of the conversation of the target person. The audio data is acquired by the
記憶部1000は、例えば、生体データを記憶する。記憶部1000は、具体的には、対象の期間における対象の人物の生体データを取得する。生体データは、例えば、対象の人物の生体的な特徴値の時間変化を示す。生体的な特徴値は、例えば、心拍、脈拍、体温、または、発汗などに関する特徴値である。生体的な特徴値は、具体的には、心拍数、脈拍数、体温、または、発汗量などである。生体データは、例えば、取得部1001によって取得される。
The
記憶部1000は、例えば、対象の期間を、複数の区間に分類可能にする音声パターンを記憶する。複数の区間は、例えば、対象の人物が発話した発話区間と、対象の人物が他の人物の発話を聴取した聴取区間とを含む。発話区間は、具体的には、対象の人物が、相槌以外の発話内容を発話した区間である。
The
複数の区間は、例えば、対象の人物が沈黙した沈黙区間と、対象の人物が相槌した相槌区間とを含んでいてもよい。沈黙区間と、相槌区間とは、例えば、聴取区間に包含される。記憶部1000は、具体的には、発話属性ごとに音声パターンを記憶する。発話属性は、例えば、対象の人物が沈黙したことを示す「沈黙」、および、対象の人物が相槌したことを示す「相槌」などである。発話属性は、例えば、対象の人物が発話したことを示す「発話」などであってもよい。発話属性は、例えば、対象の人物が他の人物の発話を聴取したことを示す「聴取」などであってもよい。
The plurality of sections may include, for example, a silence section in which the target person is silent and a mutual agreement section in which the target person is in agreement. The silence section and the interlude section are included in the listening section, for example. Specifically, the
記憶部1000は、より具体的には、「沈黙」に対応する音声パターン、および、「相槌」に対応する音声パターンなどを記憶する。記憶部1000は、より具体的には、「発話」に対応する音声パターンを記憶していてもよい。記憶部1000は、より具体的には、「聴取」に対応する音声パターンを記憶していてもよい。音声パターンは、具体的には、発話属性に対応するキーワードを示す。音声パターンは、より具体的には、「相槌」に対応するキーワードを示す。音声パターンは、具体的には、発話属性に対応する音声のトーン、声量、または、波長などを示していてもよい。音声パターンは、より具体的には、対象の人物の声量の上限の閾値を、「沈黙」と対応付けて示していてもよい。記憶部1000は、「沈黙」に対応する音声パターン、および、「相槌」に対応する音声パターンに合致しないことを、「発話」に対応する音声パターンとして記憶していてもよい。記憶部1000は、より具体的には、図6に示したフィルタ情報管理テーブル600を記憶する。
More specifically, the
記憶部1000は、例えば、1以上の音声パターンのそれぞれの音声パターンと、生体データからノイズを除去するノイズ除去処理の内容とを対応付けて記憶する。ノイズ除去処理は、例えば、フィルタを用いて実施される。記憶部1000は、具体的には、1以上の音声パターンのそれぞれの音声パターンと、生体データからノイズを除去するフィルタとを対応付けて記憶する。フィルタは、例えば、音声パターンに対応する発話傾向、または、音声パターンに対応する人物の動作傾向などに応じて、当該発話傾向または当該動作傾向に対応する大きさおよび種類のノイズを除去する。記憶部1000は、より具体的には、図6に示したフィルタ情報管理テーブル600を記憶する。
The
記憶部1000は、例えば、犯罪行為の発生状況を評価可能にする情報を記憶する。記憶部1000は、具体的には、音声データに基づく特徴量の変化パターンと、当該変化パターンに対応する犯罪行為の発生状況の解とを対応付けた第1対応情報を記憶する。音声データに基づく特徴量は、例えば、人物の感情の1以上の特徴値、ある区間における人物の感情の特徴値の統計値、または、ある区間における人物の感情の特徴値の変化量などである。感情の特徴値は、例えば、心理状態を示す特徴値である。
The
感情の特徴値は、例えば、対象の人物の感情がネガティブであるか、または、ポジティブであるかを示す。感情の特徴値は、例えば、対象の人物の感情が、喜び、怒り、悲しみ、残念、驚き、意欲的、または、消極的などであることを示していてもよい。感情の特徴値は、例えば、ストレス度合いなどであってもよい。変化パターンは、例えば、図7に示した感情パターンに対応する。解は、例えば、犯罪行為の発生有無である。記憶部1000は、より具体的には、図7に示した感情パターン情報管理テーブル700を記憶する。第1対応情報は、例えば、取得部1001によって取得される。第1対応情報は、例えば、予め記憶部1000に記憶されていてもよい。
The emotion feature value indicates, for example, whether the emotion of the target person is negative or positive. The emotion characteristic value may indicate, for example, that the emotion of the target person is joy, anger, sadness, regret, surprise, motivation, or reluctance. The characteristic value of emotion may be, for example, the degree of stress. The change pattern corresponds to the emotion pattern shown in FIG. 7, for example. The solution is, for example, whether a criminal act has occurred. More specifically, the
記憶部1000は、具体的には、音声データに基づく特徴量の変化パターンの入力に応じて、当該変化パターンに対応する犯罪行為の発生状況の解を出力する第1モデルを記憶していてもよい。第1モデルは、例えば、取得部1001によって取得される。第1モデルは、例えば、予め記憶部1000に記憶されていてもよい。第1モデルは、例えば、教師データに基づいて学習されていてもよい。
Specifically, the
記憶部1000は、具体的には、生体データに基づく特徴量の変化パターンと、当該変化パターンに対応する犯罪行為の発生状況の解とを対応付けた第2対応情報を記憶する。生体データに基づく特徴量は、例えば、人物の生体的な1以上の特徴値、ある区間における人物の生体的な特徴値の統計値、または、ある区間における人物の生体的な特徴値の変化量などである。変化パターンは、例えば、図8に示した生体パターンに対応する。解は、例えば、犯罪行為の発生有無である。記憶部1000は、より具体的には、図8に示した生体パターン情報管理テーブル800を記憶する。第2対応情報は、例えば、取得部1001によって取得される。第2対応情報は、例えば、予め記憶部1000に記憶されていてもよい。
Specifically, the
記憶部1000は、具体的には、生体データに基づく特徴量の変化パターンの入力に応じて、当該変化パターンに対応する犯罪行為の発生状況の解を出力する第2モデルを記憶していてもよい。第2モデルは、例えば、取得部1001によって取得される。第2モデルは、例えば、予め記憶部1000に記憶されていてもよい。第2モデルは、例えば、教師データに基づいて学習されていてもよい。
Specifically, the
記憶部1000は、具体的には、音声データに基づく特徴量の変化パターンと、生体データに基づく特徴量の変化パターンとの組み合わせと、当該組み合わせに対応する犯罪行為の発生状況の解とを対応付けた第3対応情報を記憶していてもよい。解は、例えば、犯罪行為の発生有無である。第3対応情報は、例えば、取得部1001によって取得される。第3対応情報は、例えば、予め記憶部1000に記憶されていてもよい。
Specifically, the
記憶部1000は、具体的には、音声データに基づく特徴量の変化パターンと、生体データに基づく特徴量の変化パターンとの組み合わせの入力に応じて、当該組み合わせに対応する犯罪行為の発生状況の解を出力する第3モデルを記憶していてもよい。第3モデルは、例えば、取得部1001によって取得される。第3モデルは、例えば、予め記憶部1000に記憶されていてもよい。第3モデルは、例えば、教師データに基づいて学習されていてもよい。
Specifically, in response to an input of a combination of a change pattern of feature amounts based on voice data and a change pattern of feature amounts based on biometric data, the
取得部1001は、各機能部の処理に用いられる各種情報を取得する。取得部1001は、取得した各種情報を、記憶部1000に記憶し、または、各機能部に出力する。また、取得部1001は、記憶部1000に記憶しておいた各種情報を、各機能部に出力してもよい。取得部1001は、例えば、利用者の操作入力に基づき、各種情報を取得する。取得部1001は、例えば、情報処理装置100とは異なる装置から、各種情報を受信してもよい。
The
取得部1001は、例えば、対象の期間における対象の人物の会話を示す音声データを取得する。取得部1001は、具体的には、対象の人物の通話中、マイクを用いて対象の人物の会話を録音し続け、対象の人物の会話開始から会話終了までの対象の期間における対象の人物の会話を示す音声データを生成することにより取得する。
The
取得部1001は、具体的には、対象の人物の通話中、マイクを用いて対象の人物の会話を録音し続け、対象の人物の通話中の所定のタイミングごとに、現時点から一定時間前までの対象の期間における対象の人物の会話を示す音声データを生成してもよい。所定のタイミングは、例えば、会話開始から一定時間ごとのタイミングである。
Specifically, the
取得部1001は、具体的には、対象の期間における対象の人物の会話を示す音声データを、他のコンピュータから受信することにより取得してもよい。取得部1001は、より具体的には、対象の人物の会話終了時、対象の人物の会話開始から会話終了までの対象の期間における対象の人物の会話を示す音声データを、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、対象の人物の会話中の所定のタイミングごとに、現時点から一定時間前までの対象の期間における対象の人物の会話を示す音声データを、他のコンピュータから受信することにより取得する。所定のタイミングは、例えば、会話開始から一定時間ごとのタイミングである。
Specifically, the
取得部1001は、例えば、対象の期間における対象の人物の生体データを取得する。取得部1001は、具体的には、対象の人物の通話中、生体センサを用いて対象の人物の生体的な特徴値を計測し続ける。そして、取得部1001は、具体的には、対象の人物の会話開始から会話終了までの対象の期間に計測した対象の人物の生体的な特徴値に基づいて、対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを生成することにより取得する。
The
取得部1001は、具体的には、対象の人物の通話中、生体センサを用いて対象の人物の生体的な特徴値を計測し続ける。そして、取得部1001は、具体的には、対象の人物の通話中の所定のタイミングごとに、対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを生成することにより取得してもよい。所定のタイミングは、例えば、会話開始から一定時間ごとのタイミングである。取得部1001は、より具体的には、所定のタイミングごとに、現時点から一定時間前までの対象の期間に計測した対象の人物の生体的な特徴値に基づいて、対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを生成する。
Specifically, the
取得部1001は、具体的には、対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを、他のコンピュータから受信することにより取得してもよい。取得部1001は、より具体的には、対象の人物の会話終了時、対象の人物の会話開始から会話終了までの対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、対象の人物の会話中の所定のタイミングごとに、現時点から一定時間前までの対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを、他のコンピュータから受信することにより取得する。所定のタイミングは、例えば、会話開始から一定時間ごとのタイミングである。
Specifically, the
取得部1001は、例えば、犯罪行為の発生状況を評価可能にする情報を取得する。取得部1001は、具体的には、音声データに基づく特徴量の変化パターンと、当該変化パターンに対応する犯罪行為の発生状況の解とを対応付けた第1対応情報を取得する。取得部1001は、より具体的には、第1対応情報を、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第1対応情報の入力を受け付けることにより、第1対応情報を取得してもよい。
The
取得部1001は、具体的には、音声データに基づく特徴量の変化パターンの入力に応じて、当該変化パターンに対応する犯罪行為の発生状況の解を出力する第1モデルを取得してもよい。取得部1001は、より具体的には、第1モデルを、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第1モデルの入力を受け付けることにより、第1モデルを取得してもよい。取得部1001は、より具体的には、音声データに基づく特徴量の変化パターンのサンプルと、当該変化パターンに対応する犯罪行為の発生状況の正解とを対応付けた教師データに基づいて、第1モデルを学習することにより取得してもよい。
Specifically, the
取得部1001は、具体的には、生体データに基づく特徴量の変化パターンと、当該変化パターンに対応する犯罪行為の発生状況の解とを対応付けた第2対応情報を取得する。取得部1001は、より具体的には、第2対応情報を、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第2対応情報の入力を受け付けることにより、第2対応情報を取得してもよい。
Specifically, the
取得部1001は、具体的には、生体データに基づく特徴量の変化パターンの入力に応じて、当該変化パターンに対応する犯罪行為の発生状況の解を出力する第2モデルを取得してもよい。取得部1001は、より具体的には、第2モデルを、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第2モデルの入力を受け付けることにより、第2モデルを取得してもよい。取得部1001は、より具体的には、生体データに基づく特徴量の変化パターンのサンプルと、当該変化パターンに対応する犯罪行為の発生状況の正解とを対応付けた教師データに基づいて、第2モデルを学習することにより取得してもよい。
Specifically, the
取得部1001は、具体的には、音声データに基づく特徴量の変化パターンと、生体データに基づく特徴量の変化パターンとの組み合わせと、当該組み合わせに対応する犯罪行為の発生状況の解とを対応付けた第3対応情報を取得する。取得部1001は、より具体的には、第3対応情報を、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第3対応情報の入力を受け付けることにより、第3対応情報を取得してもよい。
Specifically, the
取得部1001は、具体的には、音声データに基づく特徴量の変化パターンと、生体データに基づく特徴量の変化パターンとの組み合わせの入力に応じて、当該組み合わせに対応する犯罪行為の発生状況の解を出力する第3モデルを取得してもよい。取得部1001は、より具体的には、第3モデルを、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第3モデルの入力を受け付けることにより、第3モデルを取得してもよい。取得部1001は、より具体的には、教師データに基づいて、第3モデルを学習することにより取得してもよい。教師データは、例えば、音声データに基づく特徴量の変化パターンと、生体データに基づく特徴量の変化パターンとの組み合わせのサンプルと、当該組み合わせに対応する犯罪行為の発生状況の正解とを対応付けたデータである。
Specifically, in response to input of a combination of a change pattern of feature amounts based on voice data and a change pattern of feature amounts based on biometric data, the
取得部1001は、いずれかの機能部の処理を開始する開始トリガーを受け付けてもよい。開始トリガーは、例えば、利用者による所定の操作入力があったことである。開始トリガーは、例えば、他のコンピュータから、所定の情報を受信したことであってもよい。開始トリガーは、例えば、いずれかの機能部が所定の情報を出力したことであってもよい。
The
取得部1001は、例えば、対象の人物の会話終了を検出したことを、分類部1002と加工部1003と算出部1004と判定部1005との処理を開始する開始トリガーとして受け付けてもよい。取得部1001は、例えば、所定のタイミングになったことを、分類部1002と加工部1003と算出部1004と判定部1005との処理を開始する開始トリガーとして受け付けてもよい。取得部1001は、音声データと生体データとを取得したことを、分類部1002と加工部1003と算出部1004と判定部1005との処理を開始する開始トリガーとして受け付けてもよい。
For example, the
分類部1002は、取得した音声データに基づいて、対象の期間を、複数の区間に分類する。複数の区間は、例えば、発話区間と聴取区間とである。複数の区間は、例えば、沈黙区間と相槌区間とであってもよい。複数の区間は、発話区間と聴取区間と沈黙区間と相槌区間とであってもよい。沈黙区間と相槌区間とは、聴取区間に包含されていてもよい。対象の期間は、例えば、分類されない時間帯を含んでいてもよい。分類部1002は、対象の期間に含まれるいずれかの時間帯を、発話区間、聴取区間、沈黙区間、および、相槌区間のいずれにも分類しない場合があってもよい。
The
分類部1002は、例えば、取得した音声データに基づいて、対象の期間を、発話区間と聴取区間とに分類する。分類部1002は、例えば、取得した音声データに基づいて、対象の期間を、沈黙区間と相槌区間とに分類してもよい。分類部1002は、例えば、取得した音声データに基づいて、対象の期間を、沈黙区間と相槌区間とに分類すると共に、発話区間と聴取区間とに分類してもよい。
The
分類部1002は、具体的には、音声データを解析することにより、対象の期間における複数の発話者を特定する。分類部1002は、具体的には、特定した複数の発話者のそれぞれの発話者について、当該発話者が発話した区間、当該区間における当該発話者の音声、および、当該区間における当該発話者の発話内容などを特定する。発話者は、例えば、対象の人物、または、他の人物である。発話者の音声は、例えば、発話者のトーン、声量、または、波長などを示す。
Specifically, the
分類部1002は、具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が相槌以外に相当する発話内容を発話した区間を、発話区間に分類する。分類部1002は、より具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が発話した区間のうち、対象の人物の音声または発話内容が、「発話」に対応する音声パターンに合致する区間を、発話区間に分類する。これにより、分類部1002は、対象の人物に対する犯罪行為の発生状況を評価する指針を得ることができる。分類部1002は、例えば、対象の人物に対する犯罪行為の発生状況を評価するために、音声データまたは生体データをどのように処理するのかを決定する指針を得ることができる。
Specifically, the
分類部1002は、具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が相槌に相当する発話内容を発話した区間を、相槌区間に分類する。分類部1002は、具体的には、他の人物が発話中であり対象の人物が相槌に相当する発話内容を発話した区間を、相槌区間に分類してもよい。分類部1002は、より具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が発話した区間のうち、対象の人物の音声または発話内容が、「相槌」に対応する音声パターンに合致する区間を、相槌区間に分類する。これにより、分類部1002は、対象の人物に対する犯罪行為の発生状況を評価する指針を得ることができる。分類部1002は、例えば、対象の人物に対する犯罪行為の発生状況を評価するために、音声データまたは生体データをどのように処理するのかを決定する指針を得ることができる。
Specifically, the
分類部1002は、具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が発話せず沈黙した区間を、沈黙区間に分類する。分類部1002は、具体的には、他の人物が発話中であり対象の人物が発話せず沈黙した区間を、沈黙区間に分類してもよい。分類部1002は、より具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が発話した区間のうち、対象の人物の音声または発話内容が、「沈黙」に対応する音声パターンに合致する区間を、沈黙区間に分類する。これにより、分類部1002は、対象の人物に対する犯罪行為の発生状況を評価する指針を得ることができる。分類部1002は、例えば、対象の人物に対する犯罪行為の発生状況を評価するために、音声データまたは生体データをどのように処理するのかを決定する指針を得ることができる。
Specifically, the
分類部1002は、具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が他の人物の発話を聴取した区間を、聴取区間に分類する。分類部1002は、より具体的には、相槌区間と、沈黙区間とを、聴取区間に分類する。分類部1002は、より具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が発話した区間のうち、対象の人物の音声または発話内容が、「聴取」に対応する音声パターンに合致する区間を、聴取区間に分類してもよい。これにより、分類部1002は、対象の人物に対する犯罪行為の発生状況を評価する指針を得ることができる。分類部1002は、例えば、対象の人物に対する犯罪行為の発生状況を評価するために、音声データまたは生体データをどのように処理するのかを決定する指針を得ることができる。
Specifically, the
分類部1002は、例えば、取得した音声データに基づいて、対象の期間のうち、1以上の音声パターンのそれぞれの音声パターンに合致する区間を特定する。分類部1002は、具体的には、上述したように、「発話」に対応する音声パターンに合致する聴取区間を特定する。分類部1002は、具体的には、上述したように、「沈黙」に対応する音声パターンに合致する聴取区間を特定する。分類部1002は、具体的には、上述したように、「相槌」に対応する音声パターンに合致する聴取区間を特定する。分類部1002は、具体的には、上述したように、「聴取」に対応する音声パターンに合致する聴取区間を特定する。これにより、分類部1002は、対象の人物に対する犯罪行為の発生状況を評価する指針を得ることができる。分類部1002は、例えば、対象の人物に対する犯罪行為の発生状況を評価するために、生体データをどのように処理するのかを決定する指針を得ることができる。
For example, based on the acquired audio data, the
加工部1003は、それぞれの音声パターンに合致する区間について、当該区間における対象の人物の生体データに対して、当該音声パターンに対応するノイズ除去処理を実施する。区間における対象の人物の生体データは、具体的には、対象の期間における対象の人物の生体データの一部である。
The
加工部1003は、例えば、記憶部1000を参照して、それぞれの音声パターンに合致する区間について、当該区間における対象の人物の生体データに対して、当該音声パターンに対応付けられたフィルタを用いて、ノイズ除去処理を実施する。これにより、加工部1003は、対象の人物に対する犯罪行為の発生状況の評価精度の向上を図るために、生体データを加工することができる。
For example, the
算出部1004は、生体データに基づく対象の人物に関する第1の特徴量を算出することにより生成する。算出部1004は、例えば、取得した対象の期間における生体データのうち、分類した聴取区間に関する部分生体データに基づいて、対象の人物に関する第1の特徴量を生成する。部分生体データは、例えば、加工部1003でノイズ除去処理を実施後であってもよい。部分生体データは、例えば、加工部1003でノイズ除去処理を未実施であってもよい。
The calculation unit 1004 generates by calculating the first feature amount regarding the target person based on the biometric data. The calculation unit 1004 generates a first feature amount regarding the target person, for example, based on partial biometric data related to the classified listening section among the acquired biometric data in the target period. The partial biometric data may be subjected to noise removal processing by the
算出部1004は、具体的には、分類した聴取区間ごとに、取得した対象の期間における生体データのうち、当該聴取区間に関する部分生体データに基づいて、対象の人物に関する第1の特徴量を生成する。第1の特徴量は、例えば、対象の人物の生体的な1以上の特徴値、聴取区間における対象の人物の生体的な特徴値の統計値、または、聴取区間における対象の人物の生体的な特徴値の変化量などである。第1の特徴量は、具体的には、聴取区間における対象の人物の心拍または脈拍に関する特徴値の統計値、または、聴取区間における対象の人物の心拍または脈拍に関する特徴値の変化量などである。これにより、算出部1004は、判定部1005で、対象の人物に対する犯罪行為の発生状況を評価可能にすることができる。
Specifically, for each classified listening section, the calculation unit 1004 generates a first feature amount regarding the target person based on partial biometric data related to the listening section out of the acquired biometric data in the target period. do. The first feature amount may be, for example, one or more biological characteristic values of the target person, statistical values of the biological characteristic values of the target person in the listening interval, or biological characteristic values of the target person in the listening interval. This includes the amount of change in feature values. Specifically, the first feature amount is a statistical value of a feature value related to the heartbeat or pulse of the target person in the listening interval, or a change amount of a feature value related to the heartbeat or pulse of the target person in the listening interval, etc. . Thereby, the calculation unit 1004 can enable the
算出部1004は、例えば、生体データのうち、発話区間に関する部分生体データのように、体動ノイズなどのノイズ重畳が比較的大きくなり易く、犯罪行為の発生状況の評価に活用し難い部分音声データを除いて、第1の特徴量を算出することができる。算出部1004は、例えば、生体データのうち、相槌区間および沈黙区間に関する部分生体データのように、体動ノイズなどのノイズ重畳が比較的小さくなり易く、犯罪行為の発生状況の評価に活用し易い部分生体データを選択的に利用することができる。算出部1004は、生体データのうち、犯罪行為の発生状況の評価に活用し易い部分生体データを選択的に利用して、第1の特徴量を算出することができる。このため、算出部1004は、判定部1005で、対象の人物に対する犯罪行為の発生状況を、精度よく評価可能にすることができる。
The calculation unit 1004 calculates, for example, partial audio data that is difficult to utilize for evaluating the occurrence of criminal acts because noise such as body movement noise tends to be relatively large, such as partial biological data related to utterance sections among the biological data. The first feature quantity can be calculated except for . The calculation unit 1004 calculates, for example, partial biometric data related to a mutual agreement section and a silent section, in which noise such as body movement noise tends to be relatively small, and is easy to use for evaluating the occurrence of criminal acts. Partial biometric data can be used selectively. The calculation unit 1004 can calculate the first feature amount by selectively using partial biometric data that is easy to use for evaluating the occurrence of criminal acts among the biometric data. Therefore, the calculation unit 1004 allows the
算出部1004は、音声データに基づく対象の人物に関する第2の特徴量を算出することにより生成する。算出部1004は、例えば、取得した対象の期間における音声データのうち、分類した発話区間に関する部分音声データに基づいて、対象の人物に関する第2の特徴量を生成する。 The calculation unit 1004 generates by calculating a second feature amount regarding the target person based on the audio data. The calculation unit 1004 generates a second feature amount regarding the target person, for example, based on partial voice data related to the classified utterance section among the acquired voice data in the target period.
算出部1004は、具体的には、分類した発話区間ごとに、取得した対象の期間における音声データのうち、当該発話区間に関する部分音声データに基づいて、対象の人物に関する第2の特徴量を生成する。第2の特徴量は、例えば、対象の人物の感情の1以上の特徴値、発話区間における対象の人物の感情の特徴値の統計値、または、発話区間における対象の人物の感情の特徴値の変化量などである。第2の特徴量は、具体的には、発話区間における対象の人物のストレス度合いの統計値、または、変化量などであってもよい。これにより、算出部1004は、判定部1005で、対象の人物に対する犯罪行為の発生状況を評価可能にすることができる。
Specifically, the calculation unit 1004 generates a second feature amount regarding the target person for each classified utterance interval based on partial audio data regarding the utterance interval out of the acquired voice data in the target period. do. The second feature value is, for example, one or more feature values of the target person's emotion, a statistical value of the target person's emotion characteristic value in the utterance interval, or a characteristic value of the target person's emotion characteristic value in the utterance interval. This includes the amount of change. Specifically, the second feature amount may be a statistical value or a change amount of the stress level of the target person in the utterance period. Thereby, the calculation unit 1004 can enable the
算出部1004は、例えば、音声データのうち、相槌区間に関する部分音声データのように、対象の人物が発話しているものの、音声の特徴を読み取り難く、犯罪行為の発生状況の評価に活用し難い部分音声データを除いて、第2の特徴量を算出することができる。算出部1004は、例えば、音声データのうち、発話区間に関する部分音声データのように、音声の特徴を読み取り易く、犯罪行為の発生状況の評価に活用し易い部分音声データを選択的に利用して、第2の特徴量を算出することができる。このため、算出部1004は、判定部1005で、対象の人物に対する犯罪行為の発生状況を、精度よく評価可能にすることができる。
The calculation unit 1004 calculates, for example, partial audio data related to the intermittent section of the audio data, which is uttered by a target person, but the characteristics of the audio are difficult to read, and it is difficult to utilize for evaluating the occurrence of criminal acts. The second feature amount can be calculated by excluding the partial audio data. For example, the calculation unit 1004 selectively uses partial audio data that is easy to read the characteristics of the audio and is easy to use for evaluating the occurrence situation of criminal acts, such as partial audio data related to utterance sections among the audio data. , the second feature quantity can be calculated. Therefore, the calculation unit 1004 allows the
判定部1005は、対象の人物に対する犯罪行為の発生状況を評価する。当該犯罪行為は、例えば、電話を介して、対象の人物と会話する他の人物により実施され得る犯罪行為である。犯罪行為は、具体的には、詐欺行為である。詐欺行為は、例えば、オレオレ詐欺、還付金詐欺、または、劇場型詐欺などである。
The
判定部1005は、例えば、生成した第1の特徴量に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。判定部1005は、具体的には、生成した第1の特徴量の変化パターンに基づいて、対象の人物に対する犯罪行為の発生状況を評価する。
The
判定部1005は、より具体的には、生成した第1の特徴量の変化量を算出する。変化量は、例えば、異なる2つの聴取区間のそれぞれの聴取区間について生成した第1の特徴量の差分である。変化量は、具体的には、対象の期間における、最初の聴取区間について生成した第1の特徴量と、最後の聴取区間について生成した第1の特徴量との差分である。判定部1005は、より具体的には、生成した第1の特徴量の変化量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。閾値は、例えば、予め利用者によって設定される。判定部1005は、より具体的には、生成した第1の特徴量の変化量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。
More specifically, the
判定部1005は、より具体的には、上述した第2対応情報と、生成した第1の特徴量の変化パターンとを照合することにより、対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、生成した第1の特徴量の変化パターンが、犯罪行為の発生ありを解とする第2対応情報に設定された特定の変化パターンに合致する場合、対象の人物に対する犯罪行為が発生したと評価する。
More specifically, the
判定部1005は、より具体的には、生成した第1の特徴量の変化パターンが、犯罪行為の発生ありを解とする第2対応情報に設定された特定の変化パターンに合致しない場合、対象の人物に対する犯罪行為が発生していないと評価する。判定部1005は、より具体的には、生成した第1の特徴量の変化パターンが、犯罪行為の発生なしを解とする第2対応情報に設定された特定の変化パターンに合致する場合、対象の人物に対する犯罪行為が発生していないと評価してもよい。
More specifically, the
判定部1005は、より具体的には、生成した第1の特徴量の変化パターンを、上述した第2モデルに入力することにより、第2モデルを用いて対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、第2モデルが入力に応じて出力した犯罪行為の発生状況の解に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。
More specifically, the
判定部1005は、具体的には、生成した第1の特徴量が生体的な特徴値の変化量であれば、第1の特徴量を閾値と比較してもよい。閾値は、例えば、予め利用者によって設定される。判定部1005は、具体的には、生成した第1の特徴量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。判定部1005は、具体的には、生成した第1の特徴量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。
Specifically, the
これにより、判定部1005は、犯罪行為の発生状況を精度よく評価することができる。判定部1005は、例えば、犯罪行為が発生したか否かを精度よく評価することができる。判定部1005は、具体的には、生体データのうち、ノイズ重畳が比較的小さくなり易い部分生体データに基づく第1の特徴量を利用するため、対象の人物に対する犯罪行為の発生状況を、精度よく評価することができる。
Thereby, the
判定部1005は、例えば、生成した第2の特徴量に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。判定部1005は、具体的には、生成した第2の特徴量の変化パターンに基づいて、対象の人物に対する犯罪行為の発生状況を評価する。
The
判定部1005は、より具体的には、生成した第2の特徴量の変化量を算出する。変化量は、例えば、異なる2つの発話区間のそれぞれの発話区間について生成した第2の特徴量の差分である。変化量は、具体的には、対象の期間における、最初の発話区間について生成した第2の特徴量と、最後の発話区間について生成した第2の特徴量との差分である。判定部1005は、より具体的には、生成した第2の特徴量の変化量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。閾値は、例えば、予め利用者によって設定される。判定部1005は、より具体的には、生成した第2の特徴量の変化量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。
More specifically, the
判定部1005は、より具体的には、上述した第1対応情報と、生成した第2の特徴量の変化パターンとを照合することにより、対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、生成した第2の特徴量の変化パターンが、犯罪行為の発生ありを解とする第1対応情報に設定された特定の変化パターンに合致する場合、対象の人物に対する犯罪行為が発生したと評価する。
More specifically, the
判定部1005は、より具体的には、生成した第2の特徴量の変化パターンが、犯罪行為の発生ありを解とする第1対応情報に設定された特定の変化パターンに合致しない場合、対象の人物に対する犯罪行為が発生していないと評価する。判定部1005は、より具体的には、生成した第2の特徴量の変化パターンが、犯罪行為の発生なしを解とする第1対応情報に設定された特定の変化パターンに合致する場合、対象の人物に対する犯罪行為が発生していないと評価してもよい。
More specifically, the
判定部1005は、より具体的には、生成した第2の特徴量の変化パターンを、上述した第1モデルに入力することにより、第1モデルを用いて対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、第1モデルが入力に応じて出力した犯罪行為の発生状況の解に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。
More specifically, the
判定部1005は、具体的には、生成した第2の特徴量が感情の特徴値の変化量であれば、第2の特徴量を閾値と比較してもよい。閾値は、例えば、予め利用者によって設定される。判定部1005は、具体的には、生成した第2の特徴量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。判定部1005は、具体的には、生成した第2の特徴量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。
Specifically, the
これにより、判定部1005は、犯罪行為の発生状況を精度よく評価することができる。判定部1005は、例えば、犯罪行為が発生したか否かを精度よく評価することができる。判定部1005は、具体的には、音声データのうち、音声の特徴を読み取り易く、犯罪行為の発生状況の評価に活用し易い部分音声データに基づく第2の特徴量を利用するため、対象の人物に対する犯罪行為の発生状況を、精度よく評価することができる。
Thereby, the
判定部1005は、例えば、生成した第1の特徴量と、生成した第2の特徴量とに基づいて、対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、具体的には、生成した第1の特徴量の変化パターンと、生成した第2の特徴量の変化パターンとに基づいて、対象の人物に対する犯罪行為の発生状況を評価する。
The
判定部1005は、より具体的には、生成した第1の特徴量の変化量を算出する。変化量は、例えば、異なる2つの発話区間のそれぞれの発話区間について生成した第1の特徴量の差分である。変化量は、具体的には、対象の期間における、最初の発話区間について生成した第1の特徴量と、最後の発話区間について生成した第1の特徴量との差分である。
More specifically, the
判定部1005は、より具体的には、生成した第2の特徴量の変化量を算出する。変化量は、例えば、異なる2つの発話区間のそれぞれの発話区間について生成した第2の特徴量の差分である。変化量は、具体的には、対象の期間における、最初の発話区間について生成した第2の特徴量と、最後の発話区間について生成した第2の特徴量との差分である。
More specifically, the
判定部1005は、より具体的には、生成した第1の特徴量の変化量が閾値以上、かつ、生成した第2の特徴量の変化量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。判定部1005は、より具体的には、生成した第1の特徴量の変化量が閾値未満、または、生成した第2の特徴量の変化量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。
More specifically, if the amount of change in the generated first feature amount is equal to or greater than the threshold value, and the amount of change in the generated second feature amount is equal to or greater than the threshold value, the
判定部1005は、より具体的には、上述した第3対応情報と、生成した第1の特徴量の変化パターンと、生成した第2の特徴量の変化パターンとの組み合わせを照合することにより、対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、生成した第1の特徴量の変化パターンと、生成した第2の特徴量の変化パターンとの組み合わせが、犯罪行為の発生ありを解とする第3対応情報に設定された特定の変化パターンに合致するか否かを判定する。
More specifically, the
判定部1005は、より具体的には、組み合わせが、犯罪行為の発生ありを解とする第3対応情報に設定された特定の変化パターンに合致すると判定した場合、対象の人物に対する犯罪行為が発生したと評価する。判定部1005は、より具体的には、組み合わせが、犯罪行為の発生ありを解とする第3対応情報に設定された特定の変化パターンに合致しないと判定した場合、対象の人物に対する犯罪行為が発生していないと評価する。
More specifically, if the
判定部1005は、より具体的には、生成した第1の特徴量の変化パターンと、生成した第2の特徴量の変化パターンとの組み合わせが、犯罪行為の発生なしを解とする第3対応情報に設定された特定の変化パターンに合致するか否かを判定する。判定部1005は、より具体的には、組み合わせが、犯罪行為の発生なしを解とする第3対応情報に設定された特定の変化パターンに合致すると判定した場合、対象の人物に対する犯罪行為が発生していないと評価してもよい。
More specifically, the
判定部1005は、より具体的には、生成した第1の特徴量の変化パターンと、生成した第2の特徴量の変化パターンとの組み合わせを、上述した第3モデルに入力することにより、第3モデルを用いて対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、第3モデルが入力に応じて出力した犯罪行為の発生状況の解に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。
More specifically, the
判定部1005は、具体的には、生成した第1の特徴量を第1閾値と比較し、かつ、生成した第2の特徴量を第2閾値と比較してもよい。第1閾値は、例えば、予め利用者によって設定される。第2閾値は、例えば、予め利用者によって設定される。判定部1005は、具体的には、第1の特徴量が第1閾値以上、かつ、第2の特徴量が第2閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。判定部1005は、具体的には、第1の特徴量が閾値未満、または、第2の特徴量が第2閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。
Specifically, the
これにより、判定部1005は、犯罪行為の発生状況を精度よく評価することができる。判定部1005は、例えば、犯罪行為が発生したか否かを精度よく評価することができる。判定部1005は、具体的には、生体データのうち、ノイズ重畳が比較的小さくなり易い部分生体データに基づく第1の特徴量を利用することができる。また、判定部1005は、具体的には、音声データのうち、音声の特徴を読み取り易く、犯罪行為の発生状況の評価に活用し易い部分音声データに基づく第2の特徴量を利用することができる。このため、判定部1005は、対象の人物に対する犯罪行為の発生状況を、精度よく評価することができる。
Thereby, the
出力部1006は、少なくともいずれかの機能部の処理結果を出力する。出力形式は、例えば、ディスプレイへの表示、プリンタへの印刷出力、ネットワークI/F503による外部装置への送信、または、メモリ502や記録媒体505などの記憶領域への記憶である。これにより、出力部1006は、少なくともいずれかの機能部の処理結果を利用者に通知可能にし、情報処理装置100の利便性の向上を図ることができる。
The
出力部1006は、例えば、判定部1005で犯罪行為の発生状況を評価した結果を出力する。出力部1006は、具体的には、判定部1005で犯罪行為の発生状況を評価した結果を、対象の人物が参照可能に出力する。出力部1006は、具体的には、判定部1005で犯罪行為の発生状況を評価した結果を、対象の人物の関係者が参照可能に出力してもよい。関係者は、例えば、近親者などである。出力部1006は、具体的には、判定部1005で犯罪行為の発生状況を評価した結果を、警察または銀行などの所定の組織で参照可能に出力してもよい。出力部1006は、より具体的には、判定部1005で犯罪行為の発生状況を評価した結果を、アラート出力装置203に送信する。これにより、出力部1006は、犯罪行為による犯罪被害を防止し易くすることができる。
The
出力部1006は、例えば、判定部1005で犯罪行為が発生したと評価した場合に、犯罪行為が発生したことを示す通知またはアラートを出力してもよい。出力部1006は、具体的には、犯罪行為が発生したことを示す通知またはアラートを、対象の人物が参照可能に出力する。出力部1006は、具体的には、犯罪行為が発生したことを示す通知またはアラートを、対象の人物の関係者が参照可能に出力してもよい。関係者は、例えば、近親者などである。出力部1006は、具体的には、犯罪行為が発生したことを示す通知またはアラートを、警察または銀行などの所定の組織で参照可能に出力してもよい。出力部1006は、より具体的には、犯罪行為が発生したことを示す通知またはアラートを、アラート出力装置203に送信する。これにより、出力部1006は、犯罪行為による犯罪被害を防止し易くすることができる。
For example, when the
ここでは、情報処理装置100が、音声データに基づいて、犯罪行為の発生状況を評価する場合について説明したが、これに限らない。例えば、他のコンピュータが、音声データを解析することにより、対象の人物と他の人物との会話内容を示すテキストデータ、または、対象の人物と他の人物との音声特徴を示す解析データなどを生成する場合があってもよい。この場合、情報処理装置100は、例えば、他のコンピュータから、対象の人物と他の人物との会話内容を示すテキストデータ、または、対象の人物と他の人物との音声特徴を示す解析データなどを受信する。情報処理装置100は、例えば、対象の人物と他の人物との会話内容を示すテキストデータ、または、対象の人物と他の人物との音声特徴を示す解析データなどを、音声データの代わりに利用する。
Here, a case has been described in which the
ここでは、情報処理装置100が、取得部1001と、分類部1002と、加工部1003と、算出部1004と、判定部1005と、出力部1006とを含む場合について説明したが、これに限らない。例えば、情報処理装置100が、いずれかの機能部を含まない場合があってもよい。具体的には、情報処理装置100が、加工部1003を含まない場合があってもよい。
Here, a case has been described in which the
(情報処理装置100の動作例)
次に、図11~図13を用いて、情報処理装置100の動作例について説明する。
(Example of operation of information processing device 100)
Next, an example of the operation of the
図11~図13は、情報処理装置100の動作例を示す説明図である。図11において、情報処理装置100は、被害者になり得る受信者の通話終了時、通話開始から通話終了までの通話期間における受信者と発信者との電話を介した会話音声を示す音声データを取得する。発信者は、詐欺師である場合がある。情報処理装置100は、通話期間における受信者の心拍数の時間変化を示す生体データを取得する。
11 to 13 are explanatory diagrams showing operation examples of the
情報処理装置100は、音声データに基づいて、受信者の音声1101と、発信者の音声1102とを抽出する。情報処理装置100は、抽出した受信者の音声1101と、発信者の音声1102とに基づいて、通話期間を、受信者が発信者の発話を聴取した聴取区間と、受信者が相槌以外の発話内容を発話した発話区間とに分類する。
The
情報処理装置100は、例えば、フィルタ情報管理テーブル600を参照して、「沈黙」に対応する音声パターン、および、「相槌」に対応する音声パターンなどを取得する。情報処理装置100は、受信者の音声1101と発信者の音声1102とに基づいて、通話期間のうち、発信者が発話中であり、受信者の音声1101に「沈黙」に対応する音声パターンが現れる区間を、沈黙区間および聴取区間に分類する。
The
情報処理装置100は、受信者の音声1101と発信者の音声1102とに基づいて、通話期間のうち、発信者が発話中であり、受信者の音声1101に「相槌」に対応する音声パターンが現れる区間を、相槌区間および聴取区間に分類する。情報処理装置100は、連続する聴取区間を結合する。情報処理装置100は、例えば、受信者の音声1101に基づいて、相槌区間以外で、受信者が発話した区間を、発話区間に分類する。次に、図12の説明に移行する。
Based on the receiver's
図12において、情報処理装置100は、発話区間ごとに、受信者の音声1101のうち、当該発話区間に対応する部分音声に基づいて、当該発話区間における受信者の感情値を生成する。感情値は、感情の特徴値である。感情値は、例えば、ネガティブまたはポジティブなどである。感情値は、例えば、「残念」または「意欲的」などであってもよい。情報処理装置100は、例えば、発話区間ごとに、当該発話区間に対応する部分音声に基づいて、受信者の音声のトーン、声量、または、キーワードなどを考慮して、当該発話区間における受信者の感情値を生成する。
In FIG. 12, the
図12の例では、情報処理装置100は、具体的には、第1の発話区間に対応する受信者の部分音声「昨日までだったんですか↓」のトーン、声量、または、キーワードなどを考慮して、第1の発話区間における受信者の感情値「ネガティブ「残念」」を生成する。矢印は、音声の末尾のトーンが上がり気味であるか、または、下がり気味であるかを示す。情報処理装置100は、具体的には、第2の発話区間に対応する受信者の音声「分かりました。すぐ行きます↑」のトーン、声量、または、キーワードなどを考慮して、第2の発話区間における受信者の感情値「ポジティブ「意欲的」」を生成する。
In the example of FIG. 12, the
情報処理装置100は、複数の発話区間に跨った受信者の感情値の変化パターンを生成する。情報処理装置100は、感情パターン情報管理テーブル700を参照して、生成した変化パターンに基づいて、受信者に対する発信者による詐欺行為が発生したか否かを判定する。
The
これにより、情報処理装置100は、受信者に対する発信者による詐欺行為が発生したか否かを精度よく判定することができる。情報処理装置100は、例えば、相槌区間のように、時間長さが比較的短く、受信者の感情値を生成し難い区間について、受信者の感情値を生成せずに済ませることができる。情報処理装置100は、例えば、発話区間のように、時間長さが比較的長く、受信者の感情値を精度よく生成し易い区間について、受信者の感情値を生成することができる。情報処理装置100は、例えば、比較的精度がよい受信者の感情値の変化パターンに基づいて、受信者に対する発信者による詐欺行為が発生したか否かを精度よく判定可能にすることができる。
Thereby, the
図13において、情報処理装置100は、フィルタ情報管理テーブル600を参照して、「沈黙」に対応する沈黙用フィルタ、および、「相槌」に対応する相槌用フィルタなどを取得する。沈黙用フィルタは、例えば、生体データから、呼吸に基づくノイズを除去するためのフィルタである。相槌用フィルタは、例えば、生体データから、体動に基づくノイズを除去するためのフィルタである。
In FIG. 13, the
情報処理装置100は、通話期間における受信者の心拍数の時間変化を示す生体データのうち、沈黙区間に対応する部分生体データに対して、沈黙用フィルタを適用することにより、ノイズ除去処理を実施する。情報処理装置100は、通話期間における受信者の心拍数の時間変化を示す生体データのうち、相槌区間に対応する部分生体データに対して、相槌用フィルタを適用することにより、ノイズ除去処理を実施する。
The
情報処理装置100は、ノイズ除去処理を実施した後、通話期間における受信者の心拍数の時間変化を示す生体データに基づいて、聴取区間ごとに、当該聴取区間の開始時の心拍数から聴取区間の終了時の心拍数までの変化量を算出する。情報処理装置100は、少なくともいずれかの聴取区間において、算出した変化量が閾値以上であれば、受信者に対する発信者による詐欺行為が発生したと判定する。情報処理装置100は、いずれの聴取区間についても、算出した変化量が閾値未満であれば、受信者に対する発信者による詐欺行為が発生していないと判定する。
After performing the noise removal process, the
情報処理装置100は、ノイズ除去処理を実施した後、通話期間における受信者の心拍数の時間変化を示す生体データに基づいて、聴取区間ごとに、当該聴取区間の開始時の心拍数から聴取区間の終了時の心拍数までの変化パターンを生成してもよい。情報処理装置100は、生体パターン情報管理テーブル800を参照して、生成した変化パターンに基づいて、受信者に対する発信者による詐欺行為が発生したか否かを判定してもよい。
After performing the noise removal process, the
これにより、情報処理装置100は、受信者に対する発信者による詐欺行為が発生したか否かを精度よく判定することができる。情報処理装置100は、例えば、発話区間のように、体動ノイズなどのノイズ重畳が比較的大きくなり易く、犯罪行為の発生状況の評価に活用し難い区間について、心拍数の変化パターンを生成せずに済ませることができる。情報処理装置100は、例えば、聴取区間のように、体動ノイズなどのノイズ重畳が比較的小さくなり易く、犯罪行為の発生状況の評価に活用し易い区間について、心拍数の変化パターンを生成することができる。このため、情報処理装置100は、例えば、体動ノイズなどのノイズ重畳が比較的小さい、心拍数の変化パターンに基づいて、受信者に対する発信者による詐欺行為が発生したか否かを精度よく判定可能にすることができる。
Thereby, the
情報処理装置100は、音声パターンに対応する区間ごとに、当該音声パターンに対応するフィルタを利用して、適切にノイズ除去処理を実施することができる。情報処理装置100は、例えば、音声パターンに応じて、どのような種類のノイズが含まれる傾向があるか、および、ノイズの大きさがどの程度である傾向があるかなどを考慮したフィルタを利用することができる。このため、情報処理装置100は、生体データから、精度よくノイズを除去することができる。そして、情報処理装置100は、心拍数の変化パターンを精度よく生成することができ、受信者に対する発信者による詐欺行為が発生したか否かを精度よく判定可能にすることができる。
The
(全体処理手順)
次に、図14を用いて、情報処理装置100が実行する、全体処理手順の一例について説明する。全体処理は、例えば、図5に示したCPU501と、メモリ502や記録媒体505などの記憶領域と、ネットワークI/F503とによって実現される。
(Overall processing procedure)
Next, an example of the overall processing procedure executed by the
図14は、全体処理手順の一例を示すフローチャートである。情報処理装置100は、対象の人物の通話開始を検出する(ステップS1401)。
FIG. 14 is a flowchart illustrating an example of the overall processing procedure. The
次に、情報処理装置100は、所定のタイミングで、対象の期間における対象の人物の音声データを取得する(ステップS1402)。所定のタイミングは、例えば、通話終了のタイミングである。対象の期間は、例えば、通話開始から通話終了までの通話期間である。そして、情報処理装置100は、所定のタイミングで、対象の期間における対象の人物の生体データを取得する(ステップS1403)。
Next, the
次に、情報処理装置100は、取得した音声データを解析し、対象の期間を、発話区間と聴取区間とに分類すると共に、聴取区間を、沈黙区間と相槌区間とに分類する(ステップS1404)。そして、情報処理装置100は、対象の期間の先頭から順に、発話区間と聴取区間とのいずれかの区間を処理対象として選択する(ステップS1405)。
Next, the
次に、情報処理装置100は、選択した区間が、聴取区間であるか否かを判定する(ステップS1406)。ここで、選択した区間が、聴取区間である場合(ステップS1406:Yes)、情報処理装置100は、ステップS1407の処理に移行する。一方で、選択した区間が、聴取区間ではなく発話区間である場合(ステップS1406:No)、情報処理装置100は、ステップS1410の処理に移行する。
Next, the
ステップS1407では、情報処理装置100は、対象の期間における対象の人物の生体データのうち、聴取区間における対象の人物の生体データを取得する(ステップS1407)。次に、情報処理装置100は、聴取区間における対象の人物の生体データに対するノイズ除去処理を実施する(ステップS1408)。
In step S1407, the
情報処理装置100は、例えば、聴取区間における対象の人物の生体データのうち、沈黙区間に関する部分データに、沈黙に対応するフィルタを適用し、ノイズを除去する。また、情報処理装置100は、例えば、聴取区間における対象の人物の生体データのうち、相槌区間に関する部分データに対して、相槌に対応するフィルタを適用し、ノイズを除去する。
For example, the
そして、情報処理装置100は、取得した聴取区間における対象の人物の生体データの第1の特徴量を算出する(ステップS1409)。その後、情報処理装置100は、ステップS1412の処理に移行する。
Then, the
ステップS1410では、情報処理装置100は、対象の期間における対象の人物の音声データのうち、発話区間における対象の人物の音声データを抽出する(ステップS1410)。次に、情報処理装置100は、抽出した発話区間における対象の人物の音声データの第2の特徴量を算出する(ステップS1411)。そして、情報処理装置100は、ステップS1412の処理に移行する。
In step S1410, the
ステップS1412では、情報処理装置100は、すべての区間を処理対象として選択したか否かを判定する(ステップS1412)。ここで、いずれかの区間を選択していない場合(ステップS1412:No)、情報処理装置100は、ステップS1405の処理に戻る。一方で、すべての区間を選択した場合(ステップS1412:Yes)、情報処理装置100は、ステップS1413の処理に移行する。
In step S1412, the
ステップS1413では、情報処理装置100は、算出した第1の特徴量の変化パターンと、算出した第2の特徴量の変化パターンとに基づいて、詐欺行為の発生有無を判定する(ステップS1413)。そして、情報処理装置100は、全体処理を終了する。これにより、情報処理装置100は、詐欺行為の発生有無を精度よく判定することができる。
In step S1413, the
ここでは、所定のタイミングが、通話終了のタイミングである場合について説明したが、これに限らない。例えば、所定のタイミングが、通話開始から一定時間ごとのタイミングである場合があってもよい。この場合、対象の期間は、所定のタイミングから一定時間前までの期間であってもよい。この場合、情報処理装置100は、ステップS1413の処理を実施した後、ステップS1402の処理に戻ってもよい。
Although a case has been described here in which the predetermined timing is the timing at which the call ends, the predetermined timing is not limited to this. For example, the predetermined timing may be at regular intervals from the start of the call. In this case, the period of interest may be a period from a predetermined timing to a certain time before. In this case, the
ここで、情報処理装置100は、図14の一部ステップの処理の順序を入れ替えて実行してもよい。例えば、ステップS1402,S1403の処理の順序は入れ替え可能である。また、情報処理装置100は、図14の一部ステップの処理を省略してもよい。例えば、ステップS1408,S1409の処理は省略可能である。
Here, the
以上説明したように、情報処理装置100によれば、対象の期間における対象の人物の会話を示す音声データを取得することができる。情報処理装置100によれば、取得した音声データに基づいて、対象の期間のうち、設定された1以上の音声パターンそれぞれに合致する区間を特定することができる。情報処理装置100によれば、特定した区間それぞれについて、区間における対象の人物の生体データに対して、1以上の音声パターンのうち、区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施することができる。情報処理装置100によれば、特定した区間それぞれにおける、ノイズ除去処理を実施した後の対象の人物の生体データに基づいて、対象の人物に対する犯罪行為の発生状況を評価することができる。これにより、情報処理装置100は、対象の人物の生体データからノイズを適切に除去することができ、対象の人物に対する犯罪行為の発生状況を精度よく評価することができる。
As described above, according to the
情報処理装置100によれば、1以上の音声パターンそれぞれと、生体データからノイズを除去するフィルタとを対応付けて記憶する記憶部を有することができる。情報処理装置100によれば、記憶部を参照して、特定した区間それぞれについて、区間における対象の人物の生体データに対して、区間と合致したいずれかの音声パターンに対応付けられたフィルタを用いて、ノイズ除去処理を実施することができる。これにより、情報処理装置100は、ノイズ除去処理をフィルタにより実現することができる。
The
情報処理装置100によれば、電話を介した対象の期間における対象の人物の会話を示す音声データを取得することができる。情報処理装置100によれば、特定した区間それぞれにおける、ノイズ除去処理を実施した後の対象の人物の生体データに基づいて、電話を介した対象の人物に対する詐欺行為の発生状況を評価することができる。これにより、情報処理装置100は、電話を介した詐欺行為による詐欺被害を防止し易くすることができる。
According to the
情報処理装置100によれば、特定した区間それぞれにおける、区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の対象の人物の生体データに基づいて、区間における対象の人物に関する特徴量を生成することができる。情報処理装置100によれば、生成した特徴量の変化パターンに基づいて、対象の人物に対する犯罪行為の発生状況を評価することができる。これにより、情報処理装置100は、特徴量の変化パターンを考慮することができ、対象の人物に対する犯罪行為の発生状況を精度よく評価可能にすることができる。
According to the
情報処理装置100によれば、特定した区間それぞれについて、区間における対象の人物の心拍または脈拍に関する計測値を示す生体データに対して、区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施することができる。情報処理装置100によれば、特定した区間それぞれにおける、ノイズ除去処理を実施した後の生体データに基づいて、区間における対象の人物の心拍または脈拍に関する計測値の変化量である特徴量を生成することができる。情報処理装置100によれば、生成した特徴量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価することができる。情報処理装置100によれば、生成した特徴量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価することができる。これにより、情報処理装置100は、犯罪行為が発生したか否かを精度よく評価することができる。
According to the
情報処理装置100によれば、特定した区間それぞれについて、区間における対象の人物の心拍または脈拍に関する計測値を示す生体データに対して、区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施することができる。情報処理装置100によれば、特定した区間それぞれにおける、ノイズ除去処理を実施した後の生体データに基づいて、区間における対象の人物の心拍または脈拍に関する計測値の統計値である特徴量を生成することができる。情報処理装置100によれば、生成した特徴量の変化量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価することができる。情報処理装置100によれば、生成した特徴量の変化量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価することができる。これにより、情報処理装置100は、犯罪行為が発生したか否かを精度よく評価することができる。
According to the
なお、本実施の形態で説明した情報処理方法は、予め用意されたプログラムをPCやワークステーションなどのコンピュータで実行することにより実現することができる。本実施の形態で説明した情報処理プログラムは、コンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。記録媒体は、ハードディスク、フレキシブルディスク、CD(Compact Disc)-ROM、MO(Magneto Optical disc)、DVD(Digital Versatile Disc)などである。また、本実施の形態で説明した情報処理プログラムは、インターネットなどのネットワークを介して配布してもよい。 Note that the information processing method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a PC or a workstation. The information processing program described in this embodiment is recorded on a computer-readable recording medium, and executed by being read from the recording medium by the computer. The recording medium includes a hard disk, a flexible disk, a CD (Compact Disc)-ROM, an MO (Magneto Optical disc), a DVD (Digital Versatile Disc), and the like. Furthermore, the information processing program described in this embodiment may be distributed via a network such as the Internet.
上述した実施の形態に関し、さらに以下の付記を開示する。 Regarding the embodiments described above, the following additional notes are further disclosed.
(付記1)ある期間における対象の人物の会話を示す音声データを取得し、
取得した前記音声データに基づいて、前記期間のうち、設定された1以上の音声パターンそれぞれに合致する区間を特定し、
特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
(Additional note 1) Obtain audio data showing the conversation of a target person during a certain period,
Based on the acquired audio data, identify a section of the period that matches each of the one or more set audio patterns,
For each of the identified sections, perform a noise removal process on the biometric data of the target person in the section, corresponding to any one of the one or more voice patterns that matches the section;
Based on the biometric data of the target person after performing noise removal processing corresponding to one of the voice patterns that matched the interval in each of the identified intervals, the occurrence status of the criminal act against the target person is determined. evaluate,
An information processing program that causes a computer to perform processing.
(付記2)前記実施する処理は、
前記1以上の音声パターンそれぞれと、生体データからノイズを除去するフィルタとを対応付けて記憶する記憶部を参照して、特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応付けられたフィルタを用いて、ノイズ除去処理を実施する、ことを特徴とする付記1に記載の情報処理プログラム。
(Additional note 2) The processing to be performed is
With reference to a storage unit that stores each of the one or more voice patterns in association with a filter that removes noise from biometric data, for each of the identified sections, the biometric data of the target person in the section is The information processing according to appendix 1, wherein noise removal processing is performed using a filter associated with one of the voice patterns that matches the interval among the one or more voice patterns. program.
(付記3)前記音声データは、電話を介した前記期間における前記対象の人物の会話を示し、
前記評価する処理は、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、電話を介した他の人物による前記対象の人物に対する詐欺行為の発生状況を評価する、ことを特徴とする付記1または2に記載の情報処理プログラム。
(Additional Note 3) The audio data indicates a conversation of the target person during the period via telephone,
The process to be evaluated is
Based on the biometric data of the target person after performing the noise removal process corresponding to any of the voice patterns that match the interval in each of the identified intervals, the target person's response to the target person's response via the telephone is The information processing program according to appendix 1 or 2, characterized in that the information processing program evaluates the occurrence of fraudulent acts against a person.
(付記4)特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、前記区間における前記対象の人物に関する特徴量を生成し、
前記評価する処理は、
生成した前記特徴量の変化パターンに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、ことを特徴とする付記1または2に記載の情報処理プログラム。
(Additional note 4) Based on the biometric data of the target person in each of the identified intervals after performing noise removal processing corresponding to any of the voice patterns that match the interval, the target person in the interval is determined. Generate features related to
The process to be evaluated is
The information processing program according to appendix 1 or 2, characterized in that the information processing program evaluates the occurrence of a criminal act against the target person based on the generated change pattern of the feature amount.
(付記5)前記実施する処理は、
特定した前記区間それぞれについて、前記区間における前記対象の人物の心拍または脈拍に関する計測値を示す生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、
前記生成する処理は、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の心拍または脈拍に関する計測値を示す生体データに基づいて、前記区間における前記対象の人物の心拍または脈拍に関する計測値の変化量である特徴量を生成し、
前記評価する処理は、
生成した前記特徴量が閾値以上である場合、前記対象の人物に対する犯罪行為が発生したと評価し、生成した前記特徴量が閾値未満である場合、前記対象の人物に対する犯罪行為が発生していないと評価する、ことを特徴とする付記4に記載の情報処理プログラム。
(Additional note 5) The processing to be performed is:
For each of the identified sections, correspond to any one of the one or more voice patterns that matches the section with respect to biometric data indicating a measured value regarding the heartbeat or pulse of the target person in the section. Perform noise removal processing to
The process to generate the
Based on biometric data indicating a measured value regarding the heartbeat or pulse of the target person after performing noise removal processing corresponding to any of the voice patterns that match the specified sections in each of the specified sections, Generating a feature amount that is an amount of change in a measured value regarding the heartbeat or pulse of the target person,
The process to be evaluated is
If the generated feature amount is greater than or equal to a threshold value, it is evaluated that a criminal act against the target person has occurred, and if the generated feature amount is less than the threshold value, a criminal act against the target person has not occurred. The information processing program according to appendix 4, characterized in that the information processing program is evaluated as follows.
(付記6)前記実施する処理は、
特定した前記区間それぞれについて、前記区間における前記対象の人物の心拍または脈拍に関する計測値を示す生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、
前記生成する処理は、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の心拍または脈拍に関する計測値を示す生体データに基づいて、前記区間における前記対象の人物の心拍または脈拍に関する計測値の統計値である特徴量を生成し、
前記評価する処理は、
生成した前記特徴量の変化量が閾値以上である場合、前記対象の人物に対する犯罪行為が発生したと評価し、生成した前記特徴量の変化量が閾値未満である場合、前記対象の人物に対する犯罪行為が発生していないと評価する、ことを特徴とする付記4に記載の情報処理プログラム。
(Additional note 6) The processing to be performed is
For each of the identified sections, correspond to any one of the one or more voice patterns that matches the section with respect to biometric data indicating a measured value regarding the heartbeat or pulse of the target person in the section. Perform noise removal processing to
The process to generate the
Based on biometric data indicating a measured value regarding the heartbeat or pulse of the target person after performing noise removal processing corresponding to any of the voice patterns that match the specified sections in each of the specified sections, Generate a feature amount that is a statistical value of a measured value regarding the heartbeat or pulse of the target person,
The process to be evaluated is
If the amount of change in the generated feature amount is greater than or equal to the threshold, it is evaluated that a criminal act against the target person has occurred, and if the amount of change in the generated feature amount is less than the threshold, a crime against the target person is evaluated. The information processing program according to appendix 4, characterized in that it evaluates that the act has not occurred.
(付記7)ある期間における対象の人物の会話を示す音声データを取得し、
取得した前記音声データに基づいて、前記期間のうち、設定された1以上の音声パターンそれぞれに合致する区間を特定し、
特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
処理をコンピュータが実行することを特徴とする情報処理方法。
(Additional note 7) Obtain audio data showing the conversation of the target person during a certain period,
Based on the acquired audio data, identify a section of the period that matches each of the one or more set audio patterns,
For each of the identified sections, perform a noise removal process on the biometric data of the target person in the section, corresponding to any one of the one or more voice patterns that matches the section;
Based on the biometric data of the target person after performing noise removal processing corresponding to one of the voice patterns that matched the interval in each of the identified intervals, the occurrence status of the criminal act against the target person is determined. evaluate,
An information processing method characterized in that processing is performed by a computer.
(付記8)ある期間における対象の人物の会話を示す音声データを取得し、
取得した前記音声データに基づいて、前記期間のうち、設定された1以上の音声パターンそれぞれに合致する区間を特定し、
特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
制御部を有することを特徴とする情報処理装置。
(Additional note 8) Obtain audio data indicating the conversation of the target person during a certain period,
Based on the acquired audio data, identify a section of the period that matches each of the one or more set audio patterns,
For each of the identified sections, perform a noise removal process on the biometric data of the target person in the section, corresponding to any one of the one or more voice patterns that matches the section;
Based on the biometric data of the target person after performing noise removal processing corresponding to one of the voice patterns that matched the interval in each of the identified intervals, the occurrence status of the criminal act against the target person is determined. evaluate,
An information processing device comprising a control section.
100 情報処理装置
101 音声データ
102 生体データ
200 情報処理システム
201 音声データ取得装置
202 生体データ取得装置
203 アラート出力装置
210 ネットワーク
301,401 ユーザ
302,402 詐欺師
310,414 スマートフォン
311,907 生体センサ
403 関係者
411 ウェアラブル端末
412 スマートスピーカー
413 サーバ
415 固定電話機
500,900 バス
501,901 CPU
502,902 メモリ
503,903 ネットワークI/F
504,904 記録媒体I/F
505,905 記録媒体
600 フィルタ情報管理テーブル
700 感情パターン情報管理テーブル
800 生体パターン情報管理テーブル
906 音声センサ
908 出力装置
1000 記憶部
1001 取得部
1002 分類部
1003 加工部
1004 算出部
1005 判定部
1006 出力部
1101,1102 音声
100
502,902 Memory 503,903 Network I/F
504,904 Recording medium I/F
505,905 Recording medium 600 Filter information management table 700 Emotion pattern information management table 800 Biological pattern information management table 906
Claims (5)
取得した前記音声データに基づいて、前記期間のうち、設定された1以上の音声パターンそれぞれに合致する区間を特定し、
特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
処理をコンピュータに実行させることを特徴とする情報処理プログラム。 Obtain audio data showing the conversation of a target person during a certain period,
Based on the acquired audio data, identify a section of the period that matches each of the one or more set audio patterns,
For each of the identified sections, perform a noise removal process on the biometric data of the target person in the section, corresponding to any one of the one or more voice patterns that matches the section;
Based on the biometric data of the target person after performing noise removal processing corresponding to one of the voice patterns that matched the interval in each of the identified intervals, the occurrence status of the criminal act against the target person is determined. evaluate,
An information processing program that causes a computer to perform processing.
前記1以上の音声パターンそれぞれと、生体データからノイズを除去するフィルタとを対応付けて記憶する記憶部を参照して、特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応付けられたフィルタを用いて、ノイズ除去処理を実施する、ことを特徴とする請求項1に記載の情報処理プログラム。 The process to be performed is
With reference to a storage unit that stores each of the one or more voice patterns in association with a filter that removes noise from biometric data, for each of the identified sections, the biometric data of the target person in the section is The information according to claim 1, wherein noise removal processing is performed using a filter associated with one of the one or more audio patterns that matches the interval. Processing program.
前記評価する処理は、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、電話を介した他の人物による前記対象の人物に対する詐欺行為の発生状況を評価する、ことを特徴とする請求項1または2に記載の情報処理プログラム。 the audio data indicates a conversation of the target person during the period via a telephone;
The process to be evaluated is
Based on the biometric data of the target person after performing the noise removal process corresponding to any of the voice patterns that match the interval in each of the identified intervals, the target person's response to the target person's response via the telephone is 3. The information processing program according to claim 1, wherein the information processing program evaluates the occurrence of fraud against a person.
取得した前記音声データに基づいて、前記期間のうち、設定された1以上の音声パターンそれぞれに合致する区間を特定し、
特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
処理をコンピュータが実行することを特徴とする情報処理方法。 Obtain audio data showing the conversation of a target person during a certain period,
Based on the acquired audio data, identify a section of the period that matches each of the one or more set audio patterns,
For each of the identified sections, perform a noise removal process on the biometric data of the target person in the section, corresponding to any one of the one or more voice patterns that matches the section;
Based on the biometric data of the target person after performing noise removal processing corresponding to one of the voice patterns that matched the interval in each of the identified intervals, the occurrence status of the criminal act against the target person is determined. evaluate,
An information processing method characterized in that processing is performed by a computer.
取得した前記音声データに基づいて、前記期間のうち、設定された1以上の音声パターンそれぞれに合致する区間を特定し、
特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
制御部を有することを特徴とする情報処理装置。 Obtain audio data showing the conversation of a target person during a certain period,
Based on the acquired audio data, identify a section of the period that matches each of the one or more set audio patterns,
For each of the identified sections, perform a noise removal process on the biometric data of the target person in the section, corresponding to any one of the one or more voice patterns that matches the section;
Based on the biometric data of the target person after performing noise removal processing corresponding to one of the voice patterns that matched the interval in each of the identified intervals, the occurrence status of the criminal act against the target person is determined. evaluate,
An information processing device comprising a control section.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022141784A JP2024037111A (en) | 2022-09-06 | 2022-09-06 | Information processing program, information processing method, and information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022141784A JP2024037111A (en) | 2022-09-06 | 2022-09-06 | Information processing program, information processing method, and information processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024037111A true JP2024037111A (en) | 2024-03-18 |
Family
ID=90273088
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022141784A Pending JP2024037111A (en) | 2022-09-06 | 2022-09-06 | Information processing program, information processing method, and information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024037111A (en) |
-
2022
- 2022-09-06 JP JP2022141784A patent/JP2024037111A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11545173B2 (en) | Automatic speech-based longitudinal emotion and mood recognition for mental health treatment | |
JP6524049B2 (en) | Emotion estimation device, emotion estimation method, emotion estimation program, and emotion counting system | |
US10810510B2 (en) | Conversation and context aware fraud and abuse prevention agent | |
JP6937440B2 (en) | Computerized systems and methods for determining authenticity using microrepresentations | |
Zhang et al. | Pdvocal: Towards privacy-preserving parkinson's disease detection using non-speech body sounds | |
Lu et al. | Stresssense: Detecting stress in unconstrained acoustic environments using smartphones | |
CN110378228A (en) | Video data handling procedure, device, computer equipment and storage medium are examined in face | |
US11080723B2 (en) | Real time event audience sentiment analysis utilizing biometric data | |
US20080059198A1 (en) | Apparatus and method for detecting and reporting online predators | |
JP2022534541A (en) | System and method for speech attribute machine learning | |
US11151385B2 (en) | System and method for detecting deception in an audio-video response of a user | |
JP7392492B2 (en) | Method, server and program for detecting cognitive and speech disorders based on temporal and visual facial features | |
US20230177834A1 (en) | Relationship modeling and evaluation based on video data | |
US20230377602A1 (en) | Health-related information generation and storage | |
US20210271864A1 (en) | Applying multi-channel communication metrics and semantic analysis to human interaction data extraction | |
CN112017671A (en) | Multi-feature-based interview content credibility evaluation method and system | |
US20240028967A1 (en) | Systems and methods for automatic decision-making with user-configured criteria using multi-channel data inputs | |
Lin et al. | Looking at the body: Automatic analysis of body gestures and self-adaptors in psychological distress | |
US20210219893A1 (en) | System and method for measurement of vocal biomarkers of vitality and biological aging | |
JP2024037111A (en) | Information processing program, information processing method, and information processing device | |
KR20180005876A (en) | System and method for personal credit rating through voice analysis | |
Lietz et al. | Survey of mood detection through various input modes | |
JP2024037110A (en) | Information processing program, information processing method, and information processing device | |
CN114138960A (en) | User intention identification method, device, equipment and medium | |
CN114492579A (en) | Emotion recognition method, camera device, emotion recognition device and storage device |