JP2024037111A - Information processing program, information processing method, and information processing device - Google Patents

Information processing program, information processing method, and information processing device Download PDF

Info

Publication number
JP2024037111A
JP2024037111A JP2022141784A JP2022141784A JP2024037111A JP 2024037111 A JP2024037111 A JP 2024037111A JP 2022141784 A JP2022141784 A JP 2022141784A JP 2022141784 A JP2022141784 A JP 2022141784A JP 2024037111 A JP2024037111 A JP 2024037111A
Authority
JP
Japan
Prior art keywords
target person
information processing
section
processing device
specifically
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022141784A
Other languages
Japanese (ja)
Inventor
捺希 宮原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2022141784A priority Critical patent/JP2024037111A/en
Publication of JP2024037111A publication Critical patent/JP2024037111A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】対象の人物に対する犯罪行為の発生状況を精度よく評価すること。【解決手段】情報処理装置100は、対象の期間における対象の人物の会話を示す音声データ101に基づいて、対象の期間のうち、1以上の音声パターンそれぞれに合致する区間を特定する。情報処理装置100は、特定した区間それぞれについて、当該区間における対象の人物の生体データ102を取得する。情報処理装置100は、特定した区間それぞれについて、取得した当該区間における対象の人物の生体データ102に対して、1以上の音声パターンのうち、当該区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施する。情報処理装置100は、特定した区間それぞれにおける、当該区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の対象の人物の生体データ102に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。【選択図】図1[Problem] To accurately evaluate the occurrence of criminal acts against a target person. An information processing device (100) specifies, in a target period, sections that match each of one or more voice patterns, based on audio data (101) indicating a conversation of a target person during the target period. For each of the identified sections, the information processing device 100 acquires biometric data 102 of the target person in the section. For each identified section, the information processing device 100 generates noise corresponding to one of the voice patterns that matches the section among the one or more voice patterns, based on the acquired biometric data 102 of the target person in the section. Perform the removal process. The information processing device 100 detects a criminal act against the target person based on the target person's biometric data 102 after performing noise removal processing corresponding to one of the voice patterns that matches the specified interval in each of the identified intervals. Assess the situation of occurrence. [Selection diagram] Figure 1

Description

本発明は、情報処理プログラム、情報処理方法、および情報処理装置に関する。 The present invention relates to an information processing program, an information processing method, and an information processing apparatus.

従来、電話を介して詐欺被害が発生する場合がある。例えば、詐欺師が、電話を介して、標的とした人物の近親者を騙り、当該人物から金銭を騙し取ろうとする、オレオレ詐欺と呼ばれる詐欺行為による詐欺被害が発生することがある。これに対し、対象の人物の通話時の音声データを解析し、対象の人物に対する詐欺行為の発生を検出しようとする技術が考えられる。 Traditionally, fraud can occur over the telephone. For example, fraud damage may occur due to a fraudulent act called "Ore Ore Fraud" in which a fraudster pretends to be a close relative of a targeted person over the phone and attempts to defraud the targeted person of money. On the other hand, a possible technique is to analyze the voice data of the target person during a phone call and attempt to detect the occurrence of fraud against the target person.

先行技術としては、例えば、通話者の生体データに基づいて、通話者の緊張の度合いなどのような通話者の精神状態が平常時の精神状態と異なる度合いを示す、通話者のストレス度合いを判定するものがある。 Prior art includes, for example, determining the stress level of a caller based on the caller's biometric data, which indicates the degree to which the caller's mental state differs from his or her normal mental state, such as the caller's level of tension. There is something to do.

特開2018-107769号公報Japanese Patent Application Publication No. 2018-107769

しかしながら、従来技術では、対象の人物に対する犯罪行為の発生を精度よく検出することが難しいという問題がある。例えば、対象の人物が、電話を介した詐欺行為の標的となった場合、対象の人物の発話時間または発話回数などが少なくなる傾向があり、対象の人物の通話時の音声データを解析しても、対象の人物に対する詐欺行為の発生を精度よく検出することが難しい。 However, the conventional technology has a problem in that it is difficult to accurately detect the occurrence of a criminal act against a target person. For example, if a target person becomes the target of fraudulent activity over the telephone, the target person's speaking time or number of utterances tends to decrease. However, it is difficult to accurately detect the occurrence of fraud against a target person.

1つの側面では、本発明は、対象の人物に対する犯罪行為の発生状況を精度よく評価することを目的とする。 In one aspect, the present invention aims to accurately evaluate the occurrence of a criminal act against a target person.

1つの実施態様によれば、ある期間における対象の人物の会話を示す音声データを取得し、取得した前記音声データに基づいて、前記期間のうち、設定された1以上の音声パターンそれぞれに合致する区間を特定し、特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する情報処理プログラム、情報処理方法、および情報処理装置が提案される。 According to one embodiment, audio data indicating a conversation of a target person in a certain period is acquired, and based on the acquired audio data, one or more set audio patterns are matched in the period. Identifying sections, and for each of the identified sections, removing noise corresponding to any one of the one or more voice patterns that matches the section, with respect to the biometric data of the target person in the section. A crime against the target person based on the biometric data of the target person after performing processing and performing noise removal processing corresponding to one of the voice patterns that matched the interval in each of the identified intervals. An information processing program, an information processing method, and an information processing device for evaluating the occurrence of an act are proposed.

一態様によれば、対象の人物に対する犯罪行為の発生状況を精度よく評価することが可能になる。 According to one aspect, it becomes possible to accurately evaluate the occurrence of a criminal act against a target person.

図1は、実施の形態にかかる情報処理方法の一実施例を示す説明図である。FIG. 1 is an explanatory diagram showing an example of an information processing method according to an embodiment. 図2は、情報処理システム200の一例を示す説明図である。FIG. 2 is an explanatory diagram showing an example of the information processing system 200. 図3は、情報処理システム200の第1の適用例を示す説明図である。FIG. 3 is an explanatory diagram showing a first application example of the information processing system 200. 図4は、情報処理システム200の第2の適用例を示す説明図である。FIG. 4 is an explanatory diagram showing a second application example of the information processing system 200. 図5は、情報処理装置100のハードウェア構成例を示すブロック図である。FIG. 5 is a block diagram showing an example of the hardware configuration of the information processing device 100. 図6は、フィルタ情報管理テーブル600の記憶内容の一例を示す説明図である。FIG. 6 is an explanatory diagram showing an example of the stored contents of the filter information management table 600. 図7は、感情パターン情報管理テーブル700の記憶内容の一例を示す説明図である。FIG. 7 is an explanatory diagram showing an example of the stored contents of the emotional pattern information management table 700. 図8は、生体パターン情報管理テーブル800の記憶内容の一例を示す説明図である。FIG. 8 is an explanatory diagram showing an example of the stored contents of the biometric pattern information management table 800. 図9は、音声データ取得装置201のハードウェア構成例を示すブロック図である。FIG. 9 is a block diagram showing an example of the hardware configuration of the audio data acquisition device 201. 図10は、情報処理装置100の機能的構成例を示すブロック図である。FIG. 10 is a block diagram showing an example of the functional configuration of the information processing device 100. 図11は、情報処理装置100の動作例を示す説明図(その1)である。FIG. 11 is an explanatory diagram (part 1) showing an example of the operation of the information processing device 100. 図12は、情報処理装置100の動作例を示す説明図(その2)である。FIG. 12 is an explanatory diagram (part 2) showing an example of the operation of the information processing device 100. 図13は、情報処理装置100の動作例を示す説明図(その3)である。FIG. 13 is an explanatory diagram (part 3) showing an example of the operation of the information processing device 100. 図14は、全体処理手順の一例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of the overall processing procedure.

以下に、図面を参照して、本発明にかかる情報処理プログラム、情報処理方法、および情報処理装置の実施の形態を詳細に説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of an information processing program, an information processing method, and an information processing apparatus according to the present invention will be described in detail below with reference to the drawings.

(実施の形態にかかる情報処理方法の一実施例)
図1は、実施の形態にかかる情報処理方法の一実施例を示す説明図である。情報処理装置100は、犯罪行為の発生状況を評価するためのコンピュータである。
(An example of an information processing method according to an embodiment)
FIG. 1 is an explanatory diagram showing an example of an information processing method according to an embodiment. The information processing device 100 is a computer for evaluating the occurrence of criminal acts.

情報処理装置100は、例えば、サーバまたはPC(Personal Computer)などである。情報処理装置100は、例えば、スマートフォンまたはスマートスピーカーなどであってもよい。 The information processing device 100 is, for example, a server or a PC (Personal Computer). The information processing device 100 may be, for example, a smartphone or a smart speaker.

犯罪行為は、例えば、特殊詐欺と呼ばれる詐欺行為である。犯罪行為は、具体的には、電話を介した詐欺行為である。例えば、詐欺師が、電話を介して、標的とした人物の近親者を騙り、当該人物から金銭を騙し取ろうとする、オレオレ詐欺と呼ばれる詐欺行為が存在する。 The criminal act is, for example, a fraudulent act called special fraud. Specifically, the criminal act is an act of fraud over the telephone. For example, there is a fraudulent act called "Ore Ore Fraud" in which a fraudster pretends to be a close relative of a targeted person over the telephone and attempts to defraud the targeted person of money.

また、例えば、詐欺師が、自治体または税務署などの職員を騙り、標的とした人物に、医療費または保険料などに対する過払い金の受け取りを示唆し、当該人物から金銭を騙し取ろうとする、還付金詐欺と呼ばれる詐欺行為が存在する。また、例えば、複数の詐欺師が、それぞれ、標的とした人物の近親者、警察官、および、弁護士などを騙り、当該人物から金銭を騙し取ろうとする、劇場型詐欺と呼ばれる詐欺行為が存在する。 In addition, for example, a scammer pretends to be an employee of a local government or tax office, suggests to a targeted person that he/she will receive overpayments for medical expenses, insurance premiums, etc., and attempts to defraud the targeted person of money. There is a fraudulent act called fraud. For example, there is a fraudulent act called theatrical fraud in which multiple fraudsters pretend to be a close family member, a police officer, a lawyer, etc. of the targeted person and attempt to defraud the targeted person of money. .

このため、詐欺行為による詐欺被害を防止する技術が望まれる。例えば、対象の人物の通話時の音声データを解析し、詐欺行為の発生状況を評価することにより、対象の人物に対する詐欺行為の発生を検出し、詐欺行為による詐欺被害を防止しようとする第1の技術が考えられる。具体的には、通話開始から通話終了までの通話期間における対象の人物の通話時の音声データを解析し、詐欺行為の発生状況を評価することが考えられる。 Therefore, there is a need for technology that prevents fraud damage caused by fraudulent acts. For example, the first step is to detect the occurrence of fraud against a target person and prevent damage caused by fraud by analyzing the voice data of the target person's phone call and evaluating the occurrence of fraud. possible technologies. Specifically, it is conceivable to analyze the voice data of the target person's phone call during the call period from the start of the call to the end of the call to evaluate the occurrence of fraud.

しかしながら、この第1の技術では、対象の人物に対する詐欺行為の発生を精度よく検出することが難しいという問題がある。例えば、対象の人物が、電話を介した詐欺行為の標的となった場合、対象の人物の発話時間または発話回数などが少なくなる傾向がある。このため、対象の人物の通話時の音声データを解析しても、対象の人物に対する詐欺行為の発生を精度よく検出することが難しい。例えば、対象の人物の通話時の音声データのうち、対象の人物が相槌した区間などの発話時間が比較的短い区間に関する部分データが、対象の人物に対する詐欺行為の発生状況を評価する際にノイズとなることが考えられる。 However, this first technique has a problem in that it is difficult to accurately detect the occurrence of fraud against a target person. For example, if a target person becomes the target of fraudulent activity over the telephone, the target person's speaking time or number of times he or she speaks tends to decrease. For this reason, it is difficult to accurately detect the occurrence of fraud against a target person even if the voice data of the target person's phone call is analyzed. For example, of the voice data of a target person's phone call, partial data related to sections with relatively short utterance times, such as sections where the target person chimed in, may be used as noise when evaluating the occurrence of fraud against the target person. It is possible that

また、例えば、対象の人物の通話時の生体データを解析し、詐欺行為の発生状況を評価することにより、対象の人物に対する詐欺行為の発生を検出し、詐欺行為による詐欺被害を防止しようとする第2の技術が考えられる。具体的には、通話開始から通話終了までの通話期間における対象の人物の通話時の生体データを解析し、詐欺行為の発生状況を評価することが考えられる。 In addition, for example, by analyzing the target person's biometric data during a call and evaluating the occurrence of fraud, the system can detect the occurrence of fraud against the target person and try to prevent fraud damage due to fraud. A second technique is possible. Specifically, it is conceivable to analyze the biometric data of the target person during the call during the call period from the start of the call to the end of the call to evaluate the occurrence of fraud.

この第2の技術でも、対象の人物に対する詐欺行為の発生を精度よく検出することが難しい。例えば、対象の人物の通話時の生体データにノイズが含まれるため、対象の人物の通話時の生体データを解析しても、対象の人物に対する詐欺行為の発生を精度よく検出することが難しい場合がある。 Even with this second technique, it is difficult to accurately detect the occurrence of fraud against a target person. For example, if the target person's biometric data during a call contains noise, it is difficult to accurately detect the occurrence of fraud against the target person even if the target person's biometric data during the call is analyzed. There is.

具体的には、呼吸周期の影響により、対象の人物の通話時の生体データに、大きさが一定ではなく変動するノイズが含まれることがある。また、具体的には、対象の人物の発話中、対象の人物の体動により、対象の人物の通話時の生体データに含まれるノイズが大きくなる傾向がある。また、具体的には、対象の人物の会話の流れによって、対象の人物が様々な動作を行ったり、対象の人物の体動の大きさなどが変化したりすることにより、対象の人物の通話時の生体データに、大きさが一定ではなく変動するノイズが含まれることがある。このため、対象の人物の通話時の生体データを解析しても、対象の人物に対する詐欺行為の発生を精度よく検出することが難しい。例えば、対象の人物の通話時の生体データから、一律の基準でノイズを除去しようとしても、ノイズを適切に除去することができない場合がある。 Specifically, due to the influence of the breathing cycle, the biometric data of a target person during a call may include noise whose size is not constant but fluctuates. Further, specifically, while the target person is speaking, noise included in the biometric data of the target person during the call tends to increase due to body movements of the target person. Specifically, depending on the flow of the conversation of the target person, the target person may perform various actions or the size of the target person's body movements may change, causing the target person's conversation to Biometric data may contain noise whose size is not constant but fluctuates. For this reason, even if the biometric data of the target person during a call is analyzed, it is difficult to accurately detect the occurrence of fraud against the target person. For example, even if an attempt is made to remove noise from biometric data of a target person during a phone call using a uniform standard, it may not be possible to appropriately remove the noise.

そこで、本実施の形態では、対象の人物に対する犯罪行為の発生状況を精度よく評価することができる情報処理方法について説明する。 Therefore, in this embodiment, an information processing method that can accurately evaluate the occurrence of a criminal act against a target person will be described.

図1において、(1-1)情報処理装置100は、対象の期間における対象の人物の会話を示す音声データ101を取得する。対象の人物は、犯罪行為から保護することが望まれる人物である。犯罪行為は、例えば、詐欺行為である。音声データ101は、電話を介した、対象の人物と他の人物との会話を示す。他の人物は、例えば、犯罪者である場合が考えられる。犯罪者は、例えば、詐欺師である。対象の期間は、例えば、対象の人物が会話中の期間である。対象の期間は、具体的には、通話開始から通話終了までの通話期間である。 In FIG. 1, (1-1) the information processing device 100 acquires audio data 101 indicating a conversation of a target person during a target period. The target person is a person who is desired to be protected from criminal activity. The criminal act is, for example, fraud. Audio data 101 indicates a conversation between a target person and another person via telephone. The other person may be a criminal, for example. A criminal is, for example, a fraudster. The target period is, for example, a period during which the target person is having a conversation. Specifically, the target period is the call period from the start of the call to the end of the call.

情報処理装置100は、例えば、マイクを有し、マイクを用いて対象の人物の会話を録音することにより、音声データ101を取得する。情報処理装置100は、例えば、音声データ101を、他のコンピュータから受信することにより取得してもよい。他のコンピュータは、例えば、スマートフォンまたはスマートスピーカーなどである。 The information processing device 100 has a microphone, for example, and acquires audio data 101 by recording a conversation of a target person using the microphone. The information processing device 100 may obtain the audio data 101 by receiving it from another computer, for example. The other computer is, for example, a smartphone or a smart speaker.

情報処理装置100は、具体的には、対象の人物の通話中、マイクを用いて対象の人物の会話を録音し続け、対象の人物の通話開始から通話終了までの期間における対象の人物の会話を示す音声データ101を取得する。情報処理装置100は、具体的には、対象の人物の通話中、マイクを用いて対象の人物の会話を録音し続け、対象の人物の通話中の所定のタイミングごとに、現時点から一定時間前までの期間における対象の人物の会話を示す音声データ101を取得してもよい。所定のタイミングは、例えば、一定時間ごとのタイミングである。 Specifically, the information processing device 100 continues to record the conversation of the target person using a microphone while the target person is talking, and records the conversation of the target person during the period from the start of the call to the end of the call. Acquire audio data 101 indicating. Specifically, the information processing device 100 continues to record the conversation of the target person using a microphone during the conversation of the target person, and records the conversation of the target person a certain period of time before the current time at each predetermined timing during the conversation of the target person. Audio data 101 indicating the conversation of the target person during the period up to this point may be acquired. The predetermined timing is, for example, timing at regular intervals.

(1-2)情報処理装置100は、1以上の音声パターンを記憶する。音声パターンは、例えば、ある発話属性に対応する音声データが示す会話音声の特徴を示す。発話属性は、例えば、対象の人物が沈黙したことを示す「沈黙」、および、対象の人物が相槌したことを示す「相槌」などである。発話属性は、例えば、対象の人物が他の人物の発話を聴取したことを示す「聴取」などであってもよい。発話属性は、例えば、対象の人物が発話したことを示す「発話」などであってもよい。 (1-2) The information processing device 100 stores one or more voice patterns. The voice pattern indicates, for example, characteristics of conversational voice indicated by voice data corresponding to a certain utterance attribute. The utterance attributes include, for example, "silence" indicating that the target person has been silent, and "shuzuchi" indicating that the target person has agreed. The utterance attribute may be, for example, "listening" indicating that the target person has listened to another person's utterance. The utterance attribute may be, for example, "utterance" indicating that the target person has uttered the utterance.

音声パターンは、例えば、ある区間の音声または発話内容などと照合することにより、当該区間に対応する発話属性を特定可能にする基準パターンを示す。音声パターンは、具体的には、ある発話属性に対応するキーワードを示す。音声パターンは、具体的には、ある発話属性に対応する音声のトーン、声量、または、波長などを示していてもよい。 The voice pattern indicates a reference pattern that makes it possible to identify the utterance attribute corresponding to a certain section by comparing it with the voice or utterance content of a certain section, for example. Specifically, the voice pattern indicates a keyword corresponding to a certain utterance attribute. Specifically, the voice pattern may indicate the tone, volume, or wavelength of voice corresponding to a certain speech attribute.

情報処理装置100は、具体的には、「沈黙」に対応する音声パターン、および、「相槌」に対応する音声パターンなどを記憶する。情報処理装置100は、具体的には、「発話」に対応する音声パターンを記憶していてもよい。「発話」に対応する音声パターンは、「沈黙」に対応する音声パターン、および、「相槌」に対応する音声パターンに合致しないことを、音声の特徴として示していてもよい。 Specifically, the information processing device 100 stores a voice pattern corresponding to "silence", a voice pattern corresponding to "agoushu", and the like. Specifically, the information processing device 100 may store a voice pattern corresponding to "utterance". The voice characteristic may indicate that the voice pattern corresponding to "speech" does not match the voice pattern corresponding to "silence" and the voice pattern corresponding to "speech".

情報処理装置100は、取得した音声データ101に基づいて、対象の期間のうち、1以上の音声パターンそれぞれに合致する区間を特定する。情報処理装置100は、例えば、音声データ101に基づいて、対象の期間のうち、「沈黙」に対応する音声パターンが現れる区間を、沈黙区間に分類して特定する。情報処理装置100は、例えば、音声データ101に基づいて、対象の期間のうち、「相槌」に対応する音声パターンが現れる区間を、相槌区間に分類して特定する。沈黙区間と相槌区間とは、聴取区間の一部である。 Based on the acquired audio data 101, the information processing device 100 identifies sections of the target period that match each of one or more audio patterns. For example, based on the audio data 101, the information processing device 100 classifies and specifies a section in which a voice pattern corresponding to "silence" appears in the target period as a silence section. For example, based on the audio data 101, the information processing device 100 classifies and specifies a section in which a voice pattern corresponding to "Aitsuchi" appears in the target period as an Aitsuchi section. The silent section and the intermittent section are part of the listening section.

情報処理装置100は、例えば、音声データ101に基づいて、対象の期間のうち、「発話」に対応する音声パターンが現れる区間を、発話区間に分類して特定する。情報処理装置100は、具体的には、音声データ101に基づいて、対象の期間のうち、沈黙区間および相槌区間以外の残余の区間を、発話区間に分類して特定してもよい。 For example, based on the audio data 101, the information processing device 100 classifies and specifies a section in which a voice pattern corresponding to "utterance" appears in the target period as a speech section. Specifically, based on the audio data 101, the information processing device 100 may classify and specify the remaining sections other than the silent section and the intermittent section as speech sections in the target period.

(1-3)情報処理装置100は、特定した区間それぞれについて、当該区間における対象の人物の生体データ102を取得する。情報処理装置100は、例えば、沈黙区間、相槌区間、および、発話区間について、対象の人物の生体データ102を取得する。 (1-3) For each specified section, the information processing device 100 acquires the biometric data 102 of the target person in the section. The information processing device 100 acquires the biometric data 102 of the target person for, for example, the silent section, the cooperative section, and the utterance section.

情報処理装置100は、具体的には、生体センサを有し、生体センサを用いて対象の人物の心拍、脈拍、体温、または、発汗などの特徴値を計測することにより、生体データ102を取得する。情報処理装置100は、具体的には、生体データ102を、他のコンピュータから受信することにより取得してもよい。他のコンピュータは、例えば、スマートフォンまたはウェアラブル端末などである。 Specifically, the information processing device 100 has a biosensor, and acquires biometric data 102 by measuring characteristic values such as heartbeat, pulse, body temperature, or perspiration of the target person using the biosensor. do. Specifically, the information processing device 100 may acquire the biometric data 102 by receiving it from another computer. The other computer is, for example, a smartphone or a wearable terminal.

情報処理装置100は、より具体的には、対象の人物の通話中、生体センサを用いて対象の人物の特徴値を計測し続け、対象の人物の通話開始から通話終了までの期間における対象の人物の特徴値の時間変化を示す、全体の生体データを取得する。情報処理装置100は、より具体的には、取得した全体の生体データのうち、沈黙区間、相槌区間、および、発話区間における対象の人物の生体データ102を抽出することにより、対象の人物の生体データ102を取得する。 More specifically, the information processing device 100 continues to measure the characteristic values of the target person using a biosensor during the target person's call, and measures the target person's characteristic values during the period from the start of the call to the end of the call. Obtain overall biometric data that shows changes in a person's characteristic values over time. More specifically, the information processing device 100 extracts the biometric data 102 of the target person in the silent section, the intermittent section, and the utterance section from among the entire acquired biometric data. Data 102 is acquired.

情報処理装置100は、より具体的には、対象の人物の通話中、生体センサを用いて対象の人物の特徴値を計測し続ける。そして、情報処理装置100は、より具体的には、対象の人物の通話中の所定のタイミングごとに、現時点から一定時間前までの期間における対象の人物の特徴値の時間変化を示す、全体の生体データを取得してもよい。所定のタイミングは、例えば、一定時間ごとのタイミングである。情報処理装置100は、より具体的には、取得した全体の生体データのうち、沈黙区間、相槌区間、および、発話区間における対象の人物の生体データ102を抽出することにより、対象の人物の生体データ102を取得する。 More specifically, the information processing device 100 continues to measure the characteristic values of the target person using the biosensor while the target person is on the phone. More specifically, the information processing device 100 calculates, at each predetermined timing during the call of the target person, the overall Biometric data may also be obtained. The predetermined timing is, for example, timing at regular intervals. More specifically, the information processing device 100 extracts the biometric data 102 of the target person in the silent section, the intermittent section, and the utterance section from among the entire acquired biometric data. Data 102 is acquired.

(1-4)情報処理装置100は、特定した区間それぞれについて、取得した当該区間における対象の人物の生体データ102に対して、1以上の音声パターンのうち、当該区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施する。情報処理装置100は、例えば、特定した区間と合致した音声パターンに対応する発話傾向または動作傾向などに応じて、当該区間における対象の人物の生体データ102から、当該発話傾向または当該動作傾向に対応する大きさおよび種類のノイズを除去する。 (1-4) For each of the identified sections, the information processing device 100 selects one of the one or more voice patterns that matches the section, based on the acquired biometric data 102 of the target person in the section. Perform noise removal processing corresponding to the pattern. For example, the information processing device 100 responds to the speech tendency or movement tendency based on the biometric data 102 of the target person in the specified section, based on the speech tendency or movement tendency that corresponds to the voice pattern that matches the specified section. Remove noise of any size and type.

動作傾向は、例えば、人物が沈黙する場合の動作が比較的小さいことを示す。動作傾向は、例えば、人物が相槌する場合の動作が、人物が沈黙する場合に比べて大きくなり易いことを示す。動作傾向は、例えば、人物が発話する場合の動作が比較的大きく、人物が発話する場合の動作が、人物が相槌する場合に比べて大きくなり易いことを示す。 The movement tendency indicates, for example, that when a person is silent, the movement is relatively small. The movement tendency indicates, for example, that the movement when a person is in agreement tends to be larger than when the person is silent. The movement tendency indicates, for example, that the movement when a person speaks is relatively large, and that the movement when a person speaks is likely to be large compared to when a person chimes in.

(1-5)情報処理装置100は、特定した区間それぞれにおける、当該区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の対象の人物の生体データ102に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。 (1-5) The information processing device 100 performs the target person's biometric data 102 after performing noise removal processing corresponding to one of the voice patterns that matches the specified interval in each of the identified intervals. Assess the occurrence of criminal acts against persons.

情報処理装置100は、例えば、特定した区間それぞれにおける、当該区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の対象の人物の生体データ102に基づいて、対象の人物に関する特徴量を生成する。 For example, the information processing device 100 performs a process on the target person based on the biometric data 102 of the target person after performing noise removal processing corresponding to any voice pattern that matches the specified interval in each of the identified intervals. Generate features.

特徴量は、例えば、生体的な特徴量である。特徴量は、具体的には、生体的な1以上の特徴値、生体的な特徴値の統計値、または、生体的な特徴値の変化量などである。生体的な特徴値は、例えば、心拍、脈拍、体温、または、発汗などに関する特徴値である。生体的な特徴値は、具体的には、心拍数である。統計値は、例えば、平均値、中央値、最頻値、最大値、または、最小値などである。これにより、情報処理装置100は、対象の人物に対する犯罪行為の発生状況を評価する指標値となる特徴量を得ることができる。 The feature amount is, for example, a biological feature amount. Specifically, the feature amount is one or more biometric feature values, a statistical value of the biometric feature value, an amount of change in the biometric feature value, or the like. The biological characteristic value is, for example, a characteristic value related to heartbeat, pulse, body temperature, sweating, or the like. Specifically, the biological characteristic value is heart rate. The statistical value is, for example, an average value, median value, mode, maximum value, or minimum value. Thereby, the information processing device 100 can obtain a feature value that serves as an index value for evaluating the occurrence of a criminal act against the target person.

情報処理装置100は、例えば、生成した特徴量に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。情報処理装置100は、具体的には、特定した区間それぞれについて、生成した特徴量が、生体的な特徴値の変化量であれば、生成した特徴量と閾値とを比較する。閾値は、例えば、予め利用者によって設定される。情報処理装置100は、具体的には、生成した特徴量が閾値以上であれば、対象の人物に対する犯罪行為が発生したと評価する。情報処理装置100は、具体的には、生成した特徴量が閾値未満であれば、対象の人物に対する犯罪行為が発生していないと評価する。 For example, the information processing device 100 evaluates the occurrence of a criminal act against a target person based on the generated feature amount. Specifically, the information processing apparatus 100 compares the generated feature amount with a threshold value if the generated feature amount is the amount of change in the biological feature value for each specified section. For example, the threshold value is set in advance by the user. Specifically, the information processing device 100 evaluates that a criminal act against the target person has occurred if the generated feature amount is equal to or greater than the threshold value. Specifically, the information processing device 100 evaluates that a criminal act against the target person has not occurred if the generated feature amount is less than the threshold value.

情報処理装置100は、具体的には、特定した区間それぞれについて、生成した特徴量が、生体的な1以上の特徴値であれば、当該区間における特徴量の変化パターンに基づいて、対象の人物に対する犯罪行為の発生状況を評価してもよい。情報処理装置100は、具体的には、特定した区間それぞれについて、生成した特徴量が、生体的な特徴値の統計値であれば、複数の区間に跨った特徴量の変化パターンに基づいて、対象の人物に対する犯罪行為の発生状況を評価してもよい。 Specifically, if the generated feature amount for each identified section is one or more biometric feature values, the information processing device 100 identifies the target person based on the change pattern of the feature amount in the section. The occurrence of criminal acts may be evaluated. Specifically, if the generated feature amount is a statistical value of a biological feature value for each specified section, the information processing device 100 calculates the statistical value of the feature amount based on the change pattern of the feature amount across the plurality of sections. The occurrence of criminal acts against the target person may be evaluated.

これにより、情報処理装置100は、対象の人物に対する詐欺行為の発生状況を精度よく評価することができる。このため、情報処理装置100は、対象の人物に対する詐欺行為の発生を精度よく検出可能にすることができる。情報処理装置100は、対象の人物に対する詐欺行為による詐欺被害の発生を防止し易くすることができる。 Thereby, the information processing device 100 can accurately evaluate the occurrence of fraud against the target person. Therefore, the information processing apparatus 100 can accurately detect the occurrence of fraud against a target person. The information processing device 100 can easily prevent fraud damage caused by fraud against a target person.

情報処理装置100は、例えば、特定した区間ごとに、当該区画と合致したいずれかの音声パターンに対応する発話傾向または動作傾向などに応じて、当該区間における対象の人物の生体データ102から、適切にノイズを除去することができる。このため、情報処理装置100は、ノイズを適切に除去した生体データ102に基づいて、対象の人物に対する詐欺行為の発生状況を精度よく評価することができる。 For example, for each identified section, the information processing device 100 determines appropriate information from the biometric data 102 of the target person in the section, depending on the speech tendency or movement tendency that corresponds to one of the voice patterns that matches the section. noise can be removed. Therefore, the information processing device 100 can accurately evaluate the occurrence of fraud against the target person based on the biometric data 102 from which noise has been appropriately removed.

ここでは、情報処理装置100が、単独で動作する場合について説明したが、これに限らない。例えば、情報処理装置100が、他のコンピュータと協働する場合があってもよい。例えば、複数のコンピュータが、情報処理装置100としての機能を実現する場合があってもよい。具体的には、クラウド上に情報処理装置100としての機能が実現される場合があってもよい。 Although the case where the information processing device 100 operates independently has been described here, the present invention is not limited to this. For example, the information processing device 100 may cooperate with another computer. For example, a plurality of computers may implement the functions of the information processing device 100. Specifically, the functions of the information processing device 100 may be implemented on the cloud.

(情報処理システム200の一例)
次に、図2を用いて、図1に示した情報処理装置100を適用した、情報処理システム200の一例について説明する。
(Example of information processing system 200)
Next, an example of an information processing system 200 to which the information processing apparatus 100 shown in FIG. 1 is applied will be described using FIG. 2.

図2は、情報処理システム200の一例を示す説明図である。図2において、情報処理システム200は、情報処理装置100と、音声データ取得装置201と、生体データ取得装置202と、アラート出力装置203とを含む。 FIG. 2 is an explanatory diagram showing an example of the information processing system 200. In FIG. 2, an information processing system 200 includes an information processing device 100, an audio data acquisition device 201, a biological data acquisition device 202, and an alert output device 203.

情報処理システム200において、情報処理装置100と音声データ取得装置201とは、有線または無線のネットワーク210を介して接続される。ネットワーク210は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどである。 In the information processing system 200, the information processing device 100 and the audio data acquisition device 201 are connected via a wired or wireless network 210. The network 210 is, for example, a LAN (Local Area Network), a WAN (Wide Area Network), the Internet, or the like.

また、情報処理システム200において、情報処理装置100と生体データ取得装置202とは、有線または無線のネットワーク210を介して接続される。また、情報処理システム200において、情報処理装置100とアラート出力装置203とは、有線または無線のネットワーク210を介して接続される。 Further, in the information processing system 200, the information processing device 100 and the biometric data acquisition device 202 are connected via a wired or wireless network 210. Further, in the information processing system 200, the information processing device 100 and the alert output device 203 are connected via a wired or wireless network 210.

情報処理装置100は、対象の人物に対する犯罪行為の発生状況を評価するためのコンピュータである。対象の人物は、犯罪行為から保護することが望まれる人物である。犯罪行為は、例えば、詐欺行為である。発生状況は、例えば、発生有無である。 The information processing device 100 is a computer for evaluating the occurrence of criminal acts against a target person. The target person is a person who is desired to be protected from criminal activity. The criminal act is, for example, fraud. The occurrence status is, for example, whether or not an occurrence occurs.

情報処理装置100は、対象の期間における対象の人物の音声データを取得する。音声データは、電話を介した、対象の人物と他の人物との会話を示す。他の人物は、例えば、犯罪者である場合が考えられる。犯罪者は、例えば、詐欺師である。情報処理装置100は、例えば、対象の期間における対象の人物の音声データを、音声データ取得装置201から受信することにより取得する。 The information processing device 100 acquires voice data of a target person during a target period. The audio data represents a conversation between the person of interest and another person via telephone. The other person may be a criminal, for example. A criminal is, for example, a fraudster. The information processing device 100 acquires, for example, voice data of a target person during a target period by receiving from the voice data acquisition device 201.

情報処理装置100は、具体的には、一定時間ごとに、過去一定時間分の対象の期間における対象の人物の音声データを、音声データ取得装置201から受信することにより取得する。情報処理装置100は、具体的には、対象の人物の通話終了時、通話開始から通話終了までの対象の期間における対象の人物の音声データを、音声データ取得装置201から受信することにより取得してもよい。 Specifically, the information processing device 100 acquires voice data of a target person during a target period of a certain amount of time in the past by receiving from the voice data acquisition device 201 at regular intervals. Specifically, the information processing device 100 acquires the voice data of the target person during the target period from the start of the call to the end of the call by receiving from the voice data acquisition device 201 when the target person's call ends. It's okay.

情報処理装置100は、対象の期間における対象の人物の生体データを取得する。生体データは、対象の人物の生体的な特徴値の時間変化を示す。生体的な特徴値は、例えば、心拍数、脈拍数、体温、または、発汗量などである。情報処理装置100は、例えば、対象の期間における対象の人物の生体データを、生体データ取得装置202から受信することにより取得する。 The information processing device 100 acquires biometric data of a target person during a target period. Biometric data indicates changes over time in biometric characteristic values of a target person. The biological characteristic values include, for example, heart rate, pulse rate, body temperature, or amount of perspiration. For example, the information processing device 100 acquires biometric data of a target person during a target period by receiving the biometric data from the biometric data acquisition device 202 .

情報処理装置100は、具体的には、一定時間ごとに、過去一定時間分の対象の期間における対象の人物の生体データを、生体データ取得装置202から受信することにより取得する。情報処理装置100は、具体的には、対象の人物の通話終了時、通話開始から通話終了までの対象の期間における対象の人物の生体データを、生体データ取得装置202から受信することにより取得してもよい。 Specifically, the information processing device 100 acquires biometric data of a target person during a target period for a predetermined amount of time in the past by receiving from the biometric data acquisition device 202 at regular intervals. Specifically, the information processing device 100 acquires the biometric data of the target person during the target period from the start of the call to the end of the call by receiving the biometric data from the biometric data acquisition device 202 at the end of the call with the target person. It's okay.

情報処理装置100は、取得した音声データと、取得した生体データとに基づいて、対象の人物に対する詐欺行為の発生状況を評価する。情報処理装置100は、例えば、取得した音声データに基づいて、対象の期間を、発話区間と、聴取区間とに分類する。情報処理装置100は、具体的には、取得した音声データに基づいて、対象の期間における複数の発話者を特定する。情報処理装置100は、具体的には、取得した音声データに基づいて、それぞれの発話者について、当該発話者が発話した区間、当該区間における当該発話者の音声、および、当該区間における当該発話者の発話内容などを特定する。 The information processing device 100 evaluates the occurrence of fraud against the target person based on the acquired voice data and the acquired biometric data. For example, the information processing device 100 classifies the target period into a speaking period and a listening period based on the acquired audio data. Specifically, the information processing device 100 identifies multiple speakers in the target period based on the acquired audio data. Specifically, based on the acquired audio data, the information processing device 100 calculates, for each speaker, the section in which the speaker speaks, the speaker's voice in the section, and the speaker in the section. Identify the content of the utterance.

ここで、情報処理装置100は、具体的には、音声パターンと、発話属性とを対応付けて記憶する。音声パターンは、例えば、対象の人物の音声または発話内容と照合することにより、区間に対応する発話属性を特定可能にする基準パターンである。発話属性は、例えば、対象の人物が沈黙したことを示す「沈黙」、および、対象の人物が相槌したことを示す「相槌」などである。発話属性は、例えば、対象の人物が発話したことを示す「発話」などであってもよい。情報処理装置100は、より具体的には、図6に後述するフィルタ情報管理テーブル600を記憶する。 Here, the information processing device 100 specifically stores voice patterns and utterance attributes in association with each other. The voice pattern is, for example, a reference pattern that makes it possible to identify the utterance attribute corresponding to the section by comparing it with the target person's voice or utterance content. The utterance attributes include, for example, "silence" indicating that the target person has been silent, and "shuzuchi" indicating that the target person has agreed. The utterance attribute may be, for example, "utterance" indicating that the target person has uttered the utterance. More specifically, the information processing device 100 stores a filter information management table 600, which will be described later in FIG.

情報処理装置100は、具体的には、特定した発話者に基づいて、特定した対象の人物の音声または発話内容と、記憶した音声パターンとを照合することにより、対象の期間のうち、「沈黙」、または、「相槌」などの発話属性を有する区間を特定する。情報処理装置100は、具体的には、特定した発話者に基づいて、特定した対象の人物の音声または発話内容と、記憶した音声パターンとを照合することにより、対象の期間のうち、「発話」の発話属性を有する区間を特定してもよい。 Specifically, based on the identified speaker, the information processing device 100 compares the voice or utterance content of the identified target person with the stored voice pattern, thereby determining whether or not there is "silence" within the target period. ” or a section having a speech attribute such as “Aitsuchi”. Specifically, based on the identified speaker, the information processing device 100 compares the voice or utterance content of the identified target person with the stored voice pattern, thereby determining whether or not the ``utterance'' is detected during the target period. ” may be specified.

情報処理装置100は、具体的には、対象の期間のうち、「沈黙」の発話属性を有し、発話者が対象の人物とは異なる他の人物のみである区間を、聴取区間に分類する。情報処理装置100は、例えば、「相槌」の発話属性を有する区間を、聴取区間に分類する。情報処理装置100は、具体的には、対象の期間のうち、発話者が少なくとも対象の人物を含み、「相槌」の発話属性を有さない区間を、発話区間に分類する。情報処理装置100は、より具体的には、対象の期間のうち、「発話」の発話属性を有する区間を、発話区間に分類してもよい。情報処理装置100は、具体的には、連続する2以上の聴取区間を結合してもよい。情報処理装置100は、具体的には、連続する2以上の発話区間を結合してもよい。 Specifically, the information processing device 100 classifies, as a listening section, a section in the target period that has the speech attribute of "silence" and in which the only speakers are people different from the target person. . For example, the information processing device 100 classifies a section having the utterance attribute of "Aitsuchi" as a listening section. Specifically, the information processing device 100 classifies, as speech sections, sections in which the speaker includes at least the target person and does not have the speech attribute of "Aitsuchi" in the target period. More specifically, the information processing device 100 may classify, in the target period, a section having the speech attribute of "utterance" into a speech section. Specifically, the information processing device 100 may combine two or more consecutive listening sections. Specifically, the information processing device 100 may combine two or more consecutive speech sections.

情報処理装置100は、対象の期間における対象の人物の生体データのうち、聴取区間における対象の人物の生体データを抽出して加工する。ここで、情報処理装置100は、例えば、発話属性と、生体データを加工するためのフィルタとを対応付けて記憶する。情報処理装置100は、具体的には、図6に後述するフィルタ情報管理テーブル600を記憶する。 The information processing device 100 extracts and processes the biometric data of the target person in the listening section from among the biometric data of the target person in the target period. Here, the information processing device 100 stores, for example, utterance attributes and filters for processing biometric data in association with each other. Specifically, the information processing apparatus 100 stores a filter information management table 600, which will be described later in FIG.

情報処理装置100は、分類した聴取区間のうち、沈黙の発話属性を有する区間における対象の人物の生体データに対して、沈黙の発話属性に対応するフィルタを適用することにより、当該生体データからノイズを除去する。情報処理装置100は、分類した聴取区間のうち、相槌の発話属性を有する区間における対象の人物の生体データに対して、相槌の発話属性に対応するフィルタを適用することにより、当該生体データからノイズを除去する。 The information processing device 100 removes noise from the biometric data of the target person in the segment having the silent speech attribute among the classified listening sections by applying a filter corresponding to the silent speech attribute. remove. The information processing device 100 removes noise from the biometric data of the target person in the segment having the utterance attribute of ``agistetsu'' among the classified listening sections by applying a filter corresponding to the utterance attribute of ``agistetsu''. remove.

情報処理装置100は、それぞれの聴取区間について、当該聴取区間におけるノイズを除去した後の対象の人物の生体データに基づいて、第1の特徴量を算出する。第1の特徴量は、例えば、聴取区間における心拍数の統計値などである。第1の特徴量は、聴取区間における心拍数の変化量などであってもよい。 The information processing device 100 calculates a first feature amount for each listening section based on the biological data of the target person after removing noise in the listening section. The first feature amount is, for example, a statistical value of heart rate in the listening section. The first feature amount may be the amount of change in heart rate during the listening section.

情報処理装置100は、それぞれの発話区間について、当該発話区間における対象の人物の音声データに基づいて、第2の特徴量を算出する。第2の特徴量は、例えば、発話区間における対象の人物の感情の特徴値である。感情の特徴値は、例えば、対象の人物の感情がネガティブであるか、または、ポジティブであるかを示す。 The information processing device 100 calculates a second feature amount for each speech section based on the voice data of the target person in the speech section. The second feature amount is, for example, a feature value of the emotion of the target person in the utterance section. The emotion feature value indicates, for example, whether the emotion of the target person is negative or positive.

感情の特徴値は、例えば、対象の人物の感情が、喜び、怒り、悲しみ、残念、驚き、意欲的、または、消極的などであることを示していてもよい。感情の特徴値は、例えば、ストレス度合いなどであってもよい。第2の特徴量は、例えば、発話区間における対象の人物の感情の特徴値の変化量などであってもよい。第2の特徴量は、具体的には、発話区間における対象の人物のストレス度合いの変化量などであってもよい。 The emotion characteristic value may indicate, for example, that the emotion of the target person is joy, anger, sadness, regret, surprise, motivation, or reluctance. The characteristic value of emotion may be, for example, the degree of stress. The second feature amount may be, for example, the amount of change in the feature value of the emotion of the target person during the utterance period. Specifically, the second feature amount may be the amount of change in the stress level of the target person during the utterance period.

情報処理装置100は、算出した第1の特徴量と、算出した第2の特徴量とに基づいて、対象の人物に対する詐欺行為の発生状況を評価する。ここで、情報処理装置100は、例えば、第1の特徴量の変化パターンと、詐欺行為の発生状況の解とを対応付けて記憶する。情報処理装置100は、具体的には、図7に後述する感情パターン情報管理テーブル700を記憶する。情報処理装置100は、例えば、算出した第1の特徴量の変化パターンに対応する詐欺行為の発生状況の解を特定することにより、対象の人物に対する詐欺行為の発生状況を評価する。 The information processing device 100 evaluates the occurrence of fraud against the target person based on the calculated first feature amount and the calculated second feature amount. Here, the information processing device 100 stores, for example, the change pattern of the first feature amount and the solution of the occurrence situation of the fraudulent act in association with each other. Specifically, the information processing device 100 stores an emotion pattern information management table 700, which will be described later in FIG. The information processing device 100 evaluates the occurrence of fraud against the target person, for example, by specifying a solution to the occurrence of fraud that corresponds to the change pattern of the calculated first feature amount.

情報処理装置100は、例えば、算出した第1の特徴量が心拍数の変化量であれば、第1の特徴量と閾値とを比較することにより、対象の人物に対する詐欺行為の発生状況を評価してもよい。閾値は、例えば、予め利用者によって設定される。情報処理装置100は、具体的には、第1の特徴量が閾値以上であれば、対象の人物に対する詐欺行為が発生したと評価する。情報処理装置100は、具体的には、第1の特徴量が閾値未満であれば、対象の人物に対する詐欺行為が発生していないと評価する。 For example, if the calculated first feature amount is the amount of change in heart rate, the information processing device 100 evaluates the occurrence of fraud against the target person by comparing the first feature amount and the threshold value. You may. For example, the threshold value is set in advance by the user. Specifically, the information processing device 100 evaluates that a fraudulent act against the target person has occurred if the first feature amount is equal to or greater than the threshold value. Specifically, the information processing device 100 evaluates that fraud against the target person has not occurred if the first feature amount is less than the threshold value.

また、情報処理装置100は、例えば、第2の特徴量の変化パターンと、詐欺行為の発生状況の解とを対応付けて記憶する。情報処理装置100は、具体的には、図8に後述する生体パターン情報管理テーブル800を記憶する。情報処理装置100は、例えば、算出した第2の特徴量の変化パターンに対応する詐欺行為の発生状況の解を特定することにより、対象の人物に対する詐欺行為の発生状況を評価する。 Further, the information processing device 100 stores, for example, the change pattern of the second feature amount and the solution of the occurrence situation of fraud in association with each other. Specifically, the information processing apparatus 100 stores a biometric pattern information management table 800, which will be described later in FIG. The information processing device 100 evaluates the occurrence situation of fraud against the target person, for example, by specifying a solution to the situation of occurrence of fraud corresponding to the calculated change pattern of the second feature amount.

情報処理装置100は、例えば、算出した第2の特徴量がストレス度合いの変化量であれば、第2の特徴量と閾値とを比較することにより、対象の人物に対する詐欺行為の発生状況を評価してもよい。閾値は、例えば、予め利用者によって設定される。情報処理装置100は、具体的には、第2の特徴量が閾値以上であれば、対象の人物に対する詐欺行為が発生したと評価する。情報処理装置100は、具体的には、第2の特徴量が閾値未満であれば、対象の人物に対する詐欺行為が発生していないと評価する。 For example, if the calculated second feature amount is the amount of change in stress level, the information processing device 100 evaluates the occurrence of fraud against the target person by comparing the second feature amount with a threshold value. You may. For example, the threshold value is set in advance by the user. Specifically, the information processing device 100 evaluates that a fraudulent act against the target person has occurred if the second feature amount is equal to or greater than the threshold value. Specifically, if the second feature amount is less than the threshold value, the information processing device 100 evaluates that no fraud has occurred against the target person.

情報処理装置100は、対象の人物に対する詐欺行為の発生状況を評価した結果、対象の人物に対する詐欺行為が発生したと判定した場合、対象の人物に対する詐欺行為が発生したことを示す通知を、アラート出力装置203に送信する。情報処理装置100は、例えば、サーバ、または、PCなどである。 If it is determined that a fraudulent act has occurred against the target person as a result of evaluating the occurrence status of the fraudulent act against the target person, the information processing device 100 issues a notification indicating that a fraudulent act has occurred against the target person as an alert. It is transmitted to the output device 203. The information processing device 100 is, for example, a server or a PC.

音声データ取得装置201は、対象の期間における対象の人物の音声データを取得するコンピュータである。音声データ取得装置201は、例えば、対象の人物の通話時、対象の人物の会話を録音し続ける。音声データ取得装置201は、例えば、一定時間ごとに、過去一定時間分の対象の期間における、録音した対象の人物の会話を示す音声データを生成し、情報処理装置100に送信する。音声データ取得装置201は、例えば、PC、タブレット端末、スマートフォン、ウェアラブル端末、または、スマートスピーカーなどである。 The audio data acquisition device 201 is a computer that acquires audio data of a target person during a target period. For example, the audio data acquisition device 201 continues to record the conversation of the target person when the target person is on the phone. For example, the audio data acquisition device 201 generates audio data representing a recorded conversation of a target person during a target period of a certain amount of time in the past at regular intervals, and transmits it to the information processing device 100 . The audio data acquisition device 201 is, for example, a PC, a tablet terminal, a smartphone, a wearable terminal, or a smart speaker.

生体データ取得装置202は、対象の期間における対象の人物の生体データを取得するコンピュータである。生体データ取得装置202は、例えば、対象の人物の通話時、対象の人物の生体的な特徴値を計測し続ける。生体データ取得装置202は、例えば、一定時間ごとに、過去一定時間分の対象の期間における、計測した対象の人物の生体的な特徴値の時間変化を示す生体データを生成し、情報処理装置100に送信する。生体データ取得装置202は、例えば、PC、タブレット端末、スマートフォン、または、ウェアラブル端末などである。 The biometric data acquisition device 202 is a computer that acquires biometric data of a target person during a target period. The biometric data acquisition device 202 continues to measure the biometric characteristic values of the target person, for example, when the target person is on the phone. For example, the biometric data acquisition device 202 generates biometric data that indicates the time change in the measured biological characteristic values of the target person during the target period for a certain past time at regular intervals, and generates biometric data that indicates the temporal change in the measured biological characteristic values of the target person. Send to. The biometric data acquisition device 202 is, for example, a PC, a tablet terminal, a smartphone, or a wearable terminal.

アラート出力装置203は、対象の人物に対する詐欺行為が発生したことを示すアラートを出力するコンピュータである。アラート出力装置203は、例えば、対象の人物に対する詐欺行為が発生したことを示す通知を、情報処理装置100から受信する。アラート出力装置203は、例えば、対象の人物に対する詐欺行為が発生したことを示す通知を受信したことに応じて、対象の人物に対する詐欺行為が発生したことを示すアラートを出力する。 The alert output device 203 is a computer that outputs an alert indicating that a fraudulent act has occurred against a target person. The alert output device 203 receives, for example, a notification from the information processing device 100 indicating that a fraudulent act against a target person has occurred. The alert output device 203 outputs an alert indicating that a fraudulent act against the target person has occurred, for example, in response to receiving a notification indicating that a fraudulent act against the target person has occurred.

アラート出力装置203は、具体的には、対象の人物に対する詐欺行為が発生したことを示すアラートを、特定の人物または特定の組織宛てに出力する。特定の人物は、例えば、対象の人物本人、または、対象の人物の近親者などである。特定の組織は、例えば、警察、金融機関、警備会社、または、介護施設などである。アラート出力装置203は、例えば、PC、タブレット端末、スマートフォン、ウェアラブル端末、または、スマートスピーカーなどである。 Specifically, the alert output device 203 outputs, to a specific person or a specific organization, an alert indicating that a fraudulent act has occurred against the target person. The specific person is, for example, the target person himself or a close relative of the target person. The specific organization is, for example, the police, a financial institution, a security company, or a nursing home. The alert output device 203 is, for example, a PC, a tablet terminal, a smartphone, a wearable terminal, or a smart speaker.

ここでは、情報処理装置100と、音声データ取得装置201とが異なる装置である場合について説明したが、これに限らない。例えば、情報処理装置100が、音声データ取得装置201としての機能を有し、音声データ取得装置201としても動作する場合があってもよい。 Although the case where the information processing device 100 and the audio data acquisition device 201 are different devices has been described here, the present invention is not limited to this. For example, the information processing device 100 may have a function as the audio data acquisition device 201 and also operate as the audio data acquisition device 201.

ここでは、情報処理装置100と、生体データ取得装置202とが異なる装置である場合について説明したが、これに限らない。例えば、情報処理装置100が、生体データ取得装置202としての機能を有し、生体データ取得装置202としても動作する場合があってもよい。 Although the case where the information processing device 100 and the biometric data acquisition device 202 are different devices has been described here, the present invention is not limited to this. For example, the information processing device 100 may have a function as the biometric data acquisition device 202 and may also operate as the biometric data acquisition device 202.

ここでは、情報処理装置100と、アラート出力装置203とが異なる装置である場合について説明したが、これに限らない。例えば、情報処理装置100が、アラート出力装置203としての機能を有し、アラート出力装置203としても動作する場合があってもよい。 Although the case where the information processing device 100 and the alert output device 203 are different devices has been described here, the present invention is not limited to this. For example, the information processing device 100 may have a function as the alert output device 203 and may also operate as the alert output device 203.

ここでは、音声データ取得装置201と、生体データ取得装置202とが異なる装置である場合について説明したが、これに限らない。例えば、音声データ取得装置201が、生体データ取得装置202としての機能を有し、生体データ取得装置202としても動作する場合があってもよい。 Although the case where the audio data acquisition device 201 and the biometric data acquisition device 202 are different devices has been described here, the present invention is not limited to this. For example, the audio data acquisition device 201 may have a function as the biometric data acquisition device 202 and also operate as the biometric data acquisition device 202.

ここでは、音声データ取得装置201と、アラート出力装置203とが異なる装置である場合について説明したが、これに限らない。例えば、音声データ取得装置201が、アラート出力装置203としての機能を有し、アラート出力装置203としても動作する場合があってもよい。 Although the case where the audio data acquisition device 201 and the alert output device 203 are different devices has been described here, the present invention is not limited to this. For example, the audio data acquisition device 201 may have a function as the alert output device 203 and may also operate as the alert output device 203.

ここでは、生体データ取得装置202と、アラート出力装置203とが異なる装置である場合について説明したが、これに限らない。例えば、生体データ取得装置202が、アラート出力装置203としての機能を有し、アラート出力装置203としても動作する場合があってもよい。 Although the case where the biometric data acquisition device 202 and the alert output device 203 are different devices has been described here, the present invention is not limited to this. For example, the biological data acquisition device 202 may have a function as the alert output device 203 and may also operate as the alert output device 203.

(情報処理システム200の適用例)
次に、図3および図4を用いて、情報処理システム200の適用例について説明する。
(Application example of information processing system 200)
Next, an application example of the information processing system 200 will be described using FIGS. 3 and 4.

図3は、情報処理システム200の第1の適用例を示す説明図である。図3において、詐欺行為から保護する対象の人物となるユーザ301は、スマートフォン310を有する。ユーザ301は、例えば、ユーザ301の自宅などに居る。ユーザ301は、例えば、外出していてもよい。情報処理システム200は、ユーザ301が、スマートフォン310を介して、他の人物と会話する場合に対して適用することができる。他の人物は、例えば、詐欺師302である。 FIG. 3 is an explanatory diagram showing a first application example of the information processing system 200. In FIG. 3, a user 301 who is a person to be protected from fraud has a smartphone 310. The user 301 is, for example, at his or her home. The user 301 may be away from home, for example. The information processing system 200 can be applied to a case where the user 301 has a conversation with another person via the smartphone 310. The other person is, for example, a fraudster 302.

この場合、例えば、スマートフォン310が、情報処理装置100としての機能、音声データ取得装置201としての機能、生体データ取得装置202としての機能、および、アラート出力装置203としての機能を実現することになる。 In this case, for example, the smartphone 310 realizes the functions of the information processing device 100, the voice data acquisition device 201, the biological data acquisition device 202, and the alert output device 203. .

スマートフォン310は、例えば、マイクを有し、ユーザ301の通話時、マイクを用いて、ユーザ301の会話を示す音声データを取得することにより、音声データ取得装置201としての機能を実現する。スマートフォン310は、例えば、側面に生体センサ311を有し、ユーザ301の通話時、ユーザ301の手に接触した生体センサ311を用いて、ユーザ301の生体データを取得することにより、生体データ取得装置202としての機能を実現する。 The smartphone 310 has, for example, a microphone, and when the user 301 makes a call, uses the microphone to acquire voice data indicating the conversation of the user 301, thereby realizing the function as the voice data acquisition device 201. For example, the smartphone 310 has a biosensor 311 on the side, and when the user 301 is on the phone, the biometric sensor 311 that comes into contact with the user's 301 hand is used to acquire the biometric data of the user 301, thereby acting as a biometric data acquisition device. 202.

スマートフォン310は、例えば、音声データと、生体データとに基づいて、対象の人物に対する犯罪行為の発生状況を評価し、対象の人物に対する詐欺行為が発生したか否かを判定することにより、情報処理装置100としての機能を実現する。スマートフォン310は、例えば、対象の人物に対する詐欺行為が発生したと判定した場合、対象の人物に対する詐欺行為が発生したことを示すアラートを出力することにより、アラート出力装置203としての機能を実現する。これにより、情報処理システム200は、ユーザ301が、スマートフォン310を介して、詐欺師と会話する場合において、詐欺行為による詐欺被害を防止し易くすることができる。次に、図4の説明に移行する。 For example, the smartphone 310 performs information processing by evaluating the occurrence of a criminal act against a target person based on voice data and biometric data, and determining whether a fraudulent act against the target person has occurred. The functions of the device 100 are realized. For example, when it is determined that a fraudulent act against the target person has occurred, the smartphone 310 realizes the function as the alert output device 203 by outputting an alert indicating that a fraudulent act against the target person has occurred. Thereby, the information processing system 200 can easily prevent damage caused by fraud when the user 301 converses with a fraudster via the smartphone 310. Next, the description will move on to FIG. 4.

図4は、情報処理システム200の第2の適用例を示す説明図である。図4において、詐欺行為から保護する対象の人物となるユーザ401は、ウェアラブル端末411を装着する。また、ユーザ401の近傍に、スマートスピーカー412が存在するとする。ユーザ401は、例えば、ユーザ401の自宅などに居る。 FIG. 4 is an explanatory diagram showing a second application example of the information processing system 200. In FIG. 4, a user 401 who is a person to be protected from fraud wears a wearable terminal 411. Further, it is assumed that a smart speaker 412 exists near the user 401. The user 401 is, for example, at his or her home.

また、ウェアラブル端末411、および、スマートスピーカー412と通信可能なサーバ413が存在するとする。また、ユーザ401の関係者403は、スマートフォン414を有するとする。関係者403は、例えば、ユーザ401の近親者などである。関係者403は、例えば、関係者403の自宅である関係者宅などに居る。情報処理システム200は、ユーザ401が、固定電話機415を介して、他の人物と会話する場合に対して適用することができる。他の人物は、例えば、詐欺師402である。 Further, it is assumed that there is a server 413 that can communicate with the wearable terminal 411 and the smart speaker 412. Further, it is assumed that a person 403 related to the user 401 has a smartphone 414. The related person 403 is, for example, a close relative of the user 401. The person concerned 403 is, for example, at the person's house, which is the home of the person concerned 403 . The information processing system 200 can be applied to a case where the user 401 has a conversation with another person via the landline telephone 415. The other person is, for example, a fraudster 402.

この場合、例えば、サーバ413が、情報処理装置100としての機能を実現することになる。サーバ413は、例えば、情報処理システム200を管理する管理会社などに設けられる。また、スマートスピーカー412が、音声データ取得装置201としての機能を実現することになる。また、ウェアラブル端末411が、生体データ取得装置202としての機能を実現することになる。また、スマートフォン414が、アラート出力装置203としての機能を実現することになる。 In this case, for example, the server 413 will realize the function of the information processing device 100. The server 413 is provided, for example, at a management company that manages the information processing system 200. Furthermore, the smart speaker 412 realizes the function of the audio data acquisition device 201. Furthermore, the wearable terminal 411 realizes the function of the biometric data acquisition device 202. Furthermore, the smartphone 414 will realize the function of the alert output device 203.

スマートスピーカー412は、例えば、マイクを有し、ユーザ401の通話時、マイクを用いて、ユーザ401の会話を示す音声データを取得することにより、音声データ取得装置201としての機能を実現する。スマートスピーカー412は、例えば、取得した音声データを、サーバ413に送信する。 The smart speaker 412 has, for example, a microphone, and when the user 401 is talking, uses the microphone to acquire voice data indicating the conversation of the user 401, thereby realizing the function as the voice data acquisition device 201. For example, the smart speaker 412 transmits the acquired audio data to the server 413.

ウェアラブル端末411は、例えば、生体センサを有し、ユーザ401の通話時、ユーザ401の手に接触した生体センサを用いて、ユーザ401の生体データを取得することにより、生体データ取得装置202としての機能を実現する。ウェアラブル端末411は、例えば、取得した生体データを、サーバ413に送信する。 The wearable terminal 411 has a biosensor, for example, and functions as the biometric data acquisition device 202 by acquiring the biometric data of the user 401 using the biosensor that comes into contact with the user's 401 hand during the user's 401 call. Achieve functionality. Wearable terminal 411 transmits the acquired biometric data to server 413, for example.

サーバ413は、例えば、音声データと、生体データとに基づいて、対象の人物に対する犯罪行為の発生状況を評価し、対象の人物に対する詐欺行為が発生したか否かを判定することにより、情報処理装置100としての機能を実現する。サーバ413は、例えば、対象の人物に対する詐欺行為が発生したと判定した場合、対象の人物に対する詐欺行為が発生したことを示す通知を、スマートフォン414に送信する。 The server 413 performs information processing by, for example, evaluating the occurrence of a criminal act against a target person based on voice data and biometric data, and determining whether a fraudulent act against the target person has occurred. The functions of the device 100 are realized. For example, if the server 413 determines that a fraudulent act against the target person has occurred, it transmits a notification to the smartphone 414 indicating that a fraudulent act against the target person has occurred.

スマートフォン414は、例えば、対象の人物に対する詐欺行為が発生したことを示す通知を受信したことに応じて、対象の人物に対する詐欺行為が発生したことを示すアラートを出力することにより、アラート出力装置203としての機能を実現する。これにより、情報処理システム200は、ユーザ401が、固定電話機415を介して、詐欺師402と会話する場合において、詐欺行為による詐欺被害を防止し易くすることができる。 For example, in response to receiving a notification indicating that a fraudulent act against the target person has occurred, the smartphone 414 outputs an alert indicating that a fraudulent act against the target person has occurred, thereby controlling the alert output device 203. Realize the function as Thereby, the information processing system 200 can easily prevent damage caused by fraud when the user 401 converses with the fraudster 402 via the landline telephone 415.

情報処理システム200は、例えば、ユーザ401に対する詐欺行為が発生したと判定した場合、関係者403が、ユーザ401に対する詐欺行為が発生したことを把握可能にすることができる。このため、情報処理システム200は、関係者403が、詐欺行為による詐欺被害を防止するために、ユーザ401に連絡を取ったり、警察または銀行に連絡を取ったりするような対策を素早く実施し易くすることができる。 For example, when the information processing system 200 determines that a fraudulent act against the user 401 has occurred, the information processing system 200 can enable the person concerned 403 to understand that a fraudulent act against the user 401 has occurred. Therefore, the information processing system 200 makes it easy for the person concerned 403 to quickly take measures such as contacting the user 401, contacting the police, or the bank in order to prevent damage caused by fraudulent acts. can do.

ここでは、ユーザ401の関係者403が有するスマートフォン414が、アラート出力装置203としての機能を実現する場合について説明したが、これに限らない。例えば、警察または銀行に設置されたサーバまたはPCなどのコンピュータが、アラート出力装置203としての機能を実現する場合があってもよい。 Here, a case has been described in which the smartphone 414 owned by the person 403 associated with the user 401 realizes the function as the alert output device 203, but the present invention is not limited to this. For example, a computer such as a server or a PC installed at a police station or a bank may function as the alert output device 203.

ここでは、詐欺師402が、電話を介して詐欺行為を行おうとする状況に対して、情報処理システム200を適用する場合について説明したが、これに限らない。例えば、詐欺師402が、ユーザ401と対面して、詐欺行為を行おうとする状況に対して、情報処理システム200を適用する場合があってもよい。 Here, a case has been described in which the information processing system 200 is applied to a situation where the fraudster 402 attempts to commit fraud via the telephone, but the present invention is not limited to this. For example, the information processing system 200 may be applied to a situation in which a fraudster 402 attempts to commit fraud while facing a user 401.

(情報処理装置100のハードウェア構成例)
次に、図5を用いて、情報処理装置100のハードウェア構成例について説明する。
(Example of hardware configuration of information processing device 100)
Next, an example of the hardware configuration of the information processing device 100 will be described using FIG. 5.

図5は、情報処理装置100のハードウェア構成例を示すブロック図である。図5において、情報処理装置100は、CPU(Central Processing Unit)501と、メモリ502と、ネットワークI/F(Interface)503と、記録媒体I/F504と、記録媒体505とを有する。また、各構成部は、バス500によってそれぞれ接続される。 FIG. 5 is a block diagram showing an example of the hardware configuration of the information processing device 100. In FIG. 5, the information processing device 100 includes a CPU (Central Processing Unit) 501, a memory 502, a network I/F (Interface) 503, a recording medium I/F 504, and a recording medium 505. Further, each component is connected to each other by a bus 500.

ここで、CPU501は、情報処理装置100の全体の制御を司る。メモリ502は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)およびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU501のワークエリアとして使用される。メモリ502に記憶されるプログラムは、CPU501にロードされることにより、コーディングされている処理をCPU501に実行させる。メモリ502は、例えば、図6に後述するフィルタ情報管理テーブル600と、図7に後述する感情パターン情報管理テーブル700と、図8に後述する生体パターン情報管理テーブル800とを記憶する。 Here, the CPU 501 is in charge of overall control of the information processing apparatus 100. The memory 502 includes, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), and a flash ROM. Specifically, for example, a flash ROM or ROM stores various programs, and a RAM is used as a work area for the CPU 501. The program stored in the memory 502 is loaded into the CPU 501 and causes the CPU 501 to execute the coded processing. The memory 502 stores, for example, a filter information management table 600 that will be described later in FIG. 6, an emotional pattern information management table 700 that will be described later in FIG. 7, and a biometric pattern information management table 800 that will be described later in FIG.

ネットワークI/F503は、通信回線を通じてネットワーク210に接続され、ネットワーク210を介して他のコンピュータに接続される。そして、ネットワークI/F503は、ネットワーク210と内部のインターフェースを司り、他のコンピュータからのデータの入出力を制御する。ネットワークI/F503は、例えば、モデムやLANアダプタなどである。 Network I/F 503 is connected to network 210 through a communication line, and connected to other computers via network 210. The network I/F 503 serves as an internal interface with the network 210, and controls data input/output from other computers. The network I/F 503 is, for example, a modem or a LAN adapter.

記録媒体I/F504は、CPU501の制御に従って記録媒体505に対するデータのリード/ライトを制御する。記録媒体I/F504は、例えば、ディスクドライブ、SSD(Solid State Drive)、USB(Universal Serial Bus)ポートなどである。記録媒体505は、記録媒体I/F504の制御で書き込まれたデータを記憶する不揮発メモリである。記録媒体505は、例えば、ディスク、半導体メモリ、USBメモリなどである。記録媒体505は、情報処理装置100から着脱可能であってもよい。 The recording medium I/F 504 controls reading/writing of data to/from the recording medium 505 under the control of the CPU 501 . The recording medium I/F 504 is, for example, a disk drive, an SSD (Solid State Drive), a USB (Universal Serial Bus) port, or the like. The recording medium 505 is a nonvolatile memory that stores data written under the control of the recording medium I/F 504. The recording medium 505 is, for example, a disk, a semiconductor memory, a USB memory, or the like. The recording medium 505 may be removable from the information processing apparatus 100.

情報処理装置100は、上述した構成部の他、例えば、キーボード、マウス、プリンタ、または、スキャナなどを有してもよい。また、情報処理装置100は、記録媒体I/F504や記録媒体505を複数有していてもよい。また、情報処理装置100は、記録媒体I/F504や記録媒体505を有していなくてもよい。 In addition to the components described above, the information processing device 100 may include, for example, a keyboard, a mouse, a printer, a scanner, or the like. Furthermore, the information processing apparatus 100 may include a plurality of recording medium I/Fs 504 and recording media 505. Furthermore, the information processing apparatus 100 does not need to have the recording medium I/F 504 or the recording medium 505.

また、情報処理装置100は、上述した構成部の他、図9に後述する音声センサ906に対応する構成部を有していてもよい。また、情報処理装置100は、上述した構成部の他、図9に後述する生体センサ907に対応する構成部を有していてもよい。また、情報処理装置100は、上述した構成部の他、図9に後述する出力装置908に対応する構成部を有していてもよい。 In addition to the above-described components, the information processing device 100 may include a component corresponding to an audio sensor 906, which will be described later in FIG. Further, the information processing device 100 may include a component corresponding to a biosensor 907, which will be described later in FIG. 9, in addition to the components described above. Further, the information processing apparatus 100 may include a component corresponding to an output device 908, which will be described later in FIG. 9, in addition to the component described above.

(フィルタ情報管理テーブル600の記憶内容)
次に、図6を用いて、フィルタ情報管理テーブル600の記憶内容の一例について説明する。フィルタ情報管理テーブル600は、例えば、図5に示した情報処理装置100のメモリ502や記録媒体505などの記憶領域により実現される。
(Stored contents of filter information management table 600)
Next, an example of the stored contents of the filter information management table 600 will be explained using FIG. 6. The filter information management table 600 is realized, for example, by a storage area such as the memory 502 or the recording medium 505 of the information processing apparatus 100 shown in FIG.

図6は、フィルタ情報管理テーブル600の記憶内容の一例を示す説明図である。図6に示すように、フィルタ情報管理テーブル600は、音声パターンと、種類と、フィルタとのフィールドを有する。フィルタ情報管理テーブル600は、音声パターンごとに各フィールドに情報を設定することにより、フィルタ情報がレコード600-aとして記憶される。aは、任意の整数である。 FIG. 6 is an explanatory diagram showing an example of the stored contents of the filter information management table 600. As shown in FIG. 6, the filter information management table 600 has fields for voice pattern, type, and filter. In the filter information management table 600, filter information is stored as a record 600-a by setting information in each field for each voice pattern. a is any integer.

音声パターンのフィールドには、対象の人物が会話中の期間を複数の区間に分類して当該区間に発話属性を割り振るための条件を示す音声パターンが設定される。音声パターンは、区間に割り振る発話属性を特定可能にする。音声パターンは、例えば、発話属性に対応する音声データが示す会話音声の特徴を示す。音声パターンは、具体的には、発話属性に対応するキーワードを示す。音声パターンは、具体的には、発話属性に対応する音声のトーン、声量、または、波長などを示していてもよい。 In the voice pattern field, a voice pattern indicating conditions for classifying the period during which the target person is having a conversation into a plurality of sections and assigning speech attributes to the sections is set. The voice pattern makes it possible to specify the utterance attributes to be assigned to the sections. The voice pattern indicates, for example, the characteristics of the conversational voice indicated by the voice data corresponding to the utterance attribute. Specifically, the voice pattern indicates a keyword corresponding to an utterance attribute. Specifically, the voice pattern may indicate the tone, volume, wavelength, etc. of the voice corresponding to the speech attribute.

音声パターンのフィールドには、具体的には、「沈黙」に対応する音声パターン、または、「相槌」に対応する音声パターンなどが設定される。音声パターンのフィールドには、具体的には、「発話」に対応する音声パターンなどが設定されていてもよい。「発話」に対応する音声パターンは、特定のキーワードではなく、特定の音声のトーン、声量、または、波長などではなく、「沈黙」に対応する音声パターン、および、「相槌」に対応する音声パターンに合致しないことを示していてもよい。 Specifically, in the voice pattern field, a voice pattern corresponding to "silence" or a voice pattern corresponding to "agoushu" is set. Specifically, a voice pattern corresponding to "utterance" may be set in the voice pattern field. The speech pattern corresponding to "speech" is not a specific keyword, nor is it a specific tone, volume, or wavelength of speech, but rather a speech pattern corresponding to "silence" and a speech pattern corresponding to "agoushu". It may also indicate that it does not match.

種類のフィールドには、上記発話属性の種類が設定される。種類のフィールドには、例えば、対象の人物が会話中の期間のうち、上記音声パターンに対応する区間に割り振る発話属性の種類が設定される。フィルタのフィールドには、上記音声パターンに対応する区間における生体データに適用するフィルタが設定される。フィルタは、例えば、生体データのノイズを除去する機能を有する。 The type of the utterance attribute is set in the type field. In the type field, for example, the type of speech attribute to be assigned to the section corresponding to the voice pattern during the conversation of the target person is set. A filter to be applied to the biometric data in the section corresponding to the voice pattern is set in the filter field. The filter has, for example, a function of removing noise from biometric data.

(感情パターン情報管理テーブル700の記憶内容)
次に、図7を用いて、感情パターン情報管理テーブル700の記憶内容の一例について説明する。感情パターン情報管理テーブル700は、例えば、図5に示した情報処理装置100のメモリ502や記録媒体505などの記憶領域により実現される。
(Memory contents of emotion pattern information management table 700)
Next, an example of the contents stored in the emotional pattern information management table 700 will be explained using FIG. 7. The emotional pattern information management table 700 is realized, for example, by a storage area such as the memory 502 or the recording medium 505 of the information processing apparatus 100 shown in FIG.

図7は、感情パターン情報管理テーブル700の記憶内容の一例を示す説明図である。図7に示すように、感情パターン情報管理テーブル700は、感情パターンと、判定結果とのフィールドを有する。感情パターン情報管理テーブル700は、感情パターンごとに各フィールドに情報を設定することにより、感情パターン情報がレコード700-bとして記憶される。bは、任意の整数である。 FIG. 7 is an explanatory diagram showing an example of the stored contents of the emotional pattern information management table 700. As shown in FIG. 7, the emotion pattern information management table 700 has fields for emotion patterns and determination results. In the emotional pattern information management table 700, emotional pattern information is stored as a record 700-b by setting information in each field for each emotional pattern. b is an arbitrary integer.

感情パターンのフィールドには、詐欺行為の発生状況を評価する基準を示す感情パターンが設定される。感情パターンは、例えば、複数の区間のそれぞれの区間における対象の人物の感情の特徴値の組み合わせのパターンである。判定結果のフィールドには、複数の区間のそれぞれの区間について、実際に特定した対象の人物の感情の特徴値の組み合わせのパターンが、上記感情パターンに該当する場合に対応する、詐欺行為の発生状況の解となる判定結果が設定される。 In the field of emotion pattern, an emotion pattern indicating a standard for evaluating the occurrence of fraud is set. The emotion pattern is, for example, a pattern of combinations of characteristic values of emotions of a target person in each of a plurality of intervals. In the judgment result field, for each of the multiple intervals, the occurrence situation of fraud corresponding to the case where the pattern of the combination of characteristic values of the emotions of the actually identified target person corresponds to the above emotion pattern is displayed. The determination result that is the solution is set.

例えば、レコード700-bは、具体的には、複数の発話区間のそれぞれの発話区間における対象の人物の感情の特徴値が、先頭からポジティブ、ネガティブ、ポジティブの順序の組み合わせである場合に、詐欺行為が発生したと評価するといった規則を示す。 For example, record 700-b specifies that the target person's emotion characteristic values in each of the plurality of speech sections are a combination of positive, negative, and positive from the beginning. Indicates rules such as evaluating that an act has occurred.

(生体パターン情報管理テーブル800の記憶内容)
次に、図8を用いて、生体パターン情報管理テーブル800の記憶内容の一例について説明する。生体パターン情報管理テーブル800は、例えば、図5に示した情報処理装置100のメモリ502や記録媒体505などの記憶領域により実現される。
(Stored contents of biometric pattern information management table 800)
Next, an example of the stored contents of the biometric pattern information management table 800 will be described using FIG. 8. The biometric pattern information management table 800 is realized, for example, by a storage area such as the memory 502 or the recording medium 505 of the information processing apparatus 100 shown in FIG.

図8は、生体パターン情報管理テーブル800の記憶内容の一例を示す説明図である。図8に示すように、生体パターン情報管理テーブル800は、生体パターンと、判定結果とのフィールドを有する。生体パターン情報管理テーブル800は、生体パターンごとに各フィールドに情報を設定することにより、生体パターン情報がレコード800-cとして記憶される。cは、任意の整数である。 FIG. 8 is an explanatory diagram showing an example of the stored contents of the biometric pattern information management table 800. As shown in FIG. 8, the biometric pattern information management table 800 has fields for biometric patterns and determination results. In the biometric pattern information management table 800, biometric pattern information is stored as a record 800-c by setting information in each field for each biometric pattern. c is any integer.

生体パターンのフィールドには、詐欺行為の発生状況を評価する基準を示す生体パターンが設定される。生体パターンは、例えば、複数の区間のそれぞれの区間における対象の人物の生体的な特徴値の組み合わせのパターンである。生体パターンは、例えば、複数の区間のそれぞれの区間における対象の人物の生体的な特徴値の統計値の組み合わせのパターンであってもよい。生体パターンは、例えば、ある区間における対象の人物の生体的な特徴値の時間変化のパターンであってもよい。 In the biometric pattern field, a biometric pattern indicating a standard for evaluating the occurrence of fraud is set. The biological pattern is, for example, a pattern of combinations of biological characteristic values of a target person in each of a plurality of sections. The biological pattern may be, for example, a pattern of a combination of statistical values of biological characteristic values of the target person in each of a plurality of sections. The biological pattern may be, for example, a pattern of temporal changes in biological characteristic values of a target person in a certain section.

判定結果のフィールドには、複数の区間のそれぞれの区間について、実際に特定した対象の人物の生体的な特徴値の組み合わせのパターンが、上記生体パターンに該当する場合に対応する、詐欺行為の発生状況の解となる判定結果が設定される。判定結果のフィールドには、複数の区間のそれぞれの区間について、実際に特定した対象の人物の生体的な特徴値の統計値の組み合わせのパターンが、上記生体パターンに該当する場合に対応する、詐欺行為の発生状況の解となる判定結果が設定される。判定結果のフィールドには、ある区間について、実際に特定した対象の人物の生体的な特徴値の時間変化のパターンが、上記生体パターンに該当する場合に対応する、詐欺行為の発生状況の解となる判定結果が設定されていてもよい。 In the judgment result field, for each of the multiple sections, the occurrence of fraud corresponding to the case where the pattern of combination of biometric feature values of the target person actually identified corresponds to the above biometric pattern. A determination result that is a solution to the situation is set. In the judgment result field, for each of the multiple sections, if the pattern of the combination of the statistical values of the biometric feature values of the target person actually identified corresponds to the above biometric pattern, the fraud A determination result that is a solution to the situation in which the act occurs is set. In the judgment result field, the solution to the occurrence of fraud corresponding to the case where the pattern of time change of the biological characteristic values of the actually identified target person corresponds to the above biological pattern for a certain interval is displayed. A determination result may be set.

例えば、レコード800-cは、具体的には、ある区間について、実際に特定した対象の人物の生体的な特徴値の時間変化のパターンが、単調増加を示す生体パターンに合致する場合に、詐欺行為が発生したと評価するといった規則を示す。 For example, record 800-c specifies that if the pattern of time change in the biometric feature values of the actually identified target person matches the biometric pattern showing a monotonous increase in a certain interval, Indicates rules such as evaluating that an act has occurred.

(音声データ取得装置201のハードウェア構成例)
次に、図9を用いて、音声データ取得装置201のハードウェア構成例について説明する。
(Example of hardware configuration of audio data acquisition device 201)
Next, an example of the hardware configuration of the audio data acquisition device 201 will be described using FIG. 9.

図9は、音声データ取得装置201のハードウェア構成例を示すブロック図である。図9において、音声データ取得装置201は、CPU901と、メモリ902と、ネットワークI/F903と、記録媒体I/F904と、記録媒体905と、音声センサ906と、生体センサ907と、出力装置908とを有する。また、各構成部は、バス900によってそれぞれ接続される。 FIG. 9 is a block diagram showing an example of the hardware configuration of the audio data acquisition device 201. In FIG. 9, the audio data acquisition device 201 includes a CPU 901, a memory 902, a network I/F 903, a recording medium I/F 904, a recording medium 905, an audio sensor 906, a biological sensor 907, and an output device 908. has. Further, each component is connected to each other by a bus 900.

ここで、CPU901は、音声データ取得装置201の全体の制御を司る。メモリ902は、例えば、ROM、RAMおよびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU901のワークエリアとして使用される。メモリ902に記憶されるプログラムは、CPU901にロードされることにより、コーディングされている処理をCPU901に実行させる。 Here, the CPU 901 is in charge of overall control of the audio data acquisition device 201. Memory 902 includes, for example, ROM, RAM, flash ROM, and the like. Specifically, for example, a flash ROM or ROM stores various programs, and a RAM is used as a work area for the CPU 901. The program stored in the memory 902 is loaded into the CPU 901 and causes the CPU 901 to execute the coded processing.

ネットワークI/F903は、通信回線を通じてネットワーク210に接続され、ネットワーク210を介して他のコンピュータに接続される。そして、ネットワークI/F903は、ネットワーク210と内部のインターフェースを司り、他のコンピュータからのデータの入出力を制御する。ネットワークI/F903は、例えば、モデムやLANアダプタなどである。 Network I/F 903 is connected to network 210 through a communication line, and connected to other computers via network 210. The network I/F 903 serves as an internal interface with the network 210, and controls data input/output from other computers. The network I/F 903 is, for example, a modem or a LAN adapter.

記録媒体I/F904は、CPU901の制御に従って記録媒体905に対するデータのリード/ライトを制御する。記録媒体I/F904は、例えば、ディスクドライブ、SSD、USBポートなどである。記録媒体905は、記録媒体I/F904の制御で書き込まれたデータを記憶する不揮発メモリである。記録媒体905は、例えば、ディスク、半導体メモリ、USBメモリなどである。記録媒体905は、音声データ取得装置201から着脱可能であってもよい。 The recording medium I/F 904 controls reading/writing of data to/from the recording medium 905 under the control of the CPU 901 . The recording medium I/F 904 is, for example, a disk drive, an SSD, a USB port, or the like. The recording medium 905 is a nonvolatile memory that stores data written under the control of the recording medium I/F 904. The recording medium 905 is, for example, a disk, a semiconductor memory, a USB memory, or the like. The recording medium 905 may be removable from the audio data acquisition device 201.

音声センサ906は、音声を検出するマイクを有し、マイクを用いて対象の人物に関する音声を検出することにより、検出した音声を示す音声データを取得する。音声センサ906は、例えば、マイクを用いて検出した、対象の人物と他の人物との会話音声を示す音声データを生成することにより取得する。 The audio sensor 906 has a microphone that detects audio, and acquires audio data indicating the detected audio by detecting audio related to the target person using the microphone. The audio sensor 906 obtains audio data by generating audio data indicating conversational audio between the target person and another person, detected using a microphone, for example.

生体センサ907は、対象の人物の生体データを取得する。生体センサ907は、例えば、心拍数、脈拍数、発汗量、または、体温などに関する対象の人物の生体的な特徴値を計測し、計測した生体的な特徴値の時間変化を示す生体データを生成することにより取得する。生体センサ907は、例えば、撮像装置を含み、撮像装置で撮像した対象の人物の画像情報に基づいて、心拍数、脈拍数、発汗量、または、体温などに関する対象の人物の生体的な特徴値を計測していてもよい。生体センサ907は、例えば、ミリ波センサを含み、ミリ波センサを用いて、心拍数、脈拍数、発汗量、または、体温などに関する対象の人物の生体的な特徴値を計測していてもよい。 A biosensor 907 acquires biometric data of a target person. The biosensor 907 measures biological characteristic values of a target person, such as heart rate, pulse rate, amount of perspiration, or body temperature, and generates biological data indicating changes over time in the measured biological characteristic values. Obtain by doing. The biosensor 907 includes, for example, an imaging device, and determines biological characteristic values of the target person regarding heart rate, pulse rate, amount of perspiration, body temperature, etc. based on image information of the target person captured by the imaging device. may be measured. The biosensor 907 includes, for example, a millimeter wave sensor, and the millimeter wave sensor may be used to measure biological characteristic values of the target person, such as heart rate, pulse rate, amount of perspiration, or body temperature. .

出力装置908は、スピーカーまたはディスプレイを含む。出力装置908は、スピーカーまたはディスプレイを用いて、音声、文書、または、画像などのデータを出力する。出力装置908は、例えば、詐欺行為が発生したことを示すアラートを出力する。ディスプレイは、例えば、CRT(Cathode Ray Tube)、液晶ディスプレイ、有機EL(Electroluminescence)ディスプレイなどである。 Output device 908 includes a speaker or a display. The output device 908 outputs data such as audio, documents, or images using a speaker or a display. The output device 908 outputs, for example, an alert indicating that a fraudulent act has occurred. Examples of the display include a CRT (Cathode Ray Tube), a liquid crystal display, and an organic EL (Electroluminescence) display.

音声データ取得装置201は、上述した構成部の他、例えば、キーボード、マウス、プリンタ、または、スキャナなどを有してもよい。また、音声データ取得装置201は、記録媒体I/F904や記録媒体905を複数有していてもよい。また、音声データ取得装置201は、記録媒体I/F904や記録媒体905を有していなくてもよい。 The audio data acquisition device 201 may include, for example, a keyboard, a mouse, a printer, a scanner, etc. in addition to the components described above. Further, the audio data acquisition device 201 may have a plurality of recording medium I/Fs 904 and recording media 905. Furthermore, the audio data acquisition device 201 does not need to have the recording medium I/F 904 or the recording medium 905.

(生体データ取得装置202のハードウェア構成例)
生体データ取得装置202のハードウェア構成例は、具体的には、図9に示した音声データ取得装置201のハードウェア構成例と同様であるため、説明を省略する。
(Example of hardware configuration of biological data acquisition device 202)
The hardware configuration example of the biometric data acquisition device 202 is specifically the same as the hardware configuration example of the audio data acquisition device 201 shown in FIG. 9, so the description thereof will be omitted.

(アラート出力装置203のハードウェア構成例)
アラート出力装置203のハードウェア構成例は、具体的には、図9に示した音声データ取得装置201のハードウェア構成例と同様であるため、説明を省略する。
(Example of hardware configuration of alert output device 203)
The hardware configuration example of the alert output device 203 is specifically the same as the hardware configuration example of the audio data acquisition device 201 shown in FIG. 9, so the description thereof will be omitted.

(情報処理装置100の機能的構成例)
次に、図10を用いて、情報処理装置100の機能的構成例について説明する。
(Functional configuration example of information processing device 100)
Next, an example of the functional configuration of the information processing device 100 will be described using FIG. 10.

図10は、情報処理装置100の機能的構成例を示すブロック図である。情報処理装置100は、記憶部1000と、取得部1001と、分類部1002と、加工部1003と、算出部1004と、判定部1005と、出力部1006とを含む。 FIG. 10 is a block diagram showing an example of the functional configuration of the information processing device 100. The information processing device 100 includes a storage unit 1000, an acquisition unit 1001, a classification unit 1002, a processing unit 1003, a calculation unit 1004, a determination unit 1005, and an output unit 1006.

記憶部1000は、例えば、図5に示したメモリ502や記録媒体505などの記憶領域によって実現される。以下では、記憶部1000が、情報処理装置100に含まれる場合について説明するが、これに限らない。例えば、記憶部1000が、情報処理装置100とは異なる装置に含まれ、記憶部1000の記憶内容が情報処理装置100から参照可能である場合があってもよい。 The storage unit 1000 is realized, for example, by a storage area such as the memory 502 or the recording medium 505 shown in FIG. 5. Although a case will be described below in which the storage unit 1000 is included in the information processing device 100, the present invention is not limited to this. For example, there may be a case where the storage unit 1000 is included in a device different from the information processing device 100, and the storage contents of the storage unit 1000 can be referenced from the information processing device 100.

取得部1001~出力部1006は、制御部の一例として機能する。取得部1001~出力部1006は、具体的には、例えば、図5に示したメモリ502や記録媒体505などの記憶領域に記憶されたプログラムをCPU501に実行させることにより、または、ネットワークI/F503により、その機能を実現する。各機能部の処理結果は、例えば、図5に示したメモリ502や記録媒体505などの記憶領域に記憶される。 The acquisition unit 1001 to output unit 1006 function as an example of a control unit. Specifically, the acquisition unit 1001 to the output unit 1006 execute the program by causing the CPU 501 to execute a program stored in a storage area such as the memory 502 or the recording medium 505 shown in FIG. This function is realized by The processing results of each functional unit are stored in a storage area such as the memory 502 or the recording medium 505 shown in FIG. 5, for example.

記憶部1000は、各機能部の処理において参照され、または更新される各種情報を記憶する。記憶部1000は、例えば、音声データを記憶する。記憶部1000は、具体的には、対象の期間における対象の人物の会話を示す音声データを取得する。対象の人物は、犯罪行為から保護することが望まれる人物である。 The storage unit 1000 stores various information that is referenced or updated in the processing of each functional unit. The storage unit 1000 stores, for example, audio data. Specifically, the storage unit 1000 acquires audio data indicating a conversation of a target person during a target period. The target person is a person who is desired to be protected from criminal activity.

犯罪行為は、例えば、詐欺行為である。犯罪行為は、具体的には、電話を介した詐欺行為である。犯罪行為は、具体的には、対象の人物と対面で行われる詐欺行為であってもよい。音声データは、例えば、電話を介した、対象の人物と他の人物との会話を示す。他の人物は、例えば、犯罪者である場合が考えられる。犯罪者は、例えば、詐欺師である。 The criminal act is, for example, fraud. Specifically, the criminal act is an act of fraud over the telephone. Specifically, the criminal act may be a fraudulent act performed face-to-face with the target person. The audio data indicates a conversation between the target person and another person, for example via telephone. The other person may be a criminal, for example. A criminal is, for example, a fraudster.

対象の期間は、例えば、対象の人物が会話中の期間である。会話中の期間は、例えば、通話中の期間に対応する。対象の期間は、具体的には、対象の人物の会話開始から、対象の人物の会話終了までの期間である。会話開始は、例えば、通話開始に対応する。会話終了は、例えば、通話終了に対応する。対象の期間は、具体的には、対象の人物の会話開始から、対象の人物の会話終了までの全体の期間に含まれる一部の期間であってもよい。音声データは、例えば、取得部1001によって取得される。 The target period is, for example, a period during which the target person is having a conversation. The period during a conversation corresponds to, for example, a period during a telephone call. Specifically, the target period is a period from the start of a conversation with the target person to the end of the conversation with the target person. The conversation start corresponds to, for example, the start of a phone call. The end of the conversation corresponds to the end of a phone call, for example. Specifically, the target period may be a part of the period included in the entire period from the start of the conversation of the target person to the end of the conversation of the target person. The audio data is acquired by the acquisition unit 1001, for example.

記憶部1000は、例えば、生体データを記憶する。記憶部1000は、具体的には、対象の期間における対象の人物の生体データを取得する。生体データは、例えば、対象の人物の生体的な特徴値の時間変化を示す。生体的な特徴値は、例えば、心拍、脈拍、体温、または、発汗などに関する特徴値である。生体的な特徴値は、具体的には、心拍数、脈拍数、体温、または、発汗量などである。生体データは、例えば、取得部1001によって取得される。 The storage unit 1000 stores, for example, biometric data. Specifically, the storage unit 1000 acquires biometric data of the target person during the target period. The biometric data indicates, for example, changes over time in biometric feature values of a target person. The biological characteristic value is, for example, a characteristic value related to heartbeat, pulse, body temperature, sweating, or the like. Specifically, the biological characteristic value is heart rate, pulse rate, body temperature, sweat amount, or the like. The biometric data is acquired by the acquisition unit 1001, for example.

記憶部1000は、例えば、対象の期間を、複数の区間に分類可能にする音声パターンを記憶する。複数の区間は、例えば、対象の人物が発話した発話区間と、対象の人物が他の人物の発話を聴取した聴取区間とを含む。発話区間は、具体的には、対象の人物が、相槌以外の発話内容を発話した区間である。 The storage unit 1000 stores, for example, a voice pattern that allows a target period to be classified into a plurality of sections. The plurality of sections include, for example, a speech section in which the target person speaks and a listening section in which the target person listens to the speech of another person. Specifically, the utterance section is a section in which the target person uttered utterance contents other than ``Aitsu''.

複数の区間は、例えば、対象の人物が沈黙した沈黙区間と、対象の人物が相槌した相槌区間とを含んでいてもよい。沈黙区間と、相槌区間とは、例えば、聴取区間に包含される。記憶部1000は、具体的には、発話属性ごとに音声パターンを記憶する。発話属性は、例えば、対象の人物が沈黙したことを示す「沈黙」、および、対象の人物が相槌したことを示す「相槌」などである。発話属性は、例えば、対象の人物が発話したことを示す「発話」などであってもよい。発話属性は、例えば、対象の人物が他の人物の発話を聴取したことを示す「聴取」などであってもよい。 The plurality of sections may include, for example, a silence section in which the target person is silent and a mutual agreement section in which the target person is in agreement. The silence section and the interlude section are included in the listening section, for example. Specifically, the storage unit 1000 stores voice patterns for each utterance attribute. The utterance attributes include, for example, "silence" indicating that the target person has been silent, and "shuzuchi" indicating that the target person has agreed. The utterance attribute may be, for example, "utterance" indicating that the target person has uttered the utterance. The utterance attribute may be, for example, "listening" indicating that the target person has listened to another person's utterance.

記憶部1000は、より具体的には、「沈黙」に対応する音声パターン、および、「相槌」に対応する音声パターンなどを記憶する。記憶部1000は、より具体的には、「発話」に対応する音声パターンを記憶していてもよい。記憶部1000は、より具体的には、「聴取」に対応する音声パターンを記憶していてもよい。音声パターンは、具体的には、発話属性に対応するキーワードを示す。音声パターンは、より具体的には、「相槌」に対応するキーワードを示す。音声パターンは、具体的には、発話属性に対応する音声のトーン、声量、または、波長などを示していてもよい。音声パターンは、より具体的には、対象の人物の声量の上限の閾値を、「沈黙」と対応付けて示していてもよい。記憶部1000は、「沈黙」に対応する音声パターン、および、「相槌」に対応する音声パターンに合致しないことを、「発話」に対応する音声パターンとして記憶していてもよい。記憶部1000は、より具体的には、図6に示したフィルタ情報管理テーブル600を記憶する。 More specifically, the storage unit 1000 stores a voice pattern corresponding to "silence", a voice pattern corresponding to "agoushu", and the like. More specifically, the storage unit 1000 may store voice patterns corresponding to "utterances". More specifically, the storage unit 1000 may store a voice pattern corresponding to "listening". Specifically, the voice pattern indicates a keyword corresponding to an utterance attribute. More specifically, the voice pattern indicates a keyword corresponding to "Aitsuchi". Specifically, the voice pattern may indicate the tone, volume, or wavelength of the voice corresponding to the speech attribute. More specifically, the voice pattern may indicate the upper limit threshold of the target person's voice volume in association with "silence." The storage unit 1000 may store the voice pattern corresponding to "silence" and the voice pattern corresponding to "speech" that do not match the voice pattern corresponding to "speech". More specifically, the storage unit 1000 stores the filter information management table 600 shown in FIG. 6.

記憶部1000は、例えば、1以上の音声パターンのそれぞれの音声パターンと、生体データからノイズを除去するノイズ除去処理の内容とを対応付けて記憶する。ノイズ除去処理は、例えば、フィルタを用いて実施される。記憶部1000は、具体的には、1以上の音声パターンのそれぞれの音声パターンと、生体データからノイズを除去するフィルタとを対応付けて記憶する。フィルタは、例えば、音声パターンに対応する発話傾向、または、音声パターンに対応する人物の動作傾向などに応じて、当該発話傾向または当該動作傾向に対応する大きさおよび種類のノイズを除去する。記憶部1000は、より具体的には、図6に示したフィルタ情報管理テーブル600を記憶する。 The storage unit 1000 stores, for example, each of one or more voice patterns in association with the content of noise removal processing for removing noise from biometric data. The noise removal process is performed using a filter, for example. Specifically, the storage unit 1000 stores each of one or more voice patterns in association with a filter for removing noise from biometric data. For example, the filter removes noise of a size and type corresponding to the speech tendency or the movement tendency of a person corresponding to the voice pattern, for example. More specifically, the storage unit 1000 stores the filter information management table 600 shown in FIG. 6.

記憶部1000は、例えば、犯罪行為の発生状況を評価可能にする情報を記憶する。記憶部1000は、具体的には、音声データに基づく特徴量の変化パターンと、当該変化パターンに対応する犯罪行為の発生状況の解とを対応付けた第1対応情報を記憶する。音声データに基づく特徴量は、例えば、人物の感情の1以上の特徴値、ある区間における人物の感情の特徴値の統計値、または、ある区間における人物の感情の特徴値の変化量などである。感情の特徴値は、例えば、心理状態を示す特徴値である。 The storage unit 1000 stores, for example, information that allows the occurrence of criminal acts to be evaluated. Specifically, the storage unit 1000 stores first correspondence information that associates a change pattern of feature amounts based on audio data with a solution of the occurrence situation of a criminal act corresponding to the change pattern. The feature amount based on the audio data is, for example, one or more feature values of a person's emotion, a statistical value of a feature value of a person's emotion in a certain section, or an amount of change in a characteristic value of a person's emotion in a certain section. . The emotion feature value is, for example, a feature value indicating a psychological state.

感情の特徴値は、例えば、対象の人物の感情がネガティブであるか、または、ポジティブであるかを示す。感情の特徴値は、例えば、対象の人物の感情が、喜び、怒り、悲しみ、残念、驚き、意欲的、または、消極的などであることを示していてもよい。感情の特徴値は、例えば、ストレス度合いなどであってもよい。変化パターンは、例えば、図7に示した感情パターンに対応する。解は、例えば、犯罪行為の発生有無である。記憶部1000は、より具体的には、図7に示した感情パターン情報管理テーブル700を記憶する。第1対応情報は、例えば、取得部1001によって取得される。第1対応情報は、例えば、予め記憶部1000に記憶されていてもよい。 The emotion feature value indicates, for example, whether the emotion of the target person is negative or positive. The emotion characteristic value may indicate, for example, that the emotion of the target person is joy, anger, sadness, regret, surprise, motivation, or reluctance. The characteristic value of emotion may be, for example, the degree of stress. The change pattern corresponds to the emotion pattern shown in FIG. 7, for example. The solution is, for example, whether a criminal act has occurred. More specifically, the storage unit 1000 stores the emotional pattern information management table 700 shown in FIG. 7. The first correspondence information is acquired by the acquisition unit 1001, for example. The first correspondence information may be stored in the storage unit 1000 in advance, for example.

記憶部1000は、具体的には、音声データに基づく特徴量の変化パターンの入力に応じて、当該変化パターンに対応する犯罪行為の発生状況の解を出力する第1モデルを記憶していてもよい。第1モデルは、例えば、取得部1001によって取得される。第1モデルは、例えば、予め記憶部1000に記憶されていてもよい。第1モデルは、例えば、教師データに基づいて学習されていてもよい。 Specifically, the storage unit 1000 may store a first model that outputs a solution to the occurrence situation of a criminal act corresponding to the change pattern in response to an input of a change pattern of feature amounts based on voice data. good. The first model is acquired by the acquisition unit 1001, for example. The first model may be stored in the storage unit 1000 in advance, for example. The first model may be trained based on teacher data, for example.

記憶部1000は、具体的には、生体データに基づく特徴量の変化パターンと、当該変化パターンに対応する犯罪行為の発生状況の解とを対応付けた第2対応情報を記憶する。生体データに基づく特徴量は、例えば、人物の生体的な1以上の特徴値、ある区間における人物の生体的な特徴値の統計値、または、ある区間における人物の生体的な特徴値の変化量などである。変化パターンは、例えば、図8に示した生体パターンに対応する。解は、例えば、犯罪行為の発生有無である。記憶部1000は、より具体的には、図8に示した生体パターン情報管理テーブル800を記憶する。第2対応情報は、例えば、取得部1001によって取得される。第2対応情報は、例えば、予め記憶部1000に記憶されていてもよい。 Specifically, the storage unit 1000 stores second correspondence information that associates a change pattern of a feature amount based on biometric data with a solution of the occurrence situation of a criminal act corresponding to the change pattern. The feature amount based on biometric data is, for example, one or more biometric feature values of a person, a statistical value of a person's biometric feature values in a certain section, or the amount of change in a person's biometric feature values in a certain section. etc. The change pattern corresponds to the biological pattern shown in FIG. 8, for example. The solution is, for example, whether a criminal act has occurred. More specifically, the storage unit 1000 stores the biometric pattern information management table 800 shown in FIG. 8. The second correspondence information is acquired by the acquisition unit 1001, for example. The second correspondence information may be stored in the storage unit 1000 in advance, for example.

記憶部1000は、具体的には、生体データに基づく特徴量の変化パターンの入力に応じて、当該変化パターンに対応する犯罪行為の発生状況の解を出力する第2モデルを記憶していてもよい。第2モデルは、例えば、取得部1001によって取得される。第2モデルは、例えば、予め記憶部1000に記憶されていてもよい。第2モデルは、例えば、教師データに基づいて学習されていてもよい。 Specifically, the storage unit 1000 may store a second model that outputs a solution to the occurrence situation of a criminal act corresponding to the change pattern in response to an input of a change pattern of the feature amount based on biometric data. good. The second model is acquired by the acquisition unit 1001, for example. The second model may be stored in the storage unit 1000 in advance, for example. The second model may be trained based on teacher data, for example.

記憶部1000は、具体的には、音声データに基づく特徴量の変化パターンと、生体データに基づく特徴量の変化パターンとの組み合わせと、当該組み合わせに対応する犯罪行為の発生状況の解とを対応付けた第3対応情報を記憶していてもよい。解は、例えば、犯罪行為の発生有無である。第3対応情報は、例えば、取得部1001によって取得される。第3対応情報は、例えば、予め記憶部1000に記憶されていてもよい。 Specifically, the storage unit 1000 associates a combination of a change pattern of feature amounts based on voice data and a change pattern of feature amounts based on biometric data, and a solution of the occurrence situation of a criminal act corresponding to the combination. The attached third correspondence information may be stored. The solution is, for example, whether a criminal act has occurred. The third correspondence information is acquired by the acquisition unit 1001, for example. The third correspondence information may be stored in the storage unit 1000 in advance, for example.

記憶部1000は、具体的には、音声データに基づく特徴量の変化パターンと、生体データに基づく特徴量の変化パターンとの組み合わせの入力に応じて、当該組み合わせに対応する犯罪行為の発生状況の解を出力する第3モデルを記憶していてもよい。第3モデルは、例えば、取得部1001によって取得される。第3モデルは、例えば、予め記憶部1000に記憶されていてもよい。第3モデルは、例えば、教師データに基づいて学習されていてもよい。 Specifically, in response to an input of a combination of a change pattern of feature amounts based on voice data and a change pattern of feature amounts based on biometric data, the storage unit 1000 stores the occurrence status of a criminal act corresponding to the combination. A third model that outputs a solution may be stored. The third model is acquired by the acquisition unit 1001, for example. The third model may be stored in the storage unit 1000 in advance, for example. The third model may be trained based on teacher data, for example.

取得部1001は、各機能部の処理に用いられる各種情報を取得する。取得部1001は、取得した各種情報を、記憶部1000に記憶し、または、各機能部に出力する。また、取得部1001は、記憶部1000に記憶しておいた各種情報を、各機能部に出力してもよい。取得部1001は、例えば、利用者の操作入力に基づき、各種情報を取得する。取得部1001は、例えば、情報処理装置100とは異なる装置から、各種情報を受信してもよい。 The acquisition unit 1001 acquires various information used in processing of each functional unit. The acquisition unit 1001 stores the acquired various information in the storage unit 1000 or outputs it to each functional unit. Further, the acquisition unit 1001 may output various information stored in the storage unit 1000 to each functional unit. The acquisition unit 1001 acquires various information based on, for example, a user's operation input. The acquisition unit 1001 may receive various information from a device different from the information processing device 100, for example.

取得部1001は、例えば、対象の期間における対象の人物の会話を示す音声データを取得する。取得部1001は、具体的には、対象の人物の通話中、マイクを用いて対象の人物の会話を録音し続け、対象の人物の会話開始から会話終了までの対象の期間における対象の人物の会話を示す音声データを生成することにより取得する。 The acquisition unit 1001 acquires, for example, audio data indicating a conversation of a target person during a target period. Specifically, the acquisition unit 1001 continues to record the conversation of the target person using a microphone during the conversation of the target person, and records the conversation of the target person during the target period from the start of the conversation to the end of the conversation. Acquired by generating audio data indicating the conversation.

取得部1001は、具体的には、対象の人物の通話中、マイクを用いて対象の人物の会話を録音し続け、対象の人物の通話中の所定のタイミングごとに、現時点から一定時間前までの対象の期間における対象の人物の会話を示す音声データを生成してもよい。所定のタイミングは、例えば、会話開始から一定時間ごとのタイミングである。 Specifically, the acquisition unit 1001 continues to record the conversation of the target person using a microphone while the target person is talking, and records the conversation from the current time until a certain time ago at each predetermined timing while the target person is talking. Audio data indicating a conversation of the target person during the target period may be generated. The predetermined timing is, for example, at regular intervals from the start of the conversation.

取得部1001は、具体的には、対象の期間における対象の人物の会話を示す音声データを、他のコンピュータから受信することにより取得してもよい。取得部1001は、より具体的には、対象の人物の会話終了時、対象の人物の会話開始から会話終了までの対象の期間における対象の人物の会話を示す音声データを、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、対象の人物の会話中の所定のタイミングごとに、現時点から一定時間前までの対象の期間における対象の人物の会話を示す音声データを、他のコンピュータから受信することにより取得する。所定のタイミングは、例えば、会話開始から一定時間ごとのタイミングである。 Specifically, the acquisition unit 1001 may acquire audio data indicating a conversation of a target person during a target period by receiving from another computer. More specifically, the acquisition unit 1001 receives from another computer audio data indicating the conversation of the target person during the target period from the start of the conversation to the end of the conversation at the end of the conversation of the target person. Obtain by doing. More specifically, the acquisition unit 1001 acquires audio data indicating the conversation of the target person during the target period from the current moment to a certain time ago from another computer at each predetermined timing during the conversation of the target person. Obtained by receiving. The predetermined timing is, for example, at regular intervals from the start of the conversation.

取得部1001は、例えば、対象の期間における対象の人物の生体データを取得する。取得部1001は、具体的には、対象の人物の通話中、生体センサを用いて対象の人物の生体的な特徴値を計測し続ける。そして、取得部1001は、具体的には、対象の人物の会話開始から会話終了までの対象の期間に計測した対象の人物の生体的な特徴値に基づいて、対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを生成することにより取得する。 The acquisition unit 1001 acquires, for example, biometric data of a target person during a target period. Specifically, the acquisition unit 1001 continues to measure the biological characteristic value of the target person using a biosensor while the target person is talking. Specifically, the acquisition unit 1001 acquires the target person's biological characteristics during the target period based on the biological characteristic values of the target person measured during the target period from the start of the conversation to the end of the conversation. Acquired by generating biometric data that shows changes in biometric feature values over time.

取得部1001は、具体的には、対象の人物の通話中、生体センサを用いて対象の人物の生体的な特徴値を計測し続ける。そして、取得部1001は、具体的には、対象の人物の通話中の所定のタイミングごとに、対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを生成することにより取得してもよい。所定のタイミングは、例えば、会話開始から一定時間ごとのタイミングである。取得部1001は、より具体的には、所定のタイミングごとに、現時点から一定時間前までの対象の期間に計測した対象の人物の生体的な特徴値に基づいて、対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを生成する。 Specifically, the acquisition unit 1001 continues to measure the biological characteristic value of the target person using a biosensor while the target person is talking. Specifically, the acquisition unit 1001 generates biometric data indicating a temporal change in the biological characteristic value of the target person during the target period at each predetermined timing during the target person's call. You may obtain it. The predetermined timing is, for example, at regular intervals from the start of the conversation. More specifically, the acquisition unit 1001 acquires the target person during the target period based on the biological characteristic values of the target person measured during the target period from the current moment to a certain time ago at each predetermined timing. Generate biometric data that shows changes in biometric feature values over time.

取得部1001は、具体的には、対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを、他のコンピュータから受信することにより取得してもよい。取得部1001は、より具体的には、対象の人物の会話終了時、対象の人物の会話開始から会話終了までの対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、対象の人物の会話中の所定のタイミングごとに、現時点から一定時間前までの対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを、他のコンピュータから受信することにより取得する。所定のタイミングは、例えば、会話開始から一定時間ごとのタイミングである。 Specifically, the acquisition unit 1001 may acquire biometric data indicating a temporal change in a biometric characteristic value of a target person during a target period from another computer. More specifically, the acquisition unit 1001 acquires biometric data indicating temporal changes in biological characteristic values of the target person during a target period from the start of the conversation to the end of the conversation at the end of the conversation with the target person. is obtained by receiving it from another computer. More specifically, the acquisition unit 1001 acquires biological information indicating temporal changes in the biological characteristic values of the target person during the target period from the current moment to a certain time ago at each predetermined timing during the conversation of the target person. Obtain data by receiving it from another computer. The predetermined timing is, for example, at regular intervals from the start of the conversation.

取得部1001は、例えば、犯罪行為の発生状況を評価可能にする情報を取得する。取得部1001は、具体的には、音声データに基づく特徴量の変化パターンと、当該変化パターンに対応する犯罪行為の発生状況の解とを対応付けた第1対応情報を取得する。取得部1001は、より具体的には、第1対応情報を、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第1対応情報の入力を受け付けることにより、第1対応情報を取得してもよい。 The acquisition unit 1001 acquires, for example, information that makes it possible to evaluate the occurrence of a criminal act. Specifically, the acquisition unit 1001 acquires first correspondence information that associates a change pattern of the feature amount based on the audio data with a solution of the occurrence situation of a criminal act corresponding to the change pattern. More specifically, the acquisition unit 1001 acquires the first correspondence information by receiving it from another computer. More specifically, the acquisition unit 1001 may acquire the first correspondence information by accepting an input of the first correspondence information based on the user's operation input.

取得部1001は、具体的には、音声データに基づく特徴量の変化パターンの入力に応じて、当該変化パターンに対応する犯罪行為の発生状況の解を出力する第1モデルを取得してもよい。取得部1001は、より具体的には、第1モデルを、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第1モデルの入力を受け付けることにより、第1モデルを取得してもよい。取得部1001は、より具体的には、音声データに基づく特徴量の変化パターンのサンプルと、当該変化パターンに対応する犯罪行為の発生状況の正解とを対応付けた教師データに基づいて、第1モデルを学習することにより取得してもよい。 Specifically, the acquisition unit 1001 may acquire, in response to an input of a change pattern of feature amounts based on audio data, a first model that outputs a solution to the occurrence situation of a criminal act corresponding to the change pattern. . More specifically, the acquisition unit 1001 acquires the first model by receiving it from another computer. More specifically, the acquisition unit 1001 may acquire the first model by accepting input of the first model based on the user's operation input. More specifically, the acquisition unit 1001 acquires the first data based on teacher data that associates a sample of a change pattern of feature amounts based on voice data with a correct answer of the occurrence situation of a criminal act corresponding to the change pattern. It may also be acquired by learning a model.

取得部1001は、具体的には、生体データに基づく特徴量の変化パターンと、当該変化パターンに対応する犯罪行為の発生状況の解とを対応付けた第2対応情報を取得する。取得部1001は、より具体的には、第2対応情報を、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第2対応情報の入力を受け付けることにより、第2対応情報を取得してもよい。 Specifically, the acquisition unit 1001 acquires second correspondence information that associates a change pattern of the feature amount based on biometric data with a solution of the occurrence situation of a criminal act corresponding to the change pattern. More specifically, the acquisition unit 1001 acquires the second correspondence information by receiving it from another computer. More specifically, the acquisition unit 1001 may acquire the second correspondence information by accepting an input of the second correspondence information based on the user's operation input.

取得部1001は、具体的には、生体データに基づく特徴量の変化パターンの入力に応じて、当該変化パターンに対応する犯罪行為の発生状況の解を出力する第2モデルを取得してもよい。取得部1001は、より具体的には、第2モデルを、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第2モデルの入力を受け付けることにより、第2モデルを取得してもよい。取得部1001は、より具体的には、生体データに基づく特徴量の変化パターンのサンプルと、当該変化パターンに対応する犯罪行為の発生状況の正解とを対応付けた教師データに基づいて、第2モデルを学習することにより取得してもよい。 Specifically, the acquisition unit 1001 may acquire, in response to input of a change pattern of feature amounts based on biometric data, a second model that outputs a solution to the occurrence situation of a criminal act corresponding to the change pattern. . More specifically, the acquisition unit 1001 acquires the second model by receiving it from another computer. More specifically, the acquisition unit 1001 may acquire the second model by accepting input of the second model based on the user's operation input. More specifically, the acquisition unit 1001 acquires second data based on teacher data that associates a sample of a change pattern of feature values based on biometric data with a correct answer of the occurrence situation of a criminal act corresponding to the change pattern. It may also be acquired by learning a model.

取得部1001は、具体的には、音声データに基づく特徴量の変化パターンと、生体データに基づく特徴量の変化パターンとの組み合わせと、当該組み合わせに対応する犯罪行為の発生状況の解とを対応付けた第3対応情報を取得する。取得部1001は、より具体的には、第3対応情報を、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第3対応情報の入力を受け付けることにより、第3対応情報を取得してもよい。 Specifically, the acquisition unit 1001 associates a combination of a change pattern of feature amounts based on voice data and a change pattern of feature amounts based on biometric data with a solution of the occurrence situation of a criminal act corresponding to the combination. The attached third correspondence information is acquired. More specifically, the acquisition unit 1001 acquires the third correspondence information by receiving it from another computer. More specifically, the acquisition unit 1001 may acquire the third correspondence information by accepting input of the third correspondence information based on the user's operation input.

取得部1001は、具体的には、音声データに基づく特徴量の変化パターンと、生体データに基づく特徴量の変化パターンとの組み合わせの入力に応じて、当該組み合わせに対応する犯罪行為の発生状況の解を出力する第3モデルを取得してもよい。取得部1001は、より具体的には、第3モデルを、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第3モデルの入力を受け付けることにより、第3モデルを取得してもよい。取得部1001は、より具体的には、教師データに基づいて、第3モデルを学習することにより取得してもよい。教師データは、例えば、音声データに基づく特徴量の変化パターンと、生体データに基づく特徴量の変化パターンとの組み合わせのサンプルと、当該組み合わせに対応する犯罪行為の発生状況の正解とを対応付けたデータである。 Specifically, in response to input of a combination of a change pattern of feature amounts based on voice data and a change pattern of feature amounts based on biometric data, the acquisition unit 1001 obtains the occurrence status of a criminal act corresponding to the combination. A third model may be obtained that outputs a solution. More specifically, the acquisition unit 1001 acquires the third model by receiving it from another computer. More specifically, the acquisition unit 1001 may acquire the third model by accepting input of the third model based on the user's operation input. More specifically, the acquisition unit 1001 may acquire the third model by learning the third model based on the teacher data. The training data is, for example, a sample of a combination of a change pattern of feature values based on voice data and a change pattern of feature values based on biometric data, and a correct answer of the occurrence situation of a criminal act corresponding to the combination. It is data.

取得部1001は、いずれかの機能部の処理を開始する開始トリガーを受け付けてもよい。開始トリガーは、例えば、利用者による所定の操作入力があったことである。開始トリガーは、例えば、他のコンピュータから、所定の情報を受信したことであってもよい。開始トリガーは、例えば、いずれかの機能部が所定の情報を出力したことであってもよい。 The acquisition unit 1001 may receive a start trigger that starts processing of any functional unit. The start trigger is, for example, a predetermined operation input by the user. The start trigger may be, for example, receiving predetermined information from another computer. The start trigger may be, for example, that any functional unit outputs predetermined information.

取得部1001は、例えば、対象の人物の会話終了を検出したことを、分類部1002と加工部1003と算出部1004と判定部1005との処理を開始する開始トリガーとして受け付けてもよい。取得部1001は、例えば、所定のタイミングになったことを、分類部1002と加工部1003と算出部1004と判定部1005との処理を開始する開始トリガーとして受け付けてもよい。取得部1001は、音声データと生体データとを取得したことを、分類部1002と加工部1003と算出部1004と判定部1005との処理を開始する開始トリガーとして受け付けてもよい。 For example, the acquisition unit 1001 may receive detection of the end of the conversation of the target person as a start trigger for starting the processing of the classification unit 1002, the processing unit 1003, the calculation unit 1004, and the determination unit 1005. For example, the acquisition unit 1001 may receive the arrival of a predetermined timing as a start trigger for starting the processing of the classification unit 1002, the processing unit 1003, the calculation unit 1004, and the determination unit 1005. The acquisition unit 1001 may receive the acquisition of audio data and biometric data as a start trigger for starting the processing of the classification unit 1002, the processing unit 1003, the calculation unit 1004, and the determination unit 1005.

分類部1002は、取得した音声データに基づいて、対象の期間を、複数の区間に分類する。複数の区間は、例えば、発話区間と聴取区間とである。複数の区間は、例えば、沈黙区間と相槌区間とであってもよい。複数の区間は、発話区間と聴取区間と沈黙区間と相槌区間とであってもよい。沈黙区間と相槌区間とは、聴取区間に包含されていてもよい。対象の期間は、例えば、分類されない時間帯を含んでいてもよい。分類部1002は、対象の期間に含まれるいずれかの時間帯を、発話区間、聴取区間、沈黙区間、および、相槌区間のいずれにも分類しない場合があってもよい。 The classification unit 1002 classifies the target period into a plurality of sections based on the acquired audio data. The plurality of sections are, for example, a speaking section and a listening section. The plurality of sections may be, for example, a silence section and a mutual agreement section. The plurality of sections may be a speaking section, a listening section, a silence section, and a chiding section. The silent section and the interlude section may be included in the listening section. The target period may include, for example, an unclassified time period. The classification unit 1002 may not classify any time period included in the target period as a speaking period, a listening period, a silent period, or a comment period.

分類部1002は、例えば、取得した音声データに基づいて、対象の期間を、発話区間と聴取区間とに分類する。分類部1002は、例えば、取得した音声データに基づいて、対象の期間を、沈黙区間と相槌区間とに分類してもよい。分類部1002は、例えば、取得した音声データに基づいて、対象の期間を、沈黙区間と相槌区間とに分類すると共に、発話区間と聴取区間とに分類してもよい。 The classification unit 1002 classifies the target period into a speaking period and a listening period, for example, based on the acquired audio data. For example, the classification unit 1002 may classify the target period into a silent period and a silent period based on the acquired audio data. For example, the classification unit 1002 may classify the target period into a silent period and a chiding period, as well as a speaking period and a listening period, based on the acquired audio data.

分類部1002は、具体的には、音声データを解析することにより、対象の期間における複数の発話者を特定する。分類部1002は、具体的には、特定した複数の発話者のそれぞれの発話者について、当該発話者が発話した区間、当該区間における当該発話者の音声、および、当該区間における当該発話者の発話内容などを特定する。発話者は、例えば、対象の人物、または、他の人物である。発話者の音声は、例えば、発話者のトーン、声量、または、波長などを示す。 Specifically, the classification unit 1002 specifies a plurality of speakers in the target period by analyzing the audio data. Specifically, for each speaker of the plurality of speakers identified, the classification unit 1002 classifies the section in which the speaker speaks, the voice of the speaker in the section, and the utterance of the speaker in the section. Specify the content etc. The speaker is, for example, the target person or another person. The speaker's voice indicates, for example, the speaker's tone, voice volume, or wavelength.

分類部1002は、具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が相槌以外に相当する発話内容を発話した区間を、発話区間に分類する。分類部1002は、より具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が発話した区間のうち、対象の人物の音声または発話内容が、「発話」に対応する音声パターンに合致する区間を、発話区間に分類する。これにより、分類部1002は、対象の人物に対する犯罪行為の発生状況を評価する指針を得ることができる。分類部1002は、例えば、対象の人物に対する犯罪行為の発生状況を評価するために、音声データまたは生体データをどのように処理するのかを決定する指針を得ることができる。 Specifically, the classification unit 1002 classifies sections in which the target person has uttered utterance contents other than ``Aitsu'' into utterance sections based on the identified speaker, section, voice, and utterance content. . More specifically, based on the identified speaker, section, voice, and utterance content, the classification unit 1002 determines whether the target person's voice or utterance content is " A section that matches the voice pattern corresponding to "utterance" is classified as a speech section. Thereby, the classification unit 1002 can obtain guidelines for evaluating the occurrence of criminal acts against the target person. For example, the classification unit 1002 can obtain guidelines for determining how to process audio data or biometric data in order to evaluate the occurrence of a criminal act against a target person.

分類部1002は、具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が相槌に相当する発話内容を発話した区間を、相槌区間に分類する。分類部1002は、具体的には、他の人物が発話中であり対象の人物が相槌に相当する発話内容を発話した区間を、相槌区間に分類してもよい。分類部1002は、より具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が発話した区間のうち、対象の人物の音声または発話内容が、「相槌」に対応する音声パターンに合致する区間を、相槌区間に分類する。これにより、分類部1002は、対象の人物に対する犯罪行為の発生状況を評価する指針を得ることができる。分類部1002は、例えば、対象の人物に対する犯罪行為の発生状況を評価するために、音声データまたは生体データをどのように処理するのかを決定する指針を得ることができる。 Specifically, the classification unit 1002 classifies the section in which the target person uttered the utterance content corresponding to the ``agisho'' into the ``agisho'' section based on the identified speaker, the section, the voice, the utterance content, and the like. Specifically, the classification unit 1002 may classify a section in which another person is speaking and the target person has uttered utterance content corresponding to an agreement into an agreement section. More specifically, based on the identified speaker, section, voice, and utterance content, the classification unit 1002 determines whether the target person's voice or utterance content is " The section that matches the voice pattern corresponding to "Aitsuchi" is classified as an Aitsuchi section. Thereby, the classification unit 1002 can obtain guidelines for evaluating the occurrence of criminal acts against the target person. For example, the classification unit 1002 can obtain guidelines for determining how to process audio data or biometric data in order to evaluate the occurrence of a criminal act against a target person.

分類部1002は、具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が発話せず沈黙した区間を、沈黙区間に分類する。分類部1002は、具体的には、他の人物が発話中であり対象の人物が発話せず沈黙した区間を、沈黙区間に分類してもよい。分類部1002は、より具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が発話した区間のうち、対象の人物の音声または発話内容が、「沈黙」に対応する音声パターンに合致する区間を、沈黙区間に分類する。これにより、分類部1002は、対象の人物に対する犯罪行為の発生状況を評価する指針を得ることができる。分類部1002は、例えば、対象の人物に対する犯罪行為の発生状況を評価するために、音声データまたは生体データをどのように処理するのかを決定する指針を得ることができる。 Specifically, the classification unit 1002 classifies an interval in which the target person is silent without speaking, as a silent interval, based on the identified speaker, interval, voice, utterance content, and the like. Specifically, the classification unit 1002 may classify a period in which another person is speaking and the target person is silent without speaking as a silent period. More specifically, based on the identified speaker, section, voice, and utterance content, the classification unit 1002 determines whether the target person's voice or utterance content is " A section that matches the voice pattern corresponding to "silence" is classified as a silence section. Thereby, the classification unit 1002 can obtain guidelines for evaluating the occurrence of criminal acts against the target person. For example, the classification unit 1002 can obtain guidelines for determining how to process audio data or biometric data in order to evaluate the occurrence of a criminal act against a target person.

分類部1002は、具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が他の人物の発話を聴取した区間を、聴取区間に分類する。分類部1002は、より具体的には、相槌区間と、沈黙区間とを、聴取区間に分類する。分類部1002は、より具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が発話した区間のうち、対象の人物の音声または発話内容が、「聴取」に対応する音声パターンに合致する区間を、聴取区間に分類してもよい。これにより、分類部1002は、対象の人物に対する犯罪行為の発生状況を評価する指針を得ることができる。分類部1002は、例えば、対象の人物に対する犯罪行為の発生状況を評価するために、音声データまたは生体データをどのように処理するのかを決定する指針を得ることができる。 Specifically, the classification unit 1002 classifies sections in which the target person listens to another person's speech into listening sections based on the identified speaker, section, voice, utterance content, and the like. More specifically, the classification unit 1002 classifies the interlude section and the silence section into listening sections. More specifically, based on the identified speaker, section, voice, and utterance content, the classification unit 1002 determines whether the target person's voice or utterance content is " A section that matches the audio pattern corresponding to "listening" may be classified as a listening section. Thereby, the classification unit 1002 can obtain guidelines for evaluating the occurrence of criminal acts against the target person. For example, the classification unit 1002 can obtain guidelines for determining how to process audio data or biometric data in order to evaluate the occurrence of a criminal act against a target person.

分類部1002は、例えば、取得した音声データに基づいて、対象の期間のうち、1以上の音声パターンのそれぞれの音声パターンに合致する区間を特定する。分類部1002は、具体的には、上述したように、「発話」に対応する音声パターンに合致する聴取区間を特定する。分類部1002は、具体的には、上述したように、「沈黙」に対応する音声パターンに合致する聴取区間を特定する。分類部1002は、具体的には、上述したように、「相槌」に対応する音声パターンに合致する聴取区間を特定する。分類部1002は、具体的には、上述したように、「聴取」に対応する音声パターンに合致する聴取区間を特定する。これにより、分類部1002は、対象の人物に対する犯罪行為の発生状況を評価する指針を得ることができる。分類部1002は、例えば、対象の人物に対する犯罪行為の発生状況を評価するために、生体データをどのように処理するのかを決定する指針を得ることができる。 For example, based on the acquired audio data, the classification unit 1002 identifies a section of the target period that matches each of the one or more audio patterns. Specifically, as described above, the classification unit 1002 identifies a listening section that matches the audio pattern corresponding to "utterance". Specifically, as described above, the classification unit 1002 identifies a listening section that matches the audio pattern corresponding to "silence". Specifically, as described above, the classification unit 1002 identifies the listening section that matches the voice pattern corresponding to "Aitsuchi". Specifically, as described above, the classification unit 1002 identifies a listening section that matches the audio pattern corresponding to "listening". Thereby, the classification unit 1002 can obtain guidelines for evaluating the occurrence of criminal acts against the target person. For example, the classification unit 1002 can obtain guidelines for determining how to process biometric data in order to evaluate the occurrence of a criminal act against a target person.

加工部1003は、それぞれの音声パターンに合致する区間について、当該区間における対象の人物の生体データに対して、当該音声パターンに対応するノイズ除去処理を実施する。区間における対象の人物の生体データは、具体的には、対象の期間における対象の人物の生体データの一部である。 The processing unit 1003 performs noise removal processing corresponding to the voice pattern on the biometric data of the target person in the zone corresponding to each voice pattern. Specifically, the biometric data of the target person in the section is a part of the biometric data of the target person in the target period.

加工部1003は、例えば、記憶部1000を参照して、それぞれの音声パターンに合致する区間について、当該区間における対象の人物の生体データに対して、当該音声パターンに対応付けられたフィルタを用いて、ノイズ除去処理を実施する。これにより、加工部1003は、対象の人物に対する犯罪行為の発生状況の評価精度の向上を図るために、生体データを加工することができる。 For example, the processing unit 1003 refers to the storage unit 1000 and applies a filter associated with the voice pattern to the biometric data of the target person in the interval for the interval that matches each voice pattern. , performs noise removal processing. Thereby, the processing unit 1003 can process the biometric data in order to improve the accuracy of evaluating the occurrence of criminal acts against the target person.

算出部1004は、生体データに基づく対象の人物に関する第1の特徴量を算出することにより生成する。算出部1004は、例えば、取得した対象の期間における生体データのうち、分類した聴取区間に関する部分生体データに基づいて、対象の人物に関する第1の特徴量を生成する。部分生体データは、例えば、加工部1003でノイズ除去処理を実施後であってもよい。部分生体データは、例えば、加工部1003でノイズ除去処理を未実施であってもよい。 The calculation unit 1004 generates by calculating the first feature amount regarding the target person based on the biometric data. The calculation unit 1004 generates a first feature amount regarding the target person, for example, based on partial biometric data related to the classified listening section among the acquired biometric data in the target period. The partial biometric data may be subjected to noise removal processing by the processing unit 1003, for example. For example, the partial biometric data may not undergo noise removal processing in the processing unit 1003.

算出部1004は、具体的には、分類した聴取区間ごとに、取得した対象の期間における生体データのうち、当該聴取区間に関する部分生体データに基づいて、対象の人物に関する第1の特徴量を生成する。第1の特徴量は、例えば、対象の人物の生体的な1以上の特徴値、聴取区間における対象の人物の生体的な特徴値の統計値、または、聴取区間における対象の人物の生体的な特徴値の変化量などである。第1の特徴量は、具体的には、聴取区間における対象の人物の心拍または脈拍に関する特徴値の統計値、または、聴取区間における対象の人物の心拍または脈拍に関する特徴値の変化量などである。これにより、算出部1004は、判定部1005で、対象の人物に対する犯罪行為の発生状況を評価可能にすることができる。 Specifically, for each classified listening section, the calculation unit 1004 generates a first feature amount regarding the target person based on partial biometric data related to the listening section out of the acquired biometric data in the target period. do. The first feature amount may be, for example, one or more biological characteristic values of the target person, statistical values of the biological characteristic values of the target person in the listening interval, or biological characteristic values of the target person in the listening interval. This includes the amount of change in feature values. Specifically, the first feature amount is a statistical value of a feature value related to the heartbeat or pulse of the target person in the listening interval, or a change amount of a feature value related to the heartbeat or pulse of the target person in the listening interval, etc. . Thereby, the calculation unit 1004 can enable the determination unit 1005 to evaluate the occurrence of a criminal act against the target person.

算出部1004は、例えば、生体データのうち、発話区間に関する部分生体データのように、体動ノイズなどのノイズ重畳が比較的大きくなり易く、犯罪行為の発生状況の評価に活用し難い部分音声データを除いて、第1の特徴量を算出することができる。算出部1004は、例えば、生体データのうち、相槌区間および沈黙区間に関する部分生体データのように、体動ノイズなどのノイズ重畳が比較的小さくなり易く、犯罪行為の発生状況の評価に活用し易い部分生体データを選択的に利用することができる。算出部1004は、生体データのうち、犯罪行為の発生状況の評価に活用し易い部分生体データを選択的に利用して、第1の特徴量を算出することができる。このため、算出部1004は、判定部1005で、対象の人物に対する犯罪行為の発生状況を、精度よく評価可能にすることができる。 The calculation unit 1004 calculates, for example, partial audio data that is difficult to utilize for evaluating the occurrence of criminal acts because noise such as body movement noise tends to be relatively large, such as partial biological data related to utterance sections among the biological data. The first feature quantity can be calculated except for . The calculation unit 1004 calculates, for example, partial biometric data related to a mutual agreement section and a silent section, in which noise such as body movement noise tends to be relatively small, and is easy to use for evaluating the occurrence of criminal acts. Partial biometric data can be used selectively. The calculation unit 1004 can calculate the first feature amount by selectively using partial biometric data that is easy to use for evaluating the occurrence of criminal acts among the biometric data. Therefore, the calculation unit 1004 allows the determination unit 1005 to accurately evaluate the occurrence of criminal acts against the target person.

算出部1004は、音声データに基づく対象の人物に関する第2の特徴量を算出することにより生成する。算出部1004は、例えば、取得した対象の期間における音声データのうち、分類した発話区間に関する部分音声データに基づいて、対象の人物に関する第2の特徴量を生成する。 The calculation unit 1004 generates by calculating a second feature amount regarding the target person based on the audio data. The calculation unit 1004 generates a second feature amount regarding the target person, for example, based on partial voice data related to the classified utterance section among the acquired voice data in the target period.

算出部1004は、具体的には、分類した発話区間ごとに、取得した対象の期間における音声データのうち、当該発話区間に関する部分音声データに基づいて、対象の人物に関する第2の特徴量を生成する。第2の特徴量は、例えば、対象の人物の感情の1以上の特徴値、発話区間における対象の人物の感情の特徴値の統計値、または、発話区間における対象の人物の感情の特徴値の変化量などである。第2の特徴量は、具体的には、発話区間における対象の人物のストレス度合いの統計値、または、変化量などであってもよい。これにより、算出部1004は、判定部1005で、対象の人物に対する犯罪行為の発生状況を評価可能にすることができる。 Specifically, the calculation unit 1004 generates a second feature amount regarding the target person for each classified utterance interval based on partial audio data regarding the utterance interval out of the acquired voice data in the target period. do. The second feature value is, for example, one or more feature values of the target person's emotion, a statistical value of the target person's emotion characteristic value in the utterance interval, or a characteristic value of the target person's emotion characteristic value in the utterance interval. This includes the amount of change. Specifically, the second feature amount may be a statistical value or a change amount of the stress level of the target person in the utterance period. Thereby, the calculation unit 1004 can enable the determination unit 1005 to evaluate the occurrence of a criminal act against the target person.

算出部1004は、例えば、音声データのうち、相槌区間に関する部分音声データのように、対象の人物が発話しているものの、音声の特徴を読み取り難く、犯罪行為の発生状況の評価に活用し難い部分音声データを除いて、第2の特徴量を算出することができる。算出部1004は、例えば、音声データのうち、発話区間に関する部分音声データのように、音声の特徴を読み取り易く、犯罪行為の発生状況の評価に活用し易い部分音声データを選択的に利用して、第2の特徴量を算出することができる。このため、算出部1004は、判定部1005で、対象の人物に対する犯罪行為の発生状況を、精度よく評価可能にすることができる。 The calculation unit 1004 calculates, for example, partial audio data related to the intermittent section of the audio data, which is uttered by a target person, but the characteristics of the audio are difficult to read, and it is difficult to utilize for evaluating the occurrence of criminal acts. The second feature amount can be calculated by excluding the partial audio data. For example, the calculation unit 1004 selectively uses partial audio data that is easy to read the characteristics of the audio and is easy to use for evaluating the occurrence situation of criminal acts, such as partial audio data related to utterance sections among the audio data. , the second feature quantity can be calculated. Therefore, the calculation unit 1004 allows the determination unit 1005 to accurately evaluate the occurrence of criminal acts against the target person.

判定部1005は、対象の人物に対する犯罪行為の発生状況を評価する。当該犯罪行為は、例えば、電話を介して、対象の人物と会話する他の人物により実施され得る犯罪行為である。犯罪行為は、具体的には、詐欺行為である。詐欺行為は、例えば、オレオレ詐欺、還付金詐欺、または、劇場型詐欺などである。 The determination unit 1005 evaluates the occurrence of criminal acts against the target person. The criminal act is a criminal act that may be carried out by another person who converses with the person in question, for example via telephone. Specifically, a criminal act is an act of fraud. The fraudulent acts include, for example, ``I'm me'' fraud, refund fraud, and theatrical fraud.

判定部1005は、例えば、生成した第1の特徴量に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。判定部1005は、具体的には、生成した第1の特徴量の変化パターンに基づいて、対象の人物に対する犯罪行為の発生状況を評価する。 The determination unit 1005 evaluates the occurrence of a criminal act against the target person, for example, based on the generated first feature amount. Specifically, the determination unit 1005 evaluates the occurrence of a criminal act against the target person based on the generated change pattern of the first feature amount.

判定部1005は、より具体的には、生成した第1の特徴量の変化量を算出する。変化量は、例えば、異なる2つの聴取区間のそれぞれの聴取区間について生成した第1の特徴量の差分である。変化量は、具体的には、対象の期間における、最初の聴取区間について生成した第1の特徴量と、最後の聴取区間について生成した第1の特徴量との差分である。判定部1005は、より具体的には、生成した第1の特徴量の変化量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。閾値は、例えば、予め利用者によって設定される。判定部1005は、より具体的には、生成した第1の特徴量の変化量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。 More specifically, the determination unit 1005 calculates the amount of change in the generated first feature amount. The amount of change is, for example, the difference between the first feature amounts generated for each of two different listening sections. Specifically, the amount of change is the difference between the first feature amount generated for the first listening section and the first feature amount generated for the last listening section in the target period. More specifically, the determination unit 1005 evaluates that a criminal act against the target person has occurred when the amount of change in the generated first feature amount is equal to or greater than the threshold value. For example, the threshold value is set in advance by the user. More specifically, when the amount of change in the generated first feature amount is less than the threshold value, the determination unit 1005 evaluates that no criminal act has occurred against the target person.

判定部1005は、より具体的には、上述した第2対応情報と、生成した第1の特徴量の変化パターンとを照合することにより、対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、生成した第1の特徴量の変化パターンが、犯罪行為の発生ありを解とする第2対応情報に設定された特定の変化パターンに合致する場合、対象の人物に対する犯罪行為が発生したと評価する。 More specifically, the determination unit 1005 evaluates the occurrence of a criminal act against the target person by comparing the above-mentioned second correspondence information with the generated change pattern of the first feature amount. good. More specifically, the determination unit 1005 determines whether the target It is assessed that a criminal act against a person has occurred.

判定部1005は、より具体的には、生成した第1の特徴量の変化パターンが、犯罪行為の発生ありを解とする第2対応情報に設定された特定の変化パターンに合致しない場合、対象の人物に対する犯罪行為が発生していないと評価する。判定部1005は、より具体的には、生成した第1の特徴量の変化パターンが、犯罪行為の発生なしを解とする第2対応情報に設定された特定の変化パターンに合致する場合、対象の人物に対する犯罪行為が発生していないと評価してもよい。 More specifically, the determination unit 1005 determines that if the generated change pattern of the first feature value does not match a specific change pattern set in the second correspondence information that takes the occurrence of a criminal act as a solution, the determination unit 1005 determines whether the target It is assessed that no criminal acts have occurred against these persons. More specifically, the determination unit 1005 determines whether the target It may be assessed that no criminal act has occurred against the person.

判定部1005は、より具体的には、生成した第1の特徴量の変化パターンを、上述した第2モデルに入力することにより、第2モデルを用いて対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、第2モデルが入力に応じて出力した犯罪行為の発生状況の解に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。 More specifically, the determination unit 1005 inputs the generated change pattern of the first feature amount into the second model described above, and uses the second model to determine the occurrence situation of the criminal act against the target person. May be evaluated. More specifically, the determination unit 1005 evaluates the occurrence situation of the criminal act against the target person based on the solution of the occurrence situation of the criminal act outputted by the second model in response to the input.

判定部1005は、具体的には、生成した第1の特徴量が生体的な特徴値の変化量であれば、第1の特徴量を閾値と比較してもよい。閾値は、例えば、予め利用者によって設定される。判定部1005は、具体的には、生成した第1の特徴量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。判定部1005は、具体的には、生成した第1の特徴量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。 Specifically, the determination unit 1005 may compare the first feature amount with a threshold value if the generated first feature amount is a change amount of a biological feature value. For example, the threshold value is set in advance by the user. Specifically, the determination unit 1005 evaluates that a criminal act against the target person has occurred when the generated first feature amount is equal to or greater than the threshold value. Specifically, when the generated first feature amount is less than the threshold value, the determination unit 1005 evaluates that no criminal act has occurred against the target person.

これにより、判定部1005は、犯罪行為の発生状況を精度よく評価することができる。判定部1005は、例えば、犯罪行為が発生したか否かを精度よく評価することができる。判定部1005は、具体的には、生体データのうち、ノイズ重畳が比較的小さくなり易い部分生体データに基づく第1の特徴量を利用するため、対象の人物に対する犯罪行為の発生状況を、精度よく評価することができる。 Thereby, the determination unit 1005 can accurately evaluate the occurrence of a criminal act. The determination unit 1005 can, for example, accurately evaluate whether a criminal act has occurred. Specifically, the determination unit 1005 uses the first feature amount based on partial biometric data in which noise superposition tends to be relatively small among the biometric data, so the determination unit 1005 accurately determines the occurrence of a criminal act against the target person. can be evaluated well.

判定部1005は、例えば、生成した第2の特徴量に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。判定部1005は、具体的には、生成した第2の特徴量の変化パターンに基づいて、対象の人物に対する犯罪行為の発生状況を評価する。 The determination unit 1005 evaluates the occurrence of a criminal act against the target person, for example, based on the generated second feature amount. Specifically, the determination unit 1005 evaluates the occurrence of a criminal act against the target person based on the change pattern of the generated second feature amount.

判定部1005は、より具体的には、生成した第2の特徴量の変化量を算出する。変化量は、例えば、異なる2つの発話区間のそれぞれの発話区間について生成した第2の特徴量の差分である。変化量は、具体的には、対象の期間における、最初の発話区間について生成した第2の特徴量と、最後の発話区間について生成した第2の特徴量との差分である。判定部1005は、より具体的には、生成した第2の特徴量の変化量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。閾値は、例えば、予め利用者によって設定される。判定部1005は、より具体的には、生成した第2の特徴量の変化量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。 More specifically, the determination unit 1005 calculates the amount of change in the generated second feature amount. The amount of change is, for example, the difference between the second feature amounts generated for each of two different speech sections. Specifically, the amount of change is the difference between the second feature amount generated for the first utterance section and the second feature amount generated for the last utterance section in the target period. More specifically, the determination unit 1005 evaluates that a criminal act against the target person has occurred when the amount of change in the generated second feature amount is equal to or greater than the threshold value. For example, the threshold value is set in advance by the user. More specifically, when the amount of change in the generated second feature amount is less than the threshold value, the determination unit 1005 evaluates that no criminal act has occurred against the target person.

判定部1005は、より具体的には、上述した第1対応情報と、生成した第2の特徴量の変化パターンとを照合することにより、対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、生成した第2の特徴量の変化パターンが、犯罪行為の発生ありを解とする第1対応情報に設定された特定の変化パターンに合致する場合、対象の人物に対する犯罪行為が発生したと評価する。 More specifically, the determination unit 1005 evaluates the occurrence of a criminal act against the target person by comparing the first correspondence information described above with the generated change pattern of the second feature amount. good. More specifically, the determination unit 1005 determines whether the target It is assessed that a criminal act against a person has occurred.

判定部1005は、より具体的には、生成した第2の特徴量の変化パターンが、犯罪行為の発生ありを解とする第1対応情報に設定された特定の変化パターンに合致しない場合、対象の人物に対する犯罪行為が発生していないと評価する。判定部1005は、より具体的には、生成した第2の特徴量の変化パターンが、犯罪行為の発生なしを解とする第1対応情報に設定された特定の変化パターンに合致する場合、対象の人物に対する犯罪行為が発生していないと評価してもよい。 More specifically, the determination unit 1005 determines that if the change pattern of the generated second feature value does not match a specific change pattern set in the first correspondence information that takes the occurrence of a criminal act as a solution, the determination unit 1005 determines whether the target It is assessed that no criminal acts have occurred against these persons. More specifically, the determination unit 1005 determines whether the target It may be assessed that no criminal act has occurred against the person.

判定部1005は、より具体的には、生成した第2の特徴量の変化パターンを、上述した第1モデルに入力することにより、第1モデルを用いて対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、第1モデルが入力に応じて出力した犯罪行為の発生状況の解に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。 More specifically, the determination unit 1005 inputs the generated change pattern of the second feature amount into the first model described above, and uses the first model to determine the occurrence situation of the criminal act against the target person. May be evaluated. More specifically, the determination unit 1005 evaluates the occurrence situation of the criminal act against the target person based on the solution of the occurrence situation of the criminal act outputted by the first model in response to the input.

判定部1005は、具体的には、生成した第2の特徴量が感情の特徴値の変化量であれば、第2の特徴量を閾値と比較してもよい。閾値は、例えば、予め利用者によって設定される。判定部1005は、具体的には、生成した第2の特徴量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。判定部1005は、具体的には、生成した第2の特徴量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。 Specifically, the determination unit 1005 may compare the second feature amount with a threshold value if the generated second feature amount is the amount of change in the emotional feature value. For example, the threshold value is set in advance by the user. Specifically, the determination unit 1005 evaluates that a criminal act against the target person has occurred when the generated second feature amount is equal to or greater than the threshold value. Specifically, when the generated second feature amount is less than the threshold value, the determination unit 1005 evaluates that no criminal act has occurred against the target person.

これにより、判定部1005は、犯罪行為の発生状況を精度よく評価することができる。判定部1005は、例えば、犯罪行為が発生したか否かを精度よく評価することができる。判定部1005は、具体的には、音声データのうち、音声の特徴を読み取り易く、犯罪行為の発生状況の評価に活用し易い部分音声データに基づく第2の特徴量を利用するため、対象の人物に対する犯罪行為の発生状況を、精度よく評価することができる。 Thereby, the determination unit 1005 can accurately evaluate the occurrence of a criminal act. The determination unit 1005 can, for example, accurately evaluate whether a criminal act has occurred. Specifically, the determination unit 1005 uses the second feature amount based on partial audio data, which is easy to read the audio characteristics and is easy to use for evaluating the occurrence situation of criminal acts. It is possible to accurately evaluate the occurrence of criminal acts against a person.

判定部1005は、例えば、生成した第1の特徴量と、生成した第2の特徴量とに基づいて、対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、具体的には、生成した第1の特徴量の変化パターンと、生成した第2の特徴量の変化パターンとに基づいて、対象の人物に対する犯罪行為の発生状況を評価する。 The determination unit 1005 may evaluate the occurrence of a criminal act against the target person, for example, based on the generated first feature amount and the generated second feature amount. Specifically, the determination unit 1005 evaluates the occurrence of a criminal act against the target person based on the generated change pattern of the first feature amount and the generated change pattern of the second feature amount.

判定部1005は、より具体的には、生成した第1の特徴量の変化量を算出する。変化量は、例えば、異なる2つの発話区間のそれぞれの発話区間について生成した第1の特徴量の差分である。変化量は、具体的には、対象の期間における、最初の発話区間について生成した第1の特徴量と、最後の発話区間について生成した第1の特徴量との差分である。 More specifically, the determination unit 1005 calculates the amount of change in the generated first feature amount. The amount of change is, for example, the difference between the first feature amounts generated for each of two different speech sections. Specifically, the amount of change is the difference between the first feature amount generated for the first utterance section and the first feature amount generated for the last utterance section in the target period.

判定部1005は、より具体的には、生成した第2の特徴量の変化量を算出する。変化量は、例えば、異なる2つの発話区間のそれぞれの発話区間について生成した第2の特徴量の差分である。変化量は、具体的には、対象の期間における、最初の発話区間について生成した第2の特徴量と、最後の発話区間について生成した第2の特徴量との差分である。 More specifically, the determination unit 1005 calculates the amount of change in the generated second feature amount. The amount of change is, for example, the difference between the second feature amounts generated for each of two different speech sections. Specifically, the amount of change is the difference between the second feature amount generated for the first utterance section and the second feature amount generated for the last utterance section in the target period.

判定部1005は、より具体的には、生成した第1の特徴量の変化量が閾値以上、かつ、生成した第2の特徴量の変化量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。判定部1005は、より具体的には、生成した第1の特徴量の変化量が閾値未満、または、生成した第2の特徴量の変化量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。 More specifically, if the amount of change in the generated first feature amount is equal to or greater than the threshold value, and the amount of change in the generated second feature amount is equal to or greater than the threshold value, the determination unit 1005 determines that a criminal act has been committed against the target person. Evaluate that this has occurred. More specifically, when the amount of change in the generated first feature amount is less than a threshold value, or the amount of change in the generated second feature amount is less than a threshold value, the determination unit 1005 determines that a criminal act has been committed against the target person. It is evaluated that this has not occurred.

判定部1005は、より具体的には、上述した第3対応情報と、生成した第1の特徴量の変化パターンと、生成した第2の特徴量の変化パターンとの組み合わせを照合することにより、対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、生成した第1の特徴量の変化パターンと、生成した第2の特徴量の変化パターンとの組み合わせが、犯罪行為の発生ありを解とする第3対応情報に設定された特定の変化パターンに合致するか否かを判定する。 More specifically, the determination unit 1005 collates the combination of the third correspondence information described above, the generated change pattern of the first feature amount, and the generated change pattern of the second feature amount. The occurrence of criminal acts against the target person may be evaluated. More specifically, the determination unit 1005 determines that the combination of the generated change pattern of the first feature amount and the generated change pattern of the second feature amount is a third response whose solution is the occurrence of a criminal act. Determine whether the information matches a specific change pattern set in the information.

判定部1005は、より具体的には、組み合わせが、犯罪行為の発生ありを解とする第3対応情報に設定された特定の変化パターンに合致すると判定した場合、対象の人物に対する犯罪行為が発生したと評価する。判定部1005は、より具体的には、組み合わせが、犯罪行為の発生ありを解とする第3対応情報に設定された特定の変化パターンに合致しないと判定した場合、対象の人物に対する犯罪行為が発生していないと評価する。 More specifically, if the determination unit 1005 determines that the combination matches a specific change pattern set in the third correspondence information, where the answer is the occurrence of a criminal act, the determination unit 1005 determines that a criminal act has occurred against the target person. I rate it as having done so. More specifically, if the determination unit 1005 determines that the combination does not match the specific change pattern set in the third correspondence information, where the answer is the occurrence of a criminal act, the determination unit 1005 determines that a criminal act against the target person has occurred. Evaluate that it has not occurred.

判定部1005は、より具体的には、生成した第1の特徴量の変化パターンと、生成した第2の特徴量の変化パターンとの組み合わせが、犯罪行為の発生なしを解とする第3対応情報に設定された特定の変化パターンに合致するか否かを判定する。判定部1005は、より具体的には、組み合わせが、犯罪行為の発生なしを解とする第3対応情報に設定された特定の変化パターンに合致すると判定した場合、対象の人物に対する犯罪行為が発生していないと評価してもよい。 More specifically, the determination unit 1005 determines that the combination of the generated change pattern of the first feature amount and the generated change pattern of the second feature amount is a third response in which the solution is that no criminal act occurs. Determine whether the information matches a specific change pattern set in the information. More specifically, if the determination unit 1005 determines that the combination matches a specific change pattern set in the third correspondence information, where the solution is that no criminal act has occurred, the determination unit 1005 determines that a criminal act has occurred against the target person. You can evaluate it as not having done so.

判定部1005は、より具体的には、生成した第1の特徴量の変化パターンと、生成した第2の特徴量の変化パターンとの組み合わせを、上述した第3モデルに入力することにより、第3モデルを用いて対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、第3モデルが入力に応じて出力した犯罪行為の発生状況の解に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。 More specifically, the determination unit 1005 inputs the combination of the generated change pattern of the first feature amount and the generated change pattern of the second feature amount into the third model described above. The occurrence of criminal acts against a target person may be evaluated using the three models. More specifically, the determination unit 1005 evaluates the occurrence situation of the criminal act against the target person based on the solution of the occurrence situation of the criminal act outputted by the third model in response to the input.

判定部1005は、具体的には、生成した第1の特徴量を第1閾値と比較し、かつ、生成した第2の特徴量を第2閾値と比較してもよい。第1閾値は、例えば、予め利用者によって設定される。第2閾値は、例えば、予め利用者によって設定される。判定部1005は、具体的には、第1の特徴量が第1閾値以上、かつ、第2の特徴量が第2閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。判定部1005は、具体的には、第1の特徴量が閾値未満、または、第2の特徴量が第2閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。 Specifically, the determination unit 1005 may compare the generated first feature amount with a first threshold value, and may also compare the generated second feature amount with a second threshold value. The first threshold value is set in advance by the user, for example. The second threshold value is set in advance by the user, for example. Specifically, the determination unit 1005 evaluates that a criminal act against the target person has occurred when the first feature amount is greater than or equal to the first threshold and the second feature amount is greater than or equal to the second threshold. Specifically, when the first feature amount is less than the threshold value or the second feature amount is less than the second threshold value, the determination unit 1005 evaluates that a criminal act against the target person has not occurred.

これにより、判定部1005は、犯罪行為の発生状況を精度よく評価することができる。判定部1005は、例えば、犯罪行為が発生したか否かを精度よく評価することができる。判定部1005は、具体的には、生体データのうち、ノイズ重畳が比較的小さくなり易い部分生体データに基づく第1の特徴量を利用することができる。また、判定部1005は、具体的には、音声データのうち、音声の特徴を読み取り易く、犯罪行為の発生状況の評価に活用し易い部分音声データに基づく第2の特徴量を利用することができる。このため、判定部1005は、対象の人物に対する犯罪行為の発生状況を、精度よく評価することができる。 Thereby, the determination unit 1005 can accurately evaluate the occurrence of a criminal act. The determination unit 1005 can, for example, accurately evaluate whether a criminal act has occurred. Specifically, the determination unit 1005 can use a first feature amount based on partial biometric data in which noise superposition tends to be relatively small among the biometric data. Further, specifically, the determination unit 1005 may use a second feature amount based on partial audio data, which is easy to read the characteristics of the audio data and is easy to use for evaluating the occurrence situation of criminal acts. can. Therefore, the determination unit 1005 can accurately evaluate the occurrence of a criminal act against the target person.

出力部1006は、少なくともいずれかの機能部の処理結果を出力する。出力形式は、例えば、ディスプレイへの表示、プリンタへの印刷出力、ネットワークI/F503による外部装置への送信、または、メモリ502や記録媒体505などの記憶領域への記憶である。これにより、出力部1006は、少なくともいずれかの機能部の処理結果を利用者に通知可能にし、情報処理装置100の利便性の向上を図ることができる。 The output unit 1006 outputs the processing result of at least one of the functional units. The output format is, for example, displaying on a display, printing out to a printer, transmitting to an external device via network I/F 503, or storing in a storage area such as memory 502 or recording medium 505. Thereby, the output unit 1006 can notify the user of the processing results of at least one of the functional units, thereby improving the usability of the information processing apparatus 100.

出力部1006は、例えば、判定部1005で犯罪行為の発生状況を評価した結果を出力する。出力部1006は、具体的には、判定部1005で犯罪行為の発生状況を評価した結果を、対象の人物が参照可能に出力する。出力部1006は、具体的には、判定部1005で犯罪行為の発生状況を評価した結果を、対象の人物の関係者が参照可能に出力してもよい。関係者は、例えば、近親者などである。出力部1006は、具体的には、判定部1005で犯罪行為の発生状況を評価した結果を、警察または銀行などの所定の組織で参照可能に出力してもよい。出力部1006は、より具体的には、判定部1005で犯罪行為の発生状況を評価した結果を、アラート出力装置203に送信する。これにより、出力部1006は、犯罪行為による犯罪被害を防止し易くすることができる。 The output unit 1006 outputs, for example, the result of the evaluation of the occurrence of a criminal act by the determination unit 1005. Specifically, the output unit 1006 outputs the result of the evaluation of the occurrence of the criminal act by the determination unit 1005 so that the target person can refer to it. Specifically, the output unit 1006 may output the result of the evaluation of the occurrence of a criminal act by the determination unit 1005 so that a person related to the target person can refer to the result. The related person is, for example, a close relative. Specifically, the output unit 1006 may output the result of the evaluation of the occurrence of a criminal act by the determination unit 1005 so that it can be referenced by a predetermined organization such as the police or a bank. More specifically, the output unit 1006 transmits to the alert output device 203 the result of the evaluation of the occurrence of a criminal act by the determination unit 1005. Thereby, the output unit 1006 can make it easier to prevent criminal damage caused by criminal acts.

出力部1006は、例えば、判定部1005で犯罪行為が発生したと評価した場合に、犯罪行為が発生したことを示す通知またはアラートを出力してもよい。出力部1006は、具体的には、犯罪行為が発生したことを示す通知またはアラートを、対象の人物が参照可能に出力する。出力部1006は、具体的には、犯罪行為が発生したことを示す通知またはアラートを、対象の人物の関係者が参照可能に出力してもよい。関係者は、例えば、近親者などである。出力部1006は、具体的には、犯罪行為が発生したことを示す通知またはアラートを、警察または銀行などの所定の組織で参照可能に出力してもよい。出力部1006は、より具体的には、犯罪行為が発生したことを示す通知またはアラートを、アラート出力装置203に送信する。これにより、出力部1006は、犯罪行為による犯罪被害を防止し易くすることができる。 For example, when the determination unit 1005 evaluates that a criminal act has occurred, the output unit 1006 may output a notification or an alert indicating that a criminal act has occurred. Specifically, the output unit 1006 outputs a notification or alert indicating that a criminal act has occurred so that the target person can refer to it. Specifically, the output unit 1006 may output a notification or alert indicating that a criminal act has occurred so that a person related to the target person can refer to the notification or alert. The related person is, for example, a close relative. Specifically, the output unit 1006 may output a notification or alert indicating that a criminal act has occurred so that it can be referenced by a predetermined organization such as the police or a bank. More specifically, the output unit 1006 transmits a notification or alert indicating that a criminal act has occurred to the alert output device 203. Thereby, the output unit 1006 can make it easier to prevent criminal damage caused by criminal acts.

ここでは、情報処理装置100が、音声データに基づいて、犯罪行為の発生状況を評価する場合について説明したが、これに限らない。例えば、他のコンピュータが、音声データを解析することにより、対象の人物と他の人物との会話内容を示すテキストデータ、または、対象の人物と他の人物との音声特徴を示す解析データなどを生成する場合があってもよい。この場合、情報処理装置100は、例えば、他のコンピュータから、対象の人物と他の人物との会話内容を示すテキストデータ、または、対象の人物と他の人物との音声特徴を示す解析データなどを受信する。情報処理装置100は、例えば、対象の人物と他の人物との会話内容を示すテキストデータ、または、対象の人物と他の人物との音声特徴を示す解析データなどを、音声データの代わりに利用する。 Here, a case has been described in which the information processing device 100 evaluates the occurrence of a criminal act based on audio data, but the present invention is not limited to this. For example, by analyzing voice data, another computer can generate text data that shows the content of the conversation between the target person and another person, or analysis data that shows the voice characteristics between the target person and the other person. may be generated. In this case, the information processing device 100 receives, for example, text data indicating the content of a conversation between the target person and another person, or analysis data indicating voice characteristics between the target person and another person, etc. from another computer. receive. The information processing device 100 uses, for example, text data indicating the content of a conversation between a target person and another person, or analysis data indicating voice characteristics between the target person and another person, instead of audio data. do.

ここでは、情報処理装置100が、取得部1001と、分類部1002と、加工部1003と、算出部1004と、判定部1005と、出力部1006とを含む場合について説明したが、これに限らない。例えば、情報処理装置100が、いずれかの機能部を含まない場合があってもよい。具体的には、情報処理装置100が、加工部1003を含まない場合があってもよい。 Here, a case has been described in which the information processing device 100 includes the acquisition unit 1001, the classification unit 1002, the processing unit 1003, the calculation unit 1004, the determination unit 1005, and the output unit 1006, but the invention is not limited to this. . For example, the information processing device 100 may not include any of the functional units. Specifically, the information processing apparatus 100 may not include the processing unit 1003.

(情報処理装置100の動作例)
次に、図11~図13を用いて、情報処理装置100の動作例について説明する。
(Example of operation of information processing device 100)
Next, an example of the operation of the information processing device 100 will be described using FIGS. 11 to 13.

図11~図13は、情報処理装置100の動作例を示す説明図である。図11において、情報処理装置100は、被害者になり得る受信者の通話終了時、通話開始から通話終了までの通話期間における受信者と発信者との電話を介した会話音声を示す音声データを取得する。発信者は、詐欺師である場合がある。情報処理装置100は、通話期間における受信者の心拍数の時間変化を示す生体データを取得する。 11 to 13 are explanatory diagrams showing operation examples of the information processing device 100. In FIG. 11, the information processing device 100 generates audio data indicating the conversation voice between the receiver and the caller over the phone during the call period from the start of the call to the end of the call, when the call of the receiver who could be the victim ends. get. The caller may be a scammer. The information processing device 100 acquires biometric data indicating temporal changes in the recipient's heart rate during the call period.

情報処理装置100は、音声データに基づいて、受信者の音声1101と、発信者の音声1102とを抽出する。情報処理装置100は、抽出した受信者の音声1101と、発信者の音声1102とに基づいて、通話期間を、受信者が発信者の発話を聴取した聴取区間と、受信者が相槌以外の発話内容を発話した発話区間とに分類する。 The information processing apparatus 100 extracts the recipient's voice 1101 and the sender's voice 1102 based on the voice data. Based on the extracted recipient's voice 1101 and caller's voice 1102, the information processing device 100 determines the call period, the listening period in which the recipient listened to the caller's utterances, and the utterances other than the recipient's utterances. The content is classified into the utterance section in which the content was uttered.

情報処理装置100は、例えば、フィルタ情報管理テーブル600を参照して、「沈黙」に対応する音声パターン、および、「相槌」に対応する音声パターンなどを取得する。情報処理装置100は、受信者の音声1101と発信者の音声1102とに基づいて、通話期間のうち、発信者が発話中であり、受信者の音声1101に「沈黙」に対応する音声パターンが現れる区間を、沈黙区間および聴取区間に分類する。 The information processing device 100, for example, refers to the filter information management table 600 and obtains a voice pattern corresponding to "silence", a voice pattern corresponding to "agishoku", and the like. Based on the receiver's voice 1101 and the caller's voice 1102, the information processing apparatus 100 determines that the caller is speaking during the call period and that the receiver's voice 1101 has a voice pattern corresponding to "silence". The appearing sections are classified into silent sections and listening sections.

情報処理装置100は、受信者の音声1101と発信者の音声1102とに基づいて、通話期間のうち、発信者が発話中であり、受信者の音声1101に「相槌」に対応する音声パターンが現れる区間を、相槌区間および聴取区間に分類する。情報処理装置100は、連続する聴取区間を結合する。情報処理装置100は、例えば、受信者の音声1101に基づいて、相槌区間以外で、受信者が発話した区間を、発話区間に分類する。次に、図12の説明に移行する。 Based on the receiver's voice 1101 and the caller's voice 1102, the information processing device 100 determines that the caller is speaking during the call period and that the receiver's voice 1101 has a voice pattern corresponding to "Aitsuchi". The appearing sections are classified into agreeing sections and listening sections. The information processing device 100 combines consecutive listening sections. The information processing apparatus 100 classifies, for example, a section in which the receiver speaks other than the intermittent section as a speech section, based on the receiver's voice 1101. Next, the explanation will move on to FIG. 12.

図12において、情報処理装置100は、発話区間ごとに、受信者の音声1101のうち、当該発話区間に対応する部分音声に基づいて、当該発話区間における受信者の感情値を生成する。感情値は、感情の特徴値である。感情値は、例えば、ネガティブまたはポジティブなどである。感情値は、例えば、「残念」または「意欲的」などであってもよい。情報処理装置100は、例えば、発話区間ごとに、当該発話区間に対応する部分音声に基づいて、受信者の音声のトーン、声量、または、キーワードなどを考慮して、当該発話区間における受信者の感情値を生成する。 In FIG. 12, the information processing apparatus 100 generates the recipient's emotional value for each utterance interval based on the partial voice corresponding to the utterance interval out of the recipient's voice 1101. The emotion value is a characteristic value of emotion. The emotional value is, for example, negative or positive. The emotional value may be, for example, "regrettable" or "motivated". For example, for each utterance section, the information processing device 100 considers the tone, volume, or keyword of the recipient's voice based on the partial speech corresponding to the utterance section, and calculates the receiver's performance in the utterance section. Generate emotional values.

図12の例では、情報処理装置100は、具体的には、第1の発話区間に対応する受信者の部分音声「昨日までだったんですか↓」のトーン、声量、または、キーワードなどを考慮して、第1の発話区間における受信者の感情値「ネガティブ「残念」」を生成する。矢印は、音声の末尾のトーンが上がり気味であるか、または、下がり気味であるかを示す。情報処理装置100は、具体的には、第2の発話区間に対応する受信者の音声「分かりました。すぐ行きます↑」のトーン、声量、または、キーワードなどを考慮して、第2の発話区間における受信者の感情値「ポジティブ「意欲的」」を生成する。 In the example of FIG. 12, the information processing device 100 specifically considers the tone, voice volume, keyword, etc. of the recipient's partial voice “Did you say that until yesterday↓” corresponding to the first utterance section? Then, the receiver's emotional value ``negative ``regrettable'''' in the first utterance section is generated. The arrow indicates whether the tone at the end of the voice is rising or falling. Specifically, the information processing device 100 takes into consideration the tone, voice volume, keyword, etc. of the recipient's voice "I understand. I'll go right away ↑" corresponding to the second utterance section, and performs the second utterance section. The receiver's emotional value "positive 'motivated'" in the utterance section is generated.

情報処理装置100は、複数の発話区間に跨った受信者の感情値の変化パターンを生成する。情報処理装置100は、感情パターン情報管理テーブル700を参照して、生成した変化パターンに基づいて、受信者に対する発信者による詐欺行為が発生したか否かを判定する。 The information processing device 100 generates a change pattern of the recipient's emotional value across a plurality of utterance sections. The information processing device 100 refers to the emotion pattern information management table 700 and determines whether or not a fraudulent act has occurred by the sender against the recipient, based on the generated change pattern.

これにより、情報処理装置100は、受信者に対する発信者による詐欺行為が発生したか否かを精度よく判定することができる。情報処理装置100は、例えば、相槌区間のように、時間長さが比較的短く、受信者の感情値を生成し難い区間について、受信者の感情値を生成せずに済ませることができる。情報処理装置100は、例えば、発話区間のように、時間長さが比較的長く、受信者の感情値を精度よく生成し易い区間について、受信者の感情値を生成することができる。情報処理装置100は、例えば、比較的精度がよい受信者の感情値の変化パターンに基づいて、受信者に対する発信者による詐欺行為が発生したか否かを精度よく判定可能にすることができる。 Thereby, the information processing apparatus 100 can accurately determine whether or not a fraudulent act has occurred by the sender against the recipient. The information processing device 100 can, for example, do not need to generate the emotional value of the receiver for a section such as the mutual agreement section where the length of time is relatively short and it is difficult to generate the emotional value of the receiver. The information processing device 100 can generate the recipient's emotional value for a section, such as a speaking section, which has a relatively long time length and is easy to accurately generate the recipient's emotional value. For example, the information processing apparatus 100 can accurately determine whether or not a fraudulent act has occurred by the sender against the recipient, based on a relatively accurate change pattern of the emotional value of the recipient.

図13において、情報処理装置100は、フィルタ情報管理テーブル600を参照して、「沈黙」に対応する沈黙用フィルタ、および、「相槌」に対応する相槌用フィルタなどを取得する。沈黙用フィルタは、例えば、生体データから、呼吸に基づくノイズを除去するためのフィルタである。相槌用フィルタは、例えば、生体データから、体動に基づくノイズを除去するためのフィルタである。 In FIG. 13, the information processing apparatus 100 refers to the filter information management table 600 and obtains a silence filter corresponding to "silence", a mutual agreement filter corresponding to "commitment", and the like. The silence filter is, for example, a filter for removing breathing-based noise from biological data. The feedback filter is, for example, a filter for removing noise based on body movements from biological data.

情報処理装置100は、通話期間における受信者の心拍数の時間変化を示す生体データのうち、沈黙区間に対応する部分生体データに対して、沈黙用フィルタを適用することにより、ノイズ除去処理を実施する。情報処理装置100は、通話期間における受信者の心拍数の時間変化を示す生体データのうち、相槌区間に対応する部分生体データに対して、相槌用フィルタを適用することにより、ノイズ除去処理を実施する。 The information processing device 100 performs noise removal processing by applying a silence filter to the partial biometric data corresponding to the silent period among the biometric data indicating the temporal change in the recipient's heart rate during the call period. do. The information processing device 100 performs noise removal processing by applying a matching filter to the partial biometric data corresponding to the matching section among the biometric data indicating temporal changes in the recipient's heart rate during the call period. do.

情報処理装置100は、ノイズ除去処理を実施した後、通話期間における受信者の心拍数の時間変化を示す生体データに基づいて、聴取区間ごとに、当該聴取区間の開始時の心拍数から聴取区間の終了時の心拍数までの変化量を算出する。情報処理装置100は、少なくともいずれかの聴取区間において、算出した変化量が閾値以上であれば、受信者に対する発信者による詐欺行為が発生したと判定する。情報処理装置100は、いずれの聴取区間についても、算出した変化量が閾値未満であれば、受信者に対する発信者による詐欺行為が発生していないと判定する。 After performing the noise removal process, the information processing device 100 calculates the listening interval from the heart rate at the start of the listening interval for each listening interval based on the biological data indicating the time change in the recipient's heart rate during the call period. Calculate the amount of change in heart rate up to the end of the period. If the calculated amount of change is equal to or greater than the threshold value in at least one of the listening sections, the information processing device 100 determines that a fraudulent act by the sender against the recipient has occurred. If the calculated amount of change is less than the threshold value for any listening section, the information processing device 100 determines that no fraud has occurred by the sender against the receiver.

情報処理装置100は、ノイズ除去処理を実施した後、通話期間における受信者の心拍数の時間変化を示す生体データに基づいて、聴取区間ごとに、当該聴取区間の開始時の心拍数から聴取区間の終了時の心拍数までの変化パターンを生成してもよい。情報処理装置100は、生体パターン情報管理テーブル800を参照して、生成した変化パターンに基づいて、受信者に対する発信者による詐欺行為が発生したか否かを判定してもよい。 After performing the noise removal process, the information processing device 100 calculates the listening interval from the heart rate at the start of the listening interval for each listening interval based on the biological data indicating the time change in the recipient's heart rate during the call period. A change pattern up to the end of the heart rate may be generated. The information processing device 100 may refer to the biometric pattern information management table 800 and determine whether or not a fraudulent act by the sender against the recipient has occurred based on the generated change pattern.

これにより、情報処理装置100は、受信者に対する発信者による詐欺行為が発生したか否かを精度よく判定することができる。情報処理装置100は、例えば、発話区間のように、体動ノイズなどのノイズ重畳が比較的大きくなり易く、犯罪行為の発生状況の評価に活用し難い区間について、心拍数の変化パターンを生成せずに済ませることができる。情報処理装置100は、例えば、聴取区間のように、体動ノイズなどのノイズ重畳が比較的小さくなり易く、犯罪行為の発生状況の評価に活用し易い区間について、心拍数の変化パターンを生成することができる。このため、情報処理装置100は、例えば、体動ノイズなどのノイズ重畳が比較的小さい、心拍数の変化パターンに基づいて、受信者に対する発信者による詐欺行為が発生したか否かを精度よく判定可能にすることができる。 Thereby, the information processing apparatus 100 can accurately determine whether or not a fraudulent act has occurred by the sender against the recipient. For example, the information processing device 100 generates a heart rate change pattern for an interval, such as a speaking interval, in which noise such as body movement noise tends to be relatively large and is difficult to utilize for evaluating the occurrence of criminal acts. You can get away with it without having to do it. For example, the information processing device 100 generates a heart rate change pattern for an interval, such as a listening interval, in which superimposition of noise such as body movement noise is likely to be relatively small and can be easily utilized for evaluating the occurrence of criminal acts. be able to. For this reason, the information processing device 100 accurately determines whether or not a fraudulent act has occurred by the sender against the recipient, based on a heart rate change pattern in which noise such as body movement noise is relatively small. can be made possible.

情報処理装置100は、音声パターンに対応する区間ごとに、当該音声パターンに対応するフィルタを利用して、適切にノイズ除去処理を実施することができる。情報処理装置100は、例えば、音声パターンに応じて、どのような種類のノイズが含まれる傾向があるか、および、ノイズの大きさがどの程度である傾向があるかなどを考慮したフィルタを利用することができる。このため、情報処理装置100は、生体データから、精度よくノイズを除去することができる。そして、情報処理装置100は、心拍数の変化パターンを精度よく生成することができ、受信者に対する発信者による詐欺行為が発生したか否かを精度よく判定可能にすることができる。 The information processing device 100 can appropriately perform noise removal processing for each section corresponding to the voice pattern using a filter corresponding to the voice pattern. The information processing device 100 uses a filter that takes into consideration, for example, what kind of noise tends to be included and how large the noise tends to be, depending on the voice pattern. can do. Therefore, the information processing device 100 can accurately remove noise from biometric data. Then, the information processing device 100 can accurately generate a heart rate change pattern, and can accurately determine whether or not a fraudulent act has occurred by the sender against the recipient.

(全体処理手順)
次に、図14を用いて、情報処理装置100が実行する、全体処理手順の一例について説明する。全体処理は、例えば、図5に示したCPU501と、メモリ502や記録媒体505などの記憶領域と、ネットワークI/F503とによって実現される。
(Overall processing procedure)
Next, an example of the overall processing procedure executed by the information processing apparatus 100 will be described using FIG. 14. The overall processing is realized by, for example, the CPU 501 shown in FIG. 5, a storage area such as a memory 502 or a recording medium 505, and a network I/F 503.

図14は、全体処理手順の一例を示すフローチャートである。情報処理装置100は、対象の人物の通話開始を検出する(ステップS1401)。 FIG. 14 is a flowchart illustrating an example of the overall processing procedure. The information processing apparatus 100 detects the start of a call by a target person (step S1401).

次に、情報処理装置100は、所定のタイミングで、対象の期間における対象の人物の音声データを取得する(ステップS1402)。所定のタイミングは、例えば、通話終了のタイミングである。対象の期間は、例えば、通話開始から通話終了までの通話期間である。そして、情報処理装置100は、所定のタイミングで、対象の期間における対象の人物の生体データを取得する(ステップS1403)。 Next, the information processing apparatus 100 acquires voice data of the target person during the target period at a predetermined timing (step S1402). The predetermined timing is, for example, the timing at which the call ends. The target period is, for example, the call period from the start of the call to the end of the call. The information processing apparatus 100 then acquires biometric data of the target person during the target period at a predetermined timing (step S1403).

次に、情報処理装置100は、取得した音声データを解析し、対象の期間を、発話区間と聴取区間とに分類すると共に、聴取区間を、沈黙区間と相槌区間とに分類する(ステップS1404)。そして、情報処理装置100は、対象の期間の先頭から順に、発話区間と聴取区間とのいずれかの区間を処理対象として選択する(ステップS1405)。 Next, the information processing device 100 analyzes the acquired audio data, classifies the target period into a speaking interval and a listening interval, and classifies the listening interval into a silent interval and a chirping interval (step S1404). . Then, the information processing apparatus 100 selects either the speaking section or the listening section as a processing target in order from the beginning of the target period (step S1405).

次に、情報処理装置100は、選択した区間が、聴取区間であるか否かを判定する(ステップS1406)。ここで、選択した区間が、聴取区間である場合(ステップS1406:Yes)、情報処理装置100は、ステップS1407の処理に移行する。一方で、選択した区間が、聴取区間ではなく発話区間である場合(ステップS1406:No)、情報処理装置100は、ステップS1410の処理に移行する。 Next, the information processing device 100 determines whether the selected section is a listening section (step S1406). Here, if the selected section is the listening section (step S1406: Yes), the information processing device 100 moves to the process of step S1407. On the other hand, if the selected section is not a listening section but a speaking section (step S1406: No), the information processing device 100 moves to the process of step S1410.

ステップS1407では、情報処理装置100は、対象の期間における対象の人物の生体データのうち、聴取区間における対象の人物の生体データを取得する(ステップS1407)。次に、情報処理装置100は、聴取区間における対象の人物の生体データに対するノイズ除去処理を実施する(ステップS1408)。 In step S1407, the information processing apparatus 100 acquires the biometric data of the target person in the listening section from among the biometric data of the target person in the target period (step S1407). Next, the information processing apparatus 100 performs noise removal processing on the biometric data of the target person in the listening section (step S1408).

情報処理装置100は、例えば、聴取区間における対象の人物の生体データのうち、沈黙区間に関する部分データに、沈黙に対応するフィルタを適用し、ノイズを除去する。また、情報処理装置100は、例えば、聴取区間における対象の人物の生体データのうち、相槌区間に関する部分データに対して、相槌に対応するフィルタを適用し、ノイズを除去する。 For example, the information processing device 100 applies a filter corresponding to silence to partial data related to the silence section of the biological data of the target person in the listening section to remove noise. Further, the information processing device 100 applies a filter corresponding to the agreement to partial data related to the agreement section among the biometric data of the target person in the listening section, for example, to remove noise.

そして、情報処理装置100は、取得した聴取区間における対象の人物の生体データの第1の特徴量を算出する(ステップS1409)。その後、情報処理装置100は、ステップS1412の処理に移行する。 Then, the information processing device 100 calculates the first feature amount of the biometric data of the target person in the acquired listening section (step S1409). After that, the information processing apparatus 100 moves to the process of step S1412.

ステップS1410では、情報処理装置100は、対象の期間における対象の人物の音声データのうち、発話区間における対象の人物の音声データを抽出する(ステップS1410)。次に、情報処理装置100は、抽出した発話区間における対象の人物の音声データの第2の特徴量を算出する(ステップS1411)。そして、情報処理装置100は、ステップS1412の処理に移行する。 In step S1410, the information processing apparatus 100 extracts the target person's voice data in the utterance period from the target person's voice data in the target period (step S1410). Next, the information processing device 100 calculates a second feature amount of the target person's voice data in the extracted speech section (step S1411). The information processing apparatus 100 then proceeds to the process of step S1412.

ステップS1412では、情報処理装置100は、すべての区間を処理対象として選択したか否かを判定する(ステップS1412)。ここで、いずれかの区間を選択していない場合(ステップS1412:No)、情報処理装置100は、ステップS1405の処理に戻る。一方で、すべての区間を選択した場合(ステップS1412:Yes)、情報処理装置100は、ステップS1413の処理に移行する。 In step S1412, the information processing apparatus 100 determines whether all sections have been selected as processing targets (step S1412). Here, if any section is not selected (step S1412: No), the information processing apparatus 100 returns to the process of step S1405. On the other hand, if all sections are selected (step S1412: Yes), the information processing apparatus 100 moves to the process of step S1413.

ステップS1413では、情報処理装置100は、算出した第1の特徴量の変化パターンと、算出した第2の特徴量の変化パターンとに基づいて、詐欺行為の発生有無を判定する(ステップS1413)。そして、情報処理装置100は、全体処理を終了する。これにより、情報処理装置100は、詐欺行為の発生有無を精度よく判定することができる。 In step S1413, the information processing device 100 determines whether a fraudulent act has occurred based on the calculated change pattern of the first feature amount and the calculated change pattern of the second feature amount (step S1413). Then, the information processing device 100 ends the overall processing. Thereby, the information processing device 100 can accurately determine whether or not a fraudulent act has occurred.

ここでは、所定のタイミングが、通話終了のタイミングである場合について説明したが、これに限らない。例えば、所定のタイミングが、通話開始から一定時間ごとのタイミングである場合があってもよい。この場合、対象の期間は、所定のタイミングから一定時間前までの期間であってもよい。この場合、情報処理装置100は、ステップS1413の処理を実施した後、ステップS1402の処理に戻ってもよい。 Although a case has been described here in which the predetermined timing is the timing at which the call ends, the predetermined timing is not limited to this. For example, the predetermined timing may be at regular intervals from the start of the call. In this case, the period of interest may be a period from a predetermined timing to a certain time before. In this case, the information processing apparatus 100 may return to the process of step S1402 after performing the process of step S1413.

ここで、情報処理装置100は、図14の一部ステップの処理の順序を入れ替えて実行してもよい。例えば、ステップS1402,S1403の処理の順序は入れ替え可能である。また、情報処理装置100は、図14の一部ステップの処理を省略してもよい。例えば、ステップS1408,S1409の処理は省略可能である。 Here, the information processing apparatus 100 may perform the processing of some steps in FIG. 14 by changing the order of the processing. For example, the order of the processing in steps S1402 and S1403 can be changed. Further, the information processing apparatus 100 may omit the processing of some steps in FIG. For example, the processing in steps S1408 and S1409 can be omitted.

以上説明したように、情報処理装置100によれば、対象の期間における対象の人物の会話を示す音声データを取得することができる。情報処理装置100によれば、取得した音声データに基づいて、対象の期間のうち、設定された1以上の音声パターンそれぞれに合致する区間を特定することができる。情報処理装置100によれば、特定した区間それぞれについて、区間における対象の人物の生体データに対して、1以上の音声パターンのうち、区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施することができる。情報処理装置100によれば、特定した区間それぞれにおける、ノイズ除去処理を実施した後の対象の人物の生体データに基づいて、対象の人物に対する犯罪行為の発生状況を評価することができる。これにより、情報処理装置100は、対象の人物の生体データからノイズを適切に除去することができ、対象の人物に対する犯罪行為の発生状況を精度よく評価することができる。 As described above, according to the information processing apparatus 100, it is possible to acquire audio data indicating a conversation of a target person during a target period. According to the information processing device 100, based on the acquired audio data, it is possible to specify sections of the target period that match each of the one or more set audio patterns. According to the information processing device 100, for each identified section, a noise removal process corresponding to one of the one or more voice patterns that matches the section is performed on the biometric data of the target person in the section. It can be implemented. According to the information processing device 100, it is possible to evaluate the occurrence of a criminal act against a target person based on the target person's biometric data after performing noise removal processing in each of the identified sections. Thereby, the information processing device 100 can appropriately remove noise from the biometric data of the target person, and can accurately evaluate the occurrence of criminal acts against the target person.

情報処理装置100によれば、1以上の音声パターンそれぞれと、生体データからノイズを除去するフィルタとを対応付けて記憶する記憶部を有することができる。情報処理装置100によれば、記憶部を参照して、特定した区間それぞれについて、区間における対象の人物の生体データに対して、区間と合致したいずれかの音声パターンに対応付けられたフィルタを用いて、ノイズ除去処理を実施することができる。これにより、情報処理装置100は、ノイズ除去処理をフィルタにより実現することができる。 The information processing device 100 can include a storage unit that stores one or more voice patterns in association with a filter that removes noise from biometric data. According to the information processing device 100, for each specified section, the information processing device 100 refers to the storage unit and uses a filter associated with one of the voice patterns that matches the section with respect to the biometric data of the target person in the section. Then, noise removal processing can be performed. Thereby, the information processing apparatus 100 can implement noise removal processing using a filter.

情報処理装置100によれば、電話を介した対象の期間における対象の人物の会話を示す音声データを取得することができる。情報処理装置100によれば、特定した区間それぞれにおける、ノイズ除去処理を実施した後の対象の人物の生体データに基づいて、電話を介した対象の人物に対する詐欺行為の発生状況を評価することができる。これにより、情報処理装置100は、電話を介した詐欺行為による詐欺被害を防止し易くすることができる。 According to the information processing device 100, it is possible to acquire audio data indicating a conversation of a target person during a target period via a telephone. According to the information processing device 100, it is possible to evaluate the occurrence of fraud against a target person via telephone based on the target person's biometric data after performing noise removal processing in each specified section. can. Thereby, the information processing device 100 can easily prevent fraud damage caused by fraudulent acts via the telephone.

情報処理装置100によれば、特定した区間それぞれにおける、区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の対象の人物の生体データに基づいて、区間における対象の人物に関する特徴量を生成することができる。情報処理装置100によれば、生成した特徴量の変化パターンに基づいて、対象の人物に対する犯罪行為の発生状況を評価することができる。これにより、情報処理装置100は、特徴量の変化パターンを考慮することができ、対象の人物に対する犯罪行為の発生状況を精度よく評価可能にすることができる。 According to the information processing device 100, information regarding the target person in each specified interval is based on the biological data of the target person after performing noise removal processing corresponding to one of the voice patterns that matches the interval in each of the identified intervals. Features can be generated. According to the information processing device 100, it is possible to evaluate the occurrence of a criminal act against a target person based on the change pattern of the generated feature amount. Thereby, the information processing device 100 can take into account the change pattern of the feature amount, and can accurately evaluate the occurrence of a criminal act against the target person.

情報処理装置100によれば、特定した区間それぞれについて、区間における対象の人物の心拍または脈拍に関する計測値を示す生体データに対して、区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施することができる。情報処理装置100によれば、特定した区間それぞれにおける、ノイズ除去処理を実施した後の生体データに基づいて、区間における対象の人物の心拍または脈拍に関する計測値の変化量である特徴量を生成することができる。情報処理装置100によれば、生成した特徴量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価することができる。情報処理装置100によれば、生成した特徴量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価することができる。これにより、情報処理装置100は、犯罪行為が発生したか否かを精度よく評価することができる。 According to the information processing device 100, for each specified section, a noise removal process corresponding to one of the voice patterns that matches the section is performed on biometric data indicating a measured value regarding the heartbeat or pulse of the target person in the section. It can be implemented. According to the information processing device 100, a feature quantity that is the amount of change in a measured value regarding the heartbeat or pulse of the target person in each of the specified intervals is generated based on the biological data after performing the noise removal process in each of the identified intervals. be able to. According to the information processing device 100, if the generated feature amount is equal to or greater than the threshold value, it can be evaluated that a criminal act against the target person has occurred. According to the information processing device 100, if the generated feature amount is less than the threshold value, it can be evaluated that no criminal act has occurred against the target person. Thereby, the information processing device 100 can accurately evaluate whether a criminal act has occurred.

情報処理装置100によれば、特定した区間それぞれについて、区間における対象の人物の心拍または脈拍に関する計測値を示す生体データに対して、区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施することができる。情報処理装置100によれば、特定した区間それぞれにおける、ノイズ除去処理を実施した後の生体データに基づいて、区間における対象の人物の心拍または脈拍に関する計測値の統計値である特徴量を生成することができる。情報処理装置100によれば、生成した特徴量の変化量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価することができる。情報処理装置100によれば、生成した特徴量の変化量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価することができる。これにより、情報処理装置100は、犯罪行為が発生したか否かを精度よく評価することができる。 According to the information processing device 100, for each specified section, a noise removal process corresponding to one of the voice patterns that matches the section is performed on biometric data indicating a measured value regarding the heartbeat or pulse of the target person in the section. It can be implemented. According to the information processing device 100, a feature amount that is a statistical value of a measured value regarding the heartbeat or pulse of the target person in the specified section is generated based on the biological data after performing the noise removal process in each specified section. be able to. According to the information processing device 100, if the amount of change in the generated feature amount is equal to or greater than the threshold value, it can be evaluated that a criminal act against the target person has occurred. According to the information processing device 100, if the amount of change in the generated feature amount is less than the threshold value, it can be evaluated that no criminal act has occurred against the target person. Thereby, the information processing device 100 can accurately evaluate whether a criminal act has occurred.

なお、本実施の形態で説明した情報処理方法は、予め用意されたプログラムをPCやワークステーションなどのコンピュータで実行することにより実現することができる。本実施の形態で説明した情報処理プログラムは、コンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。記録媒体は、ハードディスク、フレキシブルディスク、CD(Compact Disc)-ROM、MO(Magneto Optical disc)、DVD(Digital Versatile Disc)などである。また、本実施の形態で説明した情報処理プログラムは、インターネットなどのネットワークを介して配布してもよい。 Note that the information processing method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a PC or a workstation. The information processing program described in this embodiment is recorded on a computer-readable recording medium, and executed by being read from the recording medium by the computer. The recording medium includes a hard disk, a flexible disk, a CD (Compact Disc)-ROM, an MO (Magneto Optical disc), a DVD (Digital Versatile Disc), and the like. Furthermore, the information processing program described in this embodiment may be distributed via a network such as the Internet.

上述した実施の形態に関し、さらに以下の付記を開示する。 Regarding the embodiments described above, the following additional notes are further disclosed.

(付記1)ある期間における対象の人物の会話を示す音声データを取得し、
取得した前記音声データに基づいて、前記期間のうち、設定された1以上の音声パターンそれぞれに合致する区間を特定し、
特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
(Additional note 1) Obtain audio data showing the conversation of a target person during a certain period,
Based on the acquired audio data, identify a section of the period that matches each of the one or more set audio patterns,
For each of the identified sections, perform a noise removal process on the biometric data of the target person in the section, corresponding to any one of the one or more voice patterns that matches the section;
Based on the biometric data of the target person after performing noise removal processing corresponding to one of the voice patterns that matched the interval in each of the identified intervals, the occurrence status of the criminal act against the target person is determined. evaluate,
An information processing program that causes a computer to perform processing.

(付記2)前記実施する処理は、
前記1以上の音声パターンそれぞれと、生体データからノイズを除去するフィルタとを対応付けて記憶する記憶部を参照して、特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応付けられたフィルタを用いて、ノイズ除去処理を実施する、ことを特徴とする付記1に記載の情報処理プログラム。
(Additional note 2) The processing to be performed is
With reference to a storage unit that stores each of the one or more voice patterns in association with a filter that removes noise from biometric data, for each of the identified sections, the biometric data of the target person in the section is The information processing according to appendix 1, wherein noise removal processing is performed using a filter associated with one of the voice patterns that matches the interval among the one or more voice patterns. program.

(付記3)前記音声データは、電話を介した前記期間における前記対象の人物の会話を示し、
前記評価する処理は、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、電話を介した他の人物による前記対象の人物に対する詐欺行為の発生状況を評価する、ことを特徴とする付記1または2に記載の情報処理プログラム。
(Additional Note 3) The audio data indicates a conversation of the target person during the period via telephone,
The process to be evaluated is
Based on the biometric data of the target person after performing the noise removal process corresponding to any of the voice patterns that match the interval in each of the identified intervals, the target person's response to the target person's response via the telephone is The information processing program according to appendix 1 or 2, characterized in that the information processing program evaluates the occurrence of fraudulent acts against a person.

(付記4)特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、前記区間における前記対象の人物に関する特徴量を生成し、
前記評価する処理は、
生成した前記特徴量の変化パターンに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、ことを特徴とする付記1または2に記載の情報処理プログラム。
(Additional note 4) Based on the biometric data of the target person in each of the identified intervals after performing noise removal processing corresponding to any of the voice patterns that match the interval, the target person in the interval is determined. Generate features related to
The process to be evaluated is
The information processing program according to appendix 1 or 2, characterized in that the information processing program evaluates the occurrence of a criminal act against the target person based on the generated change pattern of the feature amount.

(付記5)前記実施する処理は、
特定した前記区間それぞれについて、前記区間における前記対象の人物の心拍または脈拍に関する計測値を示す生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、
前記生成する処理は、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の心拍または脈拍に関する計測値を示す生体データに基づいて、前記区間における前記対象の人物の心拍または脈拍に関する計測値の変化量である特徴量を生成し、
前記評価する処理は、
生成した前記特徴量が閾値以上である場合、前記対象の人物に対する犯罪行為が発生したと評価し、生成した前記特徴量が閾値未満である場合、前記対象の人物に対する犯罪行為が発生していないと評価する、ことを特徴とする付記4に記載の情報処理プログラム。
(Additional note 5) The processing to be performed is:
For each of the identified sections, correspond to any one of the one or more voice patterns that matches the section with respect to biometric data indicating a measured value regarding the heartbeat or pulse of the target person in the section. Perform noise removal processing to
The process to generate the
Based on biometric data indicating a measured value regarding the heartbeat or pulse of the target person after performing noise removal processing corresponding to any of the voice patterns that match the specified sections in each of the specified sections, Generating a feature amount that is an amount of change in a measured value regarding the heartbeat or pulse of the target person,
The process to be evaluated is
If the generated feature amount is greater than or equal to a threshold value, it is evaluated that a criminal act against the target person has occurred, and if the generated feature amount is less than the threshold value, a criminal act against the target person has not occurred. The information processing program according to appendix 4, characterized in that the information processing program is evaluated as follows.

(付記6)前記実施する処理は、
特定した前記区間それぞれについて、前記区間における前記対象の人物の心拍または脈拍に関する計測値を示す生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、
前記生成する処理は、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の心拍または脈拍に関する計測値を示す生体データに基づいて、前記区間における前記対象の人物の心拍または脈拍に関する計測値の統計値である特徴量を生成し、
前記評価する処理は、
生成した前記特徴量の変化量が閾値以上である場合、前記対象の人物に対する犯罪行為が発生したと評価し、生成した前記特徴量の変化量が閾値未満である場合、前記対象の人物に対する犯罪行為が発生していないと評価する、ことを特徴とする付記4に記載の情報処理プログラム。
(Additional note 6) The processing to be performed is
For each of the identified sections, correspond to any one of the one or more voice patterns that matches the section with respect to biometric data indicating a measured value regarding the heartbeat or pulse of the target person in the section. Perform noise removal processing to
The process to generate the
Based on biometric data indicating a measured value regarding the heartbeat or pulse of the target person after performing noise removal processing corresponding to any of the voice patterns that match the specified sections in each of the specified sections, Generate a feature amount that is a statistical value of a measured value regarding the heartbeat or pulse of the target person,
The process to be evaluated is
If the amount of change in the generated feature amount is greater than or equal to the threshold, it is evaluated that a criminal act against the target person has occurred, and if the amount of change in the generated feature amount is less than the threshold, a crime against the target person is evaluated. The information processing program according to appendix 4, characterized in that it evaluates that the act has not occurred.

(付記7)ある期間における対象の人物の会話を示す音声データを取得し、
取得した前記音声データに基づいて、前記期間のうち、設定された1以上の音声パターンそれぞれに合致する区間を特定し、
特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
処理をコンピュータが実行することを特徴とする情報処理方法。
(Additional note 7) Obtain audio data showing the conversation of the target person during a certain period,
Based on the acquired audio data, identify a section of the period that matches each of the one or more set audio patterns,
For each of the identified sections, perform a noise removal process on the biometric data of the target person in the section, corresponding to any one of the one or more voice patterns that matches the section;
Based on the biometric data of the target person after performing noise removal processing corresponding to one of the voice patterns that matched the interval in each of the identified intervals, the occurrence status of the criminal act against the target person is determined. evaluate,
An information processing method characterized in that processing is performed by a computer.

(付記8)ある期間における対象の人物の会話を示す音声データを取得し、
取得した前記音声データに基づいて、前記期間のうち、設定された1以上の音声パターンそれぞれに合致する区間を特定し、
特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
制御部を有することを特徴とする情報処理装置。
(Additional note 8) Obtain audio data indicating the conversation of the target person during a certain period,
Based on the acquired audio data, identify a section of the period that matches each of the one or more set audio patterns,
For each of the identified sections, perform a noise removal process on the biometric data of the target person in the section, corresponding to any one of the one or more voice patterns that matches the section;
Based on the biometric data of the target person after performing noise removal processing corresponding to one of the voice patterns that matched the interval in each of the identified intervals, the occurrence status of the criminal act against the target person is determined. evaluate,
An information processing device comprising a control section.

100 情報処理装置
101 音声データ
102 生体データ
200 情報処理システム
201 音声データ取得装置
202 生体データ取得装置
203 アラート出力装置
210 ネットワーク
301,401 ユーザ
302,402 詐欺師
310,414 スマートフォン
311,907 生体センサ
403 関係者
411 ウェアラブル端末
412 スマートスピーカー
413 サーバ
415 固定電話機
500,900 バス
501,901 CPU
502,902 メモリ
503,903 ネットワークI/F
504,904 記録媒体I/F
505,905 記録媒体
600 フィルタ情報管理テーブル
700 感情パターン情報管理テーブル
800 生体パターン情報管理テーブル
906 音声センサ
908 出力装置
1000 記憶部
1001 取得部
1002 分類部
1003 加工部
1004 算出部
1005 判定部
1006 出力部
1101,1102 音声
100 Information processing device 101 Voice data 102 Biometric data 200 Information processing system 201 Voice data acquisition device 202 Biometric data acquisition device 203 Alert output device 210 Network 301,401 User 302,402 Fraudster 310,414 Smartphone 311,907 Biosensor 403 Relationship Person 411 Wearable terminal 412 Smart speaker 413 Server 415 Landline phone 500,900 Bus 501,901 CPU
502,902 Memory 503,903 Network I/F
504,904 Recording medium I/F
505,905 Recording medium 600 Filter information management table 700 Emotion pattern information management table 800 Biological pattern information management table 906 Audio sensor 908 Output device 1000 Storage section 1001 Acquisition section 1002 Classification section 1003 Processing section 1004 Calculation section 1005 Judgment section 1006 Output section 1101 ,1102 Audio

Claims (5)

ある期間における対象の人物の会話を示す音声データを取得し、
取得した前記音声データに基づいて、前記期間のうち、設定された1以上の音声パターンそれぞれに合致する区間を特定し、
特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
Obtain audio data showing the conversation of a target person during a certain period,
Based on the acquired audio data, identify a section of the period that matches each of the one or more set audio patterns,
For each of the identified sections, perform a noise removal process on the biometric data of the target person in the section, corresponding to any one of the one or more voice patterns that matches the section;
Based on the biometric data of the target person after performing noise removal processing corresponding to one of the voice patterns that matched the interval in each of the identified intervals, the occurrence status of the criminal act against the target person is determined. evaluate,
An information processing program that causes a computer to perform processing.
前記実施する処理は、
前記1以上の音声パターンそれぞれと、生体データからノイズを除去するフィルタとを対応付けて記憶する記憶部を参照して、特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応付けられたフィルタを用いて、ノイズ除去処理を実施する、ことを特徴とする請求項1に記載の情報処理プログラム。
The process to be performed is
With reference to a storage unit that stores each of the one or more voice patterns in association with a filter that removes noise from biometric data, for each of the identified sections, the biometric data of the target person in the section is The information according to claim 1, wherein noise removal processing is performed using a filter associated with one of the one or more audio patterns that matches the interval. Processing program.
前記音声データは、電話を介した前記期間における前記対象の人物の会話を示し、
前記評価する処理は、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、電話を介した他の人物による前記対象の人物に対する詐欺行為の発生状況を評価する、ことを特徴とする請求項1または2に記載の情報処理プログラム。
the audio data indicates a conversation of the target person during the period via a telephone;
The process to be evaluated is
Based on the biometric data of the target person after performing the noise removal process corresponding to any of the voice patterns that match the interval in each of the identified intervals, the target person's response to the target person's response via the telephone is 3. The information processing program according to claim 1, wherein the information processing program evaluates the occurrence of fraud against a person.
ある期間における対象の人物の会話を示す音声データを取得し、
取得した前記音声データに基づいて、前記期間のうち、設定された1以上の音声パターンそれぞれに合致する区間を特定し、
特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
処理をコンピュータが実行することを特徴とする情報処理方法。
Obtain audio data showing the conversation of a target person during a certain period,
Based on the acquired audio data, identify a section of the period that matches each of the one or more set audio patterns,
For each of the identified sections, perform a noise removal process on the biometric data of the target person in the section, corresponding to any one of the one or more voice patterns that matches the section;
Based on the biometric data of the target person after performing noise removal processing corresponding to one of the voice patterns that matched the interval in each of the identified intervals, the occurrence status of the criminal act against the target person is determined. evaluate,
An information processing method characterized in that processing is performed by a computer.
ある期間における対象の人物の会話を示す音声データを取得し、
取得した前記音声データに基づいて、前記期間のうち、設定された1以上の音声パターンそれぞれに合致する区間を特定し、
特定した前記区間それぞれについて、前記区間における前記対象の人物の生体データに対して、前記1以上の音声パターンのうち、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施し、
特定した前記区間それぞれにおける、前記区間と合致したいずれかの音声パターンに対応するノイズ除去処理を実施した後の前記対象の人物の生体データに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
制御部を有することを特徴とする情報処理装置。
Obtain audio data showing the conversation of a target person during a certain period,
Based on the acquired audio data, identify a section of the period that matches each of the one or more set audio patterns,
For each of the identified sections, perform a noise removal process on the biometric data of the target person in the section, corresponding to any one of the one or more voice patterns that matches the section;
Based on the biometric data of the target person after performing noise removal processing corresponding to one of the voice patterns that matched the interval in each of the identified intervals, the occurrence status of the criminal act against the target person is determined. evaluate,
An information processing device comprising a control section.
JP2022141784A 2022-09-06 2022-09-06 Information processing program, information processing method, and information processing device Pending JP2024037111A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022141784A JP2024037111A (en) 2022-09-06 2022-09-06 Information processing program, information processing method, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022141784A JP2024037111A (en) 2022-09-06 2022-09-06 Information processing program, information processing method, and information processing device

Publications (1)

Publication Number Publication Date
JP2024037111A true JP2024037111A (en) 2024-03-18

Family

ID=90273088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022141784A Pending JP2024037111A (en) 2022-09-06 2022-09-06 Information processing program, information processing method, and information processing device

Country Status (1)

Country Link
JP (1) JP2024037111A (en)

Similar Documents

Publication Publication Date Title
US11545173B2 (en) Automatic speech-based longitudinal emotion and mood recognition for mental health treatment
JP6524049B2 (en) Emotion estimation device, emotion estimation method, emotion estimation program, and emotion counting system
US10810510B2 (en) Conversation and context aware fraud and abuse prevention agent
JP6937440B2 (en) Computerized systems and methods for determining authenticity using microrepresentations
Zhang et al. Pdvocal: Towards privacy-preserving parkinson's disease detection using non-speech body sounds
Lu et al. Stresssense: Detecting stress in unconstrained acoustic environments using smartphones
CN110378228A (en) Video data handling procedure, device, computer equipment and storage medium are examined in face
US11080723B2 (en) Real time event audience sentiment analysis utilizing biometric data
US20080059198A1 (en) Apparatus and method for detecting and reporting online predators
JP2022534541A (en) System and method for speech attribute machine learning
US11151385B2 (en) System and method for detecting deception in an audio-video response of a user
JP7392492B2 (en) Method, server and program for detecting cognitive and speech disorders based on temporal and visual facial features
US20230177834A1 (en) Relationship modeling and evaluation based on video data
US20230377602A1 (en) Health-related information generation and storage
US20210271864A1 (en) Applying multi-channel communication metrics and semantic analysis to human interaction data extraction
CN112017671A (en) Multi-feature-based interview content credibility evaluation method and system
US20240028967A1 (en) Systems and methods for automatic decision-making with user-configured criteria using multi-channel data inputs
Lin et al. Looking at the body: Automatic analysis of body gestures and self-adaptors in psychological distress
US20210219893A1 (en) System and method for measurement of vocal biomarkers of vitality and biological aging
JP2024037111A (en) Information processing program, information processing method, and information processing device
KR20180005876A (en) System and method for personal credit rating through voice analysis
Lietz et al. Survey of mood detection through various input modes
JP2024037110A (en) Information processing program, information processing method, and information processing device
CN114138960A (en) User intention identification method, device, equipment and medium
CN114492579A (en) Emotion recognition method, camera device, emotion recognition device and storage device