JP2024037110A - Information processing program, information processing method, and information processing device - Google Patents

Information processing program, information processing method, and information processing device Download PDF

Info

Publication number
JP2024037110A
JP2024037110A JP2022141783A JP2022141783A JP2024037110A JP 2024037110 A JP2024037110 A JP 2024037110A JP 2022141783 A JP2022141783 A JP 2022141783A JP 2022141783 A JP2022141783 A JP 2022141783A JP 2024037110 A JP2024037110 A JP 2024037110A
Authority
JP
Japan
Prior art keywords
target person
information processing
feature amount
section
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022141783A
Other languages
Japanese (ja)
Inventor
捺希 宮原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2022141783A priority Critical patent/JP2024037110A/en
Publication of JP2024037110A publication Critical patent/JP2024037110A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】対象の人物に対する犯罪行為の発生状況を精度よく評価すること。【解決手段】情報処理装置100は、対象の期間における対象の人物の会話を示す音声データ101を解析することにより、対象の期間を、対象の人物が発話した発話区間と、対象の人物が他の人物の発話を聴取した聴取区間とに分類する。情報処理装置100は、分類した聴取区間ごとに、当該聴取区間における対象の人物の生体データ102に基づいて、対象の人物に関する第1の特徴量を生成する。情報処理装置100は、生成した第1の特徴量に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。【選択図】図1[Problem] To accurately evaluate the occurrence of criminal acts against a target person. [Solution] An information processing device 100 analyzes audio data 101 indicating a conversation of a target person during a target period, and thereby determines the target period from the utterance section in which the target person uttered and the target person's other It is classified into the listening section in which the person's utterance was heard. For each classified listening section, the information processing device 100 generates a first feature amount regarding the target person based on the biometric data 102 of the target person in the listening section. The information processing device 100 evaluates the occurrence of a criminal act against the target person based on the generated first feature amount. [Selection diagram] Figure 1

Description

本発明は、情報処理プログラム、情報処理方法、および情報処理装置に関する。 The present invention relates to an information processing program, an information processing method, and an information processing device.

従来、電話を介して詐欺被害が発生する場合がある。例えば、詐欺師が、電話を介して、標的とした人物の近親者を騙り、当該人物から金銭を騙し取ろうとする、オレオレ詐欺と呼ばれる詐欺行為による詐欺被害が発生することがある。これに対し、対象の人物の通話時の音声データを解析し、対象の人物に対する詐欺行為の発生を検出しようとする技術が考えられる。 Traditionally, fraud can occur over the telephone. For example, fraud damage may occur due to a fraudulent act called "Ore Ore Fraud" in which a fraudster pretends to be a close relative of a targeted person over the phone and attempts to defraud the targeted person of money. On the other hand, a possible technique is to analyze the voice data of the target person during a phone call and attempt to detect the occurrence of fraud against the target person.

先行技術としては、例えば、通話の内容の特徴に基づいて、通話が行われた時点において詐欺を構成する複数の過程のそれぞれに到達している確率である到達確率を導出するものがある。また、例えば、インターネットの所定サイトで出現数が増加しているキーワードである出現増加キーワードが通話中に所定条件以上出現しているか否かを判定する技術がある。また、例えば、相手の会話の内容を単語または文節として切り出し、危険類型を識別するための第1類危険キーワードと比較し、危険類型を推定する技術がある。また、例えば、ユーザの着信を、疑わしい着信として分類するか否かを決定する技術がある。また、例えば、発呼者から被呼者への通話音声を音声認識したテキストの単語を解析し、単語と用語の階層的な意味ツリーとを比較し、通話の危険度を反映したアラートを表示する技術がある。 As a prior art, for example, there is a technique that derives an arrival probability, which is the probability that each of a plurality of steps constituting fraud has been reached at the time the call is made, based on the characteristics of the content of the call. Furthermore, for example, there is a technique that determines whether an increasingly appearing keyword, which is a keyword whose number of appearances is increasing on a predetermined site on the Internet, appears during a call for a predetermined condition or more. Furthermore, for example, there is a technique for estimating the risk type by extracting the contents of the other party's conversation as words or phrases and comparing them with the first category risk keywords for identifying the risk type. Furthermore, for example, there is a technique for determining whether or not to classify a user's incoming call as a suspicious incoming call. For example, it analyzes the words in the voice-recognized text from the caller to the called party, compares the words with a hierarchical meaning tree of terms, and displays alerts that reflect the risk of the call. There is a technology to do that.

特開2010-273130号公報Japanese Patent Application Publication No. 2010-273130 特開2018-107769号公報Japanese Patent Application Publication No. 2018-107769 特開2007-139864号公報Japanese Patent Application Publication No. 2007-139864 米国特許出願公開第2018/0241647号明細書US Patent Application Publication No. 2018/0241647 米国特許出願公開第2019/0373105号明細書US Patent Application Publication No. 2019/0373105

しかしながら、従来技術では、対象の人物に対する犯罪行為の発生を精度よく検出することが難しいという問題がある。例えば、対象の人物が、電話を介した詐欺行為の標的となった場合、対象の人物の発話時間または発話回数などが少なくなる傾向があり、対象の人物の通話時の音声データを解析しても、対象の人物に対する詐欺行為の発生を精度よく検出することが難しい。 However, the conventional technology has a problem in that it is difficult to accurately detect the occurrence of a criminal act against a target person. For example, if a target person becomes the target of fraudulent activity over the telephone, the target person's speaking time or number of utterances tends to decrease. However, it is difficult to accurately detect the occurrence of fraud against a target person.

1つの側面では、本発明は、対象の人物に対する犯罪行為の発生状況を精度よく評価することを目的とする。 In one aspect, the present invention aims to accurately evaluate the occurrence of a criminal act against a target person.

1つの実施態様によれば、ある期間における対象の人物の会話を示す音声データを取得し、取得した前記音声データを解析することにより、前記期間の中から、前記対象の人物が他の人物の発話を聴取した聴取区間を分類し、分類した前記聴取区間における前記対象の人物の生体データに基づいて、前記対象の人物に関する第1の特徴量を生成し、生成した前記第1の特徴量に基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する情報処理プログラム、情報処理方法、および情報処理装置が提案される。 According to one embodiment, by acquiring audio data indicating a conversation of a target person in a certain period and analyzing the acquired audio data, the target person is able to identify other people's conversations within the period. Classifying the listening section in which the utterance is heard, generating a first feature amount regarding the target person based on the biometric data of the target person in the classified listening section, and adding the first feature amount to the generated first feature amount. Based on the above, an information processing program, an information processing method, and an information processing apparatus are proposed for evaluating the occurrence of criminal acts against the target person.

一態様によれば、対象の人物に対する犯罪行為の発生状況を精度よく評価することが可能になる。 According to one aspect, it becomes possible to accurately evaluate the occurrence of a criminal act against a target person.

図1は、実施の形態にかかる情報処理方法の一実施例を示す説明図である。FIG. 1 is an explanatory diagram showing an example of an information processing method according to an embodiment. 図2は、情報処理システム200の一例を示す説明図である。FIG. 2 is an explanatory diagram showing an example of the information processing system 200. 図3は、情報処理システム200の第1の適用例を示す説明図である。FIG. 3 is an explanatory diagram showing a first application example of the information processing system 200. 図4は、情報処理システム200の第2の適用例を示す説明図である。FIG. 4 is an explanatory diagram showing a second application example of the information processing system 200. 図5は、情報処理装置100のハードウェア構成例を示すブロック図である。FIG. 5 is a block diagram showing an example of the hardware configuration of the information processing device 100. 図6は、フィルタ情報管理テーブル600の記憶内容の一例を示す説明図である。FIG. 6 is an explanatory diagram showing an example of the stored contents of the filter information management table 600. 図7は、感情パターン情報管理テーブル700の記憶内容の一例を示す説明図である。FIG. 7 is an explanatory diagram showing an example of the stored contents of the emotional pattern information management table 700. 図8は、生体パターン情報管理テーブル800の記憶内容の一例を示す説明図である。FIG. 8 is an explanatory diagram showing an example of the stored contents of the biometric pattern information management table 800. 図9は、音声データ取得装置201のハードウェア構成例を示すブロック図である。FIG. 9 is a block diagram showing an example of the hardware configuration of the audio data acquisition device 201. 図10は、情報処理装置100の機能的構成例を示すブロック図である。FIG. 10 is a block diagram showing an example of the functional configuration of the information processing device 100. 図11は、情報処理装置100の動作例を示す説明図(その1)である。FIG. 11 is an explanatory diagram (part 1) showing an example of the operation of the information processing device 100. 図12は、情報処理装置100の動作例を示す説明図(その2)である。FIG. 12 is an explanatory diagram (part 2) showing an example of the operation of the information processing device 100. 図13は、情報処理装置100の動作例を示す説明図(その3)である。FIG. 13 is an explanatory diagram (part 3) showing an example of the operation of the information processing device 100. 図14は、全体処理手順の一例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of the overall processing procedure.

以下に、図面を参照して、本発明にかかる情報処理プログラム、情報処理方法、および情報処理装置の実施の形態を詳細に説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of an information processing program, an information processing method, and an information processing apparatus according to the present invention will be described in detail below with reference to the drawings.

(実施の形態にかかる情報処理方法の一実施例)
図1は、実施の形態にかかる情報処理方法の一実施例を示す説明図である。情報処理装置100は、犯罪行為の発生状況を評価するためのコンピュータである。
(An example of an information processing method according to an embodiment)
FIG. 1 is an explanatory diagram showing an example of an information processing method according to an embodiment. The information processing device 100 is a computer for evaluating the occurrence of criminal acts.

情報処理装置100は、例えば、サーバまたはPC(Personal Computer)などである。情報処理装置100は、例えば、スマートフォンまたはスマートスピーカーなどであってもよい。 The information processing device 100 is, for example, a server or a PC (Personal Computer). The information processing device 100 may be, for example, a smartphone or a smart speaker.

犯罪行為は、例えば、特殊詐欺と呼ばれる詐欺行為である。犯罪行為は、具体的には、電話を介した詐欺行為である。例えば、詐欺師が、電話を介して、標的とした人物の近親者を騙り、当該人物から金銭を騙し取ろうとする、オレオレ詐欺と呼ばれる詐欺行為が存在する。 The criminal act is, for example, a fraudulent act called special fraud. Specifically, the criminal act is an act of fraud over the telephone. For example, there is a fraudulent act called "Ore Ore Fraud" in which a fraudster pretends to be a close relative of a targeted person over the telephone and attempts to defraud the targeted person of money.

また、例えば、詐欺師が、自治体または税務署などの職員を騙り、標的とした人物に、医療費または保険料などに対する過払い金の受け取りを示唆し、当該人物から金銭を騙し取ろうとする、還付金詐欺と呼ばれる詐欺行為が存在する。また、例えば、複数の詐欺師が、それぞれ、標的とした人物の近親者、警察官、および、弁護士などを騙り、当該人物から金銭を騙し取ろうとする、劇場型詐欺と呼ばれる詐欺行為が存在する。 In addition, for example, a scammer pretends to be an employee of a local government or tax office, suggests to a targeted person that he/she will receive overpayments for medical expenses, insurance premiums, etc., and attempts to defraud the targeted person of money. There is a fraudulent act called fraud. For example, there is a fraudulent act called theatrical fraud in which multiple fraudsters pretend to be a close family member, a police officer, a lawyer, etc. of the targeted person and attempt to defraud the targeted person of money. .

このため、詐欺行為による詐欺被害を防止する技術が望まれる。例えば、対象の人物の通話時の音声データを解析し、詐欺行為の発生状況を評価することにより、対象の人物に対する詐欺行為の発生を検出し、詐欺行為による詐欺被害を防止しようとする第1の技術が考えられる。具体的には、通話開始から通話終了までの通話期間における対象の人物の通話時の音声データを解析し、詐欺行為の発生状況を評価することが考えられる。 Therefore, there is a need for technology that prevents fraud damage caused by fraudulent acts. For example, the first step is to detect the occurrence of fraud against a target person and prevent damage caused by fraud by analyzing the voice data of the target person's phone call and evaluating the occurrence of fraud. possible technologies. Specifically, it is conceivable to analyze the voice data of the target person's phone call during the call period from the start of the call to the end of the call to evaluate the occurrence of fraud.

しかしながら、この第1の技術では、対象の人物に対する詐欺行為の発生を精度よく検出することが難しいという問題がある。例えば、対象の人物が、電話を介した詐欺行為の標的となった場合、対象の人物の発話時間または発話回数などが少なくなる傾向がある。このため、対象の人物の通話時の音声データを解析しても、対象の人物に対する詐欺行為の発生を精度よく検出することが難しい。例えば、対象の人物の通話時の音声データのうち、対象の人物が相槌した区間などの発話時間が比較的短い区間に関する部分データが、対象の人物に対する詐欺行為の発生状況を評価する際にノイズとなることが考えられる。 However, this first technique has a problem in that it is difficult to accurately detect the occurrence of fraud against a target person. For example, if a target person becomes the target of fraudulent activity over the telephone, the target person's speaking time or number of times he or she speaks tends to decrease. For this reason, it is difficult to accurately detect the occurrence of fraud against a target person even if the voice data of the target person's phone call is analyzed. For example, of the voice data of a target person's phone call, partial data related to sections with relatively short utterance times, such as sections where the target person chimed in, may be used as noise when evaluating the occurrence of fraud against the target person. It is possible that

また、例えば、対象の人物の通話時の生体データを解析し、詐欺行為の発生状況を評価することにより、対象の人物に対する詐欺行為の発生を検出し、詐欺行為による詐欺被害を防止しようとする第2の技術が考えられる。具体的には、通話開始から通話終了までの通話期間における対象の人物の通話時の生体データを解析し、詐欺行為の発生状況を評価することが考えられる。 In addition, for example, by analyzing the target person's biometric data during a call and evaluating the occurrence of fraud, the system can detect the occurrence of fraud against the target person and try to prevent fraud damage due to fraud. A second technique is possible. Specifically, it is conceivable to analyze the biometric data of the target person during the call during the call period from the start of the call to the end of the call to evaluate the occurrence of fraud.

この第2の技術でも、対象の人物に対する詐欺行為の発生を精度よく検出することが難しい。例えば、対象の人物の通話時の生体データにノイズが含まれるため、対象の人物の通話時の生体データを解析しても、対象の人物に対する詐欺行為の発生を精度よく検出することが難しい場合がある。 Even with this second technique, it is difficult to accurately detect the occurrence of fraud against a target person. For example, if the target person's biometric data during a call contains noise, it is difficult to accurately detect the occurrence of fraud against the target person even if the target person's biometric data during the call is analyzed. There is.

具体的には、呼吸周期の影響により、対象の人物の通話時の生体データに、大きさが一定ではなく変動するノイズが含まれることがある。また、具体的には、対象の人物の発話中、対象の人物の体動により、対象の人物の通話時の生体データに含まれるノイズが大きくなる傾向がある。また、具体的には、対象の人物の会話の流れによって、対象の人物が様々な動作を行ったり、対象の人物の体動の大きさなどが変化したりすることにより、対象の人物の通話時の生体データに、大きさが一定ではなく変動するノイズが含まれることがある。このため、対象の人物の通話時の生体データを解析しても、対象の人物に対する詐欺行為の発生を精度よく検出することが難しい。例えば、対象の人物の通話時の生体データから、一律の基準でノイズを除去しようとしても、ノイズを適切に除去することができない場合がある。 Specifically, due to the influence of the breathing cycle, the biometric data of a target person during a call may include noise whose size is not constant but fluctuates. Further, specifically, while the target person is speaking, noise included in the biometric data of the target person during the call tends to increase due to body movements of the target person. Specifically, depending on the flow of the conversation of the target person, the target person may perform various actions or the size of the target person's body movements may change, causing the target person's conversation to Biometric data may contain noise whose size is not constant but fluctuates. For this reason, even if the biometric data of the target person during a call is analyzed, it is difficult to accurately detect the occurrence of fraud against the target person. For example, even if an attempt is made to remove noise from biometric data of a target person during a phone call using a uniform standard, it may not be possible to appropriately remove the noise.

そこで、本実施の形態では、対象の人物に対する犯罪行為の発生状況を精度よく評価することができる情報処理方法について説明する。 Therefore, in this embodiment, an information processing method that can accurately evaluate the occurrence of a criminal act against a target person will be described.

図1において、(1-1)情報処理装置100は、対象の期間における対象の人物の会話を示す音声データ101を取得する。対象の人物は、犯罪行為から保護することが望まれる人物である。犯罪行為は、例えば、詐欺行為である。音声データ101は、電話を介した、対象の人物と他の人物との会話を示す。他の人物は、例えば、犯罪者である場合が考えられる。犯罪者は、例えば、詐欺師である。対象の期間は、例えば、対象の人物が会話中の期間である。対象の期間は、具体的には、通話開始から通話終了までの通話期間である。 In FIG. 1, (1-1) the information processing device 100 acquires audio data 101 indicating a conversation of a target person during a target period. The target person is a person who is desired to be protected from criminal activity. The criminal act is, for example, fraud. Audio data 101 shows a conversation between a target person and another person via telephone. The other person may be a criminal, for example. A criminal is, for example, a fraudster. The target period is, for example, a period during which the target person is having a conversation. Specifically, the target period is the call period from the start of the call to the end of the call.

情報処理装置100は、例えば、マイクを有し、マイクを用いて対象の人物の会話を録音することにより、音声データ101を取得する。情報処理装置100は、例えば、音声データ101を、他のコンピュータから受信することにより取得してもよい。他のコンピュータは、例えば、スマートフォンまたはスマートスピーカーなどである。 The information processing device 100 has a microphone, for example, and acquires audio data 101 by recording a conversation of a target person using the microphone. The information processing device 100 may obtain the audio data 101 by receiving it from another computer, for example. The other computer is, for example, a smartphone or a smart speaker.

情報処理装置100は、具体的には、対象の人物の通話中、マイクを用いて対象の人物の会話を録音し続け、対象の人物の通話開始から通話終了までの期間における対象の人物の会話を示す音声データ101を取得する。情報処理装置100は、具体的には、対象の人物の通話中、マイクを用いて対象の人物の会話を録音し続け、対象の人物の通話中の所定のタイミングごとに、現時点から一定時間前までの期間における対象の人物の会話を示す音声データ101を取得してもよい。所定のタイミングは、例えば、一定時間ごとのタイミングである。 Specifically, the information processing device 100 continues to record the conversation of the target person using a microphone while the target person is talking, and records the conversation of the target person during the period from the start of the call to the end of the call. Acquire audio data 101 indicating. Specifically, the information processing device 100 continues to record the conversation of the target person using a microphone during the conversation of the target person, and records the conversation of the target person a certain period of time before the current time at each predetermined timing during the conversation of the target person. Audio data 101 indicating the conversation of the target person during the period up to this point may be acquired. The predetermined timing is, for example, timing at regular intervals.

(1-2)情報処理装置100は、取得した音声データ101を解析することにより、対象の期間を、対象の人物が発話した発話区間と、対象の人物が他の人物の発話を聴取した聴取区間とに分類する。聴取区間は、例えば、対象の人物が発話しない区間を含む。聴取区間は、例えば、対象の人物が、相槌に相当する発話内容を発話した区間を含んでいてもよい。発話区間は、例えば、対象の人物が、相槌以外に相当する発話内容を発話した区間を含む。 (1-2) By analyzing the acquired audio data 101, the information processing device 100 divides the target period into utterance sections uttered by the target person and listening periods in which the target person listened to the utterances of other people. Classified into sections. The listening section includes, for example, a section in which the target person does not speak. The listening section may include, for example, a section in which the target person uttered utterance content that corresponds to a compliment. The utterance section includes, for example, a section in which the target person uttered utterance content that corresponds to something other than an offer.

情報処理装置100は、例えば、取得した音声データ101を解析し、対象の期間における複数の発話者を特定する。情報処理装置100は、例えば、取得した音声データ101を解析し、それぞれの発話者について、当該発話者が発話した区間、当該区間における当該発話者の音声、および、当該区間における当該発話者の発話内容などを特定する。発話者は、例えば、対象の人物、または、他の人物である。発話者の音声は、例えば、発話者のトーン、声量、または、波長などを示す。 For example, the information processing device 100 analyzes the acquired audio data 101 and identifies multiple speakers in the target period. For example, the information processing device 100 analyzes the acquired audio data 101 and, for each speaker, determines, for each speaker, the section in which the speaker speaks, the speaker's voice in the section, and the speaker's utterance in the section. Specify the content etc. The speaker is, for example, the target person or another person. The speaker's voice indicates, for example, the speaker's tone, voice volume, or wavelength.

情報処理装置100は、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が相槌以外に相当する発話内容を発話した区間を、発話区間に分類する。一方で、情報処理装置100は、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が相槌に相当する発話内容を発話した区間、および、対象の人物が発話しない区間などを、聴取区間に分類する。情報処理装置100は、他の人物が発話中であり対象の人物が相槌に相当する発話内容を発話した区間、および、他の人物が発話中であり対象の人物が発話しない区間などを、聴取区間に分類してもよい。 The information processing device 100 classifies sections in which the target person utters utterances other than ``agendu'' as utterance sections, based on the identified speaker, section, voice, utterance content, and the like. On the other hand, the information processing device 100 determines, based on the identified speaker, interval, voice, utterance content, etc., the interval in which the target person uttered the utterance content corresponding to ``Aitsu'' and the interval in which the target person did not utter the utterance. Classify sections into listening sections. The information processing device 100 listens to, for example, a section where another person is speaking and the target person utters utterance content corresponding to an agreement, and a section where another person is speaking and the target person does not speak. It may be classified into sections.

(1-3)情報処理装置100は、分類した聴取区間における対象の人物の生体データ102を取得する。情報処理装置100は、例えば、生体センサを有し、生体センサを用いて対象の人物の心拍、脈拍、体温、または、発汗などの特徴値を計測することにより、生体データ102を取得する。情報処理装置100は、例えば、生体データ102を、他のコンピュータから受信することにより取得してもよい。他のコンピュータは、例えば、スマートフォンまたはウェアラブル端末などである。 (1-3) The information processing device 100 acquires the biometric data 102 of the target person in the classified listening section. The information processing device 100 has, for example, a biosensor, and acquires biometric data 102 by measuring characteristic values such as heartbeat, pulse, body temperature, or perspiration of a target person using the biosensor. The information processing device 100 may obtain the biometric data 102 by receiving it from another computer, for example. The other computer is, for example, a smartphone or a wearable terminal.

情報処理装置100は、具体的には、対象の人物の通話中、生体センサを用いて対象の人物の特徴値を計測し続け、対象の人物の通話開始から通話終了までの期間における対象の人物の特徴値の時間変化を示す、全体の生体データを取得する。情報処理装置100は、具体的には、聴取区間ごとに、取得した全体の生体データのうち、当該聴取区間における対象の人物の生体データ102を抽出することにより、当該聴取区間における対象の人物の特徴値の時間変化を示す生体データ102を取得する。 Specifically, the information processing device 100 continues to measure the characteristic values of the target person using a biosensor during the target person's call, and measures the target person's characteristic values during the period from the start of the call to the end of the call. Obtain the entire biometric data that shows the temporal changes in the feature values of. Specifically, the information processing device 100 extracts the biometric data 102 of the target person in the listening section from among the entire acquired biometric data for each listening section, thereby determining the biometric data 102 of the target person in the listening section. Biometric data 102 indicating changes in feature values over time is acquired.

情報処理装置100は、具体的には、対象の人物の通話中、生体センサを用いて対象の人物の特徴値を計測し続ける。そして、情報処理装置100は、具体的には、対象の人物の通話中の所定のタイミングごとに、現時点から一定時間前までの期間における対象の人物の特徴値の時間変化を示す、全体の生体データを取得してもよい。所定のタイミングは、例えば、一定時間ごとのタイミングである。情報処理装置100は、具体的には、聴取区間ごとに、取得した全体の生体データのうち、当該聴取区間における対象の人物の生体データ102を抽出することにより、当該聴取区間における対象の人物の特徴値の時間変化を示す生体データ102を取得する。 Specifically, the information processing device 100 continues to measure the characteristic values of the target person using the biosensor while the target person is talking. Specifically, the information processing device 100 displays information about the entire biological body that indicates temporal changes in the characteristic values of the target person during a period from the current moment to a certain time ago, at each predetermined timing while the target person is talking. You may also obtain data. The predetermined timing is, for example, timing at regular intervals. Specifically, the information processing device 100 extracts the biometric data 102 of the target person in the listening section from among the entire acquired biometric data for each listening section, thereby determining the biometric data 102 of the target person in the listening section. Biometric data 102 indicating changes in feature values over time is acquired.

情報処理装置100は、取得した聴取区間における対象の人物の生体データ102に基づいて、対象の人物に関する第1の特徴量を生成する。第1の特徴量は、例えば、生体的な特徴量である。第1の特徴量は、具体的には、生体的な1以上の特徴値、生体的な特徴値の統計値、または、生体的な特徴値の変化量などである。生体的な特徴値は、例えば、心拍、脈拍、体温、または、発汗などに関する特徴値である。生体的な特徴値は、具体的には、心拍数である。統計値は、例えば、平均値、中央値、最頻値、最大値、または、最小値などである。 The information processing device 100 generates a first feature amount regarding the target person based on the acquired biometric data 102 of the target person in the listening section. The first feature amount is, for example, a biological feature amount. Specifically, the first feature amount is one or more biological characteristic values, a statistical value of biological characteristic values, a change amount of biological characteristic values, or the like. The biological characteristic value is, for example, a characteristic value related to heartbeat, pulse, body temperature, sweating, or the like. Specifically, the biological characteristic value is heart rate. The statistical value is, for example, an average value, median value, mode, maximum value, or minimum value.

情報処理装置100は、例えば、分類した聴取区間ごとに、当該聴取区間における対象の人物の生体データ102に基づいて、対象の人物に関する第1の特徴量を生成する。情報処理装置100は、具体的には、分類した聴取区間ごとに、当該聴取区間における対象の人物の生体データ102に基づいて、対象の人物に関する心拍数の変化量である第1の特徴量を生成する。情報処理装置100は、具体的には、分類した聴取区間ごとに、当該聴取区間における対象の人物の生体データ102に基づいて、対象の人物に関する心拍数の平均値である第1の特徴量を生成してもよい。これにより、情報処理装置100は、対象の人物に対する犯罪行為の発生状況を評価する指標値となる第1の特徴量を得ることができる。 For example, the information processing device 100 generates, for each classified listening section, a first feature amount regarding the target person based on the biometric data 102 of the target person in the listening section. Specifically, the information processing device 100 calculates, for each classified listening section, a first feature amount, which is the amount of change in the heart rate of the target person, based on the biological data 102 of the target person in the listening interval. generate. Specifically, the information processing device 100 calculates, for each classified listening section, a first feature amount, which is the average heart rate of the target person, based on the biological data 102 of the target person in the listening section. May be generated. Thereby, the information processing device 100 can obtain the first feature value that serves as an index value for evaluating the occurrence of a criminal act against the target person.

(1-4)情報処理装置100は、生成した第1の特徴量に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。情報処理装置100は、例えば、第1の特徴量が、生体的な特徴値の変化量であれば、生成した特徴量と閾値とを比較する。閾値は、例えば、予め利用者によって設定される。情報処理装置100は、具体的には、いずれかの聴取区間について、生成した第1の特徴量が閾値以上であれば、対象の人物に対する犯罪行為が発生したと評価する。情報処理装置100は、具体的には、いずれの聴取区間についても、生成した第1の特徴量が閾値未満であれば、対象の人物に対する犯罪行為が発生していないと評価する。 (1-4) The information processing device 100 evaluates the occurrence of a criminal act against the target person based on the generated first feature amount. For example, if the first feature amount is an amount of change in a biological feature value, the information processing device 100 compares the generated feature amount with a threshold value. For example, the threshold value is set in advance by the user. Specifically, the information processing device 100 evaluates that a criminal act against the target person has occurred if the generated first feature amount is equal to or greater than the threshold value for any listening section. Specifically, the information processing device 100 evaluates that no criminal act has occurred against the target person if the generated first feature amount is less than the threshold value for any listening section.

情報処理装置100は、例えば、生成した第1の特徴量の変化パターンに基づいて、対象の人物に対する犯罪行為の発生状況を評価してもよい。情報処理装置100は、具体的には、前方の聴取区間における第1の特徴量から後方の聴取区間における第1の特徴量までの変化量を算出する。情報処理装置100は、具体的には、算出した変化量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。情報処理装置100は、具体的には、算出した変化量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。 The information processing device 100 may evaluate the occurrence of a criminal act against a target person, for example, based on the change pattern of the generated first feature amount. Specifically, the information processing device 100 calculates the amount of change from the first feature amount in the front listening section to the first feature amount in the rear listening section. Specifically, the information processing device 100 evaluates that a criminal act against the target person has occurred when the calculated amount of change is equal to or greater than the threshold value. Specifically, when the calculated amount of change is less than a threshold value, the information processing device 100 evaluates that a criminal act against the target person has not occurred.

これにより、情報処理装置100は、対象の人物に対する詐欺行為の発生状況を精度よく評価することができる。このため、情報処理装置100は、対象の人物に対する詐欺行為の発生を精度よく検出可能にすることができる。情報処理装置100は、対象の人物に対する詐欺行為による詐欺被害の発生を防止し易くすることができる。 Thereby, the information processing device 100 can accurately evaluate the occurrence of fraud against the target person. Therefore, the information processing apparatus 100 can accurately detect the occurrence of fraud against a target person. The information processing device 100 can easily prevent fraud damage caused by fraud against a target person.

情報処理装置100は、対象の人物の発話時間または発話回数などが少なくても、対象の人物の通話時の生体データ102に基づいて、対象の人物に対する詐欺行為の発生状況を精度よく評価することができる。情報処理装置100は、ノイズが比較的小さい聴取区間における対象の人物の生体データ102を利用することができ、対象の人物に対する詐欺行為の発生状況を精度よく評価することができる。 The information processing device 100 accurately evaluates the occurrence of fraud against a target person based on the biometric data 102 of the target person during a call, even if the target person's speaking time or number of utterances is small. I can do it. The information processing device 100 can utilize the biometric data 102 of the target person in a listening section where noise is relatively low, and can accurately evaluate the occurrence of fraud against the target person.

ここでは、情報処理装置100が、単独で動作する場合について説明したが、これに限らない。例えば、情報処理装置100が、他のコンピュータと協働する場合があってもよい。例えば、複数のコンピュータが、情報処理装置100としての機能を実現する場合があってもよい。具体的には、クラウド上に情報処理装置100としての機能が実現される場合があってもよい。 Although the case where the information processing device 100 operates independently has been described here, the present invention is not limited to this. For example, the information processing device 100 may cooperate with another computer. For example, a plurality of computers may implement the functions of the information processing device 100. Specifically, the functions of the information processing device 100 may be implemented on the cloud.

(情報処理システム200の一例)
次に、図2を用いて、図1に示した情報処理装置100を適用した、情報処理システム200の一例について説明する。
(Example of information processing system 200)
Next, an example of an information processing system 200 to which the information processing apparatus 100 shown in FIG. 1 is applied will be described using FIG. 2.

図2は、情報処理システム200の一例を示す説明図である。図2において、情報処理システム200は、情報処理装置100と、音声データ取得装置201と、生体データ取得装置202と、アラート出力装置203とを含む。 FIG. 2 is an explanatory diagram showing an example of the information processing system 200. In FIG. 2, an information processing system 200 includes an information processing device 100, an audio data acquisition device 201, a biological data acquisition device 202, and an alert output device 203.

情報処理システム200において、情報処理装置100と音声データ取得装置201とは、有線または無線のネットワーク210を介して接続される。ネットワーク210は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどである。 In the information processing system 200, the information processing device 100 and the audio data acquisition device 201 are connected via a wired or wireless network 210. The network 210 is, for example, a LAN (Local Area Network), a WAN (Wide Area Network), the Internet, or the like.

また、情報処理システム200において、情報処理装置100と生体データ取得装置202とは、有線または無線のネットワーク210を介して接続される。また、情報処理システム200において、情報処理装置100とアラート出力装置203とは、有線または無線のネットワーク210を介して接続される。 Further, in the information processing system 200, the information processing device 100 and the biometric data acquisition device 202 are connected via a wired or wireless network 210. Further, in the information processing system 200, the information processing device 100 and the alert output device 203 are connected via a wired or wireless network 210.

情報処理装置100は、対象の人物に対する犯罪行為の発生状況を評価するためのコンピュータである。対象の人物は、犯罪行為から保護することが望まれる人物である。犯罪行為は、例えば、詐欺行為である。発生状況は、例えば、発生有無である。 The information processing device 100 is a computer for evaluating the occurrence of criminal acts against a target person. The target person is a person who is desired to be protected from criminal activity. The criminal act is, for example, fraud. The occurrence status is, for example, whether or not an occurrence occurs.

情報処理装置100は、対象の期間における対象の人物の音声データを取得する。音声データは、電話を介した、対象の人物と他の人物との会話を示す。他の人物は、例えば、犯罪者である場合が考えられる。犯罪者は、例えば、詐欺師である。情報処理装置100は、例えば、対象の期間における対象の人物の音声データを、音声データ取得装置201から受信することにより取得する。 The information processing device 100 acquires voice data of a target person during a target period. The audio data represents a conversation between the person of interest and another person via telephone. The other person may be a criminal, for example. A criminal is, for example, a fraudster. The information processing device 100 acquires, for example, voice data of a target person during a target period by receiving from the voice data acquisition device 201.

情報処理装置100は、具体的には、一定時間ごとに、過去一定時間分の対象の期間における対象の人物の音声データを、音声データ取得装置201から受信することにより取得する。情報処理装置100は、具体的には、対象の人物の通話終了時、通話開始から通話終了までの対象の期間における対象の人物の音声データを、音声データ取得装置201から受信することにより取得してもよい。 Specifically, the information processing device 100 acquires voice data of a target person during a target period of a certain amount of time in the past by receiving from the voice data acquisition device 201 at regular intervals. Specifically, the information processing device 100 acquires voice data of the target person during the target period from the start of the call to the end of the call by receiving from the voice data acquisition device 201 when the target person's call ends. It's okay.

情報処理装置100は、対象の期間における対象の人物の生体データを取得する。生体データは、対象の人物の生体的な特徴値の時間変化を示す。生体的な特徴値は、例えば、心拍数、脈拍数、体温、または、発汗量などである。情報処理装置100は、例えば、対象の期間における対象の人物の生体データを、生体データ取得装置202から受信することにより取得する。 The information processing device 100 acquires biometric data of a target person during a target period. Biometric data indicates changes over time in biometric characteristic values of a target person. The biological characteristic values include, for example, heart rate, pulse rate, body temperature, or amount of perspiration. For example, the information processing device 100 acquires biometric data of a target person during a target period by receiving the biometric data from the biometric data acquisition device 202 .

情報処理装置100は、具体的には、一定時間ごとに、過去一定時間分の対象の期間における対象の人物の生体データを、生体データ取得装置202から受信することにより取得する。情報処理装置100は、具体的には、対象の人物の通話終了時、通話開始から通話終了までの対象の期間における対象の人物の生体データを、生体データ取得装置202から受信することにより取得してもよい。 Specifically, the information processing device 100 acquires biometric data of a target person during a target period for a predetermined amount of time in the past by receiving from the biometric data acquisition device 202 at regular intervals. Specifically, the information processing device 100 acquires the biometric data of the target person during the target period from the start of the call to the end of the call by receiving the biometric data from the biometric data acquisition device 202 at the end of the call with the target person. It's okay.

情報処理装置100は、取得した音声データと、取得した生体データとに基づいて、対象の人物に対する詐欺行為の発生状況を評価する。情報処理装置100は、例えば、取得した音声データに基づいて、対象の期間を、発話区間と、聴取区間とに分類する。情報処理装置100は、具体的には、取得した音声データに基づいて、対象の期間における複数の発話者を特定する。情報処理装置100は、具体的には、取得した音声データに基づいて、それぞれの発話者について、当該発話者が発話した区間、当該区間における当該発話者の音声、および、当該区間における当該発話者の発話内容などを特定する。 The information processing device 100 evaluates the occurrence of fraud against the target person based on the acquired voice data and the acquired biometric data. For example, the information processing device 100 classifies the target period into a speaking period and a listening period based on the acquired audio data. Specifically, the information processing device 100 identifies multiple speakers in the target period based on the acquired audio data. Specifically, based on the acquired audio data, the information processing device 100 calculates, for each speaker, the section in which the speaker speaks, the speaker's voice in the section, and the speaker in the section. Identify the content of the utterance.

ここで、情報処理装置100は、具体的には、音声パターンと、発話属性とを対応付けて記憶する。音声パターンは、例えば、対象の人物の音声または発話内容と照合することにより、区間に対応する発話属性を特定可能にする基準パターンである。発話属性は、例えば、対象の人物が沈黙したことを示す「沈黙」、および、対象の人物が相槌したことを示す「相槌」などである。発話属性は、例えば、対象の人物が発話したことを示す「発話」などであってもよい。情報処理装置100は、より具体的には、図6に後述するフィルタ情報管理テーブル600を記憶する。情報処理装置100は、具体的には、特定した発話者に基づいて、特定した対象の人物の音声または発話内容と、記憶した音声パターンとを照合することにより、対象の期間のうち、「沈黙」、または、「相槌」などの発話属性を有する区間を特定する。情報処理装置100は、具体的には、特定した発話者に基づいて、特定した対象の人物の音声または発話内容と、記憶した音声パターンとを照合することにより、対象の期間のうち、「発話」の発話属性を有する区間を特定してもよい。 Here, the information processing device 100 specifically stores voice patterns and utterance attributes in association with each other. The voice pattern is, for example, a reference pattern that makes it possible to identify the utterance attribute corresponding to the section by comparing it with the target person's voice or utterance content. The utterance attributes include, for example, "silence" indicating that the target person has been silent, and "shuzuchi" indicating that the target person has agreed. The utterance attribute may be, for example, "utterance" indicating that the target person has uttered the utterance. More specifically, the information processing device 100 stores a filter information management table 600, which will be described later in FIG. Specifically, based on the identified speaker, the information processing device 100 compares the voice or utterance content of the identified target person with the stored voice pattern, thereby determining whether or not there is "silence" within the target period. ” or a section having a speech attribute such as “Aitsuchi”. Specifically, based on the identified speaker, the information processing device 100 compares the voice or utterance content of the identified target person with the stored voice pattern, thereby determining whether or not the ``utterance'' is detected during the target period. ” may be specified.

情報処理装置100は、具体的には、対象の期間のうち、「沈黙」の発話属性を有し、発話者が対象の人物とは異なる他の人物のみである区間を、聴取区間に分類する。情報処理装置100は、例えば、「相槌」の発話属性を有する区間を、聴取区間に分類する。情報処理装置100は、具体的には、対象の期間のうち、発話者が少なくとも対象の人物を含み、「相槌」の発話属性を有さない区間を、発話区間に分類する。情報処理装置100は、より具体的には、対象の期間のうち、「発話」の発話属性を有する区間を、発話区間に分類してもよい。情報処理装置100は、具体的には、連続する2以上の聴取区間を結合してもよい。情報処理装置100は、具体的には、連続する2以上の発話区間を結合してもよい。 Specifically, the information processing device 100 classifies, as a listening section, a section in the target period that has the speech attribute of "silence" and in which the only speakers are people different from the target person. . For example, the information processing device 100 classifies a section having the utterance attribute of "Aitsuchi" as a listening section. Specifically, the information processing device 100 classifies, as utterance intervals, a section in which the speaker includes at least the target person and does not have the utterance attribute of "Aitsuchi" in the target period. More specifically, the information processing apparatus 100 may classify, in the target period, a section having the speech attribute of "utterance" into a speech section. Specifically, the information processing device 100 may combine two or more consecutive listening sections. Specifically, the information processing device 100 may combine two or more consecutive speech sections.

情報処理装置100は、対象の期間における対象の人物の生体データのうち、聴取区間における対象の人物の生体データを抽出して加工する。ここで、情報処理装置100は、例えば、発話属性と、生体データを加工するためのフィルタとを対応付けて記憶する。情報処理装置100は、具体的には、図6に後述するフィルタ情報管理テーブル600を記憶する。 The information processing device 100 extracts and processes the biometric data of the target person in the listening section from among the biometric data of the target person in the target period. Here, the information processing device 100 stores, for example, utterance attributes and filters for processing biometric data in association with each other. Specifically, the information processing apparatus 100 stores a filter information management table 600, which will be described later in FIG.

情報処理装置100は、分類した聴取区間のうち、沈黙の発話属性を有する区間における対象の人物の生体データに対して、沈黙の発話属性に対応するフィルタを適用することにより、当該生体データからノイズを除去する。情報処理装置100は、分類した聴取区間のうち、相槌の発話属性を有する区間における対象の人物の生体データに対して、相槌の発話属性に対応するフィルタを適用することにより、当該生体データからノイズを除去する。 The information processing device 100 removes noise from the biometric data of the target person in the segment having the silent speech attribute among the classified listening sections by applying a filter corresponding to the silent speech attribute. remove. The information processing device 100 removes noise from the biometric data of the target person in the segment having the utterance attribute of ``agistetsu'' among the classified listening sections by applying a filter corresponding to the utterance attribute of ``agistetsu''. remove.

情報処理装置100は、それぞれの聴取区間について、当該聴取区間におけるノイズを除去した後の対象の人物の生体データに基づいて、第1の特徴量を算出する。第1の特徴量は、例えば、聴取区間における心拍数の統計値などである。第1の特徴量は、聴取区間における心拍数の変化量などであってもよい。 The information processing device 100 calculates a first feature amount for each listening section based on the biological data of the target person after removing noise in the listening section. The first feature amount is, for example, a statistical value of heart rate in the listening section. The first feature amount may be the amount of change in heart rate during the listening section.

情報処理装置100は、それぞれの発話区間について、当該発話区間における対象の人物の音声データに基づいて、第2の特徴量を算出する。第2の特徴量は、例えば、発話区間における対象の人物の感情の特徴値である。感情の特徴値は、例えば、対象の人物の感情がネガティブであるか、または、ポジティブであるかを示す。 The information processing device 100 calculates a second feature amount for each speech section based on the voice data of the target person in the speech section. The second feature amount is, for example, a feature value of the emotion of the target person in the utterance section. The emotion feature value indicates, for example, whether the emotion of the target person is negative or positive.

感情の特徴値は、例えば、対象の人物の感情が、喜び、怒り、悲しみ、残念、驚き、意欲的、または、消極的などであることを示していてもよい。感情の特徴値は、例えば、ストレス度合いなどであってもよい。第2の特徴量は、例えば、発話区間における対象の人物の感情の特徴値の変化量などであってもよい。第2の特徴量は、具体的には、発話区間における対象の人物のストレス度合いの変化量などであってもよい。 The emotion characteristic value may indicate, for example, that the emotion of the target person is joy, anger, sadness, regret, surprise, motivation, or reluctance. The characteristic value of emotion may be, for example, the degree of stress. The second feature amount may be, for example, the amount of change in the feature value of the emotion of the target person during the utterance period. Specifically, the second feature amount may be the amount of change in the stress level of the target person during the utterance period.

情報処理装置100は、算出した第1の特徴量と、算出した第2の特徴量とに基づいて、対象の人物に対する詐欺行為の発生状況を評価する。ここで、情報処理装置100は、例えば、第1の特徴量の変化パターンと、詐欺行為の発生状況の解とを対応付けて記憶する。情報処理装置100は、具体的には、図7に後述する感情パターン情報管理テーブル700を記憶する。情報処理装置100は、例えば、算出した第1の特徴量の変化パターンに対応する詐欺行為の発生状況の解を特定することにより、対象の人物に対する詐欺行為の発生状況を評価する。 The information processing device 100 evaluates the occurrence of fraud against the target person based on the calculated first feature amount and the calculated second feature amount. Here, the information processing device 100 stores, for example, the change pattern of the first feature amount and the solution of the occurrence situation of the fraudulent act in association with each other. Specifically, the information processing device 100 stores an emotion pattern information management table 700, which will be described later in FIG. The information processing device 100 evaluates the occurrence of fraud against the target person, for example, by specifying a solution to the occurrence of fraud that corresponds to the change pattern of the calculated first feature amount.

情報処理装置100は、例えば、算出した第1の特徴量が心拍数の変化量であれば、第1の特徴量と閾値とを比較することにより、対象の人物に対する詐欺行為の発生状況を評価してもよい。閾値は、例えば、予め利用者によって設定される。情報処理装置100は、具体的には、第1の特徴量が閾値以上であれば、対象の人物に対する詐欺行為が発生したと評価する。情報処理装置100は、具体的には、第1の特徴量が閾値未満であれば、対象の人物に対する詐欺行為が発生していないと評価する。 For example, if the calculated first feature amount is the amount of change in heart rate, the information processing device 100 evaluates the occurrence of fraud against the target person by comparing the first feature amount and the threshold value. You may. For example, the threshold value is set in advance by the user. Specifically, the information processing device 100 evaluates that a fraudulent act against the target person has occurred if the first feature amount is equal to or greater than the threshold value. Specifically, the information processing device 100 evaluates that fraud against the target person has not occurred if the first feature amount is less than the threshold value.

また、情報処理装置100は、例えば、第2の特徴量の変化パターンと、詐欺行為の発生状況の解とを対応付けて記憶する。情報処理装置100は、具体的には、図8に後述する生体パターン情報管理テーブル800を記憶する。情報処理装置100は、例えば、算出した第2の特徴量の変化パターンに対応する詐欺行為の発生状況の解を特定することにより、対象の人物に対する詐欺行為の発生状況を評価する。 Further, the information processing device 100 stores, for example, the change pattern of the second feature amount and the solution of the occurrence situation of fraud in association with each other. Specifically, the information processing device 100 stores a biometric pattern information management table 800, which will be described later in FIG. The information processing device 100 evaluates the occurrence of fraud against the target person, for example, by specifying a solution to the occurrence of fraud that corresponds to the change pattern of the calculated second feature amount.

情報処理装置100は、例えば、算出した第2の特徴量がストレス度合いの変化量であれば、第2の特徴量と閾値とを比較することにより、対象の人物に対する詐欺行為の発生状況を評価してもよい。閾値は、例えば、予め利用者によって設定される。情報処理装置100は、具体的には、第2の特徴量が閾値以上であれば、対象の人物に対する詐欺行為が発生したと評価する。情報処理装置100は、具体的には、第2の特徴量が閾値未満であれば、対象の人物に対する詐欺行為が発生していないと評価する。 For example, if the calculated second feature amount is the amount of change in stress level, the information processing device 100 evaluates the occurrence of fraud against the target person by comparing the second feature amount with a threshold value. You may. For example, the threshold value is set in advance by the user. Specifically, the information processing device 100 evaluates that a fraudulent act against the target person has occurred if the second feature amount is equal to or greater than the threshold value. Specifically, if the second feature amount is less than the threshold value, the information processing device 100 evaluates that no fraud has occurred against the target person.

情報処理装置100は、対象の人物に対する詐欺行為の発生状況を評価した結果、対象の人物に対する詐欺行為が発生したと判定した場合、対象の人物に対する詐欺行為が発生したことを示す通知を、アラート出力装置203に送信する。情報処理装置100は、例えば、サーバ、または、PCなどである。 If it is determined that a fraudulent act has occurred against the target person as a result of evaluating the occurrence status of the fraudulent act against the target person, the information processing device 100 issues a notification indicating that a fraudulent act has occurred against the target person as an alert. It is transmitted to the output device 203. The information processing device 100 is, for example, a server or a PC.

音声データ取得装置201は、対象の期間における対象の人物の音声データを取得するコンピュータである。音声データ取得装置201は、例えば、対象の人物の通話時、対象の人物の会話を録音し続ける。音声データ取得装置201は、例えば、一定時間ごとに、過去一定時間分の対象の期間における、録音した対象の人物の会話を示す音声データを生成し、情報処理装置100に送信する。音声データ取得装置201は、例えば、PC、タブレット端末、スマートフォン、ウェアラブル端末、または、スマートスピーカーなどである。 The voice data acquisition device 201 is a computer that acquires voice data of a target person during a target period. For example, the audio data acquisition device 201 continues to record the conversation of the target person when the target person is on the phone. For example, the audio data acquisition device 201 generates audio data representing a recorded conversation of a target person during a target period of a certain amount of time in the past at regular intervals, and transmits it to the information processing device 100 . The audio data acquisition device 201 is, for example, a PC, a tablet terminal, a smartphone, a wearable terminal, or a smart speaker.

生体データ取得装置202は、対象の期間における対象の人物の生体データを取得するコンピュータである。生体データ取得装置202は、例えば、対象の人物の通話時、対象の人物の生体的な特徴値を計測し続ける。生体データ取得装置202は、例えば、一定時間ごとに、過去一定時間分の対象の期間における、計測した対象の人物の生体的な特徴値の時間変化を示す生体データを生成し、情報処理装置100に送信する。生体データ取得装置202は、例えば、PC、タブレット端末、スマートフォン、または、ウェアラブル端末などである。 The biometric data acquisition device 202 is a computer that acquires biometric data of a target person during a target period. The biometric data acquisition device 202 continues to measure the biometric characteristic values of the target person, for example, when the target person is on the phone. For example, the biometric data acquisition device 202 generates biometric data that indicates the time change in the measured biological characteristic values of the target person during the target period for a certain past time at regular intervals, and generates biometric data that indicates the temporal change in the measured biological characteristic values of the target person. Send to. The biometric data acquisition device 202 is, for example, a PC, a tablet terminal, a smartphone, or a wearable terminal.

アラート出力装置203は、対象の人物に対する詐欺行為が発生したことを示すアラートを出力するコンピュータである。アラート出力装置203は、例えば、対象の人物に対する詐欺行為が発生したことを示す通知を、情報処理装置100から受信する。アラート出力装置203は、例えば、対象の人物に対する詐欺行為が発生したことを示す通知を受信したことに応じて、対象の人物に対する詐欺行為が発生したことを示すアラートを出力する。 The alert output device 203 is a computer that outputs an alert indicating that a fraudulent act has occurred against a target person. The alert output device 203 receives, for example, a notification from the information processing device 100 indicating that a fraudulent act against a target person has occurred. The alert output device 203 outputs an alert indicating that a fraudulent act against the target person has occurred, for example, in response to receiving a notification indicating that a fraudulent act against the target person has occurred.

アラート出力装置203は、具体的には、対象の人物に対する詐欺行為が発生したことを示すアラートを、特定の人物または特定の組織宛てに出力する。特定の人物は、例えば、対象の人物本人、または、対象の人物の近親者などである。特定の組織は、例えば、警察、金融機関、警備会社、または、介護施設などである。アラート出力装置203は、例えば、PC、タブレット端末、スマートフォン、ウェアラブル端末、または、スマートスピーカーなどである。 Specifically, the alert output device 203 outputs, to a specific person or a specific organization, an alert indicating that a fraudulent act has occurred against the target person. The specific person is, for example, the target person himself or a close relative of the target person. The specific organization is, for example, the police, a financial institution, a security company, or a nursing home. The alert output device 203 is, for example, a PC, a tablet terminal, a smartphone, a wearable terminal, or a smart speaker.

ここでは、情報処理装置100と、音声データ取得装置201とが異なる装置である場合について説明したが、これに限らない。例えば、情報処理装置100が、音声データ取得装置201としての機能を有し、音声データ取得装置201としても動作する場合があってもよい。 Although the case where the information processing device 100 and the audio data acquisition device 201 are different devices has been described here, the present invention is not limited to this. For example, the information processing device 100 may have a function as the audio data acquisition device 201 and also operate as the audio data acquisition device 201.

ここでは、情報処理装置100と、生体データ取得装置202とが異なる装置である場合について説明したが、これに限らない。例えば、情報処理装置100が、生体データ取得装置202としての機能を有し、生体データ取得装置202としても動作する場合があってもよい。 Although the case where the information processing device 100 and the biometric data acquisition device 202 are different devices has been described here, the present invention is not limited to this. For example, the information processing device 100 may have a function as the biometric data acquisition device 202 and may also operate as the biometric data acquisition device 202.

ここでは、情報処理装置100と、アラート出力装置203とが異なる装置である場合について説明したが、これに限らない。例えば、情報処理装置100が、アラート出力装置203としての機能を有し、アラート出力装置203としても動作する場合があってもよい。 Although the case where the information processing device 100 and the alert output device 203 are different devices has been described here, the present invention is not limited to this. For example, the information processing device 100 may have a function as the alert output device 203 and may also operate as the alert output device 203.

ここでは、音声データ取得装置201と、生体データ取得装置202とが異なる装置である場合について説明したが、これに限らない。例えば、音声データ取得装置201が、生体データ取得装置202としての機能を有し、生体データ取得装置202としても動作する場合があってもよい。 Although the case where the audio data acquisition device 201 and the biometric data acquisition device 202 are different devices has been described here, the present invention is not limited to this. For example, the audio data acquisition device 201 may have a function as the biometric data acquisition device 202 and also operate as the biometric data acquisition device 202.

ここでは、音声データ取得装置201と、アラート出力装置203とが異なる装置である場合について説明したが、これに限らない。例えば、音声データ取得装置201が、アラート出力装置203としての機能を有し、アラート出力装置203としても動作する場合があってもよい。 Although the case where the audio data acquisition device 201 and the alert output device 203 are different devices has been described here, the present invention is not limited to this. For example, the audio data acquisition device 201 may have a function as the alert output device 203 and may also operate as the alert output device 203.

ここでは、生体データ取得装置202と、アラート出力装置203とが異なる装置である場合について説明したが、これに限らない。例えば、生体データ取得装置202が、アラート出力装置203としての機能を有し、アラート出力装置203としても動作する場合があってもよい。 Although the case where the biometric data acquisition device 202 and the alert output device 203 are different devices has been described here, the present invention is not limited to this. For example, the biological data acquisition device 202 may have a function as the alert output device 203 and may also operate as the alert output device 203.

(情報処理システム200の適用例)
次に、図3および図4を用いて、情報処理システム200の適用例について説明する。
(Application example of information processing system 200)
Next, an application example of the information processing system 200 will be described using FIGS. 3 and 4.

図3は、情報処理システム200の第1の適用例を示す説明図である。図3において、詐欺行為から保護する対象の人物となるユーザ301は、スマートフォン310を有する。ユーザ301は、例えば、ユーザ301の自宅などに居る。ユーザ301は、例えば、外出していてもよい。情報処理システム200は、ユーザ301が、スマートフォン310を介して、他の人物と会話する場合に対して適用することができる。他の人物は、例えば、詐欺師302である。 FIG. 3 is an explanatory diagram showing a first application example of the information processing system 200. In FIG. 3, a user 301 who is a person to be protected from fraud has a smartphone 310. The user 301 is, for example, at his or her home. The user 301 may be away from home, for example. The information processing system 200 can be applied to a case where the user 301 has a conversation with another person via the smartphone 310. The other person is, for example, a fraudster 302.

この場合、例えば、スマートフォン310が、情報処理装置100としての機能、音声データ取得装置201としての機能、生体データ取得装置202としての機能、および、アラート出力装置203としての機能を実現することになる。 In this case, for example, the smartphone 310 will realize the functions of the information processing device 100, the voice data acquisition device 201, the biological data acquisition device 202, and the alert output device 203. .

スマートフォン310は、例えば、マイクを有し、ユーザ301の通話時、マイクを用いて、ユーザ301の会話を示す音声データを取得することにより、音声データ取得装置201としての機能を実現する。スマートフォン310は、例えば、側面に生体センサ311を有し、ユーザ301の通話時、ユーザ301の手に接触した生体センサ311を用いて、ユーザ301の生体データを取得することにより、生体データ取得装置202としての機能を実現する。 The smartphone 310 has, for example, a microphone, and when the user 301 makes a call, uses the microphone to acquire voice data indicating the conversation of the user 301, thereby realizing the function as the voice data acquisition device 201. For example, the smartphone 310 has a biosensor 311 on the side, and when the user 301 is on the phone, the biometric sensor 311 that comes into contact with the user's 301 hand is used to acquire the biometric data of the user 301, thereby acting as a biometric data acquisition device. 202.

スマートフォン310は、例えば、音声データと、生体データとに基づいて、対象の人物に対する犯罪行為の発生状況を評価し、対象の人物に対する詐欺行為が発生したか否かを判定することにより、情報処理装置100としての機能を実現する。スマートフォン310は、例えば、対象の人物に対する詐欺行為が発生したと判定した場合、対象の人物に対する詐欺行為が発生したことを示すアラートを出力することにより、アラート出力装置203としての機能を実現する。これにより、情報処理システム200は、ユーザ301が、スマートフォン310を介して、詐欺師と会話する場合において、詐欺行為による詐欺被害を防止し易くすることができる。次に、図4の説明に移行する。 For example, the smartphone 310 performs information processing by evaluating the occurrence of a criminal act against a target person based on voice data and biometric data, and determining whether a fraudulent act against the target person has occurred. The functions of the device 100 are realized. For example, when it is determined that a fraudulent act against the target person has occurred, the smartphone 310 realizes the function as the alert output device 203 by outputting an alert indicating that a fraudulent act against the target person has occurred. Thereby, the information processing system 200 can easily prevent damage caused by fraud when the user 301 converses with a fraudster via the smartphone 310. Next, the description will move on to FIG. 4.

図4は、情報処理システム200の第2の適用例を示す説明図である。図4において、詐欺行為から保護する対象の人物となるユーザ401は、ウェアラブル端末411を装着する。また、ユーザ401の近傍に、スマートスピーカー412が存在するとする。ユーザ401は、例えば、ユーザ401の自宅などに居る。 FIG. 4 is an explanatory diagram showing a second application example of the information processing system 200. In FIG. 4, a user 401 who is a person to be protected from fraud wears a wearable terminal 411. Further, it is assumed that a smart speaker 412 exists near the user 401. The user 401 is, for example, at his or her home.

また、ウェアラブル端末411、および、スマートスピーカー412と通信可能なサーバ413が存在するとする。また、ユーザ401の関係者403は、スマートフォン414を有するとする。関係者403は、例えば、ユーザ401の近親者などである。関係者403は、例えば、関係者403の自宅である関係者宅などに居る。情報処理システム200は、ユーザ401が、固定電話機415を介して、他の人物と会話する場合に対して適用することができる。他の人物は、例えば、詐欺師402である。 Further, it is assumed that there is a server 413 that can communicate with the wearable terminal 411 and the smart speaker 412. Further, it is assumed that a person 403 related to the user 401 has a smartphone 414. The related person 403 is, for example, a close relative of the user 401. The person concerned 403 is, for example, at the person's house, which is the home of the person concerned 403 . The information processing system 200 can be applied to a case where the user 401 has a conversation with another person via the landline telephone 415. The other person is, for example, a fraudster 402.

この場合、例えば、サーバ413が、情報処理装置100としての機能を実現することになる。サーバ413は、例えば、情報処理システム200を管理する管理会社などに設けられる。また、スマートスピーカー412が、音声データ取得装置201としての機能を実現することになる。また、ウェアラブル端末411が、生体データ取得装置202としての機能を実現することになる。また、スマートフォン414が、アラート出力装置203としての機能を実現することになる。 In this case, for example, the server 413 will realize the function of the information processing device 100. The server 413 is provided, for example, at a management company that manages the information processing system 200. Furthermore, the smart speaker 412 realizes the function of the audio data acquisition device 201. Furthermore, the wearable terminal 411 realizes the function of the biometric data acquisition device 202. Furthermore, the smartphone 414 will realize the function of the alert output device 203.

スマートスピーカー412は、例えば、マイクを有し、ユーザ401の通話時、マイクを用いて、ユーザ401の会話を示す音声データを取得することにより、音声データ取得装置201としての機能を実現する。スマートスピーカー412は、例えば、取得した音声データを、サーバ413に送信する。 The smart speaker 412 has, for example, a microphone, and when the user 401 is talking, uses the microphone to acquire voice data indicating the conversation of the user 401, thereby realizing the function as the voice data acquisition device 201. For example, the smart speaker 412 transmits the acquired audio data to the server 413.

ウェアラブル端末411は、例えば、生体センサを有し、ユーザ401の通話時、ユーザ401の手に接触した生体センサを用いて、ユーザ401の生体データを取得することにより、生体データ取得装置202としての機能を実現する。ウェアラブル端末411は、例えば、取得した生体データを、サーバ413に送信する。 The wearable terminal 411 has a biosensor, for example, and functions as the biometric data acquisition device 202 by acquiring the biometric data of the user 401 using the biosensor that comes into contact with the user's 401 hand during the user's 401 call. Achieve functionality. Wearable terminal 411 transmits the acquired biometric data to server 413, for example.

サーバ413は、例えば、音声データと、生体データとに基づいて、対象の人物に対する犯罪行為の発生状況を評価し、対象の人物に対する詐欺行為が発生したか否かを判定することにより、情報処理装置100としての機能を実現する。サーバ413は、例えば、対象の人物に対する詐欺行為が発生したと判定した場合、対象の人物に対する詐欺行為が発生したことを示す通知を、スマートフォン414に送信する。 The server 413 performs information processing by, for example, evaluating the occurrence of a criminal act against a target person based on voice data and biometric data, and determining whether a fraudulent act against the target person has occurred. The functions of the device 100 are realized. For example, if the server 413 determines that a fraudulent act against the target person has occurred, it transmits a notification to the smartphone 414 indicating that a fraudulent act against the target person has occurred.

スマートフォン414は、例えば、対象の人物に対する詐欺行為が発生したことを示す通知を受信したことに応じて、対象の人物に対する詐欺行為が発生したことを示すアラートを出力することにより、アラート出力装置203としての機能を実現する。これにより、情報処理システム200は、ユーザ401が、固定電話機415を介して、詐欺師402と会話する場合において、詐欺行為による詐欺被害を防止し易くすることができる。 For example, in response to receiving a notification indicating that a fraudulent act against the target person has occurred, the smartphone 414 outputs an alert indicating that a fraudulent act against the target person has occurred, thereby controlling the alert output device 203. Realize the function as Thereby, the information processing system 200 can easily prevent damage caused by fraud when the user 401 converses with the fraudster 402 via the landline telephone 415.

情報処理システム200は、例えば、ユーザ401に対する詐欺行為が発生したと判定した場合、関係者403が、ユーザ401に対する詐欺行為が発生したことを把握可能にすることができる。このため、情報処理システム200は、関係者403が、詐欺行為による詐欺被害を防止するために、ユーザ401に連絡を取ったり、警察または銀行に連絡を取ったりするような対策を素早く実施し易くすることができる。 For example, when the information processing system 200 determines that a fraudulent act against the user 401 has occurred, the information processing system 200 can enable the person concerned 403 to understand that a fraudulent act against the user 401 has occurred. Therefore, the information processing system 200 makes it easy for the person concerned 403 to quickly implement measures such as contacting the user 401, contacting the police, or the bank in order to prevent damage caused by fraudulent acts. can do.

ここでは、ユーザ401の関係者403が有するスマートフォン414が、アラート出力装置203としての機能を実現する場合について説明したが、これに限らない。例えば、警察または銀行に設置されたサーバまたはPCなどのコンピュータが、アラート出力装置203としての機能を実現する場合があってもよい。 Here, a case has been described in which the smartphone 414 owned by the person 403 associated with the user 401 realizes the function as the alert output device 203, but the present invention is not limited to this. For example, a computer such as a server or a PC installed at a police station or a bank may function as the alert output device 203.

ここでは、詐欺師402が、電話を介して詐欺行為を行おうとする状況に対して、情報処理システム200を適用する場合について説明したが、これに限らない。例えば、詐欺師402が、ユーザ401と対面して、詐欺行為を行おうとする状況に対して、情報処理システム200を適用する場合があってもよい。 Here, a case has been described in which the information processing system 200 is applied to a situation where the fraudster 402 attempts to commit fraud via the telephone, but the present invention is not limited to this. For example, the information processing system 200 may be applied to a situation in which a fraudster 402 attempts to commit fraud while facing a user 401.

(情報処理装置100のハードウェア構成例)
次に、図5を用いて、情報処理装置100のハードウェア構成例について説明する。
(Example of hardware configuration of information processing device 100)
Next, an example of the hardware configuration of the information processing device 100 will be described using FIG. 5.

図5は、情報処理装置100のハードウェア構成例を示すブロック図である。図5において、情報処理装置100は、CPU(Central Processing Unit)501と、メモリ502と、ネットワークI/F(Interface)503と、記録媒体I/F504と、記録媒体505とを有する。また、各構成部は、バス500によってそれぞれ接続される。 FIG. 5 is a block diagram showing an example of the hardware configuration of the information processing device 100. In FIG. 5, the information processing device 100 includes a CPU (Central Processing Unit) 501, a memory 502, a network I/F (Interface) 503, a recording medium I/F 504, and a recording medium 505. Further, each component is connected to each other by a bus 500.

ここで、CPU501は、情報処理装置100の全体の制御を司る。メモリ502は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)およびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU501のワークエリアとして使用される。メモリ502に記憶されるプログラムは、CPU501にロードされることにより、コーディングされている処理をCPU501に実行させる。メモリ502は、例えば、図6に後述するフィルタ情報管理テーブル600と、図7に後述する感情パターン情報管理テーブル700と、図8に後述する生体パターン情報管理テーブル800とを記憶する。 Here, the CPU 501 is in charge of overall control of the information processing apparatus 100. The memory 502 includes, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), and a flash ROM. Specifically, for example, a flash ROM or ROM stores various programs, and a RAM is used as a work area for the CPU 501. The program stored in the memory 502 is loaded into the CPU 501 and causes the CPU 501 to execute the coded processing. The memory 502 stores, for example, a filter information management table 600 that will be described later in FIG. 6, an emotional pattern information management table 700 that will be described later in FIG. 7, and a biometric pattern information management table 800 that will be described later in FIG.

ネットワークI/F503は、通信回線を通じてネットワーク210に接続され、ネットワーク210を介して他のコンピュータに接続される。そして、ネットワークI/F503は、ネットワーク210と内部のインターフェースを司り、他のコンピュータからのデータの入出力を制御する。ネットワークI/F503は、例えば、モデムやLANアダプタなどである。 Network I/F 503 is connected to network 210 through a communication line, and connected to other computers via network 210. The network I/F 503 serves as an internal interface with the network 210, and controls data input/output from other computers. The network I/F 503 is, for example, a modem or a LAN adapter.

記録媒体I/F504は、CPU501の制御に従って記録媒体505に対するデータのリード/ライトを制御する。記録媒体I/F504は、例えば、ディスクドライブ、SSD(Solid State Drive)、USB(Universal Serial Bus)ポートなどである。記録媒体505は、記録媒体I/F504の制御で書き込まれたデータを記憶する不揮発メモリである。記録媒体505は、例えば、ディスク、半導体メモリ、USBメモリなどである。記録媒体505は、情報処理装置100から着脱可能であってもよい。 The recording medium I/F 504 controls reading/writing of data to/from the recording medium 505 under the control of the CPU 501 . The recording medium I/F 504 is, for example, a disk drive, an SSD (Solid State Drive), a USB (Universal Serial Bus) port, or the like. The recording medium 505 is a nonvolatile memory that stores data written under the control of the recording medium I/F 504. The recording medium 505 is, for example, a disk, a semiconductor memory, a USB memory, or the like. The recording medium 505 may be removable from the information processing apparatus 100.

情報処理装置100は、上述した構成部の他、例えば、キーボード、マウス、プリンタ、または、スキャナなどを有してもよい。また、情報処理装置100は、記録媒体I/F504や記録媒体505を複数有していてもよい。また、情報処理装置100は、記録媒体I/F504や記録媒体505を有していなくてもよい。 In addition to the components described above, the information processing device 100 may include, for example, a keyboard, a mouse, a printer, a scanner, or the like. Furthermore, the information processing apparatus 100 may include a plurality of recording medium I/Fs 504 and recording media 505. Furthermore, the information processing apparatus 100 does not need to have the recording medium I/F 504 or the recording medium 505.

また、情報処理装置100は、上述した構成部の他、図9に後述する音声センサ906に対応する構成部を有していてもよい。また、情報処理装置100は、上述した構成部の他、図9に後述する生体センサ907に対応する構成部を有していてもよい。また、情報処理装置100は、上述した構成部の他、図9に後述する出力装置908に対応する構成部を有していてもよい。 In addition to the above-described components, the information processing device 100 may include a component corresponding to an audio sensor 906, which will be described later in FIG. Further, the information processing device 100 may include a component corresponding to a biosensor 907, which will be described later in FIG. 9, in addition to the components described above. Further, the information processing apparatus 100 may include a component corresponding to an output device 908, which will be described later in FIG. 9, in addition to the component described above.

(フィルタ情報管理テーブル600の記憶内容)
次に、図6を用いて、フィルタ情報管理テーブル600の記憶内容の一例について説明する。フィルタ情報管理テーブル600は、例えば、図5に示した情報処理装置100のメモリ502や記録媒体505などの記憶領域により実現される。
(Stored contents of filter information management table 600)
Next, an example of the stored contents of the filter information management table 600 will be explained using FIG. 6. The filter information management table 600 is realized, for example, by a storage area such as the memory 502 or the recording medium 505 of the information processing apparatus 100 shown in FIG.

図6は、フィルタ情報管理テーブル600の記憶内容の一例を示す説明図である。図6に示すように、フィルタ情報管理テーブル600は、音声パターンと、種類と、フィルタとのフィールドを有する。フィルタ情報管理テーブル600は、音声パターンごとに各フィールドに情報を設定することにより、フィルタ情報がレコード600-aとして記憶される。aは、任意の整数である。 FIG. 6 is an explanatory diagram showing an example of the stored contents of the filter information management table 600. As shown in FIG. 6, the filter information management table 600 has fields for voice pattern, type, and filter. In the filter information management table 600, filter information is stored as a record 600-a by setting information in each field for each voice pattern. a is any integer.

音声パターンのフィールドには、対象の人物が会話中の期間を複数の区間に分類して当該区間に発話属性を割り振るための条件を示す音声パターンが設定される。音声パターンは、区間に割り振る発話属性を特定可能にする。音声パターンは、例えば、発話属性に対応する音声データが示す会話音声の特徴を示す。音声パターンは、具体的には、発話属性に対応するキーワードを示す。音声パターンは、具体的には、発話属性に対応する音声のトーン、声量、または、波長などを示していてもよい。 In the voice pattern field, a voice pattern indicating conditions for classifying the period during which the target person is having a conversation into a plurality of sections and assigning speech attributes to the sections is set. The voice pattern makes it possible to specify the utterance attributes to be assigned to the sections. The voice pattern indicates, for example, the characteristics of the conversational voice indicated by the voice data corresponding to the utterance attribute. Specifically, the voice pattern indicates a keyword corresponding to an utterance attribute. Specifically, the voice pattern may indicate the tone, volume, or wavelength of the voice corresponding to the speech attribute.

音声パターンのフィールドには、具体的には、「沈黙」に対応する音声パターン、または、「相槌」に対応する音声パターンなどが設定される。音声パターンのフィールドには、具体的には、「発話」に対応する音声パターンなどが設定されていてもよい。「発話」に対応する音声パターンは、特定のキーワードではなく、特定の音声のトーン、声量、または、波長などではなく、「沈黙」に対応する音声パターン、および、「相槌」に対応する音声パターンに合致しないことを示していてもよい。 Specifically, in the voice pattern field, a voice pattern corresponding to "silence" or a voice pattern corresponding to "agoushu" is set. Specifically, a voice pattern corresponding to "utterance" may be set in the voice pattern field. The speech pattern corresponding to "speech" is not a specific keyword, nor is it a specific tone, volume, or wavelength of speech, but rather a speech pattern corresponding to "silence" and a speech pattern corresponding to "agoushu". It may also indicate that it does not match.

種類のフィールドには、上記発話属性の種類が設定される。種類のフィールドには、例えば、対象の人物が会話中の期間のうち、上記音声パターンに対応する区間に割り振る発話属性の種類が設定される。フィルタのフィールドには、上記音声パターンに対応する区間における生体データに適用するフィルタが設定される。フィルタは、例えば、生体データのノイズを除去する機能を有する。 The type of the utterance attribute is set in the type field. In the type field, for example, the type of speech attribute to be assigned to the section corresponding to the voice pattern during the conversation of the target person is set. A filter to be applied to the biometric data in the section corresponding to the voice pattern is set in the filter field. The filter has, for example, a function of removing noise from biometric data.

(感情パターン情報管理テーブル700の記憶内容)
次に、図7を用いて、感情パターン情報管理テーブル700の記憶内容の一例について説明する。感情パターン情報管理テーブル700は、例えば、図5に示した情報処理装置100のメモリ502や記録媒体505などの記憶領域により実現される。
(Memory contents of emotion pattern information management table 700)
Next, an example of the contents stored in the emotional pattern information management table 700 will be explained using FIG. 7. The emotional pattern information management table 700 is realized, for example, by a storage area such as the memory 502 or the recording medium 505 of the information processing apparatus 100 shown in FIG.

図7は、感情パターン情報管理テーブル700の記憶内容の一例を示す説明図である。図7に示すように、感情パターン情報管理テーブル700は、感情パターンと、判定結果とのフィールドを有する。感情パターン情報管理テーブル700は、感情パターンごとに各フィールドに情報を設定することにより、感情パターン情報がレコード700-bとして記憶される。bは、任意の整数である。 FIG. 7 is an explanatory diagram showing an example of the stored contents of the emotional pattern information management table 700. As shown in FIG. 7, the emotion pattern information management table 700 has fields for emotion patterns and determination results. In the emotional pattern information management table 700, emotional pattern information is stored as a record 700-b by setting information in each field for each emotional pattern. b is an arbitrary integer.

感情パターンのフィールドには、詐欺行為の発生状況を評価する基準を示す感情パターンが設定される。感情パターンは、例えば、複数の区間のそれぞれの区間における対象の人物の感情の特徴値の組み合わせのパターンである。判定結果のフィールドには、複数の区間のそれぞれの区間について、実際に特定した対象の人物の感情の特徴値の組み合わせのパターンが、上記感情パターンに該当する場合に対応する、詐欺行為の発生状況の解となる判定結果が設定される。 In the field of emotion pattern, an emotion pattern indicating a standard for evaluating the occurrence of fraud is set. The emotion pattern is, for example, a pattern of combinations of characteristic values of emotions of a target person in each of a plurality of intervals. In the judgment result field, for each of the multiple intervals, the occurrence situation of fraud corresponding to the case where the pattern of the combination of characteristic values of the emotions of the actually identified target person corresponds to the above emotion pattern is displayed. The determination result that is the solution is set.

例えば、レコード700-bは、具体的には、複数の発話区間のそれぞれの発話区間における対象の人物の感情の特徴値が、先頭からポジティブ、ネガティブ、ポジティブの順序の組み合わせである場合に、詐欺行為が発生したと評価するといった規則を示す。 For example, record 700-b specifies that the target person's emotion characteristic values in each of the plurality of speech sections are a combination of positive, negative, and positive from the beginning. Indicates rules such as evaluating that an act has occurred.

(生体パターン情報管理テーブル800の記憶内容)
次に、図8を用いて、生体パターン情報管理テーブル800の記憶内容の一例について説明する。生体パターン情報管理テーブル800は、例えば、図5に示した情報処理装置100のメモリ502や記録媒体505などの記憶領域により実現される。
(Stored contents of biometric pattern information management table 800)
Next, an example of the stored contents of the biometric pattern information management table 800 will be described using FIG. 8. The biometric pattern information management table 800 is realized, for example, by a storage area such as the memory 502 or the recording medium 505 of the information processing apparatus 100 shown in FIG.

図8は、生体パターン情報管理テーブル800の記憶内容の一例を示す説明図である。図8に示すように、生体パターン情報管理テーブル800は、生体パターンと、判定結果とのフィールドを有する。生体パターン情報管理テーブル800は、生体パターンごとに各フィールドに情報を設定することにより、生体パターン情報がレコード800-cとして記憶される。cは、任意の整数である。 FIG. 8 is an explanatory diagram showing an example of the stored contents of the biometric pattern information management table 800. As shown in FIG. 8, the biometric pattern information management table 800 has fields for biometric patterns and determination results. In the biometric pattern information management table 800, biometric pattern information is stored as a record 800-c by setting information in each field for each biometric pattern. c is any integer.

生体パターンのフィールドには、詐欺行為の発生状況を評価する基準を示す生体パターンが設定される。生体パターンは、例えば、複数の区間のそれぞれの区間における対象の人物の生体的な特徴値の組み合わせのパターンである。生体パターンは、例えば、ある区間における対象の人物の生体的な特徴値の時間変化のパターンであってもよい。 In the biometric pattern field, a biometric pattern indicating a standard for evaluating the occurrence of fraud is set. The biological pattern is, for example, a pattern of combinations of biological characteristic values of a target person in each of a plurality of sections. The biological pattern may be, for example, a pattern of temporal changes in biological characteristic values of a target person in a certain section.

判定結果のフィールドには、複数の区間のそれぞれの区間について、実際に特定した対象の人物の生体的な特徴値の組み合わせのパターンが、上記生体パターンに該当する場合に対応する、詐欺行為の発生状況の解となる判定結果が設定される。判定結果のフィールドには、複数の区間のそれぞれの区間について、実際に特定した対象の人物の生体的な特徴値の統計値の組み合わせのパターンが、上記生体パターンに該当する場合に対応する、詐欺行為の発生状況の解となる判定結果が設定される。判定結果のフィールドには、ある区間について、実際に特定した対象の人物の生体的な特徴値の時間変化のパターンが、上記生体パターンに該当する場合に対応する、詐欺行為の発生状況の解となる判定結果が設定されていてもよい。 In the judgment result field, for each of the multiple sections, the occurrence of fraud corresponding to the case where the pattern of combination of biometric feature values of the target person actually identified corresponds to the above biometric pattern. A determination result that is a solution to the situation is set. In the judgment result field, for each of the multiple sections, if the pattern of the combination of the statistical values of the biometric feature values of the target person actually identified corresponds to the above biometric pattern, the fraud A determination result that is a solution to the situation in which the act occurs is set. In the determination result field, the solution to the occurrence of fraud corresponding to the case where the pattern of changes over time in the biological characteristic values of the target person actually identified for a certain interval corresponds to the biological pattern described above is displayed. A determination result may be set.

例えば、レコード800-cは、具体的には、ある区間について、実際に特定した対象の人物の生体的な特徴値の時間変化のパターンが、単調増加を示す生体パターンに合致する場合に、詐欺行為が発生したと評価するといった規則を示す。 For example, record 800-c specifies that if the pattern of time change in the biometric feature values of the actually identified target person matches the biometric pattern showing a monotonous increase in a certain interval, Indicates rules such as evaluating that an act has occurred.

(音声データ取得装置201のハードウェア構成例)
次に、図9を用いて、音声データ取得装置201のハードウェア構成例について説明する。
(Example of hardware configuration of audio data acquisition device 201)
Next, an example of the hardware configuration of the audio data acquisition device 201 will be described using FIG. 9.

図9は、音声データ取得装置201のハードウェア構成例を示すブロック図である。図9において、音声データ取得装置201は、CPU901と、メモリ902と、ネットワークI/F903と、記録媒体I/F904と、記録媒体905と、音声センサ906と、生体センサ907と、出力装置908とを有する。また、各構成部は、バス900によってそれぞれ接続される。 FIG. 9 is a block diagram showing an example of the hardware configuration of the audio data acquisition device 201. In FIG. 9, the audio data acquisition device 201 includes a CPU 901, a memory 902, a network I/F 903, a recording medium I/F 904, a recording medium 905, an audio sensor 906, a biological sensor 907, and an output device 908. has. Further, each component is connected to each other by a bus 900.

ここで、CPU901は、音声データ取得装置201の全体の制御を司る。メモリ902は、例えば、ROM、RAMおよびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU901のワークエリアとして使用される。メモリ902に記憶されるプログラムは、CPU901にロードされることにより、コーディングされている処理をCPU901に実行させる。 Here, the CPU 901 is in charge of overall control of the audio data acquisition device 201. Memory 902 includes, for example, ROM, RAM, flash ROM, and the like. Specifically, for example, a flash ROM or ROM stores various programs, and a RAM is used as a work area for the CPU 901. The program stored in the memory 902 is loaded into the CPU 901 and causes the CPU 901 to execute the coded processing.

ネットワークI/F903は、通信回線を通じてネットワーク210に接続され、ネットワーク210を介して他のコンピュータに接続される。そして、ネットワークI/F903は、ネットワーク210と内部のインターフェースを司り、他のコンピュータからのデータの入出力を制御する。ネットワークI/F903は、例えば、モデムやLANアダプタなどである。 Network I/F 903 is connected to network 210 through a communication line, and connected to other computers via network 210. The network I/F 903 serves as an internal interface with the network 210, and controls data input/output from other computers. The network I/F 903 is, for example, a modem or a LAN adapter.

記録媒体I/F904は、CPU901の制御に従って記録媒体905に対するデータのリード/ライトを制御する。記録媒体I/F904は、例えば、ディスクドライブ、SSD、USBポートなどである。記録媒体905は、記録媒体I/F904の制御で書き込まれたデータを記憶する不揮発メモリである。記録媒体905は、例えば、ディスク、半導体メモリ、USBメモリなどである。記録媒体905は、音声データ取得装置201から着脱可能であってもよい。 The recording medium I/F 904 controls reading/writing of data to/from the recording medium 905 under the control of the CPU 901 . The recording medium I/F 904 is, for example, a disk drive, an SSD, a USB port, or the like. The recording medium 905 is a nonvolatile memory that stores data written under the control of the recording medium I/F 904. The recording medium 905 is, for example, a disk, a semiconductor memory, a USB memory, or the like. The recording medium 905 may be removable from the audio data acquisition device 201.

音声センサ906は、音声を検出するマイクを有し、マイクを用いて対象の人物に関する音声を検出することにより、検出した音声を示す音声データを取得する。音声センサ906は、例えば、マイクを用いて検出した、対象の人物と他の人物との会話音声を示す音声データを生成することにより取得する。 The audio sensor 906 has a microphone that detects audio, and acquires audio data indicating the detected audio by detecting audio related to the target person using the microphone. The audio sensor 906 obtains audio data by generating audio data indicating conversational audio between the target person and another person, detected using a microphone, for example.

生体センサ907は、対象の人物の生体データを取得する。生体センサ907は、例えば、心拍数、脈拍数、発汗量、または、体温などに関する対象の人物の生体的な特徴値を計測し、計測した生体的な特徴値の時間変化を示す生体データを生成することにより取得する。生体センサ907は、例えば、撮像装置を含み、撮像装置で撮像した対象の人物の画像情報に基づいて、心拍数、脈拍数、発汗量、または、体温などに関する対象の人物の生体的な特徴値を計測していてもよい。生体センサ907は、例えば、ミリ波センサを含み、ミリ波センサを用いて、心拍数、脈拍数、発汗量、または、体温などに関する対象の人物の生体的な特徴値を計測していてもよい。 A biosensor 907 acquires biometric data of a target person. The biosensor 907 measures biological characteristic values of a target person, such as heart rate, pulse rate, amount of perspiration, or body temperature, and generates biological data indicating changes over time in the measured biological characteristic values. Obtain by doing. The biosensor 907 includes, for example, an imaging device, and determines biological characteristic values of the target person regarding heart rate, pulse rate, amount of perspiration, body temperature, etc. based on image information of the target person captured by the imaging device. may be measured. The biosensor 907 includes, for example, a millimeter wave sensor, and the millimeter wave sensor may be used to measure biological characteristic values of the target person, such as heart rate, pulse rate, amount of perspiration, or body temperature. .

出力装置908は、スピーカーまたはディスプレイを含む。出力装置908は、スピーカーまたはディスプレイを用いて、音声、文書、または、画像などのデータを出力する。出力装置908は、例えば、詐欺行為が発生したことを示すアラートを出力する。ディスプレイは、例えば、CRT(Cathode Ray Tube)、液晶ディスプレイ、有機EL(Electroluminescence)ディスプレイなどである。 Output device 908 includes a speaker or a display. The output device 908 outputs data such as audio, documents, or images using a speaker or a display. The output device 908 outputs, for example, an alert indicating that a fraudulent act has occurred. Examples of the display include a CRT (Cathode Ray Tube), a liquid crystal display, and an organic EL (Electroluminescence) display.

音声データ取得装置201は、上述した構成部の他、例えば、キーボード、マウス、プリンタ、または、スキャナなどを有してもよい。また、音声データ取得装置201は、記録媒体I/F904や記録媒体905を複数有していてもよい。また、音声データ取得装置201は、記録媒体I/F904や記録媒体905を有していなくてもよい。 In addition to the above-described components, the audio data acquisition device 201 may include, for example, a keyboard, a mouse, a printer, a scanner, or the like. Furthermore, the audio data acquisition device 201 may include a plurality of recording medium I/Fs 904 and recording media 905. Further, the audio data acquisition device 201 does not need to have the recording medium I/F 904 or the recording medium 905.

(生体データ取得装置202のハードウェア構成例)
生体データ取得装置202のハードウェア構成例は、具体的には、図9に示した音声データ取得装置201のハードウェア構成例と同様であるため、説明を省略する。
(Example of hardware configuration of biological data acquisition device 202)
The hardware configuration example of the biometric data acquisition device 202 is specifically the same as the hardware configuration example of the audio data acquisition device 201 shown in FIG. 9, so the description thereof will be omitted.

(アラート出力装置203のハードウェア構成例)
アラート出力装置203のハードウェア構成例は、具体的には、図9に示した音声データ取得装置201のハードウェア構成例と同様であるため、説明を省略する。
(Example of hardware configuration of alert output device 203)
The hardware configuration example of the alert output device 203 is specifically the same as the hardware configuration example of the audio data acquisition device 201 shown in FIG. 9, so the description thereof will be omitted.

(情報処理装置100の機能的構成例)
次に、図10を用いて、情報処理装置100の機能的構成例について説明する。
(Functional configuration example of information processing device 100)
Next, an example of the functional configuration of the information processing device 100 will be described using FIG. 10.

図10は、情報処理装置100の機能的構成例を示すブロック図である。情報処理装置100は、記憶部1000と、取得部1001と、分類部1002と、加工部1003と、算出部1004と、判定部1005と、出力部1006とを含む。 FIG. 10 is a block diagram showing an example of the functional configuration of the information processing device 100. The information processing device 100 includes a storage unit 1000, an acquisition unit 1001, a classification unit 1002, a processing unit 1003, a calculation unit 1004, a determination unit 1005, and an output unit 1006.

記憶部1000は、例えば、図5に示したメモリ502や記録媒体505などの記憶領域によって実現される。以下では、記憶部1000が、情報処理装置100に含まれる場合について説明するが、これに限らない。例えば、記憶部1000が、情報処理装置100とは異なる装置に含まれ、記憶部1000の記憶内容が情報処理装置100から参照可能である場合があってもよい。 The storage unit 1000 is realized by, for example, a storage area such as the memory 502 or the recording medium 505 shown in FIG. 5. Although a case will be described below in which the storage unit 1000 is included in the information processing device 100, the present invention is not limited to this. For example, there may be a case where the storage unit 1000 is included in a device different from the information processing device 100, and the storage contents of the storage unit 1000 can be referenced from the information processing device 100.

取得部1001~出力部1006は、制御部の一例として機能する。取得部1001~出力部1006は、具体的には、例えば、図5に示したメモリ502や記録媒体505などの記憶領域に記憶されたプログラムをCPU501に実行させることにより、または、ネットワークI/F503により、その機能を実現する。各機能部の処理結果は、例えば、図5に示したメモリ502や記録媒体505などの記憶領域に記憶される。 The acquisition unit 1001 to output unit 1006 function as an example of a control unit. Specifically, the acquisition unit 1001 to the output unit 1006 execute the program by causing the CPU 501 to execute a program stored in a storage area such as the memory 502 or the recording medium 505 shown in FIG. This function is realized by The processing results of each functional unit are stored in a storage area such as the memory 502 or the recording medium 505 shown in FIG. 5, for example.

記憶部1000は、各機能部の処理において参照され、または更新される各種情報を記憶する。記憶部1000は、例えば、音声データを記憶する。記憶部1000は、具体的には、対象の期間における対象の人物の会話を示す音声データを取得する。対象の人物は、犯罪行為から保護することが望まれる人物である。 The storage unit 1000 stores various information that is referenced or updated in the processing of each functional unit. The storage unit 1000 stores, for example, audio data. Specifically, the storage unit 1000 acquires audio data indicating a conversation of a target person during a target period. The target person is a person who is desired to be protected from criminal activity.

犯罪行為は、例えば、詐欺行為である。犯罪行為は、具体的には、電話を介した詐欺行為である。犯罪行為は、具体的には、対象の人物と対面で行われる詐欺行為であってもよい。音声データは、例えば、電話を介した、対象の人物と他の人物との会話を示す。他の人物は、例えば、犯罪者である場合が考えられる。犯罪者は、例えば、詐欺師である。 The criminal act is, for example, fraud. Specifically, the criminal act is an act of fraud over the telephone. Specifically, the criminal act may be a fraudulent act performed face-to-face with the target person. The audio data indicates a conversation between the target person and another person, for example via telephone. The other person may be a criminal, for example. A criminal is, for example, a fraudster.

対象の期間は、例えば、対象の人物が会話中の期間である。会話中の期間は、例えば、通話中の期間に対応する。対象の期間は、具体的には、対象の人物の会話開始から、対象の人物の会話終了までの期間である。会話開始は、例えば、通話開始に対応する。会話終了は、例えば、通話終了に対応する。対象の期間は、具体的には、対象の人物の会話開始から、対象の人物の会話終了までの全体の期間に含まれる一部の期間であってもよい。音声データは、例えば、取得部1001によって取得される。 The target period is, for example, a period during which the target person is having a conversation. The period during a conversation corresponds to, for example, the period during a telephone call. Specifically, the target period is a period from the start of a conversation with the target person to the end of the conversation with the target person. The conversation start corresponds to, for example, the start of a phone call. The end of the conversation corresponds to the end of a phone call, for example. Specifically, the target period may be a part of the period included in the entire period from the start of the conversation of the target person to the end of the conversation of the target person. The audio data is acquired by the acquisition unit 1001, for example.

記憶部1000は、例えば、生体データを記憶する。記憶部1000は、具体的には、対象の期間における対象の人物の生体データを取得する。生体データは、例えば、対象の人物の生体的な特徴値の時間変化を示す。生体的な特徴値は、例えば、心拍、脈拍、体温、または、発汗などに関する特徴値である。生体的な特徴値は、具体的には、心拍数、脈拍数、体温、または、発汗量などである。生体データは、例えば、取得部1001によって取得される。 The storage unit 1000 stores, for example, biometric data. Specifically, the storage unit 1000 acquires biometric data of the target person during the target period. The biometric data indicates, for example, changes over time in biometric feature values of a target person. The biological characteristic value is, for example, a characteristic value related to heartbeat, pulse, body temperature, sweating, or the like. Specifically, the biological characteristic value is heart rate, pulse rate, body temperature, sweat amount, or the like. The biometric data is acquired by the acquisition unit 1001, for example.

記憶部1000は、例えば、対象の期間を、複数の区間に分類可能にする音声パターンを記憶する。複数の区間は、例えば、対象の人物が発話した発話区間と、対象の人物が他の人物の発話を聴取した聴取区間とを含む。発話区間は、具体的には、対象の人物が、相槌以外の発話内容を発話した区間である。 The storage unit 1000 stores, for example, a voice pattern that allows a target period to be classified into a plurality of sections. The plurality of sections include, for example, a speech section in which the target person speaks and a listening section in which the target person listens to the speech of another person. Specifically, the utterance section is a section in which the target person uttered utterance contents other than ``Aitsu''.

複数の区間は、例えば、対象の人物が沈黙した沈黙区間と、対象の人物が相槌した相槌区間とを含んでいてもよい。沈黙区間と、相槌区間とは、例えば、聴取区間に包含される。記憶部1000は、具体的には、発話属性ごとに音声パターンを記憶する。発話属性は、例えば、対象の人物が沈黙したことを示す「沈黙」、および、対象の人物が相槌したことを示す「相槌」などである。発話属性は、例えば、対象の人物が発話したことを示す「発話」などであってもよい。発話属性は、例えば、対象の人物が他の人物の発話を聴取したことを示す「聴取」などであってもよい。 The plurality of sections may include, for example, a silence section in which the target person is silent and a mutual agreement section in which the target person is in agreement. The silence section and the interlude section are included in the listening section, for example. Specifically, the storage unit 1000 stores voice patterns for each utterance attribute. The utterance attributes include, for example, "silence" indicating that the target person has been silent, and "shuzuchi" indicating that the target person has agreed. The utterance attribute may be, for example, "utterance" indicating that the target person has uttered the utterance. The utterance attribute may be, for example, "listening" indicating that the target person has listened to another person's utterance.

記憶部1000は、より具体的には、「沈黙」に対応する音声パターン、および、「相槌」に対応する音声パターンなどを記憶する。記憶部1000は、より具体的には、「発話」に対応する音声パターンを記憶していてもよい。記憶部1000は、より具体的には、「聴取」に対応する音声パターンを記憶していてもよい。音声パターンは、具体的には、発話属性に対応するキーワードを示す。音声パターンは、より具体的には、「相槌」に対応するキーワードを示す。音声パターンは、具体的には、発話属性に対応する音声のトーン、声量、または、波長などを示していてもよい。音声パターンは、より具体的には、対象の人物の声量の上限の閾値を、「沈黙」と対応付けて示していてもよい。記憶部1000は、「沈黙」に対応する音声パターン、および、「相槌」に対応する音声パターンに合致しないことを、「発話」に対応する音声パターンとして記憶していてもよい。記憶部1000は、より具体的には、図6に示したフィルタ情報管理テーブル600を記憶する。 More specifically, the storage unit 1000 stores a voice pattern corresponding to "silence", a voice pattern corresponding to "agoushu", and the like. More specifically, the storage unit 1000 may store voice patterns corresponding to "utterances". More specifically, the storage unit 1000 may store a voice pattern corresponding to "listening". Specifically, the voice pattern indicates a keyword corresponding to an utterance attribute. More specifically, the voice pattern indicates a keyword corresponding to "Aitsuchi". Specifically, the voice pattern may indicate the tone, volume, or wavelength of the voice corresponding to the speech attribute. More specifically, the voice pattern may indicate the upper limit threshold of the target person's voice volume in association with "silence." The storage unit 1000 may store the voice pattern corresponding to "silence" and the voice pattern corresponding to "speech" that do not match the voice pattern corresponding to "speech". More specifically, the storage unit 1000 stores the filter information management table 600 shown in FIG. 6.

記憶部1000は、例えば、1以上の音声パターンのそれぞれの音声パターンと、生体データからノイズを除去するノイズ除去処理の内容とを対応付けて記憶する。ノイズ除去処理は、例えば、フィルタを用いて実施される。記憶部1000は、具体的には、1以上の音声パターンのそれぞれの音声パターンと、生体データからノイズを除去するフィルタとを対応付けて記憶する。フィルタは、例えば、音声パターンに対応する発話傾向、または、音声パターンに対応する人物の動作傾向などに応じて、当該発話傾向または当該動作傾向に対応する大きさおよび種類のノイズを除去する。記憶部1000は、より具体的には、図6に示したフィルタ情報管理テーブル600を記憶する。 The storage unit 1000 stores, for example, each of one or more voice patterns in association with the content of noise removal processing for removing noise from biometric data. The noise removal process is performed using a filter, for example. Specifically, the storage unit 1000 stores each of one or more voice patterns in association with a filter for removing noise from biometric data. For example, the filter removes noise of a size and type corresponding to the speech tendency or the movement tendency of a person corresponding to the voice pattern, for example. More specifically, the storage unit 1000 stores the filter information management table 600 shown in FIG. 6.

記憶部1000は、例えば、犯罪行為の発生状況を評価可能にする情報を記憶する。記憶部1000は、具体的には、音声データに基づく特徴量の変化パターンと、当該変化パターンに対応する犯罪行為の発生状況の解とを対応付けた第1対応情報を記憶する。音声データに基づく特徴量は、例えば、人物の感情の1以上の特徴値、ある区間における人物の感情の特徴値の統計値、または、ある区間における人物の感情の特徴値の変化量などである。感情の特徴値は、例えば、心理状態を示す特徴値である。 The storage unit 1000 stores, for example, information that allows the occurrence of criminal acts to be evaluated. Specifically, the storage unit 1000 stores first correspondence information that associates a change pattern of feature amounts based on audio data with a solution of the occurrence situation of a criminal act corresponding to the change pattern. The feature amount based on the audio data is, for example, one or more feature values of a person's emotion, a statistical value of a feature value of a person's emotion in a certain section, or an amount of change in a characteristic value of a person's emotion in a certain section. . The emotion feature value is, for example, a feature value indicating a psychological state.

感情の特徴値は、例えば、対象の人物の感情がネガティブであるか、または、ポジティブであるかを示す。感情の特徴値は、例えば、対象の人物の感情が、喜び、怒り、悲しみ、残念、驚き、意欲的、または、消極的などであることを示していてもよい。感情の特徴値は、例えば、ストレス度合いなどであってもよい。変化パターンは、例えば、図7に示した感情パターンに対応する。解は、例えば、犯罪行為の発生有無である。記憶部1000は、より具体的には、図7に示した感情パターン情報管理テーブル700を記憶する。第1対応情報は、例えば、取得部1001によって取得される。第1対応情報は、例えば、予め記憶部1000に記憶されていてもよい。 The emotion feature value indicates, for example, whether the emotion of the target person is negative or positive. The emotion characteristic value may indicate, for example, that the emotion of the target person is joy, anger, sadness, regret, surprise, motivation, or reluctance. The characteristic value of emotion may be, for example, the degree of stress. The change pattern corresponds to the emotion pattern shown in FIG. 7, for example. The solution is, for example, whether a criminal act has occurred. More specifically, the storage unit 1000 stores the emotional pattern information management table 700 shown in FIG. 7. The first correspondence information is acquired by the acquisition unit 1001, for example. The first correspondence information may be stored in the storage unit 1000 in advance, for example.

記憶部1000は、具体的には、音声データに基づく特徴量の変化パターンの入力に応じて、当該変化パターンに対応する犯罪行為の発生状況の解を出力する第1モデルを記憶していてもよい。第1モデルは、例えば、取得部1001によって取得される。第1モデルは、例えば、予め記憶部1000に記憶されていてもよい。第1モデルは、例えば、教師データに基づいて学習されていてもよい。 Specifically, the storage unit 1000 may store a first model that outputs a solution to the occurrence situation of a criminal act corresponding to the change pattern in response to an input of a change pattern of feature amounts based on voice data. good. The first model is acquired by the acquisition unit 1001, for example. The first model may be stored in the storage unit 1000 in advance, for example. The first model may be trained based on teacher data, for example.

記憶部1000は、具体的には、生体データに基づく特徴量の変化パターンと、当該変化パターンに対応する犯罪行為の発生状況の解とを対応付けた第2対応情報を記憶する。生体データに基づく特徴量は、例えば、人物の生体的な1以上の特徴値、ある区間における人物の生体的な特徴値の統計値、または、ある区間における人物の生体的な特徴値の変化量などである。変化パターンは、例えば、図8に示した生体パターンに対応する。解は、例えば、犯罪行為の発生有無である。記憶部1000は、より具体的には、図8に示した生体パターン情報管理テーブル800を記憶する。第2対応情報は、例えば、取得部1001によって取得される。第2対応情報は、例えば、予め記憶部1000に記憶されていてもよい。 Specifically, the storage unit 1000 stores second correspondence information that associates a change pattern of a feature amount based on biometric data with a solution of the occurrence situation of a criminal act corresponding to the change pattern. The feature amount based on biometric data is, for example, one or more biometric feature values of a person, a statistical value of the biometric feature value of a person in a certain section, or the amount of change in the biometric feature value of a person in a certain section. etc. The change pattern corresponds to the biological pattern shown in FIG. 8, for example. The solution is, for example, whether a criminal act has occurred. More specifically, the storage unit 1000 stores the biometric pattern information management table 800 shown in FIG. 8. The second correspondence information is acquired by the acquisition unit 1001, for example. The second correspondence information may be stored in the storage unit 1000 in advance, for example.

記憶部1000は、具体的には、生体データに基づく特徴量の変化パターンの入力に応じて、当該変化パターンに対応する犯罪行為の発生状況の解を出力する第2モデルを記憶していてもよい。第2モデルは、例えば、取得部1001によって取得される。第2モデルは、例えば、予め記憶部1000に記憶されていてもよい。第2モデルは、例えば、教師データに基づいて学習されていてもよい。 Specifically, the storage unit 1000 may store a second model that outputs a solution to the occurrence situation of a criminal act corresponding to the change pattern in response to an input of a change pattern of the feature amount based on biometric data. good. The second model is acquired by the acquisition unit 1001, for example. The second model may be stored in the storage unit 1000 in advance, for example. The second model may be trained based on teacher data, for example.

記憶部1000は、具体的には、音声データに基づく特徴量の変化パターンと、生体データに基づく特徴量の変化パターンとの組み合わせと、当該組み合わせに対応する犯罪行為の発生状況の解とを対応付けた第3対応情報を記憶していてもよい。解は、例えば、犯罪行為の発生有無である。第3対応情報は、例えば、取得部1001によって取得される。第3対応情報は、例えば、予め記憶部1000に記憶されていてもよい。 Specifically, the storage unit 1000 associates a combination of a change pattern of feature amounts based on voice data and a change pattern of feature amounts based on biometric data, and a solution of the occurrence situation of a criminal act corresponding to the combination. The attached third correspondence information may be stored. The solution is, for example, whether a criminal act has occurred. The third correspondence information is acquired by the acquisition unit 1001, for example. The third correspondence information may be stored in the storage unit 1000 in advance, for example.

記憶部1000は、具体的には、音声データに基づく特徴量の変化パターンと、生体データに基づく特徴量の変化パターンとの組み合わせの入力に応じて、当該組み合わせに対応する犯罪行為の発生状況の解を出力する第3モデルを記憶していてもよい。第3モデルは、例えば、取得部1001によって取得される。第3モデルは、例えば、予め記憶部1000に記憶されていてもよい。第3モデルは、例えば、教師データに基づいて学習されていてもよい。 Specifically, in response to an input of a combination of a change pattern of feature amounts based on voice data and a change pattern of feature amounts based on biometric data, the storage unit 1000 stores the occurrence status of a criminal act corresponding to the combination. A third model that outputs a solution may be stored. The third model is acquired by the acquisition unit 1001, for example. The third model may be stored in the storage unit 1000 in advance, for example. The third model may be trained based on teacher data, for example.

取得部1001は、各機能部の処理に用いられる各種情報を取得する。取得部1001は、取得した各種情報を、記憶部1000に記憶し、または、各機能部に出力する。また、取得部1001は、記憶部1000に記憶しておいた各種情報を、各機能部に出力してもよい。取得部1001は、例えば、利用者の操作入力に基づき、各種情報を取得する。取得部1001は、例えば、情報処理装置100とは異なる装置から、各種情報を受信してもよい。 The acquisition unit 1001 acquires various information used in processing of each functional unit. The acquisition unit 1001 stores the acquired various information in the storage unit 1000 or outputs it to each functional unit. Further, the acquisition unit 1001 may output various information stored in the storage unit 1000 to each functional unit. The acquisition unit 1001 acquires various information based on, for example, a user's operation input. The acquisition unit 1001 may receive various information from a device different from the information processing device 100, for example.

取得部1001は、例えば、対象の期間における対象の人物の会話を示す音声データを取得する。取得部1001は、具体的には、対象の人物の通話中、マイクを用いて対象の人物の会話を録音し続け、対象の人物の会話開始から会話終了までの対象の期間における対象の人物の会話を示す音声データを生成することにより取得する。 The acquisition unit 1001 acquires, for example, audio data indicating a conversation of a target person during a target period. Specifically, the acquisition unit 1001 continues to record the conversation of the target person using a microphone during the conversation of the target person, and records the conversation of the target person during the target period from the start of the conversation to the end of the conversation. Acquired by generating audio data indicating the conversation.

取得部1001は、具体的には、対象の人物の通話中、マイクを用いて対象の人物の会話を録音し続け、対象の人物の通話中の所定のタイミングごとに、現時点から一定時間前までの対象の期間における対象の人物の会話を示す音声データを生成してもよい。所定のタイミングは、例えば、会話開始から一定時間ごとのタイミングである。 Specifically, the acquisition unit 1001 continues to record the conversation of the target person using a microphone while the target person is talking, and records the conversation from the current time until a certain time ago at each predetermined timing while the target person is talking. Audio data indicating a conversation of the target person during the target period may be generated. The predetermined timing is, for example, at regular intervals from the start of the conversation.

取得部1001は、具体的には、対象の期間における対象の人物の会話を示す音声データを、他のコンピュータから受信することにより取得してもよい。取得部1001は、より具体的には、対象の人物の会話終了時、対象の人物の会話開始から会話終了までの対象の期間における対象の人物の会話を示す音声データを、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、対象の人物の会話中の所定のタイミングごとに、現時点から一定時間前までの対象の期間における対象の人物の会話を示す音声データを、他のコンピュータから受信することにより取得する。所定のタイミングは、例えば、会話開始から一定時間ごとのタイミングである。 Specifically, the acquisition unit 1001 may acquire audio data indicating a conversation of a target person during a target period by receiving from another computer. More specifically, the acquisition unit 1001 receives, from another computer, audio data indicating the conversation of the target person during the target period from the start of the conversation to the end of the conversation at the end of the conversation of the target person. Obtain by doing. More specifically, the acquisition unit 1001 acquires audio data indicating the conversation of the target person during the target period from the current moment to a certain time ago from another computer at each predetermined timing during the conversation of the target person. Obtained by receiving. The predetermined timing is, for example, at regular intervals from the start of the conversation.

取得部1001は、例えば、対象の期間における対象の人物の生体データを取得する。取得部1001は、具体的には、対象の人物の通話中、生体センサを用いて対象の人物の生体的な特徴値を計測し続ける。そして、取得部1001は、具体的には、対象の人物の会話開始から会話終了までの対象の期間に計測した対象の人物の生体的な特徴値に基づいて、対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを生成することにより取得する。 The acquisition unit 1001 acquires, for example, biometric data of a target person during a target period. Specifically, the acquisition unit 1001 continues to measure the biological characteristic value of the target person using a biosensor while the target person is talking. Specifically, the acquisition unit 1001 acquires the target person's biological characteristics during the target period based on the biological characteristic values of the target person measured during the target period from the start of the conversation to the end of the conversation. Acquired by generating biometric data that shows changes in biometric feature values over time.

取得部1001は、具体的には、対象の人物の通話中、生体センサを用いて対象の人物の生体的な特徴値を計測し続ける。そして、取得部1001は、具体的には、対象の人物の通話中の所定のタイミングごとに、対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを生成することにより取得してもよい。所定のタイミングは、例えば、会話開始から一定時間ごとのタイミングである。取得部1001は、より具体的には、所定のタイミングごとに、現時点から一定時間前までの対象の期間に計測した対象の人物の生体的な特徴値に基づいて、対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを生成する。 Specifically, the acquisition unit 1001 continues to measure the biological characteristic value of the target person using a biosensor while the target person is talking. Specifically, the acquisition unit 1001 generates biometric data indicating a temporal change in the biological characteristic value of the target person during the target period at each predetermined timing during the target person's call. You may obtain it. The predetermined timing is, for example, at regular intervals from the start of the conversation. More specifically, the acquisition unit 1001 acquires the target person during the target period based on the biological characteristic values of the target person measured during the target period from the current time to a certain time ago at each predetermined timing. Generate biometric data that shows changes in biometric feature values over time.

取得部1001は、具体的には、対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを、他のコンピュータから受信することにより取得してもよい。取得部1001は、より具体的には、対象の人物の会話終了時、対象の人物の会話開始から会話終了までの対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、対象の人物の会話中の所定のタイミングごとに、現時点から一定時間前までの対象の期間における対象の人物の生体的な特徴値の時間変化を示す生体データを、他のコンピュータから受信することにより取得する。所定のタイミングは、例えば、会話開始から一定時間ごとのタイミングである。 Specifically, the acquisition unit 1001 may acquire biometric data indicating a temporal change in a biometric characteristic value of a target person during a target period from another computer. More specifically, the acquisition unit 1001 acquires biometric data indicating temporal changes in biological characteristic values of the target person during a target period from the start of the conversation to the end of the conversation at the end of the conversation with the target person. is obtained by receiving it from another computer. More specifically, the acquisition unit 1001 acquires biological information indicating temporal changes in the biological characteristic values of the target person during the target period from the current moment to a certain time ago at each predetermined timing during the conversation of the target person. Obtain data by receiving it from another computer. The predetermined timing is, for example, at regular intervals from the start of the conversation.

取得部1001は、例えば、犯罪行為の発生状況を評価可能にする情報を取得する。取得部1001は、具体的には、音声データに基づく特徴量の変化パターンと、当該変化パターンに対応する犯罪行為の発生状況の解とを対応付けた第1対応情報を取得する。取得部1001は、より具体的には、第1対応情報を、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第1対応情報の入力を受け付けることにより、第1対応情報を取得してもよい。 The acquisition unit 1001 acquires, for example, information that makes it possible to evaluate the occurrence of a criminal act. Specifically, the acquisition unit 1001 acquires first correspondence information that associates a change pattern of the feature amount based on the audio data with a solution of the occurrence situation of a criminal act corresponding to the change pattern. More specifically, the acquisition unit 1001 acquires the first correspondence information by receiving it from another computer. More specifically, the acquisition unit 1001 may acquire the first correspondence information by accepting an input of the first correspondence information based on the user's operation input.

取得部1001は、具体的には、音声データに基づく特徴量の変化パターンの入力に応じて、当該変化パターンに対応する犯罪行為の発生状況の解を出力する第1モデルを取得してもよい。取得部1001は、より具体的には、第1モデルを、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第1モデルの入力を受け付けることにより、第1モデルを取得してもよい。取得部1001は、より具体的には、音声データに基づく特徴量の変化パターンのサンプルと、当該変化パターンに対応する犯罪行為の発生状況の正解とを対応付けた教師データに基づいて、第1モデルを学習することにより取得してもよい。 Specifically, the acquisition unit 1001 may acquire, in response to an input of a change pattern of feature amounts based on audio data, a first model that outputs a solution to the occurrence situation of a criminal act corresponding to the change pattern. . More specifically, the acquisition unit 1001 acquires the first model by receiving it from another computer. More specifically, the acquisition unit 1001 may acquire the first model by accepting input of the first model based on the user's operation input. More specifically, the acquisition unit 1001 acquires the first data based on teacher data that associates a sample of a change pattern of feature amounts based on voice data with a correct answer of the occurrence situation of a criminal act corresponding to the change pattern. It may also be acquired by learning a model.

取得部1001は、具体的には、生体データに基づく特徴量の変化パターンと、当該変化パターンに対応する犯罪行為の発生状況の解とを対応付けた第2対応情報を取得する。取得部1001は、より具体的には、第2対応情報を、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第2対応情報の入力を受け付けることにより、第2対応情報を取得してもよい。 Specifically, the acquisition unit 1001 acquires second correspondence information that associates a change pattern of the feature amount based on biometric data with a solution of the occurrence situation of a criminal act corresponding to the change pattern. More specifically, the acquisition unit 1001 acquires the second correspondence information by receiving it from another computer. More specifically, the acquisition unit 1001 may acquire the second correspondence information by accepting an input of the second correspondence information based on the user's operation input.

取得部1001は、具体的には、生体データに基づく特徴量の変化パターンの入力に応じて、当該変化パターンに対応する犯罪行為の発生状況の解を出力する第2モデルを取得してもよい。取得部1001は、より具体的には、第2モデルを、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第2モデルの入力を受け付けることにより、第2モデルを取得してもよい。取得部1001は、より具体的には、生体データに基づく特徴量の変化パターンのサンプルと、当該変化パターンに対応する犯罪行為の発生状況の正解とを対応付けた教師データに基づいて、第2モデルを学習することにより取得してもよい。 Specifically, the acquisition unit 1001 may acquire, in response to an input of a change pattern of feature amounts based on biometric data, a second model that outputs a solution to the occurrence situation of a criminal act corresponding to the change pattern. . More specifically, the acquisition unit 1001 acquires the second model by receiving it from another computer. More specifically, the acquisition unit 1001 may acquire the second model by accepting input of the second model based on the user's operation input. More specifically, the acquisition unit 1001 acquires second data based on teacher data that associates samples of change patterns of feature amounts based on biometric data with correct answers to the occurrence status of criminal acts corresponding to the change patterns. It may also be acquired by learning a model.

取得部1001は、具体的には、音声データに基づく特徴量の変化パターンと、生体データに基づく特徴量の変化パターンとの組み合わせと、当該組み合わせに対応する犯罪行為の発生状況の解とを対応付けた第3対応情報を取得する。取得部1001は、より具体的には、第3対応情報を、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第3対応情報の入力を受け付けることにより、第3対応情報を取得してもよい。 Specifically, the acquisition unit 1001 associates a combination of a change pattern of feature amounts based on voice data and a change pattern of feature amounts based on biometric data with a solution of the occurrence situation of a criminal act corresponding to the combination. The attached third correspondence information is acquired. More specifically, the acquisition unit 1001 acquires the third correspondence information by receiving it from another computer. More specifically, the acquisition unit 1001 may acquire the third correspondence information by accepting input of the third correspondence information based on the user's operation input.

取得部1001は、具体的には、音声データに基づく特徴量の変化パターンと、生体データに基づく特徴量の変化パターンとの組み合わせの入力に応じて、当該組み合わせに対応する犯罪行為の発生状況の解を出力する第3モデルを取得してもよい。取得部1001は、より具体的には、第3モデルを、他のコンピュータから受信することにより取得する。取得部1001は、より具体的には、ユーザの操作入力に基づき、第3モデルの入力を受け付けることにより、第3モデルを取得してもよい。取得部1001は、より具体的には、教師データに基づいて、第3モデルを学習することにより取得してもよい。教師データは、例えば、音声データに基づく特徴量の変化パターンと、生体データに基づく特徴量の変化パターンとの組み合わせのサンプルと、当該組み合わせに対応する犯罪行為の発生状況の正解とを対応付けたデータである。 Specifically, in response to input of a combination of a change pattern of feature amounts based on voice data and a change pattern of feature amounts based on biometric data, the acquisition unit 1001 obtains the occurrence status of a criminal act corresponding to the combination. A third model may be obtained that outputs a solution. More specifically, the acquisition unit 1001 acquires the third model by receiving it from another computer. More specifically, the acquisition unit 1001 may acquire the third model by accepting input of the third model based on the user's operation input. More specifically, the acquisition unit 1001 may acquire the third model by learning the third model based on the teacher data. The training data is, for example, a sample of a combination of a change pattern of feature values based on voice data and a change pattern of feature values based on biometric data, and a correct answer of the occurrence situation of a criminal act corresponding to the combination. It is data.

取得部1001は、いずれかの機能部の処理を開始する開始トリガーを受け付けてもよい。開始トリガーは、例えば、利用者による所定の操作入力があったことである。開始トリガーは、例えば、他のコンピュータから、所定の情報を受信したことであってもよい。開始トリガーは、例えば、いずれかの機能部が所定の情報を出力したことであってもよい。 The acquisition unit 1001 may receive a start trigger that starts processing of any functional unit. The start trigger is, for example, a predetermined operation input by the user. The start trigger may be, for example, receiving predetermined information from another computer. The start trigger may be, for example, that any functional unit outputs predetermined information.

取得部1001は、例えば、対象の人物の会話終了を検出したことを、分類部1002と加工部1003と算出部1004と判定部1005との処理を開始する開始トリガーとして受け付けてもよい。取得部1001は、例えば、所定のタイミングになったことを、分類部1002と加工部1003と算出部1004と判定部1005との処理を開始する開始トリガーとして受け付けてもよい。取得部1001は、音声データと生体データとを取得したことを、分類部1002と加工部1003と算出部1004と判定部1005との処理を開始する開始トリガーとして受け付けてもよい。 For example, the acquisition unit 1001 may receive detection of the end of the conversation of the target person as a start trigger for starting the processing of the classification unit 1002, the processing unit 1003, the calculation unit 1004, and the determination unit 1005. For example, the acquisition unit 1001 may receive the arrival of a predetermined timing as a start trigger for starting the processing of the classification unit 1002, the processing unit 1003, the calculation unit 1004, and the determination unit 1005. The acquisition unit 1001 may receive the acquisition of audio data and biometric data as a start trigger for starting the processing of the classification unit 1002, the processing unit 1003, the calculation unit 1004, and the determination unit 1005.

分類部1002は、取得した音声データに基づいて、対象の期間を、複数の区間に分類する。複数の区間は、例えば、発話区間と聴取区間とである。複数の区間は、例えば、沈黙区間と相槌区間とであってもよい。複数の区間は、発話区間と聴取区間と沈黙区間と相槌区間とであってもよい。沈黙区間と相槌区間とは、聴取区間に包含されていてもよい。対象の期間は、例えば、分類されない時間帯を含んでいてもよい。分類部1002は、対象の期間に含まれるいずれかの時間帯を、発話区間、聴取区間、沈黙区間、および、相槌区間のいずれにも分類しない場合があってもよい。 The classification unit 1002 classifies the target period into a plurality of sections based on the acquired audio data. The plurality of sections are, for example, a speaking section and a listening section. The plurality of sections may be, for example, a silence section and a mutual agreement section. The plurality of sections may be a speaking section, a listening section, a silence section, and a chiding section. The silent section and the interlude section may be included in the listening section. The target period may include, for example, an unclassified time period. The classification unit 1002 may not classify any time period included in the target period as a speaking period, a listening period, a silent period, or a comment period.

分類部1002は、例えば、取得した音声データに基づいて、対象の期間を、発話区間と聴取区間とに分類する。分類部1002は、例えば、取得した音声データに基づいて、対象の期間を、沈黙区間と相槌区間とに分類してもよい。分類部1002は、例えば、取得した音声データに基づいて、対象の期間を、沈黙区間と相槌区間とに分類すると共に、発話区間と聴取区間とに分類してもよい。 The classification unit 1002 classifies the target period into a speaking period and a listening period, for example, based on the acquired audio data. For example, the classification unit 1002 may classify the target period into a silent period and a silent period based on the acquired audio data. The classification unit 1002 may, for example, classify the target period into a silent period and a silent period, as well as a speaking period and a listening period, based on the acquired audio data.

分類部1002は、具体的には、音声データを解析することにより、対象の期間における複数の発話者を特定する。分類部1002は、具体的には、特定した複数の発話者のそれぞれの発話者について、当該発話者が発話した区間、当該区間における当該発話者の音声、および、当該区間における当該発話者の発話内容などを特定する。発話者は、例えば、対象の人物、または、他の人物である。発話者の音声は、例えば、発話者のトーン、声量、または、波長などを示す。 Specifically, the classification unit 1002 specifies a plurality of speakers in the target period by analyzing the audio data. Specifically, for each speaker of the plurality of speakers identified, the classification unit 1002 classifies the section in which the speaker speaks, the voice of the speaker in the section, and the utterance of the speaker in the section. Specify the content etc. The speaker is, for example, the target person or another person. The speaker's voice indicates, for example, the speaker's tone, voice volume, or wavelength.

分類部1002は、具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が相槌以外に相当する発話内容を発話した区間を、発話区間に分類する。分類部1002は、より具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が発話した区間のうち、対象の人物の音声または発話内容が、「発話」に対応する音声パターンに合致する区間を、発話区間に分類する。これにより、分類部1002は、対象の人物に対する犯罪行為の発生状況を評価する指針を得ることができる。分類部1002は、例えば、対象の人物に対する犯罪行為の発生状況を評価するために、音声データまたは生体データをどのように処理するのかを決定する指針を得ることができる。 Specifically, the classification unit 1002 classifies sections in which the target person has uttered utterance contents other than ``Aitsu'' into utterance sections based on the identified speaker, section, voice, and utterance content. . More specifically, based on the identified speaker, section, voice, and utterance content, the classification unit 1002 determines whether the target person's voice or utterance content is " A section that matches the voice pattern corresponding to "utterance" is classified as a speech section. Thereby, the classification unit 1002 can obtain guidelines for evaluating the occurrence of criminal acts against the target person. For example, the classification unit 1002 can obtain guidelines for determining how to process audio data or biometric data in order to evaluate the occurrence of a criminal act against a target person.

分類部1002は、具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が相槌に相当する発話内容を発話した区間を、相槌区間に分類する。分類部1002は、具体的には、他の人物が発話中であり対象の人物が相槌に相当する発話内容を発話した区間を、相槌区間に分類してもよい。分類部1002は、より具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が発話した区間のうち、対象の人物の音声または発話内容が、「相槌」に対応する音声パターンに合致する区間を、相槌区間に分類する。これにより、分類部1002は、対象の人物に対する犯罪行為の発生状況を評価する指針を得ることができる。分類部1002は、例えば、対象の人物に対する犯罪行為の発生状況を評価するために、音声データまたは生体データをどのように処理するのかを決定する指針を得ることができる。 Specifically, the classification unit 1002 classifies the section in which the target person uttered the utterance content corresponding to the ``agisho'' into the ``agisho'' section based on the identified speaker, the section, the voice, the utterance content, and the like. Specifically, the classification unit 1002 may classify a section in which another person is speaking and the target person has uttered utterance content corresponding to an agreement into an agreement section. More specifically, based on the identified speaker, section, voice, and utterance content, the classification unit 1002 determines whether the target person's voice or utterance content is " The section that matches the voice pattern corresponding to "Aitsuchi" is classified as an Aitsuchi section. Thereby, the classification unit 1002 can obtain guidelines for evaluating the occurrence of criminal acts against the target person. For example, the classification unit 1002 can obtain guidelines for determining how to process audio data or biometric data in order to evaluate the occurrence of a criminal act against a target person.

分類部1002は、具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が発話せず沈黙した区間を、沈黙区間に分類する。分類部1002は、具体的には、他の人物が発話中であり対象の人物が発話せず沈黙した区間を、沈黙区間に分類してもよい。分類部1002は、より具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が発話した区間のうち、対象の人物の音声または発話内容が、「沈黙」に対応する音声パターンに合致する区間を、沈黙区間に分類する。これにより、分類部1002は、対象の人物に対する犯罪行為の発生状況を評価する指針を得ることができる。分類部1002は、例えば、対象の人物に対する犯罪行為の発生状況を評価するために、音声データまたは生体データをどのように処理するのかを決定する指針を得ることができる。 Specifically, the classification unit 1002 classifies an interval in which the target person is silent without speaking, as a silent interval, based on the identified speaker, interval, voice, utterance content, and the like. Specifically, the classification unit 1002 may classify a period in which another person is speaking and the target person is silent without speaking as a silent period. More specifically, based on the identified speaker, section, voice, and utterance content, the classification unit 1002 determines whether the target person's voice or utterance content is " A section that matches the voice pattern corresponding to "silence" is classified as a silence section. Thereby, the classification unit 1002 can obtain guidelines for evaluating the occurrence of criminal acts against the target person. For example, the classification unit 1002 can obtain guidelines for determining how to process audio data or biometric data in order to evaluate the occurrence of a criminal act against a target person.

分類部1002は、具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が他の人物の発話を聴取した区間を、聴取区間に分類する。分類部1002は、より具体的には、相槌区間と、沈黙区間とを、聴取区間に分類する。分類部1002は、より具体的には、特定した発話者、区間、音声、および、発話内容などに基づいて、対象の人物が発話した区間のうち、対象の人物の音声または発話内容が、「聴取」に対応する音声パターンに合致する区間を、聴取区間に分類してもよい。これにより、分類部1002は、対象の人物に対する犯罪行為の発生状況を評価する指針を得ることができる。分類部1002は、例えば、対象の人物に対する犯罪行為の発生状況を評価するために、音声データまたは生体データをどのように処理するのかを決定する指針を得ることができる。 Specifically, the classification unit 1002 classifies sections in which the target person listens to another person's speech into listening sections based on the identified speaker, section, voice, utterance content, and the like. More specifically, the classification unit 1002 classifies the interlude section and the silence section into listening sections. More specifically, based on the identified speaker, section, voice, and utterance content, the classification unit 1002 determines whether the target person's voice or utterance content is " A section that matches the audio pattern corresponding to "listening" may be classified as a listening section. Thereby, the classification unit 1002 can obtain guidelines for evaluating the occurrence of criminal acts against the target person. For example, the classification unit 1002 can obtain guidelines for determining how to process audio data or biometric data in order to evaluate the occurrence of a criminal act against a target person.

分類部1002は、例えば、取得した音声データに基づいて、対象の期間のうち、1以上の音声パターンのそれぞれの音声パターンに合致する区間を特定する。分類部1002は、具体的には、上述したように、「発話」に対応する音声パターンに合致する聴取区間を特定する。分類部1002は、具体的には、上述したように、「沈黙」に対応する音声パターンに合致する聴取区間を特定する。分類部1002は、具体的には、上述したように、「相槌」に対応する音声パターンに合致する聴取区間を特定する。分類部1002は、具体的には、上述したように、「聴取」に対応する音声パターンに合致する聴取区間を特定する。これにより、分類部1002は、対象の人物に対する犯罪行為の発生状況を評価する指針を得ることができる。分類部1002は、例えば、対象の人物に対する犯罪行為の発生状況を評価するために、生体データをどのように処理するのかを決定する指針を得ることができる。 For example, based on the acquired audio data, the classification unit 1002 identifies a section of the target period that matches each of the one or more audio patterns. Specifically, as described above, the classification unit 1002 identifies a listening section that matches the audio pattern corresponding to "utterance". Specifically, as described above, the classification unit 1002 identifies a listening section that matches the audio pattern corresponding to "silence". Specifically, as described above, the classification unit 1002 identifies the listening section that matches the voice pattern corresponding to "Aitsuchi". Specifically, as described above, the classification unit 1002 identifies a listening section that matches the audio pattern corresponding to "listening". Thereby, the classification unit 1002 can obtain guidelines for evaluating the occurrence of criminal acts against the target person. For example, the classification unit 1002 can obtain guidelines for determining how to process biometric data in order to evaluate the occurrence of a criminal act against a target person.

加工部1003は、それぞれの音声パターンに合致する区間について、当該区間における対象の人物の生体データに対して、当該音声パターンに対応するノイズ除去処理を実施する。区間における対象の人物の生体データは、具体的には、対象の期間における対象の人物の生体データの一部である。 The processing unit 1003 performs noise removal processing corresponding to the voice pattern on the biometric data of the target person in the zone corresponding to each voice pattern. Specifically, the biometric data of the target person in the section is a part of the biometric data of the target person in the target period.

加工部1003は、例えば、記憶部1000を参照して、それぞれの音声パターンに合致する区間について、当該区間における対象の人物の生体データに対して、当該音声パターンに対応付けられたフィルタを用いて、ノイズ除去処理を実施する。これにより、加工部1003は、対象の人物に対する犯罪行為の発生状況の評価精度の向上を図るために、生体データを加工することができる。 For example, the processing unit 1003 refers to the storage unit 1000 and applies a filter associated with the voice pattern to the biometric data of the target person in the interval for each interval that matches the voice pattern. , performs noise removal processing. Thereby, the processing unit 1003 can process the biometric data in order to improve the accuracy of evaluating the occurrence of criminal acts against the target person.

算出部1004は、生体データに基づく対象の人物に関する第1の特徴量を算出することにより生成する。算出部1004は、例えば、取得した対象の期間における生体データのうち、分類した聴取区間に関する部分生体データに基づいて、対象の人物に関する第1の特徴量を生成する。部分生体データは、例えば、加工部1003でノイズ除去処理を実施後であってもよい。部分生体データは、例えば、加工部1003でノイズ除去処理を未実施であってもよい。 The calculation unit 1004 generates by calculating the first feature amount regarding the target person based on the biometric data. The calculation unit 1004 generates a first feature amount regarding the target person, for example, based on partial biometric data related to the classified listening section among the acquired biometric data in the target period. The partial biometric data may be subjected to noise removal processing by the processing unit 1003, for example. For example, the partial biometric data may not undergo noise removal processing in the processing unit 1003.

算出部1004は、具体的には、分類した聴取区間ごとに、取得した対象の期間における生体データのうち、当該聴取区間に関する部分生体データに基づいて、対象の人物に関する第1の特徴量を生成する。第1の特徴量は、例えば、対象の人物の生体的な1以上の特徴値、聴取区間における対象の人物の生体的な特徴値の統計値、または、聴取区間における対象の人物の生体的な特徴値の変化量などである。第1の特徴量は、具体的には、聴取区間における対象の人物の心拍または脈拍に関する特徴値の統計値、または、聴取区間における対象の人物の心拍または脈拍に関する特徴値の変化量などである。これにより、算出部1004は、判定部1005で、対象の人物に対する犯罪行為の発生状況を評価可能にすることができる。 Specifically, for each classified listening section, the calculation unit 1004 generates a first feature amount regarding the target person based on partial biometric data related to the listening section out of the acquired biometric data in the target period. do. The first feature amount may be, for example, one or more biological characteristic values of the target person, statistical values of the biological characteristic values of the target person in the listening interval, or biological characteristic values of the target person in the listening interval. This includes the amount of change in feature values. Specifically, the first feature amount is a statistical value of a feature value related to the heartbeat or pulse of the target person in the listening interval, or a change amount of a feature value related to the heartbeat or pulse of the target person in the listening interval, etc. . Thereby, the calculation unit 1004 can enable the determination unit 1005 to evaluate the occurrence of a criminal act against the target person.

算出部1004は、例えば、生体データのうち、発話区間に関する部分生体データのように、体動ノイズなどのノイズ重畳が比較的大きくなり易く、犯罪行為の発生状況の評価に活用し難い部分音声データを除いて、第1の特徴量を算出することができる。算出部1004は、例えば、生体データのうち、相槌区間および沈黙区間に関する部分生体データのように、体動ノイズなどのノイズ重畳が比較的小さくなり易く、犯罪行為の発生状況の評価に活用し易い部分生体データを選択的に利用することができる。算出部1004は、生体データのうち、犯罪行為の発生状況の評価に活用し易い部分生体データを選択的に利用して、第1の特徴量を算出することができる。このため、算出部1004は、判定部1005で、対象の人物に対する犯罪行為の発生状況を、精度よく評価可能にすることができる。 The calculation unit 1004 calculates, for example, partial audio data that is difficult to utilize for evaluating the occurrence of criminal acts because noise such as body movement noise tends to be relatively large, such as partial biological data related to utterance sections among the biological data. The first feature quantity can be calculated except for . The calculation unit 1004 calculates, for example, partial biometric data related to a mutual agreement section and a silent section, in which noise such as body movement noise tends to be relatively small, and is easy to use for evaluating the occurrence of criminal acts. Partial biometric data can be used selectively. The calculation unit 1004 can calculate the first feature amount by selectively using partial biometric data that is easy to use for evaluating the occurrence of criminal acts among the biometric data. Therefore, the calculation unit 1004 allows the determination unit 1005 to accurately evaluate the occurrence of criminal acts against the target person.

算出部1004は、音声データに基づく対象の人物に関する第2の特徴量を算出することにより生成する。算出部1004は、例えば、取得した対象の期間における音声データのうち、分類した発話区間に関する部分音声データに基づいて、対象の人物に関する第2の特徴量を生成する。 The calculation unit 1004 generates by calculating a second feature amount regarding the target person based on the audio data. The calculation unit 1004 generates a second feature amount regarding the target person, for example, based on partial voice data related to the classified utterance section among the acquired voice data in the target period.

算出部1004は、具体的には、分類した発話区間ごとに、取得した対象の期間における音声データのうち、当該発話区間に関する部分音声データに基づいて、対象の人物に関する第2の特徴量を生成する。第2の特徴量は、例えば、対象の人物の感情の1以上の特徴値、発話区間における対象の人物の感情の特徴値の統計値、または、発話区間における対象の人物の感情の特徴値の変化量などである。第2の特徴量は、具体的には、発話区間における対象の人物のストレス度合いの統計値、または、変化量などであってもよい。これにより、算出部1004は、判定部1005で、対象の人物に対する犯罪行為の発生状況を評価可能にすることができる。 Specifically, the calculation unit 1004 generates a second feature amount regarding the target person for each classified utterance interval based on partial audio data regarding the utterance interval out of the acquired voice data in the target period. do. The second feature value is, for example, one or more feature values of the target person's emotion, a statistical value of the target person's emotion characteristic value in the utterance interval, or a characteristic value of the target person's emotion characteristic value in the utterance interval. This includes the amount of change. Specifically, the second feature amount may be a statistical value or a change amount of the stress level of the target person in the utterance period. Thereby, the calculation unit 1004 can enable the determination unit 1005 to evaluate the occurrence of a criminal act against the target person.

算出部1004は、例えば、音声データのうち、相槌区間に関する部分音声データのように、対象の人物が発話しているものの、音声の特徴を読み取り難く、犯罪行為の発生状況の評価に活用し難い部分音声データを除いて、第2の特徴量を算出することができる。算出部1004は、例えば、音声データのうち、発話区間に関する部分音声データのように、音声の特徴を読み取り易く、犯罪行為の発生状況の評価に活用し易い部分音声データを選択的に利用して、第2の特徴量を算出することができる。このため、算出部1004は、判定部1005で、対象の人物に対する犯罪行為の発生状況を、精度よく評価可能にすることができる。 The calculation unit 1004 calculates, for example, partial audio data related to the intermittent section of the audio data, which is uttered by a target person, but the characteristics of the audio are difficult to read, and it is difficult to utilize for evaluating the occurrence of criminal acts. The second feature amount can be calculated by excluding the partial audio data. For example, the calculation unit 1004 selectively uses partial audio data that is easy to read the characteristics of the audio and is easy to use for evaluating the occurrence situation of criminal acts, such as partial audio data related to utterance sections among the audio data. , the second feature quantity can be calculated. Therefore, the calculation unit 1004 allows the determination unit 1005 to accurately evaluate the occurrence of criminal acts against the target person.

判定部1005は、対象の人物に対する犯罪行為の発生状況を評価する。当該犯罪行為は、例えば、電話を介して、対象の人物と会話する他の人物により実施され得る犯罪行為である。犯罪行為は、具体的には、詐欺行為である。詐欺行為は、例えば、オレオレ詐欺、還付金詐欺、または、劇場型詐欺などである。 The determination unit 1005 evaluates the occurrence of criminal acts against the target person. The criminal act is a criminal act that may be carried out by another person who converses with the person in question, for example via telephone. Specifically, a criminal act is an act of fraud. The fraudulent acts include, for example, ``I'm me'' fraud, refund fraud, and theatrical fraud.

判定部1005は、例えば、生成した第1の特徴量に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。判定部1005は、具体的には、生成した第1の特徴量の変化パターンに基づいて、対象の人物に対する犯罪行為の発生状況を評価する。 The determination unit 1005 evaluates the occurrence of a criminal act against the target person, for example, based on the generated first feature amount. Specifically, the determination unit 1005 evaluates the occurrence of a criminal act against the target person based on the generated change pattern of the first feature amount.

判定部1005は、より具体的には、生成した第1の特徴量の変化量を算出する。変化量は、例えば、異なる2つの聴取区間のそれぞれの聴取区間について生成した第1の特徴量の差分である。変化量は、具体的には、対象の期間における、最初の聴取区間について生成した第1の特徴量と、最後の聴取区間について生成した第1の特徴量との差分である。判定部1005は、より具体的には、生成した第1の特徴量の変化量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。閾値は、例えば、予め利用者によって設定される。判定部1005は、より具体的には、生成した第1の特徴量の変化量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。 More specifically, the determination unit 1005 calculates the amount of change in the generated first feature amount. The amount of change is, for example, the difference between the first feature amounts generated for each of two different listening sections. Specifically, the amount of change is the difference between the first feature amount generated for the first listening section and the first feature amount generated for the last listening section in the target period. More specifically, the determination unit 1005 evaluates that a criminal act against the target person has occurred when the amount of change in the generated first feature amount is equal to or greater than the threshold value. For example, the threshold value is set in advance by the user. More specifically, when the amount of change in the generated first feature amount is less than the threshold value, the determination unit 1005 evaluates that no criminal act has occurred against the target person.

判定部1005は、より具体的には、上述した第2対応情報と、生成した第1の特徴量の変化パターンとを照合することにより、対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、生成した第1の特徴量の変化パターンが、犯罪行為の発生ありを解とする第2対応情報に設定された特定の変化パターンに合致する場合、対象の人物に対する犯罪行為が発生したと評価する。 More specifically, the determination unit 1005 evaluates the occurrence of a criminal act against the target person by comparing the above-mentioned second correspondence information with the generated change pattern of the first feature amount. good. More specifically, the determination unit 1005 determines whether the target It is assessed that a criminal act against a person has occurred.

判定部1005は、より具体的には、生成した第1の特徴量の変化パターンが、犯罪行為の発生ありを解とする第2対応情報に設定された特定の変化パターンに合致しない場合、対象の人物に対する犯罪行為が発生していないと評価する。判定部1005は、より具体的には、生成した第1の特徴量の変化パターンが、犯罪行為の発生なしを解とする第2対応情報に設定された特定の変化パターンに合致する場合、対象の人物に対する犯罪行為が発生していないと評価してもよい。 More specifically, the determination unit 1005 determines that if the generated change pattern of the first feature value does not match a specific change pattern set in the second correspondence information that takes the occurrence of a criminal act as a solution, the determination unit 1005 determines whether the target It is assessed that no criminal acts have occurred against these persons. More specifically, the determination unit 1005 determines whether the target It may be assessed that no criminal act has occurred against the person.

判定部1005は、より具体的には、生成した第1の特徴量の変化パターンを、上述した第2モデルに入力することにより、第2モデルを用いて対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、第2モデルが入力に応じて出力した犯罪行為の発生状況の解に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。 More specifically, the determination unit 1005 inputs the generated change pattern of the first feature amount into the second model described above, and uses the second model to determine the occurrence situation of the criminal act against the target person. May be evaluated. More specifically, the determination unit 1005 evaluates the occurrence situation of the criminal act against the target person based on the solution of the occurrence situation of the criminal act outputted by the second model in response to the input.

判定部1005は、具体的には、生成した第1の特徴量が生体的な特徴値の変化量であれば、第1の特徴量を閾値と比較してもよい。閾値は、例えば、予め利用者によって設定される。判定部1005は、具体的には、生成した第1の特徴量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。判定部1005は、具体的には、生成した第1の特徴量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。 Specifically, the determination unit 1005 may compare the first feature amount with a threshold value if the generated first feature amount is a change amount of a biological feature value. For example, the threshold value is set in advance by the user. Specifically, the determination unit 1005 evaluates that a criminal act against the target person has occurred when the generated first feature amount is equal to or greater than the threshold value. Specifically, when the generated first feature amount is less than the threshold value, the determination unit 1005 evaluates that no criminal act has occurred against the target person.

これにより、判定部1005は、犯罪行為の発生状況を精度よく評価することができる。判定部1005は、例えば、犯罪行為が発生したか否かを精度よく評価することができる。判定部1005は、具体的には、生体データのうち、ノイズ重畳が比較的小さくなり易い部分生体データに基づく第1の特徴量を利用するため、対象の人物に対する犯罪行為の発生状況を、精度よく評価することができる。 Thereby, the determination unit 1005 can accurately evaluate the occurrence of a criminal act. The determination unit 1005 can, for example, accurately evaluate whether a criminal act has occurred. Specifically, since the determination unit 1005 uses the first feature amount based on partial biometric data in which noise superposition tends to be relatively small among the biometric data, the determination unit 1005 accurately determines the occurrence status of the criminal act against the target person. can be evaluated well.

判定部1005は、例えば、生成した第2の特徴量に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。判定部1005は、具体的には、生成した第2の特徴量の変化パターンに基づいて、対象の人物に対する犯罪行為の発生状況を評価する。 The determination unit 1005 evaluates the occurrence of a criminal act against the target person, for example, based on the generated second feature amount. Specifically, the determination unit 1005 evaluates the occurrence of a criminal act against the target person based on the change pattern of the generated second feature amount.

判定部1005は、より具体的には、生成した第2の特徴量の変化量を算出する。変化量は、例えば、異なる2つの発話区間のそれぞれの発話区間について生成した第2の特徴量の差分である。変化量は、具体的には、対象の期間における、最初の発話区間について生成した第2の特徴量と、最後の発話区間について生成した第2の特徴量との差分である。判定部1005は、より具体的には、生成した第2の特徴量の変化量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。閾値は、例えば、予め利用者によって設定される。判定部1005は、より具体的には、生成した第2の特徴量の変化量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。 More specifically, the determination unit 1005 calculates the amount of change in the generated second feature amount. The amount of change is, for example, the difference between the second feature amounts generated for each of two different speech sections. Specifically, the amount of change is the difference between the second feature amount generated for the first utterance section and the second feature amount generated for the last utterance section in the target period. More specifically, the determination unit 1005 evaluates that a criminal act against the target person has occurred when the amount of change in the generated second feature amount is equal to or greater than the threshold value. For example, the threshold value is set in advance by the user. More specifically, when the amount of change in the generated second feature amount is less than the threshold value, the determination unit 1005 evaluates that no criminal act has occurred against the target person.

判定部1005は、より具体的には、上述した第1対応情報と、生成した第2の特徴量の変化パターンとを照合することにより、対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、生成した第2の特徴量の変化パターンが、犯罪行為の発生ありを解とする第1対応情報に設定された特定の変化パターンに合致する場合、対象の人物に対する犯罪行為が発生したと評価する。 More specifically, the determination unit 1005 evaluates the occurrence of a criminal act against the target person by comparing the first correspondence information described above with the generated change pattern of the second feature amount. good. More specifically, the determination unit 1005 determines whether the target It is assessed that a criminal act against a person has occurred.

判定部1005は、より具体的には、生成した第2の特徴量の変化パターンが、犯罪行為の発生ありを解とする第1対応情報に設定された特定の変化パターンに合致しない場合、対象の人物に対する犯罪行為が発生していないと評価する。判定部1005は、より具体的には、生成した第2の特徴量の変化パターンが、犯罪行為の発生なしを解とする第1対応情報に設定された特定の変化パターンに合致する場合、対象の人物に対する犯罪行為が発生していないと評価してもよい。 More specifically, the determination unit 1005 determines that if the change pattern of the generated second feature value does not match a specific change pattern set in the first correspondence information that takes the occurrence of a criminal act as a solution, the determination unit 1005 determines whether the target It is assessed that no criminal acts have occurred against these persons. More specifically, the determination unit 1005 determines whether the target It may be assessed that no criminal act has occurred against the person.

判定部1005は、より具体的には、生成した第2の特徴量の変化パターンを、上述した第1モデルに入力することにより、第1モデルを用いて対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、第1モデルが入力に応じて出力した犯罪行為の発生状況の解に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。 More specifically, the determination unit 1005 inputs the generated change pattern of the second feature amount into the first model described above, and uses the first model to determine the occurrence situation of the criminal act against the target person. May be evaluated. More specifically, the determination unit 1005 evaluates the occurrence situation of the criminal act against the target person based on the solution of the occurrence situation of the criminal act outputted by the first model in response to the input.

判定部1005は、具体的には、生成した第2の特徴量が感情の特徴値の変化量であれば、第2の特徴量を閾値と比較してもよい。閾値は、例えば、予め利用者によって設定される。判定部1005は、具体的には、生成した第2の特徴量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。判定部1005は、具体的には、生成した第2の特徴量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。 Specifically, the determination unit 1005 may compare the second feature amount with a threshold value if the generated second feature amount is the amount of change in the emotional feature value. For example, the threshold value is set in advance by the user. Specifically, the determination unit 1005 evaluates that a criminal act against the target person has occurred when the generated second feature amount is equal to or greater than the threshold value. Specifically, when the generated second feature amount is less than the threshold value, the determination unit 1005 evaluates that no criminal act has occurred against the target person.

これにより、判定部1005は、犯罪行為の発生状況を精度よく評価することができる。判定部1005は、例えば、犯罪行為が発生したか否かを精度よく評価することができる。判定部1005は、具体的には、音声データのうち、音声の特徴を読み取り易く、犯罪行為の発生状況の評価に活用し易い部分音声データに基づく第2の特徴量を利用するため、対象の人物に対する犯罪行為の発生状況を、精度よく評価することができる。 Thereby, the determination unit 1005 can accurately evaluate the occurrence of a criminal act. The determination unit 1005 can, for example, accurately evaluate whether a criminal act has occurred. Specifically, the determination unit 1005 uses the second feature amount based on partial audio data, which is easy to read the audio characteristics and is easy to use for evaluating the occurrence situation of criminal acts. It is possible to accurately evaluate the occurrence of criminal acts against a person.

判定部1005は、例えば、生成した第1の特徴量と、生成した第2の特徴量とに基づいて、対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、具体的には、生成した第1の特徴量の変化パターンと、生成した第2の特徴量の変化パターンとに基づいて、対象の人物に対する犯罪行為の発生状況を評価する。 The determination unit 1005 may evaluate the occurrence of a criminal act against the target person, for example, based on the generated first feature amount and the generated second feature amount. Specifically, the determination unit 1005 evaluates the occurrence of a criminal act against the target person based on the generated change pattern of the first feature amount and the generated change pattern of the second feature amount.

判定部1005は、より具体的には、生成した第1の特徴量の変化量を算出する。変化量は、例えば、異なる2つの発話区間のそれぞれの発話区間について生成した第1の特徴量の差分である。変化量は、具体的には、対象の期間における、最初の発話区間について生成した第1の特徴量と、最後の発話区間について生成した第1の特徴量との差分である。 More specifically, the determination unit 1005 calculates the amount of change in the generated first feature amount. The amount of change is, for example, the difference between the first feature amounts generated for each of two different speech sections. Specifically, the amount of change is the difference between the first feature amount generated for the first utterance section and the first feature amount generated for the last utterance section in the target period.

判定部1005は、より具体的には、生成した第2の特徴量の変化量を算出する。変化量は、例えば、異なる2つの発話区間のそれぞれの発話区間について生成した第2の特徴量の差分である。変化量は、具体的には、対象の期間における、最初の発話区間について生成した第2の特徴量と、最後の発話区間について生成した第2の特徴量との差分である。 More specifically, the determination unit 1005 calculates the amount of change in the generated second feature amount. The amount of change is, for example, the difference between the second feature amounts generated for each of two different speech sections. Specifically, the amount of change is the difference between the second feature amount generated for the first utterance section and the second feature amount generated for the last utterance section in the target period.

判定部1005は、より具体的には、生成した第1の特徴量の変化量が閾値以上、かつ、生成した第2の特徴量の変化量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。判定部1005は、より具体的には、生成した第1の特徴量の変化量が閾値未満、または、生成した第2の特徴量の変化量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。 More specifically, if the amount of change in the generated first feature amount is equal to or greater than the threshold value, and the amount of change in the generated second feature amount is equal to or greater than the threshold value, the determination unit 1005 determines that a criminal act has been committed against the target person. Evaluate that this has occurred. More specifically, when the amount of change in the generated first feature amount is less than a threshold value, or the amount of change in the generated second feature amount is less than a threshold value, the determination unit 1005 determines that a criminal act has been committed against the target person. It is evaluated that this has not occurred.

判定部1005は、より具体的には、上述した第3対応情報と、生成した第1の特徴量の変化パターンと、生成した第2の特徴量の変化パターンとの組み合わせを照合することにより、対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、生成した第1の特徴量の変化パターンと、生成した第2の特徴量の変化パターンとの組み合わせが、犯罪行為の発生ありを解とする第3対応情報に設定された特定の変化パターンに合致するか否かを判定する。 More specifically, the determination unit 1005 collates the combination of the third correspondence information described above, the generated change pattern of the first feature amount, and the generated change pattern of the second feature amount. The occurrence of criminal acts against the target person may be evaluated. More specifically, the determination unit 1005 determines that the combination of the generated change pattern of the first feature amount and the generated change pattern of the second feature amount is a third response whose solution is the occurrence of a criminal act. Determine whether the information matches a specific change pattern set in the information.

判定部1005は、より具体的には、組み合わせが、犯罪行為の発生ありを解とする第3対応情報に設定された特定の変化パターンに合致すると判定した場合、対象の人物に対する犯罪行為が発生したと評価する。判定部1005は、より具体的には、組み合わせが、犯罪行為の発生ありを解とする第3対応情報に設定された特定の変化パターンに合致しないと判定した場合、対象の人物に対する犯罪行為が発生していないと評価する。 More specifically, if the determination unit 1005 determines that the combination matches a specific change pattern set in the third correspondence information, where the answer is the occurrence of a criminal act, the determination unit 1005 determines that a criminal act has occurred against the target person. I rate it as having done so. More specifically, if the determination unit 1005 determines that the combination does not match the specific change pattern set in the third correspondence information, where the answer is the occurrence of a criminal act, the determination unit 1005 determines that a criminal act against the target person has occurred. Evaluate that it has not occurred.

判定部1005は、より具体的には、生成した第1の特徴量の変化パターンと、生成した第2の特徴量の変化パターンとの組み合わせが、犯罪行為の発生なしを解とする第3対応情報に設定された特定の変化パターンに合致するか否かを判定する。判定部1005は、より具体的には、組み合わせが、犯罪行為の発生なしを解とする第3対応情報に設定された特定の変化パターンに合致すると判定した場合、対象の人物に対する犯罪行為が発生していないと評価してもよい。 More specifically, the determination unit 1005 determines that the combination of the generated change pattern of the first feature amount and the generated change pattern of the second feature amount is a third response in which the solution is that no criminal act occurs. Determine whether the information matches a specific change pattern set in the information. More specifically, if the determination unit 1005 determines that the combination matches a specific change pattern set in the third correspondence information, where the solution is that no criminal act has occurred, the determination unit 1005 determines that a criminal act has occurred against the target person. You can evaluate it as not having done so.

判定部1005は、より具体的には、生成した第1の特徴量の変化パターンと、生成した第2の特徴量の変化パターンとの組み合わせを、上述した第3モデルに入力することにより、第3モデルを用いて対象の人物に対する犯罪行為の発生状況を評価してもよい。判定部1005は、より具体的には、第3モデルが入力に応じて出力した犯罪行為の発生状況の解に基づいて、対象の人物に対する犯罪行為の発生状況を評価する。 More specifically, the determination unit 1005 inputs the combination of the generated change pattern of the first feature amount and the generated change pattern of the second feature amount into the third model described above. The occurrence of criminal acts against a target person may be evaluated using the three models. More specifically, the determination unit 1005 evaluates the occurrence situation of the criminal act against the target person based on the solution of the occurrence situation of the criminal act outputted by the third model in response to the input.

判定部1005は、具体的には、生成した第1の特徴量を第1閾値と比較し、かつ、生成した第2の特徴量を第2閾値と比較してもよい。第1閾値は、例えば、予め利用者によって設定される。第2閾値は、例えば、予め利用者によって設定される。判定部1005は、具体的には、第1の特徴量が第1閾値以上、かつ、第2の特徴量が第2閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価する。判定部1005は、具体的には、第1の特徴量が閾値未満、または、第2の特徴量が第2閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価する。 Specifically, the determination unit 1005 may compare the generated first feature amount with a first threshold value, and may also compare the generated second feature amount with a second threshold value. The first threshold value is set in advance by the user, for example. The second threshold value is set in advance by the user, for example. Specifically, the determination unit 1005 evaluates that a criminal act against the target person has occurred when the first feature amount is greater than or equal to the first threshold and the second feature amount is greater than or equal to the second threshold. Specifically, when the first feature amount is less than the threshold value or the second feature amount is less than the second threshold value, the determination unit 1005 evaluates that a criminal act against the target person has not occurred.

これにより、判定部1005は、犯罪行為の発生状況を精度よく評価することができる。判定部1005は、例えば、犯罪行為が発生したか否かを精度よく評価することができる。判定部1005は、具体的には、生体データのうち、ノイズ重畳が比較的小さくなり易い部分生体データに基づく第1の特徴量を利用することができる。また、判定部1005は、具体的には、音声データのうち、音声の特徴を読み取り易く、犯罪行為の発生状況の評価に活用し易い部分音声データに基づく第2の特徴量を利用することができる。このため、判定部1005は、対象の人物に対する犯罪行為の発生状況を、精度よく評価することができる。 Thereby, the determination unit 1005 can accurately evaluate the occurrence of a criminal act. The determination unit 1005 can, for example, accurately evaluate whether a criminal act has occurred. Specifically, the determination unit 1005 can use a first feature amount based on partial biometric data in which noise superposition tends to be relatively small among the biometric data. Further, specifically, the determination unit 1005 may use a second feature amount based on partial audio data, which is easy to read the characteristics of the audio data and is easy to use for evaluating the occurrence situation of criminal acts. can. Therefore, the determination unit 1005 can accurately evaluate the occurrence of a criminal act against the target person.

出力部1006は、少なくともいずれかの機能部の処理結果を出力する。出力形式は、例えば、ディスプレイへの表示、プリンタへの印刷出力、ネットワークI/F503による外部装置への送信、または、メモリ502や記録媒体505などの記憶領域への記憶である。これにより、出力部1006は、少なくともいずれかの機能部の処理結果を利用者に通知可能にし、情報処理装置100の利便性の向上を図ることができる。 The output unit 1006 outputs the processing result of at least one of the functional units. The output format is, for example, displaying on a display, printing out to a printer, transmitting to an external device via network I/F 503, or storing in a storage area such as memory 502 or recording medium 505. Thereby, the output unit 1006 can notify the user of the processing results of at least one of the functional units, thereby improving the usability of the information processing apparatus 100.

出力部1006は、例えば、判定部1005で犯罪行為の発生状況を評価した結果を出力する。出力部1006は、具体的には、判定部1005で犯罪行為の発生状況を評価した結果を、対象の人物が参照可能に出力する。出力部1006は、具体的には、判定部1005で犯罪行為の発生状況を評価した結果を、対象の人物の関係者が参照可能に出力してもよい。関係者は、例えば、近親者などである。出力部1006は、具体的には、判定部1005で犯罪行為の発生状況を評価した結果を、警察または銀行などの所定の組織で参照可能に出力してもよい。出力部1006は、より具体的には、判定部1005で犯罪行為の発生状況を評価した結果を、アラート出力装置203に送信する。これにより、出力部1006は、犯罪行為による犯罪被害を防止し易くすることができる。 The output unit 1006 outputs, for example, the result of the evaluation of the occurrence of a criminal act by the determination unit 1005. Specifically, the output unit 1006 outputs the result of the evaluation of the occurrence of the criminal act by the determination unit 1005 so that the target person can refer to it. Specifically, the output unit 1006 may output the result of the evaluation of the occurrence of a criminal act by the determination unit 1005 so that a person related to the target person can refer to the result. The related person is, for example, a close relative. Specifically, the output unit 1006 may output the result of the evaluation of the occurrence of a criminal act by the determination unit 1005 so that it can be referenced by a predetermined organization such as the police or a bank. More specifically, the output unit 1006 transmits to the alert output device 203 the result of the evaluation of the occurrence of a criminal act by the determination unit 1005. Thereby, the output unit 1006 can make it easier to prevent criminal damage caused by criminal acts.

出力部1006は、例えば、判定部1005で犯罪行為が発生したと評価した場合に、犯罪行為が発生したことを示す通知またはアラートを出力してもよい。出力部1006は、具体的には、犯罪行為が発生したことを示す通知またはアラートを、対象の人物が参照可能に出力する。出力部1006は、具体的には、犯罪行為が発生したことを示す通知またはアラートを、対象の人物の関係者が参照可能に出力してもよい。関係者は、例えば、近親者などである。出力部1006は、具体的には、犯罪行為が発生したことを示す通知またはアラートを、警察または銀行などの所定の組織で参照可能に出力してもよい。出力部1006は、より具体的には、犯罪行為が発生したことを示す通知またはアラートを、アラート出力装置203に送信する。これにより、出力部1006は、犯罪行為による犯罪被害を防止し易くすることができる。 For example, when the determination unit 1005 evaluates that a criminal act has occurred, the output unit 1006 may output a notification or an alert indicating that a criminal act has occurred. Specifically, the output unit 1006 outputs a notification or alert indicating that a criminal act has occurred so that the target person can refer to it. Specifically, the output unit 1006 may output a notification or alert indicating that a criminal act has occurred so that a person related to the target person can refer to the notification or alert. The related person is, for example, a close relative. Specifically, the output unit 1006 may output a notification or alert indicating that a criminal act has occurred so that it can be referenced by a predetermined organization such as the police or a bank. More specifically, the output unit 1006 transmits a notification or alert indicating that a criminal act has occurred to the alert output device 203. Thereby, the output unit 1006 can make it easier to prevent criminal damage caused by criminal acts.

ここでは、情報処理装置100が、音声データに基づいて、犯罪行為の発生状況を評価する場合について説明したが、これに限らない。例えば、他のコンピュータが、音声データを解析することにより、対象の人物と他の人物との会話内容を示すテキストデータ、または、対象の人物と他の人物との音声特徴を示す解析データなどを生成する場合があってもよい。この場合、情報処理装置100は、例えば、他のコンピュータから、対象の人物と他の人物との会話内容を示すテキストデータ、または、対象の人物と他の人物との音声特徴を示す解析データなどを受信する。情報処理装置100は、例えば、対象の人物と他の人物との会話内容を示すテキストデータ、または、対象の人物と他の人物との音声特徴を示す解析データなどを、音声データの代わりに利用する。 Here, a case has been described in which the information processing device 100 evaluates the occurrence of a criminal act based on audio data, but the present invention is not limited to this. For example, by analyzing voice data, another computer can generate text data that shows the content of the conversation between the target person and another person, or analysis data that shows the voice characteristics between the target person and the other person. may be generated. In this case, the information processing device 100 receives, for example, text data indicating the content of a conversation between the target person and another person, or analysis data indicating voice characteristics between the target person and another person, etc. from another computer. receive. The information processing device 100 uses, for example, text data indicating the content of a conversation between a target person and another person, or analysis data indicating voice characteristics between the target person and another person, instead of audio data. do.

ここでは、情報処理装置100が、取得部1001と、分類部1002と、加工部1003と、算出部1004と、判定部1005と、出力部1006とを含む場合について説明したが、これに限らない。例えば、情報処理装置100が、いずれかの機能部を含まない場合があってもよい。具体的には、情報処理装置100が、加工部1003を含まない場合があってもよい。 Here, a case has been described in which the information processing device 100 includes the acquisition unit 1001, the classification unit 1002, the processing unit 1003, the calculation unit 1004, the determination unit 1005, and the output unit 1006, but the invention is not limited to this. . For example, the information processing device 100 may not include any of the functional units. Specifically, the information processing apparatus 100 may not include the processing unit 1003.

(情報処理装置100の動作例)
次に、図11~図13を用いて、情報処理装置100の動作例について説明する。
(Example of operation of information processing device 100)
Next, an example of the operation of the information processing device 100 will be described using FIGS. 11 to 13.

図11~図13は、情報処理装置100の動作例を示す説明図である。図11において、情報処理装置100は、被害者になり得る受信者の通話終了時、通話開始から通話終了までの通話期間における受信者と発信者との電話を介した会話音声を示す音声データを取得する。発信者は、詐欺師である場合がある。情報処理装置100は、通話期間における受信者の心拍数の時間変化を示す生体データを取得する。 11 to 13 are explanatory diagrams showing operation examples of the information processing device 100. In FIG. 11, the information processing device 100 generates audio data indicating the conversation voice between the receiver and the caller over the phone during the call period from the start of the call to the end of the call, when the call of the receiver who could be the victim ends. get. The caller may be a scammer. The information processing device 100 acquires biometric data indicating temporal changes in the recipient's heart rate during the call period.

情報処理装置100は、音声データに基づいて、受信者の音声1101と、発信者の音声1102とを抽出する。情報処理装置100は、抽出した受信者の音声1101と、発信者の音声1102とに基づいて、通話期間を、受信者が発信者の発話を聴取した聴取区間と、受信者が相槌以外の発話内容を発話した発話区間とに分類する。 The information processing apparatus 100 extracts the recipient's voice 1101 and the sender's voice 1102 based on the voice data. Based on the extracted recipient's voice 1101 and caller's voice 1102, the information processing device 100 determines the call period, the listening period in which the recipient listened to the caller's utterances, and the utterances other than the recipient's utterances. The content is classified into the utterance section in which the content was uttered.

情報処理装置100は、例えば、フィルタ情報管理テーブル600を参照して、「沈黙」に対応する音声パターン、および、「相槌」に対応する音声パターンなどを取得する。情報処理装置100は、受信者の音声1101と発信者の音声1102とに基づいて、通話期間のうち、発信者が発話中であり、受信者の音声1101に「沈黙」に対応する音声パターンが現れる区間を、沈黙区間および聴取区間に分類する。 The information processing device 100, for example, refers to the filter information management table 600 and obtains a voice pattern corresponding to "silence", a voice pattern corresponding to "agishoku", and the like. Based on the receiver's voice 1101 and the caller's voice 1102, the information processing apparatus 100 determines that the caller is speaking during the call period and that the receiver's voice 1101 has a voice pattern corresponding to "silence". The appearing sections are classified into silent sections and listening sections.

情報処理装置100は、受信者の音声1101と発信者の音声1102とに基づいて、通話期間のうち、発信者が発話中であり、受信者の音声1101に「相槌」に対応する音声パターンが現れる区間を、相槌区間および聴取区間に分類する。情報処理装置100は、連続する聴取区間を結合する。情報処理装置100は、例えば、受信者の音声1101に基づいて、相槌区間以外で、受信者が発話した区間を、発話区間に分類する。次に、図12の説明に移行する。 Based on the receiver's voice 1101 and the caller's voice 1102, the information processing device 100 determines that the caller is speaking during the call period and that the receiver's voice 1101 has a voice pattern corresponding to "Aitsuchi". The appearing sections are classified into agreeing sections and listening sections. The information processing device 100 combines consecutive listening sections. The information processing apparatus 100 classifies, for example, a section in which the receiver speaks other than the intermittent section as a speech section, based on the receiver's voice 1101. Next, the explanation will move on to FIG. 12.

図12において、情報処理装置100は、発話区間ごとに、受信者の音声1101のうち、当該発話区間に対応する部分音声に基づいて、当該発話区間における受信者の感情値を生成する。感情値は、感情の特徴値である。感情値は、例えば、ネガティブまたはポジティブなどである。感情値は、例えば、「残念」または「意欲的」などであってもよい。情報処理装置100は、例えば、発話区間ごとに、当該発話区間に対応する部分音声に基づいて、受信者の音声のトーン、声量、または、キーワードなどを考慮して、当該発話区間における受信者の感情値を生成する。 In FIG. 12, the information processing apparatus 100 generates the recipient's emotional value for each utterance interval based on the partial voice corresponding to the utterance interval out of the recipient's voice 1101. The emotion value is a characteristic value of emotion. The emotional value is, for example, negative or positive. The emotional value may be, for example, "regrettable" or "motivated". For example, for each utterance section, the information processing device 100 considers the tone, volume, or keyword of the recipient's voice based on the partial speech corresponding to the utterance section, and calculates the receiver's performance in the utterance section. Generate emotional values.

図12の例では、情報処理装置100は、具体的には、第1の発話区間に対応する受信者の部分音声「昨日までだったんですか↓」のトーン、声量、または、キーワードなどを考慮して、第1の発話区間における受信者の感情値「ネガティブ「残念」」を生成する。矢印は、音声の末尾のトーンが上がり気味であるか、または、下がり気味であるかを示す。情報処理装置100は、具体的には、第2の発話区間に対応する受信者の音声「分かりました。すぐ行きます↑」のトーン、声量、または、キーワードなどを考慮して、第2の発話区間における受信者の感情値「ポジティブ「意欲的」」を生成する。 In the example of FIG. 12, the information processing device 100 specifically considers the tone, voice volume, keyword, etc. of the recipient's partial voice “Did you say that until yesterday?” corresponding to the first utterance section. Then, the receiver's emotional value ``negative ``regrettable'''' in the first utterance section is generated. The arrow indicates whether the tone at the end of the voice is rising or falling. Specifically, the information processing device 100 takes into account the tone, voice volume, keyword, etc. of the recipient's voice "Okay, I'll go right away ↑" corresponding to the second utterance section, and selects the second utterance section. The receiver's emotional value "positive 'motivated'" in the utterance section is generated.

情報処理装置100は、複数の発話区間に跨った受信者の感情値の変化パターンを生成する。情報処理装置100は、感情パターン情報管理テーブル700を参照して、生成した変化パターンに基づいて、受信者に対する発信者による詐欺行為が発生したか否かを判定する。 The information processing device 100 generates a change pattern of the recipient's emotional value across a plurality of utterance sections. The information processing device 100 refers to the emotion pattern information management table 700 and determines whether or not a fraudulent act has occurred by the sender against the recipient, based on the generated change pattern.

これにより、情報処理装置100は、受信者に対する発信者による詐欺行為が発生したか否かを精度よく判定することができる。情報処理装置100は、例えば、相槌区間のように、時間長さが比較的短く、受信者の感情値を生成し難い区間について、受信者の感情値を生成せずに済ませることができる。情報処理装置100は、例えば、発話区間のように、時間長さが比較的長く、受信者の感情値を精度よく生成し易い区間について、受信者の感情値を生成することができる。情報処理装置100は、例えば、比較的精度がよい受信者の感情値の変化パターンに基づいて、受信者に対する発信者による詐欺行為が発生したか否かを精度よく判定可能にすることができる。 Thereby, the information processing apparatus 100 can accurately determine whether or not a fraudulent act has occurred by the sender against the recipient. The information processing device 100 can, for example, do not need to generate the emotional value of the receiver for a section such as the mutual agreement section where the length of time is relatively short and it is difficult to generate the emotional value of the receiver. The information processing device 100 can generate the recipient's emotional value for a section, such as a speaking section, which has a relatively long time length and is easy to accurately generate the recipient's emotional value. For example, the information processing apparatus 100 can accurately determine whether or not a fraudulent act has occurred by the sender against the recipient, based on a relatively accurate change pattern of the emotional value of the recipient.

図13において、情報処理装置100は、フィルタ情報管理テーブル600を参照して、「沈黙」に対応する沈黙用フィルタ、および、「相槌」に対応する相槌用フィルタなどを取得する。沈黙用フィルタは、例えば、生体データから、呼吸に基づくノイズを除去するためのフィルタである。相槌用フィルタは、例えば、生体データから、体動に基づくノイズを除去するためのフィルタである。 In FIG. 13, the information processing apparatus 100 refers to the filter information management table 600 and obtains a silence filter corresponding to "silence", a mutual agreement filter corresponding to "commitment", and the like. The silence filter is, for example, a filter for removing breathing-based noise from biological data. The feedback filter is, for example, a filter for removing noise based on body movements from biological data.

情報処理装置100は、通話期間における受信者の心拍数の時間変化を示す生体データのうち、沈黙区間に対応する部分生体データに対して、沈黙用フィルタを適用することにより、ノイズ除去処理を実施する。情報処理装置100は、通話期間における受信者の心拍数の時間変化を示す生体データのうち、相槌区間に対応する部分生体データに対して、相槌用フィルタを適用することにより、ノイズ除去処理を実施する。 The information processing device 100 performs noise removal processing by applying a silence filter to the partial biometric data corresponding to the silent period among the biometric data indicating the temporal change in the recipient's heart rate during the call period. do. The information processing device 100 performs noise removal processing by applying a matching filter to the partial biometric data corresponding to the matching section among the biometric data indicating temporal changes in the recipient's heart rate during the call period. do.

情報処理装置100は、ノイズ除去処理を実施した後、通話期間における受信者の心拍数の時間変化を示す生体データに基づいて、聴取区間ごとに、当該聴取区間の開始時の心拍数から聴取区間の終了時の心拍数までの変化量を算出する。情報処理装置100は、少なくともいずれかの聴取区間において、算出した変化量が閾値以上であれば、受信者に対する発信者による詐欺行為が発生したと判定する。情報処理装置100は、いずれの聴取区間についても、算出した変化量が閾値未満であれば、受信者に対する発信者による詐欺行為が発生していないと判定する。 After performing the noise removal process, the information processing device 100 calculates the listening interval from the heart rate at the start of the listening interval for each listening interval based on the biological data indicating the time change in the recipient's heart rate during the call period. Calculate the amount of change in heart rate up to the end of the period. If the calculated amount of change is equal to or greater than the threshold value in at least one of the listening sections, the information processing device 100 determines that a fraudulent act by the sender against the recipient has occurred. If the calculated amount of change is less than the threshold value for any listening section, the information processing device 100 determines that no fraud has occurred by the sender against the recipient.

情報処理装置100は、ノイズ除去処理を実施した後、通話期間における受信者の心拍数の時間変化を示す生体データに基づいて、聴取区間ごとに、当該聴取区間の開始時の心拍数から聴取区間の終了時の心拍数までの変化パターンを生成してもよい。情報処理装置100は、生体パターン情報管理テーブル800を参照して、生成した変化パターンに基づいて、受信者に対する発信者による詐欺行為が発生したか否かを判定してもよい。 After performing the noise removal process, the information processing device 100 calculates the listening interval from the heart rate at the start of the listening interval for each listening interval based on the biological data indicating the time change in the recipient's heart rate during the call period. A change pattern up to the end of the heart rate may be generated. The information processing device 100 may refer to the biometric pattern information management table 800 and determine whether or not a fraudulent act by the sender against the recipient has occurred based on the generated change pattern.

これにより、情報処理装置100は、受信者に対する発信者による詐欺行為が発生したか否かを精度よく判定することができる。情報処理装置100は、例えば、発話区間のように、体動ノイズなどのノイズ重畳が比較的大きくなり易く、犯罪行為の発生状況の評価に活用し難い区間について、心拍数の変化パターンを生成せずに済ませることができる。情報処理装置100は、例えば、聴取区間のように、体動ノイズなどのノイズ重畳が比較的小さくなり易く、犯罪行為の発生状況の評価に活用し易い区間について、心拍数の変化パターンを生成することができる。このため、情報処理装置100は、例えば、体動ノイズなどのノイズ重畳が比較的小さい、心拍数の変化パターンに基づいて、受信者に対する発信者による詐欺行為が発生したか否かを精度よく判定可能にすることができる。 Thereby, the information processing apparatus 100 can accurately determine whether or not a fraudulent act has occurred by the sender against the recipient. For example, the information processing device 100 generates a heart rate change pattern for an interval, such as a speaking interval, in which noise such as body movement noise tends to be relatively large and is difficult to utilize for evaluating the occurrence of criminal acts. You can get away with it without having to do it. For example, the information processing device 100 generates a heart rate change pattern for an interval, such as a listening interval, in which superimposition of noise such as body movement noise is likely to be relatively small and can be easily utilized for evaluating the occurrence of criminal acts. be able to. For this reason, the information processing device 100 accurately determines whether or not a fraudulent act has occurred by the sender against the recipient, based on a heart rate change pattern in which noise such as body movement noise is relatively small. can be made possible.

情報処理装置100は、音声パターンに対応する区間ごとに、当該音声パターンに対応するフィルタを利用して、適切にノイズ除去処理を実施することができる。情報処理装置100は、例えば、音声パターンに応じて、どのような種類のノイズが含まれる傾向があるか、および、ノイズの大きさがどの程度である傾向があるかなどを考慮したフィルタを利用することができる。このため、情報処理装置100は、生体データから、精度よくノイズを除去することができる。そして、情報処理装置100は、心拍数の変化パターンを精度よく生成することができ、受信者に対する発信者による詐欺行為が発生したか否かを精度よく判定可能にすることができる。 The information processing device 100 can appropriately perform noise removal processing for each section corresponding to the voice pattern using a filter corresponding to the voice pattern. The information processing device 100 uses a filter that takes into consideration, for example, what kind of noise tends to be included and how large the noise tends to be, depending on the voice pattern. can do. Therefore, the information processing device 100 can accurately remove noise from biometric data. Then, the information processing device 100 can accurately generate a heart rate change pattern, and can accurately determine whether or not a fraudulent act has occurred by the sender against the recipient.

(全体処理手順)
次に、図14を用いて、情報処理装置100が実行する、全体処理手順の一例について説明する。全体処理は、例えば、図5に示したCPU501と、メモリ502や記録媒体505などの記憶領域と、ネットワークI/F503とによって実現される。
(Overall processing procedure)
Next, an example of the overall processing procedure executed by the information processing apparatus 100 will be described using FIG. 14. The overall processing is realized by, for example, the CPU 501 shown in FIG. 5, a storage area such as a memory 502 or a recording medium 505, and a network I/F 503.

図14は、全体処理手順の一例を示すフローチャートである。情報処理装置100は、対象の人物の通話開始を検出する(ステップS1401)。 FIG. 14 is a flowchart showing an example of the overall processing procedure. The information processing apparatus 100 detects the start of a call by a target person (step S1401).

次に、情報処理装置100は、所定のタイミングで、対象の期間における対象の人物の音声データを取得する(ステップS1402)。所定のタイミングは、例えば、通話終了のタイミングである。対象の期間は、例えば、通話開始から通話終了までの通話期間である。そして、情報処理装置100は、所定のタイミングで、対象の期間における対象の人物の生体データを取得する(ステップS1403)。 Next, the information processing apparatus 100 acquires voice data of the target person during the target period at a predetermined timing (step S1402). The predetermined timing is, for example, the timing at which the call ends. The target period is, for example, the call period from the start of the call to the end of the call. The information processing apparatus 100 then acquires biometric data of the target person during the target period at a predetermined timing (step S1403).

次に、情報処理装置100は、取得した音声データを解析し、対象の期間を、発話区間と聴取区間とに分類すると共に、聴取区間を、沈黙区間と相槌区間とに分類する(ステップS1404)。そして、情報処理装置100は、対象の期間の先頭から順に、発話区間と聴取区間とのいずれかの区間を処理対象として選択する(ステップS1405)。 Next, the information processing device 100 analyzes the acquired audio data, classifies the target period into a speaking interval and a listening interval, and classifies the listening interval into a silent interval and a chirping interval (step S1404). . Then, the information processing apparatus 100 selects either the speaking section or the listening section as a processing target in order from the beginning of the target period (step S1405).

次に、情報処理装置100は、選択した区間が、聴取区間であるか否かを判定する(ステップS1406)。ここで、選択した区間が、聴取区間である場合(ステップS1406:Yes)、情報処理装置100は、ステップS1407の処理に移行する。一方で、選択した区間が、聴取区間ではなく発話区間である場合(ステップS1406:No)、情報処理装置100は、ステップS1410の処理に移行する。 Next, the information processing device 100 determines whether the selected section is a listening section (step S1406). Here, if the selected section is the listening section (step S1406: Yes), the information processing device 100 moves to the process of step S1407. On the other hand, if the selected section is not a listening section but a speaking section (step S1406: No), the information processing device 100 moves to the process of step S1410.

ステップS1407では、情報処理装置100は、対象の期間における対象の人物の生体データのうち、聴取区間における対象の人物の生体データを取得する(ステップS1407)。次に、情報処理装置100は、聴取区間における対象の人物の生体データに対するノイズ除去処理を実施する(ステップS1408)。 In step S1407, the information processing apparatus 100 acquires the biometric data of the target person in the listening section from among the biometric data of the target person in the target period (step S1407). Next, the information processing apparatus 100 performs noise removal processing on the biometric data of the target person in the listening section (step S1408).

情報処理装置100は、例えば、聴取区間における対象の人物の生体データのうち、沈黙区間に関する部分データに、沈黙に対応するフィルタを適用し、ノイズを除去する。また、情報処理装置100は、例えば、聴取区間における対象の人物の生体データのうち、相槌区間に関する部分データに対して、相槌に対応するフィルタを適用し、ノイズを除去する。 For example, the information processing device 100 applies a filter corresponding to silence to partial data related to the silence section of the biological data of the target person in the listening section to remove noise. Further, the information processing device 100 applies a filter corresponding to the agreement to partial data related to the agreement section among the biometric data of the target person in the listening section, for example, to remove noise.

そして、情報処理装置100は、取得した聴取区間における対象の人物の生体データの第1の特徴量を算出する(ステップS1409)。その後、情報処理装置100は、ステップS1412の処理に移行する。 Then, the information processing device 100 calculates the first feature amount of the biometric data of the target person in the acquired listening section (step S1409). After that, the information processing apparatus 100 moves to the process of step S1412.

ステップS1410では、情報処理装置100は、対象の期間における対象の人物の音声データのうち、発話区間における対象の人物の音声データを抽出する(ステップS1410)。次に、情報処理装置100は、抽出した発話区間における対象の人物の音声データの第2の特徴量を算出する(ステップS1411)。そして、情報処理装置100は、ステップS1412の処理に移行する。 In step S1410, the information processing apparatus 100 extracts the target person's voice data in the utterance period from the target person's voice data in the target period (step S1410). Next, the information processing device 100 calculates a second feature amount of the target person's voice data in the extracted speech section (step S1411). The information processing apparatus 100 then proceeds to the process of step S1412.

ステップS1412では、情報処理装置100は、すべての区間を処理対象として選択したか否かを判定する(ステップS1412)。ここで、いずれかの区間を選択していない場合(ステップS1412:No)、情報処理装置100は、ステップS1405の処理に戻る。一方で、すべての区間を選択した場合(ステップS1412:Yes)、情報処理装置100は、ステップS1413の処理に移行する。 In step S1412, the information processing apparatus 100 determines whether all sections have been selected as processing targets (step S1412). Here, if any section is not selected (step S1412: No), the information processing apparatus 100 returns to the process of step S1405. On the other hand, if all sections are selected (step S1412: Yes), the information processing apparatus 100 moves to the process of step S1413.

ステップS1413では、情報処理装置100は、算出した第1の特徴量の変化パターンと、算出した第2の特徴量の変化パターンとに基づいて、詐欺行為の発生有無を判定する(ステップS1413)。そして、情報処理装置100は、全体処理を終了する。これにより、情報処理装置100は、詐欺行為の発生有無を精度よく判定することができる。 In step S1413, the information processing device 100 determines whether a fraudulent act has occurred based on the calculated change pattern of the first feature amount and the calculated change pattern of the second feature amount (step S1413). Then, the information processing device 100 ends the overall processing. Thereby, the information processing device 100 can accurately determine whether or not a fraudulent act has occurred.

ここでは、所定のタイミングが、通話終了のタイミングである場合について説明したが、これに限らない。例えば、所定のタイミングが、通話開始から一定時間ごとのタイミングである場合があってもよい。この場合、対象の期間は、所定のタイミングから一定時間前までの期間であってもよい。この場合、情報処理装置100は、ステップS1413の処理を実施した後、ステップS1402の処理に戻ってもよい。 Although a case has been described here in which the predetermined timing is the timing at which the call ends, the predetermined timing is not limited to this. For example, the predetermined timing may be at regular intervals from the start of the call. In this case, the period of interest may be a period from a predetermined timing to a certain time before. In this case, the information processing apparatus 100 may return to the process of step S1402 after performing the process of step S1413.

ここで、情報処理装置100は、図14の一部ステップの処理の順序を入れ替えて実行してもよい。例えば、ステップS1402,S1403の処理の順序は入れ替え可能である。また、情報処理装置100は、図14の一部ステップの処理を省略してもよい。例えば、ステップS1408,S1409の処理は省略可能である。 Here, the information processing apparatus 100 may perform the processing of some steps in FIG. 14 by changing the order of the processing. For example, the order of the processing in steps S1402 and S1403 can be changed. Further, the information processing apparatus 100 may omit the processing of some steps in FIG. For example, the processing in steps S1408 and S1409 can be omitted.

以上説明したように、情報処理装置100によれば、対象の期間における対象の人物の会話を示す音声データを取得することができる。情報処理装置100によれば、取得した音声データを解析することにより、対象の期間を、対象の人物が発話した発話区間と、対象の人物が他の人物の発話を聴取した聴取区間とに分類することができる。情報処理装置100によれば、分類した聴取区間における対象の人物の生体データに基づいて、対象の人物に関する第1の特徴量を生成することができる。情報処理装置100によれば、生成した第1の特徴量に基づいて、対象の人物に対する犯罪行為の発生状況を評価することができる。これにより、情報処理装置100は、対象の人物に対する犯罪行為の発生状況を精度よく評価することができる。 As described above, according to the information processing apparatus 100, it is possible to acquire audio data indicating a conversation of a target person during a target period. According to the information processing device 100, by analyzing the acquired audio data, the target period is classified into a speech section in which the target person utters and a listening section in which the target person listens to the utterances of another person. can do. According to the information processing device 100, it is possible to generate the first feature amount regarding the target person based on the biometric data of the target person in the classified listening section. According to the information processing device 100, it is possible to evaluate the occurrence of a criminal act against a target person based on the generated first feature amount. Thereby, the information processing device 100 can accurately evaluate the occurrence of a criminal act against a target person.

情報処理装置100によれば、取得した音声データのうち、分類した発話区間に関する部分音声データに基づいて、対象の人物に関する第2の特徴量を生成することができる。情報処理装置100によれば、生成した第1の特徴量と、生成した第2の特徴量とに基づいて、対象の人物に対する犯罪行為の発生状況を評価することができる。これにより、情報処理装置100は、対象の人物に対する犯罪行為の発生状況を精度よく評価することができる。 According to the information processing device 100, it is possible to generate the second feature amount regarding the target person based on the partial audio data related to the classified utterance section out of the acquired audio data. According to the information processing device 100, it is possible to evaluate the occurrence of a criminal act against a target person based on the generated first feature amount and the generated second feature amount. Thereby, the information processing device 100 can accurately evaluate the occurrence of a criminal act against a target person.

情報処理装置100によれば、電話を介した対象の期間における対象の人物の会話を示す音声データを取得することができる。情報処理装置100によれば、生成した第1の特徴量と、生成した第2の特徴量とに基づいて、電話を介した他の人物による対象の人物に対する詐欺行為の発生状況を評価することができる。これにより、情報処理装置100は、電話を介した他の人物による対象の人物に対する詐欺行為の発生状況を精度よく評価することができる。 According to the information processing device 100, it is possible to acquire audio data indicating a conversation of a target person during a target period via a telephone. According to the information processing device 100, it is possible to evaluate the occurrence of fraud against a target person by another person via a telephone based on the generated first feature amount and the generated second feature amount. I can do it. Thereby, the information processing apparatus 100 can accurately evaluate the occurrence of fraud against the target person by another person via the telephone.

情報処理装置100によれば、分類した聴取区間ごとに、聴取区間における対象の人物の生体データに基づいて、対象の人物に関する第1の特徴量を生成することができる。情報処理装置100によれば、生成した第1の特徴量の変化パターンに基づいて、対象の人物に対する犯罪行為の発生状況を評価することができる。これにより、情報処理装置100は、第1の特徴量の変化パターンを考慮することができ、対象の人物に対する犯罪行為の発生状況を精度よく評価可能にすることができる。 According to the information processing device 100, for each classified listening section, the first feature amount regarding the target person can be generated based on the biometric data of the target person in the listening section. According to the information processing device 100, it is possible to evaluate the occurrence of a criminal act against a target person based on the generated change pattern of the first feature amount. Thereby, the information processing device 100 can take into account the change pattern of the first feature amount, and can accurately evaluate the occurrence of a criminal act against the target person.

情報処理装置100によれば、分類した聴取区間ごとに、聴取区間における生体データに基づいて、聴取区間における対象の人物の心拍または脈拍に関する計測値の変化量である第1の特徴量を生成することができる。情報処理装置100によれば、生成した第1の特徴量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価することができる。情報処理装置100によれば、生成した第1の特徴量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価することができる。これにより、情報処理装置100は、心拍または脈拍に関する計測値に基づいて、対象の人物に対する犯罪行為の発生状況を評価可能にすることができる。情報処理装置100は、犯罪行為が発生したか否かを精度よく評価することができる。 According to the information processing device 100, for each classified listening section, the first feature amount, which is the amount of change in the measured value regarding the heartbeat or pulse of the target person in the listening section, is generated based on the biological data in the listening section. be able to. According to the information processing device 100, if the generated first feature amount is equal to or greater than the threshold value, it can be evaluated that a criminal act against the target person has occurred. According to the information processing device 100, if the generated first feature amount is less than the threshold value, it can be evaluated that a criminal act against the target person has not occurred. Thereby, the information processing device 100 can evaluate the occurrence of a criminal act against a target person based on the measured value regarding heartbeat or pulse. The information processing device 100 can accurately evaluate whether a criminal act has occurred.

情報処理装置100によれば、聴取区間ごとに、聴取区間における対象の人物の心拍または脈拍に関する計測値を示す生体データに基づいて、聴取区間における対象の人物の心拍または脈拍に関する計測値の統計値である第1の特徴量を生成することができる。情報処理装置100によれば、生成した第1の特徴量の変化量が閾値以上である場合、対象の人物に対する犯罪行為が発生したと評価することができる。情報処理装置100によれば、生成した第1の特徴量の変化量が閾値未満である場合、対象の人物に対する犯罪行為が発生していないと評価することができる。これにより、情報処理装置100は、心拍または脈拍に関する計測値に基づいて、対象の人物に対する犯罪行為の発生状況を評価可能にすることができる。情報処理装置100は、犯罪行為が発生したか否かを精度よく評価することができる。 According to the information processing device 100, for each listening section, the statistical value of the measured value regarding the heartbeat or pulse of the target person in the listening section is calculated based on the biological data indicating the measured value regarding the heartbeat or pulse of the target person in the listening section. It is possible to generate a first feature quantity that is . According to the information processing device 100, when the amount of change in the generated first feature amount is equal to or greater than the threshold value, it can be evaluated that a criminal act against the target person has occurred. According to the information processing device 100, if the amount of change in the generated first feature amount is less than the threshold value, it can be evaluated that a criminal act against the target person has not occurred. Thereby, the information processing device 100 can evaluate the occurrence of a criminal act against a target person based on the measured value regarding heartbeat or pulse. The information processing device 100 can accurately evaluate whether a criminal act has occurred.

情報処理装置100によれば、分類した発話区間ごとに、取得した音声データのうち、発話区間に関する部分音声データに基づいて、対象の人物に関する第2の特徴量を生成することができる。情報処理装置100によれば、生成した第1の特徴量の変化パターンと、生成した第2の特徴量の変化パターンとに基づいて、対象の人物に対する犯罪行為の発生状況を評価することができる。これにより、情報処理装置100は、第1の特徴量の変化パターンと、第2の特徴量の変化パターンとを考慮することができ、対象の人物に対する犯罪行為の発生状況を精度よく評価可能にすることができる。 According to the information processing device 100, it is possible to generate, for each classified speech section, the second feature amount regarding the target person based on the partial speech data related to the speech section out of the acquired speech data. According to the information processing device 100, it is possible to evaluate the occurrence of a criminal act against a target person based on the generated change pattern of the first feature amount and the generated change pattern of the second feature amount. . Thereby, the information processing device 100 can take into account the change pattern of the first feature amount and the change pattern of the second feature amount, and can accurately evaluate the occurrence situation of the criminal act against the target person. can do.

情報処理装置100によれば、分類した発話区間ごとに、取得した音声データのうち、発話区間に関する部分音声データに基づいて、対象の人物の心理状態を示す第2の特徴量を生成することができる。情報処理装置100によれば、生成した第2の特徴量の変化パターンが、設定された特定の変化パターンに合致する場合、対象の人物に対する犯罪行為が発生したと評価することができる。情報処理装置100によれば、生成した第2の特徴量の変化パターンが、特定の変化パターンに合致しない場合、対象の人物に対する犯罪行為が発生していないと評価することができる。これにより、情報処理装置100は、第2の特徴量の変化パターンを考慮することができ、対象の人物に対する犯罪行為の発生状況を精度よく評価可能にすることができる。情報処理装置100は、犯罪行為が発生したか否かを精度よく評価することができる。 According to the information processing device 100, it is possible to generate, for each classified utterance section, a second feature amount indicating the psychological state of the target person based on partial speech data related to the utterance section out of the acquired speech data. can. According to the information processing device 100, if the generated change pattern of the second feature matches the set specific change pattern, it can be evaluated that a criminal act against the target person has occurred. According to the information processing device 100, if the generated change pattern of the second feature amount does not match a specific change pattern, it can be evaluated that no criminal act has occurred against the target person. Thereby, the information processing device 100 can take into account the change pattern of the second feature amount, and can accurately evaluate the occurrence of a criminal act against the target person. The information processing device 100 can accurately evaluate whether a criminal act has occurred.

なお、本実施の形態で説明した情報処理方法は、予め用意されたプログラムをPCやワークステーションなどのコンピュータで実行することにより実現することができる。本実施の形態で説明した情報処理プログラムは、コンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。記録媒体は、ハードディスク、フレキシブルディスク、CD(Compact Disc)-ROM、MO(Magneto Optical disc)、DVD(Digital Versatile Disc)などである。また、本実施の形態で説明した情報処理プログラムは、インターネットなどのネットワークを介して配布してもよい。 Note that the information processing method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a PC or a workstation. The information processing program described in this embodiment is recorded on a computer-readable recording medium, and executed by being read from the recording medium by the computer. The recording medium includes a hard disk, a flexible disk, a CD (Compact Disc)-ROM, an MO (Magneto Optical disc), a DVD (Digital Versatile Disc), and the like. Furthermore, the information processing program described in this embodiment may be distributed via a network such as the Internet.

上述した実施の形態に関し、さらに以下の付記を開示する。 Regarding the embodiments described above, the following additional notes are further disclosed.

(付記1)ある期間における対象の人物の会話を示す音声データを取得し、
取得した前記音声データを解析することにより、前記期間の中から、前記対象の人物が他の人物の発話を聴取した聴取区間を分類し、
分類した前記聴取区間における前記対象の人物の生体データに基づいて、前記対象の人物に関する第1の特徴量を生成し、
生成した前記第1の特徴量に基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
(Additional note 1) Obtain audio data showing the conversation of a target person during a certain period,
By analyzing the acquired audio data, classifying listening sections in which the target person listened to the utterances of other people from the period,
generating a first feature amount regarding the target person based on biometric data of the target person in the classified listening section;
Evaluating the occurrence of a criminal act against the target person based on the generated first feature amount;
An information processing program that causes a computer to perform processing.

(付記2)前記分類する処理は、
取得した前記音声データを解析することにより、前記期間を、前記対象の人物が発話した発話区間と、前記対象の人物が他の人物の発話を聴取した聴取区間とに分類する、ことを特徴とする付記1に記載の情報処理プログラム。
(Additional note 2) The classification process is
By analyzing the acquired voice data, the period is classified into a speech section in which the target person utters and a listening section in which the target person listens to the utterances of another person. The information processing program described in Supplementary Note 1.

(付記3)取得した前記音声データのうち、分類した前記発話区間に関する部分音声データに基づいて、前記対象の人物に関する第2の特徴量を生成する、
処理を前記コンピュータに実行させ、
前記評価する処理は、
生成した前記第1の特徴量と、生成した前記第2の特徴量とに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、ことを特徴とする付記2に記載の情報処理プログラム。
(Additional Note 3) Generating a second feature amount regarding the target person based on partial audio data regarding the classified utterance section among the acquired audio data;
causing the computer to execute the process;
The process to be evaluated is
The information processing program according to appendix 2, characterized in that the information processing program evaluates the occurrence of a criminal act against the target person based on the generated first feature amount and the generated second feature amount. .

(付記4)前記音声データは、電話を介した前記期間における前記対象の人物の会話を示し、
前記評価する処理は、
生成した前記第1の特徴量と、生成した前記第2の特徴量とに基づいて、電話を介した前記他の人物による前記対象の人物に対する詐欺行為の発生状況を評価する、ことを特徴とする付記3に記載の情報処理プログラム。
(Additional Note 4) The audio data indicates a conversation of the target person during the period via a telephone,
The process to be evaluated is
Based on the generated first feature amount and the generated second feature amount, the occurrence status of the fraudulent act against the target person by the other person via the telephone is evaluated. The information processing program described in Supplementary Note 3.

(付記5)前記第1の特徴量を生成する処理は、
分類した前記聴取区間ごとに、前記聴取区間における前記対象の人物の生体データに基づいて、前記対象の人物に関する第1の特徴量を生成し、
前記評価する処理は、
生成した前記第1の特徴量の変化パターンに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、ことを特徴とする付記3または4に記載の情報処理プログラム。
(Additional Note 5) The process of generating the first feature amount is
for each of the classified listening sections, generating a first feature amount regarding the target person based on biometric data of the target person in the listening section;
The process to be evaluated is
5. The information processing program according to appendix 3 or 4, wherein the information processing program evaluates the occurrence of a criminal act against the target person based on the generated change pattern of the first feature amount.

(付記6)前記第1の特徴量を生成する処理は、
分類した前記聴取区間ごとに、前記聴取区間における前記対象の人物の心拍または脈拍に関する計測値を示す生体データに基づいて、前記聴取区間における前記対象の人物の心拍または脈拍に関する計測値の変化量である前記第1の特徴量を生成し、
前記評価する処理は、
生成した前記第1の特徴量が閾値以上である場合、前記対象の人物に対する犯罪行為が発生したと評価し、生成した前記第1の特徴量が閾値未満である場合、前記対象の人物に対する犯罪行為が発生していないと評価する、ことを特徴とする付記5に記載の情報処理プログラム。
(Additional Note 6) The process of generating the first feature amount is
For each of the classified listening sections, the amount of change in the measured value regarding the heartbeat or pulse of the target person during the listening section based on biological data indicating the measured value regarding the heartbeat or pulse of the target person during the listening section. Generating a certain first feature amount,
The process to be evaluated is
If the generated first feature value is equal to or greater than a threshold value, it is evaluated that a criminal act against the target person has occurred, and if the generated first feature value is less than the threshold value, a crime against the target person is evaluated. The information processing program according to appendix 5, characterized in that it evaluates that the act has not occurred.

(付記7)前記第1の特徴量を生成する処理は、
分類した前記聴取区間ごとに、前記聴取区間における前記対象の人物の心拍または脈拍に関する計測値を示す生体データに基づいて、前記聴取区間における前記対象の人物の心拍または脈拍に関する計測値の統計値である前記第1の特徴量を生成し、
前記評価する処理は、
生成した前記第1の特徴量の変化量が閾値以上である場合、前記対象の人物に対する犯罪行為が発生したと評価し、生成した前記第1の特徴量の変化量が閾値未満である場合、前記対象の人物に対する犯罪行為が発生していないと評価する、ことを特徴とする付記5に記載の情報処理プログラム。
(Additional Note 7) The process of generating the first feature amount is
For each of the classified listening sections, statistical values of the measured values regarding the heartbeat or pulse of the target person during the listening section are calculated based on biometric data indicating the measured values regarding the heartbeat or pulse of the target person during the listening section. Generating a certain first feature amount,
The process to be evaluated is
If the amount of change in the generated first feature amount is greater than or equal to a threshold, it is evaluated that a criminal act against the target person has occurred, and if the amount of change in the generated first feature amount is less than the threshold, The information processing program according to appendix 5, characterized in that the information processing program evaluates that no criminal act has occurred against the target person.

(付記8)前記第2の特徴量を生成する処理は、
分類した前記発話区間ごとに、取得した前記音声データのうち、前記発話区間に関する部分音声データに基づいて、前記対象の人物に関する第2の特徴量を生成し、
前記評価する処理は、
生成した前記第1の特徴量の変化パターンと、生成した前記第2の特徴量の変化パターンとに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、ことを特徴とする付記5に記載の情報処理プログラム。
(Additional Note 8) The process of generating the second feature amount is
for each of the classified speech sections, generating a second feature amount regarding the target person based on partial speech data related to the speech section among the acquired speech data;
The process to be evaluated is
Supplementary note 5, characterized in that the occurrence status of the criminal act against the target person is evaluated based on the generated change pattern of the first feature amount and the generated change pattern of the second feature amount. The information processing program described in .

(付記9)前記第2の特徴量を生成する処理は、
分類した前記発話区間ごとに、取得した前記音声データのうち、前記発話区間に関する部分音声データに基づいて、前記対象の人物の心理状態を示す第2の特徴量を生成し、
前記評価する処理は、
生成した前記第2の特徴量の変化パターンが、設定された特定の変化パターンに合致する場合、前記対象の人物に対する犯罪行為が発生したと評価し、生成した前記第2の特徴量の変化パターンが、前記特定の変化パターンに合致しない場合、前記対象の人物に対する犯罪行為が発生していないと評価する、ことを特徴とする付記8に記載の情報処理プログラム。
(Additional Note 9) The process of generating the second feature amount is
For each of the classified utterance sections, out of the acquired voice data, a second feature amount indicating the psychological state of the target person is generated based on partial voice data related to the utterance section;
The process to be evaluated is
If the generated change pattern of the second feature amount matches a set specific change pattern, it is evaluated that a criminal act against the target person has occurred, and the generated change pattern of the second feature amount is determined. 8. The information processing program according to appendix 8, characterized in that if the change pattern does not match the specific change pattern, it is evaluated that a criminal act against the target person has not occurred.

(付記10)ある期間における対象の人物の会話を示す音声データを取得し、
取得した前記音声データを解析することにより、前記期間の中から、前記対象の人物が他の人物の発話を聴取した聴取区間を分類し、
分類した前記聴取区間における前記対象の人物の生体データに基づいて、前記対象の人物に関する第1の特徴量を生成し、
生成した前記第1の特徴量に基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
処理をコンピュータが実行することを特徴とする情報処理方法。
(Additional note 10) Obtain audio data indicating the conversation of a target person during a certain period,
By analyzing the acquired audio data, classifying listening sections in which the target person listened to the utterances of other people from the period,
generating a first feature amount regarding the target person based on biometric data of the target person in the classified listening section;
Evaluating the occurrence of a criminal act against the target person based on the generated first feature amount;
An information processing method characterized in that processing is performed by a computer.

(付記11)ある期間における対象の人物の会話を示す音声データを取得し、
取得した前記音声データを解析することにより、前記期間の中から、前記対象の人物が他の人物の発話を聴取した聴取区間を分類し、
分類した前記聴取区間における前記対象の人物の生体データに基づいて、前記対象の人物に関する第1の特徴量を生成し、
生成した前記第1の特徴量に基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
制御部を有することを特徴とする情報処理装置。
(Additional note 11) Obtain audio data indicating the conversation of a target person during a certain period,
By analyzing the acquired audio data, classifying listening sections in which the target person listened to the utterances of other people from the period,
generating a first feature amount regarding the target person based on biometric data of the target person in the classified listening section;
Evaluating the occurrence of a criminal act against the target person based on the generated first feature amount;
An information processing device comprising a control section.

100 情報処理装置
101 音声データ
102 生体データ
200 情報処理システム
201 音声データ取得装置
202 生体データ取得装置
203 アラート出力装置
210 ネットワーク
301,401 ユーザ
302,402 詐欺師
310,414 スマートフォン
311,907 生体センサ
403 関係者
411 ウェアラブル端末
412 スマートスピーカー
413 サーバ
415 固定電話機
500,900 バス
501,901 CPU
502,902 メモリ
503,903 ネットワークI/F
504,904 記録媒体I/F
505,905 記録媒体
600 フィルタ情報管理テーブル
700 感情パターン情報管理テーブル
800 生体パターン情報管理テーブル
906 音声センサ
908 出力装置
1000 記憶部
1001 取得部
1002 分類部
1003 加工部
1004 算出部
1005 判定部
1006 出力部
1101,1102 音声
100 Information processing device 101 Voice data 102 Biometric data 200 Information processing system 201 Voice data acquisition device 202 Biometric data acquisition device 203 Alert output device 210 Network 301,401 User 302,402 Fraudster 310,414 Smartphone 311,907 Biosensor 403 Relationship Person 411 Wearable terminal 412 Smart speaker 413 Server 415 Landline telephone 500,900 Bus 501,901 CPU
502,902 Memory 503,903 Network I/F
504,904 Recording medium I/F
505,905 Recording medium 600 Filter information management table 700 Emotion pattern information management table 800 Biological pattern information management table 906 Audio sensor 908 Output device 1000 Storage section 1001 Acquisition section 1002 Classification section 1003 Processing section 1004 Calculation section 1005 Judgment section 1006 Output section 1101 ,1102 Audio

Claims (6)

ある期間における対象の人物の会話を示す音声データを取得し、
取得した前記音声データを解析することにより、前記期間の中から、前記対象の人物が他の人物の発話を聴取した聴取区間を分類し、
分類した前記聴取区間における前記対象の人物の生体データに基づいて、前記対象の人物に関する第1の特徴量を生成し、
生成した前記第1の特徴量に基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
Obtain audio data showing the conversation of a target person during a certain period,
By analyzing the acquired audio data, classifying listening sections in which the target person listened to the utterances of other people from the period,
generating a first feature amount regarding the target person based on biometric data of the target person in the classified listening section;
Evaluating the occurrence of a criminal act against the target person based on the generated first feature amount;
An information processing program that causes a computer to perform processing.
前記分類する処理は、
取得した前記音声データを解析することにより、前記期間を、前記対象の人物が発話した発話区間と、前記対象の人物が他の人物の発話を聴取した聴取区間とに分類する、ことを特徴とする請求項1に記載の情報処理プログラム。
The classification process is
By analyzing the acquired voice data, the period is classified into a speech section in which the target person utters and a listening section in which the target person listens to the utterances of another person. The information processing program according to claim 1.
取得した前記音声データのうち、分類した前記発話区間に関する部分音声データに基づいて、前記対象の人物に関する第2の特徴量を生成する、
処理を前記コンピュータに実行させ、
前記評価する処理は、
生成した前記第1の特徴量と、生成した前記第2の特徴量とに基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、ことを特徴とする請求項2に記載の情報処理プログラム。
generating a second feature amount regarding the target person based on partial audio data regarding the classified utterance section among the acquired audio data;
causing the computer to execute the process;
The process to be evaluated is
The information processing according to claim 2, characterized in that the occurrence status of a criminal act against the target person is evaluated based on the generated first feature amount and the generated second feature amount. program.
前記音声データは、電話を介した前記期間における前記対象の人物の会話を示し、
前記評価する処理は、
生成した前記第1の特徴量と、生成した前記第2の特徴量とに基づいて、電話を介した前記他の人物による前記対象の人物に対する詐欺行為の発生状況を評価する、ことを特徴とする請求項3に記載の情報処理プログラム。
the audio data indicates a conversation of the target person during the period via a telephone;
The process to be evaluated is
Based on the generated first feature amount and the generated second feature amount, the occurrence status of the fraudulent act against the target person by the other person via the telephone is evaluated. The information processing program according to claim 3.
ある期間における対象の人物の会話を示す音声データを取得し、
取得した前記音声データを解析することにより、前記期間の中から、前記対象の人物が他の人物の発話を聴取した聴取区間を分類し、
分類した前記聴取区間における前記対象の人物の生体データに基づいて、前記対象の人物に関する第1の特徴量を生成し、
生成した前記第1の特徴量に基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
処理をコンピュータが実行することを特徴とする情報処理方法。
Obtain audio data showing the conversation of a target person during a certain period,
By analyzing the acquired audio data, classifying listening sections in which the target person listened to the utterances of other people from the period,
generating a first feature amount regarding the target person based on biometric data of the target person in the classified listening section;
Evaluating the occurrence of a criminal act against the target person based on the generated first feature amount;
An information processing method characterized in that processing is performed by a computer.
ある期間における対象の人物の会話を示す音声データを取得し、
取得した前記音声データを解析することにより、前記期間の中から、前記対象の人物が他の人物の発話を聴取した聴取区間を分類し、
分類した前記聴取区間における前記対象の人物の生体データに基づいて、前記対象の人物に関する第1の特徴量を生成し、
生成した前記第1の特徴量に基づいて、前記対象の人物に対する犯罪行為の発生状況を評価する、
制御部を有することを特徴とする情報処理装置。
Obtain audio data showing the conversation of a target person during a certain period,
By analyzing the acquired audio data, classifying listening sections in which the target person listened to the utterances of other people from the period,
generating a first feature amount regarding the target person based on biometric data of the target person in the classified listening section;
Evaluating the occurrence of a criminal act against the target person based on the generated first feature amount;
An information processing device comprising a control section.
JP2022141783A 2022-09-06 2022-09-06 Information processing program, information processing method, and information processing device Pending JP2024037110A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022141783A JP2024037110A (en) 2022-09-06 2022-09-06 Information processing program, information processing method, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022141783A JP2024037110A (en) 2022-09-06 2022-09-06 Information processing program, information processing method, and information processing device

Publications (1)

Publication Number Publication Date
JP2024037110A true JP2024037110A (en) 2024-03-18

Family

ID=90273064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022141783A Pending JP2024037110A (en) 2022-09-06 2022-09-06 Information processing program, information processing method, and information processing device

Country Status (1)

Country Link
JP (1) JP2024037110A (en)

Similar Documents

Publication Publication Date Title
US11545173B2 (en) Automatic speech-based longitudinal emotion and mood recognition for mental health treatment
US10810510B2 (en) Conversation and context aware fraud and abuse prevention agent
JP6524049B2 (en) Emotion estimation device, emotion estimation method, emotion estimation program, and emotion counting system
CN107818798B (en) Customer service quality evaluation method, device, equipment and storage medium
US10623573B2 (en) Personalized support routing based on paralinguistic information
US8972266B2 (en) User intent analysis extent of speaker intent analysis system
US8219404B2 (en) Method and apparatus for recognizing a speaker in lawful interception systems
US8145562B2 (en) Apparatus and method for fraud prevention
CN102623011B (en) Information processing apparatus, information processing method and information processing system
US11080723B2 (en) Real time event audience sentiment analysis utilizing biometric data
US20080059198A1 (en) Apparatus and method for detecting and reporting online predators
US20160118050A1 (en) Non-standard speech detection system and method
CN110378228A (en) Video data handling procedure, device, computer equipment and storage medium are examined in face
US9711167B2 (en) System and method for real-time speaker segmentation of audio interactions
CN114206361A (en) System and method for machine learning of speech attributes
US20210407514A1 (en) System and method for understanding and explaining spoken interactions using speech acoustic and linguistic markers
Alexander Forensic automatic speaker recognition using Bayesian interpretation and statistical compensation for mismatched conditions
GB2605929A (en) Health-related information generation and storage
CN112151027B (en) Method, device and storage medium for querying specific person based on digital person
CN114155460A (en) Method and device for identifying user type, computer equipment and storage medium
Al-Karawi et al. Using combined features to improve speaker verification in the face of limited reverberant data
Eyben et al. Audiovisual vocal outburst classification in noisy acoustic conditions
KR20180005876A (en) System and method for personal credit rating through voice analysis
JP2024037110A (en) Information processing program, information processing method, and information processing device
JP2024037111A (en) Information processing program, information processing method, and information processing device