WO2020250614A1 - 通信端末、情報処理装置、情報処理システム、情報処理方法およびプログラム - Google Patents

通信端末、情報処理装置、情報処理システム、情報処理方法およびプログラム Download PDF

Info

Publication number
WO2020250614A1
WO2020250614A1 PCT/JP2020/019080 JP2020019080W WO2020250614A1 WO 2020250614 A1 WO2020250614 A1 WO 2020250614A1 JP 2020019080 W JP2020019080 W JP 2020019080W WO 2020250614 A1 WO2020250614 A1 WO 2020250614A1
Authority
WO
WIPO (PCT)
Prior art keywords
voice
user
data related
call
information processing
Prior art date
Application number
PCT/JP2020/019080
Other languages
English (en)
French (fr)
Inventor
芳紀 幸田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP20823291.8A priority Critical patent/EP3982620A4/en
Priority to US17/616,734 priority patent/US11765260B2/en
Priority to JP2021525950A priority patent/JP7334780B2/ja
Publication of WO2020250614A1 publication Critical patent/WO2020250614A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/66Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
    • H04M1/663Preventing unauthorised calls to a telephone set
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/66Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
    • H04M1/667Preventing unauthorised calls from a telephone set
    • H04M1/67Preventing unauthorised calls from a telephone set by electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/274Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc
    • H04M1/2745Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips
    • H04M1/27453Directories allowing storage of additional subscriber data, e.g. metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/38Graded-service arrangements, i.e. some subscribers prevented from establishing certain connections
    • H04M3/382Graded-service arrangements, i.e. some subscribers prevented from establishing certain connections using authorisation codes or passwords
    • H04M3/385Graded-service arrangements, i.e. some subscribers prevented from establishing certain connections using authorisation codes or passwords using speech signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/64Automatic arrangements for answering calls; Automatic arrangements for recording messages for absent subscribers; Arrangements for recording conversations
    • H04M1/65Recording arrangements for recording a message from the calling party
    • H04M1/656Recording arrangements for recording a message from the calling party for recording conversations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/41Electronic components, circuits, software, systems or apparatus used in telephone systems using speaker recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/60Aspects of automatic or semi-automatic exchanges related to security aspects in telephonic communication systems
    • H04M2203/6045Identity confirmation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42025Calling or Called party identification service
    • H04M3/42034Calling party identification service
    • H04M3/42059Making use of the calling party identifier

Definitions

  • the present invention relates to a communication terminal, an information processing device, an information processing system, an information processing method and a program.
  • Patent Documents 1 and 2 disclose the following techniques.
  • Patent Document 1 discloses a technique for determining and authenticating a user who has made a voice for making a call as a legitimate user when the values of voice parameters match within a predetermined tolerance range. doing. With this technology, it is possible to perform a user authentication operation corresponding to a change in the sound quality of voice even if the user becomes ill.
  • Patent Document 2 discloses a system provided with a local area wireless communication means for communicating with a local terminal via a local area wireless communication line, and performing authentication processing by a voice authentication server when voice authentication is required at the local terminal. .. With this technology, it is possible to provide a mobile computing environment with higher usability.
  • An object of the present invention is to provide a communication terminal, an information processing device, an information processing system, an information processing method and a program that solve the above-mentioned problems.
  • the information processing system includes a storage means for storing data related to the user's voice in association with the user identification information that identifies the user, and the user identification information on the calling side after the start of a call.
  • the acquisition means for acquiring the data related to the voice of the calling side user, the data related to the voice of the calling side user acquired by the acquiring means during the call, and the user identification acquired by the acquiring means. It is provided with a discriminating means for determining whether or not the data related to the voice stored in the storage means in association with the information is based on the voice of the same person.
  • the information processing method stores data related to the user's voice in association with the user identification information that identifies the user, and after the start of the call, the user identification information on the calling side and the calling side Data related to the voice of the user is acquired, and during the call, the data related to the voice of the calling side user acquired in the acquisition step and the user identification information acquired in the acquisition step are used. It is determined whether or not the data related to the voice stored in the step of associating and storing is the voice of the same person.
  • the program associates the computer with the user identification information that identifies the user, a storage means that stores data related to the user's voice, and the user identification information on the calling side after the start of a call.
  • An acquisition means for acquiring data related to the voice of the calling user, data related to the voice of the calling user acquired by the acquiring means during the call, and the user identification information acquired by the acquiring means. It functions as a discriminating means for discriminating whether or not the data related to the voice stored by the storage means is based on the voice of the same person in association with.
  • the information processing apparatus has an acquisition means for acquiring user identification information for identifying a calling user and data related to the voice of the calling user after the start of a call, and the call.
  • the data related to the voice of the user on the transmitting side and the data related to the voice read from the storage means for storing the data related to the user's voice corresponding to the user identification information acquired by the acquisition means. It is provided with a discriminating means for discriminating whether or not the data is from the same person.
  • the communication terminal is a communication terminal on the receiving side that receives a call from the calling side, and is pre-stored with data related to the voice of the user on the calling side during the call.
  • An output means for outputting the determination result when the result of determination as to whether or not the data related to the voice of the user on the uttering side is based on the voice of the same person is received is provided.
  • unauthorized use by the communication terminal can be prevented.
  • FIG. 1 is a schematic view showing an example of the screen flow of the mobile communication terminal 24A on the called side according to the first embodiment.
  • FIG. 1 shows a screen flow displayed by the mobile communication terminal 24A of the called party (user 21 in FIG. 3). This screen flow is displayed on the display of the mobile communication terminal 24A by the information processing system 100A included in the unauthorized use prevention system 10.
  • the caller (user 60 in FIG. 3) makes a call to the mobile communication terminal 24A of the user 21 using the mobile communication terminal 24B on the calling side
  • the screen G11 is displayed on the mobile communication terminal 24A of the user 21.
  • the screen G12 is displayed.
  • Unauthorized use refers to the use of the mobile communication terminal by a person who is not the contractor (original owner) who has made a subscriber contract for the mobile communication terminal (also referred to as "impersonation").
  • the mobile communication terminal 24A on the called side displays the detection result when spoofing is detected during a call by the information processing system 100A.
  • the receiver can confirm whether the caller is the person assumed by the receiver (subscriber contractor of the mobile communication terminal 24B on the caller side) even during a call. Therefore, spoofing can be prevented.
  • FIG. 2 is a schematic view showing an example of the screen flow of the mobile communication terminal 24B on the transmitting side according to the first embodiment.
  • FIG. 2 is a screen flow displayed by the mobile communication terminal 24B of the user 60 of FIG. This screen flow is displayed on the display of the mobile communication terminal 24B by the information processing system 100 included in the unauthorized use prevention system 10.
  • the screen G15 is displayed on the mobile communication terminal 24B of the user 60.
  • the screen G16 is displayed.
  • the screen G17 is displayed and the fraudulent use voice message G18 flows.
  • FIG. 3 is a diagram showing a configuration of an unauthorized use prevention system 10 according to the first embodiment.
  • the fraud prevention system 10 includes a microphone 22A provided in the agency 20 of the communication company A, an agency storage device 23A, and an agency processing device 25A. Further, the fraud prevention system 10 includes a microphone 22B provided in the agency 30 of the communication company B, an agency storage device 23B, and an agency processing device 25B. Further, the fraud prevention system 10 includes the mobile communication terminal 24A of the communication company A used by the user 21 and the mobile communication terminal 24B of the communication company B used by the user 60. Further, the fraud prevention system 10 includes an information processing system 100A connected to the network 41 and network 41 of the communication company A, and an information processing system 100B connected to the network 51 and network 51 of the communication company B.
  • the microphones 22A and 22B are devices that receive human voice.
  • the agency storage devices 23A and 23B are devices that store the user identification information and the voiceprint of the user who makes a subscriber contract for the mobile communication terminal at the agency, and examples thereof include a hard disk.
  • the user identification information is information that identifies a user when making or receiving a telephone call, and examples thereof include a carrier type and a telephone number for which the user has a subscriber contract, and a user's unique number.
  • the carrier type refers to a telecommunications company with which the user has a subscriber contract.
  • FIG. 4 is a table showing an example of data stored in the agency storage devices 23A and 23B.
  • the agency storage devices 23A and 23B store the telephone number contracted by the contractor, the carrier contracted by the contractor, and the voice data of the contractor for each subscriber.
  • the voice data is stored in the voice data column of the contractor in the third column of FIG.
  • the mobile communication terminals 24A and 24B are communication terminals on which one or both of them can move.
  • the mobile communication terminal is an example of a communication terminal.
  • Examples of the mobile communication terminals 24A and 24B include smartphones and tablets, tablets with telephone functions, and IoT (Internet of Things) devices having telephone functions.
  • the agency processing devices 25A and 25B receive the user identification information and the voice data from the microphones 22A and 22B and store them in the agency storage devices 23A and 23B.
  • the user 21 visits the agency 20 of the communication company A and makes a subscriber contract for the mobile communication terminal 24A of the communication company A.
  • the agency 20 uses the microphone 22A to collect the voice of the user 21 and receive it as voice (voiceprint) data.
  • the agency 20 uses the agency processing device 25A to set the carrier type and the telephone number of the mobile communication terminal 24A contracted by the user 21 as the user identification information of the user 21.
  • the agency processing device 25A associates the voice (voiceprint) data received from the user 21 with the user identification information of the user 21 and stores it in the agency storage device 23A.
  • the user 31 visits the agency 30 of the communication company B and makes a subscriber contract for the mobile communication terminal 24B of the communication company B.
  • the agency 30 uses the microphone 22B to collect the voice of the user 31 and receive it as voice (voiceprint) data.
  • the agency 30 uses the agency processing device 25B to set the carrier type and the telephone number of the mobile communication terminal 24B contracted by the user 31 as the user identification information of the user 31.
  • the agency processing device 25B associates the voice (voiceprint) data received from the user 31 with the user identification information of the user 31 and stores it in the agency storage device 23.
  • FIG. 5 is a schematic block diagram showing the configurations of the information processing systems 100A and 100B.
  • the information processing systems 100A and 100B include storage units 110A and 110B, acquisition units 120A and 120B, selection units 130A and 130B, discrimination units 140A and 140B, output units 150A and 150B, function restriction units 160A, and function restriction units 160A, respectively. It includes 160B, abnormality information storage units 170A and 170B, and calculation units 180A and 180B.
  • the storage units 110A and 110B store user voiceprint data (an example of "data related to voice") for each user identification information.
  • the storage unit 110A of the information processing system 100A of the network 41 in FIG. 3 user-identifies the user identification information stored in the agency storage device 23A provided in the agency 20 and the voiceprint data for each of these user identification information.
  • the storage unit 110B of the information processing system 100B of the network 51 of FIG. 3 uses the user identification information stored in the agency storage device 23B provided in the agency 30 and the voiceprint data for each of these user identification information as the user identification information. Associate and memorize.
  • the voiceprint data is, for example, data representing a voiceprint, and is data representing a feature amount of the voice of the speaker.
  • the voiceprint data is not limited to this, and may be voice data other than the voiceprint, or data in which voice and an image are combined.
  • the acquisition units 120A and 120B acquire the user identification information of the communication terminal on the calling side and the data related to the voice of the caller.
  • FIG. 6 is a diagram showing an example of data acquired by the acquisition units 120A and 120B.
  • the acquisition unit 120A of the information processing system 100A of the network 41 in FIG. 3 is a mobile communication terminal 24B which is user identification information of the mobile communication terminal 24B which is the calling side after the start of a call between the user 60 and the user 21.
  • the carrier type and telephone number, and the call voice data of the user 60 are acquired.
  • the call voice data is data representing the voice at the time of a call.
  • the acquisition unit 120B of the information processing system 100B of the network 51 of FIG. 3 is a mobile communication terminal 24B which is user identification information of the mobile communication terminal 24B which is the calling side after the start of a call between the user 60 and the user 21.
  • the carrier type and the telephone number, and the voice print data related to the voice of the user 60 recorded in the storage unit 110B corresponding to the user identification information are acquired.
  • the selection unit 130A selects whether or not the determination unit 140A makes a determination after the start of the call.
  • the discrimination means that the call voice data of the user 60 on the calling side and the voiceprint data stored in the storage unit 110B in association with the user identification information of the communication terminal 24B on the calling side are based on the voice of the same person. It means to judge whether or not.
  • the selection unit 130A of the information processing system 100A of the network 41 in FIG. 3 and the selection unit 130B of the information processing system 100B of the network 51 randomly select whether or not the discrimination units 140A and 140B perform discrimination.
  • the discrimination units 140A and 140B perform the discrimination.
  • the selection units 130A and 130B choose not to perform the discrimination, the discrimination units 140A and 140B do not perform the discrimination.
  • the determination units 140A and 140B use the user identification information acquired by the acquisition units 120A and 120B during the call with the call voice data of the user on the calling side of the call. , It is determined whether or not the voice print data stored in the storage unit 110 in association with the user identification information related to the calling side of the call is based on the voice of the same person.
  • the discrimination unit 140A uses the voice data of the user 60 acquired by the acquisition unit 120A as one of the collation targets. Further, the discrimination unit 140A uses the voice (voiceprint) data of the user 31 stored by the storage unit 110B in association with the user identification information of the mobile communication terminal 24B acquired by the acquisition unit 120B as the other collation target.
  • the call voice data of the user 60 and the voiceprint data of the user 31 are collated.
  • a known voice collation method is used for this collation.
  • the discrimination unit 140A compares the voiceprint of the user 31 with the voiceprint extracted from the call voice data of the user 60. As a result, the determination unit 140A determines whether or not the voiceprint data of the user 31 and the call voice data of the user 60 are based on the voice of the same person. In the example shown in FIG. 3, since the voiceprint of the user 31 and the voiceprint extracted from the call voice data of the user 60 do not match, the discrimination unit 140A determines that the user 31 and the user 60 are not the same person. That is, the determination unit 140A determines that the user 60 is illegally using the communication terminal 24B. The discrimination unit 140A of the information processing system 100A does not perform the above discrimination when the selection unit 130A selects not to perform the discrimination.
  • the discrimination unit 140B of the information processing system 100B of the network 51 acquires the carrier type and telephone number of the mobile communication terminal 24B acquired by the acquisition unit 120B, and the call voice data of the user 60.
  • the determination unit 140B collates the call voice data of the user 60 with the voice print data corresponding to the user identification information (carrier type and telephone number) of the mobile communication terminal 24B stored in the storage unit 110B. As a result of this collation, in the example of FIG. 3, the discrimination unit 140B determines whether or not the user 31 and the user 60 are the same person. On the other hand, the discrimination unit 140B of the information processing system 100B does not perform the above discrimination when the selection unit 130B selects not to perform the discrimination.
  • the output units 150A and 150B output the discrimination results of the discrimination units 140A and 140B, respectively.
  • the output unit 150A of the information processing system 100A of the network 41 and the output unit 150B of the information processing system 100B of the network 51 are determined by the discrimination units 140A and 140B that the user 31 and the user 60 are not the same person. Therefore, the result of the determination is output.
  • the output unit 150A notifies the mobile communication terminal 24A on the receiving side of the determination result, and outputs the result to the output unit of the mobile communication terminal 24A on the receiving side.
  • the output unit of the mobile communication terminal 24A is, for example, a display, a vibrator that generates vibration, and a speaker that generates voice.
  • the output units 150A and 150B may output the determination result for each carrier type, and in this case, the determination result may be transmitted to the carrier type communication company.
  • the discrimination results of the discrimination units 140A and 140B are based on the voice of the same person as the call voice data of the calling user and the voiceprint data stored in the storage units 110A or 110B, respectively. If the result is not the same, the function of the device related to the calling side is restricted.
  • Examples of these devices include a mobile communication terminal and a fixed telephone, which are communication terminals on the calling side related to discrimination.
  • Examples of the restricted functions include an incoming call function and an outgoing call function.
  • Examples of the timing of function restriction include immediately after the above determination and immediately after the end of the call related to the above determination.
  • the function limiting unit 160B of the information processing system 100B limits the transmission function of the mobile communication terminal 24B immediately after the call related to this determination.
  • the discrimination results of the discrimination units 140A and 140B are based on the voice of the same person as the call voice data of the calling user and the voiceprint data stored in the storage units 110A or 110B, respectively. If it is determined that it is not a thing, the call voice data related to the calling side is stored.
  • the abnormal information storage unit 170B of the information processing system 100B is a user who is the calling side immediately after the determination unit 140B determines that the user 31 and the user 60 are not the same person. Stores 60 call voice data.
  • the calculation units 180A and 180B calculate the amount of money to be charged to the user according to the number of determinations of the determination units 140A and 140B for a certain period, respectively.
  • the discrimination unit 140A of the information processing system 100A performs discrimination on the mobile communication terminal 24A of the user 21 10 times in a certain period of time, and charges for each discrimination.
  • 100 yen is calculated as the amount of money to be charged to the user 21.
  • the amount of money charged by the calculation units 180A and 180B may be calculated not only according to the number of determinations but also according to the result of the determination.
  • the amount of money billed for each determination is 10. It can be set to yen, and the amount of money billed for each determination of fraudulent use can be set to 1000 yen.
  • the calculation unit 180 calculates 1100 yen as the amount of money to be charged to the user.
  • the calculation units 180A and 180B may calculate the amount of money to be charged to these communication companies or groups for each carrier type communication company or for each group consisting of a plurality of communication companies. In this case, the calculation units 180A and 180B add up the amount of money for each carrier type or for each carrier type of a plurality of telecommunications companies belonging to an organization or the like.
  • the user 60 is talking to the user 21 by illegally using the mobile communication terminal 24B to which the user 31 has a subscriber contract. Since the mobile communication terminal 24B illegally used by the user 60 is a communication terminal of the communication company B, the network 51 of the communication company B is used and connected to the network 41 of the communication company A. That is, the mobile communication terminal 24B that the user 60 illegally uses is connected to the mobile communication terminal 24A of the user 21 through the network 41.
  • FIG. 7 is a flowchart showing the operation of the information processing systems 100A and 110B according to the first embodiment.
  • the information processing systems 100A and 110B perform the operations shown in FIG. 7 for each call.
  • step S1 the selection units 130A and 130B randomly select, for example, whether or not the determination units 140A and 140B make a determination after the start of the call.
  • step S1: NO the operations of the information processing systems 100A and 100B in the call are terminated.
  • step S1 when the selection units 130A and 130B choose to perform the determination (step S1: YES), the acquisition units 120A and 120B acquire the user identification information on the calling side and the call voice data (step S2).
  • the determination units 140A and 140B collate the call voice data on the calling side with the voiceprint data stored in the storage units 110A and 110B based on the data acquired by the acquisition units 120A and 120B in step S2 (step S3). ).
  • step S3 if the result of discrimination by the discrimination units 140A and 140B is the result that the users involved in the collation in step S3 are the same person (step S4: YES), the information processing systems 100A and 100B in the call are concerned. Operation ends. On the other hand, in step S3, if the discrimination result of the discrimination units 140A and 140B is the result that the users involved in the collation in step S3 are not the same person (step S4: NO), the output units 150A and 150B The result of the determination in step S3 is output (step S5).
  • the abnormality information storage units 170A and 170B store the call voice data related to the calling side (step S6).
  • the function limiting units 160A and 160B limit the functions of the device related to the transmitting side (step S7).
  • FIG. 8 is a flowchart showing the operation of the calculation units 180A and 180B of the information processing systems 100A and 100B according to the first embodiment.
  • the calculation units 180A and 180B perform the operation according to FIG. 8 for each preset period.
  • step S9 the calculation units 180A and 180B acquire the number of determinations by the determination units 140A and 140B during a preset period.
  • the calculation units 180A and 180B multiply the number of determinations acquired in step S9 by the amount of money for each determination (step S10).
  • step S11 the calculation units 180A and 180B acquire the number of times that the determination units 140A and 140B have determined that the use is unauthorized during a preset period.
  • the calculation units 180A and 180B multiply the number of times acquired in step S11 by the amount of money per time (step S12).
  • the calculation units 180A and 180B add steps S10 and S12 to calculate the amount (step S13).
  • the information processing systems 100A and 100B have storage units 110A and 110B for storing voiceprint data for each user identification information, and the user identification information and transmission on the calling side after the start of the call. It includes acquisition units 120A and 120B for acquiring call voice data of the user on the side. Further, in the information processing systems 100A and 100B, regarding the user identification information acquired by the acquisition units 120A and 120B during a call, the call voice data of the calling user and the voice print data stored in the storage unit 110A or 110B The determination unit 140A and 140B are provided to determine whether or not the information is based on the voice of the same person. As a result, the information processing systems 100A and 100B can easily detect unauthorized use by the business operator.
  • the information processing systems 100A and 100B include selection units 130A and 130B that randomly select, for example, whether or not the determination units 140A and 140B make a determination after the start of a call. Further, the discrimination units 140A and 140B of the information processing systems 100A and 100B perform discrimination when the selection units 130A and 130B select to perform discrimination. As a result, the information processing systems 100A and 100B can reduce the burden on the system by performing the discrimination each time while suppressing unauthorized use by the discrimination.
  • the information processing systems 100A and 100B include output units 150A and 150B that output the discrimination results of the discrimination units 140A and 140B.
  • the information processing systems 100A and 100B can provide the user with information on the unauthorized use of the communication terminal, suppress the unauthorized use, and reduce the damage caused by the unauthorized use.
  • the discrimination results of the discrimination units 140A and 140B are the voiceprint data of the user on the transmitting side and the voiceprint data stored in the storage units 110A or 110B.
  • the function limiting units 160A and 160B for limiting the functions of the device related to the transmitting side are provided.
  • the information processing systems 100A and 100B can restrict the use of the communication terminal related to the unauthorized use, and can prevent the unauthorized use after the restriction.
  • the discrimination results of the discriminating units 140A and 140B are the call voice data of the calling user and the voice print data stored in the storage units 110A or 110B.
  • the abnormal information storage units 170A and 170B for storing the call voice data related to the calling side are provided.
  • the information processing systems 100A and 100B can store abnormal information related to unauthorized use of the communication terminal and provide evidence related to unauthorized use to a national institution or the like, so that unauthorized use can be suppressed.
  • FIG. 9 is a schematic block diagram showing the configuration of the information processing system 100C according to the second embodiment.
  • the configuration of the information processing system 100C according to the second embodiment is a configuration in which the voice storage unit 190C is added to the configurations of the information processing systems 100A and 100B according to the first embodiment.
  • the information processing system 100C according to the second embodiment can determine a communication terminal having a higher possibility of unauthorized use by the determination unit 140C and prevent unauthorized use.
  • the voice storage unit 190C stores the call voice data of the calling side.
  • the voice storage unit 190 stores not only the call between the user 21 and the user 60 in FIG. 3, but also the call voice data of the calling side in all the calls via the network 41 in a certain period of time.
  • the selection unit 130C selects whether or not the determination unit 140C makes a determination based on the call voice data stored in the voice storage unit 190C and the preset data.
  • the voice storage unit 190C stores the call voice data of the calling side in all the calls via the network 41 in a certain period of time.
  • the selection unit 130C analyzes the call voice data stored in the voice storage unit 190C by voice analysis and generates a sentence representing the voice.
  • the selection unit 130C extracts the call voice data in which the keyword appears in the generated sentence.
  • the voice storage unit 190C selects a mobile communication terminal of user identification information corresponding to the extracted call voice data.
  • the voice storage unit 190C may select a mobile communication terminal having a large number of selected call voice data.
  • the information processing system 100C includes a voice storage unit 190C for storing the call voice data of the calling user, and whether or not the discrimination unit 140C performs the discrimination after the start of the call. Is provided with a selection unit 130C that selects the call voice data stored in the voice storage unit 190C based on the call voice data and the preset data. As a result, the information processing system 100C can prevent unauthorized use by discriminating the communication terminal having a higher possibility of unauthorized use by the determination unit 140C.
  • the configuration is composed of the mobile communication terminals 24A and 24B, but a fixed telephone having a telephone function and an IoT device may be used instead of the mobile communication terminal.
  • the selection unit 130A-130C may be selected so that the discrimination unit 140A-140C discriminates in the case of a call from a telephone number set by the user.
  • FIG. 10 is a schematic block diagram showing a basic configuration of the information processing system 100 according to the present invention.
  • the information processing system 100 according to the basic configuration includes a storage unit 110, an acquisition unit 120, and a discrimination unit 140.
  • the information processing system 100 acquires, for each user identification information, a storage unit 110 that stores data related to voice, and data related to the user identification information on the calling side and the voice of the user on the calling side after the call is started.
  • the acquisition unit 120 is provided. Further, in the information processing system 100, regarding the user identification information acquired by the acquisition unit 120 during a call, the data related to the voice of the calling user and the data related to the voice stored in the storage unit 110 are the same person.
  • the discriminating unit 140 is provided for discriminating whether or not the information is based on the voice of. As a result, the information processing system 100 can easily detect unauthorized use by the business operator.
  • FIG. 11 is a schematic block diagram showing the configuration of a computer according to at least one embodiment.
  • the computer 1100 includes a processor 1110, a main memory 1120, a storage 1130, and an interface 1140.
  • the information processing system 100, the agency storage device 23, and the agency processing device 25 described above are mounted on the computer 1100.
  • the operation of each processing unit described above is stored in the storage 1130 in the form of a program.
  • the processor 1110 reads a program from the storage 1130, expands it into the main memory 1120, and executes the above processing according to the program. Further, the processor 1110 secures a storage area corresponding to each of the above-mentioned storage units in the main memory 1120 according to the program.
  • the program may be for realizing a part of the functions exerted on the computer 1100.
  • the program may exert its function in combination with another program already stored in the storage 1130, or in combination with another program mounted on another device.
  • the computer 1100 may be provided with a custom LSI (Large Scale Integrated Circuit) such as a PLD (Programmable Logic Device) in addition to or in place of the above configuration.
  • PLDs include PAL (Programmable Array Logic), GAL (Generic Array Logic), CPLD (Complex Programmable Logic Device), and FPGA (Field Programmable Gate Array).
  • PLDs Programmable Logic Device
  • PAL Programmable Array Logic
  • GAL Generic Array Logic
  • CPLD Complex Programmable Logic Device
  • FPGA Field Programmable Gate Array
  • Examples of the storage 1130 include magnetic disks, magneto-optical disks, semiconductor memories, and the like.
  • the storage 1130 may be internal media directly connected to the bus of computer 1100, or external media connected to the computer via interface 1140 or a communication line.
  • this program is distributed to the computer 1100 via a communication line, the distributed computer 1100 may expand the program in the main memory 1120 and execute the above processing.
  • storage 1130 is a non-temporary tangible storage medium.
  • the program may be for realizing a part of the above-mentioned functions. Further, the program may be a so-called difference file (difference program) that realizes the above-mentioned function in combination with another program already stored in the storage 1130.
  • difference file difference program

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)

Abstract

情報処理システムにおいて、記憶部は、通話の発信又は受信においてユーザを識別するユーザ識別情報毎に、当該ユーザの音声に係るデータを記憶する。取得部は、通話開始後に、発信側の前記ユーザ識別情報と前記発信側のユーザの音声に係るデータを取得する。判別部は、通話中に、前記取得部が取得した前記ユーザ識別情報について、前記発信側のユーザの音声に係るデータと、前記記憶部が記憶している音声に係るデータが同一人の音声によるものか否かの判別を行う。

Description

通信端末、情報処理装置、情報処理システム、情報処理方法およびプログラム
 本発明は、通信端末、情報処理装置、情報処理システム、情報処理方法およびプログラムに関する。
 音声認証に関する技術として、例えば特許文献1および2には以下の技術が開示されている。
 特許文献1は、音声パラメータの値があらかじめ定められた許容差の範囲内で一致したとき、発呼のため音声を発した使用者が正規の使用者であると判定して認証する技術を開示している。この技術により、使用者の体調が悪くなっても音声の音質の変化に対応した使用者認証動作を行うことができる。
 特許文献2は、ローカルエリア無線通信回線を介してローカル端末と通信するローカルエリア無線通信手段を備え、ローカル端末において音声認証が必要な場合は音声認証サーバによる認証処理を行うシステムを開示している。この技術により、よりユーザビリティの高いモバイル・コンピューティング環境を提供することができる。
特開2003-066985号公報 特開2001-268646号公報
 ところで、通信端末等を用いた音声通話においては、第三者が通信端末の本来の所有者(加入契約者)に成りすます不正使用によって、金銭の振り込みを要求する等の犯罪が発生する場合がある。しかしながら、加入契約者の本人確認は、通信端末の加入契約時のみに、運転免許証や保険証を用いて行われるのに留まっており、それ以降には行われないのが一般的である。
 したがって、通信端末を用いた音声通話において、通話を行っている発信者が受信者が想定する本人であるか否かを確認できることが求められている。
 本発明の目的は、上述した課題を解決する通信端末、情報処理装置、情報処理システム、情報処理方法およびプログラムを提供することにある。
 本発明の一態様によれば、情報処理システムは、ユーザを識別するユーザ識別情報に関連付けて前記ユーザの音声に係るデータを記憶する記憶手段と、通話の開始後に発信側の前記ユーザ識別情報と前記発信側のユーザの音声に係るデータとを取得する取得手段と、前記通話中に、前記取得手段が取得した前記発信側のユーザの音声に係るデータと、前記取得手段が取得した前記ユーザ識別情報に関連付けて前記記憶手段に記憶された音声に係るデータとが同一人の音声によるものか否かの判別を行う判別手段とを備える。
 本発明の一態様によれば、情報処理方法は、ユーザを識別するユーザ識別情報に関連付けて前記ユーザの音声に係るデータを記憶し、通話の開始後に発信側の前記ユーザ識別情報と前記発信側のユーザの音声に係るデータとを取得し、前記通話中に、前記取得するステップで取得された前記発信側のユーザの音声に係るデータと、前記取得するステップで取得された前記ユーザ識別情報に関連付けて前記記憶するステップで記憶された音声に係るデータとが同一人の音声によるものか否かの判別を行う。
 本発明の一態様によれば、プログラムは、コンピュータを、ユーザを識別するユーザ識別情報に関連付けて前記ユーザの音声に係るデータを記憶する記憶手段、通話の開始後に発信側の前記ユーザ識別情報と前記発信側のユーザの音声に係るデータとを取得する取得手段、前記通話中に、前記取得手段が取得した前記発信側のユーザの音声に係るデータと、前記取得手段が取得した前記ユーザ識別情報に関連付けて前記記憶手段が記憶している音声に係るデータとが同一人の音声によるものか否かの判別を行う判別手段として機能させる。
 本発明の一態様によれば、情報処理装置は、通話の開始後に、発信側のユーザを識別するユーザ識別情報と前記発信側のユーザの音声に係るデータとを取得する取得手段と、前記通話中に、前記発信側のユーザの音声に係るデータと、前記取得手段が取得した前記ユーザ識別情報に対応して前記ユーザの音声に係るデータを記憶する記憶手段から読み出した音声に係るデータとが同一人によるものか否かの判別を行う判別手段とを備える。
 本発明の一態様によれば、通信端末は、発信側からの通話を受ける受信側の通信端末であって、前記通話中に、前記発信側のユーザの音声に係るデータと予め記憶された前記発話側の前記ユーザの音声に係るデータとが同一人の音声によるものか否かの判別の結果を受信した場合に前記判別の結果を出力する出力手段を備える。
 上記態様のうち少なくとも1つの態様によれば、通信端末による不正利用を防止できる。
一実施形態に係る画面フローの一例を示す図である。 一実施形態に係る画面フローの一例を示す図である。 一実施形態に係る不正利用防止システムの構成を示す図である。 一実施形態に係る不正利用防止システムの代理店記憶装置が記憶するデータの一例を示す表である。 一実施形態に係る情報処理システムの構成を示すブロック図である。 一実施形態に係る情報処理システムの取得部が取得するデータの一例を示す表である。 一実施形態に係る情報処理システムの動作を示すフローチャートである。 一実施形態に係る情報処理システムの算出部の動作を示すフローチャートである。 一実施形態に係る情報処理システムの構成を示すブロック図である。 本発明の基本構成を示すブロック図である。 少なくとも1つの実施形態に係るコンピュータの構成を示すブロック図である。
 〈第1の実施形態〉
 以下、図面を参照して本発明の第1実施形態について詳しく説明する。
 《画面フロー》
 図1は、第1の実施形態に係る着信側の移動体通信端末24Aの画面フローの一例を表す概略図である。
 図1は、着信者(図3のユーザ21)の移動体通信端末24Aが表示する画面フローを示す。この画面フローは、不正利用防止システム10が備える情報処理システム100Aにより、移動体通信端末24Aのディスプレイに表示される。
 発信者(図3のユーザ60)が発信側の移動体通信端末24Bを用いて、ユーザ21の移動体通信端末24Aに電話を掛けると、ユーザ21の移動体通信端末24Aに画面G11が表示される。ユーザ21が通話に出ると、画面G12が表示される。
 不正利用防止システム10の情報処理システム100Aによって、ユーザ60の不正利用が検出されることにより画面G13が表示され、不正利用の音声メッセージG14が流れる。不正利用とは、移動体通信端末の加入者契約を行った契約者(本来の所有者)でない者による当該移動体通信端末の利用(「成りすまし」とも称する)をいう。
 このように、着信側の移動体通信端末24Aは、情報処理システム100Aによって、通話中に、成りすましが検出された場合に、その検出結果を表示する。
 これにより、受信者は、通話時にも、発信者が受信側の想定する本人(発信側の移動体通信端末24Bの加入者契約者)であるかを確認できる。したがって、成りすましを防止できる。
 図2は、第1の実施形態に係る発信側の移動体通信端末24Bの画面フローの一例を表す概略図である。
 図2は、図3のユーザ60の移動体通信端末24Bが表示する画面フローである。この画面フローは、不正利用防止システム10が備える情報処理システム100により、移動体通信端末24Bのディスプレイに表示される。
 図3のユーザ60が移動体通信端末24Bを用いて、ユーザ21の移動体通信端末24Aに電話を掛けると、ユーザ60の移動体通信端末24Bに画面G15が表示される。ユーザ21が通話に出ると、画面G16が表示される。
 不正利用防止システム10の情報処理システム100によって、ユーザ60の不正利用が検出されることにより画面G17が表示され、不正利用の音声メッセージG18が流れる。
 《不正利用防止システムの構成》
 図3は、第1の実施形態に係る不正利用防止システム10の構成を示す図である。不正利用防止システム10は、通信会社Aの代理店20に備えられたマイク22Aと、代理店記憶装置23Aと、代理店処理装置25Aとを有する。また、不正利用防止システム10は、通信会社Bの代理店30に備えられたマイク22Bと、代理店記憶装置23Bと、代理店処理装置25Bとを有する。さらに、不正利用防止システム10は、ユーザ21が使用する通信会社Aの移動体通信端末24Aと、ユーザ60が使用する通信会社Bの移動体通信端末24Bとを含む。さらに、不正利用防止システム10は、通信会社Aのネットワーク41およびネットワーク41に接続された情報処理システム100A、ならびに通信会社Bのネットワーク51およびネットワーク51に接続された情報処理システム100Bを備える。
 マイク22Aおよび22Bは、人の音声を受け取る機器である。
 代理店記憶装置23Aおよび23Bは、代理店にて移動体通信端末の加入者契約を行うするユーザのユーザ識別情報と声紋とを記憶する装置であり、例えば、ハードディスクが挙げられる。ユーザ識別情報とは、電話の発信又は受信の時にユーザを識別する情報であり、例えば、ユーザが加入者契約を行ったキャリア種別、電話番号や、ユーザの固有番号が挙げられる。キャリア種別とは、ユーザが加入者契約を行った通信会社をいう。
 図4は、代理店記憶装置23Aおよび23Bが記憶するデータの一例を示す表である。図4に示すように、代理店記憶装置23Aおよび23Bは、加入契約者毎に、契約者が契約した電話番号、契約者が契約したキャリア、契約者の音声データを記憶する。図4の3列目の契約者の音声データの欄には、音声データが記憶される。
 移動体通信端末24Aおよび24Bは、それらの片方または両方が移動することのできる通信端末である。当該移動体通信端末は、通信端末の一例である。移動体通信端末24Aおよび24Bの例としては、スマートフォンやタブレット、電話機能の付いたタブレット、電話機能を有するIoT(Internet of Things)機器が挙げられる。
 代理店処理装置25Aおよび25Bは、ユーザ識別情報とマイク22Aおよび22Bからの音声データとを受け入れ、代理店記憶装置23Aおよび23Bに記憶させる。
 ユーザ21は、通信会社Aの代理店20を訪れ、通信会社Aの移動体通信端末24Aの加入者契約を行う。この契約の時、代理店20は、マイク22Aを使って、ユーザ21の音声を収音して音声(声紋)データとして受け取る。この後、代理店20は、代理店処理装置25Aを用いて、ユーザ21が契約した移動体通信端末24Aのキャリア種別と電話番号とをユーザ21のユーザ識別情報として設定する。代理店処理装置25Aは、ユーザ21から受け取った音声(声紋)データをこのユーザ21のユーザ識別情報と関連付けて、代理店記憶装置23Aに記憶させる。
 他方、ユーザ31は、通信会社Bの代理店30を訪れ、通信会社Bの移動体通信端末24Bの加入者契約を行う。この契約の時、代理店30は、マイク22Bを使って、ユーザ31の音声を収音して音声(声紋)データとして受け取る。この後、代理店30は、代理店処理装置25Bを用いて、ユーザ31が契約した移動体通信端末24Bのキャリア種別と電話番号とをユーザ31のユーザ識別情報として設定する。代理店処理装置25Bは、ユーザ31から受け取った音声(声紋)データをこのユーザ31のユーザ識別情報と関連付けて、代理店記憶装置23に記憶させる。
 《情報処理システムの構成》
 図5は、情報処理システム100Aおよび100Bの構成を示す概略ブロック図である。情報処理システム100Aおよび100Bは、各々、記憶部110Aおよび110Bと、取得部120Aおよび120Bと、選択部130Aおよび130Bと、判別部140Aおよび140Bと、出力部150Aおよび150Bと、機能制限部160Aおよび160Bと、異常情報記憶部170Aおよび170Bと、算出部180Aおよび180Bとを備える。
 記憶部110Aおよび110Bは、ユーザ識別情報毎に、ユーザの声紋データ(「音声に係るデータ」の一例)を記憶する。例えば、図3のネットワーク41の情報処理システム100Aの記憶部110Aは、代理店20に備えられた代理店記憶装置23Aが記憶するユーザ識別情報と、これらのユーザ識別情報毎の声紋データをユーザ識別情報に関連付けて記憶する。図3のネットワーク51の情報処理システム100Bの記憶部110Bは、代理店30に備えられた代理店記憶装置23Bが記憶するユーザ識別情報と、これらのユーザ識別情報毎の声紋データをユーザ識別情報に関連付けて記憶する。
 声紋データとは、例えば、声紋を表すデータであり、発声者の声の特徴量を表すデータである。ただし声紋データはこれに限らず、声紋以外の音声データ、音声と画像を組み合わせたデータであってもよい。
 取得部120Aおよび120Bは、通話開始後に発信側の通信端末のユーザ識別情報と、発信者の音声に係るデータを取得する。
 図6は、取得部120Aおよび120Bが取得するデータの一例を示す図である。
 例えば、図3のネットワーク41の情報処理システム100Aの取得部120Aは、ユーザ60とユーザ21との通話開始後に、発信側である移動体通信端末24Bのユーザ識別情報である移動体通信端末24Bのキャリア種別および電話番号と、ユーザ60の通話音声データ(「音声に係るデータ」の一例)を取得する。通話音声データとは、通話時の音声を表すデータである。
 また、図3のネットワーク51の情報処理システム100Bの取得部120Bは、ユーザ60とユーザ21との通話開始後に、発信側である移動体通信端末24Bのユーザ識別情報である移動体通信端末24Bのキャリア種別および電話番号と、このユーザ識別情報に対応して記憶部110Bに記録されたユーザ60の音声に係る声紋データを取得する。
 選択部130Aは、通話開始後に、判別部140Aが判別を行うか否かを選択する。判別とは、通話の発信側のユーザ60の通話音声データと、発信側の通信端末24Bのユーザ識別情報に関連付けて記憶部110Bが記憶している声紋データとが、同一人の音声によるものか否かを判断することをいう。
 例えば、図3のネットワーク41の情報処理システム100Aの選択部130A、ネットワーク51の情報処理システム100Bの選択部130Bは、無作為に、判別部140Aおよび140Bが判別を行うか否かを選択する。選択部130Aおよび130Bが、判別を行うことを選択した場合は、判別部140Aおよび140Bは判別を行う。他方、選択部130Aおよび130Bが、判別を行わないことを選択した場合は、判別部140Aおよび140Bは、判別を行わない。
 判別部140Aおよび140Bは、選択部130Aおよび130Bが判別を行うことを選択した場合、通話中に、取得部120Aおよび120Bが取得したユーザ識別情報について、通話の発信側のユーザの通話音声データと、通話の発信側に係るユーザ識別情報に関連付けて記憶部110が記憶している声紋データとが、同一人の音声によるものか否かを判別する。
 例えば、図3の例において、選択部130Aが判別を行うことを選択した場合、判別部140Aは、取得部120Aが取得したユーザ60の音声データを照合の対象の一方として用いる。また、判別部140Aは、取得部120Bが取得した移動体通信端末24Bのユーザ識別情報に関連付けて記憶部110Bが記憶しているユーザ31の音声(声紋)データを照合の対象の他方として用いる。
 すなわち、この照合においては、ユーザ60の通話音声データと、ユーザ31の声紋データとを照合する。この照合には、公知の音声照合方法が用いられる。
 上記の照合の後、例えば、図3に示された例においては、判別部140Aは、ユーザ31の声紋と、ユーザ60の通話音声データから抽出した声紋とを比較する。これにより、判別部140Aは、ユーザ31の声紋データとユーザ60の通話音声データが同一人の音声によるものであるか否かを判別する。図3に示された例では、ユーザ31の声紋とユーザ60の通話音声データから抽出した声紋とは一致しないため、判別部140Aは、ユーザ31とユーザ60とは同一人ではないと判別する。つまり、判別部140Aは、ユーザ60が通信端末24Bを不正に利用していると判別する。
 なお、情報処理システム100Aの判別部140Aは、選択部130Aが判別を行わないことを選択した場合は、上記の判別を行わない。
 一方ネットワーク51の情報処理システム100Bの判別部140Bは、取得部120Bが取得した移動体通信端末24Bに係るキャリア種別および電話番号と、ユーザ60の通話音声データを取得する。
 その後、判別部140Bは、ユーザ60の通話音声データと、記憶部110Bが記憶している移動体通信端末24Bのユーザ識別情報(キャリア種別および電話番号)に対応する声紋データとを照合する。この照合の結果、図3の例では、判別部140Bは、ユーザ31とユーザ60とが同一人であるか否かを判別する。
 他方、情報処理システム100Bの判別部140Bは、選択部130Bが判別を行わないことを選択した場合は、上記の判別を行わない。
 出力部150Aおよび150Bは、各々、判別部140Aおよび140Bの判別の結果を出力する。例えば、ネットワーク41の情報処理システム100Aの出力部150A、ネットワーク51の情報処理システム100Bの出力部150Bは、判別部140Aおよび140Bの判別により、ユーザ31とユーザ60とが同一人ではないと判別されたため、当該判別の結果を出力する。
 ここで、出力部150Aは、判別の結果を受信側の移動体通信端末24Aに通知し、受信側の移動体通信端末24Aの出力部に出力させる。移動体通信端末24Aの出力部とは、例えば、ディスプレイ、振動を発生させるバイブレーター、音声を発生させるスピーカーである。なお、出力部150Aおよび150Bは、キャリア種別毎に、判定の結果を出力してもよく、この場合、キャリア種別の通信会社に対して、判定の結果を送信してもよい。
 機能制限部160Aおよび160Bは、各々、判別部140Aおよび140Bの判別の結果が、発信側のユーザの通話音声データと、記憶部110Aまたは110Bが記憶している声紋データとが同一人の音声によるものではないという結果の場合、発信側に係る機器の機能を制限する。
 これらの機器として、例えば、判別に係る発信側の通信端末である移動体通信端末や固定電話が挙げられる。制限される機能として、例えば、着信機能、発信機能が挙げられる。機能制限のタイミングとしては、例えば、上記判別の直後、上記判別に係る通話終了の直後が挙げられる。
 例えば、図3に示された例において、情報処理システム100Bの機能制限部160Bは、判別部140Bにより、移動体通信端末24Bの加入契約者であるユーザ31とユーザ60とが同一人ではないと判別される。このため、機能制限部160Bは、この判別に係る通話の直後に、移動体通信端末24Bの発信機能を制限する。
 異常情報記憶部170Aおよび170Bは、各々、判別部140Aおよび140Bの判別の結果が発信側のユーザの通話音声データと、記憶部110Aまたは110Bが記憶している声紋データとが同一人の音声によるものではないという判別である場合、発信側に係る通話音声データを記憶する。
 例えば、図3に示された例において、情報処理システム100Bの異常情報記憶部170Bは、判別部140Bが、ユーザ31と、ユーザ60とが同一人でないと判別した直後から、発信側であるユーザ60の通話音声データを記憶する。
 算出部180Aおよび180Bは、各々、一定期間の判別部140Aおよび140Bの判別の回数に応じて、ユーザに請求する金銭の額を算出する。
 例えば、図3に示された例において、情報処理システム100Aの判別部140Aは、ユーザ21の移動体通信端末24Aに対して一定期間の間に判別を10回行って、判別1回あたりの請求の金銭の額が10円である場合、ユーザ21に対して請求する金銭の額として100円を算出する。
 算出部180Aおよび180Bが請求する金銭の額は、判別の回数だけでなく、判別の結果にも応じて算出してもよい。例えば、一定期間の間に判別が10回あり、10回のうち、判別部140Aおよび140Bが不正利用であるとの判別を1回行った場合、判別1回あたりの請求の金銭の額を10円とし、不正利用の判別1回あたりの請求の金銭の額を1000円とすることができる。この場合は、算出部180は、ユーザに請求する金銭の額として、1100円を算出する。
 算出部180Aおよび180Bは、キャリア種別の通信会社毎、又は、複数の通信会社からなる団体等毎に、これらの通信会社又は団体等へ請求する金銭の額を算出してもよい。この場合、算出部180Aおよび180Bは、キャリア種別毎、又は、団体等に属する複数の通信会社のキャリア種別毎に、金銭の額を合算する。
 図3に示された例において、ユーザ60は、ユーザ31が加入者契約した移動体通信端末24Bを不正利用して、ユーザ21と通話している。
 ユーザ60が不正利用する移動体通信端末24Bは、通信会社Bの通信端末であるため、通信会社Bのネットワーク51を利用し、通信会社Aのネットワーク41と繋がる。すなわち、ユーザ60が不正利用する移動体通信端末24Bは、ネットワーク41を通じて、ユーザ21の移動体通信端末24Aと繋がる。
 《情報処理システムの動作》
 以下、情報処理システム100Aおよび110Bの動作を図7を参照して説明する。
 図7は、第1実施形態に係る情報処理システム100Aおよび110Bの動作を示すフローチャートである。情報処理システム100Aおよび110Bは、1通話毎に、図7に示す動作を行う。
 ステップS1において、選択部130Aおよび130Bは、通話開始後に、判別部140Aおよび140Bが判別を行うか否かを、例えば無作為に選択する。
 選択部130Aおよび130Bが、判別を行わないことを選択した場合(ステップS1:NO)、当該通話における情報処理システム100Aおよび100Bの動作は終了する。
 他方、選択部130Aおよび130Bが、判別を行うことを選択した場合(ステップS1:YES)、取得部120Aおよび120Bは、発信側のユーザ識別情報と通話音声データとを取得する(ステップS2)。
 判別部140Aおよび140Bは、ステップS2において取得部120Aおよび120Bが取得したデータに基づいて、発信側の通話音声データと、記憶部110Aおよび110Bが記憶している声紋データの照合を行う(ステップS3)。
 ステップS3において、判別部140Aおよび140Bの判別の結果が、ステップS3における照合に係るユーザが同一人であるとの結果である場合は(ステップS4:YES)、当該通話における情報処理システム100Aおよび100Bの動作は終了する。
 一方で、ステップS3において、判別部140Aおよび140Bの判別の結果が、ステップS3における照合に係るユーザが同一人でないとの結果である場合は(ステップS4:NO)、出力部150Aおよび150Bは、ステップS3における判別の結果を出力する(ステップS5)。
 異常情報記憶部170Aおよび170Bは、発信側に係る通話音声データを記憶する(ステップS6)。
 機能制限部160Aおよび160Bは、発信側に係る機器の機能を制限する(ステップS7)。
 図8は、第1実施形態に係る情報処理システム100Aおよび100Bの算出部180Aおよび180Bの動作を示すフローチャートである。算出部180Aおよび180Bは、予め設定された期間毎に、図8に係る動作をする。
 ステップS9において、算出部180Aおよび180Bは、予め設定された期間の間に、判別部140Aおよび140Bによる判別の回数を取得する。
 算出部180Aおよび180Bは、ステップS9で取得した判別の回数に1回あたりの金額を乗算する(ステップS10)。
 ステップS11において、算出部180Aおよび180Bは、予め設定された期間の間に、判別部140Aおよび140Bが不正利用と判別した回数を取得する。
 算出部180Aおよび180Bは、ステップS11で取得した回数に1回あたりの金額を乗算する(ステップS12)。
 算出部180Aおよび180Bは、ステップS10とステップS12を加算し、金額を算出する(ステップS13)。
 《作用・効果》
 このように、第1実施形態によれば、情報処理システム100Aおよび100Bは、ユーザ識別情報毎に、声紋データを記憶する記憶部110Aおよび110Bと、電話開始後に発信側の前記ユーザ識別情報と発信側のユーザの通話音声データを取得する取得部120Aおよび120Bとを備える。また、情報処理システム100Aおよび100Bは、通話中に、取得部120Aおよび120Bが取得したユーザ識別情報について、発信側のユーザの通話音声データと、記憶部110Aまたは110Bが記憶している声紋データとが同一人の音声によるものか否かの判別を行う判別部140Aおよび140Bを備える。これにより、情報処理システム100Aおよび100Bは、事業者による、不正利用の検出が容易となる。
 第1実施形態によれば、情報処理システム100Aおよび100Bは、通話開始後に、判別部140Aおよび140Bが判別を行うか否かを例えば無作為で選択する選択部130Aおよび130Bを備える。また、情報処理システム100Aおよび100Bの判別部140Aおよび140Bは、選択部130Aおよび130Bが判別を行うと選択した場合に判別を行う。これにより、情報処理システム100Aおよび100Bは、判別により不正利用を抑止しつつ、毎回判別を行うことによるシステム上の負担を減らすことができる。
 第1実施形態によれば、情報処理システム100Aおよび100Bは、判別部140Aおよび140Bの判別の結果を出力する出力部150Aおよび150Bを備える。これにより、情報処理システム100Aおよび100Bは、ユーザに通信端末の不正利用の情報を提供することができ、当該不正利用を抑止し、当該不正利用による被害を減らすことができる。
 第1実施形態によれば、情報処理システム100Aおよび100Bは、判別部140Aおよび140Bの判別の結果が、発信側のユーザの声紋データと、記憶部110Aまたは110Bが記憶している声紋データとが同一人の音声によるものでないとの判別である場合、発信側に係る機器の機能を制限する機能制限部160Aおよび160Bを備える。これにより、情報処理システム100Aおよび100Bは、不正利用に係る通信端末の利用を制限することができ、当該制限以降における不正利用を防止できる。
 第1実施形態によれば、情報処理システム100Aおよび100Bは、判別部140Aおよび140Bの判別の結果が、発信側のユーザの通話音声データと、記憶部110Aまたは110Bが記憶している声紋データとが同一人の音声によるものでないとの判別である場合、発信側に係る通話音声データを記憶する異常情報記憶部170Aおよび170Bを備える。これにより、情報処理システム100Aおよび100Bは、通信端末の不正利用に係る異常情報を記憶することができ、国家機関等に不正利用に係る証拠を提供するため、不正利用を抑制できる。
 〈第2の実施形態〉
 《情報処理システムの構成》
 以下、図面を参照しながら第2の実施形態に係る情報処理システム100Cを説明する。
 図9は、第2の実施形態に係る情報処理システム100Cの構成を示す概略ブロック図である。第2の実施形態に係る情報処理システム100Cの構成は、第1の実施形態に係る情報処理システム100Aおよび100Bの構成に、音声記憶部190Cを加えた構成である。第2の実施形態に係る情報処理システム100Cは、音声記憶部190Cを備えることにより、より不正利用の可能性の高い通信端末について判別部140Cによる判別を行い、不正利用を防止できる。
 音声記憶部190Cは、発信側の通話音声データを記憶する。例えば、音声記憶部190は、図3におけるユーザ21とユーザ60との通話だけでなく、一定期間におけるネットワーク41を介する全ての通話における発信側の通話音声データを記憶する。
 選択部130Cは、通話開始後に、判別部140Cが判別を行うか否かを、音声記憶部190Cが記憶している通話音声データと、予め設定されたデータとに基づいて選択する。
 例えば、音声記憶部190Cは、一定期間におけるネットワーク41を介する全ての通話における発信側の通話音声データを記憶する。
 選択部130Cは、音声記憶部190Cが記憶している通話音声データを音声解析し、音声を表す文章を生成する。選択部130Cは、予め「振り込み」、「振り込む」のキーワードを設定されている場合、生成した文章中に、当該キーワードが出現する通話音声データを抽出する。音声記憶部190Cは、抽出した通話音声データに対応するユーザ識別情報の移動体通信端末を選択する。ここで、音声記憶部190Cは、選択した通話音声データが数の高い移動体通信端末を選択してもよい。
 《作用・効果》
 このように、第2実施形態によれば、情報処理システム100Cは、発信側のユーザの通話音声データを記憶する音声記憶部190Cを備え、電話開始後に、判別部140Cが判別を行うか否かを、音声記憶部190Cが記憶している通話音声データと、予め設定されたデータとに基づいて選択する選択部130Cを備える。これにより、情報処理システム100Cは、より不正利用の可能性の高い通信端末について判別部140Cによる判別を行い、不正利用を防止できる。
 〈他の実施形態〉
 以上、図面を参照して一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、様々な設計変更等をすることが可能である。
 例えば、上記の実施形態の例では、移動体通信端末24Aおよび24Bによる構成であったが、移動体通信端末に替えて電話機能を有する固定電話、IoT機器による構成でも良い。また、選択部130A-130Cは、ユーザが設定した電話番号からの電話の場合に、判別部140A-140Cが判別を行うという選択にしても良い。
 《基本構成》
 図10は、本発明による情報処理システム100の基本構成を示す概略ブロック図である。
 基本構成に係る情報処理システム100は、記憶部110と、取得部120と、判別部140とを備える。
 基本構成に係る情報処理システム100は、ユーザ識別情報毎に、音声に係るデータを記憶する記憶部110と、電話開始後に発信側の前記ユーザ識別情報と発信側のユーザの音声に係るデータを取得する取得部120とを備える。また、情報処理システム100は、通話中に、取得部120が取得したユーザ識別情報について、発信側のユーザの音声に係るデータと、記憶部110が記憶している音声に係るデータとが同一人の音声によるものか否かの判別を行う判別部140を備える。これにより、情報処理システム100は、事業者による、不正利用の検出が容易となる。
 図11は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
 コンピュータ1100は、プロセッサ1110、メインメモリ1120、ストレージ1130、インタフェース1140を備える。
 上述の情報処理システム100と、代理店記憶装置23と、代理店処理装置25は、コンピュータ1100に実装される。そして、上述した各処理部の動作は、プログラムの形式でストレージ1130に記憶されている。プロセッサ1110は、プログラムをストレージ1130から読み出してメインメモリ1120に展開し、当該プログラムに従って上記処理を実行する。また、プロセッサ1110は、プログラムに従って、上述した各記憶部に対応する記憶領域をメインメモリ1120に確保する。
 プログラムは、コンピュータ1100に発揮させる機能の一部を実現するためのものであってもよい。例えば、プログラムは、ストレージ1130に既に記憶されている他のプログラムとの組み合わせ、または他の装置に実装された他のプログラムとの組み合わせによって機能を発揮させるものであってもよい。なお、他の実施形態においては、コンピュータ1100は、上記構成に加えて、または上記構成に代えてPLD(Programmable Logic Device)などのカスタムLSI(Large Scale Integrated Circuit)を備えてもよい。PLDの例としては、PAL(Programmable Array Logic)、GAL(Generic Array Logic)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)が挙げられる。この場合、プロセッサ1110によって実現される機能の一部または全部が当該集積回路によって実現されてよい。
 ストレージ1130の例としては、磁気ディスク、光磁気ディスク、半導体メモリ等が挙げられる。ストレージ1130は、コンピュータ1100のバスに直接接続された内部メディアであってもよいし、インタフェース1140または通信回線を介してコンピュータに接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ1100に配信される場合、配信を受けたコンピュータ1100が当該プログラムをメインメモリ1120に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、ストレージ1130は、一時的でない有形の記憶媒体である。
 また、当該プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、当該プログラムは、前述した機能をストレージ1130に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であってもよい。
 本願は、2019年6月10日に、日本に出願された特願2019-107903号に基づき優先権を主張し、その内容をここに援用する。
 10 不正利用防止システム
 20 代理店
 21 ユーザ
 22 マイク
 23 代理店記憶装置
 24 移動体通信端末
 25 代理店処理装置
 30 代理店
 31 ユーザ
 41 ネットワーク
 51 ネットワーク
 60 ユーザ
 100 情報処理システム
 110 記憶部
 120 取得部
 130 選択部
 140 判別部
 150 出力部
 160 機能制限部
 170 異常情報記憶部
 180 算出部
 190 音声記憶部
 1100 コンピュータ
 1110 プロセッサ
 1120 メインメモリ
 1130 ストレージ
 1140 インタフェース

Claims (10)

  1.  ユーザを識別するユーザ識別情報に関連付けて、前記ユーザの音声に係るデータを記憶する記憶手段と、
     通話の開始後に、発信側の前記ユーザ識別情報と前記発信側のユーザの音声に係るデータとを取得する取得手段と、
     前記通話中に、前記取得手段が取得した前記発信側のユーザの音声に係るデータと、前記取得手段が取得した前記ユーザ識別情報に関連付けて前記記憶手段に記憶された音声に係るデータとが同一人の音声によるものか否かの判別を行う判別手段と、
     を備える情報処理システム。
  2.  前記判別を行うか否かを無作為に選択する選択手段を備え、
     前記判別手段は、前記選択手段が判別を行うと選択した場合、前記判別を行う請求項1に記載の情報処理システム。
  3.  前記発信側のユーザの音声に係るデータを記憶する音声記憶手段と、
     通話開始後に、前記判別を行うか否かを、前記音声記憶手段が記憶している音声に係るデータと、予め設定されたデータとに基づいて、選択する選択手段と
    を備える請求項1に記載の情報処理システム。
  4.  前記判別の結果を、受信側の通信端末に出力させる出力手段を備える請求項1から請求項3の何れか1項に記載の情報処理システム。
  5.  前記判別の結果が前記発信側のユーザの音声に係るデータと、前記記憶手段が記憶している音声に係るデータとが同一人の音声によるものでない場合、前記発信側の通信端末の通信機能を制限する機能制限手段を備える請求項1から請求項4の何れか1項に記載の情報処理システム。
  6.  前記判別の結果が前記発信側のユーザの音声に係るデータと、前記記憶手段が記憶している音声に係るデータとが同一人の音声によるものでない場合、前記発信側のユーザの音声に係るデータを記憶する異常情報記憶手段を備える請求項1から請求項5の何れか1項に記載の情報処理システム。
  7.  ユーザを識別するユーザ識別情報に関連付けて前記ユーザの音声に係るデータを記憶し、
     通話の開始後に発信側の前記ユーザ識別情報と前記発信側のユーザの音声に係るデータとを取得し、
     前記通話中に、前記取得するステップで取得された前記発信側のユーザの音声に係るデータと、前記取得するステップで取得された前記ユーザ識別情報に関連付けて前記記憶するステップで記憶された音声に係るデータとが同一人の音声によるものか否かの判別を行う、
     情報処理方法。
  8.  コンピュータを、
     ユーザを識別するユーザ識別情報に関連付けて前記ユーザの音声に係るデータを記憶する記憶手段、
     通話の開始後に発信側の前記ユーザ識別情報と前記発信側のユーザの音声に係るデータとを取得する取得手段、
     前記通話中に、前記取得手段が取得した前記発信側のユーザの音声に係るデータと、前記取得手段が取得した前記ユーザ識別情報に関連付けて前記記憶手段が記憶している音声に係るデータとが同一人の音声によるものか否かの判別を行う判別手段、
     として機能させるためのプログラム。
  9.  通話の開始後に、発信側のユーザを識別するユーザ識別情報と、前記発信側のユーザの音声に係るデータとを取得する取得手段と、
     前記通話中に、前記発信側のユーザの音声に係るデータと、前記取得手段が取得した前記ユーザ識別情報に対応して前記ユーザの音声に係るデータを記憶する記憶手段から読み出した音声に係るデータとが同一人によるものか否かの判別を行う判別手段と、
     を備える情報処理装置。
  10.  発信側からの通話を受ける着信側の通信端末であって、
     前記通話中に、前記発信側のユーザの音声に係るデータと、予め記憶された前記発話側の前記ユーザの音声に係るデータとが同一人の音声によるものか否かの判別の結果を受信した場合に前記判別の結果を出力する、
     通信端末。
PCT/JP2020/019080 2019-06-10 2020-05-13 通信端末、情報処理装置、情報処理システム、情報処理方法およびプログラム WO2020250614A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP20823291.8A EP3982620A4 (en) 2019-06-10 2020-05-13 COMMUNICATION TERMINAL, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD AND PROGRAM
US17/616,734 US11765260B2 (en) 2019-06-10 2020-05-13 Communication terminal, information processing device, information processing system, information processing method, and program
JP2021525950A JP7334780B2 (ja) 2019-06-10 2020-05-13 通信端末、情報処理装置、情報処理システム、情報処理方法およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019107903 2019-06-10
JP2019-107903 2019-06-10

Publications (1)

Publication Number Publication Date
WO2020250614A1 true WO2020250614A1 (ja) 2020-12-17

Family

ID=73781783

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/019080 WO2020250614A1 (ja) 2019-06-10 2020-05-13 通信端末、情報処理装置、情報処理システム、情報処理方法およびプログラム

Country Status (4)

Country Link
US (1) US11765260B2 (ja)
EP (1) EP3982620A4 (ja)
JP (1) JP7334780B2 (ja)
WO (1) WO2020250614A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268646A (ja) 2000-03-22 2001-09-28 Animo:Kk 携帯無線通信機、ツール・サーバ、音声認証サーバ、及び無線通信システム
JP2002176490A (ja) * 2000-12-07 2002-06-21 Funai Electric Co Ltd 悪用対策モードを備えた携帯電話端末
JP2003066985A (ja) 2001-08-22 2003-03-05 Nec Corp 携帯型通信機器の使用者認証方式
JP2006259925A (ja) * 2005-03-15 2006-09-28 Omron Corp 被写体認証装置、携帯電話、被写体認証方法、及び被写体認証プログラム
JP2009049878A (ja) * 2007-08-22 2009-03-05 Nec Corp 携帯端末及びその利用制限方法
JP2016152471A (ja) * 2015-02-17 2016-08-22 日本電気株式会社 通信システム及び通信方法
US20180240028A1 (en) * 2017-02-17 2018-08-23 International Business Machines Corporation Conversation and context aware fraud and abuse prevention agent
JP2018170672A (ja) * 2017-03-30 2018-11-01 西日本電信電話株式会社 声紋認証装置、声紋認証方法、およびプログラム
JP2019107903A (ja) 2019-03-07 2019-07-04 ブラザー工業株式会社 液体吐出装置及び液体吐出装置ユニット

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7006605B1 (en) * 1996-06-28 2006-02-28 Ochopee Big Cypress Llc Authenticating a caller before providing the caller with access to one or more secured resources
US9300790B2 (en) * 2005-06-24 2016-03-29 Securus Technologies, Inc. Multi-party conversation analyzer and logger
JP2007201814A (ja) 2006-01-26 2007-08-09 Mitsubishi Electric Corp 通信端末
JP2007266944A (ja) 2006-03-28 2007-10-11 Nec Corp 電話端末装置および発信者検証方法
US20080159488A1 (en) 2006-12-27 2008-07-03 Chander Raja Voice based caller identification and screening
US8630860B1 (en) * 2011-03-03 2014-01-14 Nuance Communications, Inc. Speaker and call characteristic sensitive open voice search
US8918080B2 (en) * 2012-01-17 2014-12-23 Kajeet, Inc. Mobile device management
CA2845843A1 (en) * 2013-03-15 2014-09-15 Telmate, Llc Secure communication systems and methods
CN105119877B (zh) * 2015-06-30 2018-11-13 百度在线网络技术(北京)有限公司 语音验证方法、装置以及系统
US10291761B2 (en) * 2017-03-29 2019-05-14 Rubi Paul Dynamic and configurable response to incoming phone calls
JP6767924B2 (ja) * 2017-05-19 2020-10-14 東芝映像ソリューション株式会社 システム、方法及びプログラム
CN207895501U (zh) * 2018-01-29 2018-09-21 上海快视信息技术有限公司 用于监狱的自动点名装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268646A (ja) 2000-03-22 2001-09-28 Animo:Kk 携帯無線通信機、ツール・サーバ、音声認証サーバ、及び無線通信システム
JP2002176490A (ja) * 2000-12-07 2002-06-21 Funai Electric Co Ltd 悪用対策モードを備えた携帯電話端末
JP2003066985A (ja) 2001-08-22 2003-03-05 Nec Corp 携帯型通信機器の使用者認証方式
JP2006259925A (ja) * 2005-03-15 2006-09-28 Omron Corp 被写体認証装置、携帯電話、被写体認証方法、及び被写体認証プログラム
JP2009049878A (ja) * 2007-08-22 2009-03-05 Nec Corp 携帯端末及びその利用制限方法
JP2016152471A (ja) * 2015-02-17 2016-08-22 日本電気株式会社 通信システム及び通信方法
US20180240028A1 (en) * 2017-02-17 2018-08-23 International Business Machines Corporation Conversation and context aware fraud and abuse prevention agent
JP2018170672A (ja) * 2017-03-30 2018-11-01 西日本電信電話株式会社 声紋認証装置、声紋認証方法、およびプログラム
JP2019107903A (ja) 2019-03-07 2019-07-04 ブラザー工業株式会社 液体吐出装置及び液体吐出装置ユニット

Also Published As

Publication number Publication date
EP3982620A4 (en) 2022-08-17
US20220329681A1 (en) 2022-10-13
US11765260B2 (en) 2023-09-19
EP3982620A1 (en) 2022-04-13
JP7334780B2 (ja) 2023-08-29
JPWO2020250614A1 (ja) 2020-12-17

Similar Documents

Publication Publication Date Title
US11856132B2 (en) Validating automatic number identification data
JP5351787B2 (ja) 通信処理システム及びプログラム
US9553985B2 (en) Determining and denying call completion based on detection of robocall or unsolicited advertisement
US9832180B2 (en) Authentication system and method for operating an authentication system
KR101431596B1 (ko) 보이스피싱 방지장치, 사용자 단말장치 및 보이스피싱 방지방법
CN109769244B (zh) 异常电话卡的识别方法、装置、设备及可读存储介质
CN109688273B (zh) 一种提醒方法、装置、终端及存储介质
JP4437494B2 (ja) 携帯通信機器
CN104283851A (zh) 非法自动呼叫的屏蔽方法和系统以及语音鉴权设备
CN108271158A (zh) 呼叫处理方法及系统
CN111327752B (zh) 通话处理方法、装置以及通信系统、存储介质
CN105228156B (zh) 一种通讯信息处理方法、装置及系统
JP2008244796A (ja) 音声認証システム
JP6296159B2 (ja) 発信者特定装置、発信者特定方法、および発信者特定プログラムを格納する記録媒体
WO2020250614A1 (ja) 通信端末、情報処理装置、情報処理システム、情報処理方法およびプログラム
KR101194998B1 (ko) 모바일단말기간의 피싱 방지를 위한 서비스 제공 시스템 및 방법
JP7073705B2 (ja) 通話端末、話者識別サーバ、通話システム、通話端末の処理方法、話者識別サーバの処理方法及びプログラム
CN107343238A (zh) 多点连接控制方法及外接设备
JP4205715B2 (ja) 電話装置および着信動作制御方法
CN114006984A (zh) 收件人隐私保护方法、装置、计算机设备和存储介质
US8917840B2 (en) Enhanced privacy caller identification system
KR101141652B1 (ko) 선택적 통화를 위한 인증 방법 및 장치
JP2007258954A (ja) 成りすまし電話防止システム、認証装置および認証装置用プログラム
JP2000209284A (ja) 認証装置、及び、認証方法
CN114979992B (zh) 一种通话状态确定方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20823291

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021525950

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020823291

Country of ref document: EP

Effective date: 20220110