JP2017161787A - Speech response detection method, speech response detection program, and speech response detection device - Google Patents

Speech response detection method, speech response detection program, and speech response detection device Download PDF

Info

Publication number
JP2017161787A
JP2017161787A JP2016047423A JP2016047423A JP2017161787A JP 2017161787 A JP2017161787 A JP 2017161787A JP 2016047423 A JP2016047423 A JP 2016047423A JP 2016047423 A JP2016047423 A JP 2016047423A JP 2017161787 A JP2017161787 A JP 2017161787A
Authority
JP
Japan
Prior art keywords
speech
character information
information
support
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016047423A
Other languages
Japanese (ja)
Inventor
鈴木 重治
Shigeharu Suzuki
重治 鈴木
小森谷 均
Hitoshi Komoriya
均 小森谷
中川 香苗
Kanae Nakagawa
香苗 中川
鈴木 貴志
Takashi Suzuki
貴志 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016047423A priority Critical patent/JP2017161787A/en
Publication of JP2017161787A publication Critical patent/JP2017161787A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a speech response detection method capable of detecting a response part in a speech.SOLUTION: The speech response detection method is executed by a computer, including: a conversion step S302 to convert a piece of voice information including a speech into a piece of first character information; an extraction step S304 to extract a part of the character information from a piece of second character information with respect to the speech based on the frequency of occurrence of the part of the character information; and a detection step S306 to detect a part which includes the part of the character information in the first character information as a response part in the speech.SELECTED DRAWING: Figure 8

Description

本件は、演説反響検知方法、演説反響検知プログラム、及び演説反響検知装置に関する。   The present invention relates to a speech echo detection method, a speech echo detection program, and a speech echo detection device.

選挙における立候補者と有権者がインターネットを介して意見交換できる技術が知られている(例えば特許文献1参照)。また、講演会などに出席した聴衆の音声を集音マイクから音声情報として取り入れ、予め設定しておいた音声パターンとの比較により講演の内容を評価する技術も知られている(例えば特許文献2参照)。さらに、予め記録された音声データからキーワードを抽出する技術も知られている(例えば特許文献3参照)。   A technique is known in which candidates for election and voters can exchange opinions via the Internet (see, for example, Patent Document 1). In addition, there is also known a technique for taking in the voice of an audience attending a lecture as voice information from a sound collecting microphone and evaluating the contents of the lecture by comparing with voice patterns set in advance (for example, Patent Document 2). reference). Furthermore, a technique for extracting a keyword from previously recorded audio data is also known (see, for example, Patent Document 3).

特開2002−041718号公報JP 2002-041718 A 特開2001−266148号公報JP 2001-266148 A 特開2006−178648号公報JP 2006-178648 A

ここで、上述した各種技術によって例えば選挙における演説の内容を評価する場合、聴衆の音声を音声情報として取り入れ、その音声情報からキーワードを抽出すれば、キーワードを介して演説全体に対する聴衆の反響は検知できるかもしれない。   Here, for example, when evaluating the contents of a speech in an election using the various technologies described above, if the audience's voice is taken as voice information and a keyword is extracted from the voice information, the audience's response to the entire speech is detected via the keyword. I may be able to do it.

しかしながら、演説に対する聴衆の部分的な反響を的確に検知することは極めて困難である。具体例を挙げれば、演説に複数の政策論点が含まれている場合、聴衆がこれら複数の政策論点の中でどの政策論点に関心を寄せているのかを的確に検知することは極めて困難である。   However, it is very difficult to accurately detect the audience's partial response to the speech. For example, if a speech contains multiple policy issues, it is extremely difficult to accurately detect which policy issue the audience is interested in. .

本発明は、演説における反響部分を検知できる演説反響検知方法、演説反響検知プログラム、及び演説反響検知装置を提供することを目的とする。   It is an object of the present invention to provide a speech echo detection method, a speech echo detection program, and a speech echo detection device that can detect an echo portion in a speech.

本明細書に開示の演説反響検知方法は、演説を含む音声情報を第1の文字情報に変換する変換ステップと、前記演説に対する第2の文字情報の中から一部の文字情報を該一部の文字情報の出現頻度に基づいて抽出する抽出ステップと、前記第1の文字情報の中で前記一部の文字情報を含む部分を前記演説における反響部分として検知する検知ステップと、をコンピュータが実行する演説反響検知方法である。   The speech echo detection method disclosed in the present specification includes a conversion step of converting speech information including a speech into first character information, and a part of character information from the second character information corresponding to the speech. The computer executes an extraction step of extracting based on the appearance frequency of the character information and a detection step of detecting a portion including the partial character information in the first character information as an echo portion in the speech This is a speech echo detection method.

本明細書に開示の演説反響検知方法は、複数の音声情報のそれぞれに含まれる各演説に向けられた声及び/又は音の大きさに基づいて、前記各演説に対する支持の度合いをそれぞれ算出する第1の算出ステップと、賛成を表す文字情報と反対を表す文字情報を利用して、前記各演説に対する文字情報を賛成の文字情報と反対の文字情報に分類する分類ステップと、前記賛成の文字情報又は前記反対の文字情報に基づいて、前記各演説に対する反響の度合いをそれぞれ算出する第2の算出ステップと、前記支持の度合いと前記反響の度合いに基づいて、前記各演説をそれぞれ行う演説者の支持状況を前記演説者毎に推定する推定ステップと、をコンピュータが実行する演説反響検知方法である。   The speech echo detection method disclosed in the present specification calculates the degree of support for each speech based on the voice and / or sound volume directed to each speech included in each of a plurality of speech information. A first calculation step, a characterizing step for classifying character information for each speech into character information opposite to the character information for approval, using character information indicating the opposite to character information indicating approval, and the character for approval A second calculating step for calculating the degree of reverberation for each speech based on the information or the opposite character information; and a speaker for each speech based on the degree of support and the degree of reverberation Is a speech echo detection method executed by a computer.

本明細書に開示の演説反響検知プログラムは、演説を含む音声情報を第1の文字情報に変換する変換ステップと、前記演説に対する第2の文字情報の中から一部の文字情報を該一部の文字情報の出現頻度に基づいて抽出する抽出ステップと、前記第1の文字情報の中で前記一部の文字情報を含む部分を前記演説における反響部分として検知する検知ステップと、をコンピュータに実行させるための演説反響検知プログラムである。   The speech echo detection program disclosed in this specification includes a conversion step of converting speech information including a speech into first character information, and part of character information from the second character information corresponding to the speech. An extraction step of extracting based on the appearance frequency of the character information and a detection step of detecting a portion including the partial character information in the first character information as a reverberation portion in the speech This is a speech echo detection program.

本明細書に開示の演説反響検知プログラムは、複数の音声情報のそれぞれに含まれる各演説に向けられた声及び/又は音の大きさに基づいて、前記各演説に対する支持の度合いをそれぞれ算出する第1の算出ステップと、賛成を表す文字情報と反対を表す文字情報を利用して、前記各演説に対する文字情報を賛成の文字情報と反対の文字情報に分類する分類ステップと、前記賛成の文字情報又は前記反対の文字情報に基づいて、前記各演説に対する反響の度合いをそれぞれ算出する第2の算出ステップと、前記支持の度合いと前記反響の度合いに基づいて、前記各演説をそれぞれ行う演説者の支持状況を前記演説者毎に推定する推定ステップと、をコンピュータに実行させるための演説反響検知プログラムである。   The speech echo detection program disclosed in the present specification calculates the degree of support for each speech based on the voice and / or the sound volume directed to each speech included in each of a plurality of speech information. A first calculation step, a characterizing step for classifying character information for each speech into character information opposite to the character information for approval, using character information indicating the opposite to character information indicating approval, and the character for approval A second calculating step for calculating the degree of reverberation for each speech based on the information or the opposite character information; and a speaker for each speech based on the degree of support and the degree of reverberation Is a speech echo detection program for causing a computer to execute an estimation step for estimating the support status of each speech.

本明細書に開示の演説反響検知装置は、演説を含む音声情報を第1の文字情報に変換する変換手段と、前記演説に対する第2の文字情報の中から一部の文字情報を該一部の文字情報の出現頻度に基づいて抽出する抽出手段と、前記第1の文字情報の中で前記一部の文字情報を含む部分を前記演説における反響部分として検知する検知手段と、を有する演説反響検知装置である。   The speech echo detection apparatus disclosed in this specification includes a conversion unit that converts speech information including a speech into first character information, and a part of character information from the second character information corresponding to the speech. The speech echo having extraction means for extracting based on the appearance frequency of the character information, and detection means for detecting a part including the partial character information in the first character information as an echo part in the speech It is a detection device.

本明細書に開示の演説反響検知装置は、複数の音声情報のそれぞれに含まれる各演説に向けられた声及び/又は音の大きさに基づいて、前記各演説に対する支持の度合いをそれぞれ算出する第1の算出手段と、賛成を表す文字情報と反対を表す文字情報を利用して、前記各演説に対する文字情報を賛成の文字情報と反対の文字情報に分類する分類手段と、前記賛成の文字情報又は前記反対の文字情報に基づいて、前記各演説に対する反響の度合いをそれぞれ算出する第2の算出手段と、前記支持の度合いと前記反響の度合いに基づいて、前記各演説をそれぞれ行う演説者の支持状況を前記演説者毎に推定する推定手段と、を有する演説反響検知装置である。   The speech echo detection device disclosed in the present specification calculates the degree of support for each speech based on the voice and / or sound volume directed to each speech included in each of a plurality of speech information. Classifying means for classifying the character information for each speech into character information opposite to the character information for approval, using character information indicating the opposite to the character information indicating approval for the first calculation means, and the character for approval A second calculating means for calculating the degree of reverberation for each speech based on the information or the opposite character information, and a speaker performing each speech based on the degree of support and the degree of reverberation, respectively. And an estimation means for estimating the support status for each speaker.

1つの側面として、演説における反響部分を検知することができる。   As one aspect, a reverberation part in a speech can be detected.

図1は第1実施形態に係る演説反響検知システムの一例である。FIG. 1 is an example of a speech echo detection system according to the first embodiment. 図2はサーバ装置のハードウェア構成の一例である。FIG. 2 is an example of a hardware configuration of the server apparatus. 図3は第1実施形態に係るサーバ装置の機能ブロック図の一例である。FIG. 3 is an example of a functional block diagram of the server apparatus according to the first embodiment. 図4(a)は演説音声記憶部の一例である。図4(b)は音声ファイルの一例である。図4(c)は音声ファイルの他の一例である。FIG. 4A is an example of a speech voice storage unit. FIG. 4B is an example of an audio file. FIG. 4C shows another example of an audio file. 図5(a)はSNS情報記憶部の一例である。図5(b)は賛否情報記憶部の一例である。FIG. 5A is an example of an SNS information storage unit. FIG. 5B is an example of the approval / disapproval information storage unit. 図6は第1実施形態に係るサーバ装置が実行する処理の一例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of processing executed by the server device according to the first embodiment. 図7は第1実施形態に係るサーバ装置が実行する処理の他の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating another example of the process executed by the server device according to the first embodiment. 図8は第1実施形態に係るサーバ装置が実行する処理の他の一例を示すフローチャートである。FIG. 8 is a flowchart showing another example of processing executed by the server device according to the first embodiment. 図9は処理結果の一例を説明するための図である。FIG. 9 is a diagram for explaining an example of the processing result. 図10は端末装置に表示される賛否評価画面の一例である。FIG. 10 is an example of a pros and cons evaluation screen displayed on the terminal device. 図11は端末装置に表示される各種画面の一例である。FIG. 11 is an example of various screens displayed on the terminal device. 図12は第2実施形態に係る演説反響検知システムの一例である。FIG. 12 is an example of a speech echo detection system according to the second embodiment. 図13は第2実施形態に係るサーバ装置の機能ブロック図の一例である。FIG. 13 is an example of a functional block diagram of the server apparatus according to the second embodiment. 図14は演説音声記憶部の他の一例である。FIG. 14 shows another example of the speech voice storage unit. 図15はSNS情報記憶部の他の一例である。FIG. 15 shows another example of the SNS information storage unit. 図16は第2実施形態に係るサーバ装置が実行する処理の一例を示すフローチャートである。FIG. 16 is a flowchart illustrating an example of processing executed by the server device according to the second embodiment.

以下、本件を実施するための形態について図面を参照して説明する。   Hereinafter, an embodiment for carrying out this case will be described with reference to the drawings.

(第1実施形態)
図1は第1実施形態に係る演説反響検知システムS1の一例である。演説反響検知システムS1は少なくとも端末装置100及び演説反響検知装置としてのサーバ装置200を備えている。図1では、端末装置100の一例として入力装置、表示装置及び制御装置を含む据置型(デスクトップタイプ)のPersonal Computer(PC)が示されているが、端末装置100であれば特に限定されない。例えば携帯型(ノートタイプ)のPC、スマートフォン、タブレット端末などが端末装置100であってもよい。端末装置100は例えば選挙対策事務所10に設置されている。選挙対策事務所10は選挙に立候補した演説者RAが利用する事務所である。一方、サーバ装置200はクラウドCL上のデータセンターDC内に配備されている。
(First embodiment)
FIG. 1 is an example of a speech echo detection system S1 according to the first embodiment. The speech echo detection system S1 includes at least a terminal device 100 and a server device 200 as a speech echo detection device. In FIG. 1, a stationary (desktop type) personal computer (PC) including an input device, a display device, and a control device is shown as an example of the terminal device 100, but the terminal device 100 is not particularly limited. For example, the terminal device 100 may be a portable (notebook type) PC, a smartphone, a tablet terminal, or the like. The terminal device 100 is installed in the election countermeasure office 10, for example. The election office 10 is used by the speaker RA who has run for the election. On the other hand, the server device 200 is deployed in the data center DC on the cloud CL.

端末装置100とサーバ装置200は通信ネットワークNWを介して接続されている。通信ネットワークNWとしては例えばインターネットがある。したがって、端末装置100はサーバ装置200と通信することができる。すなわち、端末装置100はサーバ装置200から送信された各種の情報を受信したり、サーバ装置200に各種の情報を送信したりする。   The terminal device 100 and the server device 200 are connected via a communication network NW. An example of the communication network NW is the Internet. Therefore, the terminal device 100 can communicate with the server device 200. That is, the terminal device 100 receives various information transmitted from the server device 200 or transmits various information to the server device 200.

例えばサーバ装置200に対して端末装置100が演説に対する反響を表す情報の閲覧を求める閲覧要求を送信すると、サーバ装置200は閲覧要求を受信する。より詳しくは、端末装置100が送信した閲覧要求は通信ネットワークNWを介してサーバ装置200が受信する。サーバ装置200は閲覧要求を受信すると、端末装置100に対し情報の閲覧を許可する。具体的にはサーバ装置200が閲覧要求を受信した場合に、サーバ装置200は閲覧要求に応じた情報を端末装置100に向けて送信する。   For example, when the terminal device 100 transmits a browsing request for browsing the information indicating the response to the speech to the server device 200, the server device 200 receives the browsing request. More specifically, the browsing request transmitted by the terminal device 100 is received by the server device 200 via the communication network NW. Upon receiving the browsing request, the server device 200 permits the terminal device 100 to browse information. Specifically, when the server device 200 receives a browsing request, the server device 200 transmits information corresponding to the browsing request to the terminal device 100.

また、通信ネットワークNWにはマイク(具体的には集音マイク)300が接続されている。図1では、マイク300は有線により通信ネットワークNWと直接的に接続されている。しかしながら、マイク300と通信ネットワークNWとの間に携帯型のPC(不図示)を介在させ、マイク300と携帯型のPCを有線又は無線で接続し、携帯型のPCと通信ネットワークNWを無線で接続してもよい。この場合、マイク300と通信ネットワークNWとは間接的に接続される。   A microphone (specifically, a sound collecting microphone) 300 is connected to the communication network NW. In FIG. 1, the microphone 300 is directly connected to the communication network NW by wire. However, a portable PC (not shown) is interposed between the microphone 300 and the communication network NW, the microphone 300 and the portable PC are connected by wire or wirelessly, and the portable PC and the communication network NW are wirelessly connected. You may connect. In this case, the microphone 300 and the communication network NW are indirectly connected.

マイク300は演説者RAの演説を含む音声を取得し、取得した音声を音声情報に変換する。図1において、演説者RAは聴衆ADを前に演説を行っている。マイク300に音声情報の送信先をサーバ装置200に設定しておけば、マイク300は音声情報をサーバ装置200に向けて送信する。尚、マイク300と携帯型のPCが有線又は無線で接続されている場合には、音声情報の送信先の設定は携帯型のPCに対して行われる。これにより、サーバ装置200は演説者RAの演説を含む音声情報を収集する。   The microphone 300 acquires the voice including the speech of the speaker RA and converts the acquired voice into voice information. In FIG. 1, the speaker RA is giving a speech before the audience AD. If the transmission destination of the audio information is set to the microphone 300 in the server device 200, the microphone 300 transmits the audio information to the server device 200. Note that when the microphone 300 and the portable PC are connected by wire or wirelessly, the setting of the audio information transmission destination is performed on the portable PC. Thereby, the server apparatus 200 collects audio information including the speech of the speaker RA.

また、通信ネットワークNWにはソーシャルネットワーキングサービス(以下、SNSという)400が接続されている。SNS400を実現する不図示のサーバ装置が通信ネットワークNWに接続されていてもよい。また、SNS400が通信ネットワークNWに含まれていてもよい。SNS400としては、例えばTWITTER(登録商標)(ツイッター(登録商標))、FACEBOOK(登録商標)(フェースブック(登録商標))、GOOGLE+(登録商標)(グーグルプラス(登録商標))などがある。   A social networking service (hereinafter referred to as SNS) 400 is connected to the communication network NW. A server device (not shown) that realizes the SNS 400 may be connected to the communication network NW. The SNS 400 may be included in the communication network NW. Examples of the SNS 400 include TWITTER (registered trademark) (Twitter (registered trademark)), FACEBOOK (registered trademark) (Facebook (registered trademark)), and GOOGLE + (registered trademark) (Google Plus (registered trademark)).

SNS400上にはそのサービスを利用する不特定多数の利用者からの文字情報(例えばつぶやき、コメント、メッセージなど)が投稿されている。利用者には上述した聴衆ADも含まれている。したがって、演説者RAが演説している前で聴衆ADがSNS400上に文字情報を投稿すれば、その文字情報は通信ネットワークNW上に拡散する。サーバ装置200は通信ネットワークNW上に拡散した文字情報をSNS情報として収集する。尚、サーバ装置200は例えばTwitter APIやFB APIといったApplication Programming Interface(API)を利用してSNS情報を収集する。   Character information (for example, tweets, comments, messages, etc.) from an unspecified number of users who use the service is posted on the SNS 400. Users include the audience AD described above. Therefore, if the audience AD posts character information on the SNS 400 before the speaker RA is speaking, the character information is spread on the communication network NW. The server device 200 collects character information spread on the communication network NW as SNS information. Note that the server device 200 collects SNS information using an Application Programming Interface (API) such as Twitter API or FB API.

サーバ装置200は収集した音声情報及びSNS情報を分析又は解析する。例えばサーバ装置200はSNS情報を分析して演説における反響部分を評価する。サーバ装置200は端末装置100から分析結果又は解析結果の閲覧を求める閲覧要求を受信すると、閲覧を許可する。これにより、端末装置100は分析結果又は解析結果を表示する。尚、サーバ装置200の詳細な動作については後述する。   The server device 200 analyzes or analyzes the collected voice information and SNS information. For example, the server apparatus 200 analyzes the SNS information and evaluates the reverberation part in the speech. When the server apparatus 200 receives the analysis result or the browsing request for browsing the analysis result from the terminal apparatus 100, the server apparatus 200 permits the browsing. Thereby, the terminal device 100 displays an analysis result or an analysis result. The detailed operation of the server device 200 will be described later.

次に、図2を参照して、サーバ装置200のハードウェア構成について説明する。尚、上述した端末装置100については基本的にサーバ装置200と同様のハードウェア構成であるため説明を省略する。   Next, the hardware configuration of the server apparatus 200 will be described with reference to FIG. Note that the terminal device 100 described above has basically the same hardware configuration as that of the server device 200, and a description thereof will be omitted.

図2はサーバ装置200のハードウェア構成の一例である。図2に示すように、サーバ装置200は、少なくともCentral Processing Unit(CPU)200A、Random Access Memory(RAM)200B、Read Only Memory(ROM)200C及びネットワークI/F(インタフェース)200Dを含んでいる。サーバ装置200は、必要に応じて、Hard Disk Drive(HDD)200E、入力I/F200F、出力I/F200G、入出力I/F200H、ドライブ装置200Iの少なくとも1つを含んでいてもよい。CPU200A、・・・、ドライブ装置200Iは、内部バス200Jによって互いに接続されている。少なくともCPU200AとRAM200Bとが協働することによってコンピュータが実現される。   FIG. 2 is an example of a hardware configuration of the server device 200. As shown in FIG. 2, the server device 200 includes at least a central processing unit (CPU) 200A, a random access memory (RAM) 200B, a read only memory (ROM) 200C, and a network I / F (interface) 200D. The server device 200 may include at least one of a hard disk drive (HDD) 200E, an input I / F 200F, an output I / F 200G, an input / output I / F 200H, and a drive device 200I as necessary. The CPU 200A,..., The drive device 200I are connected to each other by an internal bus 200J. At least the CPU 200A and the RAM 200B cooperate to realize a computer.

入力I/F200Fには、入力装置710が接続される。入力装置710としては、例えばキーボードやマウスなどがある。
出力I/F200Gには、表示装置720が接続される。表示装置720としては、例えば液晶ディスプレイがある。
入出力I/F200Hには、半導体メモリ730が接続される。半導体メモリ730としては、例えばUniversal Serial Bus(USB)メモリやフラッシュメモリなどがある。入出力I/F200Hは、半導体メモリ730に記憶されたプログラムやデータを読み取る。
入力I/F200F及び入出力I/F200Hは、例えばUSBポートを備えている。出力I/F200Gは、例えばディスプレイポートを備えている。
An input device 710 is connected to the input I / F 200F. Examples of the input device 710 include a keyboard and a mouse.
A display device 720 is connected to the output I / F 200G. An example of the display device 720 is a liquid crystal display.
A semiconductor memory 730 is connected to the input / output I / F 200H. Examples of the semiconductor memory 730 include a universal serial bus (USB) memory and a flash memory. The input / output I / F 200 </ b> H reads programs and data stored in the semiconductor memory 730.
The input I / F 200F and the input / output I / F 200H include, for example, a USB port. The output I / F 200G includes a display port, for example.

ドライブ装置200Iには、可搬型記録媒体740が挿入される。可搬型記録媒体740としては、例えばCompact Disc(CD)−ROM、Digital Versatile Disc(DVD)といったリムーバブルディスクがある。ドライブ装置200Iは、可搬型記録媒体740に記録されたプログラムやデータを読み込む。
ネットワークI/F200Dは、例えばLANポートを備えている。ネットワークI/F200Dは通信ネットワークNWと接続される。
A portable recording medium 740 is inserted into the drive device 200I. Examples of the portable recording medium 740 include a removable disk such as a Compact Disc (CD) -ROM and a Digital Versatile Disc (DVD). The drive device 200I reads a program and data recorded on the portable recording medium 740.
The network I / F 200D includes, for example, a LAN port. Network I / F 200D is connected to communication network NW.

上述したRAM200Bには、ROM200CやHDD200Eに記憶されたプログラムがCPU200Aによって格納される。RAM200Bには、可搬型記録媒体740に記録されたプログラムがCPU200Aによって格納される。格納されたプログラムをCPU200Aが実行することにより、後述する各種の機能が実現され、また、後述する各種の処理が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。   In the above-described RAM 200B, a program stored in the ROM 200C or the HDD 200E is stored by the CPU 200A. In the RAM 200B, the program recorded on the portable recording medium 740 is stored by the CPU 200A. When the stored program is executed by the CPU 200A, various functions to be described later are realized, and various processes to be described later are executed. In addition, what is necessary is just to make a program according to the flowchart mentioned later.

次に、図3から図5を参照して、第1実施形態に係るサーバ装置200の機能について説明する。   Next, functions of the server device 200 according to the first embodiment will be described with reference to FIGS. 3 to 5.

図3は第1実施形態に係るサーバ装置200の機能ブロック図の一例である。図4(a)は演説音声記憶部202の一例である。図4(b)は音声ファイルの一例である。図4(c)は音声ファイルの他の一例である。図5(a)はSNS情報記憶部204の一例である。図5(b)は賛否情報記憶部205の一例である。   FIG. 3 is an example of a functional block diagram of the server apparatus 200 according to the first embodiment. FIG. 4A is an example of the speech voice storage unit 202. FIG. 4B is an example of an audio file. FIG. 4C shows another example of an audio file. FIG. 5A is an example of the SNS information storage unit 204. FIG. 5B is an example of the approval / disapproval information storage unit 205.

図3に示すように、サーバ装置200は第1の収集手段としての音声収集部201と演説音声記憶部202を含んでいる。また、サーバ装置200は第2の収集手段としてのSNS情報収集部203とSNS情報記憶部204を含んでいる。さらに、サーバ装置200は賛否情報記憶部205、変換手段としての文字列変換部206、抽出手段としてのキーワード抽出部207、分類手段としてのSNS情報分類部208、検知手段としての反響検知部209、及び評価結果提示部210を含んでいる。   As shown in FIG. 3, the server device 200 includes a voice collection unit 201 and a speech voice storage unit 202 as first collection means. The server device 200 includes an SNS information collection unit 203 and an SNS information storage unit 204 as second collection means. Further, the server device 200 includes a pros and cons information storage unit 205, a character string conversion unit 206 as a conversion unit, a keyword extraction unit 207 as an extraction unit, an SNS information classification unit 208 as a classification unit, an echo detection unit 209 as a detection unit, And the evaluation result presentation part 210 is included.

音声収集部201は音声情報を収集する。より詳しくは、音声収集部201はマイク300から直接的に又は間接的に送信された音声情報を収集する。また、音声収集部201は第1のトリガ音から第2のトリガ音までの音声情報を収集する。第1のトリガ音としては、例えば政党名を伝える音声、演説者名を伝える音声、演説の開始を合図する音声(例えば「ただいまご紹介に・・・」)などがある。また、第2のトリガ音としては、演説の終了を合図する音声(例えば「ご清聴・・・」)、所定の音量以上を記録した拍手の音などがある。これにより、音声収集部201は演説を含まない無駄な音声の収集を回避することができる。音声収集部201は収集した音声情報を演説音声記憶部202に格納する。   The voice collection unit 201 collects voice information. More specifically, the voice collection unit 201 collects voice information transmitted directly or indirectly from the microphone 300. The voice collection unit 201 collects voice information from the first trigger sound to the second trigger sound. Examples of the first trigger sound include a voice that conveys the name of a political party, a voice that conveys the name of a speaker, and a voice that signals the start of a speech (for example, “Introduction”). In addition, examples of the second trigger sound include a sound that signals the end of the speech (for example, “listening ...”), and a sound of applause that records a predetermined volume or more. As a result, the voice collection unit 201 can avoid wasteful voice collection that does not include a speech. The voice collection unit 201 stores the collected voice information in the speech voice storage unit 202.

演説音声記憶部202は演説を含む音声情報を記憶する。より詳しくは、図4(a)に示すように、演説音声記憶部202は音声テーブルT1により音声情報を管理する。音声情報は演説ID、演説者、演説日、演説時刻、場所、音声ファイル、演説音量、声援音量、及び拍手音量を構成要素として含んでいる。   The speech voice storage unit 202 stores voice information including a speech. More specifically, as shown in FIG. 4A, the speech voice storage unit 202 manages voice information using a voice table T1. The voice information includes a speech ID, a speaker, a speech date, a speech time, a place, a voice file, a speech volume, a cheering volume, and a clapping volume as constituent elements.

演説IDは音声情報を識別する識別情報を表している。演説者はその演説者の氏名を表している。演説日は演説が行われた日を表している。演説時刻は演説開始時刻から演説終了時刻までを表している。場所は演説が行われた場所を表している。音声ファイルは演説を含む音声の電子ファイル名を表している。例えば音声ファイル「EZ1.mp3」は、図4(b)に示すように、第1の演説音声21を含んでいる。例えば音声ファイル「EZ2.mp3」は、図4(c)に示すように、第2の演説音声22を含んでいる。第1の演説音声21及び第2の演説音声22のいずれも演説全体の中の一部を表している。   The speech ID represents identification information for identifying voice information. The speaker represents the name of the speaker. The speech date represents the date on which the speech was made. The speech time represents from the speech start time to the speech end time. The place represents the place where the speech was given. An audio file represents an electronic file name of an audio including a speech. For example, the voice file “EZ1.mp3” includes the first speech voice 21 as shown in FIG. For example, the audio file “EZ2.mp3” includes the second speech audio 22 as shown in FIG. Both the first speech voice 21 and the second speech voice 22 represent a part of the whole speech.

演説音量、声援音量及び拍手音量はそれぞれ演説、声援及び拍手の音量を表している。これらの音量は最高音量、最低音量、又は平均音量のいずれでもよい。また、演説、声援及び拍手の分類は例えば音声周波数の相違(例えば演説者と演説者以外の者の声紋の相違など)に基づいて音声収集部201によって行われる。尚、声援は一例であって声であれば声援に限定されず、例えば掛け声、歓声、やじなどであってもよい。また、拍手も一例であって、音であれば拍手に限定されず、口笛や指笛などであってもよい。   The speech volume, the cheering volume, and the applause volume represent the speech, cheering, and applause volume, respectively. These volumes may be any of the highest volume, the lowest volume, or the average volume. Further, speech, cheering, and applause are classified by the voice collection unit 201 based on, for example, a difference in voice frequency (for example, a voiceprint difference between a speaker and a person other than the speaker). In addition, cheering is an example, and if it is a voice, it will not be limited to cheering, For example, a shout, a cheer, a father, etc. may be sufficient. Applause is also an example, and it is not limited to applause as long as it is a sound, and may be a whistle or a finger whistle.

図3に戻り、SNS情報収集部203はSNS情報を収集する。より詳しくは、SNS情報収集部203はAPIを利用してSNS400からSNS情報を収集する。特に、SNS情報収集部203は音声収集部201によって音声情報が収集されてから所定の時間内(例えば数十分以内)にSNS400に投稿されたSNS情報を収集することが望ましい。この所定の時間を上述した第1のトリガ音から第2のトリガ音までの時間としてもよい。これにより、演説に対するリアルタイムな反響を収集することができる。SNS情報収集部203は収集したSNS情報をSNS情報記憶部204に格納する。   Returning to FIG. 3, the SNS information collection unit 203 collects SNS information. More specifically, the SNS information collection unit 203 collects SNS information from the SNS 400 using an API. In particular, it is desirable that the SNS information collection unit 203 collects SNS information posted to the SNS 400 within a predetermined time (for example, within several tens of minutes) after the voice information is collected by the voice collection unit 201. This predetermined time may be the time from the first trigger sound to the second trigger sound described above. As a result, real-time responses to the speech can be collected. The SNS information collection unit 203 stores the collected SNS information in the SNS information storage unit 204.

SNS情報記憶部204はSNS情報を記憶する。より詳しくは、図5(a)に示すように、SNS情報記憶部204はSNSテーブルT2によりSNS情報を管理する。SNS情報はSNSID、SNSタイプ、投稿日、投稿時刻、及び投稿コメントを構成要素として含んでいる。SNSIDはSNS情報を識別する識別情報を表している。SNSタイプはSNSの種別を表している。投稿日は投稿が行われた日を表している。投稿時刻は投稿が行われた時刻を表している。投稿コメントは投稿された意見を表している。図5(a)に示すように、演説者RAが演説している前で聴衆ADがSNS400上に文字情報を投稿すれば、SNS情報記憶部204は原則として演説の内容に沿った文字情報を記憶する。   The SNS information storage unit 204 stores SNS information. More specifically, as shown in FIG. 5A, the SNS information storage unit 204 manages the SNS information using the SNS table T2. The SNS information includes an SNS ID, an SNS type, a posting date, a posting time, and a posting comment as constituent elements. SNS ID represents identification information for identifying SNS information. The SNS type represents the type of SNS. The posting date represents the date when the posting was made. The posting time represents the time when the posting was made. The posted comment represents the posted opinion. As shown in FIG. 5 (a), if the audience AD posts character information on the SNS 400 before the speaker RA is speaking, the SNS information storage unit 204 basically displays character information according to the contents of the speech. Remember.

図3に戻り、賛否情報記憶部205は特定の文字列に対する賛否に関する賛否情報を記憶する。より詳しくは、図5(b)に示すように、賛否情報記憶部205は賛否テーブルT3により賛否情報を管理する。賛否情報は賛否ID、コメント、及び賛否タイプを構成要素として含んでいる。賛否IDは賛否情報を識別する識別情報を表している。コメントは投稿コメントの賛否を判断する際に利用する特定の文字列を表している。コメントにはいわゆる顔文字が含まれていてもよい。賛否タイプはそのコメントの意図を賛成又は反対により表している。例えばコメント「良い」及び「最高」は賛成を表している。一方、コメント「心配」や「(;;)」などは反対を表している。賛否情報により投稿コメントが意図する有権者の賛否を判断することができる。   Returning to FIG. 3, the approval / disapproval information storage unit 205 stores approval / disapproval information regarding approval / disapproval for a specific character string. More specifically, as shown in FIG. 5B, the approval / disapproval information storage unit 205 manages the approval / disapproval information by using the approval / disapproval table T3. The approval / disapproval information includes approval / disapproval ID, comment, and approval / disapproval type as components. The approval / disapproval ID represents identification information for identifying approval / disapproval information. The comment represents a specific character string used when judging the approval or disapproval of the posted comment. The comment may include a so-called emoticon. The type of approval or disapproval expresses the intention of the comment by agreeing or disagreeing. For example, the comments “good” and “best” indicate approval. On the other hand, comments “worry” and “(;;)” indicate the opposite. Based on the approval / disapproval information, the voter's approval / disapproval can be determined.

図3に戻り、文字列変換部206は音声情報を演説文字情報に変換する。より詳しくは、文字列変換部206は第2のトリガ音を検出すると、演説音声記憶部202から音声情報を取得し、取得した音声情報を演説文字情報に変換する。すなわち、文字列変換部206は演説の終了をトリガにして音声情報の演説文字情報への変換を開始する。これにより、変換処理を開始するまでの無駄な待機時間を減らすことができる。音声情報から演説文字情報への変換は例えば音声認識ソフトなどを用いて行われる。   Returning to FIG. 3, the character string conversion unit 206 converts voice information into speech character information. More specifically, when the character string conversion unit 206 detects the second trigger sound, the character string conversion unit 206 acquires voice information from the speech voice storage unit 202 and converts the acquired voice information into speech character information. That is, the character string conversion unit 206 starts conversion of speech information into speech character information with the end of the speech as a trigger. Thereby, useless waiting time until the conversion process is started can be reduced. Conversion from voice information to speech character information is performed using, for example, voice recognition software.

また、文字列変換部206は演説文字情報から重要なキーワード(以下、重要キーワードという)を抽出する。例えば文字列変換部206は音声情報全体において所定の閾値以上の音量を有する一部の音声情報を重要キーワードと認定し、その重要キーワードを演説文字情報から抽出する。これは重要な政策論点については演説内で声を大きくして伝える可能性が高いためである。文字列変換部206は音声情報の演説文字情報への変換と重要キーワードの抽出を完了すると、演説文字情報を反響検知部209に出力する。   In addition, the character string conversion unit 206 extracts an important keyword (hereinafter referred to as an important keyword) from the speech character information. For example, the character string conversion unit 206 recognizes a part of voice information having a volume equal to or higher than a predetermined threshold in the whole voice information as an important keyword, and extracts the important keyword from the speech character information. This is because important policy issues are likely to be spoken loudly in the speech. When the conversion of voice information into speech character information and extraction of important keywords are completed, the character string conversion unit 206 outputs speech character information to the echo detection unit 209.

キーワード抽出部207はSNS情報記憶部204からSNS情報を取得し、取得したSNS情報の中から一部の文字情報をその一部の文字情報の出現頻度に基づいて頻出キーワードとして抽出する。例えば、複数のSNS情報における各投稿コメントに共通して「食料品」、「消費税」及び「軽減税率」といった文字情報が所定値より多くの頻度で出現していれば、キーワード抽出部207はこれらの文字情報を頻出キーワードとして抽出する。   The keyword extraction unit 207 acquires SNS information from the SNS information storage unit 204, and extracts part of the character information from the acquired SNS information as a frequent keyword based on the appearance frequency of the part of character information. For example, if character information such as “groceries”, “consumption tax”, and “reduced tax rate” appears more frequently than a predetermined value in common with each posted comment in a plurality of SNS information, the keyword extracting unit 207 These character information is extracted as frequent keywords.

キーワード抽出部207は抽出した頻出キーワードをSNS情報分類部208及び反響検知部209に出力する。尚、キーワード抽出部207も第2のトリガ音を検出すると、SNS情報記憶部204からSNS情報を取得し、取得したSNS情報の中から頻出キーワードを抽出するため、抽出処理を開始するまでの無駄な待機時間を減らすことができる。   The keyword extraction unit 207 outputs the extracted frequent keywords to the SNS information classification unit 208 and the echo detection unit 209. When the keyword extraction unit 207 also detects the second trigger sound, the SNS information is acquired from the SNS information storage unit 204, and frequent keywords are extracted from the acquired SNS information. The waiting time can be reduced.

SNS情報分類部208はSNS情報記憶部204からSNS情報を取得し、賛否情報記憶部205から賛否情報を取得する。より詳しくは、SNS情報分類部208はキーワード抽出部207から頻出キーワードが出力されると、SNS情報及び賛否情報を取得する。SNS情報分類部208は、賛否情報と頻出キーワードとを利用して、取得したSNS情報の中で頻出キーワードを含む一部のSNS情報を、賛成を表すSNS情報と反対を表すSNS情報に分類する。一方、SNS情報分類部208は、取得したSNS情報の中で頻出キーワードを含まなかった一部のSNS情報を分類対象から除外する。SNS情報分類部208はSNS情報の分類を完了すると、賛成を表すSNS情報と反対を表すSNS情報を反響検知部209に出力する。   The SNS information classification unit 208 acquires SNS information from the SNS information storage unit 204 and acquires approval / disapproval information from the approval / disapproval information storage unit 205. More specifically, when the frequent keyword is output from the keyword extraction unit 207, the SNS information classification unit 208 acquires SNS information and approval / disapproval information. The SNS information classification unit 208 uses the approval / disapproval information and the frequent keywords to classify some SNS information including the frequent keywords in the acquired SNS information into the SNS information representing the opposite and the SNS information representing the opposite. . On the other hand, the SNS information classifying unit 208 excludes a part of SNS information that does not include a frequent keyword from the acquired SNS information. When the SNS information classification unit 208 completes the classification of the SNS information, the SNS information classification unit 208 outputs the SNS information representing the opposite to the SNS information representing the approval to the echo detection unit 209.

反響検知部209は重要キーワードを含む演説文字情報の中で頻出キーワードを含む部分を演説における反響部分として検知する。より詳しくは、反響検知部209は重要キーワードを含む文章の中で頻出キーワードを含む文章を演説における反響部分として検知する。したがって、重要キーワードを含む文章であっても、頻出キーワードが含まれていなければ、その文章は聴衆ADにとって関心が低いと判断される。言い換えれば、重要キーワードと頻出キーワードの双方を含む文章が聴衆ADにとって関心が高いと判断され、反響部分として検出される。   The reverberation detection unit 209 detects a portion including frequently-occurring keywords in the speech character information including important keywords as a reverberation portion in the speech. More specifically, the echo detection unit 209 detects a sentence including a frequent keyword among sentences including an important keyword as an echo part in the speech. Therefore, even if a sentence includes an important keyword, if the frequent keyword is not included, it is determined that the sentence is less interested for the audience AD. In other words, a sentence including both an important keyword and a frequent keyword is determined to be highly interested for the audience AD, and is detected as an echo part.

さらに、反響検知部209は賛成を表すSNS情報と反対を表すSNS情報に基づいて、反響部分の賛否を評価する。例えば反響検知部209は賛成を表すSNS情報と反対を表すSNS情報の件数や割合に基づいて、反響部分の賛成の割合と反対の割合を算出する。反響検知部209は検知した反響部分や評価した賛否を評価結果提示部210に出力する。その他、反響検知部209は種々の分析結果を出力する。   Further, the echo detection unit 209 evaluates the approval / disapproval of the echo part based on the SNS information indicating approval and the SNS information indicating opposition. For example, the echo detection unit 209 calculates a rate opposite to the rate of approval of the echo part based on the number and rate of SNS information indicating the opposite and SNS information indicating the opposite. The echo detection unit 209 outputs the detected echo part and the evaluated pros and cons to the evaluation result presentation unit 210. In addition, the echo detection unit 209 outputs various analysis results.

評価結果提示部210は検知した反響部分や評価した賛否、その他の分析結果を保持する。評価結果提示部210は端末装置100からの閲覧要求を受け付けると、閲覧要求に含まれる認証情報に基づいて閲覧を許可したり拒否したりする。例えば評価結果提示部210は認証が成功すれば検知した反響部分や評価した賛否の閲覧を許可する。逆に、評価結果提示部210は認証が失敗すれば検知した反響部分や評価した賛否の閲覧を拒否する。これにより、選挙対策事務所10の所員は演説者RAの演説における反響部分や賛否を把握することができる。   The evaluation result presentation unit 210 holds the detected echo part, evaluated pros and cons, and other analysis results. When receiving the browsing request from the terminal device 100, the evaluation result presenting unit 210 permits or rejects browsing based on the authentication information included in the browsing request. For example, if the authentication result is successful, the evaluation result presentation unit 210 permits browsing of the detected echo portion and the evaluated pros and cons. Conversely, if the authentication result fails, the evaluation result presentation unit 210 refuses to browse the detected echo part or the evaluated pros and cons. Thereby, the staff of the election office 10 can grasp the response part and the pros and cons in the speech of the speaker RA.

次に、図6から図11を参照して、サーバ装置200の動作について説明する。   Next, the operation of the server device 200 will be described with reference to FIGS.

図6は第1実施形態に係るサーバ装置200が実行する処理の一例を示すフローチャートである。図7及び図8はそれぞれ第1実施形態に係るサーバ装置200が実行する処理の他の一例を示すフローチャートである。図9は処理結果の一例を説明するための図である。図10は端末装置100に表示される賛否評価画面の一例である。図11は端末装置100に表示される各種画面の一例である。   FIG. 6 is a flowchart illustrating an example of processing executed by the server device 200 according to the first embodiment. 7 and 8 are flowcharts illustrating other examples of processing executed by the server device 200 according to the first embodiment. FIG. 9 is a diagram for explaining an example of the processing result. FIG. 10 shows an example of the approval / disapproval evaluation screen displayed on the terminal device 100. FIG. 11 is an example of various screens displayed on the terminal device 100.

まず、図6に示すように、音声収集部201は第1のトリガ音を検出するまで待機する(ステップS101:NO)。音声収集部201は第1のトリガ音を検出すると(ステップS101:YES)、音声情報を収集し(ステップS102)、音声情報を演説音声記憶部202に格納する(ステップS103)。音声収集部201は第2のトリガ音を検出するまで音声情報を収集して格納する(ステップS104:NO)。そして、音声収集部201は第2のトリガ音を検出すると(ステップS104:YES)、処理を終了する。これにより、演説音声記憶部202は演説を含む音声情報を記憶する。   First, as shown in FIG. 6, the voice collection unit 201 stands by until a first trigger sound is detected (step S101: NO). When the voice collection unit 201 detects the first trigger sound (step S101: YES), the voice collection unit 201 collects voice information (step S102) and stores the voice information in the speech voice storage unit 202 (step S103). The voice collection unit 201 collects and stores voice information until the second trigger sound is detected (step S104: NO). Then, when the voice collection unit 201 detects the second trigger sound (step S104: YES), the process ends. Thus, the speech voice storage unit 202 stores voice information including the speech.

次に、図7に示すように、SNS情報収集部203は第1のトリガ音を検出するまで待機する(ステップS201:NO)。SNS情報収集部203は第1のトリガ音を検出すると(ステップS201:YES)、SNS情報を収集し(ステップS202)、SNS情報をSNS情報記憶部204に格納する(ステップS203)。SNS情報収集部203は第2のトリガ音を検出するまでSNS情報を収集して格納する(ステップS204:NO)。そして、SNS情報収集部203は第2のトリガ音を検出すると(ステップS204:YES)、処理を終了する。これにより、SNS情報記憶部204はSNS情報を記憶する。   Next, as shown in FIG. 7, the SNS information collection unit 203 waits until the first trigger sound is detected (step S201: NO). When the SNS information collection unit 203 detects the first trigger sound (step S201: YES), the SNS information collection unit 203 collects SNS information (step S202) and stores the SNS information in the SNS information storage unit 204 (step S203). The SNS information collection unit 203 collects and stores the SNS information until the second trigger sound is detected (step S204: NO). And if the SNS information collection part 203 detects a 2nd trigger sound (step S204: YES), a process will be complete | finished. Thereby, the SNS information storage unit 204 stores the SNS information.

次に、図8に示すように、文字列変換部206は第2のトリガ音を検出するまで待機する(ステップS301:NO)。文字列変換部206は第2のトリガ音を検出すると(ステップS301:YES)、音声情報を演説文字情報に変換する(ステップS302)。より詳しくは、文字列変換部206は演説音声記憶部202から音声情報を取得して、取得した音声情報を演説文字情報に変換する。例えば文字列変換部206は図4(b)に示す音声ファイルを音声情報として取得した場合、図9(a)に示すように、第1の演説音声21を文字列による演説文字情報に変換する。   Next, as shown in FIG. 8, the character string conversion unit 206 waits until it detects the second trigger sound (step S301: NO). When the character string conversion unit 206 detects the second trigger sound (step S301: YES), the character string conversion unit 206 converts voice information into speech character information (step S302). More specifically, the character string conversion unit 206 acquires voice information from the speech voice storage unit 202, and converts the acquired voice information into speech character information. For example, when the character string conversion unit 206 acquires the sound file shown in FIG. 4B as sound information, the character string conversion unit 206 converts the first speech sound 21 into speech character information based on a character string as shown in FIG. 9A. .

ステップS302の処理が完了すると、次いで、文字列変換部206は音量に基づいて重要キーワードを抽出する(ステップS303)。より詳しくは、文字列変換部206は音声情報全体において所定の閾値以上の音量を有する音声情報を重要キーワードと認定し、演説文字情報からその重要キーワードを抽出する。したがって、音声情報全体の中で「一票の格差」、「安全保障」及び「消費税」が所定の閾値以上の音量を有する場合、図9(b)に示すように、演説文字情報の中から文字情報「一票の格差」、「安全保障」及び「消費税」が重要キーワードとして抽出される。   When the process of step S302 is completed, the character string converter 206 then extracts important keywords based on the volume (step S303). More specifically, the character string conversion unit 206 recognizes voice information having a volume equal to or higher than a predetermined threshold in the entire voice information as an important keyword, and extracts the important keyword from the speech character information. Therefore, in the case where “single vote disparity”, “security”, and “consumption tax” in the entire speech information have a volume greater than or equal to a predetermined threshold, as shown in FIG. From the above, the text information “one vote disparity”, “security” and “consumption tax” are extracted as important keywords.

ステップS303の処理が完了すると、次いで、キーワード抽出部207はSNS情報から頻出キーワードを抽出する(ステップS304)。より詳しくは、キーワード抽出部207はSNS情報記憶部204からSNS情報を取得して、取得したSNS情報から頻出キーワードを抽出する。例えばキーワード抽出部207は図5(a)に示すSNS情報を取得した場合、図9(c)に示すように、SNS情報の中から文字情報「消費税」及び「軽減税率」が頻出キーワードとして抽出される。尚、キーワード抽出部207は文字情報「食料品」も抽出するが、図9(c)では省略されている。   When the process of step S303 is completed, the keyword extraction unit 207 then extracts frequently-used keywords from the SNS information (step S304). More specifically, the keyword extraction unit 207 acquires SNS information from the SNS information storage unit 204, and extracts frequent keywords from the acquired SNS information. For example, when the keyword extracting unit 207 acquires the SNS information shown in FIG. 5A, as shown in FIG. 9C, the character information “consumption tax” and “reduced tax rate” are frequently used as keywords from the SNS information. Extracted. The keyword extraction unit 207 also extracts character information “food”, but is omitted in FIG.

ステップS304の処理が完了すると、次いで、SNS情報分類部208はSNS情報の中で頻出キーワードを含む部分の賛否を分類する(ステップS305)。より詳しくは、SNS情報分類部208はSNS情報記憶部204からSNS情報を取得して、取得したSNS情報全体から頻出キーワードを含む一部のSNS情報の賛否を賛否情報に基づいて分類する。例えばSNS情報分類部208は図5(a)に示す4つのSNS情報を取得した場合、4つのSNS情報から頻出キーワード「食料品」、「消費税」及び「軽減税率」を含む3つのSNS情報の賛否を分類する。   When the process of step S304 is completed, the SNS information classification unit 208 then classifies the pros and cons of the part containing the frequently occurring keyword in the SNS information (step S305). More specifically, the SNS information classification unit 208 acquires SNS information from the SNS information storage unit 204, and classifies the pros and cons of some SNS information including frequent keywords from the entire acquired SNS information based on pros and cons information. For example, when the SNS information classifying unit 208 acquires the four SNS information shown in FIG. 5A, three SNS information including the frequent keywords “food”, “consumption tax”, and “reduced tax rate” from the four SNS information. Categorize pros and cons.

ここで、図5(a)に示すように、SNSID「S01」及び「S03」は賛成を表すSNS情報であり、SNSID「S02」は反対を表すSNS情報である。このため、図9(c)に示すように、SNS情報分類部208は3件のSNS情報を、賛成を表す2件のSNS情報と反対を表す1件のSNS情報に分類する。分類後、SNS情報分類部208はSNS情報の賛否の割合を算出する。本実施形態の場合、図9(c)に示すように、賛成=67%、反対=33%と算出される。尚、ステップS302及びS303の処理とステップS304及びS305の処理は順番が逆であってもよいし並行して処理が進んでもよい。   Here, as shown in FIG. 5A, SNS IDs “S01” and “S03” are SNS information indicating approval, and SNS ID “S02” is SNS information indicating the opposite. For this reason, as shown in FIG.9 (c), the SNS information classification | category part 208 classify | categorizes 3 SNS information into 1 SNS information showing the opposite to 2 SNS information showing approval. After the classification, the SNS information classification unit 208 calculates the percentage of approval / disapproval of the SNS information. In the case of this embodiment, as shown in FIG. 9C, it is calculated that the approval = 67% and the opposite = 33%. Note that the order of the processes in steps S302 and S303 and the processes in steps S304 and S305 may be reversed, or the processes may proceed in parallel.

ステップS305の処理が完了すると、次いで、反響検知部209は演説における反響部分を検知する(ステップS306)。より詳しくは、反響検知部209は重要キーワードを含む演説文字情報の中で頻出キーワードを含む一部の文字情報を演説における反響部分として検知する。例えば反響検知部209は重要キーワードを含む文章の中で頻出キーワードを含む文章を演説における反響部分として検知する。また、反響検知部209はSNS情報分類部208によって算出された賛否の割合を評価して反響部分に併記する。したがって、図9(d)に示すように、反響検知部209は重要キーワード兼頻出キーワード「消費税」を含む1つの文章を演説における反響部分として検知し、併せてその反響部分の賛否を「賛成=67%、反対=33%」と評価して、検知した1つの文章の末尾に併記する。尚、反響検知部209は文章の末尾の判断を例えば句点の有無に基づいて行う。   When the process of step S305 is completed, the echo detection unit 209 then detects the echo part in the speech (step S306). More specifically, the echo detection unit 209 detects a part of character information including frequent keywords in the speech character information including important keywords as an echo part in the speech. For example, the echo detection unit 209 detects a sentence including a frequent keyword among sentences including an important keyword as an echo part in the speech. In addition, the echo detection unit 209 evaluates the percentage of approval and disapproval calculated by the SNS information classification unit 208 and writes it in the echo part. Therefore, as shown in FIG. 9 (d), the echo detection unit 209 detects one sentence including the important keyword / frequently used keyword “consumption tax” as an echo part in the speech, and also determines whether the echo part is in favor or not. = 67%, opposite = 33% ", and is written at the end of one detected sentence. The echo detection unit 209 determines the end of the sentence based on, for example, the presence or absence of a punctuation mark.

ステップS306の処理が完了すると、次いで、評価結果提示部210は評価結果を提示する(ステップS307)。例えば、評価結果提示部210は端末装置100からの閲覧要求を受け付けると、閲覧要求に含まれる認証情報に基づいて閲覧の許可又は拒否を判断する。評価結果提示部210は閲覧を許可する場合、端末装置100に賛否評価画面を閲覧させる。賛否閲覧画面では、図10に示すように、まず、抽出された重要キーワードを演説全体の論点として提示し、次に、算出された賛否の割合と検知された反響部分とを提示する。これにより、選挙対策事務所10の所員は演説者RAの演説全体の中でどの部分が有権者に反響しているのかを把握することができる。   When the process of step S306 is completed, the evaluation result presentation unit 210 then presents the evaluation result (step S307). For example, when receiving the browsing request from the terminal device 100, the evaluation result presentation unit 210 determines whether to permit or reject browsing based on the authentication information included in the browsing request. When the evaluation result presentation unit 210 permits browsing, the evaluation result presentation unit 210 causes the terminal device 100 to browse the approval / disapproval evaluation screen. On the approval / disapproval browsing screen, as shown in FIG. 10, first, the extracted important keywords are presented as the points of the entire speech, and then the calculated proportion of approval / disapproval and the detected reverberation part are presented. Thereby, the staff of the election office 10 can grasp which part of the speech of the speaker RA is reverberating to the voters.

その他、評価結果提示部210は賛否閲覧画面を切り替える指示を端末装置100から受け付けることにより、図11(a)〜(c)に示すように、口コミ推移画面、急上昇キーワード画面、及び反対発言者特定画面のいずれかを表示してもよい。口コミ推移画面は単位時間当たりに投稿されたSNS情報の件数の推移を表している。これにより、演説とSNS情報との時系列な相関関係を把握することができる。急上昇キーワード画面は所定時間内に急激に頻出したキーワードを表している。当該キーワードを演説と照らし合わせてその原因を解明すれば、次の演説に役立てることができる。反対発言者特定画面は、反対発言を発信する発信者を特定する画面である。例えば発信者による反対発言に誤解が含まれている場合には、特定した発信者にSNS400を介して抗議することができる。   In addition, the evaluation result presentation unit 210 receives an instruction to switch the approval / disapproval browsing screen from the terminal device 100, and as shown in FIGS. 11 (a) to 11 (c), the review transition screen, the rapidly increasing keyword screen, and the opposite speaker identification Any of the screens may be displayed. The word-of-mouth transition screen shows the transition of the number of SNS information posted per unit time. Thereby, the time-sequential correlation between the speech and the SNS information can be grasped. The soaring keyword screen represents keywords that appear rapidly and frequently within a predetermined time. If the cause is clarified by comparing the keyword with the speech, it can be used for the next speech. The counter-speaker specifying screen is a screen for specifying a sender who transmits a counter-speak. For example, when a misunderstanding is included in the opposite statement by the caller, the specified caller can be protested via the SNS 400.

以上、第1実施形態によれば、サーバ装置200は文字列変換部206とキーワード抽出部207と反響検知部209とを備えている。ここで、文字列変換部206は演説を含む音声情報を演説文字情報に変換する。キーワード抽出部207は演説に対するSNS情報から予め定めた一部の文字情報を頻出キーワードとして抽出する。反響検知部209は演説文字情報の中で頻出キーワードを含む部分である一部の文章を演説における反響部分として検知する。これにより、演説における反響部分を検知することができる。   As described above, according to the first embodiment, the server device 200 includes the character string conversion unit 206, the keyword extraction unit 207, and the echo detection unit 209. Here, the character string conversion unit 206 converts voice information including a speech into speech character information. The keyword extraction unit 207 extracts a part of predetermined character information as frequent keywords from the SNS information for the speech. The reverberation detection unit 209 detects a part of the text that is a part including the frequent keyword in the speech character information as a reverberation part in the speech. Thereby, the reverberation part in a speech can be detected.

(第2実施形態)
続いて、図12から図16を参照して、本件の第2実施形態について説明する。
図12は第2実施形態に係る演説反響検知システムS2の一例である。尚、図1に示される演説反響検知システムS1の各装置と同様の構成には同一符号を付し、その説明を省略する。図12では演説者RAと異なる演説者RBが演説を行っている様子が示されている。また、図12では選挙対策事務所10と異なる選挙対策事務所30が示されている。
(Second Embodiment)
Next, a second embodiment of the present case will be described with reference to FIGS.
FIG. 12 is an example of a speech echo detection system S2 according to the second embodiment. In addition, the same code | symbol is attached | subjected to the structure similar to each apparatus of the speech echo detection system S1 shown by FIG. 1, and the description is abbreviate | omitted. FIG. 12 shows a state where a speaker RB different from the speaker RA is giving a speech. Further, FIG. 12 shows an election countermeasure office 30 different from the election countermeasure office 10.

選挙対策事務所30は選挙に立候補した演説者RBが利用する事務所である。選挙対策事務所30には選挙対策事務所10と同様に端末装置(不図示)が設置されている。選挙対策事務所30に設置された端末装置は通信ネットワークNWを介してサーバ装置200と接続されている。したがって、当該端末装置はサーバ装置200と通信することができる。   The election office 30 is an office used by a speaker RB who has run for the election. Similarly to the election countermeasure office 10, a terminal device (not shown) is installed in the election countermeasure office 30. A terminal device installed in the election countermeasure office 30 is connected to the server device 200 via the communication network NW. Therefore, the terminal device can communicate with the server device 200.

また、演説反響検知システムS2に係る通信ネットワークNWにはマイク310が接続されている。マイク310は演説者RBの演説を含む音声を取得し、取得した音声を音声情報に変換する。図12において、演説者RBは聴衆AEを前に演説を行っている。マイク310に音声情報の送信先をサーバ装置200に設定しておけば、マイク310は音声情報をサーバ装置200に向けて送信する。第1実施形態と同様に携帯型のPCを利用してもよい。これにより、サーバ装置200は演説者RBの演説を含む音声情報を収集する。   A microphone 310 is connected to the communication network NW related to the speech echo detection system S2. The microphone 310 acquires a voice including the speech of the speaker RB and converts the acquired voice into voice information. In FIG. 12, the speaker RB is giving a speech before the audience AE. If the transmission destination of the audio information is set to the microphone 310 in the server device 200, the microphone 310 transmits the audio information to the server device 200. A portable PC may be used as in the first embodiment. Thereby, the server apparatus 200 collects audio information including the speech of the speaker RB.

次に、図13を参照して、第2実施形態に係るサーバ装置200の機能について説明する。   Next, functions of the server device 200 according to the second embodiment will be described with reference to FIG.

図13は第2実施形態に係るサーバ装置200の機能ブロック図の一例である。尚、図3に示されるサーバ装置200の各部と同様の構成には同一符号を付し、その説明を省略する。   FIG. 13 is an example of a functional block diagram of the server apparatus 200 according to the second embodiment. In addition, the same code | symbol is attached | subjected to the structure similar to each part of the server apparatus 200 shown by FIG. 3, and the description is abbreviate | omitted.

サーバ装置200は第1の収集手段としての音声収集部201と演説音声記憶部202を含んでいる。また、サーバ装置200は第2の収集手段としてのSNS情報収集部203とSNS情報記憶部204を含んでいる。さらに、サーバ装置200は賛否情報記憶部205、分類手段としてのSNS情報分類部208、第1の算出手段としての支持度算出部211、第2の算出手段としての反響度算出部212、推定手段としての支持状況推定部213、及び支持状況提示部214を含んでいる。   The server device 200 includes a voice collection unit 201 and a speech voice storage unit 202 as first collection means. The server device 200 includes an SNS information collection unit 203 and an SNS information storage unit 204 as second collection means. Further, the server device 200 includes a pros and cons information storage unit 205, an SNS information classification unit 208 as a classification unit, a support level calculation unit 211 as a first calculation unit, an echo level calculation unit 212 as a second calculation unit, and an estimation unit. The support status estimation unit 213 and the support status presentation unit 214 are included.

支持度算出部211は複数の音声情報のそれぞれに含まれる各演説に向けられた声及び/又は音の大きさに基づいて、各演説に対する支持の度合いをそれぞれ算出する。例えば図14に示すように、演説音声記憶部202に複数の演説者のそれぞれの音声情報が記憶されている場合に、支持度算出部211は第2のトリガ音を検出すると、演説音声記憶部202から複数の演説者のそれぞれの音声情報を取得する。支持度算出部211は取得した複数の音声情報のそれぞれに含まれる各演説に向けられた声及び/又は音の大きさに基づいて、各演説に対する支持の度合いをそれぞれ算出する。   The support level calculation unit 211 calculates the degree of support for each speech based on the voice and / or sound volume directed to each speech included in each of the plurality of audio information. For example, as shown in FIG. 14, when the speech information of each of a plurality of speakers is stored in the speech voice storage unit 202, when the support level calculation unit 211 detects the second trigger sound, the speech voice storage unit The voice information of each of a plurality of speakers is acquired from 202. The support level calculation unit 211 calculates the degree of support for each speech based on the voice and / or sound volume directed to each speech included in each of the acquired plurality of audio information.

具体的には、支持度算出部211は声及び/又は音の音量和を算出し、算出した音量和が相対的に大きければ支持の度合いが高いと判断する。尚、声には歓声、声援、掛け声などが含まれる。音には拍手の音、口笛の音、指笛の音などが含まれる。したがって、支持度算出部211は例えば声援及び/又は拍手の音量が相対的に大きければ、支持の度合いが高いと判断する。支持度算出部211は算出した演説者毎の支持の度合いを支持状況推定部213に出力する。   Specifically, the support level calculation unit 211 calculates the volume sum of voice and / or sound, and determines that the degree of support is high if the calculated volume sum is relatively large. The voice includes cheers, cheers, shouts, and the like. The sounds include clapping sounds, whistling sounds, finger whistling sounds, and the like. Therefore, the support level calculation unit 211 determines that the support level is high if the volume of encouragement and / or applause is relatively high, for example. The support level calculation unit 211 outputs the calculated support level for each speaker to the support status estimation unit 213.

反響度算出部212はSNS情報分類部208によって分類された賛成のSNS情報又は反対のSNS情報に基づいて、各演説に対する反響の度合いをそれぞれ算出する。例えば図15に示すように、SNS情報記憶部204に複数の演説者に対するSNS情報が記憶されている場合に、反響度算出部212にはSNS情報分類部208から賛成のSNS情報と反対のSNS情報が出力される。   The reverberation degree calculation unit 212 calculates the degree of reverberation for each speech based on the SNS information for approval or the opposite SNS information classified by the SNS information classification unit 208. For example, as shown in FIG. 15, when SNS information for a plurality of speakers is stored in the SNS information storage unit 204, an SNS information opposite to the SNS information approved by the SNS information classifying unit 208 is stored in the echo calculation unit 212. Information is output.

反響度算出部212は賛成のSNS情報と反対のSNS情報をさらに演説者毎に分類する。具体的には、反響度算出部212はSNS情報の投稿コメントに現れる演説者名に基づいて分類する。反響度算出部212は演説者毎に分類した反対のSNS情報を利用して、演説者毎の反対のSNS情報の割合を算出する。例えば演説者RAに対する反対のSNS情報が40件、演説者RBに対する反対のSNS情報が60件存在する場合、反響度算出部212は演説者RAに対する不支持の反響度を40%、演説者RBに対する不支持の反響度を60%と算出する。反響度算出部212は算出した演説者毎の不支持の反響度を支持状況推定部213に出力する。   The reverberation calculating unit 212 further classifies the SNS information opposite to the SNS information in favor of each speaker. Specifically, the reverberation degree calculation unit 212 performs classification based on the name of the speaker who appears in the posted comment of the SNS information. The reverberation degree calculation unit 212 uses the opposite SNS information classified for each speaker, and calculates the ratio of the opposite SNS information for each speaker. For example, when there are 40 opposite SNS information for the speaker RA and 60 opposite SNS information for the speaker RB, the echo level calculation unit 212 sets the unacceptable response level for the speaker RA to 40% and the speaker RB. The unfavorable echo with respect to is calculated as 60%. The echo calculation unit 212 outputs the calculated unsupported echo for each speaker to the support situation estimation unit 213.

支持状況推定部213は支持度算出部211から出力された支持の度合いと反響度算出部212から出力された反響の度合いに基づいて、各演説をそれぞれ行う演説者の支持状況を演説者毎に推定する。例えば、支持状況推定部213は以下の算出式を利用して、支持状況を演説者毎に推定する。尚、A及びBはそれぞれ演説者RA及びRBを表している。
支持状況A:B=
Aの演説・支持/(Aの演説・支持+Aの反響・不支持)
:Bの演説・支持/(Bの演説・支持+Bの反響・不支持)
Based on the support level output from the support level calculation unit 211 and the echo level output from the echo level calculation unit 212, the support status estimation unit 213 determines the support status of each speaker who performs each speech for each speaker. presume. For example, the support situation estimation unit 213 uses the following calculation formula to estimate the support situation for each speaker. A and B represent the speakers RA and RB, respectively.
Support status A: B =
A's speech / support / (A's speech / support + A's response / non-support)
: B's speech / support / (B's speech / support + B's response / non-support)

ここで、A及びBの各演説・支持、並びにA及びBの各反響・不支持は以下の算出式を利用して算出される。尚、dBはデシベルを表している。
Aの演説・支持=Aの演説・支持(dB)
/(Aの演説・支持(dB)+Bの演説・支持(dB))
Aの反響・不支持=Aの反響・不支持(%)
/(Aの反響・不支持(%)+Bの反響・不支持(%))
Bの演説・支持=Bの演説・支持(dB)
/(Aの演説・支持(dB)+Bの演説・支持(dB))
Bの反響・不支持=Bの反響・不支持(%)
/(Aの反響・不支持(%)+Bの反響・不支持(%))
Here, each speech / support of A and B, and each echo / non-support of A and B are calculated using the following calculation formulas. Note that dB represents decibels.
A's speech / support = A's speech / support (dB)
/ (A's speech / support (dB) + B's speech / support (dB))
A's response / non-support = A's response / non-support (%)
/ (A response / non-support (%) + B response / non-support (%))
B's speech / support = B's speech / support (dB)
/ (A's speech / support (dB) + B's speech / support (dB))
B's response / non-support = B's response / non-support (%)
/ (A response / non-support (%) + B response / non-support (%))

本実施形態では、図14に示す各演説者A及びBの音量和により、演説者Aの演説・支持が150(dB)、演説者Bの演説・支持が120(dB)と算出される。したがって、上述したように演説者RAに対する不支持の反響度が40(%)、演説者RBに対する不支持の反響度が60(%)と算出された場合、支持状況推定部213は小数点以下を切り捨ててA:B=57:42と推定する。すなわち、支持状況推定部213は演説者RAの支持状況が57%、演説者RAの支持状況が42%と推定する。支持状況推定部213は推定した支持状況を支持状況提示部214に出力する。   In the present embodiment, the speech / support of the speaker A is calculated as 150 (dB) and the speech / support of the speaker B is calculated as 120 (dB) based on the sum of the volumes of the speakers A and B shown in FIG. Therefore, as described above, when the degree of unfavorable echo for the speaker RA is calculated as 40 (%) and the degree of unfavorable echo for the speaker RB is calculated as 60 (%), the support situation estimation unit 213 calculates the decimal point. Round down and estimate A: B = 57: 42. That is, the support status estimation unit 213 estimates that the support status of the speaker RA is 57% and the support status of the speaker RA is 42%. The support situation estimation unit 213 outputs the estimated support situation to the support situation presentation unit 214.

支持状況提示部214は推定された支持状況を保持する。支持状況提示部214は選挙対策事務所10の端末装置100や選挙対策事務所30の端末装置(不図示)からの閲覧要求を受け付けると、閲覧要求に含まれる認証情報に基づいて閲覧を許可したり拒否したりする。例えば支持状況提示部214は認証が成功すれば推定された支持状況の閲覧を許可する。逆に、支持状況提示部214は認証が失敗すれば推定された支持状況を拒否する。これにより、選挙対策事務所10や選挙対策事務所30の各所員は演説者RA,RBの演説に対する支持状況を把握することができる。   The support status presentation unit 214 holds the estimated support status. When receiving a browsing request from the terminal device 100 of the election countermeasure office 10 or the terminal device (not shown) of the election countermeasure office 30, the support status presentation unit 214 permits browsing based on the authentication information included in the browsing request. Or refuse. For example, if the authentication is successful, the support status presentation unit 214 permits browsing of the estimated support status. Conversely, the support status presentation unit 214 rejects the estimated support status if the authentication fails. Thereby, each member of the election countermeasure office 10 and the election countermeasure office 30 can grasp the support status of the speeches of the speakers RA and RB.

図16は第2実施形態に係るサーバ装置200が実行する処理の一例を示すフローチャートである。   FIG. 16 is a flowchart illustrating an example of processing executed by the server device 200 according to the second embodiment.

図16に示すように、支持度算出部211は第2のトリガ音を検出するまで待機する(ステップS401:NO)。支持度算出部211は第2のトリガ音を検出すると(ステップS401:YES)、上述した支持の度合いを算出する(ステップS402)。より詳しくは、支持度算出部211は演説音声記憶部202から音声情報を取得して、上述した支持の度合いを算出する。   As shown in FIG. 16, the support degree calculation unit 211 waits until it detects the second trigger sound (step S401: NO). When the support level calculation unit 211 detects the second trigger sound (step S401: YES), the support level calculation unit 211 calculates the above-described support level (step S402). More specifically, the support level calculation unit 211 acquires audio information from the speech audio storage unit 202 and calculates the above-described support level.

ステップS402の処理が完了すると、次いで、SNS情報分類部208はSNS情報の中で頻出キーワードを含む部分の賛否を分類する(ステップS403)。ステップS403の処理が完了すると、次いで、反響度算出部212は上述した反響の度合いを算出する(ステップS404)。ステップS404の処理が完了すると、次いで、支持状況推定部213は支持状況を推定する(ステップS405)。   When the process of step S402 is completed, the SNS information classification unit 208 then classifies the pros and cons of the part containing the frequently occurring keyword in the SNS information (step S403). When the process of step S403 is completed, the reverberation degree calculation unit 212 calculates the reverberation degree described above (step S404). When the process of step S404 is completed, the support status estimation unit 213 then estimates the support status (step S405).

ステップS405の処理が完了すると、支持状況提示部214は支持状況を提示する(ステップS406)。例えば、支持状況提示部214は端末装置100などからの閲覧要求を受け付ける。支持状況提示部214は閲覧要求に含まれる認証情報に基づいて支持状況の閲覧の許可又は許否を判断する。認証が成功すれば支持状況提示部214は閲覧を許可する。これにより、支持状況提示部214は端末装置100に支持状況を提示する。したがって、選挙対策事務所10,30の各所員は演説者RA,RBの支持状況を把握することができる。   When the process of step S405 is completed, the support status presentation unit 214 presents the support status (step S406). For example, the support status presentation unit 214 receives a browsing request from the terminal device 100 or the like. The support status presentation unit 214 determines whether or not to permit viewing of the support status based on the authentication information included in the browse request. If the authentication is successful, the support status presentation unit 214 permits browsing. As a result, the support status presentation unit 214 presents the support status to the terminal device 100. Therefore, each member of the election offices 10 and 30 can grasp the support status of the speakers RA and RB.

以上、第2実施形態によれば、複数の演説者RA,RBのそれぞれの演説を含む音声と各演説に対するSNS情報を利用することで、演説者RA,RBに対する支持状況の推定値を把握することができる。   As mentioned above, according to 2nd Embodiment, the estimated value of the support condition with respect to speaker RA and RB is grasped | ascertained using the audio | voice containing each speech of several speaker RA and RB, and SNS information with respect to each speech. be able to.

以上、本発明の好ましい実施形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to the specific embodiments according to the present invention, and various modifications are possible within the scope of the gist of the present invention described in the claims.・ Change is possible.

なお、以上の説明に関して更に以下の付記を開示する。
(付記1)演説を含む音声情報を第1の文字情報に変換する変換ステップと、前記演説に対する第2の文字情報の中から一部の文字情報を該一部の文字情報の出現頻度に基づいて抽出する抽出ステップと、前記第1の文字情報の中で前記一部の文字情報を含む部分を前記演説における反響部分として検知する検知ステップと、をコンピュータが実行する演説反響検知方法。
(付記2)賛成を表す文字情報と反対を表す文字情報を利用して、前記第2の文字情報の中で前記一部の文字情報を含む部分を賛成の部分と反対の部分に分類する分類ステップを含み、前記検知ステップは、前記賛成の部分と前記反対の部分に基づいて、前記反響部分の賛否を評価する、ことを特徴とする付記1に記載の演説反響検知方法。
(付記3)前記音声情報をマイクから収集する第1の収集ステップと、前記第2の文字情報をソーシャルネットワーキングサービスから収集する第2の収集ステップと、を含むことを特徴とする付記1又は2に記載の演説反響検知方法。
(付記4)前記第2の収集ステップは、前記音声情報が収集されてから所定の時間内に前記ソーシャルネットワーキングサービスに投稿された前記第2の文字情報を収集する、ことを特徴とする付記3に記載の演説反響検知方法。
(付記5)複数の音声情報のそれぞれに含まれる各演説に向けられた声及び/又は音の大きさに基づいて、前記各演説に対する支持の度合いをそれぞれ算出する第1の算出ステップと、賛成を表す文字情報と反対を表す文字情報を利用して、前記各演説に対する文字情報を賛成の文字情報と反対の文字情報に分類する分類ステップと、前記賛成の文字情報又は前記反対の文字情報に基づいて、前記各演説に対する反響の度合いをそれぞれ算出する第2の算出ステップと、前記支持の度合いと前記反響の度合いに基づいて、前記各演説をそれぞれ行う演説者の支持状況を前記演説者毎に推定する推定ステップと、をコンピュータが実行する演説反響検知方法。
(付記6)演説を含む音声情報を第1の文字情報に変換する変換ステップと、前記演説に対する第2の文字情報の中から一部の文字情報を該一部の文字情報の出現頻度に基づいて抽出する抽出ステップと、前記第1の文字情報の中で前記一部の文字情報を含む部分を前記演説における反響部分として検知する検知ステップと、をコンピュータに実行させるための演説反響検知プログラム。
(付記7)複数の音声情報のそれぞれに含まれる各演説に向けられた声及び/又は音の大きさに基づいて、前記各演説に対する支持の度合いをそれぞれ算出する第1の算出ステップと、賛成を表す文字情報と反対を表す文字情報を利用して、前記各演説に対する文字情報を賛成の文字情報と反対の文字情報に分類する分類ステップと、前記賛成の文字情報又は前記反対の文字情報に基づいて、前記各演説に対する反響の度合いをそれぞれ算出する第2の算出ステップと、前記支持の度合いと前記反響の度合いに基づいて、前記各演説をそれぞれ行う演説者の支持状況を前記演説者毎に推定する推定ステップと、をコンピュータに実行させるための演説反響検知プログラム。
(付記8)演説を含む音声情報を第1の文字情報に変換する変換手段と、前記演説に対する第2の文字情報の中から一部の文字情報を該一部の文字情報の出現頻度に基づいて抽出する抽出手段と、前記第1の文字情報の中で前記一部の文字情報を含む部分を前記演説における反響部分として検知する検知手段と、を有する演説反響検知装置。
(付記9)賛成を表す文字情報と反対を表す文字情報を利用して、前記第2の文字情報の中で前記一部の文字情報を含む部分を賛成の部分と反対の部分に分類する分類手段を含み、前記検知手段は、前記賛成の部分と前記反対の部分に基づいて、前記反響部分の賛否を評価する、ことを特徴とする付記8に記載の演説反響検知装置。
(付記10)前記音声情報をマイクから収集する第1の収集手段と、前記第2の文字情報をソーシャルネットワーキングサービスから収集する第2の収集手段と、を含むことを特徴とする付記8又は9に記載の演説反響検知装置。
(付記11)前記第2の収集手段は、前記音声情報が収集されてから所定の時間内に前記ソーシャルネットワーキングサービスに投稿された前記第2の文字情報を収集する、ことを特徴とする付記10に記載の演説反響検知装置。
(付記12)複数の音声情報のそれぞれに含まれる各演説に向けられた声及び/又は音の大きさに基づいて、前記各演説に対する支持の度合いをそれぞれ算出する第1の算出手段と、賛成を表す文字情報と反対を表す文字情報を利用して、前記各演説に対する文字情報を賛成の文字情報と反対の文字情報に分類する分類手段と、前記賛成の文字情報又は前記反対の文字情報に基づいて、前記各演説に対する反響の度合いをそれぞれ算出する第2の算出手段と、前記支持の度合いと前記反響の度合いに基づいて、前記各演説をそれぞれ行う演説者の支持状況を前記演説者毎に推定する推定手段と、を有する演説反響検知装置。
In addition, the following additional notes are disclosed regarding the above description.
(Supplementary note 1) A conversion step of converting speech information including a speech into first character information, and a part of the character information from the second character information corresponding to the speech based on the appearance frequency of the part of the character information A speech echo detection method in which a computer executes an extraction step of extracting the first character information, and a detection step of detecting a part including the partial character information in the speech as an echo part in the speech.
(Additional remark 2) The classification | category which classify | categorizes the part containing the said one part character information in the said 2nd character information into the part opposite to a part for favor using the character information which represents the character information showing favor and the opposite 3. The speech echo detection method according to claim 1, wherein the detection step includes evaluating the pros and cons of the echo part based on the pros and cons parts.
(Supplementary note 3) Supplementary note 1 or 2, characterized in that it includes a first collection step of collecting the voice information from a microphone and a second collection step of collecting the second character information from a social networking service. The speech echo detection method described in.
(Supplementary note 4) The supplementary note 3 is characterized in that the second collection step collects the second character information posted to the social networking service within a predetermined time after the voice information is collected. The speech echo detection method described in.
(Supplementary Note 5) A first calculation step for calculating a degree of support for each speech based on the volume of voice and / or sound directed to each speech included in each of a plurality of speech information; Classifying the character information for each speech into character information opposite to the character information in favor and the character information in favor of the character information representing Based on the second calculation step for calculating the degree of reverberation for each of the speeches, and the support status of the performers who perform each of the speeches based on the degree of support and the degree of the reverberations for each of the speakers. A speech echo detection method executed by a computer.
(Appendix 6) A conversion step of converting speech information including a speech into first character information, and a part of the character information from the second character information for the speech based on the appearance frequency of the part of the character information A speech echo detection program for causing a computer to execute an extraction step of extracting the first text information and a detection step of detecting a part including the partial character information in the speech as an echo part in the speech.
(Supplementary note 7) A first calculation step for calculating a degree of support for each speech based on a voice and / or a sound volume directed to each speech included in each of a plurality of speech information, and Classifying the character information for each speech into character information opposite to the character information in favor and the character information in favor of the character information representing Based on the second calculation step for calculating the degree of reverberation for each of the speeches, and the support status of the performers who perform each of the speeches based on the degree of support and the degree of the reverberations for each of the speakers. And a speech echo detection program for causing a computer to execute an estimation step.
(Supplementary Note 8) Conversion means for converting speech information including a speech into first character information, and part of the character information from the second character information for the speech based on the appearance frequency of the part of character information A speech echo detection apparatus comprising: extraction means for extracting the first character information; and detection means for detecting a part including the partial character information in the first character information as an echo part in the speech.
(Additional remark 9) The classification | category which classifies the part containing the said one part character information in the said 2nd character information into the part opposite to an approval part using the character information showing the opposite and the character information showing approval The speech echo detection apparatus according to appendix 8, wherein the detection means evaluates the pros and cons of the echo part based on the pros and cons parts.
(Additional remark 10) Additional remark 8 or 9 characterized by including the 1st collection means which collects the said voice information from a microphone, and the 2nd collection means which collects said 2nd character information from a social networking service. The speech echo detection device described in 1.
(Supplementary note 11) The supplementary note 10 is characterized in that the second collection means collects the second character information posted to the social networking service within a predetermined time after the voice information is collected. The speech echo detection device described in 1.
(Additional remark 12) 1st calculation means for calculating the degree of support for each speech based on the voice and / or sound volume directed to each speech included in each of a plurality of speech information; Classifying means for classifying the character information for each speech into the character information opposite to the character information in favor, using the character information representing the opposite to the character information representing, and the character information in favor or the character information opposite Based on the second calculating means for calculating the degree of reverberation for each speech, and the support status of each speaker who performs each speech based on the degree of support and the degree of reverberation for each speaker. A speech echo detection apparatus comprising:

S1,S2 演説反響検知システム
100 端末装置
200 サーバ装置
206 文字列変換部
207 キーワード抽出部
208 SNS情報分類部
209 反響検知部
211 支持度算出部
212 反響度算出部
213 支持状況推定部
S1, S2 Speech reflection detection system 100 terminal device 200 server device 206 character string conversion unit 207 keyword extraction unit 208 SNS information classification unit 209 echo detection unit 211 support level calculation unit 212 echo level calculation unit 213 support status estimation unit

Claims (9)

演説を含む音声情報を第1の文字情報に変換する変換ステップと、
前記演説に対する第2の文字情報の中から一部の文字情報を該一部の文字情報の出現頻度に基づいて抽出する抽出ステップと、
前記第1の文字情報の中で前記一部の文字情報を含む部分を前記演説における反響部分として検知する検知ステップと、
をコンピュータが実行する演説反響検知方法。
A conversion step of converting speech information including a speech into first character information;
Extracting a part of the character information from the second character information for the speech based on the appearance frequency of the part of the character information;
A detection step of detecting a portion including the partial character information in the first character information as a reverberation portion in the speech;
A speech echo detection method executed by a computer.
賛成を表す文字情報と反対を表す文字情報を利用して、前記第2の文字情報の中で前記一部の文字情報を含む部分を賛成の部分と反対の部分に分類する分類ステップを含み、
前記検知ステップは、前記賛成の部分と前記反対の部分に基づいて、前記反響部分の賛否を評価する、ことを特徴とする請求項1に記載の演説反響検知方法。
Using the character information representing the opposite and the character information representing the opposite, including a classification step of classifying the portion including the part of the character information in the second character information into the portion opposite to the portion of favor,
2. The speech echo detection method according to claim 1, wherein the detection step evaluates the pros and cons of the echo part based on the pros and cons parts.
前記音声情報をマイクから収集する第1の収集ステップと、
前記第2の文字情報をソーシャルネットワーキングサービスから収集する第2の収集ステップと、
を含むことを特徴とする請求項1又は2に記載の演説反響検知方法。
A first collecting step of collecting the audio information from a microphone;
A second collecting step of collecting the second character information from a social networking service;
The speech echo detection method according to claim 1, wherein the speech echo detection method is included.
前記第2の収集ステップは、前記音声情報が収集されてから所定の時間内に前記ソーシャルネットワーキングサービスに投稿された前記第2の文字情報を収集する、
ことを特徴とする請求項3に記載の演説反響検知方法。
The second collecting step collects the second character information posted to the social networking service within a predetermined time after the voice information is collected;
The speech echo detection method according to claim 3, wherein:
複数の音声情報のそれぞれに含まれる各演説に向けられた声及び/又は音の大きさに基づいて、前記各演説に対する支持の度合いをそれぞれ算出する第1の算出ステップと、
賛成を表す文字情報と反対を表す文字情報を利用して、前記各演説に対する文字情報を賛成の文字情報と反対の文字情報に分類する分類ステップと、
前記賛成の文字情報又は前記反対の文字情報に基づいて、前記各演説に対する反響の度合いをそれぞれ算出する第2の算出ステップと、
前記支持の度合いと前記反響の度合いに基づいて、前記各演説をそれぞれ行う演説者の支持状況を前記演説者毎に推定する推定ステップと、
をコンピュータが実行する演説反響検知方法。
A first calculation step of calculating a degree of support for each speech based on a voice and / or a sound volume directed to each speech included in each of a plurality of audio information;
A classification step for classifying the character information for each speech into character information opposite to the character information for approval, using character information indicating the opposite to the character information indicating approval,
A second calculation step of calculating a degree of reverberation for each speech based on the character information for and the opposite character information;
Based on the degree of support and the degree of reverberation, an estimation step for estimating the support status of each speaker who makes each speech, for each speaker,
A speech echo detection method executed by a computer.
演説を含む音声情報を第1の文字情報に変換する変換ステップと、
前記演説に対する第2の文字情報の中から一部の文字情報を該一部の文字情報の出現頻度に基づいて抽出する抽出ステップと、
前記第1の文字情報の中で前記一部の文字情報を含む部分を前記演説における反響部分として検知する検知ステップと、
をコンピュータに実行させるための演説反響検知プログラム。
A conversion step of converting speech information including a speech into first character information;
Extracting a part of the character information from the second character information for the speech based on the appearance frequency of the part of the character information;
A detection step of detecting a portion including the partial character information in the first character information as a reverberation portion in the speech;
A speech echo detection program that causes a computer to execute.
複数の音声情報のそれぞれに含まれる各演説に向けられた声及び/又は音の大きさに基づいて、前記各演説に対する支持の度合いをそれぞれ算出する第1の算出ステップと、
賛成を表す文字情報と反対を表す文字情報を利用して、前記各演説に対する文字情報を賛成の文字情報と反対の文字情報に分類する分類ステップと、
前記賛成の文字情報又は前記反対の文字情報に基づいて、前記各演説に対する反響の度合いをそれぞれ算出する第2の算出ステップと、
前記支持の度合いと前記反響の度合いに基づいて、前記各演説をそれぞれ行う演説者の支持状況を前記演説者毎に推定する推定ステップと、
をコンピュータに実行させるための演説反響検知プログラム。
A first calculation step of calculating a degree of support for each speech based on a voice and / or a sound volume directed to each speech included in each of a plurality of audio information;
A classification step for classifying the character information for each speech into character information opposite to the character information for approval, using character information indicating the opposite to the character information indicating approval,
A second calculation step of calculating a degree of reverberation for each speech based on the character information for and the opposite character information;
Based on the degree of support and the degree of reverberation, an estimation step for estimating the support status of each speaker who makes each speech, for each speaker,
A speech echo detection program that causes a computer to execute.
演説を含む音声情報を第1の文字情報に変換する変換手段と、
前記演説に対する第2の文字情報の中から一部の文字情報を該一部の文字情報の出現頻度に基づいて抽出する抽出手段と、
前記第1の文字情報の中で前記一部の文字情報を含む部分を前記演説における反響部分として検知する検知手段と、
を有する演説反響検知装置。
Conversion means for converting speech information including a speech into first character information;
Extraction means for extracting a part of character information from the second character information for the speech based on the appearance frequency of the part of character information;
Detecting means for detecting a part including the part of the character information in the first character information as an echo part in the speech;
Speech reverberation detection device.
複数の音声情報のそれぞれに含まれる各演説に向けられた声及び/又は音の大きさに基づいて、前記各演説に対する支持の度合いをそれぞれ算出する第1の算出手段と、
賛成を表す文字情報と反対を表す文字情報を利用して、前記各演説に対する文字情報を賛成の文字情報と反対の文字情報に分類する分類手段と、
前記賛成の文字情報又は前記反対の文字情報に基づいて、前記各演説に対する反響の度合いをそれぞれ算出する第2の算出手段と、
前記支持の度合いと前記反響の度合いに基づいて、前記各演説をそれぞれ行う演説者の支持状況を前記演説者毎に推定する推定手段と、
を有する演説反響検知装置。
First calculation means for calculating the degree of support for each speech based on the voice and / or sound volume directed to each speech included in each of a plurality of audio information;
Classifying means for classifying the character information for each speech into the character information opposite to the character information for approval, using the character information indicating the opposite to the character information indicating approval,
Second calculating means for calculating a degree of reverberation for each speech based on the character information for and the opposite character information;
Based on the degree of support and the degree of reverberation, estimation means for estimating the support status of each speaker who performs each speech, for each speaker,
Speech reverberation detection device.
JP2016047423A 2016-03-10 2016-03-10 Speech response detection method, speech response detection program, and speech response detection device Pending JP2017161787A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016047423A JP2017161787A (en) 2016-03-10 2016-03-10 Speech response detection method, speech response detection program, and speech response detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016047423A JP2017161787A (en) 2016-03-10 2016-03-10 Speech response detection method, speech response detection program, and speech response detection device

Publications (1)

Publication Number Publication Date
JP2017161787A true JP2017161787A (en) 2017-09-14

Family

ID=59857029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016047423A Pending JP2017161787A (en) 2016-03-10 2016-03-10 Speech response detection method, speech response detection program, and speech response detection device

Country Status (1)

Country Link
JP (1) JP2017161787A (en)

Similar Documents

Publication Publication Date Title
CN107430858B (en) Communicating metadata identifying a current speaker
US10083006B1 (en) Intercom-style communication using multiple computing devices
US20190034040A1 (en) Method for extracting salient dialog usage from live data
US9304657B2 (en) Audio tagging
CA2895964C (en) Method and system for performing an audio information collection and query
US10574608B2 (en) Technology for multi-recipient electronic message modification based on recipient subset
WO2019148586A1 (en) Method and device for speaker recognition during multi-person speech
JP2017534941A (en) Orphan utterance detection system and method
WO2016163028A1 (en) Utterance presentation device, utterance presentation method, and program
KR102208954B1 (en) Coputer device for providing dialogues services
JP2017016566A (en) Information processing device, information processing method and program
US10973458B2 (en) Daily cognitive monitoring of early signs of hearing loss
AU2017216520A1 (en) Common data repository for improving transactional efficiencies of user interactions with a computing device
CN104780282A (en) Method and equipment for classifying speech content in telephone conference
JP2014206896A (en) Information processing apparatus, and program
JP2015094811A (en) System and method for visualizing speech recording
CN104424955A (en) Audio graphical expression generation method and equipment, and audio searching method and equipment
KR102222637B1 (en) Apparatus for analysis of emotion between users, interactive agent system using the same, terminal apparatus for analysis of emotion between users and method of the same
KR20200082240A (en) Apparatus for determining title of user, system including the same, terminal and method for the same
KR102540177B1 (en) Method for providing transcript service by seperating overlapping voices between speakers
JP2017161787A (en) Speech response detection method, speech response detection program, and speech response detection device
JP6244731B2 (en) Information processing apparatus and information processing program
KR102647512B1 (en) Method for generating meeting minutes based on multi channel voice data
JP2014002336A (en) Content processing device, content processing method, and computer program
JP7370521B2 (en) Speech analysis device, speech analysis method, online communication system, and computer program