JP2018190070A - Interaction support method, device and program - Google Patents

Interaction support method, device and program Download PDF

Info

Publication number
JP2018190070A
JP2018190070A JP2017090161A JP2017090161A JP2018190070A JP 2018190070 A JP2018190070 A JP 2018190070A JP 2017090161 A JP2017090161 A JP 2017090161A JP 2017090161 A JP2017090161 A JP 2017090161A JP 2018190070 A JP2018190070 A JP 2018190070A
Authority
JP
Japan
Prior art keywords
dialogue
conversation
information indicating
speech
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017090161A
Other languages
Japanese (ja)
Inventor
正典 横山
Masanori Yokoyama
正典 横山
崇由 望月
Takayoshi Mochizuki
崇由 望月
純史 布引
Ayafumi Nunobiki
純史 布引
通孝 廣瀬
Michitaka Hirose
通孝 廣瀬
智洋 谷川
Tomohiro Tanigawa
智洋 谷川
拓志 鳴海
Takushi Narumi
拓志 鳴海
翔 櫻井
Sho Sakurai
翔 櫻井
成朗 吉田
Shigeo Yoshida
成朗 吉田
由貴 木下
Yuki Kinoshita
由貴 木下
鈴木 啓太
Keita Suzuki
啓太 鈴木
遼平 伏見
Ryohei Fushimi
遼平 伏見
圭佑 世田
Keisuke Seta
圭佑 世田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
University of Tokyo NUC
Original Assignee
Nippon Telegraph and Telephone Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, University of Tokyo NUC filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017090161A priority Critical patent/JP2018190070A/en
Publication of JP2018190070A publication Critical patent/JP2018190070A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize an interaction environment such as a conference capable of reducing synchronization effect of an interaction person by using a computer system.SOLUTION: An interaction support method applies to a system which displays an image showing a person to realize an interaction function, by using a computer system. The method executes: processing which acquires information indicating an interaction state including the number of interaction persons, by an utterance details distribution unit (15); and the processing which allocates utterance of the interaction person to a predetermined number of images on the basis of the information indicating the interaction state.SELECTED DRAWING: Figure 1

Description

本発明は、人を示す画像を表示して対話機能を実現するシステムに適用する、対話支援方法、装置、およびプログラムに関する。   The present invention relates to a dialogue support method, apparatus, and program applied to a system that realizes a dialogue function by displaying an image showing a person.

近年、コンピュータシステムを利用して、人同士の対話を支援するシステムが提案されている。例えば、会議における発話内容をテキスト化したものと、ユーザにより選択されたイラストをディスプレイに表示する編集機能を有する会議支援システムなどが提案されている(特許文献1を参照)。   In recent years, a system that supports a dialogue between people using a computer system has been proposed. For example, there has been proposed a conference support system having an editing function that displays texts of speech content in a conference and an illustration selected by a user on a display (see Patent Document 1).

ここで、会議等の対話環境において、例えば複数の選択肢から1つの選択肢を決定する場合に、他者の言動が意思決定に影響を及ぼす同調効果(社会的同調効果)の現象が知られている(非特許文献1を参照)。このため、会議等の対話環境において、例えば、複数の選択肢の中から多数決により1つの選択肢を決定するような場合には、多数派に対する同調効果を軽減できることが望ましい。   Here, in a dialogue environment such as a meeting, for example, when one option is determined from a plurality of options, a phenomenon of synchronization effect (social synchronization effect) in which the behavior of others influences decision making is known. (See Non-Patent Document 1). For this reason, in a dialog environment such as a meeting, for example, when one option is determined by majority vote from a plurality of options, it is desirable that the synchronization effect on the majority can be reduced.

特開2017−4270号公報JP 2017-4270 A

松原司、他2名、“選別・選択段階における他者への同調効果を考慮した電気自動車普及要因に関する研究”、土木学会論文集D3(土木計画学)、Vol.68, No.5(土木計画学研究・論文集第29巻)、I_691-I_699、2012Tsukasa Matsubara and two others, “Study on factors in popularizing electric vehicles considering the effect of synchronization with others in the selection / selection stage”, JSCE Proceedings D3 (Civil Engineering), Vol.68, No.5 (Civil Engineering) Planned Research and Papers Vol. 29), I_691-I_699, 2012

従来の会議支援システムでは、会議等の対話環境において、例えば多数派に対する同調効果を軽減することはできない。多数派に対する同調効果を軽減できれば、心理的に、多数派の人たちは少数派の意見に耳を傾けやすくなり、少数派は意見を発言しやすくなる対話環境を形成できる。これにより、例えば、複数の選択肢の中から多数決により1つの選択肢を決定する前段階で、対話者(会議の出席者等)は各選択肢をより均等に検討できるなどの有用性がある。   In the conventional conference support system, for example, in a dialogue environment such as a conference, the synchronization effect for the majority cannot be reduced. Psychologically, the majority can easily listen to the opinions of the minority, and the minority can form a dialogue environment that makes it easier to speak out. Thereby, for example, in a stage before determining one option by majority vote from a plurality of options, there is a usefulness such that a conversation person (conference attendee or the like) can consider each option more evenly.

そこで、本発明の課題は、コンピュータシステムを利用して、対話者の同調効果を軽減できる会議等の対話環境を実現することにある。   SUMMARY OF THE INVENTION An object of the present invention is to realize a dialog environment such as a meeting that can reduce the synchronization effect of a dialog person using a computer system.

本発明の観点は、コンピュータシステムを利用し、人を示す画像を表示して対話機能を実現するシステムに適用する対話支援方法であって、対話者の人数を含む対話状態を示す情報を取得する処理と、前記対話状態を示す情報に基づいて対話者の発言を所定の数の前記画像に割り当てる処理と、を実行する対話支援方法である。   An aspect of the present invention is a dialogue support method applied to a system that realizes a dialogue function by displaying an image showing a person by using a computer system, and acquires information indicating a dialogue state including the number of talkers A dialogue support method for executing a process and a process of assigning a conversationer's speech to a predetermined number of images based on information indicating the conversation state.

対話者の発言を、所定の数の画像に割り当てて、発言させることが可能となるため、同調効果を軽減できる会議等の対話環境を実現することができる。これにより、例えば、複数の選択肢から多数決により選択肢を決定する場合でも、多数派に対する同調効果を抑制して、各人が各選択肢を均等に検討できるような議論の場を提供することが可能となる。   Since it is possible to assign a speech of a conversation person to a predetermined number of images and make the speech speak, it is possible to realize a conversation environment such as a meeting that can reduce the synchronization effect. As a result, for example, even when a choice is decided by a majority decision from a plurality of choices, it is possible to provide a forum for discussion so that each person can consider each choice equally by suppressing the synchronization effect on the majority. Become.

本発明の実施形態に係る対話支援システムの構成例を示すブロック図。The block diagram which shows the structural example of the dialogue assistance system which concerns on embodiment of this invention. 本発明の実施形態に係る制御部の主機能部を実現するコンピュータシステムの構成例を示すブロック図。The block diagram which shows the structural example of the computer system which implement | achieves the main function part of the control part which concerns on embodiment of this invention. 本発明の実施形態に係る制御部に含まれる対話状態把握部の処理を説明するためのフローチャート。The flowchart for demonstrating the process of the dialog state grasping | ascertainment part contained in the control part which concerns on embodiment of this invention. 本発明の実施形態に係る制御部に含まれる人数決定部の処理を説明するためのフローチャート。The flowchart for demonstrating the process of the number determination part contained in the control part which concerns on embodiment of this invention. 本発明の実施形態に係る制御部に含まれる人数決定部の処理を説明するためのフローチャート。The flowchart for demonstrating the process of the number determination part contained in the control part which concerns on embodiment of this invention. 本発明の実施形態に係る制御部に含まれる人数決定部の処理を説明するためのフローチャート。The flowchart for demonstrating the process of the number determination part contained in the control part which concerns on embodiment of this invention. 本発明の実施形態に係る制御部に含まれる発言内容分配部の処理を説明するためのフローチャート。The flowchart for demonstrating the process of the statement content distribution part contained in the control part which concerns on embodiment of this invention. 本発明の実施形態に係る制御部に含まれる発言内容分配部の処理を説明するためのフローチャート。The flowchart for demonstrating the process of the statement content distribution part contained in the control part which concerns on embodiment of this invention. 本発明の実施形態に係る発言内容を各アバタに割り当てる処理において、アバタを切り替える制御を説明するための図。The figure for demonstrating the control which switches an avatar in the process which allocates the statement content which concerns on embodiment of this invention to each avatar. 本発明の実施形態に係る発言内容を各アバタに割り当てる処理において、多数の対話者の発言を単一のアバタに集約する処理を説明するための図。The figure for demonstrating the process which collects the comment of many dialog persons in the single avatar in the process which allocates the content of the utterance which concerns on embodiment of this invention to each avatar. 本発明の実施形態に係る発言内容を各アバタに割り当てる処理において、多数の対話者の発言を複数のアバタに集約する処理を説明するための図。The figure for demonstrating the process which collects the speech of many dialog persons in a several avatar in the process which allocates the content of the speech which concerns on embodiment of this invention to each avatar. 本発明の変形例に係るシステムの構成例を示すブロック図。The block diagram which shows the structural example of the system which concerns on the modification of this invention. 本発明の変形例に係るシステムの処理を説明するためのフローチャート。The flowchart for demonstrating the process of the system which concerns on the modification of this invention.

以下、図面を参照して本発明に係わる実施形態を説明する。
[システムの構成]
図1は、本発明の実施形態に係る対話支援システムの構成を示すブロック図である。図1に示すように、本システムは大別して、対話人数制御システム10及びユーザ端末20により構成される。
Embodiments according to the present invention will be described below with reference to the drawings.
[System configuration]
FIG. 1 is a block diagram showing a configuration of a dialogue support system according to an embodiment of the present invention. As shown in FIG. 1, the system is roughly divided into a dialogue number control system 10 and a user terminal 20.

ここで、本システムは、コンピュータシステムを利用して会議等の対話環境を実現するものであり、代表例として会議システムに適用できる。本実施形態では、対話環境とは、各対話者が相互に発言できる会議等の環境や、特定の発言者が複数の視聴者等に対して発言を伝えるような講義や広告等の環境も含む。   Here, this system implements an interactive environment such as a conference using a computer system, and can be applied to a conference system as a representative example. In this embodiment, the dialogue environment includes an environment such as a meeting where each talker can talk to each other, and an environment such as a lecture or an advertisement where a specific talker conveys a comment to a plurality of viewers. .

本システムの要部である対話人数制御システム10は、例えばサーバにより実現されるものであり、通信部11、制御部12、及び文末表現データベース(便宜的に、文末表現DBと表記する)16を有する。通信部11は、ユーザ端末20との間で、Bluetooth(登録商標)、WiFi(登録商標)、または赤外線通信などの無線通信方式により通信し、各種の情報を送受信する。   The interactive number control system 10 which is a main part of the system is realized by a server, for example, and includes a communication unit 11, a control unit 12, and a sentence end expression database (for convenience, expressed as a sentence end expression DB) 16. Have. The communication unit 11 communicates with the user terminal 20 by a wireless communication method such as Bluetooth (registered trademark), WiFi (registered trademark), or infrared communication, and transmits and receives various types of information.

ユーザ端末20は、パーソナルコンピュータ(PC)またはスマートフォンである。本実施形態では、ユーザ端末20は、各対話者に相当する各ユーザが操作する複数のユーザ端末20-1〜20-nを意味する。   The user terminal 20 is a personal computer (PC) or a smartphone. In the present embodiment, the user terminal 20 means a plurality of user terminals 20-1 to 20-n operated by each user corresponding to each dialoguer.

制御部12は、システム10の主機能部として、対話状態把握部13、人数決定部14、及び発言内容分配部15を有する。制御部12は、図2に示すように、プロセッサ(CPU)120、メモリ121、入力部122、及び出力部123を有するコンピュータシステムから構成される。制御部12の主機能部13、14,15は、メモリ121に設定されたソフトウェアをCPU120が実行することにより実現される。   The control unit 12 includes a dialogue state grasping unit 13, a number-of-person determining unit 14, and a statement content distributing unit 15 as main function units of the system 10. As shown in FIG. 2, the control unit 12 includes a computer system having a processor (CPU) 120, a memory 121, an input unit 122, and an output unit 123. The main function units 13, 14, and 15 of the control unit 12 are realized by the CPU 120 executing software set in the memory 121.

対話状態把握部13は、ユーザ端末20から送信された、例えば会議において決定すべき事項を示す複数の選択肢や、各対話者(ユーザ)が賛成とする選択肢などの情報を、通信部11を介して受信する。対話状態把握部13は、受信した情報に基づいて、対話(会議)に参加する合計の対話人数、各選択肢の賛成人数、各対話者が賛成している選択肢を把握(算出)して、メモリ121に格納する機能部である。なお、対話状態把握部13は、把握処理を実行することなく、ユーザ端末20から把握対象の全ての情報を入力してメモリ121に格納する機能でも良い。   The dialog state grasping unit 13 transmits, via the communication unit 11, information such as a plurality of options transmitted from the user terminal 20 that indicate items to be determined in a meeting, for example, and options that each dialoger (user) agrees with. Receive. Based on the received information, the dialogue state grasping unit 13 grasps (calculates) the total number of conversations participating in the dialogue (meeting), the number of adults of each choice, and the choices agreed with by each dialogue, and stores the memory. 121 is a functional unit stored in 121. The dialog state grasping unit 13 may have a function of inputting all information to be grasped from the user terminal 20 and storing it in the memory 121 without executing the grasping process.

人数決定部14は、対話状態把握部13から、合計の対話人数、各選択肢の賛成人数、及び各対話者が賛成している選択肢を示す情報を取得し、この情報に基づいて各選択肢に対応するアバタ(後述する)の数を決定する機能部である。   The number-of-persons determination unit 14 obtains information indicating the total number of conversations, the number of adults for each choice, and the choices approved by each talker from the dialogue state grasping part 13, and responds to each choice based on this information. This is a functional unit that determines the number of avatars (described later).

発言内容分配部15は、人数決定部14から各選択肢に対応するアバタの数を取得し、このアバタの数、及び対話状態把握部13から受信する前述の情報に基づいて、ユーザ端末20から送信される発言内容を、どのアバタに発言させるかを決定する機能部である。ユーザ端末20は、各対話者の発言内容を音声データ又はテキストデータとして、通信部11に送信する。   The message content distribution unit 15 acquires the number of avatars corresponding to each option from the number-of-people determination unit 14, and transmits from the user terminal 20 based on the number of avatars and the above-described information received from the dialogue state grasping unit 13. It is a functional unit that determines which avatar is to speak the content of the comment to be made. The user terminal 20 transmits the content of each conversation person's speech to the communication unit 11 as voice data or text data.

換言すれば、発言内容分配部15は、対話者の発言内容に基づいて、対話者(発言者)に対応する各アバタに当該発言内容を分配する。これにより、例えば、少数派である一人の対話者の発言を複数の対話者(アバタ)が発言し、また逆に、多数派の人の発言を少人数の対話者(アバタ)が発言するように、見掛け上の対話環境を実現できる。   In other words, the statement content distribution unit 15 distributes the statement content to each avatar corresponding to the conversation person (speaker) based on the conversation contents of the conversation person. As a result, for example, a single dialoguer who is a minority speaks with multiple dialoguers (avatars), and conversely, a small number of dialoguers (avatars) speak with the majority. In addition, an apparent dialogue environment can be realized.

文末表現DB16は、後述するように、発言内容分配部15により発言させるアバタの切り替え処理を行う際に参照する情報を蓄積しているストレージである。   As will be described later, the sentence end expression DB 16 is a storage that accumulates information to be referred to when switching processing of an avatar to be spoken by the comment content distribution unit 15.

ここで、本実施形態の対話支援システムは、例えば、ユーザ端末20のディスプレイ上に、人(キャラクタ)を示す画像であるアバタ(avatar)を描画して、アバタを介した対話環境を実現する。アバタは、例えば3D画像でもよいし、対話者の音声に連動したアニメーションを含むものでもよい。アバタの描画は、各ユーザが操作するユーザ端末20のアプリケーション(既存のソフトウェア・ツール)により実現するものとする。また、対話者の音声に連動したアニメーションを含むアバタを描画する場合も、既存のソフトウェア・ツールにより実現し、さらに、例えばボイスチェンジャーフィルタなどのツールにより、対話者の個人的に特定できないようにすることが望ましい。
[本実施形態の作用効果]
次に、図3から図11を参照して、本実施形態の対話人数制御システム10において、主として制御部12の動作を説明する。
Here, the dialogue support system of the present embodiment draws an avatar that is an image showing a person (character) on the display of the user terminal 20, for example, and realizes an interactive environment via the avatar. The avatar may be a 3D image, for example, or may include an animation linked to the voice of the conversation person. The avatar drawing is realized by an application (existing software tool) of the user terminal 20 operated by each user. In addition, when drawing an avatar that includes animation linked to the voice of the interlocutor, it is realized by existing software tools, and further, for example, a voice changer filter or the like cannot be used to identify the interlocutor personally. It is desirable.
[Operational effects of this embodiment]
Next, with reference to FIG. 3 to FIG. 11, the operation of the control unit 12 will be mainly described in the dialogue number control system 10 of the present embodiment.

本実施形態では、具体例として、アバタを介した会議に相当し、決定すべき事項として複数の選択肢の中から一つの選択肢を多数決により決定する対話環境において、本システム10が適用される。この場合、本システム10を使用するのは、アバタを介した対話の中で多数決を実施する段階からでもよいし、多数派と少数派が明確化された後または前でもよい。   In the present embodiment, as a specific example, this system 10 is applied in an interactive environment that corresponds to a conference via an avatar and determines one option from a plurality of options as a matter to be determined by majority vote. In this case, the system 10 may be used from the stage of executing the majority vote in the dialogue through the avatar, or after the majority and the minority are clarified.

図3は、制御部12に含まれる対話状態把握部13の処理を説明するためのフローチャートである。ここで、本システム10の通信部11は、ユーザ端末20との間で無線通信を確立すると、アバタを介した対話(会議)に関する各種の情報を送受信する。   FIG. 3 is a flowchart for explaining the processing of the dialog state grasping unit 13 included in the control unit 12. Here, the communication part 11 of this system 10 will transmit / receive various information regarding the dialogue (conference) via an avatar, if wireless communication is established between the user terminals 20.

図3に示すように、本システム10の対話状態把握部13は、通信部11を介してユーザ端末20から送信された情報を入力する(ステップS1のYES)。ここで、対話状態把握部13は、対話を開始する初期処理として、通信部11からリセットのコマンドを受信すると、情報を格納(登録)するためのメモリ(図2のメモリ121)の初期化を実行する(ステップS2のYES、S3)。   As illustrated in FIG. 3, the dialog state grasping unit 13 of the system 10 inputs information transmitted from the user terminal 20 via the communication unit 11 (YES in Step S1). Here, when receiving a reset command from the communication unit 11 as an initial process for starting the dialogue, the dialogue state grasping unit 13 initializes a memory (memory 121 in FIG. 2) for storing (registering) information. Execute (YES in step S2, S3).

リセットのコマンドではない場合(ステップS2のNO)、対話状態把握部13は、対話状態を把握するための必要な情報を全てメモリに登録するまで、通信部11に対して情報の入力を要求する(ステップS4のNO、S7)。具体的には、対話状態把握部13は、ユーザ端末20から送信される情報として、複数の選択肢や、各対話者(ユーザ)が賛成とする選択肢を示す情報を取得するまで、通信部11に対して情報の入力を要求する(ステップS7)。   If it is not a reset command (NO in step S2), the dialogue state grasping unit 13 requests the communication unit 11 to input information until all necessary information for grasping the dialogue state is registered in the memory. (NO in step S4, S7). Specifically, the conversation state grasping unit 13 keeps the communication unit 11 until the information transmitted from the user terminal 20 acquires information indicating a plurality of options and options approved by each dialoger (user). It requests the input of information (step S7).

対話状態把握部13は、必要な当該情報を全て取得する(メモリに登録する)と、当該情報に基づいて、対話(会議)に参加する合計の対話人数および各選択肢の賛成人数を算出する(ステップS4のYES、S5)。さらに、対話状態把握部13は、算出した合計の対話人数、各選択肢の賛成人数、及びユーザ端末20から送信された各対話者(ユーザ)が賛成とする選択肢のそれぞれを示す情報を、人数決定部14及び発言内容分配部15に送信する(ステップS6)。   When all the necessary information is acquired (registered in the memory), the conversation state grasping unit 13 calculates the total number of conversations participating in the conversation (conference) and the number of adults for each option based on the information ( YES in step S4, S5). Furthermore, the dialog state grasping unit 13 determines the number of information indicating the calculated total number of dialogs, the number of adults for each option, and the options transmitted from the user terminal 20 that each dialoger (user) agrees with. It transmits to the part 14 and the statement content distribution part 15 (step S6).

図4から図6は、制御部12に含まれる人数決定部14の処理を説明するためのフローチャートである。人数決定部14は、対話状態把握部13から取得した情報に基づいて各選択肢に対応するアバタの数を決定する。   4 to 6 are flowcharts for explaining processing of the number-of-people determining unit 14 included in the control unit 12. The number determination unit 14 determines the number of avatars corresponding to each option based on the information acquired from the dialogue state grasping unit 13.

図4は、各選択肢に対して全て同数のアバタを対応させる場合の処理を説明するためのフローチャートである。図4に示すように、人数決定部14は、対話状態把握部13から、合計の対話人数、各選択肢の賛成人数、及び各対話者が賛成している選択肢を示す情報を取得したか否かを判定する(ステップS10)。人数決定部14は、当該情報を取得すると、アバタの数を決定する処理を実行する(ステップS10のYES)。   FIG. 4 is a flowchart for explaining a process in the case where the same number of avatars are associated with each option. As shown in FIG. 4, the number-of-persons determining unit 14 has acquired from the dialog state grasping unit 13 information indicating the total number of dialogs, the number of adults for each option, and the options that each dialoger agrees with. Is determined (step S10). When acquiring the information, the number-of-people determining unit 14 executes processing for determining the number of avatars (YES in step S10).

人数決定部14は、取得した当該情報に基づいて、各選択肢に対応するアバタの数として、各選択肢に対して全て同数のアバタを設定する(ステップS11)。この場合、アバタの数を、多数派の人数に合わせてもよいし、少数派に合わせてもよい。人数決定部14は、合計の対話人数および各選択肢の賛成人数の情報から、各選択肢の多数派又は少数派の人数を算出する。なお、人数決定部14は、各選択肢に対応するアバタの数(全て同数)をランダムに設定しても良い。また、人数決定部14は、ユーザ端末20からの事前の入力に応じて、ユーザが決定したアバタの数を設定しても良い。   The number determination unit 14 sets the same number of avatars for each option as the number of avatars corresponding to each option based on the acquired information (step S11). In this case, the number of avatars may be matched to the majority or minority. The number determination unit 14 calculates the majority or minority number of each option from the information on the total number of conversations and the number of adults of each option. The number-of-people determining unit 14 may set the number of avatars corresponding to each option (all the same number) at random. In addition, the number-of-people determining unit 14 may set the number of avatars determined by the user in accordance with prior input from the user terminal 20.

人数決定部14は、決定後に、各選択肢に対応するアバタの数(ここでは全て同数)を示す情報を、発言内容分配部15及び通信部11に送信する(ステップS12)。   After the determination, the number-of-people determining unit 14 transmits information indicating the number of avatars corresponding to each option (here, the same number) to the message content distributing unit 15 and the communication unit 11 (step S12).

図5は、各選択肢において、賛成者が一人の選択肢に2つのアバタを対応させる場合の処理を説明するためのフローチャートである。図5に示すように、人数決定部14は、対話状態把握部13から、合計の対話人数、各選択肢の賛成人数、及び各対話者が賛成している選択肢を示す情報を取得したか否かを判定する(ステップS20)。人数決定部14は当該情報を取得すると、当該情報に基づいて賛成者が一人の選択肢の有無を判定する(ステップS20のYES、S21)。   FIG. 5 is a flowchart for explaining a process in the case where an approver associates two avatars with one option in each option. As shown in FIG. 5, the number-of-persons determining unit 14 has acquired from the dialog state grasping unit 13 information indicating the total number of dialogs, the number of adults for each option, and the options that each dialoger agrees with. Is determined (step S20). Upon obtaining the information, the number-of-people determining unit 14 determines whether or not there is an option for one of the supporters based on the information (YES in step S20, S21).

人数決定部14は、判定結果として当該選択肢が無い場合には、全ての選択肢のアバタの数を、各選択肢の賛成人数と同数に設定する処理を実行する(ステップS21のNO、S24)。一方、人数決定部14は、判定結果として当該選択肢が有る場合には、賛成者が一人の選択肢のみにアバタの数を2つに設定し、かつ、残りの各選択肢のアバタの数を賛成人数と同数に設定する処理を実行する(ステップS21のYES、S22)。   When there is no such option as the determination result, the number-of-people determining unit 14 executes a process of setting the number of avatars of all options to the same number as the number of adults of each option (NO in step S21, S24). On the other hand, if there is the option as a determination result, the number-of-people determining unit 14 sets the number of avatars to two for only one option of the supporter, and sets the number of avatars for each remaining option to the number of adults The process which sets to the same number is performed (YES of step S21, S22).

人数決定部14は、決定後に、各選択肢に対応するアバタの数(ここでは賛成者が一人の選択肢のみに2つ)を示す情報を、発言内容分配部15及び通信部11に送信する(ステップS23)。   After the determination, the number-of-persons determination unit 14 transmits information indicating the number of avatars corresponding to each option (here, two for only one option to the supporter) to the message content distribution unit 15 and the communication unit 11 (step S1). S23).

図6は、各選択肢において、ユーザがアバタの数を設定する場合の処理を説明するためのフローチャートである。図6に示すように、人数決定部14は、対話状態把握部13から前述の情報を取得する前に、ユーザにより設定される、各選択肢に対応するアバタの数の設定値を取得したか否かを判定する(ステップS30)。   FIG. 6 is a flowchart for explaining processing when the user sets the number of avatars for each option. As shown in FIG. 6, the number-of-people determining unit 14 has acquired the set value of the number of avatars corresponding to each option set by the user before acquiring the above-described information from the conversation state grasping unit 13. Is determined (step S30).

次に、人数決定部14は対話状態把握部13から情報を取得すると、各選択肢のアバタの数を、取得した設定値に基づいてユーザ指定に応じた数に設定する処理を実行する(ステップS31のYES、S32)。人数決定部14は、決定後に、各選択肢に対応するアバタの数(ここではユーザの指定数)を示す情報を、発言内容分配部15及び通信部11に送信する(ステップS33)。   Next, when the information is acquired from the dialog state grasping unit 13, the number-of-people determining unit 14 executes a process of setting the number of avatars of each option to a number according to the user designation based on the acquired setting value (step S31). YES, S32). After the determination, the number-of-people determining unit 14 transmits information indicating the number of avatars (here, the number designated by the user) corresponding to each option to the message content distributing unit 15 and the communication unit 11 (step S33).

図7及び図8は、制御部12に含まれる発言内容分配部15の処理を説明するためのフローチャートである。発言内容分配部15は、対話状態把握部13から取得した情報および人数決定部14から取得した各選択肢に対応するアバタの数を示す情報に基づいて、各対話者の発言内容をアバタに発言させるかを決定する。   FIGS. 7 and 8 are flowcharts for explaining the processing of the statement content distribution unit 15 included in the control unit 12. The comment content distribution unit 15 causes the avatar to speak the content of each conversation person based on the information acquired from the dialog state grasping unit 13 and the information indicating the number of avatars corresponding to each option acquired from the number of people determination unit 14. To decide.

図7は、発言内容分配部15の全体的処理を説明するためのフローチャートである。また、図8は、発言内容分配部15の処理の中で、ステップS45に示すアバタへの割り当て処理を説明するためのフローチャートである。   FIG. 7 is a flowchart for explaining the overall processing of the statement content distribution unit 15. FIG. 8 is a flowchart for explaining the allocation process to the avatar shown in step S45 in the process of the message content distribution unit 15.

図7に示すように、発言内容分配部15は、対話状態把握部13から情報および人数決定部14から各選択肢に対応するアバタの数を示す情報を取得した否かを判定する(ステップS40)。対話状態把握部13からの情報とは、合計の対話人数、各選択肢の賛成人数、及び各対話者が賛成している選択肢を示す情報である。   As shown in FIG. 7, the statement content distribution unit 15 determines whether or not the information indicating the number of avatars corresponding to each option is acquired from the dialog state grasping unit 13 and the number of avatars corresponding to each option (Step S40). . The information from the dialogue state grasping unit 13 is information indicating the total number of dialogues, the number of adults for each option, and the options that each dialoguer agrees with.

発言内容分配部15は情報を取得すると、当該情報に基づいて各対話者に対応するアバタを決定する(ステップS40のYES、S41)。ここで、アバタの決定方法としては、各選択肢に賛成している対話者数(賛成人数)と、それに対応するアバタの数が一致している場合は、対話者とアバタのペアを決定する。なお、これに限ることなく、各対話者に対応して、アバタをランダムに決定してもよいし、又はユーザの指定により決定してもよい。   When the comment content distribution unit 15 acquires the information, it determines an avatar corresponding to each conversation person based on the information (YES in step S40, S41). Here, as a method for determining an avatar, when the number of interlocutors who agree with each option (the number of adults) matches the number of avatars corresponding thereto, a pair of interlocutors and avatars is determined. However, the present invention is not limited to this, and the avatar may be determined at random or may be determined by the user's designation corresponding to each of the interlocutors.

また、発言内容分配部15は、各選択肢に賛成している対話者数(賛成人数)が対応するアバタの数より少ない場合には、特定のペアを設定せずに、後述するように、発言内容を各アバタに分割する処理を実行することになる。一方、逆に、各選択肢に賛成している対話者数が対応するアバタの数より多い場合には、特定のペアを設定せずに、後述するように、発言内容を指定のアバタに集約する処理を実行することになる。さらに、発言内容分配部15は、一部の選択肢に賛成している対話者数(賛成人数)と、それに対応するアバタの数が一致している場合には、一部のペアを決定し、後述するように、残りの対話者の発言内容を各アバタに分割する処理を実行することになる。   If the number of interlocutors who agree with each option (the number of adults) is less than the number of corresponding avatars, the remark content distribution unit 15 does not set a specific pair and remarks as described later. Processing to divide the contents into each avatar is executed. On the other hand, if the number of interlocutors who are in favor of each option is greater than the number of corresponding avatars, the contents of the statements are aggregated to the specified avatar without setting a specific pair, as will be described later. Processing will be executed. Furthermore, when the number of interlocutors who agree with some options (the number of adults) matches the number of avatars corresponding thereto, the comment content distribution unit 15 determines some pairs, As will be described later, processing is performed to divide the content of the rest of the talker into each avatar.

ここで、本実施形態が想定しているアバタを介した対話(会議)環境では、ユーザ端末20は、各対話者の発言内容を音声データ又はテキストデータとして、通信部11に送信する。本実施形態では、便宜的に、各対話者の発言内容は音声データにより通信部11に送信されるものとする。発言内容分配部15は、音声データの場合には、後述するように、発言時間などのように時間単位の処理を実行する。一方、テキストデータの場合には、当該時間単位を文字数に置き換えた処理を実行することになる。   Here, in a dialog (conference) environment via an avatar assumed in the present embodiment, the user terminal 20 transmits the content of each conversation person's speech to the communication unit 11 as voice data or text data. In this embodiment, for the sake of convenience, it is assumed that the content of each conversation person's speech is transmitted to the communication unit 11 by voice data. In the case of audio data, the message content distribution unit 15 executes processing in units of time such as a message time, as will be described later. On the other hand, in the case of text data, processing in which the time unit is replaced with the number of characters is executed.

図7に戻って、発言内容分配部15は、通信部11から各対話者の発言内容を受信したか否を判定する(ステップS42)。発言内容分配部15は、後述するように、各対話者の発言の途切れ時間(Tpn-1)を計測し、これに基づいてアバタの切り替え処理を実行する(ステップS42のYES、S43)。ここで、発言内容分配部15は、同じ対話者から前回受信した時刻と今回受信した時刻とから、当該途切れ時間(Tpn-1)を計測する。   Returning to FIG. 7, the message content distribution unit 15 determines whether or not the message content of each conversation person has been received from the communication unit 11 (step S <b> 42). As will be described later, the comment content distribution unit 15 measures the interruption time (Tpn-1) of each conversation person and executes avatar switching processing based on this time (YES in step S42, S43). Here, the message content distribution unit 15 measures the interruption time (Tpn-1) from the last time received from the same talker and the time received this time.

ここで、発言内容分配部15は、前述のステップS41の処理により、各対話者に対応するアバタの決定に基づいて、受信した発言内容を各アバタに分割する処理(便宜的に分配処理1とする)、集約する処理(便宜的に分配処理2とする)、又は対話者に対応するアバタがそのまま発言する処理(便宜的に分配処理3とする)のいずれかを実行するか否を判定する(ステップS44、S47)。   Here, the speech content distribution unit 15 divides the received speech content into each avatar based on the determination of the avatar corresponding to each conversation person by the processing of step S41 described above (for convenience, the distribution processing 1 and the distribution processing 1). A process to be aggregated (conveniently distributed process 2), or a process that an avatar corresponding to the talker speaks as it is (conveniently distributed process 3) is determined. (Steps S44, S47).

発言内容分配部15は、分配処理1又は分配処理2の場合には、後述するように、発言内容を各アバタに割り当てる処理を実行する(ステップS44のYES、S47のYES、S45)。一方、発言内容分配部15は、分配処理3の場合には、発言内容を送信元である対話者に対応するアバタがそのまま発言するような処理を実行する(ステップS47のNO、S48)。   In the case of the distribution process 1 or the distribution process 2, the message content distribution unit 15 executes a process of assigning the message content to each avatar as described later (YES in step S44, YES in S47, S45). On the other hand, in the case of the distribution process 3, the comment content distribution unit 15 executes a process in which the avatar corresponding to the talker who is the transmission source speaks as it is (NO in step S47, S48).

発言内容分配部15は、分配処理1、2、3のいずれかに応じた処理により決定されたアバタ、即ち各対話者の発言内容を発言するアバタを指定する情報を、通信部11を介してユーザ端末20に通知する(ステップS46)。これにより、ディスプレイ上に描画されるアバタを介した見掛け上の対話環境(会議)において、各対話者の発言内容を指定するアバタが発言することになる。   The message content distribution unit 15 sends information for designating an avatar determined by the process according to any of the distribution processes 1, 2, and 3, that is, an avatar that speaks the message content of each conversation person, via the communication unit 11. The user terminal 20 is notified (step S46). As a result, in an apparent conversation environment (conference) via an avatar drawn on the display, the avatar that specifies the content of each conversation person speaks.

次に、図8のフローチャートおよび図9を参照して、分配処理1の場合において、発言内容を各アバタに割り当てる処理について説明する。分配処理1は、一人の対話者の発言を複数のアバタに分割して、各アバタから発言させる処理である。   Next, with reference to the flowchart of FIG. 8 and FIG. 9, the process of assigning the content of a statement to each avatar in the case of the distribution process 1 will be described. The distribution process 1 is a process in which one speaker's speech is divided into a plurality of avatars and each avatar speaks.

図8に示すように、発言内容分配部15は、受信した発言内容の発言時間(Tsn)が0時間以上で所定の基準値(例えばここではTsth=3000[msec])未満であるか否かを判定する(ステップS50)。この判定結果は、後述するように、一人の対話者の発言を複数のアバタに分割する際に、アバタを切り替える制御に使用される。図9は、当該アバタを切り替える制御を具体的に説明する図である。   As shown in FIG. 8, the speech content distribution unit 15 determines whether the speech time (Tsn) of the received speech content is 0 hour or more and less than a predetermined reference value (for example, Tsth = 3000 [msec] here). Is determined (step S50). As will be described later, this determination result is used for the control for switching the avatar when the speech of a single talker is divided into a plurality of avatars. FIG. 9 is a diagram specifically explaining the control for switching the avatar.

図9に示すように、一人の対話者の発言内容を、発言時間(Tsn)と発言の途切れ時間(Tpn-1)に基づいて複数の発言(1-n)に分割可能である。例えば、発言(1)をアバタ(1)に分配し、発言(2)をアバタ(2)に分配させるようにアバタを切り替えることができる。ここで、アバタを切り替える制御では、後述するように、発言の途切れ時間(Tpn-1)と、所定の規則に基づいて算出した途切れ時間閾値(Tpth′)との比較結果を使用して、発言させるアバタの切り替え、又は現在のアバタを継続して発言させる制御が行われる。   As shown in FIG. 9, it is possible to divide the content of one conversation person's speech into a plurality of speech (1-n) based on speech time (Tsn) and speech break time (Tpn-1). For example, the avatar can be switched so that the utterance (1) is distributed to the avatar (1) and the utterance (2) is distributed to the avatar (2). Here, in the control for switching the avatar, as will be described later, the speech break time (Tpn-1) is compared with the break time threshold value (Tpth ′) calculated based on a predetermined rule. The avatar to be switched is controlled or the current avatar is continuously spoken.

図8に戻って、発言内容分配部15は、ステップS50の判定結果がYESであれば、パラメータbを「b=1」に設定する(ステップS51)。このパラメータbは、前述した途切れ時間閾値(Tpth′)を算出するために使用される。発言内容分配部15は、ステップS50の判定結果がNOであれば、さらに、発言時間(Tsn)が所定の基準範囲(例えばここでは3000以上で5000[msec]以下)内であるか否かを判定する(ステップS59)。発言内容分配部15は、ステップS59の判定結果がYESであれば、例えばここではパラメータbを「b=-Tsn/4000+1.75」に設定する(ステップS60)。また、発言内容分配部15は、ステップS59の判定結果がNOであれば、例えばここではパラメータbを「b=0.5」に設定する(ステップS60)。   Returning to FIG. 8, if the determination result in step S50 is YES, the message content distribution unit 15 sets the parameter b to “b = 1” (step S51). This parameter b is used to calculate the above-mentioned break time threshold (Tpth ′). If the determination result in step S50 is NO, the message content distribution unit 15 further determines whether the message time (Tsn) is within a predetermined reference range (for example, 3000 or more and 5000 [msec] or less). Determination is made (step S59). If the determination result in step S59 is YES, the message content distribution unit 15 sets the parameter b to “b = −Tsn / 4000 + 1.75”, for example (step S60). If the determination result in step S59 is NO, the message content distribution unit 15 sets the parameter b to “b = 0.5”, for example (step S60).

ここで、パラメータbの値は一例であり、「b’≦b≦1」の範囲で発言時間(Tsn)の増加に対して、途切れ時間閾値(Tpth′)が単調減少するように設定される。即ち、発言時間(Tsn)が長くなるにつれて、発言の切り替えの閾値(Tpth′)は小さくなる。なお、b’の値は、「0<b’<1」の範囲でユーザにより設定される。   Here, the value of the parameter b is an example, and is set so that the interruption time threshold (Tpth ′) monotonously decreases as the speech time (Tsn) increases within the range of “b ′ ≦ b ≦ 1”. . That is, as the speech time (Tsn) increases, the threshold for switching speech (Tpth ′) decreases. The value of b ′ is set by the user in the range of “0 <b ′ <1”.

次に、発言内容分配部15は、一人の対話者の発言内容に、いわゆる文末表現が含まれているかを判定する(ステップS52)。具体的には、発言内容分配部15は、文末表現DB16を参照し、登録されている文字列が当該発言内容の最後に含まれているか否かを判定する。登録されている文字列とは、例えば、「です」や「と思われる」などの語尾として使用されるものである。なお、発言内容が音声データの場合に、既存のソフトウェア・ツールにより実現される音声認識システムを利用して、音声データをテキストデータに変換した上で、当該判定を実行する。   Next, the statement content distribution unit 15 determines whether a so-called sentence ending expression is included in the statement content of one conversation person (step S52). Specifically, the statement content distribution unit 15 refers to the sentence end expression DB 16 and determines whether or not a registered character string is included at the end of the statement content. The registered character string is, for example, one that is used as the ending of “I think” or “I think”. When the content of speech is speech data, the determination is executed after the speech data is converted into text data using a speech recognition system realized by an existing software tool.

発言内容分配部15は、当該発言内容の最後に語尾が含まれていれば文末表現ありと判断し、例えばここではパラメータaを「a=1」に設定する(ステップS52のYES、S53)。一方、文末表現無しの判断であれば、例えばここではパラメータaを「a=2」に設定する(ステップS52のNO、S54)。このパラメータaはパラメータbと共に、下記のように、途切れ時間閾値(Tpth′)を算出するために使用される。   If the utterance is included at the end of the utterance content, the utterance content distribution unit 15 determines that there is a sentence ending expression, and sets the parameter a to “a = 1”, for example (YES in step S52, S53). On the other hand, if it is determined that there is no sentence end expression, for example, the parameter a is set to “a = 2” (NO in step S52, S54). This parameter a together with the parameter b is used to calculate a break time threshold (Tpth ′) as described below.

発言内容分配部15は、前述した途切れ時間閾値(Tpth′)を、所定の計算式「Tpth′=a×b×Tpth」から算出する(ステップS55)。ここで、「Tpth」は、人の発話における自然な途切れ時間であり、例えばここでは「Tpth=389[msec]」である。なお、この「Tpth」は、ユーザにより設定しても良い。   The statement content distribution unit 15 calculates the interruption time threshold (Tpth ′) described above from a predetermined calculation formula “Tpth ′ = a × b × Tpth” (step S55). Here, “Tpth” is a natural break time in human speech, for example, “Tpth = 389 [msec]” here. The “Tpth” may be set by the user.

次に、発言内容分配部15は、発言の途切れ時間(Tpn-1)と、算出した途切れ時間閾値(Tpth′)とを比較した結果に基づいて、アバタの切り替え制御を実行する(ステップS56)。具体的には、発言内容分配部15は、発言の途切れ時間(Tpn-1)が途切れ時間閾値(Tpth′)を超えていれば、発言させるアバタの切り替える処理を実行する(ステップS56のYES、S57)。例えば、図9に示すように、対話者の発言1から発言2までの途切れ時間(Tp1)が途切れ時間閾値(Tpth′)を超えていれば、アバタ1からアバタ2に切り替えて発言2を発言させることになる。   Next, the message content distribution unit 15 executes avatar switching control based on the result of comparing the message interruption time (Tpn-1) and the calculated interruption time threshold (Tpth ′) (step S56). . Specifically, the speech content distribution unit 15 executes processing for switching the avatar to be speeched if the speech break time (Tpn-1) exceeds the break time threshold (Tpth ′) (YES in step S56). S57). For example, as shown in FIG. 9, if the interruption time (Tp1) from the conversationer's statement 1 to statement 2 exceeds the interruption time threshold (Tpth ′), the message 2 is changed from avatar 1 to avatar 2 I will let you.

一方、発言内容分配部15は、発言の途切れ時間(Tpn-1)が途切れ時間閾値(Tpth′)未満であれば、現在のアバタを継続して発言させる処理を実行する(ステップS56のNO、S58)。例えば、図9に示すように、対話者の発言1から発言2までの途切れ時間(Tp1)が途切れ時間閾値(Tpth′)により短時間であれば、アバタ1が継続して発言2も発言させることになる。   On the other hand, if the speech interruption time (Tpn-1) is less than the interruption time threshold (Tpth ′), the speech content distribution unit 15 executes a process of continuously speaking the current avatar (NO in step S56, S58). For example, as shown in FIG. 9, if the break time (Tp1) from the talker's speech 1 to speech 2 is short due to the break time threshold (Tpth '), the avatar 1 continues to speak 2 It will be.

次に、図10及び図11を参照して、分配処理2の場合において、発言内容を各アバタに割り当てる処理について説明する。分配処理2は、相対的に多数の対話者の発言を少数のアバタに集約して発言させる処理である。   Next, with reference to FIG. 10 and FIG. 11, in the case of the distribution process 2, a process for assigning the content of a statement to each avatar will be described. The distribution process 2 is a process in which a relatively large number of dialoguers are aggregated into a small number of avatars.

前述したように、発言内容分配部15は、対話状態把握部13及び人数決定部14から取得した各情報に基づいて、各選択肢に賛成している対話者数が対応するアバタの数より多い場合には、発言内容を指定のアバタに集約する処理を実行する(図7のステップS47を参照)。ここで、人数決定部14からは、各選択肢に対応するアバタの数を示す情報を取得する。また、対話状態把握部13からは、合計の対話人数、各選択肢の賛成人数、及び各対話者が賛成している選択肢を示す情報を取得する。   As described above, the statement content distribution unit 15 is based on the information acquired from the dialogue state grasping unit 13 and the number-of-people determining unit 14, and the number of dialogues in favor of each option is greater than the number of corresponding avatars. In this case, a process of collecting the contents of the statements into the designated avatar is executed (see step S47 in FIG. 7). Here, information indicating the number of avatars corresponding to each option is acquired from the number-of-people determining unit 14. Further, the dialogue state grasping unit 13 obtains information indicating the total number of dialogues, the number of adults for each choice, and the choices approved by each dialoguer.

図10は、例えば2人の対話者の発言を、単一のアバタに集約する処理を示す。即ち、発言内容分配部15は、対話者(1)の発言(1)を、単一のアバタ(ユーザが指定しても良い)に割り当て、当該アバタに発言させる。さらに、発言内容分配部15は、対話者(2)の発言(2)を、同一のアバタに割り当て、当該アバタに発言させる。ここで、発言(1)、(2)には、前述した発言の途切れ時間に相当する時間間隔が存在する。   FIG. 10 shows a process of aggregating, for example, the comments of two interactors into a single avatar. That is, the message content distribution unit 15 assigns the message (1) of the conversation person (1) to a single avatar (which may be designated by the user) and causes the avatar to speak. Further, the statement content distribution unit 15 assigns the statement (2) of the conversation person (2) to the same avatar and causes the avatar to speak. Here, in the utterances (1) and (2), there is a time interval corresponding to the utterance interruption time described above.

図11は、例えば3人の対話者(1)、(2)、(3)の発言を、2つのアバタ(1)、(2)に集約する処理を示す。まず、発言内容分配部15は、対話者人数(3人)からアバタの数(2)を引いた、残りの人数(1)の対話者(3)を選出する。この選出する対話者(3)については、ランダムに選出してもよいし、ユーザが指定してもよい。   FIG. 11 shows a process of aggregating the comments of, for example, three interrogators (1), (2), and (3) into two avatars (1) and (2). First, the statement content distribution unit 15 selects the remaining number (1) of the conversation persons (3) obtained by subtracting the number of avatars (2) from the number of conversation persons (three). The selected conversation person (3) may be randomly selected or specified by the user.

次に、発言内容分配部15は、選出した対話者(3)の発言(1)、(2)を、前述した図9に示すように、アバタ(1)、(2)に分配して発言させる処理を実行する。また、発言内容分配部15は、2人の対話者とアバタの数(2)が一致するため、対話者(1)とアバタ(1)とのペア、及び対話者(2)とアバタ(2)とのペアを設定する。なお、ペアの設定は、ランダムでもよいし、ユーザが指定してもよい。発言内容分配部15は、各対話者(1)、(2)の発言を、ペアとなるアバタ(1)、(2)により発言させる処理を実行する。   Next, the message content distribution unit 15 distributes the messages (1) and (2) of the selected dialogue person (3) to the avatars (1) and (2) as shown in FIG. Execute the process. In addition, since the number of avatars (2) coincides with the two conversation persons, the remark content distribution unit 15 and the pair of the conversation persons (1) and the avatar (1) and the conversation persons (2) and the avatar (2 ) And a pair. The pair setting may be random or specified by the user. The statement content distribution unit 15 executes a process of causing the conversations of each of the interlocutors (1) and (2) to speak by a pair of avatars (1) and (2).

以上のように本実施形態によれば、アバタ(人を示す画像)を介した見掛け上の対話環境を実現するシステムにおいて、対話者の発言をアバタに割り付けて、アバタにより発言させる場合に、対話状態を示す情報に基づいて、発言に対応するアバタの数を制御することができる。本実施形態では、対話状態を示す情報とは、具体的には、対話状態把握部13から取得できる、合計の対話人数、各選択肢の賛成人数、及び各対話者が賛成している選択肢を示す情報である。   As described above, according to the present embodiment, in a system that realizes an apparent dialogue environment via an avatar (an image showing a person), when a dialoguer's speech is assigned to the avatar and the avatar speaks, the dialogue is performed. The number of avatars corresponding to the utterance can be controlled based on the information indicating the state. In the present embodiment, the information indicating the conversation state specifically indicates the total number of conversations, the number of adults of each option, and the options that each of the interactors can agree with, which can be acquired from the dialog state grasping unit 13. Information.

具体的には、本実施形態は、決定すべき事項として複数の選択肢の中から一つの選択肢を多数決により決定する対話環境(会議)を、アバタを介して実現するシステムに適用する場合に有効である。即ち、本実施形態によれば、多数決を行う際に、多数派による同調効果を、発言に対応するアバタの数を制御することで軽減できる。   Specifically, this embodiment is effective when a dialog environment (conference) in which one option is determined by majority vote as a matter to be determined is applied to a system that implements via an avatar. is there. That is, according to this embodiment, when performing a majority decision, the synchronization effect by the majority can be reduced by controlling the number of avatars corresponding to the statements.

例えば、少数派である一人の対話者の発言を、複数のアバタに分配して発言させることができる。また逆に、多数派の人の発言を、少人数のアバタに分配して発言させることができる。結果として、見掛け上の対話者数を均等になるように変更することで、多数派に対する同調効果を軽減し、少数派の意見についても十分に検討することを可能にする対話環境を実現できる。換言すれば、多数派と少数派の人数を同数に見せることで、多数派による同調効果を軽減し、少数派の意見についても心理的に検討しやすい状況を作り出す、見掛け上の対話環境を実現できる。これにより、会議などの議論の中で、各選択肢の利点や欠点をより正確に検討することが可能となる。   For example, it is possible to distribute the remarks of a single dialogue person who is a minority to a plurality of avatars. Conversely, the voices of the majority can be distributed to a small number of avatars. As a result, by changing the apparent number of dialogues to be equal, it is possible to realize a dialogue environment that can reduce the synchronization effect on the majority and fully consider the opinions of minorities. In other words, by showing the same number of people in the majority and minority groups, an apparent dialogue environment is created that reduces the synchronization effect of the majority and creates a situation in which minority opinions can be easily examined psychologically. it can. This makes it possible to more accurately consider the advantages and disadvantages of each option during discussions such as meetings.

ここで、本実施形態では、発言内容分配部15の機能により、対話者の発言を複数のアバタに分配する場合、発言時間、発言の途切れの時間、文末表現の有無等の情報に基づいて、発言させるアバタの切り替え及び継続の制御が実現されている。従って、本実施形態では、対話者の発言を複数人のアバタに分配する処理を自動的に行うことが可能である。
[変形例]
図12は、本実施形態の変形例に係るシステムの構成を示すブロック図である。また、図13は、当該変形例に係るシステムの処理を説明するためのフローチャートである。
Here, in the present embodiment, when the conversation content is distributed to a plurality of avatars by the function of the speech content distribution unit 15, based on information such as speech time, speech break time, presence / absence of sentence ending expression, Control of avatar switching and continuation to speak is realized. Therefore, in the present embodiment, it is possible to automatically perform a process of distributing a conversation person's speech to a plurality of avatars.
[Modification]
FIG. 12 is a block diagram showing a configuration of a system according to a modification of the present embodiment. FIG. 13 is a flowchart for explaining processing of the system according to the modification.

図12に示すように、本変形例は、本実施形態の発言内容分配部15及び文末表現DB16のみを有する、発言分割システム30に関する。なお、本変形例は、本実施形態のユーザ端末20以外に、デジタルサイネージ(digital signage)40(複数のデジタルサイネージ40-1〜40-nを意味する)を有する構成である。   As illustrated in FIG. 12, the present modification relates to a message division system 30 that includes only the message content distribution unit 15 and the sentence ending expression DB 16 of the present embodiment. In addition, this modification is the structure which has the digital signage (digital signage) 40 (it means several digital signage 40-1-40-n) besides the user terminal 20 of this embodiment.

本変形例の発言分割システム30は、例えば一人のユーザ(対話者に相当)の発言を複数のアバタが発言しているように、見せ掛けるシステムである。具体的には、図13に示すように、発言内容分配部15は、ユーザ端末20から送信されたアバタの数を、通信部11を介して取得する(ステップS70)。   The message division system 30 of the present modification is a system that makes it appear as if a plurality of avatars are speaking, for example, a single user (corresponding to a conversation person). Specifically, as shown in FIG. 13, the statement content distribution unit 15 acquires the number of avatars transmitted from the user terminal 20 via the communication unit 11 (step S70).

発言内容分配部15は、前述した本実施形態と同様の処理(図8を参照)により、発言内容を各アバタに割り当てる処理を実行する。なお、図13は、図8のステップS50からS61に相当する処理(ステップS71からS82)を示すものであり、詳細な説明を省略する。但し、ステップS78の処理において、発言させるアバタの切り替えは、ランダムに設定しても良いし、ユーザが事前に設定した順番通りでも良い。   The statement content distribution unit 15 executes processing for assigning the statement content to each avatar by the same processing (see FIG. 8) as in the above-described embodiment. FIG. 13 shows processing (steps S71 to S82) corresponding to steps S50 to S61 in FIG. 8, and detailed description thereof is omitted. However, in the process of step S78, the switching of the avatar to be spoken may be set at random or in the order set in advance by the user.

本変形例の適用分野として、例えば、実店舗などに設置したデジタルサイネージ40のディスプレイ上に複数のアバタを表示させて、一人の店員の発言を各アバタに分配して発言させることが可能である。これにより、あたかも複数人の店員が販売などをしているように見せて、販売等の効果を高めることが可能である。   As an application field of this modification, for example, it is possible to display a plurality of avatars on the display of the digital signage 40 installed in an actual store and distribute the remarks of a single store clerk to each avatar. . As a result, it is possible to increase the effects of sales and the like by making it appear as if multiple salesclerks are selling.

また、本変形例の別の適用分野として、大型のディスプレイを利用した授業(または講演)において、ディスプレイ上に複数のアバタを表示させて、一人の講師の発言を複数のアバタに分配して発言させることが可能である。これにより、あたかも複数人の講師が授業を行っているかのように見せて、生徒や視聴者の注目をより集めやすくする等の効果がある。   As another application field of this variation, in a class (or lecture) using a large display, multiple avatars are displayed on the display, and one speaker's remarks are distributed to multiple avatars. It is possible to make it. This has the effect of making it easier for the students and viewers to attract attention by making it appear as if a plurality of instructors are taking classes.

なお、本実施形態及び変形例において、画像やアニメーションを使用した対話環境における擬似的な対話者数の制御について説明したが、これに限ることなく、音声データのみを使用した、例えば電話会議等にも適用可能である。この場合、汎用のボイスチェンジャー(Morph VoX Proなど)を使用して擬似的な対話者数の制御を実現できる。   In the present embodiment and the modification, the control of the number of pseudo talkers in the interactive environment using images and animation has been described. However, the present invention is not limited to this, and only audio data is used, for example, for a telephone conference. Is also applicable. In this case, it is possible to control the number of interlocutors using a general-purpose voice changer (such as Morph VoX Pro).

要するに本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   In short, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

10…対話人数制御システム、11…通信部、12…制御部、
13…対話状態把握部、14…人数決定部、15…発言内容分配部、
16…文末表現データベース(文末表現DB)、20…ユーザ端末、
120…プロセッサ(CPU)、121…メモリ、122…入力部、123…出力部。
10 ... Dialogue number control system, 11 ... Communication part, 12 ... Control part,
13 ... Dialog state grasping part, 14 ... Number of persons determination part, 15 ... Statement content distribution part,
16 ... sentence ending expression database (sentence ending expression DB), 20 ... user terminal,
DESCRIPTION OF SYMBOLS 120 ... Processor (CPU), 121 ... Memory, 122 ... Input part, 123 ... Output part.

Claims (8)

コンピュータシステムを利用し、人を示す画像を表示して対話機能を実現するシステムに適用する対話支援方法であって、
対話者の人数を含む対話状態を示す情報を取得する処理と、
前記対話状態を示す情報に基づいて、対話者の発言を所定の数の前記画像に割り当てる処理と、
を実行する対話支援方法。
A dialogue support method applied to a system that uses a computer system to display an image showing a person and realize a dialogue function,
A process of obtaining information indicating a conversation state including the number of conversation persons;
A process of assigning a dialoguer's speech to a predetermined number of the images based on the information indicating the dialogue state;
Dialogue support method to execute.
前記対話状態を示す情報に基づいて、使用する前記画像の数を決定する処理を、さらに実行する、請求項1に記載の対話支援方法。   The dialogue support method according to claim 1, further comprising a process of determining the number of images to be used based on information indicating the dialogue state. 前記割り当てる処理において、
対話者の発言を複数の画像に割り当てる場合に、少なくとも発言の途切れの時間を示す情報に基づいて割り当てる処理を実行する、請求項1又は2に記載の対話支援方法。
In the assigning process,
The dialogue support method according to claim 1 or 2, wherein when utterances of a conversation person are assigned to a plurality of images, a process of assignment is performed based on at least information indicating a break time of the utterances.
前記割り当てる処理において、
対話者の発言を複数の画像に割り当てる場合に、少なくとも、発言時間、発言の途切れの時間、文末表現の有無を示す情報に基づいて割り当てる処理を実行する、請求項1又は2に記載の対話支援方法。
In the assigning process,
The dialogue support according to claim 1 or 2, wherein when utterances of a conversation person are assigned to a plurality of images, a process of assignment is executed based on at least the speech time, the break time of the speech, and information indicating presence / absence of a sentence end expression. Method.
前記割り当てる処理において、
相対的に多数の対話者の各発言を相対的に少数の画像に割り当てる場合に、複数の発言を同一の画像に割り当てる処理、または複数の画像に集約させる処理を実行する、請求項1から4のいずれか1項に記載の対話支援方法。
In the assigning process,
The process of assigning a plurality of utterances to the same image or a process of aggregating the utterances into a plurality of images when assigning each utterance of a relatively large number of dialogues to a relatively small number of images is performed. The dialogue support method according to any one of the above.
前記集約させる処理において、
各対話者と同数の画像とのペアを設定し、各対話者の発言をペアの画像に割り当てる処理と、
前記ペアの設定対象から除く対話者の発言を、複数の画像に割り当てる処理と、
をさらに実行する、請求項5に記載の対話支援方法。
In the process of aggregation,
The process of setting up the same number of images as each conversation person and assigning each conversation person's speech to the pair images,
A process of assigning a conversationer's remarks excluded from the pair setting target to a plurality of images;
6. The dialogue support method according to claim 5, further comprising:
コンピュータシステムを利用し、人を示す画像を表示して対話機能を実現するシステムに適用する対話支援装置であって、
対話者の人数を含む対話状態を示す情報を取得する手段と、
前記対話状態を示す情報に基づいて、対話者の発言を所定の数の前記画像に割り当てる手段と、
を具備する対話支援装置。
A dialogue support device applied to a system that uses a computer system to display an image showing a person and realize a dialogue function,
Means for obtaining information indicating a conversation state including the number of conversation persons;
Means for assigning a dialoguer's speech to a predetermined number of images based on the information indicating the dialogue state;
A dialogue support apparatus comprising:
コンピュータシステムを利用し、人を示す画像を表示して対話機能を実現するシステムに適用するプログラムであって、
対話者の人数を含む対話状態を示す情報を取得する手順と、
前記対話状態を示す情報に基づいて、対話者の発言を所定の数の前記画像に割り当てる手順と、
をコンピュータに実行させるプログラム。
A program applied to a system that uses a computer system to display an image showing a person and realize an interactive function,
A procedure for obtaining information indicating the conversation state including the number of the conversation persons,
Assigning a dialoguer's speech to a predetermined number of the images based on the information indicating the dialogue state;
A program that causes a computer to execute.
JP2017090161A 2017-04-28 2017-04-28 Interaction support method, device and program Pending JP2018190070A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017090161A JP2018190070A (en) 2017-04-28 2017-04-28 Interaction support method, device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017090161A JP2018190070A (en) 2017-04-28 2017-04-28 Interaction support method, device and program

Publications (1)

Publication Number Publication Date
JP2018190070A true JP2018190070A (en) 2018-11-29

Family

ID=64478660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017090161A Pending JP2018190070A (en) 2017-04-28 2017-04-28 Interaction support method, device and program

Country Status (1)

Country Link
JP (1) JP2018190070A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110825979A (en) * 2019-10-30 2020-02-21 维沃移动通信有限公司 Remarking method and device and mobile terminal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110825979A (en) * 2019-10-30 2020-02-21 维沃移动通信有限公司 Remarking method and device and mobile terminal

Similar Documents

Publication Publication Date Title
CN110096191B (en) Man-machine conversation method and device and electronic equipment
CN106063255B (en) The method and system of speaker during display video conference
US9894121B2 (en) Guiding a desired outcome for an electronically hosted conference
US9264660B1 (en) Presenter control during a video conference
US20170346947A1 (en) Method and apparatus for processing voice information
US20080120101A1 (en) Conference question and answer management
CN107818798A (en) Customer service quality evaluating method, device, equipment and storage medium
KR20080085030A (en) Sorting speakers in a network-enabled conference
US20130124631A1 (en) Apparatus, system, and method for digital communications driven by behavior profiles of participants
US20200151765A1 (en) Information processing device, information processing method and program
JP6667855B2 (en) Acquisition method, generation method, their systems, and programs
JP2014219594A (en) Conversation processing system and program
US9191218B1 (en) Participant reputation in a group communication environment
US11776546B1 (en) Intelligent agent for interactive service environments
US20150304381A1 (en) Apparatus, system, and method for digital communications driven by behavior profiles of participants
DK180951B1 (en) System with post-conversation representation, electronic device, and related methods
JP2018190070A (en) Interaction support method, device and program
JP2018200590A (en) Assignment method, assignment device and program
US20230093298A1 (en) Voice conference apparatus, voice conference system and voice conference method
US11318373B2 (en) Natural speech data generation systems and methods
US20200193965A1 (en) Consistent audio generation configuration for a multi-modal language interpretation system
JP7152453B2 (en) Information processing device, information processing method, information processing program, and information processing system
US8775163B1 (en) Selectable silent mode for real-time audio communication system
JP2011142381A (en) Operator selection device, and operator selection program
JP2018081147A (en) Communication device, server, control method and information processing program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20170515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170515