JP2005055846A - Remote educational communication system - Google Patents

Remote educational communication system Download PDF

Info

Publication number
JP2005055846A
JP2005055846A JP2003313253A JP2003313253A JP2005055846A JP 2005055846 A JP2005055846 A JP 2005055846A JP 2003313253 A JP2003313253 A JP 2003313253A JP 2003313253 A JP2003313253 A JP 2003313253A JP 2005055846 A JP2005055846 A JP 2005055846A
Authority
JP
Japan
Prior art keywords
message
displayed
terminals
participants
student
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003313253A
Other languages
Japanese (ja)
Inventor
Hajime Suzuki
鈴木  元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tottori Prefectural Government
Original Assignee
Tottori Prefectural Government
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tottori Prefectural Government filed Critical Tottori Prefectural Government
Priority to JP2003313253A priority Critical patent/JP2005055846A/en
Publication of JP2005055846A publication Critical patent/JP2005055846A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a remote educational communication system allowing students to have feelings of participation in education and learning. <P>SOLUTION: Inherent other self object image information 11 stored in the respective arithmetic operation means of a plurality of terminals 4, 5 set in an operating state is displayed on respective display means 6, etc., of the terminals 5, etc., set in the operating state. When each operator of the terminals 5, etc., set in the operating state inputs information from an external input means of the terminal, the inputted information is displayed on the inherent other self object image information 11, etc., displayed on the respective display means 6 of the terminals 5, etc., set in the operating state. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、インターネット等の通信ネットワークとコンピュータとを組合せて用いることにより、遠隔に離れた生徒と講師とを接続し、実時間・双方向で遠隔教育や遠隔学習を行う、遠隔通信教育システムに関し、特に、生徒が教育や学習に参加しているという気分を味わうことができるようにした、遠隔教育コミュニケーションシステムに関する。  The present invention relates to a remote communication education system that uses a combination of a communication network such as the Internet and a computer to connect a remote student and an instructor and perform distance education and distance learning in real time and in both directions. In particular, the present invention relates to a distance education communication system that allows students to feel that they are participating in education and learning.

近時、インターネット等の通信ネットワークとコンピュータとを組合せて用いて、実時間・双方向で遠隔教育や遠隔学習を行う方法として、テレビ会議システムを用いた遠隔講義が知られている。このような講義では、講師及び生徒の顔や姿をカメラにより撮像し、遠隔地相互を双方向通信でつないでカメラの画像を伝達することにより、相手の講師や生徒の顔や姿などの状況を把握しながら、教材や資料を画像として表示し、講師が音声で説明して、生徒からの質問を受けながら、遠隔での教育や学習を行っている。
再表01/009867号公報
Recently, distance learning using a video conference system has been known as a method for performing remote education and distance learning in real time and in both directions using a combination of a communication network such as the Internet and a computer. In such a lecture, the face and figure of the instructor and students are imaged by the camera, and the images of the other instructor and student are communicated by connecting the remote locations with two-way communication and transmitting the camera image. Teaching materials and materials are displayed as images, and the instructor explains by voice and receives questions from students while conducting remote education and learning.
Table 01/009867

以下に、従来の遠隔教育のシステムの一例について更に詳しく説明する。  Hereinafter, an example of a conventional distance learning system will be described in more detail.

図21は、従来の遠隔教育システムの一例を概略的に示す構成図である。  FIG. 21 is a block diagram schematically showing an example of a conventional distance learning system.

図21中、この遠隔教育システム101は、講師側のカメラ102、講師側のマイク103、講師側の映像や音声を送受信するCODEC(端末機)104、生徒側で音声や映像を送受信するCODEC(端末機)105、生徒側の画像表示手段106、生徒側のスピーカ107、インターネットまたはLAN(通信ネットワーク)108、サーバ(配信サーバ)109を備える。  In FIG. 21, this distance education system 101 includes a camera 102 on the instructor side, a microphone 103 on the instructor side, a CODEC (terminal unit) 104 for transmitting and receiving video and audio on the instructor side, and a CODEC (terminal for transmitting and receiving audio and video on the student side). A terminal 105), a student-side image display means 106, a student-side speaker 107, the Internet or a LAN (communication network) 108, and a server (distribution server) 109.

従来の遠隔教育のシステムにおいては、講師の講義の様子をカメラ102で撮影し、マイク103で音声を入力し、それらの信号を講師側の音声・映像CODEC(端末機)104により講師側へ送信し、生徒側は同様の音声・映像CODEC(端末機)105により受信して、画像表示手段106へ表示し、スピーカ107にて出力する。講師側の送信する音声・映像信号はインターネットまたはLAN(通信ネットワーク)108を経由して、サーバ(配信サーバ)109に伝えられ、サーバ(配信サーバ)109により、参加する各生徒全員へ同じ信号を配信する方式で実現されていた。  In the conventional distance learning system, the lecturer's lecture is photographed by the camera 102, voice is inputted by the microphone 103, and these signals are transmitted to the lecturer side by the voice / video CODEC (terminal unit) 104 of the lecturer side. The student side receives the same audio / video codec (terminal) 105, displays it on the image display means 106, and outputs it through the speaker 107. The audio / video signal transmitted by the instructor is transmitted to the server (distribution server) 109 via the Internet or LAN (communication network) 108, and the server (distribution server) 109 sends the same signal to all participating students. It was realized by the delivery method.

このような方式であるため、講師側の映像や音声は生徒側に送られるが、生徒側の様子は把握できないという問題点があった。  Because of this method, video and audio on the instructor side are sent to the student side, but there is a problem that the state on the student side cannot be grasped.

また、生徒側にもカメラやマイクを設置し、生徒側の様子をカメラで撮影して、配信サーバを経由して、参加者全員へ配信する方式も実現されているが、遠隔カメラにより撮影される映像は、視点が固定的で、部分的に切り取られた、限られた情報だけしか伝えられないため、画像伝送による時間遅れやノイズ等による画質の劣化も加わり、あくまでも状況把握の参考としての役割にしかならなかった。遠隔カメラ映像からは生徒がどこを見ているかの把握もできず、生徒が本当にわかっているかどうか、生徒がどのように感じているか、などの状況把握は、講師が直接音声で生徒に話しかけて、理解しているかどうか質問し、聞いて確かめるしかなかった。このため、講師の話に対して生徒が理解しているか、注目しているか、興味を示しているか、などの生徒のさまざまな反応を遠隔のカメラ画像から把握するのは至難であり、カメラ映像が無いよりはましというレベルの、限られた効果しか実現できていなかった。  In addition, a method has been implemented in which a camera and microphone are installed on the student side, the student side is photographed with the camera, and distributed to all participants via the distribution server. Since the video has a fixed viewpoint and only a limited amount of information that is partially cut off can be transmitted, image quality deterioration due to time delay or noise due to image transmission is added, and it is only used as a reference for grasping the situation. It was only a role. The remote camera image cannot be used to determine where the student is looking, and the instructor can speak directly to the student to determine whether the student really knows or how the student feels. I had to ask and ask if I understood. For this reason, it is difficult to grasp the various reactions of students from the remote camera image, such as whether the student understands, pays attention to, or shows interest in the lecturer's story. Only a limited effect was achieved, better than no.

生徒側からのカメラ映像の送信ができない、講師側から生徒側への一方向映像通信の場合は、さらに生徒側の状況把握が難しく、講師による一方的な講義にならざるを得ないという問題点があった。  In the case of one-way video communication from the instructor side to the student side where the camera video cannot be transmitted from the student side, it is further difficult to grasp the situation on the student side, and there is a problem that the instructor must be a one-sided lecture was there.

即ち、インターネット等の通信ネットワークとコンピュータとを組合せて、実時間・双方向で遠隔教育や遠隔学習を行う場合、従来使われているテレビ会議システムにおいては、相手の講師や生徒の状況を把握する方法として、講師及び生徒の顔や姿をカメラにより撮像し、一方向または、双方向通信でつなぐ方法が実現されている。この場合、講師は遠隔カメラ撮影・伝送した生徒側の状況を写したカメラ映像を見ることにより、生徒の様子を把握する。講師の話に対して生徒が理解しているか、注目しているか、興味を示しているか、などの生徒のさまざまな反応を遠隔のカメラ画像から把握するのは至難であり、カメラ映像が無いよりはましというレベルの、限られた効果しか実現できていなかった。  In other words, in the case of real-time and interactive distance learning and distance learning by combining a communication network such as the Internet and a computer, in the conventional video conference system, the situation of the other instructor or student is grasped. As a method, a method has been realized in which the faces and appearances of instructors and students are captured by a camera and connected by one-way or two-way communication. In this case, the instructor grasps the state of the student by looking at the camera video showing the student's situation taken and transmitted by the remote camera. It is difficult to grasp the various reactions of students, such as whether they understand, pay attention to, or are interested in the instructor's story from remote camera images, rather than without camera images Only a limited amount of effect was achieved.

一方、生徒側からのカメラ映像の送信ができない、講師側から生徒側への一方向映像通信の場合は、さらに生徒側の状況把握が難しく、講師による一方的な講義にならざるを得ないという問題点があった。  On the other hand, in the case of one-way video communication from the instructor side to the student side where the camera video cannot be transmitted from the student side, it is further difficult to grasp the situation on the student side, and the lecturer must be a one-sided lecture There was a problem.

実際に物理的に同じ場所で顔を合わせて話をしている場合に比べて、遠隔のカメラが撮影できる視点は固定的で、部分的に切り取られた、限られた情報だけしか伝えられない。画像伝送による時間遅れやノイズ等による画質の劣化も加わり、遠隔のカメラ映像はあくまでも状況把握の参考としての役割にしかならなかった。カメラ映像からは生徒がどこを見ているかの把握もできず、生徒が本当にわかっているかどうか、生徒がどのように感じているか、などの状況把握は、講師が直接音声で生徒に話しかけて、理解しているかどうか質問し、聞いて確かめるしかなかった。  Compared to actually speaking face-to-face at the same physical location, the remote camera can take a fixed point of view and conveys only limited information that is partially clipped. . With the addition of time delay due to image transmission and degradation of image quality due to noise, remote camera images have only served as a reference for understanding the situation. It ’s not possible to know where the student is looking from the camera image, and the instructor talks directly to the student with voice to see if the student really knows, how the student feels, I had to ask if I understood that and understood it.

音声による質問やそれに対する応答は、発言者の把握や指名、マイク入力の制御、等の技術的な課題がある。さらに、どのような参加者がいるのかわからない、状況把握ができない環境の中で、講義中に声を出すのは参加者の生徒にとっては、かなりの精神的なプレッシャであり、活発な質疑を実現するにはヒューマンインタフェースとして大きな課題がある。また、音声による発言者は、その場に一人だけであり、同時に多数が参加する教育環境としては、音声による全体の状況把握は非常に難しいという問題点があった。  Voice questions and responses to them have technical problems such as grasping the speaker, nomination, and microphone input control. In addition, speaking in a lecture in an environment where you do not know what kind of participants are present and cannot understand the situation is a considerable mental pressure for the students of the participants, and the active questioning is realized. There is a big problem as a human interface. In addition, there is only one person who speaks by voice, and it is very difficult to grasp the overall situation by voice as an educational environment where many people participate at the same time.

遠隔講義において、文字チャットによるコミュニケーションも利用されているが、文字チャットは文字入力に手間取り、かなり操作に慣れるまではスムーズなコミュニケーションが難しい。文字で表せない気分や雰囲気は伝えるのが難しい。また、文字チャットは各参加者のチャットのメッセージを順番に列として表示するため、参加者が多数で一斉に入力すると、文字列が増え、見にくく、状況把握しにくいという問題点があった。  In remote lectures, communication using text chat is also used, but text chat takes time to input text, and smooth communication is difficult until you get used to the operation considerably. It is difficult to convey the mood and atmosphere that cannot be expressed in letters. In addition, since the chat message of each participant is displayed as a sequence in the character chat, there is a problem that when a large number of participants input all at once, the character string increases, making it difficult to see and grasping the situation.

物理的に集合した講習や講義においては、講師は生徒の表情や視線の様子から、言語以外の情報により、生徒の理解状況を体感できるが、遠隔のテレビ会議やテレビ講義による遠隔教育では、非言語的な状況把握が難しく、実際上は、講師が生徒の理解状況を把握しないまま、講師のペースで勝手に話を続けることが多かった。生徒の側も、自分達の状況を講師側へ伝える手段として、物理空間における表情や視線、ジェスチャーを介した無言のフィードバックが使えないため、離れた場所からテレビを見ているような距離感を克服できず、講師との一体感が無くなり、結果的には学習に対する意欲やモチベーションの低下を招いた。  In lectures and lectures that are physically gathered, the instructor can experience the student's understanding based on information other than language based on the students' facial expressions and gazes. It was difficult to understand the linguistic situation, and in fact, the instructor often kept talking at his / her own pace without understanding the student's understanding. The student side cannot use silent feedback via facial expressions, gaze, or gestures in physical space as a way to communicate their situation to the instructor. It could not be overcome, and the sense of unity with the teacher disappeared, resulting in a decrease in motivation and motivation for learning.

講師が講義の参加者の雰囲気を盛り上げようとしてジョークを話しても、生徒が笑ったかどうか把握できなければ、そのようなジョークを続けることは困難となる。ジョークを発して、すぐに参加者からのレスポンスがないと、なんとも話しづらい。このような場合、講師がおかしいですか?と質問するのもそぐわない。ジョークも話せないまま、反応がわからないまま、淡々と講義をするのは、講義する側も、聞く側もやりにくく、つまらないことになる。  Even if the instructor speaks a joke in an attempt to boost the atmosphere of the lecture participants, it is difficult to continue such a joke unless the student can know whether or not he / she laughed. It's hard to talk about a joke without a response from the participant right away. In such a case, is the instructor funny? It is not appropriate to ask. Lectures with no jokes and no reaction are inconvenient and difficult for both the lecturer and the listener.

同様の断絶感は、講師と生徒との間だけではなく、生徒同士の間にも生じた。物理的に集合した研修や講義においては、生徒同士もお互いの表情や動作により、お互いの興味や理解状況を把握することができる。物理的に同席していれば、自分のクラスメートが講師の話をどのように理解したかが、視線やジェスチャー等の非言語的な視覚情報を介して、実時間で把握できる。しかし、テレビ会議やテレビ講義システムを用いた遠隔講義や遠隔教育の場合は生徒相互間の状況把握は非常に難しい。多くのテレビ会議やテレビ講義システムにおいて、講師や発言者は映像としても大きく表示されるが、発言しない生徒に関する映像は詳細には表示されない。したがって、従来の遠隔教育において生徒同士が、クラスメートとしてお互いの学習熱意や理解状況を非言語的に交換することは困難であり、講義参加により生じる集団的な学習効果のインパクトが少なくなり、結果的に生徒の学習意欲やモチベーションの低下を生じる大きな原因のひとつとなっていた。  A similar sense of disconnection occurred not only between the teacher and students, but also between students. In physically gathered training and lectures, students can grasp each other's interests and understanding status from each other's facial expressions and actions. If you are physically present, you can understand in real time how your classmates understood the lecturer's story through non-verbal visual information such as gaze and gestures. However, it is very difficult to grasp the situation between students in the case of teleconferencing and distance learning using a video conference and a TV lecture system. In many TV conferences and TV lecture systems, lecturers and speakers are displayed as large images, but images regarding students who do not speak are not displayed in detail. Therefore, in conventional distance learning, it is difficult for students to exchange their learning enthusiasm and understanding status nonverbal as classmates, and the impact of the collective learning effect caused by lecture participation is reduced. This was one of the major causes of student motivation and motivation.

本発明の目的は、上述した遠隔教育や遠隔学習の課題を解決し、講師と生徒、生徒同士が、お互いの理解度や興味、感情を実時間で相互に発信、交流することができ、相互にスムーズに情報交換しながら、遠隔学習を進めることができるシステムや方式を実現することにある。  The object of the present invention is to solve the above-mentioned problems of distance learning and distance learning, and the instructor, students, and students can mutually communicate and exchange their mutual understanding, interest, and emotion in real time. It is to realize a system and a system that can advance distance learning while exchanging information smoothly.

本発明に記載の遠隔教育コミュニケーションシステムは、サーバと、サーバに通信ネットワークを介して接続された、複数の端末機とを備え、複数の端末機の各々は、演算処理手段、外部入力手段、表示手段、撮像手段、音声入力手段及び音声出力手段を備え、複数の端末機の各々には、固有番号が割り付けられており、且つ、複数の端末機の各々の演算処理手段には、固有番号に対応するの分身オブジェクト画像情報を格納できるようにされており、複数の端末機を動作状態にすると、動作状態にされた複数の端末機の各々の演算処理手段に格納されている、固有の分身オブジェクト画像情報が、サーバを介して、動作状態にされた複数の端末機の各々の表示手段に表示され、動作状態にされた複数の端末機の各々の操作者が、その端末機の外部入力手段から、情報を入力すると、入力された情報が、前記動作状態にされた複数の端末機の各々の表示手段に表示されている、固有の分身オブジェクト画像情報に表示されるようになっている。  The distance learning communication system according to the present invention includes a server and a plurality of terminals connected to the server via a communication network. Each of the plurality of terminals includes an arithmetic processing unit, an external input unit, and a display. Means, imaging means, voice input means and voice output means, each of the plurality of terminals is assigned a unique number, and each arithmetic processing means of the plurality of terminals is assigned a unique number. Corresponding alternation object image information can be stored, and when a plurality of terminals are put into an operation state, a unique alternation stored in each arithmetic processing means of the plurality of terminals put into an operation state The object image information is displayed on the display means of each of the plurality of terminals that are in the operating state via the server, and each operator of the plurality of terminals that are in the operating state receives the terminal When information is input from the external input means, the input information is displayed on the unique alternation object image information displayed on the display means of each of the plurality of terminals in the operation state. ing.

更に、本発明では、音声通信、画像通信を活用した遠隔教育のための分身型画面表現を活用したコミュニケーション方式を実現する。これを実現するための手段として、下記の手段を組合わせて実現する。    Furthermore, the present invention realizes a communication method using a self-contained screen expression for distance education using voice communication and image communication. As means for realizing this, it is realized by combining the following means.

(あ)遠隔の講師と複数の生徒をネットワークで結び、講師の音声や講師の顔映像、あるいは資料影像を生徒に配信し、表示する手段
(い)遠隔の講義を受講する生徒全員の名前および顔写真もしくはカメラ画像を、ネットワークを介して参加者全員に配信し、参加者個人毎の「分身オブジェクト」の集合として、画面に表示する手段
(う)受講中の感情や意思、表明したい意見、疑問、ジェスチャー、アクションなど思考、心理、動作に関する多様なメッセージ・リストを一覧的に参加者の画面上に表示し、各自がマウスなどのポインティングデバイスによりワンタッチもしくはワンクリックで、自分の感性に合致する「メッセージ」を選択し、システムに入力する手段
(え)上記(う)のメッセージ・リストの中から、各参加者が選択した「メッセージ」を、ネットワークを介して参加者全員に配信し、個人毎の「分身オブジェクト」からの「吹き出しオブジェクト」として表示する手段
(お)上記(う)のメッセージ・リストの中から、各参加者が選択した「メッセージ」を、ネットワークを介して参加者全員に配信し、選択した「メッセージ」に対する合成音声や効果音を出力する手段
(か)上記(う)のメッセージ・リストの中から、各参加者が選択した「メッセージ」を、ネットワークを介して参加者全員に配信し、個人毎の「分身オブジェクト」自体の個別動作として画面上でアニメーション表現する手段
(き)上記(え)の個人毎の「分身オブジェクト」からの「吹き出しオブジェクト」や、上記(か)の「分身オブジェクト」の個別動作などの、他の参加者の個々から発信・表示されるオブジェクトに対して、参加者が自分の感性に合致し賛同・共感するものをマウスなどのポインティングデバイスによりワンタッチもしくはワンクリックで選択して、「賛同信号」としてシステムに入力・配信する手段
(く)上記(き)の、ネットワークを介して配信される、参加者からの「賛同信号」に応じて、元となる「分身オブジェクト」や「吹き出しオブジェクト」と、賛同者の「分身オブジェクト」とを連結的に修飾した、「賛同オブジェクト」を、画面上でアニメーション表現する手段
(け)受講中の間、参加者からの「メッセージ」選択や「賛同信号」入力などの情報発信数を計測する手段を備え、情報発信が少ない場合に、システム側から自動的あるいは講師による手動操作により、その参加者へアラーム(入力促進メッセージ、アラーム音)を表示・出力する手段
(こ)上記(う)のメッセージ・リストに対して、参加者が自分自身で新たな「メッセージ」を追加し、それに対応した「吹き出しオブジェクト」、合成音声、「分身オブジェクト」自体のアニメーション表現を加工もしくは追加する手段
(A) A means to connect a remote lecturer and multiple students via a network, and to deliver and display the lecturer's voice, lecturer's face image, or document image to the student (i) The names and names of all students taking the remote lecture Distributing facial photos or camera images to all participants over the network and displaying them on the screen as a collection of “alternate objects” for each participant (e) Emotions and intentions during the course, opinions to be expressed, Various message lists regarding thoughts, gestures, actions, etc., thoughts, psychology, and actions are displayed on the participant's screen in a list, and each one matches their sensibility with one touch or one click with a pointing device such as a mouse. Means to select “Message” and enter it into the system (E) Each participant selects from the message list in (U) above The “message” is distributed to all participants via the network and displayed as a “balloon object” from the “personal object” for each individual. A means for delivering the “message” selected by the participant to all participants via the network and outputting synthesized speech and sound effects for the selected “message”. , A means to distribute the “message” selected by each participant to all participants via the network, and to express the animation on the screen as individual actions of the “separate object” for each individual. Other participants, such as “Balloon Object” from “Personal Object” for each individual, and individual actions of “Curtain Object” above For objects sent and displayed from each individual, the participant agrees and agrees with his / her sensibility with one touch or one click with a pointing device such as a mouse and inputs it as a “consent signal” to the system・ Distribution means (c) In response to the “agreement signal” from the participant delivered via the network in (a) above, the original “separate object” or “speech object” and the supporter ’s Means to animate “agreement object” on the screen, which is a modified version of “another object”. (K) Number of information transmissions such as “message” selection and “agreement signal” input from participants during the course If there is little information dissemination, the participants can either automatically from the system or manually by the instructor. Means for displaying and outputting alarms (input prompt messages, alarm sounds) (ko) Participants add new “messages” themselves to the message list in (c) above, and the corresponding “speech balloon” A means to process or add animation representations of "objects", synthesized speech, and "another object" itself

本発明では、参加者全員の分身に相当するオブジェクト(分身オブジェクト画像情報)を参加者全員の画面に表示させ、参加者が感じた感性をワンクリックの簡単な操作で、メッセージとして配信し、そのメッセージに対応して、各々の分身オブジェクト(分身オブジェクト画像情報)に画像としての動作や吹き出し型の修飾表示を動的に加えることにより、講義中の参加者の状況や反応を素早く、かつわかりやすく伝達する。このことにより、講師および生徒相互間の直接的な音声対話以外の手段による、感性的な状況把握を容易にするとともに、同時に生徒からの積極的な意見表明や、反応を引き出す効用を実現することができる。  In the present invention, an object corresponding to all the participants (another object image information) is displayed on the screen of all the participants, and the sensibility felt by the participants is delivered as a message with a simple one-click operation. In response to the message, the behavior and response of the participants in the lecture can be quickly and easily understood by dynamically adding an action as an image and a balloon-type decoration display to each of the other objects (another object image information). introduce. This facilitates the understanding of the sensuous situation by means other than direct audio dialogue between the instructor and students, and at the same time, realizes the effect of proactively expressing opinions and receiving responses from students. Can do.

さらに、分身オブジェクト(分身オブジェクト画像情報)の座席を画面上での仮想的な教室内での配置として表示し、あらかじめ決められた座席や各自が自由に選択できる座席への着席イメージとして表示制御することにより、参加者の仮想的な教室への入室感覚を生成する。このことにより、参加者各自の分身オブジェクト(分身オブジェクト画像情報)の座席や位置を通じた、仮想的な教室内での生徒と講師との距離感、生徒同士での距離感、隣同士の感覚などの物理空間に類似した感性的環境を実現する。また、座席配置に際して、参加者のグループ分割の機能制御を、パーティションイメージの画像表現と結びつけて実施し、画面上でパーティションイメージにより座席を分断することにより、グループ音声の遮断や、インタラクションの規制などのグループ管理制御を簡単な操作で実行できるようにする。これにより、物理的な教室では実行できないような、ワンタッチで多人数を二人ずつのグループに分けたり、講義とグループ討議をフレキシブルに切り換えるなどの環境切り替えが容易な操作で実現できる。  In addition, the seats of the alternate objects (alternate object image information) are displayed as a virtual classroom arrangement on the screen, and display control is performed as a seating image on a predetermined seat or a seat that can be freely selected by each person. Thus, a sense of entry into the virtual classroom of the participant is generated. As a result, the sense of distance between the student and the instructor in the virtual classroom, the sense of distance between students, the sense of neighbors, etc., through the seats and positions of each participant's alternate object (another object image information) A sensuous environment similar to physical space is realized. In addition, when allocating seats, the function of dividing the group of participants is combined with the image representation of the partition image, and the seat is divided by the partition image on the screen, thereby blocking the group audio and regulating the interaction. The group management control can be executed with a simple operation. This makes it possible to easily switch between environments, such as dividing a large number of people into groups of two at a single touch, or switching between lectures and group discussions, which cannot be performed in a physical classroom.

また、分身オブジェクト(分身オブジェクト画像情報)への吹き出し型の修飾表示を、遠隔教育環境における音声発言者の切り替えやマイクの切り替え制御に適用して実施し、発言中の人物の明示や発言を希望している参加者の明示と音声制御とを連動した方式を実現する。このような発言者および発言を希望している参加者を明示する制御方式により、従来のシステムでは司会者などによる人為的な制御をしないと難しいという、多数の参加者の中での発言権の移動制御の問題を解決し、参加者同士での自律的な判断による、スムーズな発言権移行がやりやすい方式を実現する。  In addition, the balloon-type decoration display on the alternation object (the alternation object image information) is applied to the voice speaker switching and microphone switching control in the distance learning environment, and the person who is speaking is clearly indicated and he / she wants to speak Realize a system that links the participant's clarification and voice control. With the control system that clearly indicates the speaker and the participant who wants to speak, it is difficult to control the speaking right among a large number of participants in the conventional system, which is difficult without artificial control by a moderator. It solves the problem of mobility control and realizes a method that facilitates smooth transition of speaking rights by autonomous judgment between participants.

図1は、本発明に係る遠隔教育コミュニケーションシステ厶の概念を概略的に説明する図である。図1中、図1(a)は、従来の遠隔教育システムの概念図であり、また、図1(b)は、本発明に係る遠隔教育コミュニケーションシステムの概念である。  FIG. 1 is a diagram schematically illustrating the concept of a distance learning communication system according to the present invention. 1A is a conceptual diagram of a conventional distance learning system, and FIG. 1B is a concept of a distance education communication system according to the present invention.

従来の遠隔教育システムは、図1(a)に示すように、遠隔教育の場を講師が生徒へ教材などのコンテンツを示しながら講義するという概念であり、講師側からは生徒を遠隔の先にあるひとまとめとして、とらえるものであった。  As shown in FIG. 1 (a), the conventional distance learning system is a concept in which a lecturer lectures in a distance education place while showing contents such as teaching materials to a student. It was something that was captured as a group.

これに対し、本発明に係る遠隔教育コミュニケーションシステムでは、遠隔教育の場を、図1(b)に示すように、講師と複数の生徒が講師の講義を通じて相互にインタラクションを行う場であるという概念で捉え、その交流のためのシステムを実現する。このための手段として、遠隔教育の場に参加する生徒を、生徒という集合にひとまとめにするのではなく、各々の生徒の存在を明確に表す分身として、画面上に明示して表現する機能を実現するものである。  On the other hand, in the distance learning communication system according to the present invention, the concept of distance learning is a place where a lecturer and a plurality of students interact with each other through the lecturer's lecture as shown in FIG. And realize a system for that exchange. As a means to achieve this, a function that expresses the students participating in the distance learning field clearly on the screen as a separate representation of each student's existence, rather than grouping them together into a set of students To do.

図2は、本発明に係る遠隔教育コミュニケーションシステムの一例を概略的に示す構成図である。  FIG. 2 is a block diagram schematically showing an example of a distance learning communication system according to the present invention.

遠隔教育コミュニケーションシステム1は、講師側のカメラ2、講師側のマイク3、講師側の映像や音声を送受信するCODEC(端末機)4、生徒側で音声や映像を送受信するCODEC(端末機)5、生徒側の画像表示手段6、生徒側のスピーカ7、インターネットまたはLAN(通信ネットワーク)8、及び、サーバ(配信サーバ)9を備える。  The distance learning communication system 1 includes a lecturer-side camera 2, a lecturer-side microphone 3, a lecturer-side video and audio CODEC 4, and a student-side voice and video CODEC 5. , A student-side image display means 6, a student-side speaker 7, the Internet or LAN (communication network) 8, and a server (distribution server) 9.

この遠隔教育コミュニケーションシステム1の以上の構成は、図21に示す、従来の遠隔教育システム101と同様であるが、この遠隔教育コミュニケーションシステム1は、更に、画面上に表示する参加者の生徒を表す分身オブジェクト画像情報11をCODEC(端末機)4、5に格納できるようにしている。  The above-described configuration of this distance education communication system 1 is the same as that of the conventional distance education system 101 shown in FIG. 21, but this distance education communication system 1 further represents the participants' students to be displayed on the screen. The duplicate object image information 11 can be stored in the CODECs (terminal units) 4 and 5.

尚、この分身オブジェクト画像情報11の各々は、CODEC(端末機)4、5の固有番号(ID)に対応するように固有の画像情報(例えば、ユーザの写真等)にされている。  It is to be noted that each of the alternation object image information 11 is made into unique image information (for example, a photograph of the user) so as to correspond to the unique number (ID) of the CODEC (terminal) 4 and 5.

また、CODEC(端末機)4、5の各々は、画像表示手段6上に表示するメッセージ・リスト12、分身オブジェクト画像情報11やメッセージ・リスト12の表示制御や通信制御を実行するクライアント・オブジェクト処理システム13を備える。  Each of the CODECs (terminals) 4 and 5 is a client object process for executing display control and communication control of the message list 12, the alternate object image information 11 and the message list 12 displayed on the image display means 6. A system 13 is provided.

尚、サーバ(配信サーバ)9は映像・音声配信サーバ9a、メッセージ配信サーバ9bの機能を有する。  The server (distribution server) 9 has functions of a video / audio distribution server 9a and a message distribution server 9b.

この遠隔教育コミュニケーションシステム1では、複数の端末機4、5を動作状態にすると、講師と生徒を結ぶコミュニケーション機能として、従来の遠隔教育システムの講師および生徒の参加者を結んだ、カメラ2、マイク3、音声・画像CODEC4、5による、講師と生徒とを結ぶカメラ映像や音声通信だけでなく、参加者の端末の画面上に、参加者の分身オブジェクト画像情報11、メッセージ・リスト12及びメッセージ・リスト12を表示し、それらを組合わせて、参加者同士のコミュニケーションを実現できる。  In this distance learning communication system 1, when a plurality of terminals 4 and 5 are put into an operating state, a camera 2, a microphone, and a conventional distance learning system instructor and student participants are connected as a communication function to connect the instructor and the student. 3. Audio / image CODECs 4 and 5 are used not only for the camera video and voice communication connecting the instructor and the student, but also on the participant's terminal screen on the participant's alternate object image information 11, message list 12 and message By displaying the list 12 and combining them, communication between participants can be realized.

尚、この遠隔教育コミュニケーションシステム1では、インターネットまたはLAN(通信ネットワーク)8を介して接続される映像・音声配信サーバ9a、メッセージ配信サーバ9bにより配信される情報を基にして、講師および生徒の端末機5のクライアント・オブジェクト処理システム13が、分身オブジェクト画像情報11とメッセージ・リスト12を画像表示手段6上に表示する。生徒側の画像表示手段6においては、講師側との音声・画像CODEC(端末機)5による音声や映像の送受信や表示に加えて、分身オブジェクト画像情報11やメッセージ・リスト12が表示され、マウス等のポインティングデバイス14により操作される。  In this distance education communication system 1, instructors and student terminals are based on information distributed by a video / audio distribution server 9a and a message distribution server 9b connected via the Internet or a LAN (communication network) 8. The client object processing system 13 of the machine 5 displays the alternation object image information 11 and the message list 12 on the image display means 6. In the image display means 6 on the student side, in addition to transmission / reception and display of audio and video by the audio / image CODEC (terminal) 5 with the instructor side, the alternation object image information 11 and the message list 12 are displayed, and the mouse is displayed. The pointing device 14 is operated.

尚、メッセージ・リスト12には、予め、受講中に想定される、「おもしろい」、「わからない」、「おどろいた」、などの多様なメッセージがリストとして一覧的に提示されている。生徒は、自分が随時感じたものに合致したメッセージをポインティングデバイス14で、ワンタッチで選択する。選択されたメッセージは、クライアント・オブジェクト処理システム13により、メッセージ配信サーバ9bへ送られ、参加者全員へ配信される。メッセージ配信サーバ9bから配信されたメッセージは各参加者のクライアント・オブジェクト処理システム13により処理され、画面上の分身オブジェクト画像情報11の動作や、吹き出し型のメッセージなどとして表示される。  In the message list 12, various messages such as “interesting”, “don't know”, and “surprising” that are assumed during the course are presented as a list in advance. The student selects a message that matches what he / she feels at any time with the pointing device 14 with one touch. The selected message is sent by the client object processing system 13 to the message delivery server 9b and delivered to all participants. The message distributed from the message distribution server 9b is processed by the client object processing system 13 of each participant, and is displayed as an operation of the alternate object image information 11 on the screen, a balloon type message, or the like.

図3は、遠隔教育コミュニケーションシステム1におけるメッセージ情報の配信処理の例を示す図である。図3中、4は講師用端末機、5は生徒用端末機、9bはメッセージ配信サーバ、8はインターネットまたはLAN(通信ネットワーク)である。  FIG. 3 is a diagram illustrating an example of message information distribution processing in the distance learning communication system 1. In FIG. 3, 4 is a teacher terminal, 5 is a student terminal, 9b is a message distribution server, and 8 is the Internet or a LAN (communication network).

この遠隔教育コミュニケーションシステム1では、遠隔教育に参加する生徒の入力するメッセージを、講師や他の生徒全員へ配信する。このようなメッセージの相互配信を実現する方法としては、お互いが、各々全員の参加者の端末にピア・ツー・ピアで配信する方法があるが、その場合は全体の端末機の数をmとすると、各端末が同様のメッセージを一斉にお互いに配信した場合、自分自身への配信を除いた、m×(m−1)回の配信処理が発生する。これは、参加する端末数mが増大するとほぼ二乗に比例してトラフィックが増大することになり、少人数の参加者の場合以外は、実用性に問題が生じる。  In this distance education communication system 1, a message input by a student participating in distance education is distributed to the instructor and all other students. As a method for realizing such mutual delivery of messages, there is a method in which each other delivers to each participant's terminal in a peer-to-peer manner. In this case, the total number of terminals is m. Then, when each terminal delivers the same message to each other all at once, m × (m−1) times of delivery processing excluding delivery to itself occurs. This is because traffic increases in proportion to the square when the number of participating terminals m increases, and there is a problem in practicality except in the case of a small number of participants.

この問題を防止するために、図3に示したような、メッセージ配信サーバ9bを用意し、全員がこのサーバ9bへメッセージを配信し、またそのサーバ9bから他者のメッセージを取得する方法がある。この場合は全体の端末機の数をmとすると、各生徒の端末機5・・・が一斉に同様のメッセージを配信したとしても、配信処理はメッセージ配信サーバ9bへの送信と、サーバ9bからの受信の2回の2m回ですむことになる。  In order to prevent this problem, there is a method in which a message delivery server 9b as shown in FIG. 3 is prepared, all of the messages are delivered to this server 9b, and the messages of others are acquired from the server 9b. . In this case, if the total number of terminals is m, even if each student's terminals 5... Distribute the same message all at once, the distribution processing is performed by transmitting to the message distribution server 9b and from the server 9b. The reception of 2 times of 2m is sufficient.

この遠隔教育コミュニケーションシステム1でのメッセージ配信は、サーバ9bを用意する方式でも、ピア・ツー・ピアによる相互配信のどちらの方式でも実現できる。  The message distribution in the distance learning communication system 1 can be realized by either a method of preparing the server 9b or a method of mutual distribution by peer-to-peer.

図4は、この遠隔教育コミュニケーションシステム1において実現する画面上の分身オブジェクトの構成の例を示す図である。  FIG. 4 is a diagram showing an example of a configuration of a clone object on the screen realized in the distance education communication system 1.

この遠隔教育コミュニケーションシステム1では、遠隔に離れた参加者の各々のお互いの様子や反応を、参加者各々をシンボルとして表現する分身オブジェクト画像情報23の動作や吹き出しによって表現する。  In this distance education communication system 1, the state and reaction of each remote participant are expressed by actions and balloons of the alternate object image information 23 that expresses each participant as a symbol.

分身オブジェクト画像情報の基本形は、参加者の顔写真情報またはカメラ映像情報21、参加者の氏名またはニックネーム22、分身オブジェクト画像情報の形状を示す縁23、分身オブジェクト画像情報23へ付加表示される吹き出しオブジェクト24を備える。  The basic form of the alternation object image information is the participant's face photo information or camera video information 21, the participant's name or nickname 22, the edge 23 indicating the shape of the alternation object image information, and the balloon displayed in addition to the alternation object image information 23. An object 24 is provided.

これにより、参加者は、画像表示手段6・・・の画面上に表示される参加者の分身オブジェクト画像情報によって、他の参加者の存在を明示的に把握できる。  Thereby, the participant can grasp | ascertain explicitly the presence of another participant by the participant's alternation object image information displayed on the screen of the image display means 6 ....

従来の遠隔教育システムにおいては参加者の名前のリスト表示などは実施されていたが、顔写真や名札を全体としてひとつの固まりとして、分割的に取り扱うことはなされていなかった。また、従来のテレビ会議やテレビ講義においては、相手の顔や上半身の映像や状況映像をカメラで撮影して相手側に表示することはできていたが、その表現はあくまでも各々の映像を表示するウィンドウとして画面上に表示することしかできていなかった。  In the conventional distance learning system, a list of participants' names was displayed, but face photographs and name tags as a whole were not handled in a divided manner. Also, in conventional video conferences and lectures, it was possible to shoot the video of the other party's face and upper body and situation video with the camera and display it on the other party's side, but the representation is only displayed for each video. It could only be displayed on the screen as a window.

また、画面上に多数のウィンドウを表示し、それぞれのウィンドウに遠隔の各地の参加者のカメラ映像を表示する場合でも、各々のウィンドウは単純な画面分割という表現であり、各々の画面を参加者の分身として捉えた画像処理を実現することはできていなかった。  Even when many windows are displayed on the screen and the camera images of participants from different locations are displayed on each window, each window is simply expressed as a screen split. It was not possible to realize the image processing that was captured as a substitute.

しかしながら、この遠隔教育コミュニケーションシステム1では、分身オブジェクト画像情報が参加者の分身として、ひとつの固まりとして捉えられて、取り扱えるようにする際の心理的な認識効果を出すために、分身オブジェクト画像情報の縁23が重要な役割を果たす。  However, in this distance education communication system 1, in order to obtain a psychological recognition effect when the object image information is regarded as a lump as a part of the participant and can be handled, The edge 23 plays an important role.

ここに、分身オブジェクト画像情報の縁23の形としては、顔写真や名札の形状に合わせた矩形のものが画像表示処理としては簡単に実現しやすいが、人間の分身としての心理的な効果を増すためには、矩形ではなく、より柔らかい楕円形や丸みをおびた形状の効果が大きい。  Here, as the shape of the edge 23 of the alternation object image information, a rectangular shape corresponding to the shape of the face photo or name tag is easy to realize as the image display processing, but the psychological effect as a human alternation is obtained. In order to increase, the effect of a softer oval or rounded shape rather than a rectangle is great.

また、画像表示手段6の画面上の分身の表現については、人物の人間的な表現の効果を上げるために、3次元のコンピュータグラフィックスなどを用いて、実在の人間の形状に近い形を表現することも考えられるが、そのような場合は、逆にリアリティが上がりすぎて、いろいろなジェスチャや分身の動作などを積極的に実行しにくくなるという心理的な問題が発生する。  In addition, with regard to the representation of the alternate on the screen of the image display means 6, in order to increase the effect of human expression of a person, a shape close to the shape of an actual human being is expressed using three-dimensional computer graphics or the like. However, in such a case, the reality becomes too high, and a psychological problem occurs that it becomes difficult to actively perform various gestures and other actions.

この点、遠隔教育コミュニケーションシステム1では、分身オブジェクト画像情報の構成要素を顔写真あるいは顔のカメラ映像と名札という2次元的な素材だけに限定し、分身オブジェクトの縁の形状によって、分身をシンボル的に表現することにより、分身オブジェクトに対する動作や修飾がリアルな雰囲気にならず、あくまでもシンボルとしての表現であるという効果を実現している。  In this regard, in the distance education communication system 1, the constituent elements of the alternate object image information are limited to only two-dimensional materials such as a face photograph or a camera image of a face and a name tag, and the alternation is symbolically represented by the edge shape of the alternate object. This makes it possible to realize the effect that the action and modification of the alternation object do not have a realistic atmosphere, and are merely expressed as a symbol.

このようなシンボル的な表現は、文字チャットにおける、文字記号を組合わせたフェイスマークの利用において見られるように、謝ったり、驚いたり、感謝したりなどの多様な感情表現を気軽に、かつ積極的に発信させる効果がある。また受信側も、シンボル的なオーバーアクションの表現により、滑稽な印象が増幅され、コミュニケーションがスムーズに進行する効果が出る。  This kind of symbolic expression is easy and positive for various emotional expressions such as apologize, surprise, and appreciation, as seen in the use of face marks that combine character symbols in character chat. It has the effect of making it transmit. On the receiving side, a symbolic overaction expression amplifies a humorous impression and produces an effect of smooth communication.

本発明で実現する分身オブジェクトは文字記号により構成されるフェイスマークに比べて、顔写真またはカメラ映像を要素とすることにより、より実在の人物自身としての存在感をもちつつ、シンボルとしての軽やかな心理効果を備えた分身感覚とを両立して実現できる。  Compared to face marks made up of character symbols, the body objects realized in the present invention have a face photo or camera image as an element, and thus have a presence as a real person, and are light as symbols Achieving both a sense of alternation and a psychological effect.

単純なフェイスマークや、あるいは擬似的あるいは漫画的なアニメーションによる人物表現を用いた分身表示や、動物のマークなどを用いた分身表現などと比較して、本発明での顔写真やカメラ映像と名札との組合わせによる分身表現は、実際の本人の姿と名前を用いていることから、本当にその場に参加している人物という実在感が高い。  Compared with a simple face mark, or a portrait display using a person expression by a pseudo or cartoon animation, or a portrait expression using an animal mark, etc., the face photo, camera image and name tag in the present invention The expression of the body by the combination of and uses the actual person's figure and name, so there is a high sense of reality as a person who is actually participating in the place.

教育、学習、議論、討論などの実名でのコミュニケーションにおいては、本発明の分身表現を利用することにより、参加者相互の存在感や、実際の人物とのコミュニケーションが行われているという信頼感の醸成の効果が広がり、参加意欲の強化につながる。  In communication under the real name such as education, learning, discussion, discussion, etc., by using the expression of the present invention, the presence of mutual trust among participants and the communication with the actual person is performed. The effect of nurturing will be expanded and willingness to participate.

このように、実在感効果と、シンボル効果とのバランスの観点から見て、本発明での分身オブジェクトは、3次元CGによるリアリティのある分身イメージと、フェイスマークのような抽象化されたシンボルとの、中間的で双方の必要な機能を抽出した構成となっている。  As described above, from the viewpoint of the balance between the presence effect and the symbol effect, the clone object in the present invention includes a realistic clone image by 3D CG, an abstract symbol such as a face mark, and the like. This is an intermediate configuration that extracts both necessary functions.

図5は、分身オブジェクトの形状として、人間の分身としての心理的効果を増すために、矩形から変形させた形状の例を示す図である。  FIG. 5 is a diagram illustrating an example of a shape changed from a rectangle in order to increase the psychological effect as a human divide as the shape of a divide object.

図6は、遠隔教育コミュニケーションシステム1の端末機5側の画像表示手段の画面の構成の例を示す図である。  FIG. 6 is a diagram showing an example of the screen configuration of the image display means on the terminal 5 side of the distance education communication system 1.

図6中、31は講師の講義の様子をカメラで撮影した映像を受信し表示したもの、32a、32b、32cは参加者の生徒の分身オブジェクトを表示したもの、33はメッセージ・リスト、14はマウス等のポインティングデバイスである。  In FIG. 6, 31 is a video image of the lecturer's lecture received and displayed, 32 a, 32 b, and 32 c are images of the participant's students, 33 is a message list, and 14 is a message list. A pointing device such as a mouse.

遠隔教育コミュニケーションシステム1において、遠隔教育に参加した生徒は講師から送られてくる講義の様子を撮影したカメラ映像31を画面に表示して、それを見ながら、講師の講義の音声を聞く。参加者の顔写真や映像と名札からなる分身オブジェクト32a、32b、32cが画面上に表示され、その講義に参加している生徒のイメージが明示される。生徒は講義の最中に講師の話に対して感じたことを、画面上に表示されたメッセージ・リスト33の中から選択し、ポインティングデバイス14により随時クリックして、自分がその時に感じた感覚を入力する。入力されたメッセージはサーバ9を介して、参加者全員の端末機5へ送信される。入力されたメッセージに応じて、分身オブジェクト32bのようにメッセージを表す言葉自体を分身オブジェクトからの吹き出し型の表示としての出力(「おもしろい」というメッセージの吹き出し表示)や、分身オブジェクト32cのアニメーションとしての動作(「びっくり」というメッセージの表現として、分身オブジェクトの一回転動作をアニメーション表示)として表示する。講師や他の参加者は分身オブジェクトに表示されるメッセージや動作を見て、各々の生徒がどのような心理的状態にあるかを明確に把握することができる。このような明示的な参加者の心理状態や感覚の表現が簡単な操作(マウスによるワンクリック)で実現できるので、参加者は気軽に、また積極的に自分の感覚を表明しやすくなる。出力される吹き出しオブジェクトや分身オブジェクトのアニメーション動作は、直接的な発声や物理的な身体動作に比べて、デフォルメされ、誇張され、滑稽な雰囲気が付加されるので、参加者同士の円滑なコミュニケーションの醸成に効果が大きい。従来の物理的に同席した面談においては、顔の表情やジェスチャーなどの非言語的な手段で表現していた面談者の感覚や心理状態を、より積極的に、自己表現として表出することができる。  In the distance education communication system 1, a student participating in distance education displays on the screen a camera image 31 that captures the state of the lecture sent from the lecturer, and listens to the lecturer's lecture sound while watching it. Divided objects 32a, 32b, and 32c consisting of participants' face photos, videos and name tags are displayed on the screen, and the images of students participating in the lecture are clearly shown. The student selects what he / she felt about the instructor's story during the lecture from the message list 33 displayed on the screen, and clicks on the pointing device 14 at any time to feel the feeling he / she felt at that time. Enter. The input message is transmitted to the terminals 5 of all the participants via the server 9. In response to the input message, the word representing the message itself is output as a balloon-type display from the branch object (such as a balloon display of a message “interesting”), or as an animation of the branch object 32c. It is displayed as an action (animated display of a one-turn action of a clone object as an expression of a “surprise” message). Instructors and other participants can clearly understand the psychological state of each student by looking at messages and actions displayed on the alternation object. Such explicit expression of the participant's psychological state and sensation can be realized with a simple operation (one click with a mouse), so that the participant can easily and positively express his / her senses. Compared to direct utterances and physical body movements, the animations of the balloon objects and the body objects that are output are deformed, exaggerated, and a humorous atmosphere is added, enabling smooth communication between participants. Great effect on brewing. In traditional physically attended interviews, the interviewer's senses and psychological state expressed by nonverbal means such as facial expressions and gestures can be expressed more actively as self-expression. it can.

図7は、遠隔教育コミュニケーションシステム1の処理の流れの例を示すフロー図である。  FIG. 7 is a flowchart showing an example of the processing flow of the distance learning communication system 1.

遠隔教育コミュニケーションシステム1の処理は、端末機5側のクライアント側の処理(オブジェクト処理)とサーバ9側の処理(メッセージ配信)とに分かれて実現される。  The processing of the remote education communication system 1 is realized by dividing into processing on the client side (object processing) on the terminal 5 side and processing (message delivery) on the server 9 side.

クライアント側には、メッセージオブジェクト41、分身オブジェクト42、音声オブジェクト43、吹き出しオブジェクト44、および、これらのオブジェクトに関するオブジェクト通信処理45がある。サーバ9側にはメッセージに対応する動作を規定するメッセージ・テーブル46がある。  On the client side, there are a message object 41, a body object 42, a sound object 43, a balloon object 44, and an object communication process 45 relating to these objects. On the server 9 side, there is a message table 46 that defines operations corresponding to messages.

これを動作するには、メッセージオブジェクト41において、まず、クライアントの端末機5の画像表示手段6の画面上にメッセージ・リストを表示する。遠隔教育コミュニケーションシステム1では、メッセージ・リストに対するユーザの入力を監視し、ポインティングデバイスによるクリックなどの選択を検出する。  In order to operate this, in the message object 41, first, a message list is displayed on the screen of the image display means 6 of the client terminal 5. The distance learning communication system 1 monitors a user input to the message list and detects a selection such as a click by a pointing device.

次に、ユーザがどのメッセージを選択したかを検出したら、その検出結果をシステムのオブジェクト通信制御へ伝える。  Next, when it is detected which message the user has selected, the detection result is transmitted to the object communication control of the system.

オブジェクト通信制御においては、ユーザが選択したメッセージをサーバ9側へ送信する。  In the object communication control, a message selected by the user is transmitted to the server 9 side.

サーバ9側は、ユーザ側が選択したメッセージを受信し、事前に登録したメッセージ・テーブルを参照することにより、そのメッセージに対応する対象オブジェクト、およびオブジェクトに対する指示動作を読み出す。  The server 9 receives the message selected by the user and reads the target object corresponding to the message and the instruction operation for the object by referring to the message table registered in advance.

次に、サーバ9側のシステムは、受信したメッセージに対応するオブジェクトやオブジェクトに対する動作指示を、遠隔教育に参加しているクライアントの全員へ配信する。  Next, the system on the server 9 side distributes the object corresponding to the received message and the operation instruction for the object to all the clients participating in the distance learning.

次に、クライアント側のオブジェクト通信制御はサーバ9から、オブジェクトに対する動作指示を受信し、それをクライアント側の対象となるオブジェクトへ伝える。Next, the object communication control on the client side receives an operation instruction for the object from the server 9 and transmits it to the target object on the client side.

動作指示が分身オブジェクトに対するものである場合は、分身オブジェクトは対象となる分身オブジェクトに対して、指示されたアクションや、吹き出しオブジェクトの表示を行う。  If the action instruction is for a clone object, the clone object displays the designated action or balloon object for the target clone object.

また、動作指示が音声オブジェクトに対するものである場合は、音声オブジェクトは指示された音声メッセージを出力したり、指示された効果音や合成音声をクライアントから出力する。  If the action instruction is for a voice object, the voice object outputs an instructed voice message, or outputs an instructed sound effect or synthesized voice from the client.

また、動作指示が、他の参加者への賛同表現であった場合は、対象となる分身オブジェクトに対して、相互に連結した吹き出しオブジェクトを表示し、賛同表現を実行する。  If the action instruction is an expression of approval for another participant, a balloon object connected to the target alternation object is displayed, and the approval expression is executed.

図7では、クライアント側のメッセージに対応する、オブジェクトや動作の指示の種類を定めたメッセージ・テーブルは事前にサーバ側に登録しておき、サーバ側でメッセージに対する動作指示を参照する方法を示したが、この他の方法として、メッセージ・テーブルを各々のクライアントへ事前に配信しておき、サーバは受信したメッセージを、単純に、全クライアントへ配信することのみを実行し、メッセージに対する動作指示の参照は各クライアントが自分でメッセージ・テーブルを参照して実行する方法もある。このようなメッセージ・テーブルをサーバ側、あるいはクライアント側のどちらに配置するかは、サーバの規模やメッセージ・テーブルへの改変の頻度などの他のシステム条件により、システム構成を適宜選定できる。  FIG. 7 shows a method in which a message table that defines the types of objects and operation instructions corresponding to messages on the client side is registered in advance on the server side, and the operation instructions for messages on the server side are referred to. However, as another method, the message table is distributed to each client in advance, and the server simply executes distribution of the received message to all clients, and refers to the operation instruction for the message. There is also a method that each client can execute by referring to the message table. Whether such a message table is arranged on the server side or on the client side can be appropriately selected according to other system conditions such as the scale of the server and the frequency of modification to the message table.

図8は、遠隔教育コミュニケーションシステム1において、遠隔教育への参加者用のクライアント側の画面上に用意しておく、メッセージの例である。参加者が遠隔講義を受講中や、遠隔会議の参加中に、自分の感じた感覚や思いを簡単に、ワンクリックやワンタッチで入力できるように、受講中や会議中に想定される心理的なイベントを単語として表現し、一覧的に表示したメッセージ・リストを作成する。参加者が想起する心理的なイベントは、その意図の種類に対応して、大きくは、「理解・賛同」、「興味・面白さ」、「感動・感情」、「技術・希望」に分類される。参加者が自分の感じた感覚に相当する単語や語彙を選定しやすくするためには、参加者が選択、入力する対象となる一覧表示としてのメッセージ・リストへは、これらの4分類すべてをカバーするように単語や語彙の種類を用意する必要がある。  FIG. 8 is an example of a message prepared on the client-side screen for the remote education participant in the distance education communication system 1. Psychological assumptions made during attendance and meetings so that participants can easily enter their feelings and thoughts with one click or one touch while taking remote lectures or participating in teleconferences. Create a message list that expresses events as words and displays them as a list. Psychological events recalled by participants are roughly classified into “understanding / agreement”, “interest / interest”, “impression / emotion”, and “technology / hope” according to the type of intention. The In order to make it easier for participants to select words and vocabulary that correspond to their own feelings, the message list as a list display that is selected and entered by participants covers all four categories. It is necessary to prepare the kind of words and vocabulary.

メッセージ・リストへ語彙を一覧的に表示する際、意図の種類に応じて、分類してまとめておくことにより、参加者が自分の感じた感覚に一番合致した語彙を選定するのが容易になるという効果が実現できる。また、上記の4分類において、肯定的な語彙と否定的な語彙を対応させて、一覧的に配置して表示することにより、各々の感覚に対応する語彙の選定がより容易になる。  When displaying a list of vocabulary in the message list, it is easy to select the vocabulary that best matches the feeling that participants felt by classifying them according to the type of intention. The effect of becoming can be realized. In the above four classifications, positive vocabulary and negative vocabulary are made to correspond to each other and arranged and displayed in a list, thereby making it easier to select a vocabulary corresponding to each sense.

メッセージ・リストに表示する語彙として、心理的な言葉だけでなく、「拍手する」、「うなずく」、「首を振る」、「あくびする」、「笑う」、「首をかしげる」、「目を丸くする」、「手を振る」、「お辞儀する」、などの具体的な非言語的コミュニケーション動作に直接的に対応する語彙を用意する方法もある。参加者が自分のしたい非言語的コミュニケーション動作をメッセージ・リストから選択して、分身オブジェクトからの吹き出しオブジェクトへ文字として表示、あるいは分身オブジェクトの擬似的なアニメーション動作として表現することにより、その意図や意思を他の参加者へ伝達できる。  The vocabulary to be displayed in the message list is not only psychological words but also “applause”, “nod”, “waving his head”, “yawning”, “laughing”, “shaking his head”, “eyes” There is also a method of preparing a vocabulary that directly corresponds to a specific non-verbal communication operation such as “round up”, “waving hands”, “bowing”. By selecting a non-verbal communication action that the participant wants to do from the message list and displaying it as a character on a balloon object from the alternation object or expressing it as a simulated animation action of the alternation object, the intention or intention Can be communicated to other participants.

メッセージ・リストの表示方法としては、語彙の全体を一覧的に表形式で常時表示する方法が、ユーザにとって一番容易に選定しやすい方法である。画面上に常時表示されている語彙が、ユーザの視野に常時容易に入ることにより、積極的な自己表現やレスポンスの反応をやりやすくする。一覧的に表示されていないと、ユーザは操作の煩わしさから、反応をクリックすることが少なくなる。  As a method for displaying the message list, a method in which the entire vocabulary is always displayed in a tabular form is a method that is most easily selected by the user. The vocabulary that is always displayed on the screen is always easily in the user's field of view, facilitating positive self-expression and response reactions. If it is not displayed in a list, the user is less likely to click on the reaction because of the troublesome operation.

一方、表示画面の都合でメッセージ・リストを常時表示できない場合は、プルダウンメニュー形式や、アイコン型のボタンによる、2段階での呼び出し型の表示方法がある。これは、自己表現や操作に習熟したユーザにとっては有効な方法である。  On the other hand, if the message list cannot be displayed at all times due to the convenience of the display screen, there are two types of call-type display methods using a pull-down menu format or icon-type buttons. This is an effective method for a user who is proficient in self-expression and operation.

図9は、本発明に係る遠隔教育コミュニケーションシステム1の分身オブジェクトの動作表現の例である。  FIG. 9 is an example of an action expression of a clone object of the distance learning communication system 1 according to the present invention.

51は分身オブジェクトの構成例であり、顔写真と氏名を記した名札から構成される分身オブジェクトを示している。  Reference numeral 51 denotes an example of the structure of a clone object, which shows a clone object composed of a face photo and a name tag with a name.

52は、分身オブジェクトからの吹き出しオブジェクトの例を示す。吹き出しオブジェクトは入力されたメッセージを文字メッセージとして表示するために用いる。メッセージ内容と発信者を示す吹き出し口により、だれが、どんなメッセージを出しているかをわかりやすく表示する。  52 shows an example of a balloon object from a clone object. The balloon object is used to display the input message as a text message. A message box that shows the message content and the caller makes it easy to see who is sending what message.

53は、分身オブジェクトの縁の色や太さを変化させた、アニメーション修飾の例を示す。分身オブジェクトの縁の色や太さを動的に変化させることにより、分身に対応するユーザの感情や心理状態を表現する。例えば、メッセージの中でも肯定的なメッセージの場合は縁の色を赤色に変化させ、否定的なメッセージの場合は青色に変化させることにより、メッセージで表現する心理をよりわかりやすく増幅して表現することができる。  53 shows an example of animation modification in which the color and thickness of the edge of the clone object are changed. By dynamically changing the color and thickness of the edge of the clone object, the emotion and psychological state of the user corresponding to the clone object are expressed. For example, by changing the edge color to red for a positive message and changing to blue for a negative message, the psychology expressed in the message is amplified and expressed more clearly. Can do.

54は、分身オブジェクトを回転させた、アニメーション修飾の例を示す。従来のテレビ会議やテレビ講義では、固定的な表示ウィンドウとして表示されていた人物の顔写真やカメラ映像が、名札や縁と一緒に回転することにより、分身オブジェクトで表示されている参加者の心理を強く印象的に表現することができる。驚いた感情や、受けた感情の強さを強調する場合にわかりやすい、効果的な表現として実現できる。実際の場では身体を回転させるような激しい動作をすることはないが、このようなシンボルとしての場においては、分身オブジェクトを回転することにより、非常に強烈な自分の心理表現の非言語動作として使うことができる。  Reference numeral 54 denotes an example of animation modification in which a clone object is rotated. In conventional video conferences and lectures, the facial images and camera images of a person that were displayed as a fixed display window rotate with the name tag and edge, so that the participants' psychology Can be expressed strongly and impressively. It can be realized as an effective and easy-to-understand expression to emphasize surprised emotions and the strength of emotions received. In the actual place, it does not perform intense movements that rotate the body, but in such a place as a symbol, by rotating the alternation object, as a non-verbal action of your own psychological expression Can be used.

55は、分身オブジェクトの上下動作、あるいは左右動作の例である。分身オブジェクトを上下あるいは左右に揺する動作を表現することにより、「うなづき」や、「いやいや」などの非言語的なジェスチャーの印象の表現を実現できる。55 is an example of a vertical motion or a left-right motion of a clone object. By expressing the movement of the alternation object up and down or left and right, it is possible to express the impression of non-verbal gestures such as “nodding” and “no”.

56は、分身オブジェクトの明るさを点滅させた、アニメーション修飾の例を示す。分身オブジェクトを点滅させることにより、実際の場において目をパチパチ、心臓がドキドキするような喜びの非言語動作に対応させた表現として利用することができる。  Reference numeral 56 denotes an example of animation modification in which the brightness of a clone object is blinked. By blinking the alternation object, it can be used as an expression corresponding to a non-verbal motion of joy that makes the eyes crackle and the heart pounds in an actual place.

これらの分身オブジェクトに対するアニメーション修飾は、それぞれ独立して、あるいは組合わせて適用することができる。ユーザが選択、入力したメッセージに対してどのようなアニメーション修飾を表示するかは、事前にメッセージ・テーブルとして登録しておくことにより、システ厶が対応する動作を実行する。  The animation modifications to these alternation objects can be applied independently or in combination. What kind of animation modification is displayed for the message selected and input by the user is registered in advance as a message table, and the system performs the corresponding operation.

図10は、分身オブジェクト同士での賛同の感情表現の実施例である。  FIG. 10 is an example of emotional expression of approval between the two separate objects.

遠隔教育や遠隔会議の環境を表す画面として、画面上に配列的に配置された複数の分身オブジェクト相互において、お互いが握手したり、お互いの手をタッチしたりする非言語的動作を表現した例である。  An example of a screen representing the environment of distance learning or teleconferencing that expresses non-verbal movements in which multiple objects arranged in a sequence on the screen shake each other and touch each other's hands It is.

1)氏名:AAの参加者がメッセージ「OK!」を選択し、自分の分身オブジェクトにメッセージに対応する吹き出しオブジェクトを表示する。  1) Name: AA participants select the message “OK!”, And display a balloon object corresponding to the message on their alternation object.

2)この吹き出しオブジェクトを見て、それに賛同あるいは賛成した、氏名:FFの参加者が、氏名:AAの吹き出しオブジェクトを選択してワンクリックまたはタッチする。この感覚は、自分が相手の手に握手またはタッチする非言語的動作に対応する印象を生成できる。  2) A participant of name: FF who sees this balloon object and agrees or agrees with it selects the balloon object of name: AA and clicks or touches it. This sensation can generate an impression corresponding to a non-verbal movement in which the user shakes or touches the opponent's hand.

3)氏名:FFの参加者の、氏名:AAの参加者のメッセージに対する賛成のタッチ動作を表現する修飾として、氏名:FFの分身オブジェクトから吹き出しオブジェクトが氏名:AAの吹き出しオブジェクトとリンクあるいは結合した表現で表示される。これにより、その場の参加者全員が、氏名:AAの参加者に対して氏名:FFの参加者が賛同した様子が、明示的に伝えられる。  3) Name: A balloon object linked to or combined with a balloon object of name: AA as a modification to express a touch action of a participant of FF with respect to a message of a name: AA participant. Displayed in expressions. As a result, all the participants on the spot are explicitly informed that the participants of the name: FF agree with the participants of the name: AA.

従来の遠隔教育やテレビ会議システムにおいては参加者同士でお互いに握手したり、タッチしたりすることができず、姿はカメラ映像として見えてはいるものの、同じ場所に同席してお互いが非言語的にインタラクションすることができないというまどろっこしさがあった。相手に触ったり、肩をたたいたり、握手したり、小突いたり、などの身体的なインタラクションができず、全員が各々分割されたウィンドウに分散され、相互には手を出すことができないという制約があった。本発明では、分身オブジェクトというシンボルを介して、分身オブジェクト同士でのインタラクションを実現することにより、お互いがシームレスに同じ場所を共有し、一体感を持って交流でき、隣り合って同席し参加している感覚が生成できる。  In conventional distance learning and video conferencing systems, participants cannot shake hands or touch each other, and although they are visible as camera images, they sit in the same place and are non-verbal There was a frustration that they could not interact with each other. Constraint that physical interaction such as touching opponents, hitting shoulders, shaking hands, and small pokes is not possible, and everyone is distributed in divided windows and cannot reach each other was there. In the present invention, by realizing the interaction between the two different objects through the symbol of the second object, each other can share the same place seamlessly and interact with each other with one another. A feeling of being can be generated.

このような参加者同士の分身オブジェクトの結合表現は、賛同や賛成だけでなく、乾抔、握手、肩たたき、抱擁、などの相互交流の非言語的動作のアニメーション修飾として適用できる。分身オブジェクトを介したインタラクションは、実際にリアルの場に同席した以上の、より増幅された相互交流を導く効果がある。簡単なワンクリックにより、相手の肩をたたく感覚で、賛同オブジェクトを表示し、分身オブジェクトを修飾することにより、自分の好意を相手に明示することができる。自己表現が下手だと言われる人にとっても、分身オブジェクトを介すれば、オーバーアクションのジェスチャーとして気軽な感覚で使える。  Such a combined representation of the self-portrait objects between participants can be applied as an animation modification of non-verbal movements of mutual interaction such as psoriasis, handshake, clapping shoulders, embrace, etc. as well as approval and approval. Interaction through a self-portrait object has the effect of leading to a more amplified interaction than actually sitting in a real place. With a simple one-click, you can clearly show your favor to the other party by displaying the approval object and modifying the alternation object as if you were hitting the opponent's shoulder. Even those who are said to be poor at self-expression can use it as a gesture of over action with a simple object through the alternate object.

図11は、本発明の分身オブジェクトのアニメーション修飾とメッセージとの対応関係の実施例である。  FIG. 11 shows an example of the correspondence between the animation modification of the clone object and the message according to the present invention.

メッセージ「なるほど(うなずく)」61aに対しては、分身オブジェクトの上下動作の繰り返し動作61b、「わからない(首をかしげる)」62aに対しては分身オブジェクトを少し傾ける動作62b、「おかしい(笑う)」63aに対しては、分身オブジェクトを左右に回転して揺する動作63b、「ちがう(首を横に振る)」64aに対しては、分身オブジェクトの左右動作の繰り返し動作64b、「はずかしい(身をすくめる)」65aに対しては、分身オブジェクトの全体サイズを縮小する動作65b、「ごめんなさい(頭を下げる)」66aに対しては、分身オブジェクトの上下サイズを縮小し、高さを縮める動作66b、「びっくり(驚きの動作)」67aに対しては、分身オブジェクトを一回転する動作67b、「うれしい(喜びの動作)」68aに対しては、分身オブジェクトの点滅または色を変化させる動作68bを各々対応させ、これをメッセージ・テーブル46として保持する。  In response to the message “I see (nodding)” 61a, the repetitive motion 61b of the alternation object is repeated. For 63a, the action 63b of rotating the body object to the left and right is shaken, and for "No (shake the neck sideways)" 64a, the action of repeating the body object left and right 64b, "Absurd (shrug yourself) ) “65a”, an operation 65b for reducing the entire size of the surrender object, and “sorry (head down)” 66a, an operation 66b for reducing the vertical size of the survivor object and reducing the height, For "surprised (surprise action)" 67a, an action 67b for rotating the alternation object, For (joy Operation) "68a, respectively made to correspond to operation 68b for changing the blinking or color alter ego object, and holds it as a message table 46.

このようなメッセージ・テーブル46を用意し、参加者から発せられるメッセージに対応する動作を参照し、分身オブジェクトのアニメーション動作を実行し、吹き出しオブジェクトにメッセージの語彙を表示する。  Such a message table 46 is prepared, the operation corresponding to the message issued from the participant is referred to, the animation operation of the alternation object is executed, and the vocabulary of the message is displayed on the balloon object.

分身オブジェクトのアニメーション修飾の動作に関しては、本実施例のように、実際の人物の動作と対応させた印象をもつ、シンボル化しやすい分身オブジェクト動作をどの参加者へも共通動作として選定する場合以外に、自由に分身オブジェクトの動作を利用者自身が選定あるいは加工し、参加者独自の分身オブジェクトの動作機能として、それを事前にメッセージ・テーブルとして登録する方法も可能である。  As for the animation modification operation of the body object, as in this embodiment, other than selecting the body object motion that has an impression corresponding to the motion of the actual person and is easy to symbolize as a common motion to all participants. It is also possible for the user to freely select or process the behavior of the alternation object and register it as a message table in advance as the behavior function of the participant's own alternation object.

図12は、本発明の分身オブジェクトとして、参加者の複数の顔写真を用意し、それらを切り換えて分身オブジェクト中に表示するアニメーション修飾の方法により、多様なメッセージとの対応を実現した例である。  FIG. 12 shows an example of realizing correspondence with various messages by preparing a plurality of face photographs of participants as a body object of the present invention and switching them to display them in the body object. .

これを動作するには、事前に参加者の顔写真として、普通の表情の顔写真71b、わからない表情の顔写真72b、面白いと思ったときの笑い顔の顔写真73b、なるほどと納得したときの顔写真74bを用意して、それらを素材とする分身オブジェクトを作成する。  In order to operate this, as a face picture of the participant, a face picture 71b with a normal expression, a face picture 72b with an unknown expression, a face picture 73b with a laughing face when he thought it was interesting, and so on A face photograph 74b is prepared, and a surrogate object using them is created.

各々のメッセージと分身オブジェクトとの対応関係として、「わからない」というメッセージ72aに対してわからない表情の顔写真72b、「おもしろい」73aというメッセージに対して面白いと思ったときの笑い顔の顔写真73b、「なるほど」74aというメッセージに対してなるほどと納得したときの顔写真74b、それ以外のメッセージ71aに対して普通の表情の顔写真71bという対応関係のメッセージ・テーブル46を設定する。  The correspondence between each message and the self-portrait object is as follows: a face photo 72b with an unknown expression for the message 72a "I don't know"; A message table 46 corresponding to a face photograph 74b when the message “I see” 74a is satisfied, and a face picture 71b with a normal expression is set for other messages 71a.

この登録されたメッセージ・テーブル46を事前にクライアントへ配信する。  The registered message table 46 is distributed to the client in advance.

参加者から入力されたメッセージに応じて、対応する表情の顔写真からなる分身オブジェクトの表示に切り換えて、画面上に表現する。これにより、分身オブジェクトの顔写真が、各々の入力されたメッセージに応じて切り替わることとなり、カメラで撮影された人物映像が無くても、参加者の表情の変化を強調して表現できる。事前に顔写真を準備する際に、自分が意図したい顔の表情を自由に選択して登録することが可能であり、各自の好む自己表現を容易に実現できる。  In response to a message input from a participant, the display is switched to a display of a duplicate object consisting of a face photo of the corresponding expression and is displayed on the screen. As a result, the face photograph of the alternation object is switched according to each inputted message, and the change in the facial expression of the participant can be expressed with emphasis even if there is no human image photographed by the camera. When preparing a face photo in advance, it is possible to freely select and register facial expressions that one wants to intend, and to easily realize the self-expressions that each person likes.

図13は、本発明の分身オブジェクトの座席配置の実現例である。  FIG. 13 is an implementation example of the seat arrangement of the alternate object of the present invention.

顔写真と名札からなる分身オブジェクトは画面上で、参加者の存在を明示するシンボルであり、画面上のその位置は遠隔教育の教室やテレビ会議の会議室における座席として制御される。図13は、講師の映像または講師の分身オブジェクトを上段に配置し、その下に行列形式に生徒の分身オブジェクトを配列した例である。参加者の生徒は講師の教壇に向かって整列して並んだ教室内に座席があり、各々が着席した表現を実現している。  A surrogate object consisting of a face photo and a name tag is a symbol that clearly indicates the presence of a participant on the screen, and its position on the screen is controlled as a seat in a distance education classroom or a video conference room. FIG. 13 shows an example in which an instructor's video or an instructor's alternation object is arranged in the upper stage, and a student's alternation object is arranged in a matrix form below. Participants' students have seats in the classrooms that are lined up toward the teacher's platform, and each has a seated expression.

図14は、別の座席は位置の実施例である。  FIG. 14 is an example of another seat location.

講師の映像または講師の分身オブジェクトを囲んで、生徒の分身オブジェクトがその周りをぐるりと取り囲んだ座席配置として制御されている。この場合は、参加した生徒は講師を囲む円卓に全員が着席している印象をもつように表現している。  It is controlled as a seat arrangement that surrounds the video of the instructor or the alternate object of the instructor, and the alternate object of the student surrounds it. In this case, the participating students are expressed as having the impression that everyone is sitting on the round table surrounding the instructor.

講師の映像は単純なカメラ映像の受信映像そのままを表示するか、もしくは、講師自身の顔写真などを素材とする分身オブジェクトとして表示制御することができる。講師自身を顔写真からなる分身オブジェクトとして表現すれば、講師のカメラ映像が無くても、音声通信と分身オブジェクトの動作だけで、遠隔教育や会議の相互交流を実現できる。  The instructor's video can be displayed as a simple camera video as it is, or it can be displayed and controlled as a separate object using the instructor's own face photo as a material. If the instructor himself is expressed as a separate object consisting of a face photo, remote education and conference interaction can be realized only by voice communication and the operation of the separate object without the instructor's camera image.

図15は、本発明の分身オブジェクトの座席配置を制御する方法の例を説明する図である。  FIG. 15 is a diagram for explaining an example of a method for controlling the seat arrangement of a substitute object according to the present invention.

参加者の分身オブジェクトの座席配置に関しては、システムに参加者がログインし接続した際に、事前に決められた画面上の座席位置へ配置することができる。あるいは、教室への入室順(接続順)にしたがって、あらかじめ決められた順番で座席を指定して着席させる方法も可能である。  As for the seat arrangement of the participant's alternate object, it can be placed at a predetermined seat position on the screen when the participant logs in and connects to the system. Alternatively, it is also possible to specify a seat in a predetermined order according to the order of entering the classroom (order of connection), and to make a seat.

図15において、まず、1)クライアントがサーバへ接続しログインし、教室へ参加する。  In FIG. 15, first, 1) the client connects to the server, logs in, and joins the classroom.

次に、2)サーバ側は参加者の参加順番、参加者の氏名またはID番号、画面上の座席位置、の対応関係を示す座席テーブルを参加クライアントへ配信する。  Next, 2) The server side distributes to the participating clients a seat table indicating the correspondence relationship between the participation order of the participants, the names or ID numbers of the participants, and the seat positions on the screen.

次に、3)クライアントは配信された座席テーブル情報に基づき、教室に参加した各分身オブジェクトの画面上の配置を決定する。  Next, 3) Based on the delivered seat table information, the client determines the arrangement on the screen of each alternate object that participated in the classroom.

次に、4)クライアントは、決定した位置に分身オブジェクトを表示する。  Next, 4) the client displays the alternation object at the determined position.

参加者の座席配置が先着順など、あらかじめ固定的に決められていない場合は、座席テーブルは参加者が追加される度に情報が追加され、クライアントは追加された座席テーブルを受信して、各参加者の座席配置を決定する。  If a participant's seating arrangement is not fixed in advance, such as first-come-first-served basis, information is added to the seat table each time a participant is added, and the client receives the added seat table and Determine the seating arrangement for participants.

図16は、本発明における座席とパーティション機能の実現例を示す図である。  FIG. 16 is a diagram showing an implementation example of the seat and partition function in the present invention.

遠隔教育やテレビ会議などにおいて、講義、演習、討論の進行の際、参加者全員が同じ場所で、一斉に同じ話を聞き、全員で議論するモードだけでは都合が悪いケースが生じる。例えば、いくつかの小グループに分かれて議論するモード、二人ずつのペアに分かれて練習するモード、全員が別々の個室に分かれて、各自で演習や試験に取り組むモード、などの目的に応じた部屋の構成を実現する必要が生じる場合がある。このような大部屋モードと個別の部屋モードとの分離や集合の実現方法は物理空間で実現しようとすると、可動式の壁やパーティションの設置などが必要であり、非常に手間がかかるという問題点がある。  In lectures, exercises, and discussions in distance education and video conferencing, there are cases where it is inconvenient if all the participants listen to the same story at the same place and discuss together. For example, depending on the purpose, such as a mode in which discussions are divided into several small groups, a mode in which two people are paired and practiced, a mode in which all members are divided into separate rooms and work on exercises and tests on their own. It may be necessary to realize the room configuration. Such a separation method between large room mode and individual room mode and realization method of a set requires the installation of movable walls and partitions, etc., which is very troublesome when trying to realize in physical space There is.

従来の遠隔教育システムやテレビ会議システムは参加者全員が同じ場所に集まる機能のみの実現を目指しており、このような自由にパーティションによって教室や会議室の空間を区切る機能は実現されていなかった。  Conventional distance learning systems and video conferencing systems aim to realize only the function of all participants gathering in the same place, and such a function of freely dividing the space of classrooms and conference rooms by partitions has not been realized.

遠隔のクライアントへ情報や映像、音声を配信するサーバは、それ自身は参加者のどれにどのような情報や音声信号を配信し、あるいはどの情報や音声信号を配信しないか制御することができるが、その指定の方法が課題であった。多数の参加者のだれとだれがグループになり、どのような情報を遮断するか、これらを逐一指示あるいは指定するのは非常に煩雑である。サーバ側へグループ分けの情報を伝達する方法が課題であった。  A server that distributes information, video, and audio to a remote client can control what information and audio signals are distributed to which participants, and which information and audio signals are not distributed. The method of designation was an issue. It is very cumbersome to specify or designate who and who of a large number of participants are in groups and what information to block. The problem was how to transmit grouping information to the server.

また教育サービスのための教室や会議室においては、講師や司会者は全員を一斉に集めたり、あるいは個別にグループ分けしたりしながら、その分けられたパーティションの中を、自由に回覧や巡回しながら、指導や状況把握を行う必要があるが、そのような空間の分離や移動に関する操作方法について、簡単で操作がやりやすい方式は実現されていなかった。  Also, in classrooms and conference rooms for educational services, instructors and presenters gather all together or group them individually, and freely circulate and patrol the divided partitions. However, it is necessary to provide guidance and grasp the situation, but no simple and easy-to-use method has been realized for the operation method related to separation and movement of such a space.

図17は、本発明の、画面上の分身オブジェクト、座席オブジェクト、パーティションオブジェクトを用いて、画面上でオブジェクトの画像に対するインタラクションにより、わかりやすく簡単な操作で素早く教室のグループモードを切り換える方式の実現例である。  FIG. 17 shows an example of realization of a method of quickly switching a group mode of a classroom by an easy-to-understand and simple operation by interaction with an image of an object on the screen by using an object on the screen, a seat object, and a partition object. It is.

これを動作するには、本発明の分身オブジェクトにより構成されるシステムにおいて、1)座席オブジェクト、パーテイションオブジェクトのデザイン(形、色など)をサーバへ登録する。座席オブジェクトはイスを上から見た図形として表示し、パーティションオブジェクトは図に示されているように、画面上を教室の空間として見立てた際に、座席を取り囲むパーティション用の壁を天井から見た2次元の線画の配置図として表現する。パーティションの壁を線として表現する。線で囲まれた領域はパーティションで囲まれた場所を表し、外部に対して閉鎖され、外部との音声やり取りの遮断やインタラクションの遮断の対象になる。  In order to operate this, in the system constituted by the alternation object of the present invention, 1) the design (shape, color, etc.) of the seat object and the partition object is registered in the server. The seat object is displayed as a figure when the chair is viewed from above, and the partition object is seen from the ceiling of the partition wall that surrounds the seat when the screen is viewed as a classroom space as shown in the figure. Expressed as a two-dimensional line drawing layout. Express the partition wall as a line. An area surrounded by a line represents a place surrounded by a partition, is closed to the outside, and is a target of blocking voice exchange with the outside and blocking interaction.

2)パーティションオブジェクトの機能(音声遮断、インタラクション遮断など)をサーバへ登録する。利用するパーティションオブジェクトによりどのような遮蔽を行うかを定義し、機能を登録する。たとえば、パーティション外部との音声の遮断やインタラクションの制限などを指定する。  2) Register partition object functions (such as voice blocking and interaction blocking) in the server. Define what kind of shielding is performed by the partition object to be used, and register the function. For example, specify audio blocking or interaction restrictions with the outside of the partition.

3)座席オブジェクト、パーティションオブジェクトの組合せにより、配置を決め、サーバへ登録する。パーティションの内側に何人分の座席を配置するか、どのようなグループ分けにするかを、2次元の間取り図を作成する要領で、パーティションと座席の配置や大きさを決める。  3) The arrangement is determined by the combination of the seat object and the partition object, and is registered in the server. The arrangement and size of partitions and seats are determined in the manner of creating a two-dimensional floor plan, how many seats are arranged inside the partition, and how they are grouped.

4)座席、パーティションの情報(形状、機能)をサーバからクライアントへ配信する。クライアントの画面上へ分身オブジェクト、座席オブジェクト、パーティションオブジェクトを表示する。それらの個々のオブジェクトは自由に画面上で移動可能な、画面上の表示オブジェクトとして表現する。  4) Distribute seat and partition information (shape and function) from the server to the client. Displays a clone object, seat object, and partition object on the client's screen. These individual objects are expressed as display objects on the screen that can be freely moved on the screen.

クライアントの画面上で、座席オブジェクトへ分身オブジェクトを着席させる。着席の指示操作は、画面上に表示されている分身オブジェクトをドラッグ・アンド・ドロップまたは選択クリック等の画像操作により選定し、パーティション内の座席に移動させる。この指示操作は画面上での手動操作により個別に実行するか、あるいは、システムによりあらかじめ決められた座席への自動的な移動として実行する。表示オブジェクトの画面上での移動により、参加者全体の中でのグループ分けや参加者間での通信機能の制限の指定をサーバ側に伝達する。パーティションの壁を表す線画に囲まれた座席に配置された分身オブジェクトに関してはパーティション外部の分身オブジェクトとのコミュニケーションやインタラクションを制約される制限の指定がサーバへ伝達される。パーティション内部に配置された分身オブジェクト同士のコミュニケーションについては、音声やインタラクションが自由に交換できるように機能の指定を行う。  The alternate object is seated on the seat object on the client screen. In the seating instruction operation, a clone object displayed on the screen is selected by an image operation such as drag and drop or selection click, and moved to a seat in the partition. This instruction operation is executed individually by manual operation on the screen, or as an automatic movement to a seat predetermined by the system. By moving the display object on the screen, the grouping within the whole participant and the designation of the restriction of the communication function between the participants are transmitted to the server side. With respect to the self-portrait object placed on the seat surrounded by the line drawing representing the partition wall, the specification of restrictions that restrict communication and interaction with the self-portrait object outside the partition is transmitted to the server. For communication between the different objects placed inside the partition, the function is specified so that voice and interaction can be freely exchanged.

5)パーティションオブジェクトの機能指定に応じたコミュニケーション制御(パーティション外部との音声遮断、インタラクション遮断など)を行う。サーバ側は指定された制限機能に対応した、情報の配信制限を実行する。サーバ側は参加者のグループ構成の指定の情報に基づき、音声やインタラクションの配信を制約もしくは切り換える。  5) Perform communication control according to the function specification of the partition object (blocking voice with the outside partition, blocking interaction, etc.) The server side executes information distribution restriction corresponding to the designated restriction function. The server side restricts or switches the delivery of voice and interaction based on the designation information of the group configuration of the participants.

このような、画面上での2次元形式の間取り図型のパーティション配置図において、簡単な分身オブジェクトの移動操作により、線画状のパーティション壁に囲まれた座席へ配置された分身オブジェクトに対する制約制御を実施することで、仮想的な教室や会議室内でのグループ分割や集合機能を実施することができる。講師や司会者が分割された個別のパーティションの間を巡回する機能についても、自分の分身オブジェクトを対象とするパーティションへ移動させることにより、簡単な操作で指示し、実現できる。  In such a two-dimensional floor plan type partition layout diagram on the screen, constraint control is performed on the split object placed on the seat surrounded by the line drawing-like partition wall by a simple operation of moving the split object. By carrying out, it is possible to implement group division and set functions in a virtual classroom or conference room. The function of the instructor or the moderator to circulate between the divided partitions can be instructed and realized by a simple operation by moving his / her own object to the target partition.

図18は、分身オブジェクトとパーティションオブジェクトを用いた、座席配置制御の実施例である。  FIG. 18 shows an example of seat arrangement control using a body object and a partition object.

あらかじめ、座席配置と、参加者のだれとだれをグループに分け、どのようなパーティション配置をするか、座席テーブルとして定めておく。このような、参加者の氏名またはIDと、座席位置、音声遮断などのグループ構成における機能条件、グループ分けのための所属グループ番号、などのグループ分割に必要な情報を座席テーブルとしてサーバへ登録しておく。  In advance, the seat arrangement, who and who of the participants are divided into groups, and what kind of partition arrangement is made are determined as a seat table. Information necessary for group division, such as the participant's name or ID, functional conditions in the group configuration such as the seat position, voice blocking, and the group number for grouping, is registered in the server as a seat table. Keep it.

1)指定した座席テーブル情報をサーバからクライアントに配信する。この配信の指示は、講師や司会者などのグループ分割を指示する操作者により、ボタンあるいはコマンド入力によりシステムへ入力し実施する。  1) The designated seat table information is distributed from the server to the client. This distribution instruction is input to the system by a button or command input by an operator who instructs group division such as a lecturer or a moderator.

2)配信された、座席テーブル情報に基づき、クライアント側のシステムは教室に参加した各分身オブジェクトの配置を決定する。  2) Based on the delivered seat table information, the client-side system determines the placement of each of the surrogate objects that participated in the classroom.

3)指定された位置に分身オブジェクト、座席オブジェクト、パーティションオブジェクトを表示する。座席テーブルに基づき、パーティションや座席のオブジェクトの表示を作成し、同時に分身オブジェクトを配置する。  3) A clone object, a seat object, and a partition object are displayed at a designated position. Based on the seat table, the display of the partition and the object of the seat is created, and the alternation object is arranged at the same time.

4)サーバおよびクライアントは、指定されたパーティション情報に応じて、オブジェクト間のインタラクションや対話通信の制御を実行する。
この実施例においては、講師などの指示者のサーバへの配信指示により、参加者のグループ分割に関する座席テーブルの情報が一斉に各クライアントへ配信され、それに基いてグループ分割が実施されるため、非常に簡単、速やかに一瞬のうちに参加者をパーティションで分割することができる。全員参加の講義と、個人ごとの演習、二人ずつのロールプレイ、少人数グループ討議などへの教室条件の変更が簡単に実現できる。
4) The server and the client control interaction between objects and interactive communication according to the designated partition information.
In this embodiment, the information of the seat table relating to the group division of the participants is delivered to each client at the same time according to the delivery instruction to the server by the instructor such as an instructor, and the group division is performed based on the information. Easily and quickly divide participants into partitions in an instant. It is easy to change classroom conditions for lectures with full participation, individual exercises, role play for two people, and small group discussions.

図19は、本発明において、分身オブジェクトにより、音声による発言者の発言権制御を行う実施例である。  FIG. 19 shows an embodiment in which the right to speak of a speaker is controlled by voice using a substitute object in the present invention.

多人数が参加する遠隔教育システムや、テレビ会議システ厶においては、原則的には、その場において同時に音声で話せるのは、一人だけである。複数の人間が同時に音声で話すと、クライアント側では複数の声が一つのスピーカに出力され、非常に聞きづらくなる。したがって、講義や会議においては、マイクの発言権の制御方法が課題となっている。  In a distance education system or a video conference system in which a large number of people participate, in principle, only one person can speak by voice at the same time. When a plurality of people speaks simultaneously, a plurality of voices are output to one speaker on the client side, making it very difficult to hear. Therefore, in lectures and conferences, a method for controlling the right to speak is an issue.

遠隔講義やテレビ会議においては、音声信号の符号化処理や通信処理により、音声の伝達遅延が生じ、実際に声を出した時刻と、その音声が相手に伝わる時刻とに大きな遅延が生じる。参加者が自分でマイクの発言権をもらう操作時間、発言権をもらってから発話するまでの操作時間、実際に声を出してその声が相手に伝わるまでの遅延時間、などの多くの遅延時間が重なり合うことになる。このため、従来の遠隔教育システムやテレビ会議システムにおいては、参加者にとって、今だれが話しをしているのか、だれが発言権を求めているのか、次にだれが発言権をもらうのか、等の状況がわからず、発言しにくいという課題があった。発言権の遷移状況がわかりづらいため、一斉に多数の人の発言が衝突したり、だれから順番に発言権を与えたらよいかわからないなどの問題も多発した。  In remote lectures and video conferences, voice signal transmission delay occurs due to voice signal encoding processing and communication processing, and a large delay occurs between the time when the voice is actually spoken and the time when the voice is transmitted to the other party. Many delay times such as the operation time for the participant to obtain the right to speak by the microphone, the operation time from when the right to speak is spoken to when speaking, the delay time until the voice is actually spoken and transmitted to the other party, etc. Will overlap. For this reason, in conventional distance learning systems and video conferencing systems, who is speaking to the participant, who is seeking the right to speak, who is the right to speak next, etc. There was a problem that it was difficult to speak because the situation was not understood. Since it was difficult to understand the transition status of the right to speak, there were many problems such as the fact that many people collided at once and who did not know who should be granted the right to speak in order.

図19では、分身オブジェクトによる、参加者表示を利用し、発言権の遷移状況を視覚化することにより、参加者同士での発言権のス厶ーズな移行を実現した。  In FIG. 19, the transition of the speaking right between the participants is realized by visualizing the transition state of the speaking right by using the participant display by the alternation object.

(1)参加者は全員が分身オブジェクトとして、画面上に表示され、発言ボタンが画面上に表示されている。発言ボタンは初期状態として、「発言ボタン(受付中)」と表示している(ステップS1)。  (1) All participants are displayed on the screen as alternate objects, and a speech button is displayed on the screen. The comment button is displayed as “speak button (accepting)” as an initial state (step S1).

(2)発言したい参加者は発言ボタンをクリックまたは押下して、発言を求める(ステップS2)。この入力により、システムは発言希望者を検出し、発言ボタン入力者の発言ボタンへ「発言受付中」の表示を出す。同時に、発言入力者の分身オブジェクトへ「発言したい」という吹き出しオブジェクトを表示する(ステップS3)。  (2) A participant who wants to speak asks for a speech by clicking or pressing the speech button (step S2). By this input, the system detects a person who wants to speak, and displays “Speaking Accepted” on the speaking button of the speaking button input person. At the same time, a balloon object “I want to speak” is displayed on the alternation object of the comment input person (step S3).

(3)ほぼ同時に複数の発言希望者が、発言ボタンを押下することは多い。その場合も、同様に発言希望者の分身オブジェクトへ「発言したい」という吹き出しオブジェクトを表示する。この際、システムが一定時間の受付時間範囲内において、発言希望者の入力時刻の順番を検出し、その順番を合わせて表示する。一定時間の受付時間範囲を設定することにより、音声の遅延や発言権処理の操作遅延による、発言者の衝突による混乱を避ける(ステップS4、S5)。  (3) It is often the case that a plurality of speaking applicants press the speaking button almost simultaneously. In this case as well, a balloon object “I want to speak” is displayed on the alternation object of the person who wants to speak. At this time, the system detects the order of the input time of the speech requester within the reception time range of a certain time, and displays the order in accordance with the order. By setting a reception time range for a certain period of time, confusion caused by a speaker's collision due to a voice delay or a delay in the processing of the right to speak is avoided (steps S4 and S5).

この受付時間処理は新たな「発言受付中」を検出し、処理を開始してから、新たな最初の発言者を決定し、発言者が発声し、ある決められた時間Tの音声が配信され、参加者が新たな発言を少し聞くまでの時間内においては、そのほかの発言者へのマイクの発言権移動を指定せず、それまでの時間内に発言ボタンを押下した他の参加者はすべて発言権を却下する方式で、実施する。これにより、参加者は常に他者の発言をある程度聞いてから、新たな発言を求めるようにガイドされる(ステップS6)。  This reception time process detects a new “speaking acceptance”, starts the process, determines a new first speaker, the speaker speaks, and a voice of a predetermined time T is distributed. During the time until the participant hears a new comment, all other participants who have pressed the speak button within the previous time are not designated to move the microphone to other speakers. Implement in a way that disclaims the right to speak. As a result, the participant is always guided to listen to somebody else's remarks and then seek new remarks (step S6).

(4)システムは発言希望者の順番に基き、マイクにより発言権を与える参加者と、順番により発言権を却下する参加者とを判定する。発言権を与える参加者へは「マイク接続ON」等の表示を行い、発言権者の音声信号を参加者へ配信する。同時に発言者の分身オブジェクトに「発言中」の吹き出しオブジェクトを表示する(ステップS7)。  (4) The system determines a participant who gives the right to speak by the microphone and a participant who rejects the right to speak based on the order of the voice requesters. For the participant who gives the floor, a message such as “microphone connection ON” is displayed, and the voice signal of the floor is delivered to the participant. At the same time, a “speaking” balloon object is displayed on the alternation object of the speaker (step S7).

(5)発言権を却下する参加者へは発言ボタンへ「他の方が先です」の表示を行い、発言権が却下されたことを伝える(ステップS8、S9)。  (5) To the participant who rejects the right to speak, the message “other is first” is displayed on the comment button to notify that the right to speak is rejected (steps S8 and S9).

(6)発言者が発言ボタンを押下し、マイクをOFFするか(ステップS10)、または発言時間がある決められた時間Tを過ぎた場合に、初期状態「発言ボタン(受付中)」へ戻る。  (6) When the speaker presses the speaking button and turns off the microphone (step S10) or when the speaking time exceeds a predetermined time T, the initial state returns to the “speaking button (accepting)”. .

本方式では、発言者、発言の希望状況が分身オブジェクトとして表示されるため、だれが発言を求めているか明示的にわかりやすく、参加者同士での発言権の移行がスムーズになる。発言権の受付判断に関しては、一律的な時間順番による判断の他に、参加メンバの役職や優先度により判定したり、講師が手動で個別に指名、指示する方法がある。分身オブジェクトの表示と判定処理を連動することにより、これらの判定処理は本方式に容易に組み込むことができる。  In this method, since the speaker and the desired situation of the speech are displayed as a separate object, it is easy to clearly understand who is requesting the speech, and the transfer of the speech right between the participants becomes smooth. In addition to the determination based on a uniform time order, there is a method for determining the right to speak, as well as a method in which the lecturer is individually nominated and instructed manually by the positions and priorities of the participating members. By linking the display of the clone object and the determination process, these determination processes can be easily incorporated into this method.

図20は、本発明のシステムの別の実施例を示す図である。  FIG. 20 is a diagram showing another embodiment of the system of the present invention.

図20中、2は講師側のカメラ、3は講師側のマイク、4は講師側の映像や音声を送受信するCODEC(端末機)、11は画像表示手段6上に表示する参加者の生徒を表す分身オブジェクト、12は画面上に表示するメッセージ・リスト、13は分身オブジェクト11やメッセージ・リスト12の表示制御や通信制御を実行するクライアント・オブジェクト処理システム、6は生徒側の講師映像の画像表示手段、7は生徒側のスピーカ及びマイク等の音声入出力、5は生徒側で音声や映像を送受信するCODEC(端末機)、13は生徒側の分身オブジェクトやメッセージ・リストの表示制御や通信制御を実行するクライアント・オブジェクト処理システム、12は生徒側のメッセージ・リスト、14はクライアント端末のマウス等のポインティングデバイス、81は講師側の発言ボタン、82は生徒側の発言ボタン、8はインターネットまたはLAN((通信ネットワーク)8、9はサーバ(配信サーバ)である。  In FIG. 20, 2 is a camera on the instructor side, 3 is a microphone on the instructor side, 4 is a CODEC (terminal) for transmitting and receiving video and audio on the instructor side, and 11 is a participant student to be displayed on the image display means 6. A surrogate object to be represented, 12 is a message list to be displayed on the screen, 13 is a client object processing system for executing display control and communication control of the survivor object 11 and the message list 12, and 6 is an image display of a lecturer video on the student side. Means, 7 is a voice input / output of a speaker and a microphone on the student side, 5 is a CODEC (terminal) that transmits and receives voice and video on the student side, and 13 is a display control and a communication control of a student's side object and message list. Is a client object processing system, 12 is a student message list, and 14 is a client terminal mouse Computing device, 81 remark button lecturer, 82 remark button student side, 8 Internet or LAN ((communication network) 8,9 is a server (distribution server).

サーバ(配信サーバ)9は、映像・音声配信サーバ9aと、メッセージ配信サーバ9bとを備える。  The server (distribution server) 9 includes a video / audio distribution server 9a and a message distribution server 9b.

本発明においては、講師と生徒を結ぶコミュニケーション機能として、従来の遠隔教育システムの講師および生徒の参加者を結んだ、カメラ2、マイク3、音声・画像CODEC(端末機)4による、講師と生徒とを結ぶカメラ映像や音声通信だけでなく、参加者の端末機5の画面上に、参加者の分身オブジェクト11と、メッセージ・リスト12、発言ボタン81、82を表示し、それらを組合わせて、参加者同士のコミュニケーションを実現する。  In the present invention, as a communication function for connecting a lecturer and a student, a lecturer and a student are connected by a camera 2, a microphone 3, and a voice / image CODEC (terminal device) 4 that connect a lecturer and a student participant of a conventional distance learning system. In addition to the camera video and voice communication that connect to each other, the participant's alternation object 11, the message list 12, and the speech buttons 81 and 82 are displayed on the screen of the participant's terminal 5, and these are combined. Realize communication between participants.

インターネットまたはLAN((通信ネットワーク)8を介して接続される映像・音声配信サーバ9a、メッセージ配信サーバ9bにより配信される情報を基にして、講師および生徒の端末のクライアント・オブジェクト処理システム13が、分身オブジェクトとメッセージ・リストを画面上に表示する。生徒側の端末においては、講師側との音声・画像CODEC(端末機)5による音声や映像の送受信や表示に加えて、分身オブジェクト11やメッセージ・リスト12、発言ボタン82が表示され、マウス等のポインティングデバイス14により操作される。  Based on the information distributed by the video / audio distribution server 9a and the message distribution server 9b connected via the Internet or LAN (communication network) 8, the client object processing system 13 of the teacher and student terminals In the student's terminal, in addition to the transmission / reception and display of audio / video by the audio / image CODEC (terminal) 5 with the instructor, the student object 11 and the message list are displayed on the screen. A list 12 and a speech button 82 are displayed and operated by the pointing device 14 such as a mouse.

メッセージ・リスト12には受講中に想定される、多様なメッセージがリストとして一覧的に提示されている。生徒は、自分が随時感じたものに合致したメッセージをポインティングデバイス14で、ワンタッチで選択する。選択されたメッセージは、クライアント・オブジェクト処理システム13により、メッセージ配信サーバ9bへ送られ、参加者全員へ配信される。メッセージ配信サーバ9bから配信されたメッセージは各参加者のクライアント・オブジェクト処理システム13により処理され、画面上の分身オブジェクトの動作や、吹き出し型のメッセージなどとして表示される。  In the message list 12, various messages assumed during the course are presented as a list. The student selects a message that matches what he / she feels at any time with the pointing device 14 with one touch. The selected message is sent by the client object processing system 13 to the message delivery server 9b and delivered to all participants. The message distributed from the message distribution server 9b is processed by the client / object processing system 13 of each participant, and is displayed as an action of a duplicate object on the screen, a balloon-type message, or the like.

講師側あるいは生徒側の音声信号は画面上の発言ボタン81、82の押下により、発言権の要求が行われる。発言権ボタンの押下による発言権要求はインターネットまたはLAN((通信ネットワーク)8を経由して、メッセージ配信サーバ9bへ伝えられ、発言権の制御処理および吹き出しオブジェクトによる発言者の表示が実行される。同時に映像・音声配信サーバ9aにおいて発言者の音声信号の通信制御としての発言者切り替え処理が実行される。  The voice signal on the lecturer side or student side is requested to speak by pressing the speech buttons 81 and 82 on the screen. The right to speak by pressing the right to speak button is transmitted to the message distribution server 9b via the Internet or LAN ((communication network) 8), and the right control process and the display of the speaker by the balloon object are executed. At the same time, in the video / audio distribution server 9a, a speaker switching process is performed as communication control of a speaker's audio signal.

参加者のグループ分割が必要になった場合は、講師の指示により、参加者の座席テーブル情報がメッセージ配信サーバ9bより各クライアントへ配信され、参加者の分身オブジェクトの座席の指定と、パーティションによるグループ分割が実行される。同時に座席テーブルにより指示されたパーティション機能に応じて音声の遮断やインタラクションの制限などの制御情報の配信が映像・音声サーバ9aより配信される。  When it is necessary to divide the group of the participants, the seat table information of the participants is distributed from the message distribution server 9b to each client according to the instruction of the lecturer. Splitting is performed. At the same time, distribution of control information such as audio blocking and interaction restriction is distributed from the video / audio server 9a according to the partition function instructed by the seat table.

以上のように、本発明では、ネットワークを介して接続する多数の端末、クライアント、サーバを結んで、画面表示されるメッセージ・リストの中からのワンクリックでの簡単な操作で、自由にメッセージを選択して、参加者へ配信し、メッセージに対応する分身オブジェクトの動作や吹き出しオブジェクト表示等を出力表現することにより、参加者からの非言語的なコミュニケーションに対する多様な機能を実現することができ、遠隔教育やテレビ会議などの参加者のコミュニケーション表現力の向上と、学習者の参加意欲の増強支援を実現することができる。  As described above, according to the present invention, a number of terminals, clients, and servers connected via a network are connected, and messages can be freely sent with a simple operation from the message list displayed on the screen with one click. By selecting and distributing to participants and outputting and expressing the behavior of the body object corresponding to the message and the balloon object display, various functions for non-verbal communication from participants can be realized, It is possible to improve the communication expression of participants such as distance learning and video conferencing, and support to increase learners' willingness to participate.

本発明に係る遠隔教育コミュニケーションシステムの概念を概略的に説明する図であり、図1(a)は、従来の遠隔教育システムの概念図であり、また、図1(b)は、本発明に係る遠隔教育コミュニケーションシステムの概念である。  FIG. 1 is a diagram schematically illustrating a concept of a distance education communication system according to the present invention, FIG. 1A is a conceptual diagram of a conventional distance education system, and FIG. This is the concept of the distance education communication system. 本発明に係る遠隔教育コミュニケーションシステムの一例を概略的に示す構成図である。  It is a block diagram which shows roughly an example of the distance education communication system which concerns on this invention. 本発明に係る遠隔教育コミュニケーションシステムにおけるメッセージ情報の配信処理の例を示す図である。  It is a figure which shows the example of the delivery process of the message information in the distance education communication system which concerns on this invention. 本発明に係る遠隔教育コミュニケーションシステムにおいて実現する画面上の分身オブジェクトの構成の例を示す図である。  It is a figure which shows the example of the structure of the clone object on the screen implement | achieved in the distance education communication system which concerns on this invention. 分身オブジェクトの形状として、人間の分身としての心理的効果を増すために、矩形から変形させた形状の例を示す図である。  It is a figure which shows the example of the shape deform | transformed from the rectangle, in order to increase the psychological effect as a human part as a shape of a clone object. 本発明に係る遠隔教育コミュニケーションシステムの端末機側の画像表示手段の画面の構成の例を示す図である。  It is a figure which shows the example of a structure of the screen of the image display means by the side of the terminal of the distance education communication system which concerns on this invention. 本発明に係る遠隔教育コミュニケーションシステムの処理の流れの例を示すフロー図である。  It is a flowchart which shows the example of the flow of a process of the distance education communication system which concerns on this invention. 本発明に係る遠隔教育コミュニケーションシステムにおいて、遠隔教育への参加者用のクライアント側の画面上に用意しておく、メッセージの例である。  In the distance learning communication system according to the present invention, it is an example of a message prepared on a client-side screen for a participant in distance learning. 本発明に係る遠隔教育コミュニケーションシステムの分身オブジェクトの動作表現の例である。  It is an example of the action expression of the alternation object of the distance education communication system concerning the present invention. 分身オブジェクト同士での賛同の感情表現の実施例である。  This is an example of an emotional expression of approval between the other objects. 本発明の分身オブジェクトのアニメーション修飾とメッセージとの対応関係の実施例である。  It is an Example of the correspondence between the animation modification of the surrender object and the message of the present invention. 本発明の分身オブジェクトとして、参加者の複数の顔写真を用意し、それらを切り換えて分身オブジェクト中に表示するアニメーション修飾の方法により、多様なメッセージとの対応を実現した例である。  This is an example of realizing correspondence with various messages by preparing a plurality of facial photographs of participants as an alternate object of the present invention and switching them to display them in the alternate object. 本発明の分身オブジェクトの座席配置の実現例である。  It is the implementation example of the seat arrangement | positioning of the alternation object of this invention. 本発明の別の座席配置の実施例である。  It is an Example of another seat arrangement | positioning of this invention. 本発明の分身オブジェクトの座席配置を制御する方法の例を説明する図である。  It is a figure explaining the example of the method of controlling seat arrangement | positioning of the surrender object of this invention. 本発明における座席とパーティション機能の実現例を示す図である。  It is a figure which shows the implementation example of the seat and partition function in this invention. 本発明の、画面上の分身オブジェクト、座席オブジェクト、パーティションオブジェクトを用いて、画面上でオブジェクトの画像に対するインタラクションにより、わかりやすく簡単な操作で素早く教室のグループモードを切り換える方式の実現例である。  This is an example of realization of a method for quickly switching a group mode of a classroom by an easy-to-understand and simple operation by interaction with an object image on the screen by using an on-screen object, seat object, and partition object. 分身オブジェクトとパーティションオブジェクトを用いた、座席配置制御の実施例である。  It is an Example of seat arrangement control using a separate object and a partition object. 本発明において、分身オブジェクトにより、音声による発言者の発言権制御を行う実施例である。  The present invention is an embodiment in which a speaker's speaking right control is performed by voice using a clone object. 本発明のシステムの別の実施例を示す図である。  It is a figure which shows another Example of the system of this invention. 従来の遠隔教育システムの一例を概略的に示す構成図である。  It is a block diagram which shows an example of the conventional distance education system roughly.

符号の説明Explanation of symbols

1 遠隔教育コミュニケーションシステム
2 講師側のカメラ
3 講師側のマイク
4 講師側の映像や音声を送受信するCODEC(端末機)
5 生徒側で音声や映像を送受信するCODEC(端末機)
6 画像表示手段
7 スピーカ
8 インターネットまたはLAN(通信ネットワーク)
9 サーバ
11 分身オブジェクト画像情報
12 メッセージ・リスト
13 クライアント・オブジェクト処理システム
14 ポインティングデバイス
1 Distance Education Communication System 2 Lecturer's Camera 3 Lecturer's Microphone 4 CODEC (Terminal) that Transmits and Receives Lecturer's Video and Audio
5 CODEC (terminal) that sends and receives audio and video on the student side
6 Image display means 7 Speaker 8 Internet or LAN (communication network)
9 Server 11 Alternate object image information 12 Message list 13 Client object processing system 14 Pointing device

Claims (1)

サーバと、
前記サーバに通信ネットワークを介して接続された、複数の端末機とを備え、
前記複数の端末機の各々は、
演算処理手段、外部入力手段、表示手段、撮像手段、音声入力手段及び音声出力手段を備え、
前記複数の端末機の各々には、固有番号が割り付けられており、且つ、
前記複数の端末機の各々の演算処理手段には、固有番号に対応するの分身オブジェクト画像情報を格納できるようにされており、
前記複数の端末機を動作状態にすると、
動作状態にされた前記複数の端末機の各々の演算処理手段に格納されている、前記固有の分身オブジェクト画像情報が、前記サーバを介して、前記動作状態にされた複数の端末機の各々の表示手段に表示され、
前記動作状態にされた複数の端末機の各々の操作者が、その端末機の外部入力手段から、情報を入力すると、入力された情報が、前記動作状態にされた複数の端末機の各々の表示手段に表示されている、固有の分身オブジェクト画像情報に表示されるようになっている、遠隔教育コミュニケーションシステム。
Server,
A plurality of terminals connected to the server via a communication network;
Each of the plurality of terminals is
Computation processing means, external input means, display means, imaging means, voice input means and voice output means,
A unique number is assigned to each of the plurality of terminals, and
The arithmetic processing means of each of the plurality of terminals is adapted to be able to store a separate object image information corresponding to a unique number,
When the plurality of terminals are in an operating state,
The unique part object image information stored in the arithmetic processing means of each of the plurality of terminals in the operating state is sent to each of the plurality of terminals in the operating state via the server. Displayed on the display means,
When an operator of each of the plurality of terminals in the operating state inputs information from an external input unit of the terminal, the input information is stored in each of the plurality of terminals in the operating state. A distance education communication system adapted to be displayed in unique alternation object image information displayed on a display means.
JP2003313253A 2003-08-01 2003-08-01 Remote educational communication system Pending JP2005055846A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003313253A JP2005055846A (en) 2003-08-01 2003-08-01 Remote educational communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003313253A JP2005055846A (en) 2003-08-01 2003-08-01 Remote educational communication system

Publications (1)

Publication Number Publication Date
JP2005055846A true JP2005055846A (en) 2005-03-03

Family

ID=34372490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003313253A Pending JP2005055846A (en) 2003-08-01 2003-08-01 Remote educational communication system

Country Status (1)

Country Link
JP (1) JP2005055846A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006303608A (en) * 2005-04-15 2006-11-02 Brother Ind Ltd Communication system, device and program
JP2006323467A (en) * 2005-05-17 2006-11-30 Nippon Telegr & Teleph Corp <Ntt> Exercise support system, its exercise support management device and program
JPWO2007072722A1 (en) * 2005-12-20 2009-05-28 日本電気株式会社 Portable terminal device and control method and program thereof
JP2009139667A (en) * 2007-12-06 2009-06-25 Nec Corp Remote lecture system
JP2009294625A (en) * 2008-06-09 2009-12-17 Haruki Ueno Remote educational system and display control method of multimedia content
JP2009303119A (en) * 2008-06-17 2009-12-24 Yahoo Japan Corp Content updating apparatus, method and program
JP2010066790A (en) * 2008-09-08 2010-03-25 Taito Corp Content editing server and content editing program
JP2011107329A (en) * 2009-11-16 2011-06-02 Wao Corporation Server device, bidirectional education method, and program
WO2011090128A1 (en) * 2010-01-22 2011-07-28 株式会社ドワンゴ Communication system, and communication method
CN107316520A (en) * 2017-08-17 2017-11-03 广州视源电子科技股份有限公司 Video teaching interaction method, device, equipment and storage medium
JP2020038336A (en) * 2019-02-19 2020-03-12 オムロン株式会社 Information processing device, information processing method, and information processing program

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10623527B2 (en) 2005-04-15 2020-04-14 Brother Kogyo Kabushiki Kaisha Communication system, communication device and program
US10051083B2 (en) 2005-04-15 2018-08-14 Brother Kogyo Kabushiki Kaisha Communication system, communication device and program
JP2006303608A (en) * 2005-04-15 2006-11-02 Brother Ind Ltd Communication system, device and program
JP2006323467A (en) * 2005-05-17 2006-11-30 Nippon Telegr & Teleph Corp <Ntt> Exercise support system, its exercise support management device and program
JPWO2007072722A1 (en) * 2005-12-20 2009-05-28 日本電気株式会社 Portable terminal device and control method and program thereof
US8385963B2 (en) 2005-12-20 2013-02-26 Nec Corporation Portable terminal apparatus, its control method, and program
JP4798135B2 (en) * 2005-12-20 2011-10-19 日本電気株式会社 Portable terminal device and control method and program thereof
JP2009139667A (en) * 2007-12-06 2009-06-25 Nec Corp Remote lecture system
JP4555365B2 (en) * 2008-06-09 2010-09-29 晴樹 上野 Distance education system and multimedia content display control method
JP2009294625A (en) * 2008-06-09 2009-12-17 Haruki Ueno Remote educational system and display control method of multimedia content
JP2009303119A (en) * 2008-06-17 2009-12-24 Yahoo Japan Corp Content updating apparatus, method and program
JP2010066790A (en) * 2008-09-08 2010-03-25 Taito Corp Content editing server and content editing program
JP2011107329A (en) * 2009-11-16 2011-06-02 Wao Corporation Server device, bidirectional education method, and program
JP2011172200A (en) * 2010-01-22 2011-09-01 Dowango:Kk Communication system, and communication method
WO2011090128A1 (en) * 2010-01-22 2011-07-28 株式会社ドワンゴ Communication system, and communication method
CN107316520A (en) * 2017-08-17 2017-11-03 广州视源电子科技股份有限公司 Video teaching interaction method, device, equipment and storage medium
WO2019033663A1 (en) * 2017-08-17 2019-02-21 广州视源电子科技股份有限公司 Video teaching interaction method and apparatus, device, and storage medium
CN107316520B (en) * 2017-08-17 2020-10-02 广州视源电子科技股份有限公司 Video teaching interaction method, device, equipment and storage medium
JP2020038336A (en) * 2019-02-19 2020-03-12 オムロン株式会社 Information processing device, information processing method, and information processing program
JP7263825B2 (en) 2019-02-19 2023-04-25 オムロン株式会社 Information processing device, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
Ziegler et al. Present? Remote? Remotely present! New technological approaches to remote simultaneous conference interpreting
Jerome et al. Cyberspace: Creating a therapeutic environment for telehealth applications.
Vertegaal The GAZE groupware system: mediating joint attention in multiparty communication and collaboration
CA2757847C (en) System and method for hybrid course instruction
US20150312520A1 (en) Telepresence apparatus and method enabling a case-study approach to lecturing and teaching
WO2003058518A2 (en) Method and apparatus for an avatar user interface system
JP2009077380A (en) Method, system and program for modifying image
Nakanishi FreeWalk: a social interaction platform for group behaviour in a virtual space
KR20090132914A (en) The facial animation control method and a 3d game engine based real-time interactive remote lecture system
US20200336702A1 (en) Enhanced virtual and/or augmented communications interface
Chen Conveying conversational cues through video
JP2005055846A (en) Remote educational communication system
WO2022256585A2 (en) Spatial audio in video conference calls based on content type or participant role
Ursu et al. Orchestration: Tv-like mixing grammars applied to video-communication for social groups
Farouk et al. Using HoloLens for remote collaboration in extended data visualization
JP3741485B2 (en) Remote collaborative teaching system
Vinnikov et al. Gaze-contingent auditory displays for improved spatial attention in virtual reality
US20040107251A1 (en) System and method for communicating expressive images for meetings
WO2022253856A2 (en) Virtual interaction system
JP2022016424A (en) System for streaming distribution and video conferencing
Torrejon et al. Panoramic audio and video: towards an immersive learning experience
Sharma et al. Mixing real and virtual conferencing: lessons learned
Sammet et al. Online Training
Rogers et al. BubbleVideo: Supporting Small Group Interactions in Online Conferences
Billinghurst et al. Collaboration with wearable computers

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060711

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070531

A977 Report on retrieval

Effective date: 20080327

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080415

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080616

A521 Written amendment

Effective date: 20080801

Free format text: JAPANESE INTERMEDIATE CODE: A523

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080801

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080916

A521 Written amendment

Effective date: 20090115

Free format text: JAPANESE INTERMEDIATE CODE: A523