JP2001228785A - Method and device for transmitting computer support information - Google Patents

Method and device for transmitting computer support information

Info

Publication number
JP2001228785A
JP2001228785A JP2000041444A JP2000041444A JP2001228785A JP 2001228785 A JP2001228785 A JP 2001228785A JP 2000041444 A JP2000041444 A JP 2000041444A JP 2000041444 A JP2000041444 A JP 2000041444A JP 2001228785 A JP2001228785 A JP 2001228785A
Authority
JP
Japan
Prior art keywords
information
computer system
line
display
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000041444A
Other languages
Japanese (ja)
Inventor
Hirokazu Sawano
裕和 澤野
Yoichi Takagi
陽市 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Information and Control Systems Inc
Original Assignee
Hitachi Ltd
Hitachi Information and Control Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Information and Control Systems Inc filed Critical Hitachi Ltd
Priority to JP2000041444A priority Critical patent/JP2001228785A/en
Publication of JP2001228785A publication Critical patent/JP2001228785A/en
Pending legal-status Critical Current

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Position Input By Displaying (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve information transmitting efficiency in an information transmitting system in which plural computer systems are connected together. SOLUTION: Viewpoint information of a transmitting person and a receiving person on their respective display screens is displayed on the respective display screens. Thus, aiming condition of visual material information is transmitted to the opposite side, the visual material referring position is displayed and the degree of concentration of the information receiving person is comprehended.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、送信者と受信者の
間でコンピュータシステムを介して情報を伝達するため
のコンピュータ支援情報伝達方法およびコンピュータ支
援情報伝達装置とそのためのプログラムを記録した記録
媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a computer-aided information transmitting method, a computer-aided information transmitting apparatus for transmitting information between a sender and a receiver via a computer system, and a recording medium on which a program for the information is recorded. About.

【0002】[0002]

【従来の技術】講義テキストをコンピュータシステムに
おけるディスプレイ装置の画面に表示しながら教師と生
徒が各自のディスプレイ装置に対面して遠隔で授業を行
なう教育方法および教育システムが提案されている。こ
のような教育方法および教育システムは、各種の情報を
伝達する情報伝達方法および情報伝達システムとして捉
えることができる。
2. Description of the Related Art There has been proposed an educational method and an educational system in which a teacher and a student face each other's display device and remotely give a lesson while displaying a lecture text on a screen of a display device in a computer system. Such an educational method and an educational system can be considered as an information transmitting method and an information transmitting system for transmitting various information.

【0003】[0003]

【発明が解決しようとする課題】このようにコンピュー
タシステムを介在させた遠隔教育方法においては、教師
と生徒の態度(姿勢)の伝達がないことから、通常の一
般の教室での対面教育におけるような教育を行なうこと
が困難である。これは、一般の情報伝達においては、前
記教師は送信者に相当し、生徒は受信者に相当すること
になる。
In the distance learning method using a computer system as described above, since the attitude (posture) of the teacher and the student is not transmitted, the distance learning method is used in a face-to-face education in a general classroom. Difficult education. This means that in general information transmission, the teacher corresponds to the sender and the student corresponds to the recipient.

【0004】本発明の1つの目的は、コンピュータシス
テムを介在させた情報伝達において、送信者から受信者
への情報の伝達効率を高めることができるコンピュータ
支援情報伝達方法およびコンピュータ支援情報伝達装置
を提案することにある。
One object of the present invention is to provide a computer-aided information transmitting method and a computer-aided information transmitting apparatus capable of improving the efficiency of information transmission from a sender to a receiver in information transmission via a computer system. Is to do.

【0005】本発明の他の目的は、情報伝達効率を高め
るための具体的な方法および装置を提案することにあ
る。
Another object of the present invention is to propose a specific method and apparatus for improving information transmission efficiency.

【0006】[0006]

【課題を解決するための手段】本発明は、視覚資料情報
を送信側コンピュータシステムから受信側コンピュータ
システムに伝送して送受信両側のコンピュータシステム
のディスプレイ装置の表示画面に視覚資料情報を表示
し、送信側コンピュータシステムの送信者が前記表示画
面に表示した視覚資料情報を参照しながら音声により説
明する音声知識情報を受信側コンピュータシステムに伝
達するコンピュータ支援情報伝達方法において、送信側
コンピュータシステムにおける前記表示画面に対する前
記送信者と受信側コンピュータシステムにおける前記表
示画面に対する受信者の視線方向を検出して両者の視線
情報を取得し、この両者の視線情報の相関状態を送信側
コンピュータシステムにおける表示画面に表示すること
を特徴とする。
SUMMARY OF THE INVENTION According to the present invention, visual data information is transmitted from a transmitting computer system to a receiving computer system, and the visual data information is displayed on the display screens of the display devices of the transmitting and receiving computer systems. A computer-assisted information transmitting method for transmitting, to a receiving computer system, voice knowledge information that is described by voice while a sender of the transmitting computer system refers to visual material information displayed on the display screen, wherein the display screen of the transmitting computer system is used. Detects the line-of-sight direction of the receiver with respect to the display screen of the sender and the receiver computer system, acquires the line-of-sight information of both, and displays the correlation state of the two line-of-sight information on the display screen of the transmitter computer system. It is characterized by the following.

【0007】また、本発明は、送信側コンピュータシス
テムと受信側コンピュータシステムを通信回線を介して
接続し、視覚資料情報を送信側コンピュータシステムか
ら受信側コンピュータシステムに伝送して送受信両側の
コンピュータシステムのディスプレイ装置の表示画面に
視覚資料情報を表示し、送信側コンピュータシステムの
送信者が前記表示画面に表示した視覚資料情報を参照し
ながら音声により説明する音声知識情報を受信側コンピ
ュータシステムに伝達するようにしたコンピュータ支援
情報伝達装置において、前記送信側コンピュータシステ
ムは、前記表示画面に対する前記送信者の視線方向を検
出して送信者視線情報を生成する送信者視線情報生成手
段と、前記送信者視線情報を送信する送信者視線情報送
信手段を備え、前記受信側コンピュータシステムは、前
記送信者視線情報を受信する送信者視線情報受信手段
と、この送信者視線情報を受信側コンピュータシステム
の表示画面に表示する送信者視線情報表示手段を備えた
ことを特徴とする。
Further, according to the present invention, the transmitting computer system and the receiving computer system are connected via a communication line, and the visual material information is transmitted from the transmitting computer system to the receiving computer system so that the transmitting and receiving computer systems are connected. The visual information is displayed on the display screen of the display device, and the sender of the transmitting computer system transmits the audio knowledge information described by voice to the receiving computer system while referring to the visual information displayed on the display screen. In the computer-aided information transmission device, the transmitting-side computer system detects a line-of-sight direction of the sender with respect to the display screen to generate sender line-of-sight information, and the sender line-of-sight information The sender's line-of-sight information transmitting means for transmitting The receiving side computer system includes a sender's line of sight information receiving means for receiving the sender's line of sight information, and a sender's line of sight information displaying means for displaying the sender's line of sight information on a display screen of the receiving side computer system. And

【0008】[0008]

【発明の実施の形態】本発明の一実施の形態について図
面により説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described with reference to the drawings.

【0009】図1は、本発明になるコンピュータ支援情
報伝達システムの概要を示す模式図である。
FIG. 1 is a schematic diagram showing an outline of a computer-aided information transmission system according to the present invention.

【0010】送信側コンピュータシステム(装置)1と
受信側コンピュータシステム(装置)2は、通信回線で
あるネットワークシステム3を介して接続する。受信側
コンピュータシステム2は、1台からn台まで任意に接
続できるようにする。
A transmitting computer system (device) 1 and a receiving computer system (device) 2 are connected via a network system 3 which is a communication line. The receiving-side computer system 2 can be arbitrarily connected from one to n.

【0011】送信側コンピュータシステム1と受信側コ
ンピュータシステム2は、構造的には略同一に構成する
ので、以下、送信側コンピュータシステム1によりハー
ドウェアの詳細を説明する。
Since the transmitting computer system 1 and the receiving computer system 2 have substantially the same structure, the hardware of the transmitting computer system 1 will be described in detail below.

【0012】コンピュータシステム1は、ディスプレイ
装置4,処理装置5,送受信装置6,3台のカメラ7〜
9,入力装置10,マイクロフォン11,スピーカ1
2,外部記憶装置13等より構成する。
The computer system 1 comprises a display device 4, a processing device 5, a transmitting / receiving device 6, three cameras 7 to
9, input device 10, microphone 11, speaker 1
2, the external storage device 13 and the like.

【0013】ディスプレイ装置4の前方には、送信者1
00が椅子に腰掛けて対面するようにする。3台のカメ
ラ7,カメラ8,カメラ9は、送信者100の正確な視
線を計測するために設置している。カメラ7は、送信者
100の上方からの映像を取り込んで送信者100の頭
部の平面的な位置の移動と、頭部の回転に関する変化を
とらえるため画像データを生成するためのカメラであ
る。カメラ8は、送信者100の左目の視線を計測する
ための画像データを生成するためのカメラである。カメ
ラ9は、送信者100の右目の視線を計測するための画
像データを生成するカメラである。ここでは、3台のカ
メラ7〜9を使用しているが、送信者の姿勢等に条件を
付けることにより、2台または1台のカメラで実現する
こともできる。ここでは、原理の理解を容易にするため
に3台のカメラ7〜9を使用する例を説明するが、3台
のカメラが必須ではない。
In front of the display device 4, a sender 1
00 should be seated on the chair and face to face. The three cameras 7, 8, and 9 are installed to accurately measure the line of sight of the sender 100. The camera 7 is a camera that captures an image from above the sender 100 and generates image data to capture changes in the planar position of the head of the sender 100 and changes in the rotation of the head. The camera 8 is a camera for generating image data for measuring the line of sight of the left eye of the sender 100. The camera 9 is a camera that generates image data for measuring the line of sight of the right eye of the sender 100. Here, three cameras 7 to 9 are used, but it is also possible to realize this with two or one camera by adding conditions to the attitude of the sender. Here, an example in which three cameras 7 to 9 are used for easy understanding of the principle will be described, but three cameras are not essential.

【0014】入力装置10は、キーボードやマウスによ
って構成する。
The input device 10 comprises a keyboard and a mouse.

【0015】図2は、コンピュータシステム1のハード
ウエアの詳細な構成を示している。処理装置5は、CP
U14,主メモリ15,画像専用プロセッサ16,画像
メモリ17,バス18,表示インターフェース(IF)
19,画像IF20,入力IF21,マイクロフォンI
F22,スピーカIF23,外部メモリIF24、通信
IF25等から構成する。そして、CPU14は、カメ
ラ7〜9からの画像データを画像IF20を介して取り
込み、入力装置10からの入力を入力IF21を介して
取り込み、マイクロフォン11からの音声データをマイ
クロフォンIFを介して取り込み、画面表示データを表
示IF19を介してディスプレイ装置4に出力し、音声
データをスピーカIF23を介してスピーカ12に出力
する。また、講義テキスト等の視覚資料情報は、外部メ
モリIF24を介して外部記憶装置10から取り込み、
受信側コンピュータシステム2とは、通信IF25から
送受信装置6を介してネットワークシステム(LAN)
3に接続して通信することにより各種の情報を授受する
ようにする。
FIG. 2 shows a detailed configuration of the hardware of the computer system 1. The processing device 5 is a CP
U14, main memory 15, image dedicated processor 16, image memory 17, bus 18, display interface (IF)
19, image IF20, input IF21, microphone I
F22, speaker IF23, external memory IF24, communication IF25, etc. Then, the CPU 14 captures image data from the cameras 7 to 9 via the image IF 20, captures input from the input device 10 via the input IF 21, captures audio data from the microphone 11 via the microphone IF, and The display data is output to the display device 4 via the display IF 19, and the audio data is output to the speaker 12 via the speaker IF 23. Also, visual material information such as lecture texts is fetched from the external storage device 10 via the external memory IF 24,
The receiving computer system 2 is connected to a network system (LAN) from the communication IF 25 via the transmitting / receiving device 6.
3 to communicate various kinds of information by communicating.

【0016】処理装置5は、カメラ7〜9から入力する
画像データを解析して送信者100の頭部の平面座標位
置,頭部の回転,視線の動きを計測し、デイスプレイ装
置4の表示画面上の視線点を推定する。この画像データ
の処理は、高速に行うために、画像専用プロセッサ16
を使用する。入力画像データや処理結果の画像データ等
は、画像メモリ17に格納する。処理プログラムは、主
メモリ15に記憶し、実行時にCPU14に転送して実
行するように仕組む。
The processing device 5 analyzes the image data input from the cameras 7 to 9 to measure the plane coordinate position of the head of the sender 100, the rotation of the head, and the movement of the line of sight, and displays the display screen of the display device 4. Estimate the upper gaze point. This image data processing is performed at a high speed by using an image processor 16.
Use The input image data and the image data of the processing result are stored in the image memory 17. The processing program is stored in the main memory 15 and is configured to be transferred to the CPU 14 and executed at the time of execution.

【0017】図3は、送信側コンピュータシステム1の
ソフトウェア(処理プログラム)の構成を示す機能ブロ
ック図である。他の受信側コンピュータシステム2も同
様に構成する。そして、このソフトウェア200は、主
メモリ15に記憶しておき、必要に応じて、選択的に起
動して実行する。
FIG. 3 is a functional block diagram showing the configuration of software (processing program) of the transmission-side computer system 1. The other receiving computer systems 2 are similarly configured. The software 200 is stored in the main memory 15 and selectively activated and executed as needed.

【0018】このソフトウェア200は、メイン機能2
10と視線情報生成機能220と視線情報送信機能23
0と視線情報受信機能240と視線情報表示機能260
を実現する処理プログラムを備える。
The software 200 has a main function 2
10, gaze information generation function 220, and gaze information transmission function 23
0, gaze information reception function 240, and gaze information display function 260
Is provided.

【0019】メイン機能210は、キーボードやマウス
からのを処理する入力機能211と、このコンピュータ
システム1を情報伝達における「送信側」「受信側」
「送受信側(双方向伝達)」の何れの機能にして他の何
れのコンピュータシステム2と接続するかを設定し、こ
の設定を実行する初期設定接続機能212と、情報伝達
に使用する視覚資料情報をデータベースから読み込んで
設定する伝達視覚資料情報設定機能213と、情報伝達
の進行を司る情報伝達進行機能214と、ディスプレイ
装置4の表示制御を行なう表示機能215と、音声デー
タをマイクロフォン11から入力して送信する音声入力
送信機能216と、受信した音声データをスピーカ12
によって発音する音声受信出力機能217と、ネットワ
ークシステム3を介して他のコンピュータシステム2と
通信する通信機能218を備える。
The main function 210 includes an input function 211 for processing from a keyboard and a mouse, and a “transmission side” and a “reception side” for transmitting information to the computer system 1.
An initial setting connection function 212 for setting which function of the “transmission / reception side (bidirectional transmission)” to connect to any other computer system 2 and executing this setting, and visual material information used for information transmission From a database, a transmission visual material information setting function 213 that controls the progress of information transmission, a display function 215 that performs display control of the display device 4, and audio data input from the microphone 11. And a voice input transmission function 216 for transmitting the received voice data to the speaker 12.
And a communication function 218 for communicating with another computer system 2 via the network system 3.

【0020】視線情報生成機能220は、カメラ7〜9
から画像データを取得して解析することにより、送信者
(自己)100の視線を計測し、視線の方向を表す情報
情報を生成する機能である。
The line-of-sight information generation function 220 includes the cameras 7 to 9
This is a function of measuring the line of sight of the sender (self) 100 by acquiring and analyzing image data from the device, and generating information information indicating the direction of the line of sight.

【0021】視線情報送信機能230は、視線情報生成
機能220によって生成した送信者100の視線情報を
他のコンピュータシステム2に送信する機能である。
The line-of-sight information transmission function 230 is a function of transmitting the line-of-sight information of the sender 100 generated by the line-of-sight information generation function 220 to another computer system 2.

【0022】視線情報受信機能240は、他のコンピュ
ータシステム2で生成した受信者(相手)の視線情報を
受信する機能である。
The line-of-sight information receiving function 240 is a function of receiving the line-of-sight information of the receiver (other party) generated by another computer system 2.

【0023】視線情報保存機能250は、自己のコンピ
ュータシステム1で生成した視線情報と他のコンピュー
タシステム2から受信した視線情報を主メモリ15に保
存する機能である。
The line-of-sight information storage function 250 is a function of storing the line-of-sight information generated by its own computer system 1 and the line-of-sight information received from another computer system 2 in the main memory 15.

【0024】視線情報表示機能260は、自己のコンピ
ュータシステム1で生成した視線情報に基づいてディス
プレイ装置4の表示画面上の視点位置を求め、その位置
に自己視点マークを表示する自己視点表示機能261
と、他のコンピュータシステム2から受信した視線情報
に基づいてディスプレイ装置4の表示画面上の視点位置
を求め、その位置に相手視点マークを表示する相手視点
表示機能262と、前記視点マークの移動軌跡を表示す
る視点移動軌跡表示機能263と、自己のコンピュータ
システム1において生成した視線情報と他のコンピュー
タシステム2から受信した視線情報の相関状態(一致度
=集中度)を求める相関状態評価機能264と、視線情
報の相関状態を視覚資料情報表示領域から区別してリス
ト表示する相関状態評価結果表示機能265と、相関状
態表示形態(表示順序や表示相手)を選択する表示形態
選択機能266と、前記視点マークの移動軌跡を表示す
る小画像を生成して視覚資料情報表示領域から区別して
表示するサブシーン表示機能267と、相関状態を監視
し、相関状態が所定の状態よりも悪くなると警報する警
報機能268を備える。
The gaze information display function 260 obtains a viewpoint position on the display screen of the display device 4 based on the gaze information generated by the own computer system 1, and displays a self viewpoint mark at that position.
An opponent viewpoint display function 262 for obtaining a viewpoint position on the display screen of the display device 4 based on the line-of-sight information received from the other computer system 2 and displaying an opponent viewpoint mark at the position; And a correlation state evaluation function 264 for calculating a correlation state (coincidence level = concentration degree) between the line-of-sight information generated in its own computer system 1 and the line-of-sight information received from another computer system 2. A correlation state evaluation result display function 265 for displaying a correlation state of the line-of-sight information from the visual material information display area in a list form, a display form selection function 266 for selecting a correlation state display form (display order or display partner), A subsequence that generates a small image that displays the trajectory of the mark and displays it separately from the visual information display area A display function 267 monitors the correlation state, and a warning function 268 correlation state is alert and worse than a predetermined state.

【0025】本発明は、各種の情報を伝達するコンピュ
ータ支援情報伝達方法およびコンピュータ支援情報伝達
装置とそのためのプログラムを記録した記録媒体である
が、ここでコンピュータ支援教育システム(装置)とし
て使用する例を説明する。
The present invention is a computer-aided information transmitting method and a computer-aided information transmitting apparatus for transmitting various kinds of information, and a recording medium on which a program for the computer-aided information transmitting apparatus is recorded. Will be described.

【0026】図4は、このような複数のコンピュータシ
ステム1,2をネットワークシステム3を介して接続す
ることにより構成したコンピュータ支援教育システムに
おめる各コンピュータシステム1,2の機能のブロック
図である。
FIG. 4 is a block diagram of the functions of each of the computer systems 1 and 2 in a computer-aided education system configured by connecting such a plurality of computer systems 1 and 2 via a network system 3. is there.

【0027】ここで、コンピュータシステム1は、送信
側となる教師側コンピュータシステムを構成し、コンピ
ュータシステム2は、受信側となる生徒側コンピュータ
システムを構成する。生徒側コンピュータシステム2
は、任意の台数が接続されるが、ここでは、生徒Aのコ
ンピュータシステム2について例示する。
Here, the computer system 1 constitutes a teacher computer system serving as a transmitting side, and the computer system 2 constitutes a student computer system serving as a receiving side. Student computer system 2
Is connected to an arbitrary number of computers. Here, the computer system 2 of the student A is exemplified.

【0028】送信側となる教師側コンピュータシステム
1は、初期設定接続機能212aにおいて、教師側(送
信側)であることを設定すると、メイン機能210a
は、入力機能211aと初期設定接続機能212aと伝
達視覚資料情報設定機能213aと情報伝達進行機能2
14aと表示機能215aと音声入力送信機能216a
と通信機能218aを機能させ、視線情報生成機能22
0aと視線情報送信機能230aと視線情報受信機能2
40aと視線情報保存機能250aを機能させ、視線情
報表示機能260aは、自己視点表示機能261aと相
手視点表示機能262aと視点移動軌跡表示機能263
aと相関状態評価機能264aと相関状態評価結果表示
機能265aと表示形態選択機能266aとサブシーン
表示機能267aと警報機能268aを機能させる処理
プログラムを起動し、設定された生徒(受信)側コンピ
ュータシステム2と接続する。
When the teacher computer system 1 serving as the transmission side sets the teacher side (transmission side) in the initial setting connection function 212a, the main function 210a
Are the input function 211a, the initial setting connection function 212a, the transmission visual information setting function 213a, and the information transmission progress function 2
14a, display function 215a, and voice input transmission function 216a
And the communication function 218a, and the gaze information generation function 22
0a, gaze information transmission function 230a, and gaze information reception function 2
40a and the gaze information storage function 250a, and the gaze information display function 260a includes a self-viewpoint display function 261a, a partner viewpoint display function 262a, and a viewpoint movement locus display function 263.
a, a correlation state evaluation function 264a, a correlation state evaluation result display function 265a, a display mode selection function 266a, a sub scene display function 267a, and a processing program for functioning the alarm function 268a are started, and the set student (reception) side computer system is started. Connect to 2.

【0029】そして、受信側である生徒側コンピュータ
システム2は、初期設定接続機能212bにおいて、生
徒側(受信側)であることを設定すると、メイン機能2
10bは、入力機能211bと初期設定接続機能212
bと情報伝達進行機能214bと表示機能215bと通
信機能216bと音声受信出力機能217bを機能さ
せ、視線情報生成機能220bと視線情報送信機能23
0bと視線情報受信機能240bと視線情報保存機能2
50bを機能させ、視線情報表示機能260bは、自己
視点表示機能261bと相手視点表示機能262bと視
点移動軌跡表示機能263bを機能させる処理プログラ
ムを起動し、設定された教師(送信)側コンピュータシ
ステム1と接続する。
When the student computer system 2 as the receiving side sets the student side (receiving side) in the initial setting connection function 212b, the main function 2
10b is an input function 211b and an initial setting connection function 212
b, the information transmission progress function 214b, the display function 215b, the communication function 216b, and the voice reception output function 217b, and the gaze information generation function 220b and the gaze information transmission function 23
0b, gaze information receiving function 240b, and gaze information storage function 2
50b, the gaze information display function 260b activates a processing program that causes the self-viewpoint display function 261b, the opponent's viewpoint display function 262b, and the viewpoint movement locus display function 263b to function, and the set teacher (transmission) side computer system 1 Connect with

【0030】この設定および接続処理は、コンピュータ
システム1,2と教師および生徒の共同操作の他に予め
決めたスケジューラにより行うことができる。
The setting and connection processing can be performed by a predetermined scheduler in addition to the joint operation of the computer systems 1 and 2 and the teacher and the student.

【0031】図5は、コンピュータシステム1が教師
(送信)側コンピュータシステムとなってこのようなコ
ンピュータ支援教育システムを構築して授業を進行する
ためにメイン機能210aが実行する処理プログラムの
フローチャートである。
FIG. 5 is a flowchart of a processing program executed by the main function 210a in order for the computer system 1 to serve as a teacher (transmission) side computer system to construct such a computer-assisted education system and progress a lesson. .

【0032】先ず、初期設定接続機能212aを実現す
るために次の処理を実行する。
First, the following processing is executed to realize the initialization connection function 212a.

【0033】処理ステップS212a−1 システム構築のための初期画面を表示して入力装置10
から「送信側(教師)」「受信(生徒)側」「送受信
側」の機能設定入力と接続すべき「受信(生徒)側コン
ピュータシステム」の設定入力を取得する。
Processing Step S212a-1 An initial screen for system construction is displayed and the input device 10
, The setting input of the “receiving (student) side computer system” to be connected to the function setting inputs of the “sending side (teacher)”, “receiving (student) side” and “transmitting / receiving side”

【0034】処理ステップS212a−2 機能設定処理と回線接続処理を実行する。Processing Step S212a-2 Function setting processing and line connection processing are executed.

【0035】処理ステップS212a−3 教師側初期画面を表示する。Processing Step S212a-3 The teacher-side initial screen is displayed.

【0036】処理ステップS212a−4 生徒側コンピュータシステム2に生徒側初期画面の表示
を指示する。
Processing Step S212a-4 The student computer system 2 is instructed to display a student-side initial screen.

【0037】次に、伝達視覚資料情報設定機能213a
を実現するために次の処理を実行する。
Next, the transmission visual material information setting function 213a
The following processing is executed in order to realize.

【0038】処理ステップS213a−1 教師側初期画面において、授業に使用する伝達視覚資料
情報(講義テキストやその他の資料)を入力装置10か
らの設定入力に基づいて設定する。
Processing Step S213a-1 On the teacher's initial screen, transmission visual material information (lecture text and other materials) used for the lesson is set based on the setting input from the input device 10.

【0039】次に、情報伝達進行機能214aを実現す
るために次の処理を実行する。
Next, the following processing is executed to realize the information transmission progress function 214a.

【0040】処理ステップS214a−1 教師側コンピュータシステム1は、入力装置10からの
指示入力に従って、ディスプレイ装置4aの表示画面に
授業用教師側表示画面フォーマットを表示し、生徒コン
ピュータシステム2に授業用生徒側表示画面フォーマッ
トの表示を指示する。
Processing Step S214a-1 The teacher's computer system 1 displays the lesson teacher's display screen format on the display screen of the display device 4a in accordance with the instruction input from the input device 10, and the lesson student computer system 2 Instruct the display of the side display screen format.

【0041】処理ステップS214a−2 入力装置10からの指示入力に従って、使用する伝達視
覚資料情報を取り出して授業用教師側表示画面フォーマ
ット内に表示し、授業用生徒側表示画面フォーマット内
に表示するように送信する。この伝達視覚資料情報は、
その後の入力装置10からの指示入力に従って更新す
る。
Processing Step S214a-2 According to the instruction input from the input device 10, the transmission visual information to be used is taken out, displayed in the lesson teacher display screen format, and displayed in the lesson student display screen format. Send to This transmitted visual information
Update is performed according to the subsequent instruction input from the input device 10.

【0042】そして、音声入力送信機能216aを実現
するために次の処理を実行する。
Then, the following processing is executed to realize the voice input transmission function 216a.

【0043】処理ステップS216a−1 教師の音声による解説(音声知識情報)をマイクロフォ
ン11から音声データとして取得して送信する。
Processing Step S216a-1 An explanation (voice knowledge information) of the teacher's voice is acquired from the microphone 11 as voice data and transmitted.

【0044】図6は、生徒(受信)側コンピュータシス
テムとなつたコンピュータシステム2のメイン機能21
0bが実行する処理プログラムのフローチャートであ
る。
FIG. 6 shows a main function 21 of the computer system 2 as a student (receiving) computer system.
0b is a flowchart of a processing program executed.

【0045】先ず、初期設定接続機能212bを実現す
るために次の処理を実行する。
First, the following processing is executed to realize the initial setting connection function 212b.

【0046】処理ステップS212b−1システム構築
のための初期画面を表示して入力装置10から「送信
(教師)側」「受信(生徒)側」「送受信側」の機能設
定入力と接続すべき「送信(教師)側コンピュータシス
テム」の設定入力を取得する。
Processing Step S212b-1 An initial screen for constructing the system is displayed, and the input device 10 is to be connected to the function setting inputs of "transmission (teacher) side", "reception (student) side" and "transmission / reception side". The setting input of "transmission (teacher) side computer system" is obtained.

【0047】処理ステップS212b−2 機能設定処理と回線接続処理を実行する。Processing Step S212b-2 Function setting processing and line connection processing are executed.

【0048】処理ステップS212b−3 教師側コンピュータシステム1からの指示に基づいて生
徒側初期画面を表示する。
Processing Step S212b-3 The student's initial screen is displayed based on the instruction from the teacher's computer system 1.

【0049】次に、情報伝達進行機能214bを実現す
るために次の処理を実行する。
Next, the following processing is executed to realize the information transmission progress function 214b.

【0050】処理ステップS214b−1 教師側コンピュータシステム1からの指示に従って授業
用生徒側表示画面フォーマットを表示する。
Processing Step S214b-1 The lesson student-side display screen format is displayed in accordance with the instruction from the teacher-side computer system 1.

【0051】処理ステップS214b−2 教師側コンピュータシステム1から送信された伝達視覚
資料情報を受信し、この伝達視覚資料情報を授業用生徒
側表示画面フォーマット内に表示する。表示する伝達視
覚資料情報は、送信されてくる伝達視覚資料情報の更新
に相応して更新する。
Processing Step S214b-2 The transmitted visual material information transmitted from the teacher-side computer system 1 is received, and the transmitted visual material information is displayed in a class student display screen format. The transmitted visual material information to be displayed is updated in accordance with the update of the transmitted transmitted visual material information.

【0052】そして、音声受信出力機能217bを実現
するために次の処理を実行する。
Then, the following processing is executed to realize the voice reception output function 217b.

【0053】処理ステップS217b−1 音声データを受信して音声に変換してスピーカ12に供
給することにより発音させる。
Processing Step S217b-1 The sound data is received, converted into sound and supplied to the speaker 12 to generate sound.

【0054】このような遠隔授業において、教師側コン
ピュータシステム1の視線情報生成機能220aは、カ
メラ7〜9から教師の頭部の画像データを取得して解析
することにより、ディスプレイ装置4aの表示画面に対
する教師の視線情報を生成する。
In such a remote class, the line-of-sight information generating function 220a of the teacher computer system 1 obtains and analyzes the image data of the teacher's head from the cameras 7 to 9, thereby displaying the display screen of the display device 4a. Generates teacher's line-of-sight information for.

【0055】次に、教師(送信者)および生徒(受信
者)の視線情報表示機能について説明する。この視線情
報表示機能は、表示画面に対する教師の視線(視点)と
生徒の視線(視点)を相手方に伝達して表示することに
より授業(情報伝達)の効率を高めるための機能であ
る。
Next, the gaze information display function of the teacher (sender) and the student (receiver) will be described. This gaze information display function is a function for improving the efficiency of lessons (information transmission) by transmitting and displaying the gaze (viewpoint) of the teacher and the gaze (viewpoint) of the student on the display screen to the other party.

【0056】図7は、教師側コンピュータシステム1に
おける視線情報生成機能220aを実現する処理のフロ
ーチャートである。この処理は、タイマーによって周期
的に起動する。また、この処理プログラムは、生徒側コ
ンピュータシステム2における視線情報生成機能220
bを実現するためにも適用される。
FIG. 7 is a flowchart of a process for realizing the line-of-sight information generation function 220a in the teacher-side computer system 1. This process is started periodically by a timer. Further, this processing program is executed by the gaze information generation function 220 in the student computer system 2.
It is also applied to realize b.

【0057】処理ステップS220a−1 カメラ7〜9から教師(生徒)の頭部を撮影した画像デ
ータを取り込む。
Processing Step S220a-1 Image data of the head of the teacher (student) is captured from the cameras 7 to 9.

【0058】処理ステップS220a−2 上方のカメラ7からの画像データを解析して教師(生
徒)の頭部の重心の位置(画面座標系の原点からの距離
X,Y)を求める。
Processing Step S220a-2 The position of the center of gravity of the head of the teacher (student) (distance X, Y from the origin of the screen coordinate system) is determined by analyzing the image data from the camera 7 above.

【0059】処理ステップS220a−3 上方のカメラ7からの画像データから頭部の両耳の位置
を求め、両耳位置と頭部重心位置から頭部の回転角Ωを
求める。
Processing Step S220a-3 The positions of both ears of the head are obtained from the image data from the camera 7 above, and the rotation angle Ω of the head is obtained from the positions of both ears and the position of the center of gravity of the head.

【0060】処理ステップS220a−4 両側のカメラ8,9の画像データに基づいて頭部の重心
を求め、カメラ8,9の設置位置と前記2つの重心の幾
何学的な関係から頭部の3次元位置(X,Y,Z)を求
め、更に、カメラ8,9の画像データを解析して垂直軸
に対する頭部の傾斜角Φを求める。
Processing Step S220a-4 The center of gravity of the head is determined based on the image data of the cameras 8 and 9 on both sides, and the three-point of the head is determined from the installation position of the cameras 8 and 9 and the geometric relationship between the two centers of gravity. The dimensional position (X, Y, Z) is obtained, and the image data of the cameras 8 and 9 is analyzed to obtain the inclination angle Φ of the head with respect to the vertical axis.

【0061】処理ステップS220a−5 カメラ8,9の画像データに基づいて両目の外形位置を
求め、更に瞳の位置を求め、これらの結果に基づいて瞳
の左右偏りの角度βを求め、上下の角度γを求める。
Processing Step S220a-5 Based on the image data of the cameras 8 and 9, the outline positions of both eyes are obtained, the position of the pupil is further obtained, and the angle β of the left and right deviation of the pupil is obtained based on these results. Obtain the angle γ.

【0062】処理ステップS220a−6 頭部の3次元位置および姿勢情報(X,Y,Z,Φ,
Ω)と両眼の3次元位置(x1,y1,z1),(x
2,y2,z2)と瞳の向き情報(β1,γ1),(β
2,γ2)に基づいて視線を求め、この視線とディスプ
レイ装置の表示画面の交点(視点)位置データ(u,
v)を求める。
Processing Step S220a-6 Three-dimensional position and posture information (X, Y, Z, Φ,
Ω) and the three-dimensional positions (x1, y1, z1), (x
2, y2, z2) and pupil orientation information (β1, γ1), (β
2, γ2), and the intersection (viewpoint) position data (u, u) of the line of sight and the display screen of the display device.
Find v).

【0063】図8は、処理ステップS220a−6にお
ける視点位置決定処理の詳細なフローチャート(イ)と
表示画面区分例(ロ)を示している。
FIG. 8 shows a detailed flowchart (a) of the viewpoint position determination processing in the processing step S220a-6 and an example of display screen division (b).

【0064】処理ステップS220a−6−1 表示画面をm×n等分した格子状のエリアおよび画面外
のエリアに区分し、それぞれにエリア番号を付ける。各
視点位置データ(u,v)が、どのエリアになるかを計
算しそのエリア番号を付加してテーブルに記憶する。
Processing Step S220a-6-1 The display screen is divided into a grid-like area and an area outside the screen divided into mxn equal parts, and area numbers are given to each of them. The area of each viewpoint position data (u, v) is calculated, the area number is added, and the area is stored in the table.

【0065】(ロ)は、表示画面を3×3に分割した例
を示している。画面の内部の格子状エリアはA1〜A9
とし、画面外をA0としている。教師の視線とデイスプ
レイ装置の表示面との交点(視点)(u,v)は、エリ
アA0〜A9の何れかに落ちる。教師の各時刻における
視点(交点)が、A0〜A9の何れに落ちるかが重要と
なる。このようにして得られた視点位置データは、下記
のような時系列的な教師視点位置データとなる。
(B) shows an example in which the display screen is divided into 3 × 3. The grid area inside the screen is A1 to A9
And A0 outside the screen. The intersection (point of view) (u, v) between the teacher's line of sight and the display surface of the display device falls into one of the areas A0 to A9. It is important that the viewpoint (intersection) at each time of the teacher falls into any of A0 to A9. The viewpoint position data thus obtained is time-series teacher viewpoint position data as described below.

【0066】 時刻 座標値 エリア番号 t0 (u0,v0) a1 t1 (u1,v1) a2 t2 (u2,v2) a3 …… ……… … tn (un,vn) an この時系列的な教師視点位置データは、一定の時間間隔
で教師の視点位置データをサンプリングして蓄積するこ
とにより得られる。教師の場合、例えば、5秒毎にサン
プリングを行った場合には、図9に示すような視点位置
データが得られることは容易に理解できるであろう。ま
た、生徒の視点位置データは、図10に示すようにな
る。なお、教師と生徒の視点位置データのデータサンプ
リング時刻は、実質的に同一時刻となるように同期させ
る。
Time coordinate value Area number t0 (u0, v0) a1 t1 (u1, v1) a2 t2 (u2, v2) a3 ... tn (un, vn) an This time-series teacher viewpoint position The data is obtained by sampling and accumulating the viewpoint position data of the teacher at regular time intervals. In the case of a teacher, for example, if sampling is performed every 5 seconds, it can be easily understood that viewpoint position data as shown in FIG. 9 is obtained. Further, the viewpoint position data of the student is as shown in FIG. The data sampling times of the viewpoint position data of the teacher and the student are synchronized so that they are substantially the same time.

【0067】そして、視線情報送信機能230aおよび
視線情報受信機能240aは、前述したようにして求め
た視線情報を送受信する処理を実行する。
Then, the line-of-sight information transmitting function 230a and the line-of-sight information receiving function 240a execute a process of transmitting and receiving the line-of-sight information obtained as described above.

【0068】また、視線情報保存機能250aは、求め
た視線情報(視点位置データ)および受信した視線情報
(視点位置データ)を教師側の主メモリ(視点テーブ
ル)15に記憶して保存する処理を実行する。
The gaze information storage function 250a stores the obtained gaze information (viewpoint position data) and the received gaze information (viewpoint position data) in the main memory (viewpoint table) 15 on the teacher side. Execute.

【0069】図11は、教師側コンピュータシステム1
におけるディスプレイ装置4の授業用教師側画面の表示
内容の一例を示している。視覚資料情報である講義テキ
スト401aは、視覚資料表示領域402a内に表示し
ている。この視覚資料表示領域402aの右側の空き領
域403aには、複数の生徒(受信者)の集中度表示欄
404aを設け、集中度の悪い生徒の順や選択設定順に
リスト表示することにより、教師(送信者)は、これを
観察することにより生徒の集中度合いの概要を知ること
ができるようにしている。また、サブシーン表示領域4
05aには、特定の生徒の視点の移動状態(例えば過去
1分間の視点位置データを5秒毎にサンプリングして線
で結んだもの)を示す視点移動軌跡406aを選択的に
表示するようにする。ここで、407aは、生徒の現時
点の視点マークである。408aは、サブシーン表示領
域405aに視点移動軌跡406aを表示している生徒
名である。409aは、教師の視点マークである。生徒
の視点マークも講義テキストに重ねて表示可能にしてい
るが、ここでは、表示しないようにしている。
FIG. 11 shows the computer system 1 on the teacher side.
2 shows an example of the display content of the lesson teacher side screen of the display device 4 in FIG. The lecture text 401a, which is visual material information, is displayed in the visual material display area 402a. In the empty area 403a on the right side of the visual material display area 402a, a concentration level display field 404a for a plurality of students (recipients) is provided. By observing this, the sender can get an overview of the degree of concentration of the students. The sub-scene display area 4
05a, a viewpoint movement locus 406a indicating the movement state of the viewpoint of a specific student (for example, the viewpoint position data of the past minute sampled every 5 seconds and connected by a line) is selectively displayed. . Here, 407a is the current viewpoint mark of the student. 408a is the name of the student displaying the viewpoint movement locus 406a in the sub-scene display area 405a. 409a is a teacher's viewpoint mark. Although the viewpoint mark of the student can be displayed so as to be superimposed on the lecture text, it is not displayed here.

【0070】教師は、この表示画面を観察することによ
り、特定の生徒の集中度が欠けていると判断した場合に
は、マイクロフォン11にて特定の生徒(生徒名408
a)のコンピュータシステム2に対して、または、全生
徒のコンピュータシステム2に対して音声による注意を
発することができるようにしている。
When the teacher observes the display screen and determines that the concentration of the specific student is lacking, the teacher uses the microphone 11 to specify the specific student (student name 408).
Voice alert can be issued to the computer system 2 of a) or to the computer system 2 of all students.

【0071】図12は、生徒側コンピュータシステム2
におけるディスプレイ装置の授業用生徒側表示画面の表
示内容の一例を示している。視覚資料表示領域402b
内には、受信した講義テキスト401bを送信側と同一
形態に表示するしている。407bは生徒(受信者)自
身の視点マーク、409bは教師(送信者)の視点マー
ク、410bは、教師の視点マークの移動の軌跡であ
る。視点マーク407b,409bは、切り換えによ
り、生徒自身の視点マーク407bまたは教師の視点マ
ーク409bを単独に、または、生徒と教師の視点マー
ク407b,409bを共に表示できるようにする。生
徒と教師の視点マーク407b,408bの区別は、マ
ークの形状や色によって行なうようにする。
FIG. 12 shows the student computer system 2
5 shows an example of the display content of the lesson student-side display screen of the display device in FIG. Visual material display area 402b
In the figure, the received lecture text 401b is displayed in the same form as the transmitting side. 407b is a viewpoint mark of the student (recipient), 409b is a viewpoint mark of the teacher (sender), and 410b is a locus of movement of the viewpoint mark of the teacher. The viewpoint marks 407b and 409b can be switched so that the student's own viewpoint mark 407b or the teacher's viewpoint mark 409b can be displayed alone or both the student's and teacher's viewpoint marks 407b and 409b can be displayed. The distinction between the viewpoint marks 407b and 408b of the student and the teacher is made based on the shape and color of the mark.

【0072】従って、生徒は、このような表示画面を観
察することにより、教師が注目している視覚資料の位置
とその移動方向を知ることができる。
Therefore, by observing such a display screen, the student can know the position of the visual material that the teacher is paying attention to and the moving direction thereof.

【0073】このような構成によれば、教師と生徒は、
遠隔の授業形態であるが、一般的な教室における教師と
生徒の対面授業形態に似た環境を実現することができ
る。
According to such a configuration, the teacher and the student
Although it is a remote class form, an environment similar to a face-to-face class form of a teacher and a student in a general classroom can be realized.

【0074】このような視線情報の画面表示は、視線表
示機能260によって実現する。
The screen display of such line-of-sight information is realized by the line-of-sight display function 260.

【0075】先ず、教師側コンピュータシステム1にお
ける視線表示機能260aについて説明する。
First, the gaze display function 260a in the teacher computer system 1 will be described.

【0076】図13は、自己視点表示機能261aを実
現して教師(送信者)の視点マークを表示する処理のフ
ローチャートである。
FIG. 13 is a flowchart of a process for realizing the self-viewpoint display function 261a and displaying a teacher (sender) viewpoint mark.

【0077】処理ステップS261a−1 教師の現在の視点位置データを取得する。Processing Step S261a-1 The current viewpoint position data of the teacher is acquired.

【0078】処理ステップS261a−2 講義テキスト401aに重ねて教師の視点マーク409
aを表示する。
Processing Step S261a-2 The teacher's viewpoint mark 409 is superimposed on the lecture text 401a.
Display a.

【0079】図14は、相手視点表示機能262aを実
現して生徒(受信者)の視点マークを表示する処理のフ
ローチャートである。
FIG. 14 is a flowchart of a process for realizing the other party's viewpoint display function 262a and displaying the viewpoint mark of the student (recipient).

【0080】処理ステップS262a−1 視点マーク表示の要否を設定入力する。初期値(デフォ
ールト)は、送信側に設定されたときには「否」となる
ようにし、受信側に設定されたときには「要」となるよ
うにする。
Processing Step S262a-1 Whether or not to display a viewpoint mark is set and input. The initial value (default) is set to “No” when set on the transmitting side, and set to “Necessary” when set on the receiving side.

【0081】処理ステップS262a−2 設定に応じて処理を分岐する。「否」のときには視点マ
ーク表示処理は行なわない。
Processing Step S262a-2 The processing branches according to the setting. If “No”, the viewpoint mark display processing is not performed.

【0082】処理ステップS262a−3 サブシーン表示領域405aに表示されている生徒の現
在の視点位置データを取得する。
Processing Step S262a-3 The current viewpoint position data of the student displayed in the sub-scene display area 405a is obtained.

【0083】処理ステップS262a−4 講義テキスト401aに重ねて生徒の視点マークを表示
する。図11に示す例では、生徒の視点マーク表示処理
は行なっていない。
Processing Step S262a-4 The student's viewpoint mark is displayed over the lecture text 401a. In the example shown in FIG. 11, the viewpoint mark display processing of the student is not performed.

【0084】図15は、視点移動軌跡表示機能263a
を実現して生徒(受信者)の視点移動軌跡を表示する処
理のフローチャートである。
FIG. 15 shows a view point movement locus display function 263a.
Is a flowchart of a process for displaying a trajectory movement locus of a student (recipient) by realizing the following.

【0085】処理ステップS263a−1 視点軌跡表示の要否を設定入力する。初期値(デフォー
ルト)は、送信側に設定されたときには「否」となるよ
うにし、受信側に設定されたときには「要」となるよう
にする。
Processing Step S263a-1 Whether or not to display a viewpoint locus is set and input. The initial value (default) is set to “No” when set on the transmitting side, and set to “Necessary” when set on the receiving side.

【0086】処理ステップS263a−2 設定に応じて処理を分岐する。「否」に設定されている
ときには視点軌跡表示処理は行なわない。
Processing Step S263a-2 The processing branches according to the setting. When “No” is set, the viewpoint locus display processing is not performed.

【0087】処理ステップS263a−3 サブシーン表示領域405aに表示されている生徒の現
在および過去の所定期間の視点位置データ(1分間の視
点位置データを5秒周期でサンプリングしたもの)を取
得する。
Processing Step S263a-3 Obtains the current and past viewpoint position data (one minute viewpoint position data sampled at 5-second intervals) of the student displayed in the sub-scene display area 405a.

【0088】処理ステップS263a−4 各視点位置を線で結んた軌跡を講義テキスト401aに
重ねて表示する。図11に示す例では、視点軌跡表示処
理は行なっていない。
Processing Step S263a-4 A trajectory connecting the viewpoint positions with a line is superimposed and displayed on the lecture text 401a. In the example shown in FIG. 11, the viewpoint locus display processing is not performed.

【0089】授業に対する生徒の集中度は、教師と生徒
の視線の相関状態の程度によって推し測ることができ
る。相関状態評価機能264aは、この視線の相関状態
の程度(一致度=相関値)を教師と生徒の視線情報に基
づいて求め、生徒の集中度の把握を支援するように機能
する。
The degree of concentration of the student in the lesson can be estimated by the degree of correlation between the eyes of the teacher and the student. The correlation state evaluation function 264a calculates the degree of the correlation state of the line of sight (degree of coincidence = correlation value) based on the line of sight information of the teacher and the student, and functions to support the grasp of the degree of concentration of the student.

【0090】図16は、教師と生徒の視点位置データの
相関状態(相関値)を計算して評価する相関状態評価機
能264aを実現する処理のフローチャートである。こ
の処理は、一定の時間間隔で起動するものとする。例え
ば、1分に1回とか、5分に1回の割で起動させる。
FIG. 16 is a flowchart of processing for realizing a correlation state evaluation function 264a for calculating and evaluating the correlation state (correlation value) of the teacher and student viewpoint position data. This processing is started at a fixed time interval. For example, it is activated once every minute or once every five minutes.

【0091】処理ステップS264a−1 教師の視点位置データテーブル(図9参照)から所定時
間内の視点位置データを取り込む。
Processing Step S264a-1 The viewpoint position data within a predetermined time is fetched from the teacher's viewpoint position data table (see FIG. 9).

【0092】処理ステップS264a−2 相関状態を評価する対象生徒n=Aに設定する。Processing Step S264a-2 The target student n for which the correlation state is evaluated is set to n = A.

【0093】処理ステップS264a−3 生徒n(=A)の視点位置データテーブル(図10参
照)から所定時間内の視点位置データを取り込む。教師
と生徒のデータの開始時刻やサンプリング間隔は実用的
な程度に一致させるものとする。
Processing Step S264a-3 The viewpoint position data within a predetermined time is fetched from the viewpoint position data table (see FIG. 10) of the student n (= A). The start time and the sampling interval of the data of the teacher and the student should be matched to a practical level.

【0094】処理ステップS264a−4 取り込んだ視点位置データを使用して教師と生徒の視点
位置データ間の相関状態を計算する。
Processing Step S264a-4 A correlation state between the teacher and student viewpoint position data is calculated using the acquired viewpoint position data.

【0095】処理ステップS264a−5 総ての生徒に対する処理が終了したかどうかを確認して
処理を分岐する。
Processing Step S264a-5 It is confirmed whether or not the processing has been completed for all the students, and the processing branches.

【0096】処理ステップS264a−6 相関状態を評価する生徒n=n+1に更新して処理ステ
ップS264a−3に戻る。
Processing Step S264a-6 Student n for evaluating the correlation state is updated to n = n + 1, and the process returns to processing step S264a-3.

【0097】前記相関状態の計算は、各種の計算方法が
考えられるが、例えば、次ぎのようにして行なう。
The calculation of the correlation state can be performed by various methods. For example, the calculation is performed as follows.

【0098】計算式の表示を容易にするため教師位置デ
ータについては、図9のテーブルを次式で表現するもの
とする。
In order to facilitate the display of the calculation formula, the table shown in FIG.

【0099】F(i)=S ここで、 F:図9のデータ値 i:テーブルの最上段からの番号(1〜n) S:データエリア番号(0〜9) n:データ数 同様に、生徒の視点位置データについては、図10のテ
ーブルを次式で表現するものとする。
F (i) = S Here, F: data value in FIG. 9 i: number (1 to n) from the top of the table S: data area number (0 to 9) n: number of data Regarding the student's viewpoint position data, the table of FIG. 10 is expressed by the following equation.

【0100】G(i)=S ここで、 G:図10のデータ値 i:テーブルの最上段からの番号(1〜n) S:データエリア番号(0〜9) n:データ数 図17および図18は、教師と生徒の視線の一致度を示
す相関状態(相関値)を計算する処理ステップS264
a−4の詳細なフローチャートである。
G (i) = S Here, G: data value in FIG. 10 i: number (1 to n) from the top of the table S: data area number (0 to 9) n: number of data FIG. 18 is a processing step S264 of calculating a correlation state (correlation value) indicating the degree of coincidence of the gaze of the teacher and the student.
It is a detailed flowchart of a-4.

【0101】図18に示す相関値計算の例について説明
する。
An example of the correlation value calculation shown in FIG. 18 will be described.

【0102】処理ステップS264a−4−A データ数を決定し、これをnとする。Processing Step S264a-4-A The number of data is determined and is set to n.

【0103】処理ステップS264a−4−B 計算に必要な初期化処理を行う。Processing Step S264a-4-B Initialization processing required for calculation is performed.

【0104】処理ステップS264a−4−C 以下の処理をデータ数(1〜n)だけ繰り返すように監
視して分岐させる。
Processing Step S264a-4-C The following processing is monitored and branched so as to be repeated by the number of data (1 to n).

【0105】処理ステップS264a−4−D 教師の視点F(i)と生徒の視点G(i)とを比較する。Processing Step S264a-4-D The teacher's viewpoint F (i) is compared with the student's viewpoint G (i).

【0106】処理ステップS264a−4−E 教師の視点F(i)と生徒の視点G(i)が一致するとき
に、SKNに1を加算する。
Processing Step S264a-4-E When the teacher's viewpoint F (i) matches the student's viewpoint G (i), 1 is added to SKN.

【0107】処理ステップS264a−4−F iに1を加算して処理ステップ264a−4−Cに戻
る。
Processing step S264a-4-Fi is incremented by 1, and the process returns to processing step 264a-4-C.

【0108】処理ステップS264a−4−G 相関値を計算する。この相関値ξ1は、次式で計算す
る。
Processing Step S264a-4-G A correlation value is calculated. The correlation value ξ1 is calculated by the following equation.

【0109】相関値ξ1=(SKN/n)×100 ここで、 SKN:一致したケースの累積回数 n:データ数(サンプリングデータ数) この相関値ξ1は、サンプリング時の教師と生徒の視線
が該当する期間において完全に一致するときは100%
となる。半分一致したときは、50%となる。2つのエ
リアの境界部分に教師の視点が集中するときには、実際
の一致度と合わない場合が発生する。
Correlation value ξ1 = (SKN / n) × 100 where SKN: Cumulative number of matched cases n: Number of data (number of sampling data) This correlation value が 1 corresponds to the gaze of teacher and student at the time of sampling. 100% when they completely match during the period
Becomes When they are half matched, the result is 50%. When the teacher's viewpoint concentrates on the boundary between the two areas, a case may occur where the degree of coincidence does not match the actual degree of coincidence.

【0110】そこで、相関値の計算の他の例を図18を
参照して説明する。
Therefore, another example of the calculation of the correlation value will be described with reference to FIG.

【0111】処理ステップS264a−4−A データ数を決定し、これをnとする。Processing Step S264a-4-A The number of data is determined, and this is set to n.

【0112】処理ステップS264a−4−B 計算に必要な初期化処理を行う。Processing Step S264a-4-B Initialization processing required for calculation is performed.

【0113】処理ステップS264a−4−C 以下の処理をデータ数(1〜n)だけ繰り返すように監
視して分岐させる。
Processing Step S264a-4-C The following processing is monitored and branched so as to be repeated by the number of data (1 to n).

【0114】処理ステップS264a−4−D 教師の視点F(i)と生徒の視点G(i)とを比較する。Processing Step S264a-4-D The teacher's viewpoint F (i) is compared with the student's viewpoint G (i).

【0115】処理ステップS264a−4−E’ 教師の視点F(i)と生徒の視点G(i)が一致するとき
に、SKNに2を加算する。
Processing Step S264a-4-E 'When the teacher's viewpoint F (i) matches the student's viewpoint G (i), 2 is added to SKN.

【0116】処理ステップS264a−4−H 教師の視点F(i)と生徒の視点G(i)のエリアが隣接し
ているかどうかを判別する。
Processing Step S264a-4-H It is determined whether or not the area of the teacher's viewpoint F (i) and the student's viewpoint G (i) are adjacent to each other.

【0117】処理ステップS264a−4−J 教師の視点F(i)と生徒の視点G(i)のエリアが隣接関
係にあるときには、SKNに1を加算する。
Processing Step S264a-4-J When the area of the teacher's viewpoint F (i) is adjacent to the area of the student's viewpoint G (i), 1 is added to SKN.

【0118】処理ステップS264a−4−F iに1を加算して処理ステップS264a−4−Cに戻
る。
Processing step S264a-4-Fi is incremented by 1, and the process returns to step S264a-4-C.

【0119】処理ステップS264a−4−G’ 相関値を計算する。この相関値ξ2は、次式で計算す
る。
Processing Step S264a-4-G 'A correlation value is calculated. This correlation value ξ2 is calculated by the following equation.

【0120】相関値ξ2=(SKN/2n)×100 ここで、 SKN:一致したケースの累積回数 n:データ数(サンプリングデータ数) この相関値ξ2は、教師の視点F(i)と生徒の視点G
(i)がエリアの境界付近に集中した場合にも、比較的に
実際と一致するようになる効果が得られる。
Correlation value ξ2 = (SKN / 2n) × 100 where SKN: cumulative number of matched cases n: number of data (number of sampled data) This correlation value ξ2 is determined by the viewpoint F (i) of the teacher and that of the student. Viewpoint G
Even when (i) is concentrated near the boundary of the area, the effect of relatively matching the actual situation can be obtained.

【0121】また、このようにして求めた相関値ξ1,
ξ2の平均値〔(ξ1+ξ2)/2〕値を各生徒の相関
値とするようにしても良い。
The correlation values ξ1,
The average value of (ξ2 + (ξ1 + ξ2) / 2) of ξ2 may be used as the correlation value of each student.

【0122】図19は、各生徒の視線の相関状態評価結
果(相関値)を集中度としてリスト表示する相関状態評
価結果表示機能265aを実現する処理のフローチャー
トである。
FIG. 19 is a flowchart of a process for realizing a correlation state evaluation result display function 265a for displaying a list of correlation state evaluation results (correlation values) of each student's eyes as a degree of concentration.

【0123】処理ステップS265a−1 全生徒の評価結果を示す相関値データを得る。Processing Step S265a-1 Correlation value data indicating evaluation results of all students is obtained.

【0124】処理ステップS265a−2 全生徒の評価結果を悪い(相関値が小さい)順に並べ
る。
Processing Step S265a-2 The evaluation results of all students are arranged in the order of bad (small correlation value).

【0125】処理ステップS265a−3 選択テーブル(後述する)に基づく表示かデフォールト
に基づく表示かを判別する。
Processing Step S265a-3 It is determined whether the display is based on the selection table (described later) or the default.

【0126】処理ステップS265a−4 選択テーブルにより、指定された生徒の相関値(集中
度)を優先して集中度表示欄404aに表示する。
Processing Step S265a-4 The correlation value (concentration level) of the designated student is preferentially displayed in the concentration level display field 404a according to the selection table.

【0127】処理ステップS265a−5 デフォールトにより決められた順(相関値の悪い順)に
生徒の相関値(集中度)を集中度表示欄404aに表示
する。
Processing Step S265a-5 The correlation values (concentrations) of the students are displayed in the concentration display column 404a in the order determined by the default (in the order of the correlation values).

【0128】このように、生徒の集中度は教師の都合の
良いような形で表示することができるようにしている。
As described above, the concentration of the students can be displayed in a manner convenient for the teacher.

【0129】図20は、視線情報表示の生徒を選択する
表示形態選択機能266aを実現する処理のフローチャ
ートである。
FIG. 20 is a flowchart of a process for realizing the display mode selection function 266a for selecting a student of the visual line information display.

【0130】処理ステップS266a−1 入力装置10からの入力データを監視して教師からの選
択要求入力を待つ。
Processing Step S266a-1 Input data from the input device 10 is monitored and a selection request input from a teacher is waited.

【0131】処理ステップS266a−2 選択要求の有無を判別する。Processing Step S266a-2 It is determined whether or not there is a selection request.

【0132】処理ステップS266a−3 教師の要求内容を取り込む。Processing Step S266a-3 The contents requested by the teacher are fetched.

【0133】処理ステップS266a−4 生徒選択テーブルを更新する。Processing Step S266a-4 The student selection table is updated.

【0134】図21は、生徒の視線の軌跡を教師側のコ
ンピュータシステム1のディスプレイ装置4に詳細に表
示するサブシーン表示機能267aを実現する処理のフ
ローチャートである。この場合も、選択テーブルによる
表示方式とデフォールトによる表示方式があり、何れか
の表示方式により表示する。
FIG. 21 is a flowchart of a process for implementing the sub-scene display function 267a for displaying the trajectory of the student's line of sight on the display device 4 of the computer system 1 on the teacher side in detail. Also in this case, there are a display method using a selection table and a display method using a default, and the display is performed using any of the display methods.

【0135】処理ステップS267a−1 選択テーブルによ基づく表示かデフォールトに基づく表
示かを判別する。
Processing Step S267a-1 It is determined whether the display is based on the selection table or based on the default.

【0136】処理ステップS267a−2 選択テーブルにより指定された生徒の視点の移動軌跡4
06aと現在の視点マーク407aをサブシーン表示領
域405aに表示する。
Processing Step S267a-2 Moving locus 4 of the student's viewpoint specified by the selection table
06a and the current viewpoint mark 407a are displayed in the sub-scene display area 405a.

【0137】処理ステップS267a−3 デフォールトにより決められた視線一致度(相関値)の
最も悪い生徒の視点移動軌跡406aと現在の視点マー
ク407aをサブシーン表示領域表示する。
Processing Step S267a-3 The viewpoint movement locus 406a of the student with the worst eye-gaze coincidence (correlation value) determined by default and the current viewpoint mark 407a are displayed in the sub-scene display area.

【0138】警報機能268は、視線の相関値(集中
度)が所定の値以下に低下した生徒について、警報音発
生および/または集中度表示欄404aおよび/または
サブシーン表示領域405aを点滅表示して教師に報知
する。
The warning function 268 blinks the warning sound generation and / or concentration level display field 404a and / or the sub-scene display area 405a for the student whose eye-gaze correlation value (degree of concentration) has fallen below a predetermined value. And inform the teacher.

【0139】次に、各生徒(受信)のコンピュータシス
テム2における視線表示機能260bについて説明す
る。
Next, the gaze display function 260b of each student (receiving) in the computer system 2 will be described.

【0140】自己視点表示機能261bは、図13を参
照して説明した教師側コンピュータシステム1における
自己視点表示機能261aと同様にして生徒の視点位置
データを取得して視点マーク407bを表示する。
The self viewpoint display function 261b acquires the student's viewpoint position data and displays the viewpoint mark 407b in the same manner as the self viewpoint display function 261a in the teacher computer system 1 described with reference to FIG.

【0141】相手視点表示機能262bは、初期値が
「要」であり、図14を参照して説明したようにして教
師の視点マーク409bを表示する。
The partner viewpoint display function 262b has the initial value “necessary” and displays the teacher's viewpoint mark 409b as described with reference to FIG.

【0142】視点移動軌跡表示機能263bは、初期値
が「要」であり、図15を参照して説明したようにして
教師の視点移動軌跡410bを表示する。
The viewpoint movement trajectory display function 263b has an initial value of "necessary" and displays the teacher's viewpoint movement trajectory 410b as described with reference to FIG.

【0143】このようなコンピュータ支援教育システム
によれば、教師は、生徒の授業態度を把握して講義の方
法を改善(説明速度の調整や参考視覚資料の提示や警告
等)することができ、また、生徒は、視覚資料に対する
教師の注目位置を参考にして視覚資料参照効率を高めた
授業を受けることができるので、効率的な授業を行なう
ことができる。
According to such a computer-assisted education system, the teacher can grasp the student's class attitude and improve the lecture method (adjustment of explanation speed, presentation of reference visual data, warning, etc.) In addition, since the student can take a lesson in which the visual material reference efficiency is enhanced with reference to the teacher's attention position with respect to the visual material, an efficient lesson can be performed.

【0144】このコンピュータ支援教育システムは、一
人の生徒を送信(教師)側に設定し、教師と他の生徒を
受信(生徒)側に設定することにより、生徒からの回答
や提案を報告するために使用することができる。また、
総てのコンピュータシステムを送受信側に設定すること
により、それぞれのコンピュータシステムにおいて視覚
情報と音声を送受信して討論するように構成することも
できる。
This computer-assisted education system is for reporting an answer or a proposal from a student by setting one student on the transmitting (teacher) side and setting the teacher and another student on the receiving (student) side. Can be used for Also,
By setting all the computer systems on the transmitting and receiving sides, it is also possible to configure so that each computer system transmits and receives visual information and voice and discusses.

【0145】このようなときには、相関状態評価機能2
64,相関状態評価結果表示機能265,表示形態選択
機能266,サブシーン表示機能267,警報機能26
8は、教師が使用するコンピュータシステム1において
のみ機能させるようにすることが望ましい。
In such a case, the correlation state evaluation function 2
64, correlation state evaluation result display function 265, display form selection function 266, sub-scene display function 267, alarm function 26
8 preferably functions only in the computer system 1 used by the teacher.

【0146】[0146]

【発明の効果】本発明によれば、次のような効果が得ら
れる。
According to the present invention, the following effects can be obtained.

【0147】1)受信者(生徒)の集中度合いを送信者
(教師)側コンピュータシステムで知ることができるの
で、送信者は、それに応じた情報伝達方法(説明速度の
調整や参考視覚資料の提示や警告等)をとることができ
る。
1) Since the sender (teacher) side computer system can know the degree of concentration of the receiver (student), the sender can use the information transmission method (adjustment of explanation speed and presentation of reference visual data) And warnings).

【0148】2)受信者(生徒)側コンピュータシステ
ムにおけるディスプレイ装置の表示画面に送信者(教
師)の視点マークと視点移動軌跡を表示するようにした
ことにより、受信者(生徒)が送信者(教師)の視点マ
ークを参考にして視覚資料(講義テキスト等)を参照す
ることにより、視覚資料参照効率が向上して情報伝達内
容の理解を促進することができる。
2) The receiver (student) can display the sender's (teacher) 's viewpoint mark and viewpoint movement trajectory on the display screen of the display device in the receiver (student)' s computer system. By referring to the visual material (such as a lecture text) with reference to the teacher's viewpoint mark, the visual material reference efficiency is improved and the understanding of the information transmission content can be promoted.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明になるコンピュータ支援情報伝達システ
ムの模式図である。
FIG. 1 is a schematic diagram of a computer-aided information transmission system according to the present invention.

【図2】本発明になるコンピュータシステムのハードウ
ェアの詳細な構成を示すブロック図である。
FIG. 2 is a block diagram showing a detailed configuration of hardware of a computer system according to the present invention.

【図3】本発明になるコンピュータシステムの機能ブロ
ック図である。
FIG. 3 is a functional block diagram of a computer system according to the present invention.

【図4】本発明になるコンピュータ支援教育システムに
おける機能ブロック図である。
FIG. 4 is a functional block diagram of the computer-aided education system according to the present invention.

【図5】図4に示したコンピュータ支援教育システムに
おける教師側コンピュータシステムが実行するメイン機
能を実現するための処理フローチャートである。
FIG. 5 is a processing flowchart for realizing a main function executed by a teacher-side computer system in the computer-aided education system shown in FIG. 4;

【図6】図4に示したコンピュータ支援教育システムに
おける生徒側コンピュータシステムが実行するメイン機
能を実現するための処理フローチャートである。
FIG. 6 is a processing flowchart for realizing a main function executed by a student-side computer system in the computer-aided education system shown in FIG. 4;

【図7】教師側コンピュータシステム1における視線情
報生成機能220aを実現するための処理フローチャー
トである。
FIG. 7 is a processing flowchart for realizing a line-of-sight information generation function 220a in the teacher-side computer system 1.

【図8】視点位置決定処理の詳細な処理フローチャート
と表示画面区分例である。
FIG. 8 is a detailed processing flowchart of a viewpoint position determination process and an example of display screen division.

【図9】教師の視点位置データの例を示している。FIG. 9 shows an example of teacher's viewpoint position data.

【図10】生徒の視点位置データの例を示している。FIG. 10 shows an example of student's viewpoint position data.

【図11】授業用教師側表示画面の表示例を示してい
る。
FIG. 11 shows a display example of a lesson teacher side display screen.

【図12】授業用生徒側表示画面の表示例を示してい
る。
FIG. 12 shows a display example of a lesson student-side display screen.

【図13】自己視点表示機能を実現するための処理フロ
ーチャートである。
FIG. 13 is a processing flowchart for realizing a self-viewpoint display function.

【図14】相手視点表示機能を実現するための処理フロ
ーチャートである。
FIG. 14 is a processing flowchart for realizing a partner viewpoint display function.

【図15】視点移動軌跡表示機能を実現するための処理
フローチャートである。
FIG. 15 is a processing flowchart for realizing a viewpoint movement locus display function.

【図16】相関状態評価機能を実現するための処理フロ
ーチャートである。
FIG. 16 is a processing flowchart for realizing a correlation state evaluation function.

【図17】相関値計算処理の一例を示す処理フローチャ
ートである。
FIG. 17 is a process flowchart illustrating an example of a correlation value calculation process.

【図18】相関値計処理の他の例を示す処理フローチャ
ートである。
FIG. 18 is a processing flowchart illustrating another example of the correlation value meter processing.

【図19】教師と生徒の視線の相関状態評価結果表示機
能を実現するための処理フローチャートである。
FIG. 19 is a processing flowchart for realizing a function of displaying a result of evaluating the correlation between the eyes of a teacher and a student.

【図20】表示形態選択機能を実現するための処理フロ
ーチャートである。
FIG. 20 is a processing flowchart for realizing a display mode selection function.

【図21】サブシーン表示機能を実現するための処理フ
ローチャートである。
FIG. 21 is a processing flowchart for realizing a sub-scene display function.

【符号の説明】[Explanation of symbols]

1…教師側コンピュータシステム(装置)、2…生徒側
コンピュータシステム(装置)、3…ネットワークシス
テム、4…デイスプレイ装置、5…処理装置、6…送受
信装置、7〜9…カメラ、10…入力装置、11…マイ
クロフォン、12…スピーカ、13…外部記憶装置、1
4…CPU、15…主メモリ、16…画像専用プロセッ
サ、17…画像メモリ。
DESCRIPTION OF SYMBOLS 1 ... Teacher computer system (device), 2 ... Student computer system (device), 3 ... Network system, 4 ... Display device, 5 ... Processing device, 6 ... Transmitting / receiving device, 7-9 ... Camera, 10 ... Input device , 11 microphone, 12 speaker, 13 external storage device, 1
4 CPU, 15 main memory, 16 image dedicated processor, 17 image memory.

フロントページの続き (72)発明者 澤野 裕和 茨城県日立市大みか町五丁目2番1号 日 立プロセスコンピュータエンジニアリング 株式会社内 (72)発明者 高木 陽市 茨城県日立市大みか町五丁目2番1号 日 立プロセスコンピュータエンジニアリング 株式会社内 Fターム(参考) 2C028 AA12 BA01 BA02 BA03 BA05 BB04 BB05 BB06 BC05 BD03 CA12 DA04 DA06 5B049 AA00 BB21 DD00 DD03 FF03 FF06 5B087 AE00 BC05 BC13 BC26 BC32 DG01 5K030 GA18 HA04 HB01 HB02 HC14 JT02 LD08 9A001 CC02 CC08 DD13 JJ74 KK09Continuing from the front page (72) Inventor Hirokazu Sawano 5-2-1 Omikacho, Hitachi City, Ibaraki Prefecture Inside Hitachi Process Computer Engineering Co., Ltd. (72) Inventor Yoichi Takagi 5-2-1 Omikacho Hitachi City, Ibaraki Prefecture F-term (reference) 2C028 AA12 BA01 BA02 BA03 BA05 BB04 BB05 BB06 BC05 BD03 CA12 DA04 DA06 5B049 AA00 BB21 DD00 DD03 FF03 FF06 5B087 AE00 BC05 BC13 BC26 BC32 DG01 5K030 GA02 HA04 HBT01 CC02 CC08 DD13 JJ74 KK09

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】視覚資料情報を送信側コンピュータシステ
ムから受信側コンピュータシステムに伝送して送受信両
側のコンピュータシステムのディスプレイ装置の表示画
面に視覚資料情報を表示し、送信側コンピュータシステ
ムの送信者が前記表示画面に表示した視覚資料情報を参
照しながら音声により説明する音声知識情報を受信側コ
ンピュータシステムに伝達するコンピュータ支援情報伝
達方法において、 送信側コンピュータシステムにおける前記表示画面に対
する前記送信者と受信側コンピュータシステムにおける
前記表示画面に対する受信者の視線方向を検出して両者
の視線情報を取得し、この両者の視線情報の相関状態を
送信側コンピュータシステムにおける表示画面に表示す
ることを特徴とするコンピュータ支援情報伝達方法。
1. A method for transmitting visual material information from a transmitting computer system to a receiving computer system to display the visual material information on a display screen of a display device of each of the transmitting and receiving computer systems. A computer-aided information transmitting method for transmitting voice knowledge information, which is described by voice while referring to visual material information displayed on a display screen, to a receiving computer system, wherein the sender and the receiving computer for the display screen in the transmitting computer system Computer-assisted information, wherein a line-of-sight direction of a receiver with respect to the display screen in the system is detected to obtain line-of-sight information of both, and a correlation state between the two line-of-sight information is displayed on a display screen of the transmitting computer system. Transmission method.
【請求項2】請求項1において、前記両視線情報の一致
の程度が所定値よりも悪くなったときには警報すること
を特徴とするコンピュータ支援情報伝達方法。
2. The computer-aided information transmission method according to claim 1, wherein an alarm is issued when the degree of coincidence of the binocular information becomes worse than a predetermined value.
【請求項3】請求項1において、前記視線情報の相関状
態は、一致の程度が良い順または悪い順に表示すること
を特徴とするコンピュータ支援情報伝達方法。
3. The computer-assisted information transmission method according to claim 1, wherein the correlation state of the line-of-sight information is displayed in the order of goodness or badness.
【請求項4】送信側コンピュータシステムと受信側コン
ピュータシステムを通信回線を介して接続し、視覚資料
情報を送信側コンピュータシステムから受信側コンピュ
ータシステムに伝送して送受信両側のコンピュータシス
テムのディスプレイ装置の表示画面に視覚資料情報を表
示し、送信側コンピュータシステムの送信者が前記表示
画面に表示した視覚資料情報を参照しながら音声により
説明する音声知識情報を受信側コンピュータシステムに
伝達するようにしたコンピュータ支援情報伝達装置にお
いて、 前記送信側コンピュータシステムは、前記表示画面に対
する前記送信者の視線方向を検出して送信者視線情報を
生成する送信者視線情報生成手段と、前記送信者視線情
報を送信する送信者視線情報送信手段を備え、 前記受信側コンピュータシステムは、前記送信者視線情
報を受信する送信者視線情報受信手段と、この送信者視
線情報を受信側コンピュータシステムの表示画面に表示
する送信者視線情報表示手段を備えたことを特徴とする
コンピュータ支援情報伝達装置。
4. A transmission-side computer system and a reception-side computer system are connected via a communication line, and visual data information is transmitted from the transmission-side computer system to the reception-side computer system so that the display devices of the computer systems on both sides of the transmission and reception are displayed. Computer-assisted display of visual material information on a screen, wherein a sender of a transmitting computer system transmits to a receiving computer system audio knowledge information described by voice while referring to the visual material information displayed on the display screen. In the information transmission device, the transmission-side computer system detects a line-of-sight direction of the sender with respect to the display screen to generate sender line-of-sight information, and transmission that transmits the sender line-of-sight information. User line-of-sight information transmitting means; A computer system comprising: sender line-of-sight information receiving means for receiving the sender line-of-sight information; and sender line-of-sight information display means for displaying the sender line-of-sight information on a display screen of a receiving computer system. Support information transmission device.
【請求項5】請求項4において、前記受信側コンピュー
タシステムは、前記表示画面に対する受信者の視線方向
を検出して受信者視線情報を生成する受信者視線情報生
成手段と、前記受信者視線情報を送信する受信者視線情
報送信手段を備え、 前記送信側コンピュータシステムは、前記受信者視線情
報を受信する受信者視線情報受信手段と、この受信者視
線情報を送信側コンピュータシステムの表示画面に表示
する受信者視線情報表示手段を備えたことを特徴とする
コンピュータ支援情報伝達装置。
5. A receiver line-of-sight information generating means for detecting a line-of-sight direction of a receiver with respect to the display screen and generating receiver line-of-sight information according to claim 4, wherein the receiver line-of-sight information The transmission side computer system displays the recipient's line-of-sight information on the display screen of the transmission-side computer system. A computer-aided information transmission device, comprising: receiver line-of-sight information display means.
【請求項6】請求項5において、前記受信者視線情報表
示手段は、送信者視線情報と受信者視線情報の相関状態
を表示画面に表示するようにしたことを特徴とするコン
ピュータ支援情報伝達装置。
6. The computer-aided information transmission device according to claim 5, wherein said receiver line-of-sight information display means displays a correlation state between the sender line-of-sight information and the receiver line-of-sight information on a display screen. .
JP2000041444A 2000-02-15 2000-02-15 Method and device for transmitting computer support information Pending JP2001228785A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000041444A JP2001228785A (en) 2000-02-15 2000-02-15 Method and device for transmitting computer support information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000041444A JP2001228785A (en) 2000-02-15 2000-02-15 Method and device for transmitting computer support information

Publications (1)

Publication Number Publication Date
JP2001228785A true JP2001228785A (en) 2001-08-24

Family

ID=18564686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000041444A Pending JP2001228785A (en) 2000-02-15 2000-02-15 Method and device for transmitting computer support information

Country Status (1)

Country Link
JP (1) JP2001228785A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003228272A (en) * 2002-02-06 2003-08-15 Univ Saga Educational material learning system
JP2011092691A (en) * 2009-10-02 2011-05-12 Kao Corp Beautification support device, beautification counseling method, and visual line tracking data acquisition method
JP2016224142A (en) * 2015-05-28 2016-12-28 富士通株式会社 Evaluation method, program and evaluation system
WO2017028222A1 (en) * 2015-08-18 2017-02-23 常平 Point-and-read machine and control method for point-and-read machine
JP2019168552A (en) * 2018-03-22 2019-10-03 株式会社Jvcケンウッド Learning system and program for learning system
JP2019215731A (en) * 2018-06-13 2019-12-19 富士通株式会社 Concentration evaluation program, device, and method
JP2020123884A (en) * 2019-01-31 2020-08-13 富士通株式会社 Concentration evaluation program, device, and method
WO2021172434A1 (en) * 2020-02-28 2021-09-02 学校法人玉川学園 Information processing device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003228272A (en) * 2002-02-06 2003-08-15 Univ Saga Educational material learning system
US7043194B2 (en) 2002-02-06 2006-05-09 Saga University Learning system
JP2011092691A (en) * 2009-10-02 2011-05-12 Kao Corp Beautification support device, beautification counseling method, and visual line tracking data acquisition method
JP2016224142A (en) * 2015-05-28 2016-12-28 富士通株式会社 Evaluation method, program and evaluation system
WO2017028222A1 (en) * 2015-08-18 2017-02-23 常平 Point-and-read machine and control method for point-and-read machine
JP2019168552A (en) * 2018-03-22 2019-10-03 株式会社Jvcケンウッド Learning system and program for learning system
JP6996379B2 (en) 2018-03-22 2022-01-17 株式会社Jvcケンウッド Learning system and programs for learning system
JP2019215731A (en) * 2018-06-13 2019-12-19 富士通株式会社 Concentration evaluation program, device, and method
JP7139704B2 (en) 2018-06-13 2022-09-21 富士通株式会社 CONCENTRATION EVALUATION PROGRAM, APPARATUS, AND METHOD
JP2020123884A (en) * 2019-01-31 2020-08-13 富士通株式会社 Concentration evaluation program, device, and method
JP7243235B2 (en) 2019-01-31 2023-03-22 富士通株式会社 CONCENTRATION EVALUATION PROGRAM, APPARATUS, AND METHOD
WO2021172434A1 (en) * 2020-02-28 2021-09-02 学校法人玉川学園 Information processing device

Similar Documents

Publication Publication Date Title
Zenner et al. Estimating detection thresholds for desktop-scale hand redirection in virtual reality
WO2017054421A1 (en) Method and device for tweaking virtual reality image
JP5547968B2 (en) Feedback device for instructing and supervising physical movement and method of operating
US8282481B2 (en) System and method for cyber training of martial art on network
WO2022213984A1 (en) Exercise training method and system, and head-mounted vr device
CN106293087B (en) A kind of information interacting method and electronic equipment
JP2016522463A5 (en)
US11442685B2 (en) Remote interaction via bi-directional mixed-reality telepresence
JP2019012965A (en) Video control method, video control device, and video control program
JP2001228785A (en) Method and device for transmitting computer support information
CN111429316A (en) Online learning special attention detection system and method based on augmented reality glasses
JPWO2018051592A1 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
CA2830094C (en) Lifting motion evaluation
CN109255314A (en) Information cuing method, device, intelligent glasses and storage medium
US20190355281A1 (en) Learning support system and recording medium
WO2019188076A1 (en) Information processing device, information processing method, and program
CN109166360A (en) A kind of tutoring system and its method of safety operation equipment
JP2001084375A (en) Operation verification system and non-contact manipulation system
JP2022022664A (en) Education assisting system, method and program
CN108446023B (en) Virtual reality feedback device and positioning method, feedback method and positioning system thereof
Lewis et al. Usability of the remote console for virtual reality telerehabilitation: formative evaluation
US20230226460A1 (en) Information processing device, information processing method, and recording medium
JP7433126B2 (en) Image display system, image display device, server, image display method and program
JP6975347B2 (en) Tracker calibration device, tracker calibration method and program
Arnold et al. Performance of a skilled motor task in virtual and real environments