JP2003296010A - Method of generating effective sound in pen input operation, terminal unit and two-way interactive system - Google Patents

Method of generating effective sound in pen input operation, terminal unit and two-way interactive system

Info

Publication number
JP2003296010A
JP2003296010A JP2002099144A JP2002099144A JP2003296010A JP 2003296010 A JP2003296010 A JP 2003296010A JP 2002099144 A JP2002099144 A JP 2002099144A JP 2002099144 A JP2002099144 A JP 2002099144A JP 2003296010 A JP2003296010 A JP 2003296010A
Authority
JP
Japan
Prior art keywords
input
pen
sound effect
interlocutor
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002099144A
Other languages
Japanese (ja)
Inventor
Toshiaki Kakii
俊昭 柿井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2002099144A priority Critical patent/JP2003296010A/en
Publication of JP2003296010A publication Critical patent/JP2003296010A/en
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method of generating effective sound in the pen input operation and the like for easily organizing or sharing an interactive communication environment between interlocutors. <P>SOLUTION: The pen input operation is performed via an input interface 920 with a prescribed input surface 940 for taking in the information on a coordinate on the input surface 940 equivalent to the contact point between an input pen 930 and the input surface 940 as an electric signal. The presence of the electric signal from the input interface 920 is detected with a prescribed sampling cycle, and the operation of the input pen 930 is specified based on the result of detection of the electric signal. The effective sound corresponding to the specified operation of the input pen 930 is selected from an effective sound group previously prepared by type of operation of the input pen 930 and is reproduced and outputted. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、所定の入力面と
入力ペンとの接触点に相当する該入力面上の座標情報を
電気信号として取り込むための入力インターフェースを
介したペン入力操作の効果音発生方法、端末装置、双方
向対話型システム等に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sound effect of a pen input operation through an input interface for taking in coordinate information on an input surface corresponding to a contact point between a predetermined input surface and the input pen as an electric signal. The present invention relates to a generation method, a terminal device, a two-way interactive system, and the like.

【0002】[0002]

【従来の技術】近年、パーソナルコンピュータ等の情報
処理機器の普及に伴い、これら情報処理機器を利用した
個人学習やカウンセリング等が行われるようになってき
た。また、通信インフラの急速な普及に伴い、英会話や
補習などの伝送手段を介した遠隔地間で、教師と1又は
それ以上の生徒との遠隔学習の形態も着々と構築されて
いる。このような遠隔学習では、教師及び生徒は相手側
対話者の映像を見ながら学習を進行させるため、例え
ば、特許第3074677号に開示された、伝送手段を
介して行われる遠隔学習に適した双方向対話型システム
が知られている。
2. Description of the Related Art In recent years, with the spread of information processing devices such as personal computers, personal learning and counseling using these information processing devices have come to be performed. Further, with the rapid spread of communication infrastructure, a form of distance learning between a teacher and one or more students is steadily established between remote places via transmission means such as English conversation and supplementary training. In such distance learning, the teacher and the student proceed with the learning while watching the image of the interlocutor. Therefore, for example, it is suitable for the distance learning performed through the transmission means disclosed in Japanese Patent No. 3074677. An interactive system is known.

【0003】一方、上述のような遠隔学習においては、
教師は生徒に対して課題の提示や採点、評価といった付
加情報を提供する必要があり、例えば、特許第2970
661号に開示されたように、対話者の映像だけでなく
種々の関連情報の提示できる表示方法も提案されてい
る。
On the other hand, in distance learning as described above,
Teachers need to provide students with additional information such as presentation of tasks, scoring, and evaluation. For example, Japanese Patent No. 2970
As disclosed in Japanese Patent No. 661, there has been proposed a display method capable of presenting not only the image of the interlocutor but also various related information.

【0004】[0004]

【発明が解決しようとする課題】発明者は、上述の従来
技術を詳細に検討した結果、以下のような課題を発見し
た。すなわち、従来の双方向対話型システムなど、情報
処理機器を利用した単独の、あるいは伝送手段を介した
間接的な対話(学習、カウンセリング、プレゼンテーシ
ョン等を含む)では、対話者前方に配置されたモニタ画
面上に複数のウィンドウが表示される。これらウィンド
ウには、相手側対話者像のウィンドウ、スライド表示の
ウィンドウ、ペン入力可能なホワイトボードウィンドウ
等、様々なウィンドウがある。特に、モニタ画面を介し
た間接的な対話では、該モニタ画面上に表示されるウィ
ンドウへのペン入力など、ペン入力の操作音自体が聞こ
えないため、対話者に違和感を与えてしまう。例えば実
際の授業では(教師と生徒との直接対話)、教師が黒板
にチョークで文字等を描く場合に発生する書き込み音
も、授業という教師と生徒との対話環境を構築する上で
の重要な要素であるにも関わらず、従来の双方向対話型
システムではこれら対話者自身の入力動作に関する音響
環境が欠落していた。
DISCLOSURE OF THE INVENTION The inventor has found the following problems as a result of detailed examination of the above-mentioned prior art. That is, in a conventional interactive interactive system or the like, which uses an information processing device alone or indirectly through a transmission means (including learning, counseling, presentation, etc.), a monitor placed in front of the interlocutor. Multiple windows are displayed on the screen. These windows include various windows such as a window for the image of the other party's interlocutor, a window for slide display, and a whiteboard window for pen input. In particular, in an indirect dialogue via the monitor screen, the operation sound itself of the pen input, such as a pen input to a window displayed on the monitor screen, cannot be heard, which gives the interlocutor a feeling of strangeness. For example, in an actual lesson (a direct dialogue between the teacher and the student), the writing sound that occurs when the teacher draws letters with chalk on the blackboard is also an important factor in constructing a lesson-teacher interactive environment. Despite the elements, the conventional interactive interactive system lacks the acoustic environment related to the input actions of these interlocutors themselves.

【0005】この発明は上述のような課題を解決するた
めになされたものであり、直接、間接を問わず対話環境
の構築に寄与する音響データ、特に対話者自身が行うペ
ン入力の操作音を効果音として操作種類ごとに対話者に
提供することで、対話者間で対話環境の構築あるいは共
有を容易に可能にするペン入力操作の効果音発生方法、
それを実現する端末装置、該端末装置を含む双方向対話
型システム、ペン入力操作の効果音発生方法を実現する
コンピュータ・プログラム、及び、該コンピュータプロ
グラムが記録された記録媒体を提供することを目的とし
ている。
The present invention has been made in order to solve the above-mentioned problems, and it provides acoustic data that contributes to the construction of a dialogue environment, directly or indirectly, especially the operation sound of pen input made by the person himself / herself. By providing the interlocutors with sound effects for each type of operation, a sound effect generation method for pen input operation that facilitates the construction or sharing of a dialogue environment among the interlocutors,
An object of the present invention is to provide a terminal device that realizes it, a two-way interactive system including the terminal device, a computer program that realizes a sound effect generation method of a pen input operation, and a recording medium in which the computer program is recorded. I am trying.

【0006】[0006]

【課題を解決するための手段】この発明に係るペン入力
操作の効果音発生方法は、対話環境を構築する上で重要
な要素である音響データのうち、特に対話者が行うペン
入力の操作音を効果音として対話者相互に供給する。こ
のように提供される対話者自身の操作に対応した効果音
は、視覚面だけでなく聴覚面においても、対話者に対し
て自身が置かれている対話場面の心理的構築を効果的に
演出、サポートする。
A method for generating a sound effect of a pen input operation according to the present invention is particularly suitable for a sound input of a pen input made by an interlocutor among acoustic data which is an important factor in constructing a dialogue environment. Is supplied to the interlocutors as a sound effect. The sound effects provided in this way that correspond to the operation of the interlocutor effectively direct the psychological construction of the interactive scene in which they are placed to the interlocutor, not only visually but also auditorily. ,to support.

【0007】具体的に、この発明に係るペン入力操作の
効果音発生方法は、所定の入力面を有し、該入力面と入
力ペンとの接触点に相当する該入力面上の座標情報を電
気信号として取り込むための入力インターフェースを介
したペン入力操作の効果音発生方法である。特に、当該
方法は、入力インターフェースからの電気信号の有無を
所定のサンプリング周期で検出し、この電気信号の検出
結果に基づいて、入力ペンの操作を特定する。そして、
特定された入力ペンの操作に対応する効果音を、予め入
力ペンの操作種類ごとに用意された効果音郡から選択
し、再生出力することを特徴としている。なお、選択さ
れた効果音は、入力ペンの操作特定時あるいは該特定さ
れた操作継続中に再生出力される。
Specifically, the method for generating a sound effect of a pen input operation according to the present invention has a predetermined input surface and stores coordinate information on the input surface corresponding to a contact point between the input surface and the input pen. It is a method of generating a sound effect of a pen input operation via an input interface for capturing as an electric signal. In particular, the method detects the presence or absence of an electric signal from the input interface at a predetermined sampling period, and specifies the operation of the input pen based on the detection result of the electric signal. And
The sound effect corresponding to the specified operation of the input pen is selected from a sound effect group prepared in advance for each operation type of the input pen, and reproduced and output. The selected sound effect is reproduced and output when the operation of the input pen is specified or while the specified operation is continued.

【0008】また、この発明に係るペン入力操作の効果
音再生法において、入力ペンの操作には、少なくとも、
入力面上に入力ペンを接触させる動作、及び、入力面上
を入力ペンが接触した状態でその接触点を移動させる動
作が含まれる。さらに、この発明に係るペン入力操作の
効果音再生法は、入力面上における接触点の移動速度レ
ベルに対応して、異なる効果音を再生出力してもよい。
In the sound effect reproducing method for pen input operation according to the present invention, at least the operation of the input pen is
An operation of bringing the input pen into contact with the input surface and an operation of moving the contact point while the input pen is in contact with the input surface are included. Furthermore, in the sound effect reproducing method of the pen input operation according to the present invention, different sound effects may be reproduced and output according to the moving speed level of the contact point on the input surface.

【0009】上述のように、対話中に対話者が行う操作
の効果音が適宜提供されることにより、対話者は、視覚
面だけでなく聴覚面においても、対話者に対して自身が
置かれている対話場面の心理的構築を効果的に演出、サ
ポートされる。また、このような対話者自身の動作に対
応した効果音が提供されることにより、対話者の感情や
対話環境の雰囲気が相手側対話者にも伝わり易くなり、
対話者間で共通する思考空間(対話環境)の構築が促進
される。
As described above, by appropriately providing the sound effect of the operation performed by the interlocutor during the dialogue, the interlocutor is placed on the interlocutor not only in the visual aspect but also in the auditory aspect. It effectively directs and supports the psychological construction of conversational situations. Further, by providing the sound effect corresponding to the action of the interlocutor himself, it becomes easy to convey the emotion of the interlocutor and the atmosphere of the dialogue environment to the other interlocutor,
The building of a common thinking space (dialogue environment) among the interlocutors is promoted.

【0010】上述のようなペン入力操作の効果音発生方
法は、急速に普及してきたパーソナルコンピュータなど
の情報処理機器により実現可能である、特に、当該ペン
入力操作の効果音発生方法は、所定の伝送手段を介して
相互に映像データや音声データの送受信を行う通信シス
テムにおける端末装置も、この発明に係るペン入力操作
の効果音発生方法を実現する情報処理装置として機能す
る。
The above-described effect sound generation method for pen input operation can be realized by an information processing device such as a personal computer which has been rapidly spread. In particular, the effect sound generation method for pen input operation has a predetermined method. The terminal device in the communication system that mutually transmits and receives the video data and the audio data via the transmission means also functions as an information processing device that realizes the effect sound generation method of the pen input operation according to the present invention.

【0011】すなわち、この発明に係る端末装置は、マ
ルチウィンドウ表示可能な表示部と、ペン入力を可能に
する入力インターフェースと、複数種類の効果音データ
が格納されたデータ・ベース(以下、D/Bという)
と、効果音を出力する出力部と、制御部とを備える。上
記表示部は、1又は2以上のウィンドウを表示する(マ
ルチウィンドウ表示)。上記入力インターフェースは、
所定の入力面を有するとともに、該入力面と入力ペンと
の接触点に相当する該入力面上の座標情報を電気信号と
して出力する。上記出力部は、入力ペンの操作に対応し
た効果音を出力するスピーカー、ヘッドホン、イヤホン
等である。上記D/Bには、入力ペンの操作ごとに予め
用意された複数種類の効果音データが格納されている。
上記制御部は、入力ペンの操作種類に対応した効果音を
出力部により再生出力させる。
That is, the terminal device according to the present invention includes a display unit capable of multi-window display, an input interface capable of pen input, and a data base (hereinafter, referred to as D / Called B)
And an output unit for outputting a sound effect, and a control unit. The display section displays one or more windows (multi-window display). The input interface is
It has a predetermined input surface and outputs coordinate information on the input surface corresponding to a contact point between the input surface and the input pen as an electric signal. The output unit is a speaker, a headphone, an earphone, or the like that outputs a sound effect corresponding to the operation of the input pen. The D / B stores a plurality of types of sound effect data prepared in advance for each operation of the input pen.
The control unit causes the output unit to reproduce and output the sound effect corresponding to the operation type of the input pen.

【0012】特に、上記制御部は、所定のサンプリング
周期で検出されたインターフェースからの電気信号に基
づいて、入力ペンの操作を特定し、特定された該操作に
対応した効果音データをD/Bから読み出し、読み出さ
れた該効果音データをスピーカー等の出力部により再生
出力させる。なお、制御部は、入力ペンの操作として、
少なくとも、入力面上に入力ペンを接触させる動作、及
び、入力面上を入力ペンが接触した状態でその接触点を
移動させる動作を特定する。
In particular, the control unit specifies the operation of the input pen based on the electric signal from the interface detected at a predetermined sampling period, and outputs the sound effect data corresponding to the specified operation to the D / B. The sound effect data thus read is reproduced and output by an output unit such as a speaker. In addition, the control unit, as an operation of the input pen,
At least, an operation of bringing the input pen into contact with the input surface and an operation of moving the contact point while the input pen is in contact with the input surface are specified.

【0013】この発明に係る端末装置において、上記デ
ータ・ベースには、入力面上における接触点の移動速度
レベルごとに用意された、複数種類の効果音データが格
納されるのが好ましい。予め想定される様々な対話環境
に適した効果音の選択が可能になるからである。また、
上記データ・ベースには、表示部に表示されたウィンド
ウごとに用意された、複数種類の効果音データが格納さ
れてもよい。
In the terminal device according to the present invention, it is preferable that the data base stores a plurality of types of sound effect data prepared for each moving speed level of the contact point on the input surface. This is because it is possible to select a sound effect that is suitable for various presumed dialogue environments. Also,
A plurality of types of sound effect data prepared for each window displayed on the display unit may be stored in the database.

【0014】さらに、上述のような構造を備えた端末装
置は、所定の伝送手段を介して遠隔地対話を実現する双
方向対話型システムに適用可能である。特に、このよう
な双方向対話型システムは、各対話者に対し時々変化す
る対話場面を視覚面、聴覚面の双方で演出、サポートす
る上で適している。そして、種々の対話場面に適した効
果音を用意すべく、上記端末装置におけるD/Bには、
入力ペンの操作者及び当該双方向対話型システムに含ま
れる端末装置の少なくともいずれかごとに用意された、
複数種類の効果音データが格納されるのが好ましい。
Further, the terminal device having the above-mentioned structure can be applied to a two-way interactive type system which realizes a remote place interactive via a predetermined transmission means. In particular, such a two-way interactive system is suitable for directing and supporting a dialogue scene that changes from time to time for each interlocutor, both visually and audibly. Then, in order to prepare sound effects suitable for various dialogue scenes, the D / B in the terminal device is
Prepared for at least one of the operator of the input pen and the terminal device included in the two-way interactive system,
It is preferable that a plurality of types of sound effect data are stored.

【0015】なお、上述のようなウィンドウ表示方法
は、コンピュータ等で実行されるプログラムであっても
よく、この場合、当該プログラムは、有線、無線を問わ
ずネットワークを介して配信されてもよく、また、C
D、DVD、フラッシュメモリ等の記録媒体に格納されて
いてもよい。
The window display method as described above may be a program executed by a computer or the like, and in this case, the program may be distributed via a network whether wired or wireless. Also, C
It may be stored in a recording medium such as a D, a DVD, or a flash memory.

【0016】[0016]

【発明の実施の形態】以下、この発明に係るペン入力操
作の効果音発生方法、端末装置、それを含む双方向対話
型システム等の各実施形態について、図1〜図10を用
いて詳細に説明する。なお、図面の説明において、同一
部位には同一符号を付して重複する説明を省略する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of a method for generating a sound effect of a pen input operation, a terminal device, a two-way interactive system including the same, etc. according to the present invention will be described in detail below with reference to FIGS. explain. In the description of the drawings, the same parts will be denoted by the same reference symbols and redundant description will be omitted.

【0017】この発明に係る端末装置は、パーソナルコ
ンピュータなどの情報処理装置であって、この発明に係
るペン入力操作の効果音発生方法を実現する。当該端末
装置は、対話者一人で利用するスタンドアローン型であ
ってもよく、また、例えば所定の伝送手段を介して接続
された端末装置間での遠隔地対話を実現する、例えば特
許第3074677号に記載された双方向対話型システ
ムにも適応可能である。
A terminal device according to the present invention is an information processing device such as a personal computer, and realizes the effect sound generation method of a pen input operation according to the present invention. The terminal device may be a stand-alone type used by one interlocutor, and realizes a remote dialogue between terminal devices connected via a predetermined transmission means, for example, Japanese Patent No. 30744677. It is also applicable to the two-way interactive system described in.

【0018】まず、ここでは、当該端末装置が適応可能
な、上記双方向対話型システムについて説明する。な
お、この双方向対話型システムは、視線一致した状態で
の遠隔地対話を実現するシステムであるが、当該端末装
置は、対話者間で視線一致できない構成であっても相手
側対話者像を表示する双方向対話型システムであれば適
応可能である。
First, the bidirectional interactive system to which the terminal device is applicable will be described. Note that this two-way interactive system is a system that realizes remote dialogue in a state where the line-of-sight coincides with each other. Any interactive interactive display system can be applied.

【0019】図1は、遠隔地に居る対話者間の視線一致
を可能にする双方向対話型システム全体を示す論理構成
図である。このシステムは、A地点(第1地点)にいる
対話者3A(第1対話者)とB地点(第2地点)にいる
対話者3B(第2対話者)との間で双方向対話を実現す
るシステムである。特に、このシステムは遠隔地にいる
対話者間でも親密な信頼関係を確立し綿密なコミュニケ
ーションを実現するカウンセリング・システムや家庭学
習を志向したシステムであるので、少なくとも一方の対
話者として、教師、医師、心理学者などのカウンセラを
想定している。したがって、このシステムはこれらカウ
ンセラがカウンセリングを行うために必要な情報、及び
理想的なカウンセリング環境を提供できるよう種々の機
能及び構成を備える。
FIG. 1 is a logical configuration diagram showing the entire interactive interactive system that enables line-of-sight matching between interlocutors at remote locations. This system realizes a two-way dialogue between an interlocutor 3A (first interlocutor) at point A (first point) and an interlocutor 3B (second interlocutor) at point B (second point). It is a system that does. In particular, this system is a counseling system that establishes intimate relationships of trust even with interlocutors in remote areas and enables close communication, and a system that aims at home learning. , Is supposed to be a counselor such as a psychologist. Therefore, this system has various functions and configurations so that these counselors can provide information necessary for counseling and an ideal counseling environment.

【0020】具体的には、A地点において、(a)対話
者3A(例えはカウンセラ)が座る椅子4A(高さ調節
機構40Aを有する)と、(b)対話者3Aが向かうテ
ーブル2Aと、(c)伝送手段27を介して対話者間の
視線を一致させるための機構を備えた端末装置20Aと
が設置され、対話者3Aはパーティション22Aにより
隔離されている。また、対話者3Aには、対話者撮像用
のCCDカメラ5Aとは別に手元を撮像するためのCC
Dカメラ910Aが取り付けられている。一方、B地点
には、(a)対話者3B(例えばカウンセリングを受け
るクライアント)が座る椅子4Bと(高さ調節機構40
Bを有する)、(b)対話者3Bが向かうテーブル2B
と、(c)伝送手段27を介して対話者間の視線を一致
させるための機構を備えた端末装置20Bとが設置さ
れ、対話者3Bはパーティション22Bにより隔離され
ている。また、対話者3Bにも、対話者撮像用のCCD
カメラ5Bとは別に手元を撮像するためのCCDカメラ
910Bが取り付けられている。ここで、伝送手段27
は、A地点の端末装置20AとB地点の端末装置20B
との間で画像情報及び音声情報の送受信を可能にするた
め、大容量伝送を可能にする光ファイバ伝送路31(主
伝送路)及び衛星通信伝送路32(バックアップ用伝送
路)等を含む。なお、この伝送手段27は有線、無線の
いずれであってもよい。また、伝送手段は、既に敷設さ
れた電話回線網等のネットワークを含み、さらに種々の
データベースを備えた電子掲示板システム(BBS: Bulle
tin Board System)も含む。
Specifically, at the point A, (a) a chair 4A on which the interlocutor 3A (for example, counselor) sits (having a height adjusting mechanism 40A), and (b) a table 2A to which the interlocutor 3A faces, (C) The terminal device 20A having a mechanism for matching the line of sight between the interlocutors via the transmission means 27 is installed, and the interlocutor 3A is isolated by the partition 22A. In addition, the interlocutor 3A has a CC for capturing an image of the hand separately from the CCD camera 5A for capturing the interlocutor.
A D camera 910A is attached. On the other hand, at the point B, (a) a chair 4B on which an interlocutor 3B (for example, a client who receives counseling) sits and a (height adjusting mechanism 40)
B), (b) Table 2B where the interlocutor 3B faces
And (c) a terminal device 20B equipped with a mechanism for matching the lines of sight between the interlocutors via the transmission means 27, and the interlocutor 3B is isolated by the partition 22B. In addition, the interlocutor 3B also has a CCD for imaging the interlocutor.
In addition to the camera 5B, a CCD camera 910B for picking up an image of the hand is attached. Here, the transmission means 27
Is the terminal device 20A at the point A and the terminal device 20B at the point B
An optical fiber transmission line 31 (main transmission line) and a satellite communication transmission line 32 (backup transmission line) that enable large-capacity transmission are included in order to enable transmission and reception of image information and audio information to and from. The transmission means 27 may be wired or wireless. In addition, the transmission means includes a network such as a telephone line network that has already been installed, and an electronic bulletin board system (BBS: Bulle
tin Board System).

【0021】A地点において、上述の椅子4Aは対話者
3Aの位置を規定するために機能する。この椅子4Aは
端末装置20Aの表示部21Aとの距離を一定に保つた
めに固定されるのが好ましい。しかし、該椅子4Aが固
定されていない場合であっても、テーブル2Aを対話者
3Aと表示部21Aに設置することによりこの椅子4A
と表示部21Aとの距離を一定に保つことが可能になる
(テーブル2Aの存在が対話者3Aの心理的な距離の基
準となる事実が確認されている)。なお、相手側の対話
者3B(例えば、カウンセリングを受ける者等)がいる
B地点の端末装置20Bの構成も同様である。
At point A, the chair 4A described above functions to define the position of the interlocutor 3A. This chair 4A is preferably fixed in order to keep a constant distance from the display unit 21A of the terminal device 20A. However, even if the chair 4A is not fixed, the chair 4A can be installed by installing the table 2A on the interlocutor 3A and the display unit 21A.
It becomes possible to maintain a constant distance from the display unit 21A (the fact that the existence of the table 2A serves as a reference for the psychological distance of the interlocutor 3A has been confirmed). The configuration of the terminal device 20B at the point B where the other party's interlocutor 3B (for example, a person who receives counseling) is the same.

【0022】A地点において、端末装置20Aは、(1)
B地点の端末装置20Bから伝送手段27を介して伝送
されてきた画像情報に基づいて対話者3Bの映像などを
表示する、テーブル2Aの上に配置された、モニタTV
1Aを備えた表示部21Aと、(2)CCDカメラ5Aで
撮像された対話者3Aの映像及びCCDカメラ910A
で撮像された手元の映像それぞれを画像情報として取り
込み、B地点の端末装置20Bへ向けて伝送するための
撮像ユニット6Aと、(3)B地点の端末装置20Bから
伝送手段27を介して伝送されてきた音声情報に基づい
て対話者3Bの音声を出力するための音声出力部23A
(スピーカ)と、(4)対話者3Aの音声を音声情報とし
て集音し、B地点の端末装置20Bへ向けて伝送するた
めの音声入力部24A(マイク)を備える。さらに、こ
のシステムはカウンセリング・システムとしてより綿密
なコミュニケーションを実現するため、(5)対話者3A
が文字や図形を入力し、入力された文字や図形を表示部
21Aに表示するとともに、文字図形情報としてB地点
の端末装置20Bへ向けて伝送するための文字図形入力
部25A(キーボード、ポインティング・デバイス、タ
ッチパネルなどのインターフェース)と、(6)上記各構
成要素と伝送手段27との間に設けられ、信号処理、伝
送制御及び映像データの編集作業等を行う映像処理装置
26Aとを備える。なお、B地点の端末装置20Bも、
上述したA地点の端末装置20Aと同様に構成されてお
り、具体的には、表示部21B、CCDカメラ5Bと撮
像ユニット6Bからなる撮像装置600B、音声出力部
23B、音声入力部24B、文字図形入力部25B、及
び映像処理装置26Bを備える。
At the point A, the terminal device 20A (1)
A monitor TV arranged on the table 2A for displaying the image of the interlocutor 3B based on the image information transmitted from the terminal device 20B at the point B via the transmission means 27.
Display unit 21A equipped with 1A, (2) video of interlocutor 3A taken by CCD camera 5A and CCD camera 910A
The image pickup unit 6A for taking in each of the images captured at step 11 as image information and transmitting the image information to the terminal device 20B at the point B, and (3) being transmitted from the terminal device 20B at the point B via the transmission means 27. Voice output unit 23A for outputting the voice of the interlocutor 3B based on the received voice information
(Speaker), and (4) a voice input unit 24A (microphone) for collecting the voice of the interlocutor 3A as voice information and transmitting it to the terminal device 20B at the point B. In addition, this system, as a counseling system, realizes more detailed communication.
Input a character or a graphic, display the input character or graphic on the display unit 21A, and transmit the character or graphic information to the terminal device 20B at the point B as a character or graphic information (keyboard, pointing, (Device, interface such as a touch panel), and (6) a video processing device 26A provided between each of the above-described components and the transmission means 27 and performing signal processing, transmission control, video data editing work, and the like. The terminal device 20B at the point B also
The terminal device 20A at the point A has the same configuration as that of the terminal device 20A. Specifically, the image pickup device 600B including the display unit 21B, the CCD camera 5B and the image pickup unit 6B, the voice output unit 23B, the voice input unit 24B, and the character graphic. The input unit 25B and the video processing device 26B are provided.

【0023】さらに、A地点及びB地点の端末装置20
A、20Bにおいて、撮像装置600A、600B(撮
像手段)の構成を説明する。なお、説明の都合上、A地
点及びB地点の各端末装置20A、20Bに共通する構
成要素について言及する場合には、例えば撮像装置60
0のように、各地点を区別する文字A、Bを省略して説
明する。また、特に説明がされていない場合には、原則
としてA地点の端末装置20Aについて説明しているも
のとして、共通する構成を有するB地点の端末装置20
Bについては重複する説明は省略する。
Further, the terminal devices 20 at the points A and B
In A and 20B, the configurations of the imaging devices 600A and 600B (imaging means) will be described. For convenience of description, when referring to components common to the terminal devices 20A and 20B at points A and B, for example, the imaging device 60
The description will be made by omitting the letters A and B that distinguish each point like 0. In addition, unless specifically described, the terminal device 20A at the point A is described in principle, and the terminal device 20 at the point B having a common configuration is described.
Overlapping description of B is omitted.

【0024】この撮像装置600は、撮像部である超小
型CCDカメラ5(5A)、該CCDカメラ5を支持し
た状態で所定位置に設置するための支持機構10(図2
参照)、及び該CCDカメラ5を制御するための撮像ユ
ニット6(6A)とを備える。モニタTV1(1A)は
テーブル2(2A)の上に載置されており、対話者3
(3A)はこのモニタTV1から距離L(m)離れて置
かれた高さ調整機構40(40A)を備えた椅子4(4
A)に座っている。この距離L(LA)は0.5m以上
5m以下に設定される。撮影される対話者3及びモニタ
TV1間には、外径φ20mm以下,長さ約100mm
の円筒状の超小型CCDカメラ5が設けられている。ま
た、このCCDカメラ5はその撮像方向が撮影される対
話者3に向けられるよう設置されている。そしてカメラ
5で撮像された対話者3の映像は、画像情報として撮像
ユニット6から他方の対話者側に伝送される(伝送手段
27を介してB地点の端末装置20Bに伝送される)。
なお、対話者によっては表示部21と該対話者間の間隔
が弱冠ずれる可能性もある。したがって、このような状
況にも対処すべく、CCDカメラ5は焦点深度の深いも
のを選択するのが好ましい。
This image pickup device 600 includes a microminiature CCD camera 5 (5A) as an image pickup section, and a support mechanism 10 (FIG. 2) for installing the CCD camera 5 in a supported state at a predetermined position.
Reference unit) and an image pickup unit 6 (6A) for controlling the CCD camera 5. The monitor TV 1 (1A) is placed on the table 2 (2A), and the interlocutor 3
(3A) is a chair 4 (4) provided with a height adjusting mechanism 40 (40A) placed at a distance L (m) from the monitor TV 1.
Sitting in A). This distance L (LA) is set to 0.5 m or more and 5 m or less. An outer diameter of 20 mm or less and a length of about 100 mm between the interlocutor 3 and the monitor TV 1 to be photographed.
A cylindrical microminiature CCD camera 5 is provided. Further, the CCD camera 5 is installed so that its imaging direction is directed to the interlocutor 3 who is imaged. Then, the image of the interlocutor 3 imaged by the camera 5 is transmitted as image information from the imaging unit 6 to the other interlocutor side (transmitted to the terminal device 20B at the point B via the transmission means 27).
Depending on the interlocutor, the space between the display unit 21 and the interlocutor may be weakened. Therefore, in order to cope with such a situation, it is preferable that the CCD camera 5 has a deep focal depth.

【0025】次に、超小型CCDカメラ5の具体的な設
置位置を図2を用いて説明する。
Next, a specific installation position of the microminiature CCD camera 5 will be described with reference to FIG.

【0026】まず、撮像装置600の撮像ユニット6は
伝送されてきた他方の対話者の映像を表示するための表
示部21上に設置される。この撮像ユニット6本体には
カメラ5によって撮影された対話者自身の映像(カメラ
ケーブル50を介して撮像ユニット6に取り込まれる)
の表示と、伝送されてきた他方の対話者3Bの映像の表
示を切り換えるための、切り換えスイッチ6aの他、種
々の調節用スイッチ6bが設けられている。なお、スイ
ッチ210はモニタTV1の電源をオン/オフする電源
スイッチ等を含む。CCDカメラ5は、伝送されてきた
他方の対話者3Bの像9が表示されるモニタ画面8の前
方の所定位置に支持機構10(ロボット・アーム)によ
って設置される。なお、このモニタ画面8は4インチ程
度であれば十分に利用できる。
First, the image pickup unit 6 of the image pickup apparatus 600 is installed on the display section 21 for displaying the transmitted image of the other interlocutor. An image of the interlocutor himself / herself taken by the camera 5 is captured in the body of the imaging unit 6 (captured by the imaging unit 6 via the camera cable 50)
In addition to the changeover switch 6a, various adjustment switches 6b are provided for switching between the display of 1) and the display of the transmitted image of the interlocutor 3B. The switch 210 includes a power switch for turning on / off the power of the monitor TV 1. The CCD camera 5 is installed by a support mechanism 10 (robot arm) at a predetermined position in front of the monitor screen 8 on which the transmitted image 9 of the interlocutor 3B is displayed. The monitor screen 8 can be sufficiently used if it has a size of about 4 inches.

【0027】具体的には、CCDカメラ5はモニタ画面
8から前方w(cm)の位置であって、該モニタ画面8
に表示された対話者像9の頭部9a付近に配置される。
円筒状CCDカメラ5の中心軸は、点線で示す対話者像
9の目の位置の上方h(cm)の部位に位置している。
Specifically, the CCD camera 5 is located at a position forward w (cm) from the monitor screen 8, and the monitor screen 8
It is arranged near the head 9a of the interlocutor image 9 displayed in FIG.
The central axis of the cylindrical CCD camera 5 is located at a position h (cm) above the eye position of the interlocutor image 9 shown by the dotted line.

【0028】このように超小型のCCDカメラ5は、大
型モニタTV1の画面8に表示された対話者像9の目の
位置より上の頭部付近に位置しているため、双方向対話
に特別な支障は生じない。例えば、CCDカメラ5が画
面8に表示された対話者像9の目の位置(図中、点線で
示す位置)の上方h=約10(cm)に設けられ、モニ
タTV1および対話者3間の距離Lが約2.5(m)に
設定されているシステム構成の場合、視差角は2.3°
で十分検知限界の視差角3°を下回ることが可能である
(モニタ画面8とCCDカメラ5の間隔wが10(c
m)程度ある場合でも、視差角の変動には特に影響はな
い)。つまり、視線一致時に相手の目(モニタ画面8に
表示された他方の対話者3Bの像の目)がはっきりと見
えれば、その頭部辺りに超小型のカメラ5が設けてあっ
ても、モニタTV1の画面8が大型であれば、双方向対
話に支障はほとんどないことが確認されている。この画
面8の大きさは、実験の結果、横35cm,縦26cm
程度以上の大きさがあれば良好な双方向対話が実現でき
ることも確認されている。なお、相互の対話者が知人同
志であれば、画面の大きさは小さくとも心理的な障害も
少ない傾向を示す結果も得られており、画面サイズに関
しては用途に応じて使いわけるとよい。
As described above, since the microminiature CCD camera 5 is located near the head above the eye position of the interlocutor image 9 displayed on the screen 8 of the large monitor TV 1, it is particularly suitable for two-way dialogue. No trouble will occur. For example, the CCD camera 5 is provided above the eye position (the position shown by the dotted line in the figure) of the interlocutor image 9 displayed on the screen 8 at h = about 10 (cm), and between the monitor TV 1 and the interlocutor 3. In the case of the system configuration in which the distance L is set to about 2.5 (m), the parallax angle is 2.3 °.
It is possible to sufficiently fall below the detection limit parallax angle of 3 ° (the interval w between the monitor screen 8 and the CCD camera 5 is 10 (c
Even if there is about m), there is no particular effect on the variation of the parallax angle). That is, if the eyes of the other party (the eyes of the image of the other interlocutor 3B displayed on the monitor screen 8) can be clearly seen at the time of line-of-sight matching, even if the microminiature camera 5 is provided near the head, the monitor It has been confirmed that if the screen 8 of the TV 1 is large, there is almost no hindrance to the interactive dialogue. As a result of the experiment, the size of this screen 8 is 35 cm in width and 26 cm in height.
It has also been confirmed that good two-way dialogue can be realized if the size is at least a certain level. It should be noted that if mutual interlocutors are acquaintances, there is a result that there is a tendency that there are few psychological obstacles even if the size of the screen is small, and it is advisable to properly use the screen size according to the application.

【0029】さらに、視差角について、図3を用いて説
明する。この明細書において、視差角とは、図3に示さ
れたように、モニタ画面8に表示された対話者像9へ向
けられた、撮影される対話者3の視線と、CCDカメラ
5へ向けられた、該対話者3の視線とがなす角度θを言
う。換言すれば、対話者3の視線に対するCCDカメラ
5の設置位置のずれ角を意味している。また、ここでい
う視線一致とは、昭和42年電気四学会連合大会(N
o.1998)で報告されているように、CCDカメラ
5の設置位置による不自然さの許容限界以下を意味して
いる。定量的には、視差角として、左右方向4.5°以
下(対話者像9の目の中心Aに対し、該像9の両こめか
み側),真上方向12°(像中心Aに対し、像9の頭部
9b側),真下方向8°(像中心Aに対し、像9の胴体
側)以下を視線一致範囲内としている。もちろん、この
視差角は小さい方が良く、左右上下方向3°以下が検知
限界とされている。したがって、CCDカメラ5が設置
可能な領域は、図4に示された円錐領域である。なお、
この円錐領域は、対話者3の目30とモニタ画面8に表
示された対話者像9の中心点A(この実施形態では、対
話者像9の両目の中心を該対話者像9の中心点Aとして
定義している)とを結ぶ該対話者3の視線31に対し、
所定距離L(m)離れた時のモニタ画面8上の視線一致
領域9b、及び、該対話者3の目30の位置とで規定さ
れる。なお、モニタ画面8上に表示される対話者像9の
サイズが小さい場合には、必ずしも該CCDカメラ5と
対話者像9の頭部が重なっている必要はない。むしろ対
話者9の頭部がCCDカメラ5に隠れてしまい見にくく
なる。上述のように視線一致の条件は視差角3°の領域
内にCCDカメラ5と対話者像9の目が存在することで
あり、具体的に画面から50cm離れた位置で約3cm
程度(図2におけるh)である。したがって、この範囲
内であればCCDカメラ5と対話者像9の頭部をずらし
ても視線一致状態は維持される。この対話者像9とCC
Dカメラ5をずらすには、例えばモニタ画面8上におけ
る画像表示位置を調節したり、CCDカメラ5の支持部
を調節してCCDカメラ5自体の位置を変更することに
より実現される。
Further, the parallax angle will be described with reference to FIG. In this specification, the parallax angle means, as shown in FIG. 3, the line of sight of the interlocutor 3 to be photographed, which is directed to the interlocutor image 9 displayed on the monitor screen 8, and the direction of the CCD camera 5. The angle θ formed by the line of sight of the interlocutor 3 is defined. In other words, it means the shift angle of the installation position of the CCD camera 5 with respect to the line of sight of the interlocutor 3. In addition, the line-of-sight matching here means the 4th Japan Electrical Engineers Union Meeting (N)
o. 1998), it means that the unnaturalness due to the installation position of the CCD camera 5 is below the allowable limit. Quantitatively, the parallax angle is 4.5 ° or less in the left and right direction (both temple sides of the image 9 with respect to the eye center A of the interlocutor image 9), and 12 ° directly above (with respect to the image center A, The head 9b side of the image 9) and 8 ° below (the body side of the image 9 with respect to the image center A) or less are within the line-of-sight matching range. Of course, the smaller the parallax angle, the better, and the detection limit is 3 ° or less in the horizontal and vertical directions. Therefore, the area in which the CCD camera 5 can be installed is the conical area shown in FIG. In addition,
This conical area is the center point A of the interlocutor image 9 displayed on the monitor screen 8 and the eye 30 of the interlocutor 3 (in this embodiment, the center of both eyes of the interlocutor image 9 is the center point of the interlocutor image 9). Defined as A), the line of sight 31 of the interlocutor 3 connecting
It is defined by the line-of-sight matching region 9b on the monitor screen 8 and the position of the eye 30 of the interlocutor 3 when the monitor is separated by a predetermined distance L (m). If the size of the interlocutor image 9 displayed on the monitor screen 8 is small, the CCD camera 5 and the head of the interlocutor image 9 do not necessarily have to overlap each other. Rather, the head of the interlocutor 9 is hidden by the CCD camera 5 and becomes difficult to see. As described above, the condition for line-of-sight matching is that the CCD camera 5 and the eyes of the interlocutor image 9 are present in the area with a parallax angle of 3 °, and specifically, about 3 cm at a position 50 cm away from the screen.
The degree (h in FIG. 2). Therefore, within this range, the line-of-sight matching state is maintained even if the CCD camera 5 and the head of the interlocutor image 9 are displaced. This interlocutor image 9 and CC
The D camera 5 can be displaced by, for example, adjusting the image display position on the monitor screen 8 or adjusting the support portion of the CCD camera 5 to change the position of the CCD camera 5 itself.

【0030】図5は、この発明に係るペン入力操作の効
果音発生方法を実現する端末装置の外観を示す図であ
る。なお、以下の説明では、図1に示された双方向対話
型システムに適用される端末装置として説明するが、当
該端末装置は、図1の端末装置20A、20Bのいずれ
にも相当する構成であるため、各構成要素の参照符号に
ついては添え字を省略する。
FIG. 5 is a view showing the external appearance of a terminal device for realizing the effect sound generation method for pen input operation according to the present invention. In the following description, the terminal device is applied to the two-way interactive system shown in FIG. 1, but the terminal device has a configuration corresponding to both the terminal devices 20A and 20B of FIG. Therefore, the subscripts are omitted for the reference numerals of the respective components.

【0031】この端末装置は、複数のウィンドウが表示
されるモニタ画面8を有する表示部21上に、該表示部
21の前方に位置する対話者3を撮像するための撮像装
置600が配置されている。撮像装置600は、撮像部
であるCCDカメラ5と該CCDカメラ5を所定位置で
保持する支持部10と、ケーブル50を介してCCDカ
メラ5で撮像された映像を取り込む撮像ユニット6を備
える。なお、図5中のA1で示された領域は、CCDカ
メラ5の撮像領域である。
In this terminal device, an image pickup device 600 for picking up an image of the interlocutor 3 located in front of the display part 21 is arranged on a display part 21 having a monitor screen 8 on which a plurality of windows are displayed. There is. The image pickup device 600 includes a CCD camera 5 which is an image pickup unit, a support unit 10 which holds the CCD camera 5 at a predetermined position, and an image pickup unit 6 which takes in an image picked up by the CCD camera 5 via a cable 50. The area indicated by A1 in FIG. 5 is an imaging area of the CCD camera 5.

【0032】一方、対話者3は、当該端末装置の入力イ
ンターフェースであるタブレット920に対して入力ペ
ン930を接触させることにより、文字、図形の入力操
作を行う。また、対話者3は、自己のペン入力操作の種
類に応じて出力される効果音を聞くためのヘッドホン9
10(スピーカーでもよい)を装着している。
On the other hand, the interlocutor 3 inputs characters and figures by bringing the input pen 930 into contact with the tablet 920 which is the input interface of the terminal device. In addition, the interlocutor 3 uses the headphones 9 for listening to the sound effect output according to the type of pen input operation performed by the interlocutor 3.
10 (or even a speaker) is attached.

【0033】具体的に、この端末装置は、図6に示され
たように、モニタ等の表示部21(図1に示された双方
向対話型システムにおける表示部21A、21Bに相
当)と、映像処理装置26(図1に示された双方向対話
型システムにおける映像処理装置26A、26Bに相
当)と、外部記録装置700と、マウス等のポインティ
ングデバイス900、入力インターフェースとしてのタ
ブレット920、ペン入力雄差の効果音等の音響データ
を出力するための出力部920(ヘッドホン、スピーカ
ー等)、及び撮像装置を備える。なお、撮像装置は、上
述のように対話者を撮像するための撮像部(CCDカメ
ラ)5及び撮像ユニット6から構成されている。
Specifically, as shown in FIG. 6, this terminal device includes a display unit 21 such as a monitor (corresponding to the display units 21A and 21B in the bidirectional interactive system shown in FIG. 1). The image processing device 26 (corresponding to the image processing devices 26A and 26B in the bidirectional interactive system shown in FIG. 1), the external recording device 700, a pointing device 900 such as a mouse, a tablet 920 as an input interface, and pen input. An output unit 920 (headphones, speakers, etc.) for outputting acoustic data such as a male difference sound effect, and an imaging device are provided. The imaging device is composed of the imaging unit (CCD camera) 5 and the imaging unit 6 for imaging the interlocutor as described above.

【0034】映像処理装置26は、上記撮像装置に含ま
れる撮像ユニット6からの画像情報の取り込みや伝送手
段27を介して相手側対話者像等の画像情報の送受信を
行うためのデータ入出力部261(図中、I/O)と、
ウィンドウ表示動作や対話者が行うペン入力操作の効果
音出力動作などを制御するための制御部263、送受信
される画像情報の他、予め対話者自身が用意した文字デ
ータ、映像データ、効果音データ等を格納しておくため
のデータ・ベース262(図中、D/B)、表示部21
へ制御部263の指示に従って所定のパターンを表示さ
せる描画部264と、マウス等のポインティングデバイ
ス900、タブレット920等からの位置情報の取り込
みや外部記録装置700とのデータ授受を可能にするデ
ータ入出力部265(図中、I/O)、ペン入力用のイ
ンターフェースであるタブレット920、スピーカー等
の出力部910へ音響データを出力するための音源コン
トローラ950を備える。なお、外部記録装置700
は、例えば磁気テープ、CD、光ディスク、ハードディ
スク、DVD、フラッシュメモリ等を含む。また、D/
B262には、対話中に対話者が行うペン入力操作に対
応した効果音データ格納されている。
The video processing device 26 takes in image information from the image pickup unit 6 included in the image pickup device and transmits / receives image information such as the image of the interlocutor on the other side through the transmission means 27. 261 (I / O in the figure),
In addition to the control unit 263 for controlling the window display operation and the sound effect output operation of the pen input operation performed by the interlocutor, the transmitted and received image information, character data, video data, and sound effect data prepared by the interlocutor himself / herself in advance. A database 262 (D / B in the figure) for storing information such as
A drawing unit 264 that displays a predetermined pattern in accordance with an instruction from the control unit 263, and data input / output that enables the reception of position information from the pointing device 900 such as a mouse and the tablet 920, and the exchange of data with the external recording device 700. A unit 265 (I / O in the figure), a tablet 920 that is an interface for pen input, and a sound source controller 950 for outputting acoustic data to an output unit 910 such as a speaker. The external recording device 700
Includes, for example, a magnetic tape, a CD, an optical disk, a hard disk, a DVD, a flash memory and the like. Also, D /
B262 stores sound effect data corresponding to a pen input operation performed by the interlocutor during the dialogue.

【0035】具体的に、伝送手段27を介してI/O2
61が、相手側対話者の画像データを受信すると、制御
部263は、該相手側対話者像を表示部のモニタ画面8
上にウィンドウ表示する。すなわち、制御部263はま
ず、描画部264に対して、表示部21のモニタ画面8
上において予めマウス900等で指定された位置に複数
のウィンドウを表示する。このとき、モニタ画面8上に
表示されるウィンドウのいずれかは、受信した該相手側
対話者像であり、他のウィンドウは、対話進行の補助情
報提示、文字入力等を行うためのウィンドウである。な
お、制御部263による表示制御では、相手側対話者像
の目よりも上方の頭部と表示部21のモニタ画面前方に
予め設置されているCCDカメラ(撮像部)5とが重な
るよう表示位置が調節され、伝送手段27を介した視線
一致状態が確保される。
Specifically, the I / O 2 is transmitted via the transmission means 27.
When 61 receives the image data of the other party's interlocutor, the control section 263 displays the other party's interlocutor image on the monitor screen 8 of the display section.
Show window on top. That is, the control unit 263 first instructs the drawing unit 264 to display the monitor screen 8 of the display unit 21.
A plurality of windows are displayed at a position designated in advance by the mouse 900 or the like. At this time, one of the windows displayed on the monitor screen 8 is the received image of the other party's interlocutor, and the other windows are windows for presenting auxiliary information for dialogue progress, inputting characters, and the like. . In the display control by the control unit 263, the display position is set so that the head above the eyes of the other-side interlocutor image and the CCD camera (imaging unit) 5 previously installed in front of the monitor screen of the display unit 21 overlap. Is adjusted, and the line-of-sight matching state via the transmission means 27 is secured.

【0036】上述のような相手側対話者像のウィンドウ
表示を行いながらの対話中、制御部263は、該対話中
に対話者が行うペン入力操作の効果音を出力部910か
ら再生出力させるよう音源コントローラ910を制御す
る。なお、図7は、対話者が文字、図形を入力する際に
利用される入力インターフェースとしてのタブレット9
20の外観を示す斜視図である。このタブレット920
は、入力ペン930と接触している点の座標情報を電気
信号として検出するため、入力面940が設けられてい
る。制御部263は、入力ペン930をこの入力面94
0に接触させた状態でその接触点を移動させる等のペン
入力操作が行われると、タブレット920から電気信号
から特定される入力面940上の接触点座標情報に基づ
いて、モニタ画面8上に表示されるウィンドウ(手書き
文字入力等が可能なホワイトボードウィンドウ等)内に
所望の文字等を表示させる。
During the dialogue while displaying the image of the other party's interlocutor as described above, the control section 263 causes the output section 910 to reproduce and output the sound effect of the pen input operation performed by the interlocutor during the dialogue. The sound source controller 910 is controlled. Note that FIG. 7 shows a tablet 9 as an input interface used when the interlocutor inputs characters and figures.
20 is a perspective view showing the appearance of 20. FIG. This tablet 920
Is provided with an input surface 940 for detecting coordinate information of a point in contact with the input pen 930 as an electric signal. The control unit 263 moves the input pen 930 to the input surface 94.
When a pen input operation such as moving the contact point in the state of being in contact with 0 is performed, the monitor screen 8 is displayed based on the contact point coordinate information on the input surface 940 identified from the electric signal from the tablet 920. A desired character or the like is displayed in the displayed window (whiteboard window or the like in which handwritten characters can be input).

【0037】具体的に、制御部263における効果音発
生動作(この発明に係るペン入力操作の効果音発生方
法)は、例えば図8に示されたフローチャートのように
実施される。
Specifically, the sound effect generating operation in the control unit 263 (the sound effect generating method of the pen input operation according to the present invention) is carried out, for example, as shown in the flow chart shown in FIG.

【0038】すなわち、制御部263は、I/O265
を介してタブレット920から送られてくる電気信号
(タブレット920の入力面940における入力ペン9
30との接触点の座標情報)の有無を、所定のサンプリ
ング周期Δtで検出する(ステップST1)。
That is, the control unit 263 controls the I / O 265.
An electric signal sent from the tablet 920 via the (the input pen 9 on the input surface 940 of the tablet 920).
Presence / absence of coordinate information of a contact point with 30) is detected at a predetermined sampling period Δt (step ST1).

【0039】タブレット920から入力面940と入力
ペン930の接触点の座標情報を示す電気信号が検出さ
れると、制御部263は、まず、電気信号が先のサンプ
リング時から連続して検出されているかを確認する(ス
テップST2)。これは、タブレット920からの電気
信号の検出結果に基づいて、少なくとも、入力面940
上に入力ペン930を接触させる動作と、入力面940
上を入力ペン930が接触した状態でその接触点を移動
させる動作(対話者による線引動作)を区別するためで
ある。
When the electric signal indicating the coordinate information of the contact point between the input surface 940 and the input pen 930 is detected from the tablet 920, the control unit 263 first detects the electric signal continuously from the previous sampling time. It is confirmed (step ST2). This is based on the detection result of the electric signal from the tablet 920, at least the input surface 940.
When the input pen 930 is brought into contact with the input surface 940,
This is for distinguishing the operation of moving the contact point with the input pen 930 in contact with the upper part (drawing operation by the interlocutor).

【0040】制御部263は、前回サンプリング時にタ
ブレット920からの電気信号を検出していなければ、
入力面940に入力ペン930が接触した時点であると
判断し、D/B262中の予め格納された効果音データ
のうちから、入力面940と入力ペン930との接触動
作に対応した効果音データを読み出す。そして、制御部
263は、音源コントローラ950に対し、この読み出
された効果音データを出力部910に再生出力させるよ
う制御する。例えば、この接触動作では、「ピッー」と
いう効果音を再生出力する。
If the control section 263 has not detected the electric signal from the tablet 920 at the time of the previous sampling,
It is determined that it is the time when the input pen 930 contacts the input surface 940, and the sound effect data corresponding to the contact operation between the input surface 940 and the input pen 930 is selected from the sound effect data stored in the D / B 262 in advance. Read out. Then, the control unit 263 controls the sound source controller 950 to cause the output unit 910 to reproduce and output the read effect sound data. For example, in this contact operation, a sound effect “pi” is reproduced and output.

【0041】一方、制御部263は、前回サンプリング
と同様に今回サンプリングにおいてもタブレット920
から電気信号が検出されると、上述のような接触操作に
続いて行われる線引動作と判断し、入力面940と入力
ペン930の接触点の移動速度を算出する(ステップS
T6)。なお、この移動速度の算出は、まず、前回検出
された接触点座標(X1,Y1)と今回検出された接触
点座標(X2,Y2)との距離ΔD(=((X2−X
1)2+(Y2−Y1)21/2)を算出する(ステップ
ST5)。このように算出された移動距離ΔDは、サン
プリング周期Δtの間に移動下距離であるため、接触点
の移動速度ΔVはΔD/Δtにより与えられる。
On the other hand, the control unit 263 controls the tablet 920 in the current sampling as in the previous sampling.
When an electric signal is detected from the above, it is determined that the drawing operation is performed subsequent to the above-described contact operation, and the moving speed of the contact point between the input surface 940 and the input pen 930 is calculated (step S).
T6). The calculation of the moving speed is performed by first calculating the distance ΔD (= ((X2-X2) between the contact point coordinate (X1, Y1) detected last time and the contact point coordinate (X2, Y2) detected this time.
1) 2 + (Y2-Y1) 2 ) 1/2 ) is calculated (step ST5). Since the moving distance ΔD calculated in this way is the moving downward distance during the sampling period Δt, the moving speed ΔV of the contact point is given by ΔD / Δt.

【0042】D/B262には、上述のように算出され
た移動速度ΔVを複数のレベルに区分して、それぞれの
速度レベルに対応した効果音データが格納されている。
制御部263はこのD/B262に格納された効果音デ
ータから算出された速度レベルに対応した効果音データ
を読み出し、この読み出された効果音データが出力部9
10で再生出力されるよう音源コントローラ950を制
御する(ステップST6)。例えば、制御部263は、
入力面940上における接触点の移動速度レベルが低速
である場合(入力ペン930の線引速度が低い場合)、
低音の「シュー」という効果音を再生出力させ、入力面
940上における接触点の移動速度レベルが高速である
場合高音の「シュー」という効果音を再生出力させる。
In the D / B 262, the moving speed ΔV calculated as described above is divided into a plurality of levels, and the sound effect data corresponding to each speed level is stored.
The control unit 263 reads the sound effect data corresponding to the speed level calculated from the sound effect data stored in the D / B 262, and the read sound effect data is output by the output unit 9.
The sound source controller 950 is controlled so as to be reproduced and output at 10 (step ST6). For example, the control unit 263
When the moving speed level of the contact point on the input surface 940 is low (when the drawing speed of the input pen 930 is low),
When the moving speed level of the contact point on the input surface 940 is high, the low-pitched sound effect “Shoo” is reproduced and output.

【0043】なお、上述のように接触点の移動速度レベ
ルに応じた効果音は、予めD/B262に格納された、
基準となる効果音データの音程、音色を音源コントロー
ラ950で調節することによっても生成できる。勿論、
このようなペン入力操作の効果音は、対話環境の構築に
必要な環境音であるが、対話や該対話中に再生されてい
るBGMが聞こえ難くなる程度の音量では、各対話者に
不快感を与えるため、極力自然に対話者が認識できる程
度の音量であるのが好ましい。
The effect sound corresponding to the moving speed level of the contact point is stored in the D / B 262 in advance as described above.
It can also be generated by adjusting the pitch and tone color of the reference sound effect data with the sound source controller 950. Of course,
The sound effect of such a pen input operation is an environmental sound necessary for constructing a dialogue environment, but at a volume that makes it difficult to hear the dialogue and the BGM reproduced during the dialogue, each interlocutor feels uncomfortable. Therefore, it is preferable that the volume is as natural as possible for the interlocutor to recognize.

【0044】図9は、制御部263によりマルチウィン
ドウ表示制御されたモニタ画面8の表示状態を示す。こ
の図9に示されたモニタ画面8では、相手側対話者像を
表示するウィンドウ800AがCCDカメラ5と重なる
よう表示(視線一致状態)される一方、タブレット92
0からのペン入力操作による手書き図形、文字が直接表
示されるホワイトボードウィンドウ800Bが表示され
ている。
FIG. 9 shows a display state of the monitor screen 8 under the multi-window display control by the control unit 263. On the monitor screen 8 shown in FIG. 9, a window 800A for displaying the image of the other party's interlocutor is displayed so as to overlap with the CCD camera 5 (line-of-sight match state), while the tablet 92 is displayed.
A whiteboard window 800B in which handwritten figures and characters by a pen input operation from 0 are directly displayed is displayed.

【0045】このように、表示部21のモニタ画面8に
は、複数のウィンドウが表示されるが、この表示される
ウィンドウによっても対話者に与える心理的対話環境が
影響される。そのため、時々変化する対話の主題に合致
したウィンドウに対応して、D/B262に格納される
効果音データを用意するか、あるいは、音源コントロー
ラ950により音程、音色を調節すれば、異なる対話場
面を容易に構築することができる。なお、音源コントロ
ーラ950により調節される音程、音色等の効果音変化
のバリエーションは、対話者自身が選択してもよく、こ
の場合、より個性的な対話演出が可能になる。
As described above, a plurality of windows are displayed on the monitor screen 8 of the display unit 21, and the displayed windows also affect the psychological dialog environment given to the interlocutor. Therefore, if the sound effect data stored in the D / B 262 is prepared corresponding to the window that matches the subject of the dialogue that changes from time to time, or if the pitch and tone color are adjusted by the sound source controller 950, different dialogue scenes can be created. Easy to build. It should be noted that the variation of the sound effect variation such as the pitch and the tone color adjusted by the sound source controller 950 may be selected by the interlocutor himself, and in this case, a more individual dialogue effect is possible.

【0046】さらに、図10には、上述のようなペン入
力操作の効果音発生方法を実現する端末装置が適用され
た双方向対話型システムを示す図である。図10の双方
向対話型システムのように、一方の対話者3Aが存在す
る端末装置では、入力インターフェースとしてタブレッ
ト920Aが設けられており、対話者3Aは入力ペン9
30Aを該タブレット940Aの入力面940Aに接触
させることにより、所望の文字、図形等の手書き情報を
映像処理装置26Aへ送る。映像処理部26Aでは、該
対話者3Aのペン入力操作の種類に応じて効果音を出力
するとともに、相手側対話者3Bの端末装置にも伝送手
段27を介して送信する。
Further, FIG. 10 is a diagram showing a two-way interactive system to which a terminal device for realizing the above-described effect sound generation method for pen input operation is applied. In the terminal device in which one of the interlocutors 3A exists, like the two-way interactive system in FIG. 10, a tablet 920A is provided as an input interface, and the interlocutor 3A uses the input pen 9
By bringing 30A into contact with the input surface 940A of the tablet 940A, handwritten information such as desired characters and figures is sent to the video processing device 26A. The video processing unit 26A outputs a sound effect according to the type of pen input operation of the interlocutor 3A, and also transmits it to the terminal device of the interlocutor 3B via the transmission means 27.

【0047】一方、相手側対話者3Bの端末装置でも、
同様に、入力インターフェースとしてタブレット920
Bが設けられており、相手側対話者3Bは入力ペン93
0Bを該タブレット940Bの入力面940Bに接触さ
せることにより、所望の文字、図形等の手書き情報を映
像処理装置26Bへ送る。映像処理部26Bでは、該相
手側対話者3Bのペン入力操作の種類に応じて効果音を
出力するとともに、対話者3Aの端末装置にも伝送手段
27を介して送信する。図10中、CA1、CA2で示
された領域は、各対話者3A、3Bそれぞれの端末装置
におけるCCDカメラ5A、5Bの撮像領域である。
On the other hand, in the terminal device of the other party's interlocutor 3B,
Similarly, the tablet 920 is used as an input interface.
B is provided, and the other party's interlocutor 3B uses the input pen 93
By touching 0B with the input surface 940B of the tablet 940B, handwritten information such as desired characters and figures is sent to the video processing device 26B. The video processing unit 26B outputs a sound effect according to the type of pen input operation of the other party's interlocutor 3B and also transmits it to the terminal device of the interlocutor 3A via the transmission means 27. Areas CA1 and CA2 in FIG. 10 are imaging areas of the CCD cameras 5A and 5B in the terminal devices of the interlocutors 3A and 3B, respectively.

【0048】なお、各対話者の端末装置におけるデータ
・ベースには、入力ペンの操作者(対話者自身)及び当
該双方向対話型システムに含まれる端末装置の少なくと
もいずれかごとに用意された、複数種類の効果音データ
が格納されてもよい。
The data base in the terminal device of each interlocutor is prepared for at least one of the operator of the input pen (interlocutor himself) and the terminal device included in the interactive system. Plural types of sound effect data may be stored.

【0049】[0049]

【発明の効果】以上のようにこの発明によれば、対話中
の対話者自身が行うペン入力操作に応じて異なる効果音
を発生するので、対話者は、視覚面だけでなく聴覚面に
おいても、対話者に対して自身が置かれている対話場面
の心理的構築を効果的に演出、サポートされる。また、
このような対話者自身の動作に対応した効果音が提供さ
れることにより、対話者の感情や対話環境の雰囲気が相
手側対話者にも伝わり易くなり、対話者間で共通する志
向空間(対話環境)の形成が促進されるという効果があ
る。
As described above, according to the present invention, a different sound effect is generated according to a pen input operation performed by the interlocutor himself / herself during the dialogue, so that the interlocutor can see not only the visual aspect but also the auditory aspect. , It effectively directs and supports the psychological construction of the dialogue scene in which the person is placed. Also,
By providing sound effects corresponding to the actions of the interlocutors themselves, the emotions of the interlocutors and the atmosphere of the dialogue environment can be easily communicated to the other interlocutors, and the common space (interaction This has the effect of promoting the formation of the environment).

【図面の簡単な説明】[Brief description of drawings]

【図1】遠隔地間において伝送手段を介して視線一致を
実現する双方向対話型システムの一構成を示す図であ
る。
FIG. 1 is a diagram showing a configuration of a two-way interactive system that realizes line-of-sight matching between remote places via transmission means.

【図2】図1に示された撮像装置を示す図であって、視
線一致のためのCCDカメラの設置方法を説明するため
の図である。
FIG. 2 is a diagram showing the image pickup device shown in FIG. 1, and a diagram for explaining a method of installing a CCD camera for line-of-sight matching.

【図3】視差角を説明するための図である。FIG. 3 is a diagram illustrating a parallax angle.

【図4】CCDカメラが設置されるべき領域を示す図で
ある。
FIG. 4 is a diagram showing an area where a CCD camera is to be installed.

【図5】この発明に係るペン入力の操作音発生方法を実
現する端末装置(この発明に係る端末装置)の外観を示
す図である。
FIG. 5 is a diagram showing an external appearance of a terminal device (terminal device according to the present invention) that realizes a pen input operation sound generation method according to the present invention.

【図6】この発明に係る端末装置の構成を示す図であ
る。
FIG. 6 is a diagram showing a configuration of a terminal device according to the present invention.

【図7】この発明に係る端末装置における入力手段とし
てのタブレットの概観を示す図である。
FIG. 7 is a diagram showing an overview of a tablet as an input means in the terminal device according to the present invention.

【図8】この発明に係るペン入力の操作音発生方法の動
作を説明するためのフローチャートである。
FIG. 8 is a flowchart for explaining the operation of the pen input operation sound generation method according to the present invention.

【図9】この発明に係るペン入力の操作音発生方法を実
現する端末装置(この発明に係る端末装置)におけるモ
ニタ画面の例を示す図である。
FIG. 9 is a diagram showing an example of a monitor screen in a terminal device (terminal device according to the present invention) that realizes a pen input operation sound generation method according to the present invention.

【図10】図1に示された双方向対話型システムにおい
て、この発明に係るペン入力の操作音発生方法が適用さ
れた実施形態を説明するための概念図である。
10 is a conceptual diagram for explaining an embodiment to which the pen input operation sound generation method according to the present invention is applied in the two-way interactive system shown in FIG.

【符号の説明】[Explanation of symbols]

8…モニタ画面、21(21A、21B)…表示部、3
(3A、3B)…対話者A、B、5A、5B、910
A、910B…CCDカメラ(撮像部)、6(6A、6
B)…撮像ユニット、600(600A、600B)…
撮像装置、26(26A、26B)…映像処理装置、2
0(20A、20B)…端末装置、262…D/B、2
63…制御部、900…マウス(ポインティング・デバ
イス)、910…ヘッドホン(スピーカー)、920、
920A、920B…タブレット、930、930A、
930B…入力ペン、940、940A、940B…入
力面。
8 ... Monitor screen, 21 (21A, 21B) ... Display section, 3
(3A, 3B) ... Interlocutors A, B, 5A, 5B, 910
A, 910B ... CCD camera (imaging unit), 6 (6A, 6)
B) ... Imaging unit, 600 (600A, 600B) ...
Imaging device, 26 (26A, 26B) ... Image processing device, 2
0 (20A, 20B) ... Terminal device, 262 ... D / B, 2
63 ... Control unit, 900 ... Mouse (pointing device), 910 ... Headphones (speaker), 920,
920A, 920B ... Tablet, 930, 930A,
930B ... Input pen, 940, 940A, 940B ... Input surface.

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 所定の入力面を有し、該入力面と入力ペ
ンとの接触点に相当する該入力面上の座標情報を電気信
号として取り込むための入力インターフェースを介した
ペン入力操作の効果音発生方法であって、 前記入力インターフェースからの電気信号の有無を所定
のサンプリング周期で検出し、 前記電気信号の検出結果に基づいて、前記入力ペンの操
作を特定し、 特定された前記入力ペンの操作に対応する効果音を、予
め入力ペンの操作種類ごとに用意された効果音郡から選
択し、 選択された効果音を、前記入力ペンの操作特定時あるい
は該特定された操作継続中、再生出力するペン入力操作
の効果音発生方法。
1. An effect of a pen input operation via an input interface which has a predetermined input surface and takes in coordinate information on the input surface corresponding to a contact point between the input surface and the input pen as an electric signal. A sound generation method, wherein presence / absence of an electric signal from the input interface is detected at a predetermined sampling period, operation of the input pen is specified based on a detection result of the electric signal, and the specified input pen is detected. A sound effect corresponding to the operation of the input pen is selected from a sound effect group prepared in advance for each operation type of the input pen, and the selected sound effect is specified when the operation of the input pen is specified or while the specified operation is continued, Method of generating sound effect of pen input operation for playback output.
【請求項2】 前記入力ペンの操作には、少なくとも、
前記入力面上に前記入力ペンを接触させる動作、及び、
前記入力面上を前記入力ペンが接触した状態でその接触
点を移動させる動作が含まれることを特徴とする請求項
1記載のペン入力操作の効果音発生方法。
2. The operation of the input pen is at least
An operation of bringing the input pen into contact with the input surface, and
The method for generating a sound effect of a pen input operation according to claim 1, further comprising an operation of moving a contact point of the input pen in a state of being in contact with the input surface.
【請求項3】 前記入力面上における前記接触点の移動
速度レベルに対応して、異なる効果音を再生出力するこ
とを特徴とする請求項1又は2記載のペン入力操作の効
果音発生方法。
3. The method for generating a sound effect of a pen input operation according to claim 1, wherein different sound effects are reproduced and output according to a moving speed level of the contact point on the input surface.
【請求項4】 1又は2以上のウィンドウを表示可能な
表示部と、 所定の入力面を有するとともに、該入力面と入力ペンと
の接触点に相当する該入力面上の座標情報を電気信号と
して取り込むための入力インターフェースと、 前記入力ペンの操作に対応した効果音を出力する出力部
と、 前記入力ペンの操作ごとに予め用意された複数種類の効
果音データが格納されたデータ・ベースと、 前記入力ペンの操作種類に対応した効果音を前記出力部
により再生出力させる制御部を備えるとともに、 前記制御部は、所定のサンプリング周期で検出された前
記インターフェースからの電気信号に基づいて、前記入
力ペンの操作を特定し、特定された該操作に対応した効
果音データを前記データ・ベースから読み出し、読み出
された該効果音データを前記出力部により再生出力させ
る端末装置。
4. A display unit capable of displaying one or more windows and a predetermined input surface, and electric information indicating coordinate information on the input surface corresponding to a contact point between the input surface and the input pen. An input interface for capturing as input, an output unit that outputs a sound effect corresponding to the operation of the input pen, and a data base that stores a plurality of types of sound effect data prepared in advance for each operation of the input pen A control unit that causes the output unit to reproduce and output a sound effect corresponding to the operation type of the input pen, and the control unit, based on an electrical signal from the interface detected at a predetermined sampling cycle, The operation of the input pen is specified, the sound effect data corresponding to the specified operation is read from the data base, and the read sound effect data is forwarded. Terminal apparatus for reproduction output by the output unit.
【請求項5】 前記制御部は、前記入力ペンの操作とし
て、少なくとも、前記入力面上に前記入力ペンを接触さ
せる動作、及び、前記入力面上を前記入力ペンが接触し
た状態でその接触点を移動させる動作を特定することを
特徴とする請求項4記載の端末装置。
5. The control unit includes, as the operation of the input pen, at least an operation of bringing the input pen into contact with the input surface, and a contact point with the input pen in contact with the input surface. The terminal device according to claim 4, wherein an operation of moving the terminal is specified.
【請求項6】 前記データ・ベースには、前記入力面上
における前記接触点の移動速度レベルごとに用意され
た、複数種類の効果音データが格納されていることを特
徴とする請求項4又は5記載の端末装置。
6. The data base stores a plurality of types of sound effect data prepared for each moving speed level of the contact point on the input surface. 5. The terminal device according to item 5.
【請求項7】 前記データ・ベースには、前記表示部に
表示されたウィンドウごとに用意された、複数種類の効
果音データが格納されていることを特徴とする請求項4
〜6のいずれか一項記載の端末装置。
7. The data base stores a plurality of types of sound effect data prepared for each window displayed on the display unit.
7. The terminal device according to claim 6.
【請求項8】 所定の伝送手段を介して遠隔地対話を実
現する双方向対話型システムであって、請求項4〜7の
いずれか一項記載の端末装置を含む双方向対話型システ
ム。
8. A two-way interactive system that realizes remote interaction via a predetermined transmission means, and includes the terminal device according to any one of claims 4 to 7.
【請求項9】 前記端末装置におけるデータ・ベースに
は、前記入力ペンの操作者及び当該双方向対話型システ
ムに含まれる端末装置の少なくともいずれかごとに用意
された、複数種類の効果音データが格納されていること
を特徴とする請求項8記載の双方向対話型システム。
9. The data base of the terminal device includes a plurality of types of sound effect data prepared for at least one of the operator of the input pen and the terminal device included in the two-way interactive system. 9. The interactive system of claim 8, wherein the interactive system is stored.
【請求項10】 コンピュータにより請求項1〜3のい
ずれか一項記載の方法を実行するコンピュータプログラ
ム。
10. A computer program for performing the method according to claim 1 by a computer.
【請求項11】 コンピュータにより請求項1〜3のい
ずれか一項記載の方法を実行するコンピュータプログラ
ムが記録された記録媒体。
11. A recording medium on which a computer program for executing the method according to claim 1 is recorded by a computer.
JP2002099144A 2002-04-01 2002-04-01 Method of generating effective sound in pen input operation, terminal unit and two-way interactive system Pending JP2003296010A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002099144A JP2003296010A (en) 2002-04-01 2002-04-01 Method of generating effective sound in pen input operation, terminal unit and two-way interactive system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002099144A JP2003296010A (en) 2002-04-01 2002-04-01 Method of generating effective sound in pen input operation, terminal unit and two-way interactive system

Publications (1)

Publication Number Publication Date
JP2003296010A true JP2003296010A (en) 2003-10-17

Family

ID=29388094

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002099144A Pending JP2003296010A (en) 2002-04-01 2002-04-01 Method of generating effective sound in pen input operation, terminal unit and two-way interactive system

Country Status (1)

Country Link
JP (1) JP2003296010A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020204814A (en) * 2019-06-14 2020-12-24 任天堂株式会社 Information processing program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020204814A (en) * 2019-06-14 2020-12-24 任天堂株式会社 Information processing program
JP7125920B2 (en) 2019-06-14 2022-08-25 任天堂株式会社 Information processing program
US11439907B2 (en) 2019-06-14 2022-09-13 Nintendo Co., Ltd. Audio feedback that varies based on direction of input stroke

Similar Documents

Publication Publication Date Title
US7352385B2 (en) Video editing system, video editing method, recording/reproducing method of visual information, apparatus therefor, and communication system
US20150312520A1 (en) Telepresence apparatus and method enabling a case-study approach to lecturing and teaching
US20080180519A1 (en) Presentation control system
JP2005033811A (en) Communication system, system to facilitate conferencing, communication device, and method for conducting conference
US20120077172A1 (en) Presentation system
JP3660198B2 (en) Three-dimensional shared virtual space display method, three-dimensional shared virtual space communication system and method, virtual conference system, and recording medium recording user terminal program therefor
JP2003186593A (en) Multiwindow display method and system thereof
US20110267421A1 (en) Method and Apparatus for Two-Way Multimedia Communications
KR20210022579A (en) Information processing device and information processing method, and information processing system
JP2003296010A (en) Method of generating effective sound in pen input operation, terminal unit and two-way interactive system
JP2004007561A (en) Video conference system, terminal equipment included in the same system, and data distributing method
JP3027983B2 (en) Two-way interactive system
JP3074679B2 (en) Two-way interactive system
JP2003333561A (en) Monitor screen displaying method, terminal, and video conference system
JP2007221437A (en) Remote conference system
JP4632132B2 (en) Language learning system
JP3074677B2 (en) A two-way interactive system having a mechanism for matching eyes between interlocutors via transmission means
JP6849228B2 (en) Classroom system
JP4329300B2 (en) Multi-window display method
JPH09130768A (en) Two-way interactive system provided with device matching lines of sight of interactive parties via transmission means, terminal equipment and image pickup device
WO2003049064A1 (en) Interactive teaching / learning system
JP2970661B2 (en) How to display a monitor image
Takahashi et al. A case study of an automatic volume control interface for a telepresence system
JP2005278147A (en) Image communication system
US20230421866A1 (en) Server apparatus of distribution system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070904

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080108