JP2007066081A - Electronic conference device, and electronic conference device control program - Google Patents

Electronic conference device, and electronic conference device control program Download PDF

Info

Publication number
JP2007066081A
JP2007066081A JP2005252322A JP2005252322A JP2007066081A JP 2007066081 A JP2007066081 A JP 2007066081A JP 2005252322 A JP2005252322 A JP 2005252322A JP 2005252322 A JP2005252322 A JP 2005252322A JP 2007066081 A JP2007066081 A JP 2007066081A
Authority
JP
Japan
Prior art keywords
display
data
image
highlighting
electronic conference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005252322A
Other languages
Japanese (ja)
Inventor
Junichi Maeda
順一 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2005252322A priority Critical patent/JP2007066081A/en
Publication of JP2007066081A publication Critical patent/JP2007066081A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To notify another person clearly of an object pointed in a display screen. <P>SOLUTION: The electronic conference device 1 designates a fixed range of an image displayed on a display device according to input operation received from personal computers 2, 3 and 4 and a PDA 5 through a network, generates an object based on the corresponding partial image, and also stores a display image that is ranged as a whole image in association with the object. The electronic conference device 1 displays the object with the whole image. When the displayed object is selected by input operation by a pointing device or the like, the selected object is highlighted in a special format. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、会議の出席者が使用している情報機器間でデータを共有することで会議を支援するための電子会議装置、電子会議装置制御プログラムに関する。   The present invention relates to an electronic conference device and an electronic conference device control program for supporting a conference by sharing data among information devices used by attendees of the conference.

従来、会議を電子的に支援するためのシステムが考えられている(例えば特許文献1,2)。   Conventionally, systems for electronically supporting a conference have been considered (for example, Patent Documents 1 and 2).

特許文献1に記載された電子支援装置は、会議出席者が情報処理装置を介して送信した個人の知識である情報を会議出席者全員で共有化するための情報共有領域と、共有化された知識である情報の構造を編集するための選択表示領域とを明確に区別し、会議出席者が共通に視認することができる表示装置に表示し、このように表示装置に表示された状態で、情報共有領域に表示されたオブジェクト(ファイルアイコン、一時的にコピーされた情報(文字列、画像など))の中から所定のオブジェクトが指定されると、この指定されたオブジェクトを選択表示領域の所望の位置に表示することができる。   The electronic support device described in Patent Document 1 is shared with an information sharing area for sharing information, which is personal knowledge transmitted by the conference attendee via the information processing device, with all the conference attendees. Clearly distinguish it from the selected display area for editing the structure of information that is knowledge, and display it on a display device that can be commonly viewed by attendees of the conference, and in this state displayed on the display device, When a predetermined object is specified from the objects displayed in the information sharing area (file icon, temporarily copied information (character string, image, etc.)), the specified object is selected in the selection display area. Can be displayed at the position.

これにより、一の会議出席者により提供された情報が更新されたことを他の会議出席者や会議の進行役は容易に認知することができ、提供された情報は選択表示領域には直接表示されないことから各情報処理装置での同期処理は必要ないので、議論の進行を妨げることなく会議を運営することができる。   This allows other meeting attendees and meeting facilitators to easily recognize that the information provided by one meeting attendee has been updated, and the provided information is displayed directly in the selection display area. Since no synchronization processing is required in each information processing apparatus, the conference can be operated without hindering the progress of the discussion.

特許文献2に記載された電子会議システムは、複数のクライアントが1つのサーバに接続され、各クライアントがサーバにある情報を閲覧あるいは編集可能なサーバ/クライアント型の電子会議システムであって、サーバは文書の表示画面データを記憶するための複数の画面バッファを備え、各画面バッファ毎に、複数のクライアントが表示画面データを同時に表示できる共有画面モード、あるいは1つのクライアントのみが表示画面データを表示できる個別画面モードのいずれかのモードを選択し、共有画面モードにあるサーバの画面バッファと個別画面モードにあるサーバの画面バッファの両方に同じ文書データを記憶している場合に、1つのクライアントにおいて個別画面モードにあるサーバの画面バッファに記憶された文書データに対して編集操作を行うと、該操作に対応した所定のタイミング毎に、編集操作と同じ編集操作が共有画面モードにあるサーバの画面バッファに記憶された文書データに対して行われる。   The electronic conference system described in Patent Document 2 is a server / client type electronic conference system in which a plurality of clients are connected to one server, and each client can view or edit information on the server. A plurality of screen buffers for storing display screen data of a document are provided, and for each screen buffer, a shared screen mode in which a plurality of clients can simultaneously display the display screen data, or only one client can display the display screen data. When one of the individual screen modes is selected and the same document data is stored in both the server screen buffer in the shared screen mode and the server screen buffer in the individual screen mode, each client individually Document data stored in the screen buffer of the server in screen mode When editing operation and, at every predetermined timing corresponding to the operation, performed on the document data which the same editing operation and editing operation is stored in the screen buffer of the server in the shared-screen mode.

これにより、個々の端末で、共有文書に対する追記、編集などを行う際に、他人に不要なあるいは他人に見られたくない部分は全ての端末で共有されないため、他人の目を気にせずに共有文書に対して追記、編集することができ、会議出席者などのユーザの利便性を向上することができる。
特開2003−281066号公報 特開2003−281101号公報
As a result, when adding or editing a shared document on an individual device, parts that are not needed by others or that are not desired to be seen by others are not shared by all devices, so they can be shared without worrying about the eyes of others. A document can be added and edited, and the convenience of users such as conference attendees can be improved.
JP 2003-28166 A JP 2003-281101 A

特許文献1,2に記載された装置(システム)では、画面中に表示されたオブジェクトを指し示す場合には、マウスやタッチパネルなどのポインティングデバイスを操作し、カーソルなどを所望のオブジェクトに移動させることによって行われる。   In the devices (systems) described in Patent Documents 1 and 2, when pointing to an object displayed on the screen, a pointing device such as a mouse or a touch panel is operated to move the cursor to a desired object. Done.

一般にホワイトボードやスクリーン上のオブジェクトを指し示す場合、レーザポインタなどが使用されている。レーザポインタであれば高い輝度を有しているため、指し示しているオブジェクトを容易に認識することができるが、マウスカーソルではレーザポインタのような高い輝度を有してないため、どのオブジェクトを指し示しているのかわかりにくい場合があった。   In general, a laser pointer or the like is used when pointing to an object on a whiteboard or screen. Since the laser pointer has high brightness, you can easily recognize the object you are pointing to, but the mouse cursor does not have high brightness like the laser pointer. Sometimes it was difficult to tell if

本発明の課題は、表示画面中で指し示したオブジェクトを明確に他者に認識させることが可能な電子会議装置、電子会議装置制御プログラムを提供することにある。   An object of the present invention is to provide an electronic conference apparatus and an electronic conference apparatus control program that allow an object pointed on a display screen to be clearly recognized by others.

請求項1記載の発明は、表示装置に表示された画像の一定範囲を指定する範囲指定手段と、前記範囲指定手段により指定された範囲に該当する部分画像をもとにオブジェクトを生成するオブジェクト生成手段と、前記オブジェクト生成手段により生成されたオブジェクトを記憶するオブジェクト記憶手段と、前記範囲指定手段による範囲指定の対象となった表示画像を前記オブジェクト記憶手段に記憶されたオブジェクトと関連づけて全体画像として記憶する全体画像記憶手段と、前記オブジェクト記憶手段により記憶されたオブジェクトを表示するオブジェクト表示手段と、前記オブジェクト表示手段により表示されたオブジェクトを選択するオブジェクト選択手段と、前記オブジェクト選択手段により選択されたオブジェクトを特別な表示形態に変更して強調表示するオブジェクト強調表示手段とを具備したことを特徴とする。   According to the first aspect of the present invention, range specifying means for specifying a certain range of an image displayed on a display device, and object generation for generating an object based on a partial image corresponding to the range specified by the range specifying means Means, an object storage means for storing the object generated by the object generation means, and a display image targeted for range specification by the range specification means in association with the object stored in the object storage means as an entire image Whole image storage means for storing, object display means for displaying the object stored by the object storage means, object selection means for selecting an object displayed by the object display means, and selected by the object selection means Object special table Characterized by comprising the object highlighting means for highlighting by changing the form.

請求項2記載の発明は、請求項1記載の発明において、前記オブジェクト強調表示手段は、前記オブジェクトに対して時間経過に伴って表示形態を変更することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, the object highlighting means changes the display mode of the object as time elapses.

請求項3記載の発明は、請求項2記載の発明において、前記オブジェクト強調表示手段は、時間経過に伴って、オブジェクトのサイズを変更する第1の表示形態あるいはオブジェクトの表示位置を変更する第2の表示形態の何れかによりオブジェクトを強調表示することを特徴とする。   According to a third aspect of the present invention, in the second aspect of the present invention, the object highlighting means changes the first display form for changing the size of the object or the second display position for changing the object as time elapses. The object is highlighted in any of the display forms.

請求項4記載の発明は、請求項1記載の発明において、軌跡を表す座標データ列を入力する入力手段と、前記入力手段により入力された座標データ列が表す軌跡に基づいて、前記オブジェクト表示手段により表示されたオブジェクトに対する指定操作の形態を判別する操作判別手段とを有し、前記オブジェクト強調表示手段は、前記操作判別手段によって判別された指定操作の形態に応じた表示形態によって前記オブジェクトを強調表示することを特徴とする。   According to a fourth aspect of the present invention, in the first aspect of the invention, the object display means is based on an input means for inputting a coordinate data string representing a locus, and a locus represented by the coordinate data string input by the input means. Operation discriminating means for discriminating the form of the designated operation for the object displayed by the step, wherein the object highlighting means emphasizes the object by a display form corresponding to the form of the designated operation discriminated by the operation discriminating means. It is characterized by displaying.

請求項5記載の発明は、請求項1記載の発明において、強調表示の形態を定義する表示設定データを設定する設定手段を有し、前記オブジェクト強調表示手段は、前記設定手段により設定された表示設定データに応じた表示形態により、オブジェクトを強調表示することを特徴とする。   According to a fifth aspect of the present invention, in the first aspect of the invention, there is provided setting means for setting display setting data that defines a form of highlighting, and the object highlighting means is a display set by the setting means. The object is highlighted by a display form corresponding to the setting data.

請求項6記載の発明は、請求項1記載の発明において、前記オブジェクト強調表示手段によって実行された強調表示に関するデータの履歴を記憶する履歴記憶手段をさらに具備したことを特徴とする。   The invention according to claim 6 is the invention according to claim 1, further comprising a history storage means for storing a history of data related to the highlighting executed by the object highlighting display means.

請求項7記載の発明は、請求項6記載の発明において、前記オブジェクト選択手段によって選択されたオブジェクトに対する強調表示に関するデータが前記履歴記憶手段により記憶されているか否かを判別する判別手段と、前記判別手段によってデータが記憶されていると判別された場合に、所定のメッセージを表示するメッセージ表示手段とをさらに具備したことを特徴とする。   According to a seventh aspect of the present invention, in the sixth aspect of the invention, the discriminating means for discriminating whether or not the history storage means stores data related to highlighting for the object selected by the object selecting means, It further comprises message display means for displaying a predetermined message when it is determined by the determination means that data is stored.

請求項8記載の発明は、請求項6記載の発明において、前記履歴記憶手段によって記憶された強調表示に関するデータに基づいて、オブジェクトに対する強調表示を再現する強調表示再現手段をさらに具備したことを特徴とする。   The invention according to claim 8 is the invention according to claim 6, further comprising highlight reproduction means for reproducing the highlight for the object based on the data relating to the highlight stored by the history storage means. And

請求項9記載の発明は、コンピュータを、表示装置に表示された画像の一定範囲を指定する範囲指定手段と、前記範囲指定手段により指定された範囲に該当する部分画像をもとにオブジェクトを生成するオブジェクト生成手段と、前記オブジェクト生成手段により生成されたオブジェクトを記憶するオブジェクト記憶手段と、前記範囲指定手段による範囲指定の対象となった表示画像を前記オブジェクト記憶手段に記憶されたオブジェクトと関連づけて全体画像として記憶する全体画像記憶手段と、前記オブジェクト記憶手段により記憶されたオブジェクトを表示するオブジェクト表示手段と、前記オブジェクト表示手段により表示されたオブジェクトを選択するオブジェクト選択手段と、前記オブジェクト選択手段により選択されたオブジェクトを特別な表示形態に変更して強調表示するオブジェクト強調表示手段として機能させることを特徴とする。   According to the ninth aspect of the present invention, the computer generates an object based on a range designating unit for designating a certain range of the image displayed on the display device and a partial image corresponding to the range designated by the range designating unit. An object generating means for storing, an object storing means for storing the object generated by the object generating means, and a display image subjected to range specification by the range specifying means in association with the object stored in the object storing means An entire image storage means for storing an entire image; an object display means for displaying an object stored by the object storage means; an object selection means for selecting an object displayed by the object display means; and the object selection means. Selected object Characterized in that to function transfected as an object highlighted means for highlighting is changed to a special display form.

請求項1,9記載の発明によれば、表示装置において表示された画像中において生成されたオブジェクトに対して、ユーザによる入力操作により何れかが指定された場合には、この入力操作に応じてオブジェクトを選択し、特別な表示形態に変更して強調表示することかできるので、表示画面中で指し示したオブジェクトを明確に他者に認識させることが可能となる。   According to the first and ninth aspects of the present invention, when any one of the objects generated in the image displayed on the display device is designated by the input operation by the user, the input operation is performed according to the input operation. Since an object can be selected, changed to a special display form, and highlighted, the object pointed on the display screen can be clearly recognized by others.

請求項2記載の発明によれば、請求項1の発明の効果に加えて、強調表示の表示形態を時間経過に伴って変更することにより、より明確にオブジェクトを認識させることができる。   According to the second aspect of the invention, in addition to the effect of the first aspect of the invention, the object can be recognized more clearly by changing the display mode of the highlight display with the passage of time.

請求項3記載の発明によれば、請求項2の発明の効果に加えて、時間経過に伴って変更される表示形態として、オブジェクトのサイズを変更(拡大/縮小)する、あるいはオブジェクトの表示位置を変更(揺動)することにより、オブジェクトを明確に認識させることができる。   According to the third aspect of the present invention, in addition to the effect of the second aspect of the invention, as a display form that changes with the passage of time, the size of the object is changed (enlarged / reduced), or the display position of the object By changing (swinging), the object can be clearly recognized.

請求項4記載の発明によれば、請求項1の発明の効果に加えて、強調表示させるオブジェクトの指定操作を、ポインティングデバイスなどを利用した筆記により行う場合に、どのような軌跡によりオブジェクトが指定されているか(指定操作の形態)に基づいて強調表示することで、筆記操作だけでオブジェクトを指定すると共に強調表示の形態を指定することができようになる操作性の向上が図れる。   According to the fourth aspect of the invention, in addition to the effect of the first aspect, when the object to be highlighted is designated by writing using a pointing device, the object is designated by any trajectory. By highlighting based on whether or not it is (designation operation form), it is possible to improve the operability so that the object can be designated only by the writing operation and the form of the highlight display can be designated.

請求項5記載の発明によれば、請求項1の発明の効果に加えて、強調表示の形態を定義する表示設定データを設定できるようにすることで、強調表示の形態を任意に変更することができ、状況に合わせてオブジェクトを認識しやすくすることができる。   According to the fifth aspect of the invention, in addition to the effect of the first aspect of the invention, the display setting data that defines the form of the highlight display can be set, so that the form of the highlight display can be arbitrarily changed. Can be recognized easily according to the situation.

請求項6記載の発明によれば、請求項1の発明の効果に加えて、オブジェクトに対して実行された強調表示に関するデータを履歴として記憶しておくことで、例えば会議中に表示画面中でオブジェクトに対して行われた強調表示を確認することができ、これをもとに会議で議論された内容などを把握するといったことが可能となる。   According to the sixth aspect of the present invention, in addition to the effect of the first aspect of the invention, data relating to highlighting performed on the object is stored as a history, for example, in a display screen during a meeting. The highlighting performed on the object can be confirmed, and based on this, the contents discussed in the meeting can be grasped.

請求項7記載の発明によれば、請求項6の発明の効果に加えて、強調表示の対象として選択されたオブジェクトが既に強調表示されていた場合、例えば会議に参加している他者が同じオブジェクトを指定して強調表示させていた場合に、前にいつ誰がオブジェクトを指定したかを示すメッセージを表示することで、議論の効率化や活性化を図ることができる。   According to the seventh aspect of the present invention, in addition to the effect of the sixth aspect of the present invention, when the object selected as the target of highlighting has already been highlighted, for example, others who are participating in the conference are the same When an object is specified and highlighted, a message indicating who previously specified the object is displayed, so that discussion can be made more efficient and active.

請求項8記載の発明によれば、請求項6の発明の効果に加えて、オブジェクトに対して実行された強調表示に関するデータを履歴、すなわち時系列的に順次記憶しておくことで、このデータをもとに時系列的にオブジェクトに対する強調表示を再現することができる。これにより例えば会議が終了した後に、何れのオブジェクトに対して強調表示がされたかを時系列的に確認することで、会議で議論された内容の変化などを把握することができる。   According to the eighth aspect of the invention, in addition to the effect of the sixth aspect of the invention, the data related to the highlighting performed on the object is sequentially stored in a history, that is, time-sequentially. Based on the above, it is possible to reproduce the highlight for the object in time series. Accordingly, for example, after the conference is ended, by confirming in time series which object is highlighted, it is possible to grasp a change in contents discussed in the conference.

以下、図面を参照して本発明の実施の形態について説明する。
図1は、本実施形態における電子会議装置1を使用するシステム構成を示すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing a system configuration using the electronic conference apparatus 1 in the present embodiment.

電子会議装置1には、複数のパーソナルコンピュータ2,3,4、PDA(personal digital assistant)5などが無線LAN(Local Area Network)などによる無線接続、あるいはUSB(Universal Serial Bus)などによる有線接続などのネットワークにより接続されている。なお、相互接続の方法については無線、有線の何れの場合も他の方法を用いることが可能である。   In the electronic conference apparatus 1, a plurality of personal computers 2, 3, 4 and a personal digital assistant (PDA) 5 are wirelessly connected by a wireless local area network (LAN) or a wired connection by a USB (Universal Serial Bus) or the like. Connected by other networks. As for the interconnection method, other methods can be used in both cases of wireless and wired.

本実施形態における電子会議装置1では、電子会議装置制御プログラムを実行することにより、仮想のホワイトボード(電子ホワイトボード)を設定して画像データを管理する。本実施形態では、画像中において各種処理の単位とするオブジェクトを設定し、このオブジェクトと全体画像のデータとを関連づけて管理する。電子会議装置1は、ポインティングデバイス(マウス、タブレットなど)を通じて例えば手書き入力される軌跡を表すデータ(座標時系列データ)、あるいはアプリケーションによって処理されている画面の画像データを電子ホワイトボードに貼り付け、この電子ホワイトボードで管理される画像データによる画像を、プロジェクタ6を通じてスクリーン7に投影(表示)させて、会議の出席者に見せることができる。   In the electronic conference apparatus 1 according to the present embodiment, a virtual whiteboard (electronic whiteboard) is set and image data is managed by executing an electronic conference apparatus control program. In the present embodiment, an object as a unit of various processes is set in an image, and the object and the data of the entire image are managed in association with each other. The electronic conference apparatus 1 pastes, for example, data (coordinate time series data) representing a locus input by handwriting through a pointing device (mouse, tablet, etc.) or image data of a screen processed by an application on an electronic whiteboard. An image based on the image data managed by the electronic whiteboard can be projected (displayed) on the screen 7 through the projector 6 and shown to the attendees of the conference.

また、電子会議装置1は、電子ホワイトボードにより管理される画像データを、ネットワーク(無線LAN、USBなど)を介して接続されたパーソナルコンピュータ2,3,4及びPDA5と共有化し、パーソナルコンピュータ2,3,4及びPDA5においても同様の画面を表示させ、画像データに対する入力操作を受け付けて各種処理を実行させることができる。   The electronic conference apparatus 1 also shares image data managed by the electronic whiteboard with the personal computers 2, 3, 4 and the PDA 5 connected via a network (wireless LAN, USB, etc.). 3 and 4 and the PDA 5 can also display the same screen, accept input operations for image data, and execute various processes.

さらに、電子会議装置1は、パーソナルコンピュータ2,3,4及びPDA5における、電子ホワイトボードにより管理される画像データに対する各種処理の結果を入力し、選択的に合成してプロジェクタ6を通じて投影(表示)させることができる。例えば、パーソナルコンピュータ2,3,4及びPDA5において、ポインティングデバイス(マウス、タブレットなど)を用いて入力された、画像データに対する軌跡(座標データ列)を入力して表示させることができる。また、軌跡のデータは、パーソナルコンピュータ2,3,4及びPDA5の何れのユーザにより、表示画面中に表示されたオブジェクトの何れが指定されたかを判別するために用いられる。   Further, the electronic conference apparatus 1 inputs the results of various processes for the image data managed by the electronic whiteboard in the personal computers 2, 3, 4 and the PDA 5, selectively synthesizes them, and projects (displays) them through the projector 6. Can be made. For example, in the personal computers 2, 3, 4 and the PDA 5, a trajectory (coordinate data string) with respect to image data input using a pointing device (mouse, tablet, etc.) can be input and displayed. The trajectory data is used to determine which one of the personal computers 2, 3, 4 and the PDA 5 has designated an object displayed on the display screen.

図2は、図1に示す電子会議装置1の詳細な構成を示すブロック図である。
図2に示すように、電子会議装置1は、CPU(Central Processing Unit)10、RAM(random access memory)11、ROM(Read Only Memory)12、RTC(Real Time clock)13、無線LANコントローラ14、映像信号出力コントローラ15、LCDコントローラ16、デバイスコントローラ17、USBコントローラ18、ハードディスクコントローラ19、LCD20、ポインティングデバイス21、USBインタフェース22、及びハードディスク23を有している。
FIG. 2 is a block diagram showing a detailed configuration of the electronic conference apparatus 1 shown in FIG.
As shown in FIG. 2, the electronic conference apparatus 1 includes a CPU (Central Processing Unit) 10, a RAM (random access memory) 11, a ROM (Read Only Memory) 12, an RTC (Real Time Clock) 13, a wireless LAN controller 14, It has a video signal output controller 15, LCD controller 16, device controller 17, USB controller 18, hard disk controller 19, LCD 20, pointing device 21, USB interface 22, and hard disk 23.

CPU10は、ROM12に記憶された各種プログラム、ハードディスク23からロードされたOSや各種のアプリケーションプログラムを実行する。アプリケーションプログラムには、プレゼンテーション、ワードプロセッサ、表計算、図形描画等の機能を提供するプログラムの他、本実施形態における電子ホワイトボード機能を実現するための電子会議装置制御プログラムが含まれている。   The CPU 10 executes various programs stored in the ROM 12, an OS loaded from the hard disk 23, and various application programs. The application program includes a program that provides functions such as presentation, word processor, spreadsheet, and graphic drawing, and an electronic conference device control program for realizing the electronic whiteboard function in the present embodiment.

RAM11は、各種プログラムやデータなどが一時的に記憶されるもので、CPU10により実行される各種処理のワークエリアとして使用される。電子会議装置制御プログラム(電子ホワイトボード機能)が実行されている場合には、電子ホワイトボードに貼り付けられる画像データや、この機能により管理される各種データ(オブジェクト等)のファイルが記憶される。   The RAM 11 temporarily stores various programs and data, and is used as a work area for various processes executed by the CPU 10. When the electronic conference device control program (electronic whiteboard function) is executed, image data pasted on the electronic whiteboard and files of various data (objects, etc.) managed by this function are stored.

ROM12は、システム全体の制御を行うためのプログラムが予め記憶されている。
RTC13は、専用バッテリによりバックアップされており、年月日時刻を示すデータを出力する。
無線LANコントローラ14は、パーソナルコンピュータ2,3との間の無線通信を制御する。
The ROM 12 stores a program for controlling the entire system in advance.
The RTC 13 is backed up by a dedicated battery and outputs data indicating the date and time.
The wireless LAN controller 14 controls wireless communication with the personal computers 2 and 3.

映像信号出力コントローラ15は、プロジェクタ6により画像を投影させるための映像信号を、例えばRGBあるいはDVI(Digital Visual Interface)により出力する。映像信号出力コントローラ15は、電子ホワイトボード機能が起動されている場合に、CPU10の制御により電子ホワイトボード画像を表示するための映像信号を出力する。   The video signal output controller 15 outputs a video signal for causing the projector 6 to project an image, for example, by RGB or DVI (Digital Visual Interface). The video signal output controller 15 outputs a video signal for displaying an electronic whiteboard image under the control of the CPU 10 when the electronic whiteboard function is activated.

LCDコントローラ16は、CPU10の制御のもとで、LCD20における表示を制御する。LCD20の表示面には、ポインティングデバイス21が重ね合わせて一体化されており、ポインティングデバイス21により入力される座標時系列データに応じた筆跡(軌跡)を入力位置に合わせて表示する。   The LCD controller 16 controls display on the LCD 20 under the control of the CPU 10. A pointing device 21 is integrated and integrated on the display surface of the LCD 20, and a handwriting (trajectory) corresponding to the coordinate time-series data input by the pointing device 21 is displayed in accordance with the input position.

デバイスコントローラ17は、ポインティングデバイス21の入力制御を行うもので、例えばタブレット上で位置指示手段として使用されるペンのペン先が接触した部分を検出し、その位置情報(座標データ)を取り込む。なお、タブレットは、LCD20の表示面と重ね合わせて一体化されている。また、タブレット以外のマウスなどのポインティングデバイスによる入力制御を行う。   The device controller 17 performs input control of the pointing device 21. For example, the device controller 17 detects a portion where a pen tip of a pen used as a position instruction unit on the tablet contacts, and takes in the position information (coordinate data). Note that the tablet is integrated with the display surface of the LCD 20 in an overlapping manner. In addition, input control is performed using a pointing device such as a mouse other than a tablet.

USBコントローラ18は、CPU10の制御のもとで、USBインタフェース22を介して接続されたパーソナルコンピュータ4やPDA5などの他の情報機器との間でUSB規格に準拠したデータ転送を実行、制御する。   Under the control of the CPU 10, the USB controller 18 executes and controls data transfer conforming to the USB standard with other information devices such as the personal computer 4 and the PDA 5 connected via the USB interface 22.

ハードディスクコントローラ19は、CPU10の制御のもとで、ハードディスク23に対するプログラムやデータの書き込み、読出しを制御する。ハードディスク23には、OS(Operating System)プログラム、各種アプリケーションプログラム(電子会議装置制御プログラムを含む)などのプログラムの他、電子ホワイトボード機能において管理される画像データや管理/設定データを含むファイルなどが記録されており、必要に応じて読み出される。ハードディスク23に記憶される管理/設定データとしては、後述する端末管理データ、オブジェクト管理データ、表示設定データが含まれている(詳細については後述する(図3、図4、図5))。   The hard disk controller 19 controls writing and reading of programs and data to and from the hard disk 23 under the control of the CPU 10. In addition to programs such as an OS (Operating System) program and various application programs (including an electronic conference device control program), the hard disk 23 includes files including image data and management / setting data managed by the electronic whiteboard function. It is recorded and read as needed. The management / setting data stored in the hard disk 23 includes terminal management data, object management data, and display setting data described later (details will be described later (FIGS. 3, 4, and 5)).

なお、ポインティングデバイスとしてLCD20と一体化されたポインティングデバイス21だけではなく、一般のホワイトボードの形状をした、ボード上でのマーカ(ペン)などによる描画に応じて筆跡を表す座標時系列データを入力可能な装置を電子会議装置1に接続した構成とすることもできる。   In addition to the pointing device 21 integrated with the LCD 20 as a pointing device, coordinate time-series data representing handwriting according to drawing with a marker (pen) on the board in the shape of a general whiteboard is input. A possible apparatus may be connected to the electronic conference apparatus 1.

また、図1に示すシステム構成では、電子会議装置1からプロジェクタ6に対して電子ホワイトボードの画像データを出力し、プロジェクタ6による画像をスクリーン7に投影させるものとしているが、例えば電子会議装置1からのデータを受信して画像を表示する大画面を持つディスプレイを用いることも可能である。   In the system configuration shown in FIG. 1, the electronic whiteboard image data is output from the electronic conference apparatus 1 to the projector 6 and the image by the projector 6 is projected onto the screen 7. For example, the electronic conference apparatus 1 It is also possible to use a display having a large screen that receives data from and displays an image.

次に、電子会議装置1において管理されるデータの一例について説明する。
図3は、ネットワークを介して接続される複数の端末(パーソナルコンピュータ2,3,4、PDA5)を管理するための端末管理データの一例を示している。端末管理データでは、端末の端末名、端末を使用しているユーザのユーザ名、端末に対して予め決められた表示色のデータなどが対応付けられている。端末名及びユーザ名のデータは、ネットワークを介して各端末から取得したり、あるいは別の手段により取得されて設定されるものとする。表示色のデータは、ユーザ別に任意に設定されるもので、例えば、ユーザが表示画面中の画像に対して、ポインティングデバイスを用いたドラッグ操作などによって筆跡(座標データ列)を入力した場合に、この筆跡を画像中に表示する際に用いる色を示している。
Next, an example of data managed in the electronic conference apparatus 1 will be described.
FIG. 3 shows an example of terminal management data for managing a plurality of terminals (personal computers 2, 3, 4, PDA 5) connected via a network. In the terminal management data, the terminal name of the terminal, the user name of the user who uses the terminal, data of display colors determined in advance for the terminal, and the like are associated. The terminal name and user name data are acquired from each terminal via the network, or acquired and set by another means. The display color data is arbitrarily set for each user. For example, when the user inputs a handwriting (coordinate data string) to the image on the display screen by a drag operation using a pointing device or the like, The color used when displaying this handwriting in an image is shown.

図4は、画像データ中で設定されたオブジェクトに対する強調表示のための操作に関するデータを管理するためのオブジェクト管理データの一例を示している。   FIG. 4 shows an example of object management data for managing data related to an operation for highlighting an object set in image data.

オブジェクト管理データは、例えば会議において電子ホワイトボードを利用した際に、電子ホワイトボード上で操作されたオブジェクトに関するデータを含むもので、例えば会議別に管理される。すなわち、オブジェクト管理データでは、会議名と同会議に関するデータ(日時、場所、参加者名などを含む)と対応付けて、この会議中に電子ホワイトボード上で操作されたオブジェクトを示すデータと、同オブジェクトに対する操作内容を示す操作データとを対応付けて、時系列的に順次設定される。操作データには、例えば操作した日時、操作者(ユーザ名)、指定操作の形態(オブジェクトを選択した差異の入力操作の形態)などを示すデータを含むものとする。   The object management data includes, for example, data related to objects operated on the electronic whiteboard when the electronic whiteboard is used in a meeting, and is managed for each meeting, for example. That is, in the object management data, the meeting name is associated with the data related to the meeting (including the date, place, participant name, etc.), and the data indicating the object operated on the electronic whiteboard during the meeting. The operation data indicating the operation content for the object is associated with the operation data and sequentially set in time series. The operation data includes, for example, data indicating an operation date and time, an operator (user name), a designated operation form (a difference input operation form in which an object is selected), and the like.

図5は、オブジェクトに対する強調表示に関するデータを管理するための表示設定データの一例を示している。表示設定データでは、強調表示の表示形態を定義する設定データと、オブジェクトを選択するための入力操作の判定基準となる基準データとを含んでいる(図10参照)。   FIG. 5 shows an example of display setting data for managing data related to highlighting on an object. The display setting data includes setting data that defines a highlighted display form and reference data that serves as a determination criterion for an input operation for selecting an object (see FIG. 10).

強調表示の表示形態を定義する設定データは、表示形態毎に設定されるもので、本実施形態では表示形態として「拡大型」「横揺れ型」が用意されているものとする。「拡大型」の表示形態については、例えば表示を変更する時間(秒)、拡大率(倍)、変更回数が設定される。「横揺れ型」の表示形態については、例えば表示を変更する時間(秒)、揺れ幅(指定範囲に対する倍率)、変更回数が設定される。   The setting data that defines the display form of the highlight display is set for each display form. In this embodiment, “enlarged type” and “rolling type” are prepared as display forms. For the “enlarged” display mode, for example, the time for changing the display (seconds), the enlargement rate (times), and the number of changes are set. For the “rolling type” display mode, for example, the time for changing the display (seconds), the swing width (magnification for the specified range), and the number of changes are set.

基準データは、表示画面中において強調表示させるオブジェクトの指定操作を、ポインティングデバイスを利用した筆記により行う際に、どのような軌跡によりオブジェクトが指定されているか(指定操作の形態)、すなわちオブジェクトに対する下線(アンダーライン)を表す軌跡であるか否かを判別するための基準値である(図12参照)。ここでは、下線と判断する高さ(軌跡の上下端)の差の上限が設定される。なお、指定操作の形態としては、オブジェクトに対する下線を筆記する場合、及びオブジェクトに該当する領域を取り囲む軌跡を筆記する場合があるものとする(図13参照)。   The reference data is based on what trajectory is specified when performing an operation for specifying an object to be highlighted on the display screen by writing using a pointing device (a form of the specified operation), that is, an underline for the object. This is a reference value for determining whether or not the trajectory represents (underline) (see FIG. 12). Here, the upper limit of the difference in height (upper and lower ends of the trajectory) determined to be an underline is set. In addition, as a form of designation | designated operation, when writing the underline with respect to an object, the case where the locus | trajectory surrounding the area | region applicable to an object is written may be written (refer FIG. 13).

次に、本実施形態における電子会議装置1の動作について説明する。
まず、電子会議装置1による全体の動作(電子ホワイトボード処理)について、図6に示すフローチャートを参照しながら説明する。
Next, the operation of the electronic conference apparatus 1 in this embodiment will be described.
First, the overall operation (electronic whiteboard processing) by the electronic conference apparatus 1 will be described with reference to the flowchart shown in FIG.

電子会議装置1は、起動されると、ネットワーク(無線LAN、USBなど)を介して接続された端末の確認処理を実行する(ステップA1)。電子会議装置1には、例えば、図3に示すような端末管理データが予めハードディスク23に記憶されており、接続が確認された端末に該当するデータを有効とする。   When activated, the electronic conference apparatus 1 executes a confirmation process for terminals connected via a network (wireless LAN, USB, etc.) (step A1). In the electronic conference apparatus 1, for example, terminal management data as shown in FIG. 3 is stored in the hard disk 23 in advance, and data corresponding to a terminal whose connection has been confirmed is validated.

電子会議装置1は、接続が確認された端末に対して、電子ホワイトボード機能をネットワークを通じて利用できるようにする。すなわち、電子会議装置1により管理されるスクリーン7に投影される画像データを共有し、この画像データに対する入力操作を受け付けて各種処理が実行できるようにする。   The electronic conferencing apparatus 1 enables the electronic whiteboard function to be used through the network for the terminal whose connection has been confirmed. That is, the image data projected on the screen 7 managed by the electronic conference apparatus 1 is shared, and various processes can be executed by receiving an input operation on the image data.

入力操作では、メニューなどからコマンドを選択する操作モードの他、通常モードにおける画像中の軌跡を表す座標データの入力(筆跡入力操作)、画像中で強調表示させるオブジェクトを選択する座標データの入力(強調操作)などの操作モードの実行が可能である。   In the input operation, in addition to an operation mode in which a command is selected from a menu or the like, input of coordinate data representing a locus in the image in the normal mode (handwriting input operation), input of coordinate data for selecting an object to be highlighted in the image ( It is possible to execute an operation mode such as an emphasis operation.

コマンド選択により実行できる処理としては、表示された画像データからオブジェクトを生成するオブジェクト化処理、オブジェクトを強調表示する差異の表示形態を設定する設定処理、オブジェクトに対する強調表示の履歴をもとに強調処理を再現させる再現操作処理などがある。   Processing that can be executed by selecting a command includes objectification processing for generating an object from displayed image data, setting processing for setting a display mode of a difference for highlighting an object, and emphasis processing based on the highlighting history for the object. Reproduction operation processing that reproduces

電子会議装置1は、ポインティングデバイス21に対する入力操作、あるいはネットワークを介して接続されたパーソナルコンピュータ2,3,4及びPDA5から操作を受信すると(ステップA2)、操作モードに応じた処理を実行する(ステップA3)(詳細については後述する)。   When the electronic conference apparatus 1 receives an input operation on the pointing device 21 or an operation from the personal computers 2, 3, 4 and the PDA 5 connected via the network (step A2), the electronic conference apparatus 1 executes processing corresponding to the operation mode (step A2). Step A3) (details will be described later).

電子会議装置1は、操作モードに応じて処理を実行し、その処理結果に応じて表示データを更新し(ステップA4)、表示データをプロジェクタ6に出力して、スクリーン7において投影(表示)させる(ステップA5)。   The electronic conference apparatus 1 executes processing according to the operation mode, updates display data according to the processing result (step A4), outputs the display data to the projector 6, and projects (displays) it on the screen 7. (Step A5).

次に、図6のフローチャート中に示す操作モードに応じた処理(ステップA3)の詳細について、図7に示すフローチャートを参照しながら説明する。   Next, details of the process (step A3) corresponding to the operation mode shown in the flowchart of FIG. 6 will be described with reference to the flowchart shown in FIG.

まず、電子会議装置1のCPU10は、無線LANコントローラ14あるいはUSBコントローラ18(USBインタフェース22)を通じて、ネットワークを通じて何れの端末から入力操作のデータが受信されているかに基づいて操作者を判別する(ステップB1)。なお、デバイスコントローラ17からの入力については、ポインティングデバイス21に対する入力操作であると判別する。   First, the CPU 10 of the electronic conference apparatus 1 discriminates an operator based on which terminal has received input operation data through the network through the wireless LAN controller 14 or the USB controller 18 (USB interface 22) (steps). B1). Note that the input from the device controller 17 is determined as an input operation to the pointing device 21.

ここで、受信された入力操作がコマンド指定である場合(ステップB2、Yes)、CPU10は、コマンドに応じた処理を実行する。コマンド指定により実行されるオブジェクト化処理、設定処理、及び再現操作処理の詳細については後述する。   Here, when the received input operation is command designation (step B2, Yes), the CPU 10 executes processing according to the command. Details of the objectification processing, setting processing, and reproduction operation processing executed by command designation will be described later.

一方、ポインティングデバイスの操作による座標データの入力である場合(ステップB4、Yes)、CPU10は、現在の操作モードが筆跡入力操作であれば筆跡データ入力処理を実行する(ステップB5,B6)。筆跡データ入力処理では、入力された座標データ列を現在の画像データに合成して、筆跡などを表す軌跡を画像中で描画させる。   On the other hand, if the coordinate data is input by operating the pointing device (step B4, Yes), the CPU 10 executes handwriting data input processing if the current operation mode is a handwriting input operation (steps B5 and B6). In the handwriting data input process, the input coordinate data string is combined with the current image data, and a locus representing the handwriting is drawn in the image.

また、CPU10は、現在の操作モードが強調操作であれば強調処理を実行する(ステップB5,B8)。強調処理では、入力された座標データをもとに強調表示の対象として選択されたオブジェクトを判別すると共に、そのオブジェクトを選択するための入力操作に応じた強調表示の表示形態を決定し、その表示形態によりオブジェクトを強調表示する(詳細については後述する)。   Further, if the current operation mode is an emphasis operation, the CPU 10 executes an emphasis process (steps B5 and B8). In the highlighting process, an object selected as a highlighting target is determined based on the input coordinate data, and a highlighting display mode corresponding to an input operation for selecting the object is determined and displayed. The object is highlighted according to the form (details will be described later).

なお、その他の入力操作にであった場合には(ステップB4、No)、その入力操作に応じた他の処理を実行する(ステップB7)。   In addition, when it is other input operation (step B4, No), the other process according to the input operation is performed (step B7).

次に、表示された画像データからオブジェクトを生成するためのオブジェクト化処理について、図8に示すフローチャートを参照しながら説明する。図9には、オブジェクト化処理の対象となる画像の一例を示している。   Next, object conversion processing for generating an object from displayed image data will be described with reference to the flowchart shown in FIG. FIG. 9 shows an example of an image that is a target of objectification processing.

オブジェクト化を実光するための入力操作は、電子会議装置1において実行されても良いし、ネットワークを介して接続された端末(パーソナルコンピュータ2,3,4及びPDA5)で行われても良い。   The input operation for illuminating the object may be performed in the electronic conference apparatus 1 or may be performed in terminals (personal computers 2, 3, 4 and PDA 5) connected via a network.

まず、メニューから「オブジェクト化」が選択されると(ステップC1、Yes)、CPU10は、範囲指定のためのドラッグ操作により入力された座標時系列データをもとに、指定された範囲を例えば矩形枠によって設定する。例えば、指定範囲内の画像から所定距離に位置する水平垂直(x,y)方向の直線により矩形枠を設定する。   First, when “objectification” is selected from the menu (step C1, Yes), the CPU 10 converts the specified range into, for example, a rectangle based on the coordinate time-series data input by the drag operation for specifying the range. Set by frame. For example, the rectangular frame is set by a straight line in the horizontal and vertical (x, y) direction located at a predetermined distance from the image within the specified range.

例えば、図9(a)に示すように「ホワイトボード」と手書き入力された画像をオブジェクト化する場合には、図9(b)に示すように、このオブジェクト化の対象とする範囲を囲むような軌跡を入力する。これにより、図9(c)に示すように、「ホワイトボード」と手書き入力された画像を含む範囲指定された矩形枠を設定する。   For example, as shown in FIG. 9A, when an image handwritten and input as “whiteboard” is converted into an object, as shown in FIG. 9B, the object conversion target range is surrounded. A correct trajectory. As a result, as shown in FIG. 9C, a “whiteboard” and a range-designated rectangular frame including the handwritten input image are set.

CPU10は、範囲指定内の画像(部分画像)を切り取り、RAM11に一時記憶しておく(ステップC2)。そして、CPU10は、部分画像と指定範囲の位置とをもとにオブジェクトを生成し、切り取った部分画像に矩形枠を付加してオブジェクトとして電子ホワイトボードに貼り付ける(ステップC3)。この時、オブジェクトは、部分画像を切り取った位置に貼り付けるものとする。   The CPU 10 cuts out an image (partial image) within the range specification and temporarily stores it in the RAM 11 (step C2). Then, the CPU 10 generates an object based on the partial image and the position of the designated range, adds a rectangular frame to the cut partial image, and pastes it as an object on the electronic whiteboard (step C3). At this time, the object is pasted at the position where the partial image is cut out.

オブジェクトの生成では、各種データを記憶するファイルを生成して記憶しておく。すなわち、(1)全体画像からオブジェクト(部分画像)を除いた画面ファイル、(2)全体画像のサムネイル画像ファイル、(3)オブジェクトの設定ファイル、(4)オブジェクト画像ファイルである。   In object generation, a file for storing various data is generated and stored. That is, (1) a screen file obtained by removing an object (partial image) from the entire image, (2) a thumbnail image file of the entire image, (3) an object setting file, and (4) an object image file.

なお、オブジェクトの設定ファイルには、全体画像中におけるオブジェクトの位置及びサイズを示すデータと、オブジェクト画像ファイル名(貼り付け画像名)との組からなるデータ(以下、オブジェクトデータ)が、全体画像中に設定されたオブジェクト分含まれている。オブジェクトの位置を示すデータは、範囲指定された画像に対して設定した矩形枠の始点とする頂点のxy座標と、始点からのxyそれぞれの方向のサイズを示すデータにより定義されている。   The object setting file includes data (hereinafter referred to as object data) consisting of a set of data indicating the position and size of the object in the entire image and the object image file name (pasted image name) in the entire image. Is included for the set object. The data indicating the position of the object is defined by data indicating the xy coordinates of the vertex as the starting point of the rectangular frame set for the range-specified image and the sizes in the xy directions from the starting point.

CPU10は、オブジェクトの生成時に、前述した各ファイルを生成することによりオブジェクトと、オブジェクトに関連する画像(全体画像、部分画像)を管理する。CPU10は、これらのオブジェクトに関連するファイルを保存してオブジェクト化処理を終了する(ステップC4)。   When the object is generated, the CPU 10 manages the object and an image (overall image, partial image) related to the object by generating each file described above. The CPU 10 saves the files related to these objects and ends the objectification process (step C4).

次に、画像中のオブジェクトを強調表示する際の表示形態を設定する設定処理について説明する。   Next, a setting process for setting a display form when highlighting an object in an image will be described.

例えば、設定処理を実行させるコマンドが指定されると、CPU10は、設定処理を起動して、例えば図10に示すような表示形態を設定するための設定画面を表示させる。   For example, when a command for executing the setting process is designated, the CPU 10 starts the setting process and displays a setting screen for setting a display form as shown in FIG. 10, for example.

図10に示す設定画面では、強調表示の表示形態を定義する設定データと、オブジェクトを選択するための入力操作の判定基準となる基準データを設定するための項目が用意されている。   In the setting screen shown in FIG. 10, items for setting setting data for defining a display form for highlighting and reference data serving as a determination criterion for an input operation for selecting an object are prepared.

強調表示の表示形態を定義する設定データとして、「拡大型」「横揺れ型」のそれぞれについて個別に設定するための項目が用意されている。「拡大型」の表示形態については、例えば表示を変更する時間(0.1〜9.9秒)、拡大率(1.1〜9.9倍)、変更回数(2〜99回)をそれぞれの設定可能範囲内で任意に設定することができる。同様にして、「横揺れ型」の表示形態については、例えば表示を変更する時間(0.1〜9.9秒)、揺れ幅(指定範囲に対する倍率)(1.1〜9.9倍)、変更回数(2〜99回)をそれぞれの設定可能範囲内で任意に設定することができる。   As setting data for defining the display form of the highlight display, items for individually setting “enlarged type” and “rolling type” are prepared. For the “enlarged” display mode, for example, the time for changing the display (0.1 to 9.9 seconds), the enlargement rate (1.1 to 9.9 times), and the number of changes (2 to 99 times), respectively. It can be arbitrarily set within the settable range. Similarly, for the “rolling type” display mode, for example, the time for changing the display (0.1 to 9.9 seconds), the swing width (magnification for the specified range) (1.1 to 9.9 times) The number of changes (2 to 99 times) can be arbitrarily set within each settable range.

また、基準データとして、オブジェクトに対する下線(アンダーライン)を表す軌跡であるか否かを判別するための基準値となる、下線と判断する高さの差の上限をピクセル数(4〜99ピクセル)の指定により設定することができる。   In addition, as reference data, the upper limit of the height difference determined to be an underline, which is a reference value for determining whether or not the locus represents an underline (underline) with respect to an object, is the number of pixels (4 to 99 pixels). It can be set by specifying.

CPU10は、各項目に対する設定操作が行われた後、設定画面中の「OK」ボタンが指定されると、現在の各項目に設定されたデータを、図5に示すように表示設定データとしてハードディスク23に記憶して設定処理を終了する。   When the “OK” button in the setting screen is designated after the setting operation for each item is performed, the CPU 10 displays the data set for each item as a display setting data as shown in FIG. 23 and the setting process is terminated.

なお、設定画面中の「キャンセル」ボタンが指定された場合には、各項目に設定されたデータを破棄して設定処理を終了する。   If the “cancel” button on the setting screen is designated, the data set for each item is discarded and the setting process is terminated.

設定処理によって設定され表示設定データは、後述する強調処理において、オブジェクトの強調表示の実行を指示する入力操作が行われた際に参照される。   The display setting data set by the setting process is referred to when an input operation for instructing execution of object highlighting is performed in an emphasis process described later.

次に、オブジェクトを特別な表示形態に強調表示するための強調処理について、図11に示すフローチャートを参照しながら説明する。   Next, highlighting processing for highlighting an object in a special display form will be described with reference to a flowchart shown in FIG.

操作モードが強調操作の場合に入力される座標データは、強調表示の対象とするオブジェクトを選択するためのデータとして順次取得されて記憶される(ステップD1)。ここでは、連続した座標データ、すなわちポインティングデバイスのドラッグ操作により入力される軌跡を表す座標データを入力する。この座標データの取得は、ドラッグ操作が完了するまで実行される(ステップD2)。   Coordinate data input when the operation mode is an emphasis operation is sequentially acquired and stored as data for selecting an object to be highlighted (step D1). Here, continuous coordinate data, that is, coordinate data representing a locus input by a drag operation of the pointing device is input. This acquisition of coordinate data is executed until the drag operation is completed (step D2).

座標データの取得が完了すると、CPU10は、入力された座標データをもとに、オブジェクトを選択するための入力操作により入力された軌跡の形態(指定操作の形態)を判別する(ステップD3)。   When the acquisition of the coordinate data is completed, the CPU 10 determines the form of the trajectory (designation operation form) input by the input operation for selecting an object based on the input coordinate data (step D3).

本実施形態では、指定操作の形態に応じて、強調表示の対象として選択されたオブジェクトに対する表示形態を決定する。ここでは、オブジェクトに該当する領域範囲を指定する範囲指定あるいはオブジェクトに対する下線の付加によりオブジェクトが選択されるものとし、範囲指定である場合には「拡大型」の強調表示、下線の付加の場合には「横揺れ型」の強調表示が行われるように設定されているものとする。   In the present embodiment, the display form for the object selected as the highlight target is determined according to the form of the designation operation. Here, it is assumed that the object is selected by specifying a range that specifies the area range corresponding to the object or by adding an underline to the object. It is assumed that “rolling type” highlighting is set.

図12には、ドラッグ操作により入力される範囲指定あるいは下線を表す軌跡の一例を示している。   FIG. 12 shows an example of a trajectory indicating a range designation or an underline input by a drag operation.

CPU10は、入力された座標データ(軌跡)と、設定処理により設定された表示設定データが示す「下線と判断する高さの差の上限」の値(以下、設定値と称する)と比較することにより、範囲指定か下線であるかを判定する。   The CPU 10 compares the input coordinate data (trajectory) with a value (hereinafter referred to as a set value) of “the upper limit of the height difference determined to be underline” indicated by the display setting data set by the setting process. To determine whether the range is specified or underlined.

図12中のAに示す軌跡は、文字(あるいはオブジェクト)に重なっており、高さ(軌跡の上下端の差)も設定値を超えているので範囲指定であると判別する。Bに示す軌跡は、文字に重なっているが高さが設定値以下なので下線と判別する。Cに示す軌跡は、文字に重なっておらず、高さも設定値以下なので下線と判別する。Dに示す軌跡は、高さは設定値を超えるが、文字に重なっていないので下線と判別する。   The trajectory indicated by A in FIG. 12 overlaps the character (or object), and the height (difference between the upper and lower ends of the trajectory) exceeds the set value, so it is determined that the range is designated. The trajectory shown in B overlaps with the character but is determined to be underlined because the height is less than the set value. The trajectory shown in C does not overlap the character, and the height is less than the set value, so it is determined as an underline. The trajectory shown in D is determined to be underlined because the height exceeds the set value but does not overlap the character.

CPU10は、入力された座標データが示す軌跡により範囲指定であると判別した場合(ステップD3、Yes)、軌跡に対応する位置にオブジェクトが設定されているかを、オブジェクト化処理により保存されているオブジェクトに関連するファイル、すなわちオブジェクトの位置を示すデータをもとに判別する。   If the CPU 10 determines that the range is designated by the locus indicated by the input coordinate data (Yes in step D3), the object stored by the objectization process indicates whether the object is set at the position corresponding to the locus. Is determined based on the data related to the file, that is, the data indicating the position of the object.

ここで、オブジェクトが存在しない場合(ステップD4、No)、CPU10は、軌跡が示す範囲の画像を取得し、この画像に対してステップB1(図7)において判別された操作者に対して設定されている表示色により強調表示する(ステップD9)。操作者に対して設定されている表示色は、端末管理データ(図3参照)に設定されたユーザ名(操作者)に対応する表示色のデータを参照することにより判別する。   Here, when the object does not exist (step D4, No), the CPU 10 acquires an image in a range indicated by the locus, and is set for the operator determined in step B1 (FIG. 7) for this image. The display color is highlighted (step D9). The display color set for the operator is determined by referring to display color data corresponding to the user name (operator) set in the terminal management data (see FIG. 3).

図13には、軌跡が示す範囲に該当する画像の一例を示している。図13中に示すAは、範囲指定として判別された軌跡である。範囲指定の場合には、例えば軌跡の上下端と左右端に接するxy座標軸に平行な線により囲まれる矩形枠内の画像を取得する。   FIG. 13 shows an example of an image corresponding to the range indicated by the trajectory. A shown in FIG. 13 is a trajectory determined as the range designation. In the case of designating a range, for example, an image in a rectangular frame surrounded by a line parallel to the xy coordinate axes in contact with the upper and lower ends and the left and right ends of the trajectory is acquired.

一方、範囲指定された位置にオブジェクトが存在していた場合(ステップD4、Yes)、CPU10は、該当するオブジェクトをオブジェクト管理データから検索し、このオブジェクトに対応付けて操作データが記憶されているかを判別する。すなわち、過去に同じオブジェクトに対して強調表示の対象として指定されているかを判別する。   On the other hand, if an object exists at the position specified in the range (step D4, Yes), the CPU 10 searches the object management data for the corresponding object, and checks whether operation data is stored in association with this object. Determine. That is, it is determined whether the same object has been designated as a highlight target in the past.

ここで、過去に指定されていた場合、CPU10は、所定のメッセージを表示画面中の例えばオブジェクトの近傍に表示させる(ステップD6)。   If it has been designated in the past, the CPU 10 displays a predetermined message, for example, in the vicinity of the object on the display screen (step D6).

図14には、オブジェクト(図中「ターゲット」の文字を表す画像)の近傍にメッセージが表示された例を示している。図14に示す例では、メッセージとしてオブジェクト管理データに操作データとして記憶されている操作内容、すなわち操作日時、操作者(ユーザ名)、指定操作の形態を示すメッセージが表示されている。   FIG. 14 shows an example in which a message is displayed in the vicinity of an object (an image representing the character “target” in the figure). In the example shown in FIG. 14, a message indicating the operation content stored as operation data in the object management data as a message, that is, the operation date and time, the operator (user name), and the form of the designated operation is displayed.

これにより、例えば会議に参加している他者が同じオブジェクトを指定して強調表示させていた場合に、メッセージ表示によって、前にいつ誰がオブジェクトを指定したかを確認できるので議論の効率化や活性化を図ることができる。   For example, when another person who is participating in a conference specifies and highlights the same object, it is possible to confirm when and who previously specified the object by displaying a message. Can be achieved.

なお、メッセージの内容については、図14の例に限定されるものではなく、操作データの一部を選択的に利用しても良い。   Note that the content of the message is not limited to the example of FIG. 14, and part of the operation data may be selectively used.

メッセージ表示をした場合、所定時間(例えば1秒)が経過した後、メッセージの表示を中止してオブジェクトを「拡大型」により強調表示させる(ステップD7)。CPU10は、表示設定データの「拡大型」に対して予め設定されるデータ(時間、拡大率、回数)に応じて、オブジェクトの画像に対して画像処理を施して表示させる。   When the message is displayed, after a predetermined time (for example, 1 second) elapses, the message display is stopped and the object is highlighted by “enlarged type” (step D7). The CPU 10 performs image processing on the object image in accordance with data (time, enlargement rate, number of times) set in advance for the “enlargement type” of the display setting data, and displays the image.

図15には、「ターゲット」の文字を表すオブジェクトに対して「拡大型」の強調表示がされた例を示している。図15(a)は、元の表示形態を示しており、図15(b)〜(e)に示すように、時間経過に伴ってオブジェクトを所定の拡大率に従って順次拡大させることで強調表示している。   FIG. 15 shows an example in which “enlarged type” highlighting is performed on the object representing the character “target”. FIG. 15A shows the original display form. As shown in FIGS. 15B to 15E, the object is highlighted by sequentially enlarging it according to a predetermined enlargement ratio as time passes. ing.

これにより、表示画面中で指し示したオブジェクトを明確に他者に認識させることが可能となる。   As a result, the object pointed on the display screen can be clearly recognized by others.

CPU10は、「拡大型」によるオブジェクトの強調表示を終了すると、この強調表示の操作内容を履歴データとしてオブジェクト管理データに設定する(ステップD8)。すなわち、拡大対象となったオブジェクトを示すデータと対応付けて、オブジェクトに対する操作内容(「拡大型」)を示す操作データを記憶しておく。オブジェクト管理データでは、例えば会議別にオブジェクトを示すデータと操作データとが分類されて順次記憶される。なお、オブジェクト管理データの会議名、会議データについては、別途、ユーザにより入力されて記憶されるものとする。   When the CPU 10 finishes highlighting the object by the “enlarged type”, the CPU 10 sets the operation content of the highlighting in the object management data as history data (step D8). That is, the operation data indicating the operation content (“enlarged type”) for the object is stored in association with the data indicating the object to be enlarged. In the object management data, for example, data indicating objects and operation data for each meeting are classified and sequentially stored. Note that the conference name and conference data in the object management data are separately input and stored by the user.

ところで、入力された座標データが示す軌跡により下線であると判別した場合(ステップD10、Yes)、軌跡に対応する位置にオブジェクトが設定されているかを、オブジェクト化処理により保存されているオブジェクトに関連するファイル、すなわちオブジェクトの位置を示すデータをもとに判別する。   By the way, when it is determined that the input coordinate data is underlined by the trajectory indicated by the input coordinate data (step D10, Yes), whether the object is set at the position corresponding to the trajectory is related to the object stored by the object processing. It is determined based on the file to be processed, that is, data indicating the position of the object.

ここで、オブジェクトが存在しない場合(ステップD11、No)、CPU10は、範囲指定の場合と同様にして、軌跡が示す範囲の画像を取得し、この画像に対してステップB1(図7)において判別された操作者に対して設定されている表示色により強調表示する(ステップD15)。   Here, when the object does not exist (step D11, No), the CPU 10 acquires an image in the range indicated by the locus in the same manner as in the range designation, and discriminates this image in step B1 (FIG. 7). The displayed color is highlighted with the display color set for the operator (step D15).

図13中に示すBは、下線として判別された軌跡である。下線の場合には、例えば軌跡の上方あるいは重なっている部分に存在する、所定距離以内の間隔をもって連続する座標データ(文字等)の上下端と左右端に接するxy座標軸に平行な線により囲まれる矩形枠内の画像を取得する。図12のBに示す下線の場合には、「企画書」の文字を表す画像が取得される。なお、図12のDに示す下線の場合、軌跡から上方の所定範囲内に画像データが存在しないので、この場合には下線による指定を無効としても良い。   B shown in FIG. 13 is a locus determined as an underline. In the case of the underline, for example, it is surrounded by a line parallel to the xy coordinate axes that are in contact with the upper and lower ends and the left and right ends of coordinate data (characters, etc.) that exist continuously above the trajectory with a distance within a predetermined distance. Get the image inside the rectangular frame. In the case of the underline shown in B of FIG. 12, an image representing the characters “plan” is acquired. In the case of the underline indicated by D in FIG. 12, there is no image data within a predetermined range above the trajectory. In this case, the designation by the underline may be invalidated.

一方、下線により指定された位置にオブジェクトが存在していた場合(ステップD11、Yes)、CPU10は、範囲指定の場合と同様にして、該当するオブジェクトをオブジェクト管理データから検索し、このオブジェクトに対応付けて操作データが記憶されているかを判別する。すなわち、過去に同じオブジェクトに対して強調表示の対象として指定されているかを判別する。   On the other hand, when the object exists at the position designated by the underline (step D11, Yes), the CPU 10 searches the object management data for the corresponding object in the same manner as the range designation, and corresponds to this object. In addition, it is determined whether operation data is stored. That is, it is determined whether the same object has been designated as a highlight target in the past.

ここで、過去に指定されていた場合、CPU10は、範囲指定の場合と同様にして、例えば図14に示すようにして、所定のメッセージを表示画面中の例えばオブジェクトの近傍に表示させる(ステップD13)。   If it has been designated in the past, the CPU 10 displays a predetermined message, for example, in the vicinity of the object on the display screen, for example, as shown in FIG. 14, as in the case of range designation (step D13). ).

メッセージ表示をした場合、所定時間(例えば1秒)が経過した後、メッセージの表示を中止してオブジェクトを「横揺れ型」により強調表示させる(ステップD14)。CPU10は、表示設定データの「横揺れ型」に対して予め設定されるデータ(時間、揺れ幅、回数)に応じて、オブジェクトの画像に対して画像処理を施して表示させる。   When the message is displayed, after a predetermined time (for example, 1 second) elapses, the message display is stopped and the object is highlighted by the “rolling type” (step D14). The CPU 10 performs image processing on the object image in accordance with data (time, width of swing, number of times) set in advance for the “rolling type” of the display setting data, and displays the image.

図16には、「ターゲット」の文字を表すオブジェクトに対して「横揺れ型」の強調表示がされた例を示している。図16(a)は、元の表示形態を示しており、図16(b)〜(e)に示すように、時間経過に伴ってオブジェクトを所定の横揺れ幅に従って順次表示位置が変更されることで強調表示している。   FIG. 16 shows an example in which “rolling type” highlighting is performed on the object representing the character “target”. FIG. 16A shows the original display form. As shown in FIGS. 16B to 16E, the display position of the object is sequentially changed according to a predetermined roll width as time passes. Is highlighted.

これにより、表示画面中で指し示したオブジェクトを明確に他者に認識させることが可能となる。   As a result, the object pointed on the display screen can be clearly recognized by others.

CPU10は、「横揺れ型」によるオブジェクトの強調表示を終了すると、この強調表示の操作内容を履歴データとしてオブジェクト管理データに設定する(ステップD8)。すなわち、拡大対象となったオブジェクトを示すデータと対応付けて、オブジェクトに対する操作内容(「横揺れ型」)を示す操作データを記憶しておく。   When the CPU 10 finishes highlighting the object by the “rolling type”, the CPU 10 sets the operation contents of the highlight display in the object management data as history data (step D8). That is, operation data indicating the operation content ("rolling type") for the object is stored in association with data indicating the object to be enlarged.

このようにして、表示された画像に対する入力操作によって、強調表示の対象を簡単に選択することができ、また指定操作の形態(範囲指定、下線)により強調表示の表示形態についても同時に指定することができるので、良好な操作性が提供できる。   In this way, it is possible to easily select an object to be highlighted by an input operation on the displayed image, and to simultaneously specify a display form to be highlighted by a designation operation form (range designation, underline). Therefore, good operability can be provided.

なお、前述した説明では、指定操作の形態(範囲指定、下線)により強調表示の表示形態を指定しているが、例えば図17に示すようなメニューボタンを表示画面中に設定し、このボタンにたいする選択操作によって明示的に強調表示の形態を指定できるようにしても良い。   In the above description, the highlight display form is specified by the specification operation form (range specification, underline). For example, a menu button as shown in FIG. 17 is set on the display screen, and this button is used. The form of highlighting may be explicitly specified by a selection operation.

図17(b)は、図17(a)に示すメニューボタンの一部を拡大して示すものである。図17(b)に示すボタンAは「横揺れ型」、ボタンBは「拡大型」の表示形態に該当するボタンである。   FIG. 17B shows an enlarged part of the menu button shown in FIG. The button A shown in FIG. 17B corresponds to a “rolling type” display button, and the button B corresponds to a “enlarged type” display form.

例えば、ボタンAを選択した後、オブジェクトを選択する入力操作をすることにより、選択されたオブジェクトに対してボタンAが示す「横揺れ型」の表示形態によって強調表示する。   For example, after selecting the button A, an input operation for selecting an object is performed, so that the selected object is highlighted by the “rolling type” display form indicated by the button A.

なお、図17(b)に示すボタンC(「Open」ボタン)は後述する再現操作処理、ボタンDは設定処理の実行(コマンド)を指示することができるボタンである。これらのボタンに対する選択により、それぞれに該当処理を実行させることもできる。   Note that a button C (“Open” button) shown in FIG. 17B is a button that can instruct a reproduction operation process described later, and a button D can instruct execution (command) of a setting process. By selecting these buttons, the corresponding process can be executed.

こうしたメニューを用意することで、ポインティングデバイスによる軌跡の入力操作が不都合なユーザであっても、任意のオブジェクトに対して簡単に強調表示させることができる。   By preparing such a menu, even a user who is inconvenient to input a trajectory with a pointing device can easily highlight an arbitrary object.

次に、オブジェクトに対する強調表示の履歴をもとに強調処理を再現させる再現操作処理について、図18に示すフローチャートを参照しながら説明する。再現操作処理は、オブジェクト管理データに履歴データとして記録されたデータをもとに、オブジェクトに対する強調表示を時系列的に再生する。   Next, the reproduction operation process for reproducing the highlight process based on the highlight display history for the object will be described with reference to the flowchart shown in FIG. In the reproduction operation process, the highlight display for the object is reproduced in time series based on the data recorded as the history data in the object management data.

CPU10は、電子ホワイトボード処理により画像の表示(投影)な可能な状態において(ステップE1、Yes)、オブジェクト管理データの読み出しを指示するコマンド(例えば「Open」ボタン)が選択されると(ステップE2、Yes)、オブジェクト管理データ中から会議名と会議データとを読み出して会議記録一覧の画像を表示させる(ステップE3)。   In a state where an image can be displayed (projected) by electronic whiteboard processing (step E1, Yes), the CPU 10 selects a command (for example, an “Open” button) that instructs reading of object management data (step E2). , Yes), the conference name and conference data are read out from the object management data, and the conference record list image is displayed (step E3).

図19には、会議記録一覧が表示された画面の一例を示している。図19に示す例では、会議の日時、会議名、会議の場所が対応付けられて一覧表示されている。この会議記録一覧表示では、何れかを例えばポインティングデバイスの操作により任意に選択することができる。   FIG. 19 shows an example of a screen on which a conference record list is displayed. In the example shown in FIG. 19, the meeting date and time, the meeting name, and the meeting place are displayed in a list in association with each other. In the conference record list display, any one can be arbitrarily selected by operating a pointing device, for example.

ここで、何れかの会議が設定されて「OK」ボタンが指定されると、CPU10は、選択された画異議のオブジェクト管理データを読み出す(ステップE5)。例えば、「○○会議」が選択された場合には、この会議名と対応付けて設定された、強調表示の対象となったオブジェクトを示すデータと操作データの履歴を取得する。   Here, when any conference is set and the “OK” button is designated, the CPU 10 reads the object management data of the selected image objection (step E5). For example, when “XX conference” is selected, data indicating the object to be highlighted and the operation data history set in association with the conference name are acquired.

そして、この会議で用いられた画像データ(全体、オブジェクトの各ファイル)をもとに画像を表示し、先頭のオブジェクトと操作データを選択して(ステップE6)、オブジェクト操作を再現する(ステップE7)。すなわち、オブジェクトを示すデータに該当するオブジェクトに対して、操作データが示す操作内容に応じて強調表示を施して表示する。   Then, an image is displayed based on the image data used in the conference (whole, each object file), the first object and operation data are selected (step E6), and the object operation is reproduced (step E7). ). That is, the object corresponding to the data indicating the object is displayed with highlighting according to the operation content indicated by the operation data.

ここで、次の強調表示を実行させる指示が、例えばポインティングデバイスの操作により入力された場合(ステップE8)、次のオブジェクトと操作データを選択して、同様にして該当するデータに従ってオブジェクトの強調表示を再現する(ステップE6、E7)。   Here, when an instruction to execute the next highlighting is input, for example, by an operation of the pointing device (step E8), the next object and operation data are selected and the object highlighting is similarly performed according to the corresponding data. Is reproduced (steps E6 and E7).

また、次の強調表示を実行させる指示が一定時間経過(例えば3秒(任意に設定できるようにしても良い))しても入力されない場合(ステップE9、Yes)、次のデータが存在していれば(ステップE10、No)、同様にして、次のオブジェクトと操作データを選択して、同様にして該当するデータに従ってオブジェクトの強調表示を再現する(ステップE6、E7)。   In addition, when the instruction to execute the next highlighting is not input after a certain period of time (for example, 3 seconds (which may be arbitrarily set)) (Yes in step E9), the next data exists. If so (step E10, No), the next object and operation data are selected in the same manner, and the highlighted display of the object is reproduced according to the corresponding data in the same manner (steps E6, E7).

こうして、次操作の指示に応じて、あるいは一定時間が経過する毎に、オブジェクト管理データに履歴データとして記憶された、強調表示の対象となったオブジェクトを示すデータと操作データをもとにして、会議中でユーザ操作により実行されたオブジェクトに対する強調表示を、時系列的に順次再現することができる。   Thus, in response to an instruction for the next operation or every time a certain time elapses, based on the data indicating the object to be highlighted and the operation data stored as history data in the object management data, Emphasis on objects executed by user operations during a meeting can be reproduced sequentially in time series.

これにより、例えば会議が終了した後に、何れのオブジェクトに対して強調表示がされたかを時系列的に確認することで、会議でどのような議論がされ、どのように議論の内容が変化していったかなどを把握することができる。   Thus, for example, after the meeting is over, by confirming which objects are highlighted in chronological order, what kind of discussion is done in the meeting and how the contents of the discussion change You can know what happened.

なお、前述した実施形態では、オブジェクトの強調表示の表示形態として、サイズ変更(「拡大型」)、表示位置変更(「横揺れ型」)の場合について示しているが、その他の表示形態による強調表示も可能である。例えば、サイズ変更として拡大するだけでなく縮小させる、あるいは拡大と縮小を組み合わせたり、また表示位置変更として横揺れだけでなく縦揺れ、横揺れと縦揺れの組み合わせ、さらには不規則な揺れであっても良い。さらに、時間経過に伴って、オブジェクトの表示色を変更する、オブジェクトの形状を変更する、オブジェクトを回転させる、オブジェクト内の文字のフォントや色を変更するといったことも可能である。また、これらを任意に組み合わせた強調表示も可能である。   In the above-described embodiment, the case of changing the size (“enlarged type”) and changing the display position (“rolling type”) are shown as the display forms of the object highlight display. Display is also possible. For example, not only enlargement as a size change but also reduction, or a combination of enlargement and reduction. May be. Furthermore, it is possible to change the display color of the object, change the shape of the object, rotate the object, and change the font and color of characters in the object with time. Moreover, the highlight display which combined these arbitrarily is also possible.

また、電子会議装置1を実現するコンピュータに実行させることのできる電子会議装置制御プログラムを、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで、あるいは通信媒体を通じて提供することができる。電子会議装置制御プログラムによりコンピュータの動作を制御することで、前述した実施形態における機能を実現することができる。   Further, an electronic conference apparatus control program that can be executed by a computer that implements the electronic conference apparatus 1 is recorded on a recording medium such as a magnetic disk (flexible disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, etc. Or can be provided through a communication medium. By controlling the operation of the computer by the electronic conferencing apparatus control program, the functions in the above-described embodiments can be realized.

本実施形態における電子会議装置1を使用するシステム構成を示すブロック図。The block diagram which shows the system configuration | structure which uses the electronic conference apparatus 1 in this embodiment. 図1に示す電子会議装置1の詳細な構成を示すブロック図。The block diagram which shows the detailed structure of the electronic conference apparatus 1 shown in FIG. ネットワークを介して接続される複数の端末(パーソナルコンピュータ2,3,4、PDA5)を管理するための端末管理データの一例を示す図。The figure which shows an example of the terminal management data for managing the some terminal (personal computer 2,3,4, PDA5) connected via a network. 画像データ中で設定されたオブジェクトに対する強調表示のための操作に関するデータを管理するためのオブジェクト管理データの一例を示す図。The figure which shows an example of the object management data for managing the data regarding the operation for the highlighting with respect to the object set in image data. オブジェクトに対する強調表示に関するデータを管理するための表示設定データの一例を示す図。The figure which shows an example of the display setting data for managing the data regarding the highlighting with respect to an object. 電子会議装置1による全体の動作(電子ホワイトボード処理)について説明するためのフローチャート。The flowchart for demonstrating the whole operation | movement (electronic whiteboard process) by the electronic conference apparatus 1. FIG. 操作モードに応じた処理(ステップA3)の詳細について説明するためのフローチャート。The flowchart for demonstrating the detail of the process (step A3) according to operation mode. 表示された画像データからオブジェクトを生成するためのオブジェクト化処理について説明するためのフローチャート。The flowchart for demonstrating the object-ization process for producing | generating an object from the displayed image data. 表示された画像データからオブジェクトを生成するためのオブジェクト化処理について説明するためのフローチャート。The flowchart for demonstrating the object-ization process for producing | generating an object from the displayed image data. 表示形態を設定するための設定画面の一例を示す図。The figure which shows an example of the setting screen for setting a display form. オブジェクトを特別な表示形態に強調表示するための強調処理について説明するためのフローチャート。The flowchart for demonstrating the emphasis process for highlighting an object on a special display form. ドラッグ操作により入力される範囲指定あるいは下線を表す軌跡の一例を示す図。The figure which shows an example of the locus | trajectory showing the range designation | designated or underline input by drag operation. 軌跡が示す範囲に該当する画像の一例を示す図。The figure which shows an example of the image applicable to the range which a locus | trajectory shows. オブジェクトの近傍にメッセージが表示された例を示す図。The figure which shows the example by which the message was displayed in the vicinity of the object. 「ターゲット」の文字を表すオブジェクトに対して「拡大型」の強調表示がされた例を示す図。The figure which shows the example by which the "enlarged type" highlight display was carried out with respect to the object showing the character of "target". 「ターゲット」の文字を表すオブジェクトに対して「横揺れ型」の強調表示がされた例を示す図。The figure which shows the example by which the highlight of "rolling type" was highlighted with respect to the object showing the character of "target". メニューボタンの設定例を示す図。The figure which shows the example of a setting of a menu button. オブジェクトに対する強調表示の履歴をもとに強調処理を再現させる再現操作処理について説明するためのフローチャート。The flowchart for demonstrating the reproduction operation process which reproduces an emphasis process based on the history of the emphasis display with respect to an object. 会議記録一覧が表示された画面の一例を示す図。The figure which shows an example of the screen as which the meeting record list was displayed.

符号の説明Explanation of symbols

1…電子会議装置、2,3,4…パーソナルコンピュータ、5…PDA、6…プロジェクタ、7…スクリーン、10…CPU、11…RAM、12…ROM、13…RTC、14…無線LANコントローラ、14a…アンテナ、15…映像信号出力コントローラ、16…LCDコントローラ、17…デバイスコントローラ、18…USBコントローラ、19…ハードディスクコントローラ、20…LCD、21…ポインティングデバイス、22…USBインタフェース、23…ハードディスク。   DESCRIPTION OF SYMBOLS 1 ... Electronic conference apparatus, 2, 3, 4 ... Personal computer, 5 ... PDA, 6 ... Projector, 7 ... Screen, 10 ... CPU, 11 ... RAM, 12 ... ROM, 13 ... RTC, 14 ... Wireless LAN controller, 14a DESCRIPTION OF SYMBOLS: Antenna, 15 ... Video signal output controller, 16 ... LCD controller, 17 ... Device controller, 18 ... USB controller, 19 ... Hard disk controller, 20 ... LCD, 21 ... Pointing device, 22 ... USB interface, 23 ... Hard disk.

Claims (9)

表示装置に表示された画像の一定範囲を指定する範囲指定手段と、
前記範囲指定手段により指定された範囲に該当する部分画像をもとにオブジェクトを生成するオブジェクト生成手段と、
前記オブジェクト生成手段により生成されたオブジェクトを記憶するオブジェクト記憶手段と、
前記範囲指定手段による範囲指定の対象となった表示画像を前記オブジェクト記憶手段に記憶されたオブジェクトと関連づけて全体画像として記憶する全体画像記憶手段と、
前記オブジェクト記憶手段により記憶されたオブジェクトを表示するオブジェクト表示手段と、
前記オブジェクト表示手段により表示されたオブジェクトを選択するオブジェクト選択手段と、
前記オブジェクト選択手段により選択されたオブジェクトを特別な表示形態に変更して強調表示するオブジェクト強調表示手段と
を具備したことを特徴とする電子会議装置。
A range specifying means for specifying a certain range of an image displayed on the display device;
Object generating means for generating an object based on a partial image corresponding to the range specified by the range specifying means;
Object storage means for storing the object generated by the object generation means;
Whole image storage means for storing a display image which is a target of range designation by the range designation means in association with an object stored in the object storage means as a whole image;
Object display means for displaying the object stored by the object storage means;
Object selection means for selecting an object displayed by the object display means;
An electronic conference apparatus, comprising: an object highlighting display unit that highlights an object selected by the object selection unit by changing it to a special display form.
前記オブジェクト強調表示手段は、前記オブジェクトに対して時間経過に伴って表示形態を変更することを特徴とする請求項1記載の電子会議装置。   The electronic conference apparatus according to claim 1, wherein the object emphasis display unit changes a display form of the object with time. 前記オブジェクト強調表示手段は、時間経過に伴って、オブジェクトのサイズを変更する第1の表示形態あるいはオブジェクトの表示位置を変更する第2の表示形態の何れかによりオブジェクトを強調表示することを特徴とする請求項2記載の電子会議装置。   The object highlighting means highlights an object in either a first display form for changing the size of the object or a second display form for changing the display position of the object as time elapses. The electronic conference apparatus according to claim 2. 軌跡を表す座標データ列を入力する入力手段と、
前記入力手段により入力された座標データ列が表す軌跡に基づいて、前記オブジェクト表示手段により表示されたオブジェクトに対する指定操作の形態を判別する操作判別手段とを有し、
前記オブジェクト強調表示手段は、前記操作判別手段によって判別された指定操作の形態に応じた表示形態によって前記オブジェクトを強調表示することを特徴とする請求項1記載の電子会議装置。
An input means for inputting a coordinate data string representing the locus;
Operation discriminating means for discriminating the form of the designation operation for the object displayed by the object display means, based on the locus represented by the coordinate data string input by the input means,
2. The electronic conference apparatus according to claim 1, wherein the object highlighting means highlights the object in a display form corresponding to a designated operation form determined by the operation determining means.
強調表示の形態を定義する表示設定データを設定する設定手段を有し、
前記オブジェクト強調表示手段は、前記設定手段により設定された表示設定データに応じた表示形態により、オブジェクトを強調表示することを特徴とする請求項1記載の電子会議装置。
Having setting means for setting display setting data that defines the form of highlighting;
2. The electronic conference apparatus according to claim 1, wherein the object highlighting means highlights an object in a display form corresponding to display setting data set by the setting means.
前記オブジェクト強調表示手段によって実行された強調表示に関するデータの履歴を記憶する履歴記憶手段をさらに具備したことを特徴とする請求項1記載の電子会議装置。   2. The electronic conference apparatus according to claim 1, further comprising history storage means for storing a history of data relating to highlighting executed by the object highlighting means. (選択されたオブジェクトが過去に強調表示されている場合に所定のメッセージ(日時、選択者名など)を表示する)
前記オブジェクト選択手段によって選択されたオブジェクトに対する強調表示に関するデータが前記履歴記憶手段により記憶されているか否かを判別する判別手段と、
前記判別手段によってデータが記憶されていると判別された場合に、所定のメッセージを表示するメッセージ表示手段と
をさらに具備したことを特徴とする請求項6記載の電子会議装置。
(Displays a predetermined message (date and time, name of the selected person, etc.) when the selected object has been highlighted in the past)
A discriminating unit for discriminating whether or not data relating to highlighting for the object selected by the object selecting unit is stored in the history storage unit;
7. The electronic conference apparatus according to claim 6, further comprising message display means for displaying a predetermined message when the determination means determines that data is stored.
前記履歴記憶手段によって記憶された強調表示に関するデータに基づいて、オブジェクトに対する強調表示を再現する強調表示再現手段をさらに具備したことを特徴とする請求項6記載の電子会議装置。   7. The electronic conference apparatus according to claim 6, further comprising highlight display reproduction means for reproducing the highlight display on the object based on the data related to the highlight display stored by the history storage means. コンピュータを、
表示装置に表示された画像の一定範囲を指定する範囲指定手段と、
前記範囲指定手段により指定された範囲に該当する部分画像をもとにオブジェクトを生成するオブジェクト生成手段と、
前記オブジェクト生成手段により生成されたオブジェクトを記憶するオブジェクト記憶手段と、
前記範囲指定手段による範囲指定の対象となった表示画像を前記オブジェクト記憶手段に記憶されたオブジェクトと関連づけて全体画像として記憶する全体画像記憶手段と、
前記オブジェクト記憶手段により記憶されたオブジェクトを表示するオブジェクト表示手段と、
前記オブジェクト表示手段により表示されたオブジェクトを選択するオブジェクト選択手段と、
前記オブジェクト選択手段により選択されたオブジェクトを特別な表示形態に変更して強調表示するオブジェクト強調表示手段として機能させるための電子会議装置制御プログラム。
Computer
A range specifying means for specifying a certain range of an image displayed on the display device;
Object generating means for generating an object based on a partial image corresponding to the range specified by the range specifying means;
Object storage means for storing the object generated by the object generation means;
Whole image storage means for storing a display image which is a target of range designation by the range designation means in association with an object stored in the object storage means as a whole image;
Object display means for displaying the object stored by the object storage means;
Object selection means for selecting an object displayed by the object display means;
An electronic conference device control program for causing an object selected by the object selecting unit to function as an object highlighting display unit that highlights an object by changing it to a special display form.
JP2005252322A 2005-08-31 2005-08-31 Electronic conference device, and electronic conference device control program Pending JP2007066081A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005252322A JP2007066081A (en) 2005-08-31 2005-08-31 Electronic conference device, and electronic conference device control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005252322A JP2007066081A (en) 2005-08-31 2005-08-31 Electronic conference device, and electronic conference device control program

Publications (1)

Publication Number Publication Date
JP2007066081A true JP2007066081A (en) 2007-03-15

Family

ID=37928186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005252322A Pending JP2007066081A (en) 2005-08-31 2005-08-31 Electronic conference device, and electronic conference device control program

Country Status (1)

Country Link
JP (1) JP2007066081A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7930442B2 (en) 2008-02-15 2011-04-19 Sharp Kabushiki Kaisha Information processing apparatus and information processing system notifying information of optional devices
KR20110129714A (en) * 2010-05-26 2011-12-02 엘지전자 주식회사 Image display device and method for operating the same
JP2013065125A (en) * 2011-09-16 2013-04-11 Ricoh Co Ltd Screen sharing system, screen sharing terminal, electronic blackboard system and program
JP2014182716A (en) * 2013-03-21 2014-09-29 Casio Comput Co Ltd Server device, system and program
JP2016200860A (en) * 2015-04-07 2016-12-01 キヤノン株式会社 Information processing apparatus, control method thereof, and program
US9680885B2 (en) 2012-09-04 2017-06-13 Fujitsu Limited Information processing apparatus and terminal device that communicate with each other
WO2024090728A1 (en) * 2022-10-28 2024-05-02 삼성전자주식회사 Electronic device and method for providing ui thereof

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7930442B2 (en) 2008-02-15 2011-04-19 Sharp Kabushiki Kaisha Information processing apparatus and information processing system notifying information of optional devices
KR20110129714A (en) * 2010-05-26 2011-12-02 엘지전자 주식회사 Image display device and method for operating the same
KR101708646B1 (en) * 2010-05-26 2017-03-08 엘지전자 주식회사 Image Display Device and Method for Operating the Same
JP2013065125A (en) * 2011-09-16 2013-04-11 Ricoh Co Ltd Screen sharing system, screen sharing terminal, electronic blackboard system and program
US9680885B2 (en) 2012-09-04 2017-06-13 Fujitsu Limited Information processing apparatus and terminal device that communicate with each other
JP2014182716A (en) * 2013-03-21 2014-09-29 Casio Comput Co Ltd Server device, system and program
JP2016200860A (en) * 2015-04-07 2016-12-01 キヤノン株式会社 Information processing apparatus, control method thereof, and program
WO2024090728A1 (en) * 2022-10-28 2024-05-02 삼성전자주식회사 Electronic device and method for providing ui thereof

Similar Documents

Publication Publication Date Title
JP7324813B2 (en) Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments
JP6884830B2 (en) Devices and methods that provide handwriting support in document editing
JP6138866B2 (en) Device, method and graphical user interface for document manipulation
US9432322B2 (en) Electronic sticky note system, information processing terminal, method for processing electronic sticky note, medium storing program, and data structure of electronic sticky note
JP2021521557A (en) Devices and methods for measuring using augmented reality
CN113785267A (en) Apparatus, method and system for manipulating a user interface
JP2011257923A (en) Display controller, display control method, display control program and recording medium recorded with the display control program
JP2007066081A (en) Electronic conference device, and electronic conference device control program
JP2004118477A (en) Information processor and information processing method, recording medium and its program
JP5842392B2 (en) Content sharing system, content sharing terminal, server, content sharing method, and computer program
JP2016038728A (en) Image display device, control method of image display device and program thereof
JP6070116B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP6209868B2 (en) Information terminal, information processing program, information processing system, and information processing method
JP2008118317A (en) Projection device
CN114115691A (en) Electronic device and interaction method and medium thereof
JP2012094091A (en) Display control device, display control method and program therefor
JPH0423026A (en) Information display device
JP2010267214A (en) Information processing apparatus, method, and program
JP2006099414A (en) Electronic conference device and electronic conference device control program
JP2006331406A (en) Information processing apparatus and method
JPH11306369A (en) Picture data editor
JPH04491A (en) Information display device
JPH08272994A (en) Device and method for information processing
WO2023220071A2 (en) Systems, methods, and graphical user interfaces for scanning and modeling environments
JPH03257520A (en) Information display device