JP2006099414A - Electronic conference device and electronic conference device control program - Google Patents

Electronic conference device and electronic conference device control program Download PDF

Info

Publication number
JP2006099414A
JP2006099414A JP2004284482A JP2004284482A JP2006099414A JP 2006099414 A JP2006099414 A JP 2006099414A JP 2004284482 A JP2004284482 A JP 2004284482A JP 2004284482 A JP2004284482 A JP 2004284482A JP 2006099414 A JP2006099414 A JP 2006099414A
Authority
JP
Japan
Prior art keywords
display
image
displayed
electronic conference
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004284482A
Other languages
Japanese (ja)
Other versions
JP2006099414A5 (en
Inventor
Junichi Maeda
順一 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2004284482A priority Critical patent/JP2006099414A/en
Publication of JP2006099414A publication Critical patent/JP2006099414A/en
Publication of JP2006099414A5 publication Critical patent/JP2006099414A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To attain support for activating discussion in a conference. <P>SOLUTION: An electronic conference device 1 inputs the designation of a fixed range with respect to an overall image, and generates an object by segmenting a partial image from an image pertinent to the inputted range designation, and stores the generated object while making it related with an overall image. The electronic conference device 1 displays the generated object, and inputs and processes various operations, and displays the overall image corresponding to the object in response to an instruction of selecting the displayed object. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、会議の出席者が使用している情報機器間でデータを共有することで会議を支援するための電子会議装置、電子会議装置制御プログラムに関する。   The present invention relates to an electronic conference device and an electronic conference device control program for supporting a conference by sharing data among information devices used by attendees of the conference.

従来、会議を電子的に支援するためのシステムが考えられている(例えば特許文献1,2)。   Conventionally, systems for electronically supporting a conference have been considered (for example, Patent Documents 1 and 2).

特許文献1に記載された電子支援装置は、会議出席者が情報処理装置を介して送信した個人の知識である情報を会議出席者全員で共有化するための情報共有領域と、共有化された知識である情報の構造を編集するための選択表示領域とを明確に区別し、会議出席者が共通に視認することができる表示装置に表示し、このように表示装置に表示された状態で、情報共有領域に表示されたオブジェクト(ファイルアイコン、一時的にコピーされた情報(文字列、画像など))の中から所定のオブジェクトが指定されると、この指定されたオブジェクトを選択表示領域の所望の位置に表示することができる。   The electronic support device described in Patent Document 1 is shared with an information sharing area for sharing information, which is personal knowledge transmitted by the conference attendee via the information processing device, with all the conference attendees. Clearly distinguish it from the selected display area for editing the structure of information that is knowledge, and display it on a display device that can be commonly viewed by attendees of the conference, and in this state displayed on the display device, When a predetermined object is specified from the objects displayed in the information sharing area (file icon, temporarily copied information (character string, image, etc.)), the specified object is selected in the selection display area. Can be displayed at the position.

これにより、一の会議出席者により提供された情報が更新されたことを他の会議出席者や会議の進行役は容易に認知することができ、提供された情報は選択表示領域には直接表示されないことから各情報処理装置での同期処理は必要ないので、議論の進行を妨げることなく会議を運営することができる。また、会議の進行役を中心に会議出席者全員による選択表示領域を用いた議論中に、発散的に生成/提供される情報に対し、少なくとも二以上の属性の属性値を組み合わせた付与属性を付与することができるので、各情報の関係をその場で整理することができ、効率的な情報収集や情報把握を行うことができる。   This allows other meeting attendees and meeting facilitators to easily recognize that the information provided by one meeting attendee has been updated, and the provided information is displayed directly in the selection display area. Since no synchronization processing is required in each information processing apparatus, the conference can be operated without hindering the progress of the discussion. In addition, during the discussion using the selection display area by all meeting attendees, mainly the facilitator of the meeting, for the information generated / provided in a divergent manner, a grant attribute combining at least two attribute values is added. Since it can be given, the relationship between each information can be organized on the spot, and efficient information collection and information grasping can be performed.

特許文献2に記載された電子会議システムは、複数のクライアントが1つのサーバに接続され、各クライアントがサーバにある情報を閲覧あるいは編集可能なサーバ/クライアント型の電子会議システムであって、サーバは文書の表示画面データを記憶するための複数の画面バッファを備え、各画面バッファ毎に、複数のクライアントが表示画面データを同時に表示できる共有画面モード、あるいは1つのクライアントのみが表示画面データを表示できる個別画面モードのいずれかのモードを選択し、共有画面モードにあるサーバの画面バッファと個別画面モードにあるサーバの画面バッファの両方に同じ文書データを記憶している場合に、1つのクライアントにおいて個別画面モードにあるサーバの画面バッファに記憶された文書データに対して編集操作を行うと、該操作に対応した所定のタイミング毎に、編集操作と同じ編集操作が共有画面モードにあるサーバの画面バッファに記憶された文書データに対して行われる。   The electronic conference system described in Patent Document 2 is a server / client type electronic conference system in which a plurality of clients are connected to one server, and each client can view or edit information on the server. A plurality of screen buffers for storing display screen data of a document are provided, and for each screen buffer, a shared screen mode in which a plurality of clients can simultaneously display the display screen data, or only one client can display the display screen data. When one of the individual screen modes is selected and the same document data is stored in both the server screen buffer in the shared screen mode and the server screen buffer in the individual screen mode, each client individually Document data stored in the screen buffer of the server in screen mode When editing operation and, at every predetermined timing corresponding to the operation, performed on the document data which the same editing operation and editing operation is stored in the screen buffer of the server in the shared-screen mode.

これにより、個々の端末で、共有文書に対する追記、編集などを行う際に、他人に不要なあるいは他人に見られたくない部分は全ての端末で共有されないため、他人の目を気にせずに共有文書に対して追記、編集することができ、会議出席者などのユーザの利便性を向上することができ、また、共有画面に表示された文書と同じ文書が自分だけ参照できる個別画面に表示され、共有画面に表示された文書に対して行う編集を共有画面の表示内容とは無関係にこの個別画面上で実施できるため、ユーザの利便性を向上することができる。
特開2003−281066号公報 特開2003−281101号公報
As a result, when adding or editing a shared document on an individual device, parts that are not needed by others or that are not wanted to be seen by others are not shared by all devices, so they can be shared without worrying about the eyes of others. You can add and edit documents, improve the convenience of users such as meeting attendees, and display the same document as the document displayed on the shared screen on a separate screen that only you can see. Since the editing performed on the document displayed on the shared screen can be performed on the individual screen regardless of the display content of the shared screen, the convenience for the user can be improved.
JP 2003-28166 A JP 2003-281101 A

このように従来の会議を支援するためのシステムでは、会議出席者で情報を共有できるようにしながら、出席者個人から提供される情報に対して考慮がなされた扱いがされるように構成することで会議を支援している。   In this way, the system for supporting a conventional meeting is configured so that information provided by individual attendees is considered while allowing information to be shared among attendees. Is supporting the meeting.

しかしながら、何れのシステムにおいても、会議出席者で情報を共有しながら議論の進行を妨げないようにする、あるいは会議の出席者(ユーザ)の利便性を向上させることで支援するものであり、会議出席者の創造性を刺激し、より多くのアイディアを提供させることで議論そのものを活性化させることについては意図されていなかった。   However, in any system, meeting attendees share information to prevent the progress of discussions, or to improve the convenience of meeting attendees (users). It was not intended to stimulate the discussion itself by stimulating the creativity of attendees and providing more ideas.

本発明の課題は、会議における議論を活性化させるための支援が可能な電子会議装置、及び電子会議装置制御プログラムを提供することにある。   An object of the present invention is to provide an electronic conference device and an electronic conference device control program capable of supporting the activation of discussions in a conference.

請求項1記載の発明は、表示装置に表示された画像の一定範囲を指定する範囲指定手段と、前記範囲指定手段により指定された範囲に該当する部分画像をもとにオブジェクトを生成するオブジェクト生成手段と、前記オブジェクト生成手段により生成されたオブジェクトを記憶するオブジェクト記憶手段と、前記範囲指定の対象となった表示画像を前記オブジェクト記憶手段に記憶されたオブジェクトと関連づけて全体画像として記憶する全体画像記憶手段と、前記オブジェクト記憶手段により記憶されたオブジェクトを表示するオブジェクト表示手段と、前記オブジェクト表示手段により表示されたオブジェクトを選択するオブジェクト選択手段と、前記オブジェクト選択手段により選択されたオブジェクトに対応する前記全体画像記憶手段により記憶された全体画像を表示する全体画像表示手段とを具備したことを特徴とする。   According to the first aspect of the present invention, range specifying means for specifying a certain range of an image displayed on a display device, and object generation for generating an object based on a partial image corresponding to the range specified by the range specifying means Means, an object storage means for storing the object generated by the object generation means, and an entire image for storing the display image targeted for the range specification as an entire image in association with the object stored in the object storage means Corresponding to the object selected by the object selection means, the object display means for displaying the object stored by the object storage means, the object selection means for selecting the object displayed by the object display means, and the object selection means The whole image memory Characterized by comprising the entire image display means for displaying the whole image stored by.

請求項2記載の発明は、請求項1記載の発明において、前記範囲指定の対象となる表示画像は、他のアプリケーションにより表示された画像であることを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, the display image that is the target of the range specification is an image displayed by another application.

請求項3記載の発明は、請求項1記載の発明において、ポインティングデバイスを有し、前記範囲指定の対象となる表示画像は、前記ポインティングデバイスから入力されたデータからなる画像であることを特徴とする。   The invention according to claim 3 is the invention according to claim 1, characterized in that it has a pointing device, and the display image that is the target of the range specification is an image composed of data input from the pointing device. To do.

請求項4記載の発明は、請求項1記載の発明において、予め決められた時間の経過を判別する時間経過判別手段をさらに具備し、前記オブジェクト表示手段は、前記時間経過判別手段により予め決められた時間が経過したと判別された場合に、前記オブジェクト記憶手段により記憶されたオブジェクトを表示することを特徴とする。   According to a fourth aspect of the present invention, in the first aspect of the invention, the apparatus further comprises a time lapse determining means for determining a lapse of a predetermined time, and the object display means is predetermined by the time lapse determining means. When it is determined that a predetermined time has elapsed, the object stored by the object storage means is displayed.

請求項5記載の発明は、請求項4記載の発明において、前記オブジェクト表示手段によりオブジェクトを表示する条件を設定する条件設定手段とを具備し、前記オブジェクト表示手段は、前記条件設定手段によって設定された条件に従ってオブジェクトを表示することを特徴とする。   The invention according to claim 5 is the invention according to claim 4, further comprising condition setting means for setting a condition for displaying the object by the object display means, wherein the object display means is set by the condition setting means. The object is displayed according to the specified conditions.

請求項6記載の発明は、請求項1記載の発明において、前記オブジェクト表示手段により表示されたオブジェクトの配列の変更要求を入力する配列変更要求入力手段と、前記オブジェクト表示手段は、前記配列変更要求入力手段により変更要求が入力される毎に前記オブジェクト記憶手段に記憶された複数のオブジェクトの配列をランダムに変更して表示させることを特徴とする。   According to a sixth aspect of the present invention, in the first aspect of the present invention, in the first aspect, an array change request input means for inputting a change request for the arrangement of objects displayed by the object display means; and the object display means includes the array change request. Each time a change request is input by the input means, the arrangement of a plurality of objects stored in the object storage means is randomly changed and displayed.

請求項7記載の発明は、請求項1記載の発明において、前記オブジェクト記憶手段に記憶されたオブジェクトの表示要求を入力する表示要求入力手段と、前記オブジェクト表示手段は、前記表示要求入力手段により入力された表示要求に応じて、前記オブジェクト記憶手段に記憶された複数のオブジェクトを一覧表示させることを特徴とする。   According to a seventh aspect of the present invention, in the first aspect of the present invention, the display request input means for inputting a display request for the object stored in the object storage means, and the object display means are input by the display request input means. A plurality of objects stored in the object storage means are displayed as a list in response to the displayed request.

請求項8記載の発明は、請求項1記載の発明において、前記オブジェクト表示手段によって表示された複数のオブジェクトを選択する複数オブジェクト選択手段と、前記複数オブジェクト選択手段によって選択された複数のオブジェクトを関連付けて共通する所定の属性を設定する設定手段とを具備したことを特徴とする。   The invention described in claim 8 relates to the invention described in claim 1, wherein a plurality of object selection means for selecting a plurality of objects displayed by the object display means and a plurality of objects selected by the plurality of object selection means are associated with each other. And setting means for setting a predetermined common attribute.

請求項9記載の発明は、請求項1記載の発明において、ネットワークを介して他の情報機器と接続する接続手段と、前記接続手段により接続された前記他の情報機器との間で、前記オブジェクト記憶手段により記憶されたオブジェクトを共有化する共有化手段とを具備したことを特徴とする。   According to a ninth aspect of the present invention, in the first aspect of the invention, the object is connected between a connection unit connected to another information device via a network and the other information device connected by the connection unit. And sharing means for sharing the object stored in the storage means.

請求項10記載の発明は、請求項9記載の発明において、前記他の情報機器に対応する機器オブジェクトを、前記オブジェクト表示手段により表示されるオブジェクトと共に表示する第2オブジェクト表示手段と、前記第2オブジェクト表示手段により表示された前記機器オブジェクトと、前記オブジェクト表示手段により表示されるオブジェクトとの関連づけを示す指示を入力する関連指示入力手段と、前記関連指示入力手段により入力された指示に応じて、前記機器オブジェクトと前記オブジェクトとを関連付けを設定する関連付け設定手段とを具備したことを特徴とする。   According to a tenth aspect of the present invention, in the ninth aspect of the invention, a second object display means for displaying a device object corresponding to the other information device together with an object displayed by the object display means; In accordance with the instruction input by the related instruction input means, the related instruction input means for inputting an instruction indicating the association between the device object displayed by the object display means and the object displayed by the object display means, An association setting means for setting an association between the device object and the object is provided.

請求項11記載の発明は、請求項9記載の発明において、前記接続手段により接続された他の情報機器のそれぞれに応じた画像データを記憶する画像データ記憶手段と、前記画像データ記憶手段により記憶された前記他の情報機器のそれぞれに応じた画像データを選択的に合成して表示する合成表示手段とを具備したことを特徴とする。   According to an eleventh aspect of the invention, in the ninth aspect of the invention, image data storage means for storing image data corresponding to each of the other information devices connected by the connection means, and storage by the image data storage means. And a combination display means for selectively combining and displaying image data corresponding to each of the other information devices.

請求項12記載の発明は、コンピュータを、表示装置に表示された画像の一定範囲を指定する範囲指定手段と、前記範囲指定手段により指定された範囲に該当する部分画像をもとにオブジェクトを生成するオブジェクト生成手段と、前記オブジェクト生成手段により生成されたオブジェクトを記憶するオブジェクト記憶手段と、前記範囲指定の対象となった表示画像を前記オブジェクト記憶手段に記憶されたオブジェクトと関連づけて全体画像として記憶する全体画像記憶手段と、前記オブジェクト記憶手段により記憶されたオブジェクトを表示するオブジェクト表示手段と、前記オブジェクト表示手段により表示されたオブジェクトを選択するオブジェクト選択手段と、前記オブジェクト選択手段により選択されたオブジェクトに対応する前記全体画像記憶手段により記憶された全体画像を表示する全体画像表示手段として機能させることを特徴とする。   According to a twelfth aspect of the present invention, a computer generates an object based on range designation means for designating a certain range of an image displayed on a display device, and a partial image corresponding to the range designated by the range designation means. Object generating means for storing, an object storing means for storing the object generated by the object generating means, and a display image which is a target of the range specification is stored as an entire image in association with the object stored in the object storing means. An entire image storage means, an object display means for displaying the object stored by the object storage means, an object selection means for selecting an object displayed by the object display means, and an object selected by the object selection means Corresponding to Whole image stored by serial whole image storage means, characterized in that to function as the entire image display means for displaying.

請求項1,12記載の発明によれば、表示された画像に対して一定範囲が指定されることで、指定範囲に該当する画像内に何らかの情報が表示されている場合には、その情報を表す部分画像をもとに、各種処理の処理単位となるオブジェクトを生成さすることができる。従って、全体画像中で特徴的な部分、例えば文字列、図形、画像などをオブジェクト化しておけば、このオブジェクトを画面中に表示させて、会議の内容や進行状況に応じて各種の操作、例えば移動、コピー、削除などをすることで、アイディアプロセッサとして機能させることで会議出席者の創造性を刺激し、より多くのアイディアを提供させることで議論の活性化を図ることができる。そして、必要に応じてオブジェクトを選択指示すれば、このオブジェクトを含む全体画像を表示して簡単にオブジェクトに対する詳細を確認することができる。   According to the invention described in claims 1 and 12, when a certain range is specified for the displayed image, and some information is displayed in the image corresponding to the specified range, the information is displayed. Based on the partial image to be represented, an object as a processing unit of various processes can be generated. Therefore, if a characteristic part in the entire image, such as a character string, a figure, or an image, is converted into an object, this object is displayed on the screen, and various operations can be performed according to the content and progress of the meeting, for example, By moving, copying, deleting, etc., it is possible to stimulate the creativity of the conference attendees by functioning as an idea processor, and to stimulate discussion by providing more ideas. If an object is selected as necessary, the entire image including the object can be displayed and the details of the object can be easily confirmed.

請求項2記載の発明によれば、請求項1の発明の効果に加えて、他のアプリケーションにより画面に表示された画像からオブジェクトを生成するので、他のアプリケーションで作成された情報を簡単に会議において利用することができる。   According to the second aspect of the invention, in addition to the effect of the first aspect of the invention, the object is generated from the image displayed on the screen by the other application, so that the information created by the other application can be easily conferenced. Can be used.

請求項3記載の発明によれば、請求項1の発明の効果に加えて、一般に会議などでは議論の内容をメモ書き(手書き)することが多いが、こうして手書きされたメモ内容からオブジェクトを生成して会議に利用することができる。   According to the invention of claim 3, in addition to the effect of the invention of claim 1, in general, the contents of the discussion are often written down (handwritten) in a meeting or the like, and thus an object is generated from the handwritten memo contents. And can be used for meetings.

請求項4記載の発明によれば、請求項1の発明の効果に加えて、予め決められた時間が経過した場合、例えば最後に行われた入力操作から一定時間が経過した場合には会議が停滞した状態にある可能性があるため、オブジェクトを自動で表示させることで創造性を刺激し、これをきっかけにして停滞した議論の活性化を図ることができる。   According to the invention of claim 4, in addition to the effect of the invention of claim 1, when a predetermined time has passed, for example, when a certain time has passed since the last input operation, a conference is held. Since there is a possibility that the object is in a stagnation state, it is possible to stimulate the creativity by automatically displaying the object, and to activate the argument that stagnation is triggered by this.

請求項5記載の発明によれば、請求項4の発明の効果に加えて、オブジェクトを表示させる場合の条件、例えば表示開始時間(例えば入力操作がされていない期間)、表示対象とするオブジェクトの選択方法、表示パターンなどを、利用者の好みに合わせて設定できるようにすることで、創造性を刺激して会議の活性化に有効なオブジェクトの表示が可能となる。   According to the fifth aspect of the present invention, in addition to the effect of the fourth aspect of the invention, conditions for displaying an object, such as a display start time (for example, a period during which no input operation is performed), an object to be displayed, By enabling the selection method, display pattern, and the like to be set according to the user's preference, it is possible to display objects that are effective for stimulating the conference by stimulating creativity.

請求項6記載の発明によれば、請求項1の発明の効果に加えて、オブジェクトを表示させる場合に、複数のオブジェクトの配列をランダムに変更することで、会議の出席者が意図していないオブジェクトの関係を提示することで、創造性を刺激して会議の活性化を図ることができる。   According to the sixth aspect of the present invention, in addition to the effect of the first aspect of the invention, when displaying an object, the arrangement of a plurality of objects is randomly changed so that the attendee of the meeting does not intend. By presenting object relationships, you can stimulate your creativity and activate your meeting.

請求項7記載の発明によれば、請求項1の発明の効果に加えて、複数のオブジェクトを一覧表示して会議出席者に提示することができるので、オブジェクトとして設定されている事項を容易に整理することができ、議論を整理して会議の進行をスムーズにすることができる。   According to the seventh aspect of the present invention, in addition to the effect of the first aspect of the invention, a plurality of objects can be displayed in a list and presented to the meeting attendee, so that the items set as objects can be easily You can organize, and you can organize discussions and make meetings progress smoothly.

請求項8記載の発明によれば、請求項1の発明の効果に加えて、複数のオブジェクトを選択してそれらを関連づけて共通する属性、例えばサイズ、色、グループなどを設定することで、画面中でのオブジェクトを整理し、オブジェクトの関係を明瞭にすることで、オブジェクトを利用した会議の進行をスムーズにし、新たに創造性を刺激することができる。   According to the invention of claim 8, in addition to the effect of the invention of claim 1, a screen is obtained by selecting a plurality of objects and associating them and setting common attributes such as size, color, group, etc. By organizing the objects inside and clarifying the relationship between the objects, the progress of the conference using the objects can be made smooth and new creativity can be stimulated.

請求項9記載の発明によれば、請求項1の発明の効果に加えて、他の情報機器とネットワークを介して接続し、オブジェクトを共有化することで、会議の出席者が個々に使用している情報機器において、出席者がオブジェクトに対する操作を行うことができる。この場合、オブジェクトに対する操作内容は、会議出席者に共有させることもできるし、オブジェクトを利用した個々の出席者の検討内容として扱うことができる。   According to the ninth aspect of the present invention, in addition to the effect of the first aspect of the invention, the object is shared by connecting to other information devices via the network and sharing the objects, so that the attendees of the conference can use each of them individually. The attendees can perform operations on the objects in the information equipment. In this case, the operation contents for the object can be shared by the meeting attendees, or can be handled as the examination contents of individual attendees using the object.

請求項10記載の発明によれば、請求項9の発明の効果に加えて、ネットワークを介して接続された他の情報機器のそれぞれに対応する機器オブジェクト、すなわち会議出席者に応じたオブジェクト(出席者オブジェクト)を表示させ、他のオブジェクトとの関連づけを設定できることで、例えばオブジェクトが表す事項についての担当者の割り振りなどをオブジェクトとの関連づけにより決めることができる。   According to the tenth aspect of the present invention, in addition to the effect of the ninth aspect, the apparatus object corresponding to each of the other information devices connected via the network, that is, the object corresponding to the conference attendee (attendance) (Person object) can be displayed and the association with other objects can be set, for example, the assignment of the person in charge of the matter represented by the object can be determined by the association with the object.

請求項11記載の発明によれば、請求項9の発明の効果に加えて、ネットワークを介して接続された他の情報機器における共有化されたオブジェクトに対する操作内容、すなわちオブジェクトを利用した個々の出席者の検討内容を表す画像データを別々に記憶し、これらを合成して、あるいは特定の出席者に対応する画像データを用いて表示させることで、出席者の意見をオブジェクトに対する操作内容として会議に提供することができる。   According to the eleventh aspect of the invention, in addition to the effect of the ninth aspect of the invention, the operation contents for the shared object in other information devices connected via the network, that is, individual attendance using the object By separately storing image data representing the contents of a person's examination and combining them or displaying them using image data corresponding to a specific attendee, the opinions of attendees can be used as operations for objects in the meeting. Can be provided.

以下、図面を参照して本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本実施形態における電子会議装置1を使用するシステム構成を示すブロック図である。   FIG. 1 is a block diagram showing a system configuration using the electronic conference apparatus 1 in the present embodiment.

電子会議装置1には、複数のパーソナルコンピュータ2,3,4、PDA(personal digital assistant)5などが無線LAN(Local Area Network)などによる無線接続、あるいはUSB(Universal Serial Bus)などによる有線接続されている。なお、相互接続の方法については無線、有線の何れの場合も他の方法を用いることが可能である。   A plurality of personal computers 2, 3, 4, PDA (personal digital assistant) 5 and the like are connected to the electronic conferencing apparatus 1 by wireless connection using a wireless local area network (LAN) or wired connection using USB (Universal Serial Bus). ing. As for the interconnection method, other methods can be used in both cases of wireless and wired.

本実施形態における電子会議装置1では、電子会議装置制御プログラムを実行することにより、仮想のホワイトボード(電子ホワイトボード)を設定して画像データを管理する。本実施形態では、画像中において各種処理の単位とするオブジェクトを設定し、このオブジェクトと全体画像のデータとを関連づけて管理する。電子会議装置1は、ポインティングデバイス(タブレットなど)を通じて例えば手書き入力される軌跡を表すデータ(座標時系列データ)、あるいはアプリケーションによって処理されている画面の画像データを電子ホワイトボードに貼り付け、この電子ホワイトボードで管理される画像データによる画像を、プロジェクタ6を通じてスクリーン7に投影(表示)させて、会議の出席者に見せることができる。   In the electronic conference apparatus 1 according to the present embodiment, a virtual whiteboard (electronic whiteboard) is set and image data is managed by executing an electronic conference apparatus control program. In the present embodiment, an object as a unit of various processes is set in an image, and the object and the data of the entire image are managed in association with each other. The electronic conference apparatus 1 pastes data representing a locus input by handwriting (coordinate time series data) or image data of a screen processed by an application through an pointing device (such as a tablet) on the electronic whiteboard. An image based on the image data managed by the whiteboard can be projected (displayed) on the screen 7 through the projector 6 and shown to the attendees of the conference.

また、電子会議装置1は、電子ホワイトボードにより管理される画像データを、ネットワーク(無線LAN、USBなど)を介して接続されたパーソナルコンピュータ2,3,4及びPDA5と共有化し、パーソナルコンピュータ2,3,4及びPDA5においても同様の画面を表示させることができる。   The electronic conference apparatus 1 also shares image data managed by the electronic whiteboard with the personal computers 2, 3, 4 and the PDA 5 connected via a network (wireless LAN, USB, etc.). A similar screen can be displayed on the 3 and 4 and the PDA 5.

さらに、電子会議装置1は、パーソナルコンピュータ2,3,4及びPDA5における、電子ホワイトボードにより管理される画像データに対する各種処理の結果を入力し、選択的に合成してプロジェクタ6を通じて投影(表示)させることができる。   Further, the electronic conference apparatus 1 inputs the results of various processes for the image data managed by the electronic whiteboard in the personal computers 2, 3, 4 and the PDA 5, selectively synthesizes them, and projects (displays) them through the projector 6. Can be made.

図2は、図1に示す電子会議装置1の詳細な構成を示すブロック図である。
図2に示すように、電子会議装置1は、CPU(Central Processing Unit)10、RAM(random access memory)11、ROM(Read Only Memory)12、RTC(Real Time clock)13、無線LANコントローラ14、映像信号出力コントローラ15、LCDコントローラ16、タブレットコントローラ17、USBコントローラ18、ハードディスクコントローラ19、LCD20、タブレット21、USBインタフェース22、及びハードディスク23を有している。
FIG. 2 is a block diagram showing a detailed configuration of the electronic conference apparatus 1 shown in FIG.
As shown in FIG. 2, the electronic conference apparatus 1 includes a CPU (Central Processing Unit) 10, a RAM (random access memory) 11, a ROM (Read Only Memory) 12, an RTC (Real Time Clock) 13, a wireless LAN controller 14, It has a video signal output controller 15, LCD controller 16, tablet controller 17, USB controller 18, hard disk controller 19, LCD 20, tablet 21, USB interface 22, and hard disk 23.

CPU10は、ROM12に記憶された各種プログラム、ハードディスク23からロードされたOSや各種のアプリケーションプログラムを実行する。アプリケーションプログラムには、プレゼンテーション、ワードプロセッサ、表計算、図形描画等の機能を提供するプログラムの他、本実施形態における電子ホワイトボード機能を実現するための電子会議装置制御プログラムが含まれている。   The CPU 10 executes various programs stored in the ROM 12, an OS loaded from the hard disk 23, and various application programs. The application program includes a program that provides functions such as presentation, word processor, spreadsheet, and graphic drawing, and an electronic conference device control program for realizing the electronic whiteboard function in the present embodiment.

RAM11は、各種プログラムやデータなどが一時的に記憶されるもので、CPU10により実行される各種処理のワークエリアとして使用される。電子会議装置制御プログラム(電子ホワイトボード機能)が実行されている場合には、電子ホワイトボードに貼り付けられる画像データや、この機能により管理される各種データ(オブジェクト等)のファイルが記憶される。   The RAM 11 temporarily stores various programs and data, and is used as a work area for various processes executed by the CPU 10. When the electronic conference device control program (electronic whiteboard function) is executed, image data pasted on the electronic whiteboard and files of various data (objects, etc.) managed by this function are stored.

ROM12は、システム全体の制御を行うためのプログラムが予め記憶されている。
RTC13は、専用バッテリによりバックアップされており、年月日時刻を示すデータを出力する。
無線LANコントローラ14は、パーソナルコンピュータ2,3との間の無線通信を制御する。
The ROM 12 stores a program for controlling the entire system in advance.
The RTC 13 is backed up by a dedicated battery and outputs data indicating the date.
The wireless LAN controller 14 controls wireless communication with the personal computers 2 and 3.

映像信号出力コントローラ15は、プロジェクタ6により画像を投影させるための映像信号を、例えばRGBあるいはDVI(Digital Visual Interface)により出力する。映像信号出力コントローラ15は、電子ホワイトボード機能が起動されている場合に、CPU10の制御により電子ホワイトボード画像を表示するための映像信号を出力する。   The video signal output controller 15 outputs a video signal for causing the projector 6 to project an image, for example, by RGB or DVI (Digital Visual Interface). The video signal output controller 15 outputs a video signal for displaying an electronic whiteboard image under the control of the CPU 10 when the electronic whiteboard function is activated.

LCDコントローラ16は、CPU10の制御のもとで、LCD20における表示を制御する。LCD20の表示面には、タブレット21が重ね合わせて一体化されており、タブレット21により入力される座標時系列データに応じた筆跡を入力位置に合わせて表示する。   The LCD controller 16 controls display on the LCD 20 under the control of the CPU 10. A tablet 21 is integrated on the display surface of the LCD 20 so that handwriting corresponding to coordinate time-series data input by the tablet 21 is displayed in accordance with the input position.

タブレットコントローラ17は、タブレット21上で位置指示手段として使用されるペンのペン先が接触した部分を検出し、その位置情報(座標データ)を取り込む。タブレット21は、LCD20の表示面と重ね合わせて一体化されている。   The tablet controller 17 detects a portion where the pen tip of the pen used as the position instruction means on the tablet 21 has come into contact, and takes in the position information (coordinate data). The tablet 21 is integrated with the display surface of the LCD 20 in an overlapping manner.

USBコントローラ18は、CPU10の制御のもとで、USBインタフェース22を介して接続されたパーソナルコンピュータ4やPDA5などの他の情報機器との間でUSB規格に準拠したデータ転送を実行、制御する。   Under the control of the CPU 10, the USB controller 18 executes and controls data transfer conforming to the USB standard with other information devices such as the personal computer 4 and the PDA 5 connected via the USB interface 22.

ハードディスクコントローラ19は、CPU10の制御のもとで、ハードディスク23に対するプログラムやデータの書き込み、読出しを制御する。ハードディスク23には、OS(Operating System)プログラム、各種アプリケーションプログラム(電子会議装置制御プログラムを含む)などのプログラムの他、電子ホワイトボード機能において管理される画像データや設定データを含むファイルなどが記録されており、必要に応じて読み出される。   The hard disk controller 19 controls writing and reading of programs and data to and from the hard disk 23 under the control of the CPU 10. In addition to programs such as an OS (Operating System) program and various application programs (including an electronic conference device control program), the hard disk 23 records files including image data and setting data managed in the electronic whiteboard function. Read out as needed.

なお、図2に示す構成では、ポインティングデバイスとしてタブレット21が設けられているが、その他のポインティングデバイス、マウスやその他の座標データ入力デバイスを設けることも可能である。   In the configuration shown in FIG. 2, the tablet 21 is provided as a pointing device, but other pointing devices, a mouse, and other coordinate data input devices may be provided.

また、ポインティングデバイスとしてLCD20と一体化されたタブレット21だけではなく、一般のホワイトボードの形状をした、ボード上でのマーカ(ペン)などによる描画に応じて筆跡を表す座標時系列データを入力可能な装置を電子会議装置1に接続した構成とすることもできる。   In addition to the tablet 21 integrated with the LCD 20 as a pointing device, it is possible to input coordinate time series data representing handwriting according to drawing with a marker (pen) on the board in the shape of a general whiteboard. It is also possible to adopt a configuration in which a simple device is connected to the electronic conference device 1.

また、図1に示すシステム構成では、電子会議装置1からプロジェクタ6に対して電子ホワイトボードの画像データを出力し、プロジェクタ6による画像をスクリーン7に投影させるものとしているが、例えば電子会議装置1からのデータを受信して画像を表示する大画面を持つディスプレイを用いることも可能である。   In the system configuration shown in FIG. 1, the electronic whiteboard image data is output from the electronic conference apparatus 1 to the projector 6 and the image by the projector 6 is projected onto the screen 7. For example, the electronic conference apparatus 1 It is also possible to use a display having a large screen that receives data from and displays an image.

次に、本実施形態における電子会議装置1の動作について、図3〜図10に示すフローチャートを参照しながら説明する。   Next, operation | movement of the electronic conference apparatus 1 in this embodiment is demonstrated, referring the flowchart shown in FIGS.

本実施形態の電子会議装置1において、電子会議装置制御プログラムにより実行される電子ホワイトボード機能では、起動処理、ドラッグ処理(ドラッグメニュー処理、オブジェクト編集メニュー処理)、ファイルメニュー処理、自動オブジェクト表示処理を実行する。
以下、電子会議装置1により実行される各種処理の詳細について個々に説明する。
In the electronic conference apparatus 1 according to the present embodiment, the electronic whiteboard function executed by the electronic conference apparatus control program performs activation processing, drag processing (drag menu processing, object editing menu processing), file menu processing, and automatic object display processing. Execute.
Hereinafter, details of various processes executed by the electronic conference apparatus 1 will be described individually.

(起動処理)
まず、起動処理について、図3に示すフローチャートを参照しながら説明する。
(Start process)
First, the activation process will be described with reference to the flowchart shown in FIG.

電子会議装置1では、任意のアプリケーションプログラムを実行させることができる。アプリケーションには、例えばプレゼンテーション、ワードプロセッサ、表計算、図形描画等がある。電子会議装置1は、アプリケーションプログラムが実行中である場合、このアプリケーションで処理されている画面がLCD20において表示されている。   In the electronic conference apparatus 1, an arbitrary application program can be executed. Applications include, for example, presentations, word processors, spreadsheets, and graphic drawing. In the electronic conference apparatus 1, when an application program is being executed, a screen processed by this application is displayed on the LCD 20.

ここで、電子ホワイトボード機能の実行が指示されると、CPU10は、電子会議装置制御プログラムを起動して起動処理を開始する。まず、CPU10は、電子ホワイトボード機能の起動時の画面をキャプチャ、すなわち起動時にアプリケーションで処理対象としていた画面の画像データを取得してRAM11に一時記憶する(ステップA1)。   Here, when the execution of the electronic whiteboard function is instructed, the CPU 10 activates the electronic conference device control program and starts the activation process. First, the CPU 10 captures a screen when the electronic whiteboard function is activated, that is, acquires image data of a screen that is an object to be processed by the application at the time of activation, and temporarily stores it in the RAM 11 (step A1).

CPU10は、電子ホワイトボード画面(ウィンドウ)をLCD20において表示させ(ステップA2)、この電子ホワイトボードにキャプチャした画面を貼り付ける(ステップS3)。そして、CPU10は、電子ホワイトボードを使用可能状態、すなわちタブレット21上におけるペンを用いた手書き入力操作により座標時系列データ(筆跡データ)を入力し、この筆跡を表す画像を表示できるようにする。   The CPU 10 displays an electronic whiteboard screen (window) on the LCD 20 (step A2), and pastes the captured screen on the electronic whiteboard (step S3). Then, the CPU 10 enables the electronic whiteboard to be used, that is, inputs coordinate time-series data (handwriting data) by handwriting input operation using a pen on the tablet 21 so that an image representing the handwriting can be displayed.

図11には、電子ホワイトボードの表示画面の一例を示している。電子ホワイトボードには、ペン操作により指示可能な複数のコマンドボタンの他、手書き入力領域が設けられている。   FIG. 11 shows an example of an electronic whiteboard display screen. The electronic whiteboard is provided with a handwriting input area in addition to a plurality of command buttons that can be instructed by a pen operation.

電子ホワイトボードの起動時にアプリケーションにより処理されていた画面がキャプチャされた場合には、手書き入力領域にキャプチャされた画面が表示される。例えば、プレゼンテーション用のアプリケーションの場合には、文字列、図形、画像などが表示される。   When the screen processed by the application when the electronic whiteboard is activated is captured, the captured screen is displayed in the handwriting input area. For example, in the case of a presentation application, a character string, a figure, an image, and the like are displayed.

なお、前述した説明では、他のアプリケーションによる画面をキャプチャして電子ホワイトボードに貼り付けるものとして説明しているが、電子ホワイトボード機能の起動時にアプリケーションが実行されていない場合には、図11に示すような画像が貼り付けられていない初期状態の電子ホワイトボードが表示される。   In the above description, the screen by another application is captured and pasted on the electronic whiteboard. However, if the application is not executed when the electronic whiteboard function is activated, FIG. An electronic whiteboard in an initial state where an image as shown is not pasted is displayed.

この場合、以下に説明する処理では、電子ホワイトボードでペンを用いて手書き入力された筆跡を表す座標時系列データ(画像データ)を処理対象とする。以下の説明では、手書き入力された画像データを処理対象として説明する。   In this case, in the process described below, coordinate time-series data (image data) representing handwriting input by handwriting using a pen on an electronic whiteboard is set as a processing target. In the following description, image data input by handwriting will be described as a processing target.

(ドラッグ処理)
次に、ドラッグ処理について、図4に示すフローチャートを参照しながら説明する。ドラッグ処理では、電子ホワイトボードに入力された(貼り付けられた)画像データに対するドラッグ操作により各種の処理を実行することができる。ドラッグ操作とは、ペン先をタブレット21に接触させた状態で移動させて、座標時系列データを入力する操作をいう。
(Drag processing)
Next, the drag process will be described with reference to the flowchart shown in FIG. In the drag process, various processes can be executed by a drag operation on the image data input (pasted) to the electronic whiteboard. The drag operation refers to an operation of inputting coordinate time series data by moving the pen tip in contact with the tablet 21.

ここで、電子ホワイトボードには、例えば図12(a)に示すように、手書き入力された文字列(「ホワイトボード」)を表す座標時系列データ(画像データ)が入力されているものとする。   Here, for example, as shown in FIG. 12A, coordinate time-series data (image data) representing a character string ("whiteboard") input by handwriting is input to the electronic whiteboard. .

電子ホワイトボードがアクティブ(データ入力が可能な状態)であり、ペンがオブジェクトを選択するツールとしてのモードになっている時に、図11に示す電子ホワイトボード画面のデータ入力領域においてペンを用いたドラッグ操作により範囲指定がされた場合(ステップB1〜B3)、CPU10は、ドラッグ操作により指定された範囲内に、処理単位として管理されているオブジェクトが含まれているかを判別する(ステップB4)。なお、オブジェクトの詳細については後述する(図5、図13)。   When the electronic whiteboard is active (data input is possible) and the pen is in a mode as a tool for selecting an object, dragging using the pen in the data input area of the electronic whiteboard screen shown in FIG. When the range is specified by the operation (steps B1 to B3), the CPU 10 determines whether the object managed as the processing unit is included in the range specified by the drag operation (step B4). Details of the object will be described later (FIGS. 5 and 13).

範囲指定であるか否かは、例えばドラッグ操作により入力された座標時系列データの端点と終点が近傍に位置し(あるいは筆跡が交差し)、座標時系列データによって所定以上のサイズの領域を囲んでいるかにより判別する。   Whether or not the range is specified, for example, the end point and end point of the coordinate time series data input by the drag operation are located in the vicinity (or the handwriting intersects), and the coordinate time series data surrounds an area of a predetermined size or more. It is determined by whether or not

例えば、図12(a)に示す手書きの文字列を表す画像データに対して、図12(b)示すように、この文字列を囲むようにドラッグ操作された場合には、この画像データに対してはオブジェクトが定義されていないので、オブジェクトが含まれないと判別される(ステップB4、No)。   For example, when the image data representing the handwritten character string shown in FIG. 12A is dragged so as to surround the character string as shown in FIG. Since no object is defined, it is determined that no object is included (No in step B4).

この場合、CPU10は、ペンがタブレット21(LCD20の表示画面)上から離された(ペンアップ)のタイミングに合わせて、ドラッグ操作により画像データが入力された位置の近傍に、例えば図12(c)に示すように、ドラッグメニューを表示させる(ステップB7)。ドラッグメニューには、例えば「オブジェクト化」「空白挿入」「削除(左寄せ)」「消去」「コピー」「移動」のコマンド名(選択肢)が一覧表示されている。   In this case, the CPU 10 matches the timing when the pen is released from the tablet 21 (display screen of the LCD 20) (pen up) in the vicinity of the position where the image data is input by the drag operation, for example, FIG. ), A drag menu is displayed (step B7). In the drag menu, for example, command names (options) of “objectification”, “blank insertion”, “deletion (left justification)”, “erasure”, “copy”, and “move” are listed.

次に、CPU10は、ドラッグメニューから選択されたコマンドに応じた処理のためのドラッグメニュー処理を実行する(ステップB8)。   Next, the CPU 10 executes a drag menu process for a process corresponding to the command selected from the drag menu (step B8).

図5には、ドラッグメニュー処理のフローチャートを示している。
なお、ドラッグメニューの「オブジェクト化」以外の処理については、本発明と直接関係がないので説明を省略する。また、ドラッグメニュー外の部分がペンにより指示(あるいはマウスなどにクリック)された場合には(ステップC2、Yes)、ドラッグメニューを閉じて元の表示画面に戻るものとする(ステップC3)。
FIG. 5 shows a flowchart of the drag menu process.
The processing other than the “objectification” of the drag menu is not directly related to the present invention, and thus the description thereof is omitted. If a part outside the drag menu is instructed with a pen (or clicked with a mouse or the like) (step C2, Yes), the drag menu is closed to return to the original display screen (step C3).

まず、ドラッグメニューから「オブジェクト化」が選択されると(ステップC1、Yes)、CPU10は、範囲指定のためのドラッグ操作により入力された座標時系列データをもとに、指定された範囲を例えば矩形枠によって設定する。例えば、指定範囲内の画像から所定距離に位置する水平垂直(x,y)方向の直線により矩形枠を設定する。   First, when “objectification” is selected from the drag menu (step C1, Yes), the CPU 10 sets the specified range based on the coordinate time-series data input by the drag operation for specifying the range, for example. Set by a rectangular frame. For example, the rectangular frame is set by a straight line in the horizontal and vertical (x, y) direction located at a predetermined distance from the image within the specified range.

そして、指定範囲内の画像(部分画像)を切り取り、RAM11に一時記憶しておく(ステップC4)。そして、CPU10は、部分画像と指定範囲の位置とをもとにオブジェクトを生成し、切り取った部分画像に矩形枠を付加してオブジェクトとして電子ホワイトボードに貼り付ける(ステップC5)。この時、オブジェクトは、部分画像を切り取った位置に貼り付けるものとする。   Then, an image (partial image) within the specified range is cut out and temporarily stored in the RAM 11 (step C4). Then, the CPU 10 generates an object based on the partial image and the position of the designated range, adds a rectangular frame to the cut partial image, and pastes it as an object on the electronic whiteboard (step C5). At this time, the object is pasted at the position where the partial image is cut out.

オブジェクトの生成では、図13に示すような各種データを記憶するファイルが生成される。すなわち、(1)全体画像からオブジェクト(部分画像)を除いた画面ファイル(ファイル名:picmmddhhmm.bmp)、(2)全体画像のサムネイル画像ファイル(ファイル名:sammmddhhmm.bmp)(図13(2)(b))、(3)オブジェクトの設定ファイル(ファイル名:cardmmddhhmm.def)、(4)オブジェクト画像ファイル(ファイル名:cardmmddhhmm.bmp)である。   In the generation of the object, a file for storing various data as shown in FIG. 13 is generated. That is, (1) a screen file (file name: picmmddhhmm.bmp) obtained by removing an object (partial image) from the entire image, (2) a thumbnail image file (file name: sammmddhhmm.bmp) of the entire image ((2) in FIG. 13) (B)), (3) Object setting file (file name: cardmmddhhmm.def), (4) Object image file (file name: cardmmddhhmm.bmp).

なお、全体画像のサムネイル画像に対応する全体画像の画像ファイル(図13(2)(a))については、別途、所定のファイル名が付されて記憶されているものとする。   Note that the image file (FIG. 13 (2) (a)) of the entire image corresponding to the thumbnail image of the entire image is separately stored with a predetermined file name.

なお、各ファイル名における「mmddhhmm」は、前の「mm」が現在月、「dd」が現在日、「hh」が現在時、後の「mm」が現在分を表しており、CPU10が、オブジェクトの生成時に、RTC13から取得されるデータをもとにそれぞれを設定し、ファイル名を自動生成する。   In each file name, “mmddhhmm” indicates that the previous “mm” indicates the current month, “dd” indicates the current date, “hh” indicates the current time, and the subsequent “mm” indicates the current minute. When an object is generated, each is set based on data acquired from the RTC 13, and a file name is automatically generated.

なお、オブジェクトの設定ファイルの構成は、図13(3)に示すように、全体画像中におけるオブジェクトの位置よそサイズを示すデータと、オブジェクト画像ファイル名(貼り付け画像名)との組からなるデータ(以下、オブジェクトデータ)が、全体画像中に設定されたオブジェクト分含まれている。オブジェクトの位置を示すデータは、範囲指定された画像に対して設定した矩形枠の始点とする頂点のxy座標と、始点からのxyそれぞれの方向のサイズを示すデータにより定義されている。   As shown in FIG. 13 (3), the configuration of the object setting file is data consisting of a set of data indicating the size and size of the object in the entire image and the object image file name (pasted image name). (Hereinafter, object data) is included in the entire image for the set object. The data indicating the position of the object is defined by data indicating the xy coordinates of the vertex as the starting point of the rectangular frame set for the range-specified image and the sizes in the xy directions from the starting point.

CPU10は、オブジェクトの生成時に、前述した各ファイルを生成することによりオブジェクトと、オブジェクトに関連する画像(全体画像、部分画像)を管理する。CPU10は、これらのオブジェクトに関連するファイルを保存し(ステップC6)、ドラッグメニューを閉じる(ステップC7)。   When the object is generated, the CPU 10 manages the object and an image (overall image, partial image) related to the object by generating each file described above. The CPU 10 saves the files related to these objects (step C6) and closes the drag menu (step C7).

図12(d)には、オブジェクトが貼り付けられ、ドラッグメニューが閉じられた時の画面の一例を示している。   FIG. 12D shows an example of a screen when an object is pasted and the drag menu is closed.

なお、画面中に貼り付けられたオブジェクトに対しては、後述するオブジェクト編集メニューを用いた編集の他、画面中の任意の位置に移動させる編集が可能である。例えば、パーソナルコンピュータなどにおいて一般的に行われているGUI(Graphical User Interface)の操作と同様にして、ペンによりオブジェクトを選択した状態でドラッグ操作をすることで、ペン先の移動位置に追随するようにオブジェクトを移動させる。このオブジェクトの移動が行われた場合には、オブジェクトの設定ファイル中の移動対象となったオブジェクトのオブジェクトデータ(位置をデータ)を変更するものとする。   Note that an object pasted on the screen can be edited by moving it to an arbitrary position on the screen in addition to editing using an object edit menu described later. For example, in the same manner as a GUI (Graphical User Interface) operation generally performed on a personal computer or the like, a drag operation is performed with an object selected with a pen so as to follow the movement position of the pen tip. Move the object to. When the object is moved, the object data (position data) of the object to be moved in the object setting file is changed.

ここで、図12に示すオブジェクト化された画像を範囲指定するドラッグ操作がされた場合には(図4、ステップB3、Yes)、CPU10は、この全体画像に対するオブジェクトの設定ファイルに含まれる、各オブジェクトの位置を示すデータを参照し、指定範囲内にオブジェクトが含まれると判別することができる(ステップB4、Yes)。   Here, when a drag operation for specifying a range of the objectized image shown in FIG. 12 is performed (FIG. 4, step B3, Yes), the CPU 10 includes each object included in the object setting file for the entire image. With reference to the data indicating the position of the object, it can be determined that the object is included in the specified range (step B4, Yes).

この場合、CPU10は、ペンがタブレット21(LCD20の表示画面)上から離された(ペンアップ)のタイミングに合わせて、ドラッグ操作により画像データが入力された位置の近傍に、オブジェクト編集メニューを表示させる(ステップB5)。オブジェクト編集メニューには、「削除」「色分け」「グループ化」「グループ解除」「サイズ自動調整」のコマンド名(選択肢)が一覧表示されている(図15(b)、図16(b)、図17(c)参照)。   In this case, the CPU 10 displays the object editing menu near the position where the image data is input by the drag operation in accordance with the timing when the pen is released from the tablet 21 (display screen of the LCD 20) (pen up). (Step B5). In the object editing menu, command names (options) of “delete”, “color coding”, “grouping”, “group release”, and “automatic size adjustment” are listed (FIGS. 15B and 16B). FIG. 17 (c)).

次に、CPU10は、オブジェクト編集メニューから選択されたコマンドに応じた、オブジェクトに対する各種処理のためのオブジェクト編集メニュー処理を実行する(ステップB6)。   Next, the CPU 10 executes object edit menu processing for various processing on the object according to the command selected from the object edit menu (step B6).

図6には、オブジェクト編集メニュー処理のフローチャートを示している。
まず、オブジェクト編集メニューから「削除」が選択された場合(ステップD1、Yes)、CPU10は、オブジェクト編集メニューを閉じて、図14に示すオブジェクト削除確認メッセージを表示する(ステップD7)。
FIG. 6 shows a flowchart of the object edit menu process.
First, when “delete” is selected from the object editing menu (step D1, Yes), the CPU 10 closes the object editing menu and displays an object deletion confirmation message shown in FIG. 14 (step D7).

ここで「OK」を選択する入力があった場合には(ステップD8、Yes)、CPU10は、範囲指定されたオブジェクトの削除を実行し(ステップD10)、削除確認メッセージを閉じて処理を終了する(ステップD11)。この場合、表示画面中からオブジェクトを削除し、元の画像(部分画像)を表示させる。また、オブジェクトの設定ファイル(図13(3))から削除対象となったオブジェクトのオブジェクトデータを削除する。また、オブジェクトを除いた画面ファイル(図13(1))についても、削除されたオブジェクトに対応する部分画像を含む画像データに更新するものとする。   If there is an input for selecting “OK” (step D8, Yes), the CPU 10 deletes the range-specified object (step D10), closes the deletion confirmation message, and ends the process. (Step D11). In this case, the object is deleted from the display screen, and the original image (partial image) is displayed. Further, the object data of the object to be deleted is deleted from the object setting file ((3) in FIG. 13). In addition, the screen file excluding the object (FIG. 13A) is also updated to image data including a partial image corresponding to the deleted object.

一方、オブジェクト削除確認メッセージから「キャンセル」を選択する入力があった場合には(ステップD9、Yes)、CPU10は、削除確認メッセージを閉じて処理を終了する(ステップD11)。   On the other hand, when there is an input for selecting “cancel” from the object deletion confirmation message (step D9, Yes), the CPU 10 closes the deletion confirmation message and ends the process (step D11).

次に、オブジェクト編集メニューから「色分け」が選択された場合(ステップD2、Yes)、CPU10は、複数の色が選択肢として設けられた色分けサブメニューを表示する(ステップD12)。   Next, when “color classification” is selected from the object edit menu (step D2, Yes), the CPU 10 displays a color classification submenu provided with a plurality of colors as options (step D12).

例えば、図15(a)に示すように、2つのオブジェクト(「ホワイトボード」「検索」)が表示された画面中において、図15(b)に示すように、2つのオブジェクトを囲むように範囲指定されたものとする。この場合、図15(b)に示すオブジェクト編集メニューを表示され、さらに「色分け」が選択された場合には、複数の色「白」「赤」「青」「緑」…を選択肢とした色分けサブメニューを表示する。   For example, as shown in FIG. 15A, in a screen on which two objects (“whiteboard” and “search”) are displayed, a range surrounds the two objects as shown in FIG. 15B. It shall be specified. In this case, when the object editing menu shown in FIG. 15B is displayed and “color coding” is selected, color coding using a plurality of colors “white”, “red”, “blue”, “green”,. Display a submenu.

ここで、色分けサブメニューから何れかの色を選択する指示が入力された場合(ステップD13)、CPU10は、選択された色(例えば「赤」)を示す属性データを、編集対象としているオブジェクトに対して共通して付加し、オブジェクトを赤色表示に変更し(ステップD15)、オブジェクト編集メニュー及びサブメニューを閉じて処理を終了する(ステップD16)。例えば、色を示す属性データは、オブジェクトの設定ファイルに含まれる各オブジェクトのオブジェクトデータ(図13(3))に付加して管理する。   Here, when an instruction to select any color is input from the color classification submenu (step D13), the CPU 10 sets attribute data indicating the selected color (for example, “red”) to the object to be edited. The object is added in common, the object is changed to a red display (step D15), the object edit menu and the submenu are closed, and the process is terminated (step D16). For example, the attribute data indicating the color is managed by being added to the object data (FIG. 13 (3)) of each object included in the object setting file.

色変更されるオブジェクトは、枠表示のみを赤色に変更しても良いし、枠内の部分画像のみ、あるいは全ての部分を色変更するようにしても良い。   For the object whose color is changed, only the frame display may be changed to red, or only a partial image in the frame or all the portions may be changed in color.

一方、オブジェクト編集メニュー外の部分がペンにより指示(あるいはマウスなどにクリック)された場合には(ステップD14、Yes)、オブジェクト編集メニューを閉じて処理を終了する(ステップD16)。   On the other hand, when the part outside the object edit menu is instructed by the pen (or clicked with the mouse or the like) (step D14, Yes), the object edit menu is closed and the process is terminated (step D16).

なお、前述した「色分け」の説明では、2つ(複数)のオブジェクトに対して色変更をする場合について説明しているが、1つのオブジェクトを指定して色変更することも勿論可能である。   In the above description of “color classification”, the case of changing the color of two (plural) objects has been described, but it is of course possible to change the color by specifying one object.

次に、オブジェクト編集メニューから「グループ化」が選択された場合(ステップD3、Yes)、CPU10は、選択された複数のオブジェクトに対してグループ化を実行し、オブジェクト編集メニューを閉じて処理を終了する(ステップD17)。   Next, when “grouping” is selected from the object editing menu (step D3, Yes), the CPU 10 executes grouping on the selected objects, closes the object editing menu, and ends the processing. (Step D17).

例えば、図16(a)に示すように、2つのオブジェクト(「プロジェクタ」「検索」)が表示された画面中において、図16(b)に示すように、2つのオブジェクトを囲むように範囲指定されたものとする。この場合、図16(b)に示すオブジェクト編集メニューを表示し、ここで「グループ化」が選択された場合には、2つのオブジェクトの部分画像を合成して1つの部分画像とし、この部分画像からなるオブジェクトを生成して、図16(c)に示すようにして表示する。   For example, as shown in FIG. 16A, in a screen on which two objects (“projector” and “search”) are displayed, a range is specified so as to surround the two objects as shown in FIG. It shall be assumed. In this case, the object editing menu shown in FIG. 16B is displayed. When “Group” is selected here, the partial images of the two objects are combined into one partial image, and this partial image is displayed. An object consisting of is generated and displayed as shown in FIG.

この場合、オブジェクトの画像ファイル(図13(4))を、2つの部分画像を合成した部分画像の画像ファイルに変更すると共に、オブジェクトの設定ファイル(図13(3))に含まれる合成された2つのオブジェクトのオブジェクトデータに代えて、合成されたオブジェクトに対応するオブジェクトデータを設定する。   In this case, the image file of the object (FIG. 13 (4)) is changed to an image file of a partial image obtained by combining two partial images, and the combined image included in the object setting file (FIG. 13 (3)). Instead of the object data of the two objects, object data corresponding to the synthesized object is set.

なお、オブジェクトの「グループ化」を実行する場合には、グループ化前の個々のオブジェクトのファイル(オブジェクトの画像ファイル、オブジェクトの設定ファイルに含まれるオブジェクトデータ)については、後述する「グループ解除」に対応できるように、別途、記憶しておくものとする。   When performing “grouping” of objects, individual object files (object data included in object image files and object setting files) before grouping are referred to as “ungrouping” described later. It shall be memorized separately so that it can respond.

次に、オブジェクト編集メニューから「グループ解除」が選択された場合(ステップD4、Yes)、CPU10は、選択されたオブジェクトに対するグループ化を解除し、オブジェクト編集メニューを閉じて処理を終了する(ステップD18)。   Next, when “ungroup” is selected from the object edit menu (step D4, Yes), the CPU 10 cancels the grouping of the selected object, closes the object edit menu, and ends the process (step D18). ).

すなわち、ドラッグにより範囲指定されたオブジェクトが、前述したようにグループ化がされている場合、グループ化の際に記憶しておいたグループ化前の個々のオブジェクトのファイルを用いて、グループ化前の状態に戻すことによりグループ化を解除する。これにより、グループ化されていたオブジェクトが個々に分離され、複数のオブジェクトが表示される。   In other words, if the objects for which the range is specified by dragging are grouped as described above, the files before grouping are stored using the individual object files stored before grouping. Ungroup by returning to the state. As a result, the grouped objects are individually separated, and a plurality of objects are displayed.

次に、オブジェクト編集メニューから「サイズ自動調整」が選択された場合(ステップD5、Yes)、CPU10は、選択された複数のオブジェクトについてのオブジェクトデータ(オブジェクトの設定ファイル内)を参照し、オブジェクトの縦横方向のそれぞれについて最も大きいサイズを抽出する。そして、全てのオブジェクトの縦横サイズを、それぞれ抽出された最も大きいサイズに変更することでオブジェクトのサイズを調整し、オブジェクト編集メニューを閉じて処理を終了する(ステップD19)。この場合、オブジェクトの設定ファイル内のサイズが調整されたオブジェクトについて、オブジェクトデータの位置及びサイズを変更する。   Next, when “automatic size adjustment” is selected from the object edit menu (step D5, Yes), the CPU 10 refers to the object data (in the object setting file) for the plurality of selected objects, and The largest size is extracted for each of the vertical and horizontal directions. Then, the object size is adjusted by changing the vertical and horizontal sizes of all the objects to the largest extracted size, the object edit menu is closed, and the process is terminated (step D19). In this case, the position and size of the object data are changed for the object whose size is adjusted in the object setting file.

例えば、図17(a)に示すように、サイズが異なる2つのオブジェクト(「ホワイトボード」「検索」)が表示された画面中において、図17(b)に示すように、2つのオブジェクトを囲むように範囲指定されたものとする。この場合、図17(c)に示すオブジェクト編集メニューを表示し、ここで「サイズ自動調整」が選択された場合には、2つのオブジェクトのサイズの大きい方、すなわちオブジェクト「ホワイトボード」のサイズに合わせて、オブジェクト「検索」のサイズを調整して、図17(d)に示すように、2つのオブジェクトを同サイズで表示する。   For example, as shown in FIG. 17A, in a screen on which two objects of different sizes (“whiteboard” and “search”) are displayed, the two objects are surrounded as shown in FIG. 17B. The range is specified as follows. In this case, the object editing menu shown in FIG. 17C is displayed, and when “automatic size adjustment” is selected here, the larger of the two objects, that is, the size of the object “whiteboard” is displayed. In addition, the size of the object “search” is adjusted, and two objects are displayed in the same size as shown in FIG.

なお、オブジェクト編集メニュー外の部分がペンにより指示(あるいはマウスなどにクリック)された場合には(ステップD6、Yes)、オブジェクト編集メニューを閉じて元の表示画面に戻る(ステップD20)。   If a part outside the object edit menu is instructed with a pen (or clicked with a mouse or the like) (step D6, Yes), the object edit menu is closed and the original display screen is restored (step D20).

このようにして、複数のオブジェクトを選択してそれらを関連づけて共通する属性、例えばサイズ、色、グループなどを設定することで、画面中でのオブジェクトを整理し、オブジェクトの関係を明瞭にすることができる。これにより、オブジェクトを利用した会議の進行をスムーズにし、新たに創造性を刺激することができる。   In this way, by selecting multiple objects and associating them and setting common attributes such as size, color, group, etc., organize objects on the screen and clarify the relationship between objects Can do. Thereby, the progress of the meeting using an object can be made smooth, and creativity can be stimulated newly.

図18には、オブジェクト編集メニューを用いたオブジェクトの編集例を示している。図18は、KJ法的なオブジェクト編集の例を示すものである。   FIG. 18 shows an example of editing an object using the object edit menu. FIG. 18 shows an example of object editing based on the KJ method.

まず、図18(a)に示すように、会議中に議論であがったキーワードとなる文字列がランダムに手書き入力されたものとする。   First, as shown in FIG. 18A, it is assumed that a character string that is a keyword that has been discussed during a meeting is randomly input by handwriting.

ここで、前述したドラッグメニュー処理によりそれぞれをオブジェクト化し、さらに全てのオブジェクトを選択してオブジェクト編集メニューから「サイズ自動調整」を実行することにより、図18(b)に示すように、同じサイズに調整された各キーワードに対応するオブジェクトを表示させることができる(カード化)。これにより、各オブジェクトを画面上で容易に扱いやすくすることができる。   Here, each object is made into an object by the above-described drag menu process, and all objects are selected, and “automatic size adjustment” is executed from the object edit menu, so that the same size is obtained as shown in FIG. An object corresponding to each adjusted keyword can be displayed (in card form). Thereby, each object can be easily handled on the screen.

カード化されたオブジェクトは、会議の議論に応じて任意の位置に移動させることで、例えば関連するオブジェクトの位置を近接させる、同じ色により表示する、さらには図18(c)に示すように、手書きによりオブジェクトを接続する線を入力することにより(オブジェクト「ローカル」「TV会議」「ネットミーティング」「遠隔地」)、関連するオブジェクトをグルーピングする。そして、各オブジェクトの配置を決定し、これをもとに議論を進めることができる。   The carded object is displayed in the same color by moving it to an arbitrary position according to the discussion of the meeting, for example, bringing the positions of the related objects close to each other, and as shown in FIG. By inputting a line connecting the objects by handwriting (object “local”, “TV conference”, “net meeting”, “remote location”), related objects are grouped. Then, the arrangement of each object can be determined, and discussion can proceed based on this.

こうして、会議の内容や進行状況に応じてオブジェクトに対して各種の操作をすることで、アイディアプロセッサとして機能させることで会議出席者の創造性を刺激し、より多くのアイディアを提供させることで議論の活性化を図ることができる。   In this way, by performing various operations on objects according to the content and progress of the conference, it functions as an idea processor, stimulating the creativity of conference attendees, and providing more ideas Activation can be achieved.

(ファイルメニュー処理)
次に、ファイルメニュー処理について、図7、図8、図9に示すフローチャートを参照しながら説明する。ファイルメニュー処理では、オブジェクトを表示させ、このオブジェクトを用いて同オブジェクトを含む全体画像を表示させることができる。
(File menu processing)
Next, the file menu process will be described with reference to the flowcharts shown in FIGS. In the file menu process, an object can be displayed, and an entire image including the object can be displayed using the object.

電子会議装置1には、ファイルメニュー処理の実行を受け付けるためのファイルメニューが設けられている。例えば図11に示す電子ホワイトボードの表示画面において、コマンドラインの「ファイル」が選択された場合には、図19に示すようなファイルメニューを表示させる。   The electronic conference apparatus 1 is provided with a file menu for accepting execution of file menu processing. For example, when “File” on the command line is selected on the display screen of the electronic whiteboard shown in FIG. 11, a file menu as shown in FIG. 19 is displayed.

図19に示すファイルメニューには、「画面呼出」「画面保存」「オブジェクト一覧」「シャッフル」「出席者オブジェクト自動表示」「設定」などのコマンド名(選択肢)が一覧表示されている。   In the file menu shown in FIG. 19, command names (options) such as “screen call”, “screen save”, “object list”, “shuffle”, “attendant object automatic display”, and “setting” are displayed in a list.

ここで、ファイルメニューから「画面呼出」が選択された場合(ステップE1、Yes)、CPU10は、ファイルメニューを閉じて、オブジェクトが設定された画面を一覧中から選択して表示させるための画面一覧表示ウィンドウを表示する(ステップE2)。   Here, when “call screen” is selected from the file menu (step E1, Yes), the CPU 10 closes the file menu, and displays a screen list for selecting and displaying the screen in which the object is set from the list. A display window is displayed (step E2).

図20には、画面一覧表示ウィンドウの一例を示している。画面一覧表示ウィンドウでは、オブジェクトが設定された画面(画像データ)のサムネイル画像ファイル名を一覧表示する一覧表示領域(図中、右側の領域)と、この領域中で指定されたファイル名に対応する画面を縮小表示するための画面表示領域、さらに「OK」「キャンセル」ボタンが設けられている。   FIG. 20 shows an example of a screen list display window. In the screen list display window, a list display area (the area on the right side in the figure) for displaying thumbnail image file names of the screen (image data) on which the object is set, and the file name specified in this area are displayed. A screen display area for displaying the screen in a reduced size, and “OK” and “Cancel” buttons are provided.

一覧表示領域において何れかの画面(ファイル名)が選択されると(ステップE3、Yes)、CPU10は、選択されたファイル名を例えばハイライト表示させ、該当するサムネイル画像ファイルを読み出して画面表示領域において縮小表示させる(ステップE4)。こうして、一覧表示領域中に表示されたファイル名を任意に選択することで、呼び出しの対象とする画面を縮小表示によって確認しながら探すことができる。   When any screen (file name) is selected in the list display area (step E3, Yes), the CPU 10 highlights the selected file name, for example, reads the corresponding thumbnail image file, and displays the screen display area. Is reduced and displayed (step E4). In this way, by arbitrarily selecting the file name displayed in the list display area, it is possible to search for a screen to be called while confirming by a reduced display.

何れかのファイル名に対応する画面が縮小表示された状態で「OK」ボタンが選択されると(ステップE5、Yes)、CPU10は、このファイル名に対応する全体画像のファイルを読み出し、電子ホワイトボード画面に表示させ(ステップE6)、画面一覧表示ウィンドウを閉じて処理を終了する(ステップE8)。   When the “OK” button is selected in a state where the screen corresponding to any one of the file names is displayed in a reduced size (step E5, Yes), the CPU 10 reads the entire image file corresponding to the file name, and the electronic white The screen is displayed on the board screen (step E6), the screen list display window is closed, and the process is terminated (step E8).

一方、「キャンセル」ボタンが選択されると、CPU10は、画面一覧表示ウィンドウを閉じてファイルメニュー処理を終了する(ステップE8)。   On the other hand, when the “Cancel” button is selected, the CPU 10 closes the screen list display window and ends the file menu process (step E8).

なお、一覧表示領域にサムネイル画像ファイルのファイル名を一覧表示するとしているが、全体画像のファイル名や、あるいは画面を識別する任意の名称を表示するようにしても良い。一覧表示において何れかが選択された場合、これに対応するサムネイル画像ファイルを読み出して、画面表示領域に表示するものとする。   Although the file names of the thumbnail image files are displayed in a list in the list display area, the file name of the entire image or an arbitrary name for identifying the screen may be displayed. When any one is selected in the list display, a thumbnail image file corresponding to this is read out and displayed in the screen display area.

次に、ファイルメニューから「オブジェクト一覧」が選択された場合(ステップE9、Yes)、CPU10は、ファイルメニューを閉じて、オブジェクトが設定された画面をオブジェクトを指定して表示させるためのオブジェクト一覧表示ウィンドウを表示する(ステップE10)。   Next, when “object list” is selected from the file menu (step E9, Yes), the CPU 10 closes the file menu, and displays an object list for designating and displaying the screen on which the object is set. A window is displayed (step E10).

図21には、オブジェクト一覧表示ウィンドウの一例を示している。オブジェクト一覧表示ウィンドウでは、オブジェクトを一覧表示するオブジェクト一覧表示領域と、「画面呼出」「オブジェクト貼付」「キャンセル」ボタンが設けられている。CPU10は、各オブジェクトについてのオブジェクト画像ファイルを読み出し、例えば縦4横5の配列により一覧表示する。   FIG. 21 shows an example of the object list display window. In the object list display window, an object list display area for displaying a list of objects and “call screen”, “attach object”, and “cancel” buttons are provided. The CPU 10 reads out the object image file for each object, and displays the list by, for example, a vertical 4 horizontal 5 array.

オブジェクト一覧表示領域において何れかのオブジェクトが選択されると(ステップE11、Yes)、CPU10は、選択されたオブジェクトを例えばハイライト表示させる(ステップE12)。ここでは、オブジェクト一覧表示領域中に表示されたオブジェクトを任意に選択してハイライト表示させることができる。   When any object is selected in the object list display area (step E11, Yes), the CPU 10 highlights the selected object, for example (step E12). Here, an object displayed in the object list display area can be arbitrarily selected and highlighted.

そして、何れかのオブジェクトがハイライト表示された状態で「画面呼出」ボタンが選択されると(ステップE13、Yes)、CPU10は、このオブジェクトが含まれる全体画像のファイルを読み出し、電子ホワイトボード画面に表示させ(ステップE14)、オブジェクト一覧表示ウィンドウを閉じて処理を終了する(ステップE18)。   When the “call screen” button is selected in a state where any object is highlighted (step E13, Yes), the CPU 10 reads the entire image file including the object, and the electronic whiteboard screen. (Step E14), the object list display window is closed, and the process is terminated (step E18).

また、何れかのオブジェクトがハイライト表示された状態で「オブジェクト貼付」ボタンが選択されると(ステップE15、Yes)、CPU10は、この選択されたオブジェクトを電子ホワイトボード画面に独立のオブジェクトとして貼り付け(ステップE16)、オブジェクト一覧表示ウィンドウを閉じて処理を終了する(ステップE18)。   Further, when the “object pasting” button is selected with any object highlighted (step E15, Yes), the CPU 10 pastes the selected object as an independent object on the electronic whiteboard screen. At step E16, the object list display window is closed and the process is terminated (step E18).

一方、「キャンセル」ボタンが選択されると、CPU10は、オブジェクト一覧表示ウィンドウを閉じてファイルメニュー処理を終了する(ステップE18)。   On the other hand, when the “cancel” button is selected, the CPU 10 closes the object list display window and ends the file menu process (step E18).

このように、画像中から会議の議論のキーワードとなるオブジェクトを生成しておくことで、オブジェクトを選択することで、簡単に議論で使用された画面を呼び出して表示させることができるので、議論の進行をスムーズにし、また議論を進める上で有効な情報を簡単に提供することで議論の活性化を図ることができる。   In this way, by generating an object that is a keyword for the discussion of the meeting from the image, it is possible to easily call and display the screen used in the discussion by selecting the object. It is possible to stimulate the discussion by making the progress smooth and simply providing useful information for proceeding with the discussion.

次に、ファイルメニューから「画面保存」が選択された場合(ステップE19、Yes)、CPU10は、ファイルメニューを閉じて、図22に示すような画面保存確認メッセージを表示させる(ステップE20)。   Next, when “screen save” is selected from the file menu (step E19, Yes), the CPU 10 closes the file menu and displays a screen save confirmation message as shown in FIG. 22 (step E20).

ここで「OK」を選択する入力があった場合には(ステップE21、Yes)、CPU10は、現在、電子ホワイトボード画面において表示されている画面の画像データを、所定のファイル名を設定して保存し(ステップE22)、画面保存確認メッセージを閉じて処理を終了する(ステップE24)。   If there is an input for selecting “OK” (step E21, Yes), the CPU 10 sets a predetermined file name for the image data of the screen currently displayed on the electronic whiteboard screen. Save (step E22), close the screen save confirmation message and end the process (step E24).

一方、画面保存確認メッセージから「キャンセル」を選択する入力があった場合には(ステップE23、Yes)、CPU10は、画面保存確認メッセージを閉じて処理を終了する(ステップE24)。   On the other hand, if there is an input for selecting “cancel” from the screen save confirmation message (step E23, Yes), the CPU 10 closes the screen save confirmation message and ends the process (step E24).

次に、ファイルメニューから「シャッフル」が選択された場合(ステップE25、Yes)、CPU10は、ファイルメニューを閉じて、図23に示すようなシャッフル確認メッセージを表示させる(ステップE26)。   Next, when “shuffle” is selected from the file menu (step E25, Yes), the CPU 10 closes the file menu and displays a shuffle confirmation message as shown in FIG. 23 (step E26).

ここで「OK」を選択する入力があった場合には(ステップE27、Yes)、CPU10は、現在、電子ホワイトボード画面において表示されている各オブジェクトの位置をランダムに変更し(ステップE28)、シャッフル確認メッセージを閉じて処理を終了する(ステップE30)。   If there is an input for selecting “OK” (step E27, Yes), the CPU 10 randomly changes the position of each object currently displayed on the electronic whiteboard screen (step E28), The shuffle confirmation message is closed and the process is terminated (step E30).

一方、シャッフル確認メッセージから「キャンセル」を選択する入力があった場合には(ステップE23、Yes)、CPU10は、シャッフル確認メッセージを閉じて処理を終了する(ステップE30)。   On the other hand, when there is an input for selecting “cancel” from the shuffle confirmation message (step E23, Yes), the CPU 10 closes the shuffle confirmation message and ends the process (step E30).

このように、複数のオブジェクトの配列をランダムに変更することで、会議の出席者が意図していないオブジェクトの関係を提示することもあり、これにより出席者に対して創造性を刺激して会議の活性化を図ることができる。   In this way, by randomly changing the arrangement of multiple objects, the meeting attendees may present unintended object relationships, which stimulates creativity for the attendees and Activation can be achieved.

次に、ファイルメニューから「出席者オブジェクト作成」が選択された場合(ステップE31)、CPU10は、ファイルメニューを閉じて、図24に示すような、出席者オブジェクト作成確認メッセージを表示させる(ステップE32)。   Next, when “Create attendee object” is selected from the file menu (step E31), the CPU 10 closes the file menu and displays an attendee object creation confirmation message as shown in FIG. 24 (step E32). ).

ここで「OK」を選択する入力があった場合には(ステップE33、Yes)、CPU10は、電子ホワイトボード画面において出席者オブジェクトを作成して表示させ(ステップE34)、出席者オブジェクト作成確認メッセージを閉じて処理を終了する(ステップE36)。   If there is an input to select “OK” (step E33, Yes), the CPU 10 creates and displays an attendee object on the electronic whiteboard screen (step E34), and displays an attendee object creation confirmation message. Is closed to end the processing (step E36).

図25(a)には、電子ホワイトボード画面に複数のオブジェクトが表示されている状態において、「出席者オブジェクト作成」の実行により複数の出席者オブジェクトが追加表示された画面の一例を示している。   FIG. 25A shows an example of a screen on which a plurality of attendee objects are additionally displayed by executing “create attendee object” in a state where a plurality of objects are displayed on the electronic whiteboard screen. .

例えば、電子会議装置1は、パーソナルコンピュータ2,3,4及びPDA5からネットワークを通じて、それぞれを識別するデータ、例えば会議出席者が任意に登録しているユーザ名を自動的に取得し、このデータをもとにして図25(a)に示すような、ユーザ名を含む所定サイズのオブジェクトを生成する。例えば、初期状態においては、予め決められた位置に出席者オブジェクトを一覧表示させる。   For example, the electronic conference apparatus 1 automatically obtains data for identifying each of the personal computers 2, 3, 4 and the PDA 5 through the network, for example, a user name arbitrarily registered by the conference attendee, and obtains this data. Based on this, an object of a predetermined size including the user name is generated as shown in FIG. For example, in the initial state, attendee objects are displayed in a list at predetermined positions.

なお、ネットワークを通じて取得したデータをもとに出席者オブジェクトを生成するのではなく、パーソナルコンピュータ2,3,4及びPDA5を使用している会議の出席者についてのデータ(氏名)などを別途登録しておくことで、このデータをもとにして出席者オブジェクトを生成するようにしても良い。   Rather than creating an attendee object based on the data acquired through the network, data (name) etc. about attendees of the meeting using personal computers 2, 3, 4 and PDA 5 are registered separately. Thus, an attendee object may be generated based on this data.

こうして、電子ホワイトボード画面に表示させた出席者オブジェクトは、他のオブジェクトと同様にして、任意の位置に移動させる他、前述したオブジェクト編集メニュー処理において説明した各種オブジェクトの編集を施すことができる。   In this way, the attendee object displayed on the electronic whiteboard screen can be moved to an arbitrary position in the same manner as other objects, and various objects described in the object editing menu process can be edited.

例えば、図25(b)に示す例は、資料のページを表すオブジェクト「目次」「ゴールイメージ」「企画書」…のそれぞれに対して、出席者を担当として割り振りする場合を示しており、出席者オブジェクトを担当とするオブジェクトの近傍にそれぞれ移動させ、さらに手書き入力によってその関係を示す線を入力している。   For example, the example shown in FIG. 25 (b) shows a case where attendees are assigned to each of the objects “table of contents”, “goal image”, “plan”, etc. representing the page of the material. Each person object is moved to the vicinity of the object in charge, and a line indicating the relationship is input by handwriting input.

CPU10は、各オブジェクトに対する出席者オブジェクトの関連づけを示す指示(線の入力)に応じて、各オブジェクトと出席者オブジェクト(ユーザ名)との関連を示す関連データを生成して、記憶しておく。この関連データは、ユーザからの指示に応じて任意に呼び出すことができ、オブジェクトと出席者(ユーザ名)との対応関係を示すオブジェクト表示、あるいは一覧表表示をすることができる。   The CPU 10 generates and stores related data indicating the relationship between each object and the attendee object (user name) in response to an instruction (line input) indicating the association of the attendee object with each object. This related data can be arbitrarily called according to an instruction from the user, and can display an object or a list showing the correspondence between the object and the attendee (user name).

一方、出席者オブジェクト作成確認メッセージから「キャンセル」を選択する入力があった場合には(ステップE35、Yes)、CPU10は、出席者オブジェクト作成確認メッセージを閉じて処理を終了する(ステップE36)。   On the other hand, if there is an input to select “Cancel” from the attendee object creation confirmation message (Yes in step E35), the CPU 10 closes the attendee object creation confirmation message and ends the process (step E36).

次に、ファイルメニューから「オブジェクト自動表示」が選択された場合(ステップE37、Yes)、CPU10は、ファイルメニューを閉じて(ステップE38)、後述する自動オブジェクト表示処理(図10)を起動し、同処理のステップF5以降処理を実行する(ステップE39)。オブジェクト自動表示処理は、後述する「設定」の処理(ステップE40〜E49)により設定されたオブジェクトの表示条件に従ってオブジェクトを自動的に表示させる処理である。詳細については後述する。   Next, when “automatic object display” is selected from the file menu (step E37, Yes), the CPU 10 closes the file menu (step E38) and activates an automatic object display process (FIG. 10) described later, The process after step F5 of the process is executed (step E39). The object automatic display process is a process of automatically displaying an object in accordance with the object display conditions set by the “setting” process (steps E40 to E49) described later. Details will be described later.

次に、ファイルメニューから「設定」が選択された場合(ステップE40、Yes)、CPU10は、ファイルメニューを閉じて、オブジェクトを自動表示する際の条件を設定するためのオブジェクト自動表示設定ウィンドウを表示する(ステップE41)。   Next, when “setting” is selected from the file menu (step E40, Yes), the CPU 10 closes the file menu and displays an object automatic display setting window for setting conditions for automatically displaying objects. (Step E41).

図26には、オブジェクト自動表示設定ウィンドウの表示例を示している。オブジェクト自動表示設定ウィンドウには、オブジェクト自動表示の実行を設定するための項目「オブジェクト自動表示」が設けられている。この項目に対するチェックボックスが選択されると(ステップE42、Yes)、「オブジェクト自動表示」を実行するように設定する(ステップE43)。   FIG. 26 shows a display example of the object automatic display setting window. The object automatic display setting window is provided with an item “automatic object display” for setting execution of automatic object display. When the check box for this item is selected (step E42, Yes), the "automatic object display" is set to be executed (step E43).

「オブジェクト自動表示」の実行が設定された場合、「自動表示開始時間」「オブジェクト抽出基準」「表示パターン」の項目に対する設定が可能となる。   When execution of “automatic object display” is set, settings for the items “automatic display start time”, “object extraction reference”, and “display pattern” are possible.

「自動表示開始時間」は、電子ホワイトボード画面に対する入力操作が最後にされた後に、何分経過した後にオブジェクトを自動表示させるかを示す時間を設定するためのもので、例えば1分〜60分の間でエディットボックスにおいて任意に設定することができる。   The “automatic display start time” is for setting a time indicating how many minutes have passed after the input operation on the electronic whiteboard screen is last, for example, 1 minute to 60 minutes. Can be arbitrarily set in the edit box.

「オブジェクト抽出基準」は、複数記憶されているオブジェクトのうち、何れのオブジェクトを表示させるか判別する条件を設定するためのもので、例えば「使用頻度昇順」「使用頻度降順」「日付昇順」「日付降順」の何れかをラジオボタンにより選択することができる。   The “object extraction criterion” is used to set a condition for determining which object is to be displayed among a plurality of stored objects. Any one of “descending date” can be selected by a radio button.

この場合、各オブジェクト画像ファイルのそれぞれに対応して、オブジェクトの使用頻度を示すデータが管理されているものとする。「使用頻度昇順」または「使用頻度降順」が選択された場合には、この使用頻度を示すデータを参照して表示対象とするオブジェクトを抽出する。「日付昇順」「日付降順」が選択された場合には、例えばオブジェクト画像ファイルのファイル名を参照することにより、表示対象とするオブジェクトを抽出することができる。   In this case, it is assumed that data indicating the usage frequency of the object is managed corresponding to each object image file. When “usage frequency ascending order” or “usage frequency descending order” is selected, an object to be displayed is extracted with reference to data indicating the usage frequency. When “date ascending order” or “date descending order” is selected, the object to be displayed can be extracted by referring to the file name of the object image file, for example.

「表示パターン」は、オブジェクトを表示する際のパターンを設定するためのもので、例えば予め用意されたパターン1〜4の何れかをラジオボタンにより設定することができる。オブジェクトの自動表示パターンの詳細については後述する(図27、図28)。   The “display pattern” is for setting a pattern for displaying an object. For example, any of patterns 1 to 4 prepared in advance can be set with a radio button. Details of the automatic display pattern of the object will be described later (FIGS. 27 and 28).

こうして、エディットボックスに対する入力、あるいはラジオボタンの選択操作があると(ステップE44)、CPU10は、その選択操作に応じた設定を行う(ステップE45)。   Thus, when there is an input to the edit box or a radio button selection operation (step E44), the CPU 10 performs setting according to the selection operation (step E45).

ここで、「OK」を選択する入力があった場合には(ステップE46、Yes)、CPU10は、設定変更された内容、すなわちオブジェクトを自動表示する際の条件を示すデータを記憶装置(ハードディスク23)に書き込み、オブジェクト自動表示設定ウィンドウを閉じて処理を終了する(ステップE49)。   Here, when there is an input for selecting “OK” (step E46, Yes), the CPU 10 stores data indicating the changed contents, that is, data indicating conditions for automatically displaying the object (hard disk 23). ), The object automatic display setting window is closed, and the process is terminated (step E49).

一方、オブジェクト自動表示設定ウィンドウから「キャンセル」を選択する入力があった場合には(ステップE48、Yes)、CPU10は、オブジェクト自動表示設定ウィンドウを閉じて処理を終了する(ステップE49)。   On the other hand, when there is an input for selecting “cancel” from the object automatic display setting window (step E48, Yes), the CPU 10 closes the object automatic display setting window and ends the process (step E49).

このように、オブジェクトを表示させる場合の条件、例えば入力操作がされていない期間、表示対象とするオブジェクトの選択方法、表示パターンなどを、利用者の好みに合わせて設定できるようにすることで、後述する自動オブジェクト表示処理において、創造性を刺激して会議の活性化に有効なオブジェクトの表示が可能となる。   In this way, by making it possible to set the conditions for displaying an object, such as the period during which no input operation is performed, the method of selecting an object to be displayed, the display pattern, etc. according to the user's preference, In an automatic object display process to be described later, it is possible to display an object effective for stimulating a conference by stimulating creativity.

なお、ファイルメニュー外の部分がペンにより指示(あるいはマウスなどにクリック)された場合には(ステップE50、Yes)、ファイルメニューを閉じて元の表示画面に戻る(ステップE51)。   If a portion outside the file menu is instructed by the pen (or clicked with a mouse or the like) (step E50, Yes), the file menu is closed and the original display screen is restored (step E51).

(自動オブジェクト表示処理)
次に、自動オブジェクト表示処理について、図10に示すフローチャートを参照しながら説明する。自動オブジェクト表示処理では、ファイルメニュー処理の「設定」の処理により設定された、オブジェクトを自動表示する際の条件を示すデータに応じて、オブジェクトを自動表示させることができる。
(Automatic object display processing)
Next, automatic object display processing will be described with reference to the flowchart shown in FIG. In the automatic object display process, the object can be automatically displayed according to the data indicating the conditions for automatically displaying the object set by the “setting” process of the file menu process.

まず、自動オブジェクト表示処理が起動されると、自動オブジェクト表示タイマのカウントを開始する(ステップF1)。このタイマは、電子ホワイトボード画面に対する入力操作が最後にされた後の時間経過をカウントするためのものである。   First, when the automatic object display process is activated, the automatic object display timer starts counting (step F1). This timer is for counting the time elapsed after the last input operation on the electronic whiteboard screen.

CPU10は、電子ホワイトボード画面に対する何らかの入力操作があった場合には(ステップF2、Yes)、自動オブジェクト表示タイマをリセットして(ステップF4)、改めてカウントを開始する(ステップF1)。   When there is any input operation on the electronic whiteboard screen (step F2, Yes), the CPU 10 resets the automatic object display timer (step F4) and starts counting again (step F1).

一方、電子ホワイトボード画面に対する入力操作がなく(ステップF2、No)、オブジェクトを自動表示する際の条件を示すデータが示す自動表示開始時間が経過したと判別された場合(ステップF3、Yes)、同データのオブジェクト抽出基準及び表示パターンに応じてオブジェクトを電子ホワイトボード画面において表示させる(ステップF5)。   On the other hand, when there is no input operation on the electronic whiteboard screen (step F2, No) and it is determined that the automatic display start time indicated by the data indicating the conditions for automatically displaying the object has elapsed (step F3, Yes), The object is displayed on the electronic whiteboard screen according to the object extraction standard and the display pattern of the same data (step F5).

例えば、表示パターンとしては、電子ホワイトボード画面の予め決められた位置に固定して表示させる他、図27及び図28に示すように、オブジェクトの表示位置を変更しながら表示させたり、さらには同時に表示するオブジェクト数を変更しながら表示させるパターンなどがある。   For example, as a display pattern, the electronic whiteboard screen may be fixedly displayed at a predetermined position, or may be displayed while changing the display position of the object, as shown in FIGS. There are patterns to be displayed while changing the number of objects to be displayed.

図27(a1)〜(a4)、(b1)〜(b4)は、それぞれ表示対象とする1つのオブジェクトを変更しながら、その表示位置を変更して表示させるパターンを示している。   FIGS. 27 (a1) to (a4) and (b1) to (b4) each show a pattern in which a display object is changed and displayed while changing one object to be displayed.

図28(c1)〜(c8)は、同時に表示するオブジェクト数を1〜5、5〜1に順次変更しながら、表示対象とするオブジェクトを変更して表示させるパターンを示している。   FIGS. 28C1 to 28C8 show patterns in which objects to be displayed are changed and displayed while sequentially changing the number of objects to be displayed simultaneously to 1 to 5 and 5 to 1. FIG.

なお、図27、図28に示すパターン以外の表示パターンを用いることも勿論可能である。   Of course, display patterns other than those shown in FIGS. 27 and 28 can be used.

ここで、表示されるオブジェクトをペンにより指示(あるいはマウスなどにクリック)する入力操作があった場合(ステップF6、Yes)、CPU10は、自動オブジェクト表示を解除して、このオブジェクトが含まれる全体画像のファイルを読み出し、電子ホワイトボード画面に表示させる(ステップF7)。例えば、オブジェクトの自動表示により新たな発想があった場合などに、このオブジェクトを含む全体画像を表示させることで、より具体的な議論を開始することができる。   Here, when there is an input operation in which an object to be displayed is instructed with a pen (or clicked with a mouse or the like) (step F6, Yes), the CPU 10 cancels the automatic object display and the entire image including this object. Are read out and displayed on the electronic whiteboard screen (step F7). For example, when there is a new idea due to automatic display of an object, a more specific discussion can be started by displaying the entire image including the object.

なお、全体画像を表示させた場合、自動オブジェクト表示処理を継続して実行し、前述と同様にして一定時間入力操作がなかった場合に、オブジェクトの自動表示を開始する。   When the entire image is displayed, the automatic object display process is continuously executed, and when there is no input operation for a certain period of time, the automatic object display is started.

一方、オブジェクトの自動表示がされている間に、オブジェクトを選択する操作以外の操作がされた場合には(ステップF8、Yes)、CPU10は、自動オブジェクト表示を解除して元の状態に戻す(ステップF9)。   On the other hand, when an operation other than the operation of selecting the object is performed while the object is automatically displayed (step F8, Yes), the CPU 10 cancels the automatic object display and returns to the original state ( Step F9).

このように、予め決められた時間が経過した場合、例えば最後に行われた入力操作から一定時間が経過した場合には会議が停滞した状態にある可能性があるため、オブジェクトを自動で表示させることで出席者に対して創造性を刺激し、これをきっかけにして停滞した議論の活性化を図ることができる。   In this way, when a predetermined time has elapsed, for example, when a certain time has elapsed since the last input operation, the conference may be in a stagnation state, so the object is automatically displayed. This stimulates creativity for the attendees, and this can be used as an opportunity to stimulate the discussions that have stagnated.

次に、ネットワークを介して接続されたパーソナルコンピュータ2,3,4、PDA5における処理内容を、電子会議装置1によりプロジェクタ6を通じて投影(表示)させる場合について説明する。   Next, a case will be described in which processing contents in the personal computers 2, 3, 4 and PDA 5 connected via the network are projected (displayed) through the projector 6 by the electronic conference apparatus 1.

パーソナルコンピュータ2,3,4、PDA5は、ネットワークを通じて、電子会議装置1において電子ホワイトボードにより管理されている画像データ、すなわち図13に示す各ファイル、及び前述した各種処理に関係するデータを取得(共有化)することができる。また、これらのデータに対する電子会議装置1において電子ホワイトボード上で操作可能な各種処理についても、それぞれにおいて電子会議装置制御プログラムを実行することで実現することができる。   The personal computers 2, 3, 4, and PDA 5 obtain image data managed by the electronic whiteboard in the electronic conference apparatus 1, that is, each file shown in FIG. 13 and data related to the above-described various processes via the network ( Sharing). Various processes that can be operated on the electronic whiteboard in the electronic conference apparatus 1 for these data can also be realized by executing the electronic conference apparatus control program in each process.

電子会議装置1は、パーソナルコンピュータ2,3,4、PDA5において実行される処理内容をネットワークを通じて取得し、それぞれの処理内容に応じた電子ホワイトボード画面の画像データを、例えば図29に示すような、パーソナルコンピュータ2,3,4、PDA5のそれぞれに専用のレイヤに記憶する。   The electronic conference apparatus 1 acquires the processing contents executed in the personal computers 2, 3, 4 and the PDA 5 through the network, and the image data of the electronic whiteboard screen corresponding to each processing content is as shown in FIG. 29, for example. Each of the personal computers 2, 3, 4 and PDA 5 stores the data in a dedicated layer.

図29において、最下層レイヤ(レイヤ1)は、テンプレート(例えばアプリケーションによる画面(罫線、議事録、スプレッドシート等))のファイルを表示させるためのレイヤである。   In FIG. 29, the lowest layer (layer 1) is a layer for displaying a file of a template (for example, a screen (ruled line, minutes, spreadsheet, etc.) by an application).

レイヤ2〜5は、ユーザ1〜4がそれぞれ使用するパーソナルコンピュータ2,3,4、PDA5に対応するもので、それぞれから取得した処理内容に応じて画像データが記憶される。   The layers 2 to 5 correspond to the personal computers 2, 3, 4 and the PDA 5 used by the users 1 to 4, respectively, and image data is stored according to the processing content acquired from each.

電子会議装置1は、例えば利用者からの指示に応じて、全てのレイヤを合成して表示(投影)させたり、あるいは複数のレイヤのうち何れかのレイヤを選択して(例えばレイヤ1,2,5)、これを合成して表示させたりすることができる。また、1つレイヤ(すなわち特定の会議出席者による操作内容)を選択して表示させることもできる。   For example, in response to an instruction from the user, the electronic conference apparatus 1 combines and displays (projects) all layers, or selects one of a plurality of layers (for example, layers 1 and 2). 5), can be synthesized and displayed. It is also possible to select and display one layer (that is, the content of operation by a specific conference attendee).

このようにして、ネットワークを介して接続された他の情報機器(パーソナルコンピュータ2,3,4、PDA5)における共有化されたオブジェクトに対する操作内容、すなわちオブジェクトを利用した個々の出席者の検討内容を表す画像データを別々に記憶し、これらを合成して、あるいは特定の出席者に対応する画像データを用いて表示させることで、出席者の意見をオブジェクトに対する操作内容として会議に提供することができる。   In this way, the operation contents for the shared object in other information devices (personal computers 2, 3, 4 and PDA 5) connected via the network, that is, the examination contents of individual attendees using the object are described. Image data to be represented can be stored separately, and these can be combined or displayed using image data corresponding to a specific attendee, so that the attendee's opinion can be provided to the meeting as the operation content for the object .

さらに、上記実施の形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜の組み合わせにより種々の発明が抽出され得る。例えば、実施の形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題の少なくとも1つが解決でき、発明の効果の欄で述べられている効果の少なくとも1つが得られる場合には、この構成要件が削除された構成が発明として抽出され得る。   Furthermore, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, at least one of the problems described in the column of problems to be solved by the invention can be solved, and described in the column of the effect of the invention. In a case where at least one of the obtained effects can be obtained, a configuration in which this configuration requirement is deleted can be extracted as an invention.

また、電子会議装置1を実現するコンピュータに実行させることのできる電子会議装置制御プログラムを、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで、あるいは通信媒体を通じて提供することができる。電子会議装置制御プログラムによりコンピュータの動作を制御することで、前述した実施形態における機能を実現することができる。   In addition, an electronic conference apparatus control program that can be executed by a computer that implements the electronic conference apparatus 1 is recorded on a recording medium such as a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.) Or can be provided through a communication medium. By controlling the operation of the computer by the electronic conference device control program, the functions in the above-described embodiments can be realized.

本発明の実施の形態における電子会議装置1を使用するシステム構成を示すブロック図。The block diagram which shows the system configuration which uses the electronic conference apparatus 1 in embodiment of this invention. 図1に示す電子会議装置1の詳細な構成を示すブロック図。The block diagram which shows the detailed structure of the electronic conference apparatus 1 shown in FIG. 本実施形態における起動処理について説明するためのフローチャート。The flowchart for demonstrating the starting process in this embodiment. 本実施形態におけるドラッグ処理について説明するためのフローチャート。The flowchart for demonstrating the drag process in this embodiment. 本実施形態におけるドラッグメニュー処理について説明するためのフローチャート。The flowchart for demonstrating the drag menu process in this embodiment. 本実施形態におけるオブジェクト編集メニュー処理について説明するためのフローチャート。The flowchart for demonstrating the object edit menu process in this embodiment. 本実施形態におけるファイルメニュー処理について説明するためのフローチャート。The flowchart for demonstrating the file menu process in this embodiment. 本実施形態におけるファイルメニュー処理について説明するためのフローチャート。The flowchart for demonstrating the file menu process in this embodiment. 本実施形態におけるファイルメニュー処理について説明するためのフローチャート。The flowchart for demonstrating the file menu process in this embodiment. 本実施形態における自動オブジェクト表示処理について説明するためのフローチャート。The flowchart for demonstrating the automatic object display process in this embodiment. 本実施形態における電子ホワイトボードの表示画面の一例を示す図。The figure which shows an example of the display screen of the electronic whiteboard in this embodiment. 本実施形態におけるドラッグ処理を説明するための表示例を示す図。The figure which shows the example of a display for demonstrating the drag process in this embodiment. 本実施形態におけるオブジェクトの生成に関係する各種ファイルについて説明するための図。The figure for demonstrating the various files related to the production | generation of the object in this embodiment. 本実施形態におけるオブジェクト削除確認メッセージの一例を示す図。The figure which shows an example of the object deletion confirmation message in this embodiment. 本実施形態におけるオブジェクト編集メニューの「色分け」が選択された場合の処理例を示す図。The figure which shows the process example when "color classification" of the object edit menu in this embodiment is selected. 本実施形態におけるオブジェクト編集メニューの「グループ化」が選択された場合の処理例を示す図。The figure which shows the process example when "grouping" of the object edit menu in this embodiment is selected. 本実施形態におけるオブジェクト編集メニューの「サイズ自動調整」が選択された場合の処理例を示す図。The figure which shows the process example when "size automatic adjustment" of the object edit menu in this embodiment is selected. 本実施形態におけるオブジェクト編集メニューを用いたオブジェクトの編集例を示す図。The figure which shows the example of edit of the object using the object edit menu in this embodiment. 本実施形態におけるファイルメニューの一例を示す図。The figure which shows an example of the file menu in this embodiment. 本実施形態における画面一覧表示ウィンドウの一例を示す図。The figure which shows an example of the screen list display window in this embodiment. 本実施形態におけるオブジェクト一覧表示ウィンドウの一例を示す図。The figure which shows an example of the object list display window in this embodiment. 本実施形態における画面保存確認メッセージの一例を示す図。The figure which shows an example of the screen preservation | save confirmation message in this embodiment. 本実施形態におけるシャッフル確認メッセージの一例を示す図。The figure which shows an example of the shuffle confirmation message in this embodiment. 本実施形態における出席者オブジェクト作成確認メッセージの一例を示す図。The figure which shows an example of the attendee object creation confirmation message in this embodiment. 本実施形態における出席者オブジェクトが表示された画面の一例を示す図。The figure which shows an example of the screen on which the attendee object in this embodiment was displayed. 本実施形態におけるオブジェクト自動表示設定ウィンドウの表示例を示す図。The figure which shows the example of a display of the object automatic display setting window in this embodiment. 本実施形態におけるオブジェクトの自動表示パターンの一例を示す図。The figure which shows an example of the automatic display pattern of the object in this embodiment. 本実施形態におけるオブジェクトの自動表示パターンの一例を示す図。The figure which shows an example of the automatic display pattern of the object in this embodiment. 本実施形態における電子会議装置1で用いられるレイヤの概念を示す図。The figure which shows the concept of the layer used with the electronic conference apparatus 1 in this embodiment.

符号の説明Explanation of symbols

1…電子会議装置、2,3,4…パーソナルコンピュータ、5…PDA、6…プロジェクタ、7…スクリーン、10…CPU、11…RAM、12…ROM、13…RTC、14…無線LANコントローラ、14a…アンテナ、15…映像信号出力コントローラ、16…LCDコントローラ、17…タブレットコントローラ、18…USBコントローラ、19…ハードディスクコントローラ、20…LCD、21…タブレット、22…USBインタフェース、23…ハードディスク。   DESCRIPTION OF SYMBOLS 1 ... Electronic conference apparatus, 2, 3, 4 ... Personal computer, 5 ... PDA, 6 ... Projector, 7 ... Screen, 10 ... CPU, 11 ... RAM, 12 ... ROM, 13 ... RTC, 14 ... Wireless LAN controller, 14a DESCRIPTION OF SYMBOLS: Antenna, 15 ... Video signal output controller, 16 ... LCD controller, 17 ... Tablet controller, 18 ... USB controller, 19 ... Hard disk controller, 20 ... LCD, 21 ... Tablet, 22 ... USB interface, 23 ... Hard disk.

Claims (12)

表示装置に表示された画像の一定範囲を指定する範囲指定手段と、
前記範囲指定手段により指定された範囲に該当する部分画像をもとにオブジェクトを生成するオブジェクト生成手段と、
前記オブジェクト生成手段により生成されたオブジェクトを記憶するオブジェクト記憶手段と、
前記範囲指定の対象となった表示画像を前記オブジェクト記憶手段に記憶されたオブジェクトと関連づけて全体画像として記憶する全体画像記憶手段と、
前記オブジェクト記憶手段により記憶されたオブジェクトを表示するオブジェクト表示手段と、
前記オブジェクト表示手段により表示されたオブジェクトを選択するオブジェクト選択手段と、
前記オブジェクト選択手段により選択されたオブジェクトに対応する前記全体画像記憶手段により記憶された全体画像を表示する全体画像表示手段と
を具備したことを特徴とする電子会議装置。
A range specifying means for specifying a certain range of an image displayed on the display device;
Object generating means for generating an object based on a partial image corresponding to the range specified by the range specifying means;
Object storage means for storing the object generated by the object generation means;
Whole image storage means for storing the display image that is the target of the range specification as a whole image in association with the object stored in the object storage means;
Object display means for displaying the object stored by the object storage means;
Object selection means for selecting an object displayed by the object display means;
An electronic conference apparatus comprising: a whole image display unit for displaying a whole image stored by the whole image storage unit corresponding to the object selected by the object selection unit.
前記範囲指定の対象となる表示画像は、他のアプリケーションにより表示された画像であることを特徴とする請求項1記載の電子会議装置。   The electronic conference apparatus according to claim 1, wherein the display image that is the target of the range specification is an image displayed by another application. ポインティングデバイスを有し、
前記範囲指定の対象となる表示画像は、前記ポインティングデバイスから入力されたデータからなる画像であることを特徴とする請求項1記載の電子会議装置。
A pointing device,
The electronic conference apparatus according to claim 1, wherein the display image to be the target of the range specification is an image made of data input from the pointing device.
予め決められた時間の経過を判別する時間経過判別手段をさらに具備し、
前記オブジェクト表示手段は、前記時間経過判別手段により予め決められた時間が経過したと判別された場合に、前記オブジェクト記憶手段により記憶されたオブジェクトを表示することを特徴とする請求項1記載の電子会議装置。
It further comprises a time passage determination means for determining the passage of a predetermined time,
2. The electronic device according to claim 1, wherein the object display unit displays the object stored in the object storage unit when it is determined by the time elapse determination unit that a predetermined time has elapsed. Conference equipment.
前記オブジェクト表示手段によりオブジェクトを表示する条件を設定する条件設定手段とを具備し、
前記オブジェクト表示手段は、前記条件設定手段によって設定された条件に従ってオブジェクトを表示することを特徴とする請求項4記載の電子会議装置。
Comprising condition setting means for setting conditions for displaying an object by the object display means,
5. The electronic conference apparatus according to claim 4, wherein the object display means displays an object in accordance with the condition set by the condition setting means.
前記オブジェクト表示手段により表示されたオブジェクトの配列の変更要求を入力する配列変更要求入力手段と、
前記オブジェクト表示手段は、前記配列変更要求入力手段により変更要求が入力される毎に前記オブジェクト記憶手段に記憶された複数のオブジェクトの配列をランダムに変更して表示させることを特徴とする請求項1記載の電子会議装置。
An array change request input means for inputting an array change request for the objects displayed by the object display means;
2. The object display means is characterized in that the arrangement of a plurality of objects stored in the object storage means is randomly changed and displayed each time a change request is input by the arrangement change request input means. The electronic conference apparatus described.
前記オブジェクト記憶手段に記憶されたオブジェクトの表示要求を入力する表示要求入力手段と、
前記オブジェクト表示手段は、前記表示要求入力手段により入力された表示要求に応じて、前記オブジェクト記憶手段に記憶された複数のオブジェクトを一覧表示させることを特徴とする請求項1記載の電子会議装置。
Display request input means for inputting a display request for an object stored in the object storage means;
2. The electronic conference apparatus according to claim 1, wherein the object display means displays a list of a plurality of objects stored in the object storage means in response to a display request input by the display request input means.
前記オブジェクト表示手段によって表示された複数のオブジェクトを選択する複数オブジェクト選択手段と、
前記複数オブジェクト選択手段によって選択された複数のオブジェクトを関連付けて共通する所定の属性を設定する設定手段と
を具備したことを特徴とする請求項1記載の電子会議装置。
A plurality of object selection means for selecting a plurality of objects displayed by the object display means;
2. The electronic conference apparatus according to claim 1, further comprising setting means for setting a predetermined common attribute in association with a plurality of objects selected by the plurality of object selecting means.
ネットワークを介して他の情報機器と接続する接続手段と、
前記接続手段により接続された前記他の情報機器との間で、前記オブジェクト記憶手段により記憶されたオブジェクトを共有化する共有化手段と
を具備したことを特徴とする請求項1記載の電子会議装置。
Connection means for connecting to other information devices via a network;
2. The electronic conference apparatus according to claim 1, further comprising a sharing unit that shares the object stored by the object storage unit with the other information device connected by the connection unit. .
前記他の情報機器に対応する機器オブジェクトを、前記オブジェクト表示手段により表示されるオブジェクトと共に表示する第2オブジェクト表示手段と、
前記第2オブジェクト表示手段により表示された前記機器オブジェクトと、前記オブジェクト表示手段により表示されるオブジェクトとの関連づけを示す指示を入力する関連指示入力手段と、
前記関連指示入力手段により入力された指示に応じて、前記機器オブジェクトと前記オブジェクトとを関連付けを設定する関連付け設定手段と
を具備したことを特徴とする請求項9記載の電子会議装置。
Second object display means for displaying a device object corresponding to the other information device together with an object displayed by the object display means;
Related instruction input means for inputting an instruction indicating the association between the device object displayed by the second object display means and the object displayed by the object display means;
10. The electronic conference apparatus according to claim 9, further comprising an association setting unit configured to set an association between the device object and the object in accordance with an instruction input by the association instruction input unit.
前記接続手段により接続された他の情報機器のそれぞれに応じた画像データを記憶する画像データ記憶手段と、
前記画像データ記憶手段により記憶された前記他の情報機器のそれぞれに応じた画像データを選択的に合成して表示する合成表示手段と
を具備したことを特徴とする請求項9記載の電子会議装置。
Image data storage means for storing image data corresponding to each of the other information devices connected by the connection means;
10. The electronic conference apparatus according to claim 9, further comprising: composite display means for selectively combining and displaying image data corresponding to each of the other information devices stored by the image data storage means. .
コンピュータを、
表示装置に表示された画像の一定範囲を指定する範囲指定手段と、
前記範囲指定手段により指定された範囲に該当する部分画像をもとにオブジェクトを生成するオブジェクト生成手段と、
前記オブジェクト生成手段により生成されたオブジェクトを記憶するオブジェクト記憶手段と、
前記範囲指定の対象となった表示画像を前記オブジェクト記憶手段に記憶されたオブジェクトと関連づけて全体画像として記憶する全体画像記憶手段と、
前記オブジェクト記憶手段により記憶されたオブジェクトを表示するオブジェクト表示手段と、
前記オブジェクト表示手段により表示されたオブジェクトを選択するオブジェクト選択手段と、
前記オブジェクト選択手段により選択されたオブジェクトに対応する前記全体画像記憶手段により記憶された全体画像を表示する全体画像表示手段として機能させるための電子会議装置制御プログラム。
Computer
A range specifying means for specifying a certain range of an image displayed on the display device;
Object generating means for generating an object based on a partial image corresponding to the range specified by the range specifying means;
Object storage means for storing the object generated by the object generation means;
Whole image storage means for storing the display image that is the target of the range specification as a whole image in association with the object stored in the object storage means;
Object display means for displaying the object stored by the object storage means;
Object selection means for selecting an object displayed by the object display means;
An electronic conference device control program for functioning as a whole image display means for displaying a whole image stored by the whole image storage means corresponding to an object selected by the object selection means.
JP2004284482A 2004-09-29 2004-09-29 Electronic conference device and electronic conference device control program Pending JP2006099414A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004284482A JP2006099414A (en) 2004-09-29 2004-09-29 Electronic conference device and electronic conference device control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004284482A JP2006099414A (en) 2004-09-29 2004-09-29 Electronic conference device and electronic conference device control program

Publications (2)

Publication Number Publication Date
JP2006099414A true JP2006099414A (en) 2006-04-13
JP2006099414A5 JP2006099414A5 (en) 2007-05-24

Family

ID=36239162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004284482A Pending JP2006099414A (en) 2004-09-29 2004-09-29 Electronic conference device and electronic conference device control program

Country Status (1)

Country Link
JP (1) JP2006099414A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011523739A (en) * 2008-05-19 2011-08-18 スマート・インターネット・テクノロジー・シーアールシー・プロプライエタリー・リミテッド System and method for collaborative interaction
JP2012049969A (en) * 2010-08-30 2012-03-08 Ricoh Co Ltd Electronic conference device, information display method, and program
JP2014238667A (en) * 2013-06-06 2014-12-18 株式会社リコー Information terminal, information processing program, information processing system, and information processing method
US9378569B2 (en) 2010-08-30 2016-06-28 Canon Kabushiki Kaisha Information processing apparatus and control method thereof
JP2020102828A (en) * 2018-12-22 2020-07-02 弘真科技股▲ふん▼有限公司 Wireless audiovisual information sharing system and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266632A (en) * 1993-03-12 1994-09-22 Toshiba Corp Method and device for processing information of electronic conference system
JPH08241188A (en) * 1995-01-23 1996-09-17 Internatl Business Mach Corp <Ibm> System and method for data processing for processing of object-oriented development environment
JPH1133830A (en) * 1997-07-24 1999-02-09 Fanuc Ltd Method and device for determining coreless machined shape, and computer readable recording medium recording coreless machined shape determination program
JP2004151899A (en) * 2002-10-29 2004-05-27 Fuji Xerox Co Ltd Information providing method, information provision processing system and its program
JP2004240597A (en) * 2003-02-05 2004-08-26 Fuji Xerox Co Ltd Display control method, information display processing system, client's terminal, management server, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266632A (en) * 1993-03-12 1994-09-22 Toshiba Corp Method and device for processing information of electronic conference system
JPH08241188A (en) * 1995-01-23 1996-09-17 Internatl Business Mach Corp <Ibm> System and method for data processing for processing of object-oriented development environment
JPH1133830A (en) * 1997-07-24 1999-02-09 Fanuc Ltd Method and device for determining coreless machined shape, and computer readable recording medium recording coreless machined shape determination program
JP2004151899A (en) * 2002-10-29 2004-05-27 Fuji Xerox Co Ltd Information providing method, information provision processing system and its program
JP2004240597A (en) * 2003-02-05 2004-08-26 Fuji Xerox Co Ltd Display control method, information display processing system, client's terminal, management server, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011523739A (en) * 2008-05-19 2011-08-18 スマート・インターネット・テクノロジー・シーアールシー・プロプライエタリー・リミテッド System and method for collaborative interaction
JP2012049969A (en) * 2010-08-30 2012-03-08 Ricoh Co Ltd Electronic conference device, information display method, and program
US9378569B2 (en) 2010-08-30 2016-06-28 Canon Kabushiki Kaisha Information processing apparatus and control method thereof
US10354420B2 (en) 2010-08-30 2019-07-16 Canon Kabushiki Kaisha Information processing apparatus and control method thereof
JP2014238667A (en) * 2013-06-06 2014-12-18 株式会社リコー Information terminal, information processing program, information processing system, and information processing method
JP2020102828A (en) * 2018-12-22 2020-07-02 弘真科技股▲ふん▼有限公司 Wireless audiovisual information sharing system and method

Similar Documents

Publication Publication Date Title
JP5666239B2 (en) Information processing apparatus, information processing apparatus control method, program, and recording medium
JP5211430B2 (en) Electronic conference system, electronic conference support program, electronic conference support method, electronic conference control device, conference server computer
JP3838282B2 (en) Picture creation device
Zaman et al. Gem-ni: A system for creating and managing alternatives in generative design
US20220270050A1 (en) Online collaboration platform
JP5394555B2 (en) Conference summary generation device, program, and computer-readable recording medium
US20150033102A1 (en) Direct presentations from content collections
JP2009277192A (en) Content management device, contents management method, program, and recording medium
KR20070085017A (en) Electronic conference control device, electronic conference assistance method, and storage medium
JP2013031159A (en) Image processing device, image processing method, and image processing program
JP2009277177A (en) Image layout device, recording medium, and image layout method
JP2011128962A (en) Information processing apparatus and method, and computer program
JP2012053545A (en) Image processing system, and method for controlling the same
JP2016170613A (en) Conference support device, conference support system, conference support program and conference support method
CN107037939B (en) Electronic blackboard and image processing method
JP2013125488A (en) Handwriting input device, information editing program, and information editing method
JP2007066081A (en) Electronic conference device, and electronic conference device control program
JP2018073096A (en) Information display device
JP2006099414A (en) Electronic conference device and electronic conference device control program
JP2003009107A (en) Terminal for electronic conference, electronic conference system, electronic conference method and program for electronic conference
JP2008102613A (en) Retrieval result display device, method and program
JP2010267214A (en) Information processing apparatus, method, and program
JP2007179083A (en) Conference system, control method therefor and program
JP2009302952A (en) Reproduction processing apparatus, reproduction processing method and program
JP4627814B2 (en) Conference support system and recording medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100921