JP2006099414A - Electronic conference device and electronic conference device control program - Google Patents
Electronic conference device and electronic conference device control program Download PDFInfo
- Publication number
- JP2006099414A JP2006099414A JP2004284482A JP2004284482A JP2006099414A JP 2006099414 A JP2006099414 A JP 2006099414A JP 2004284482 A JP2004284482 A JP 2004284482A JP 2004284482 A JP2004284482 A JP 2004284482A JP 2006099414 A JP2006099414 A JP 2006099414A
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- displayed
- electronic conference
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、会議の出席者が使用している情報機器間でデータを共有することで会議を支援するための電子会議装置、電子会議装置制御プログラムに関する。 The present invention relates to an electronic conference device and an electronic conference device control program for supporting a conference by sharing data among information devices used by attendees of the conference.
従来、会議を電子的に支援するためのシステムが考えられている(例えば特許文献1,2)。
Conventionally, systems for electronically supporting a conference have been considered (for example,
特許文献1に記載された電子支援装置は、会議出席者が情報処理装置を介して送信した個人の知識である情報を会議出席者全員で共有化するための情報共有領域と、共有化された知識である情報の構造を編集するための選択表示領域とを明確に区別し、会議出席者が共通に視認することができる表示装置に表示し、このように表示装置に表示された状態で、情報共有領域に表示されたオブジェクト(ファイルアイコン、一時的にコピーされた情報(文字列、画像など))の中から所定のオブジェクトが指定されると、この指定されたオブジェクトを選択表示領域の所望の位置に表示することができる。
The electronic support device described in
これにより、一の会議出席者により提供された情報が更新されたことを他の会議出席者や会議の進行役は容易に認知することができ、提供された情報は選択表示領域には直接表示されないことから各情報処理装置での同期処理は必要ないので、議論の進行を妨げることなく会議を運営することができる。また、会議の進行役を中心に会議出席者全員による選択表示領域を用いた議論中に、発散的に生成/提供される情報に対し、少なくとも二以上の属性の属性値を組み合わせた付与属性を付与することができるので、各情報の関係をその場で整理することができ、効率的な情報収集や情報把握を行うことができる。 This allows other meeting attendees and meeting facilitators to easily recognize that the information provided by one meeting attendee has been updated, and the provided information is displayed directly in the selection display area. Since no synchronization processing is required in each information processing apparatus, the conference can be operated without hindering the progress of the discussion. In addition, during the discussion using the selection display area by all meeting attendees, mainly the facilitator of the meeting, for the information generated / provided in a divergent manner, a grant attribute combining at least two attribute values is added. Since it can be given, the relationship between each information can be organized on the spot, and efficient information collection and information grasping can be performed.
特許文献2に記載された電子会議システムは、複数のクライアントが1つのサーバに接続され、各クライアントがサーバにある情報を閲覧あるいは編集可能なサーバ/クライアント型の電子会議システムであって、サーバは文書の表示画面データを記憶するための複数の画面バッファを備え、各画面バッファ毎に、複数のクライアントが表示画面データを同時に表示できる共有画面モード、あるいは1つのクライアントのみが表示画面データを表示できる個別画面モードのいずれかのモードを選択し、共有画面モードにあるサーバの画面バッファと個別画面モードにあるサーバの画面バッファの両方に同じ文書データを記憶している場合に、1つのクライアントにおいて個別画面モードにあるサーバの画面バッファに記憶された文書データに対して編集操作を行うと、該操作に対応した所定のタイミング毎に、編集操作と同じ編集操作が共有画面モードにあるサーバの画面バッファに記憶された文書データに対して行われる。
The electronic conference system described in
これにより、個々の端末で、共有文書に対する追記、編集などを行う際に、他人に不要なあるいは他人に見られたくない部分は全ての端末で共有されないため、他人の目を気にせずに共有文書に対して追記、編集することができ、会議出席者などのユーザの利便性を向上することができ、また、共有画面に表示された文書と同じ文書が自分だけ参照できる個別画面に表示され、共有画面に表示された文書に対して行う編集を共有画面の表示内容とは無関係にこの個別画面上で実施できるため、ユーザの利便性を向上することができる。
このように従来の会議を支援するためのシステムでは、会議出席者で情報を共有できるようにしながら、出席者個人から提供される情報に対して考慮がなされた扱いがされるように構成することで会議を支援している。 In this way, the system for supporting a conventional meeting is configured so that information provided by individual attendees is considered while allowing information to be shared among attendees. Is supporting the meeting.
しかしながら、何れのシステムにおいても、会議出席者で情報を共有しながら議論の進行を妨げないようにする、あるいは会議の出席者(ユーザ)の利便性を向上させることで支援するものであり、会議出席者の創造性を刺激し、より多くのアイディアを提供させることで議論そのものを活性化させることについては意図されていなかった。 However, in any system, meeting attendees share information to prevent the progress of discussions, or to improve the convenience of meeting attendees (users). It was not intended to stimulate the discussion itself by stimulating the creativity of attendees and providing more ideas.
本発明の課題は、会議における議論を活性化させるための支援が可能な電子会議装置、及び電子会議装置制御プログラムを提供することにある。 An object of the present invention is to provide an electronic conference device and an electronic conference device control program capable of supporting the activation of discussions in a conference.
請求項1記載の発明は、表示装置に表示された画像の一定範囲を指定する範囲指定手段と、前記範囲指定手段により指定された範囲に該当する部分画像をもとにオブジェクトを生成するオブジェクト生成手段と、前記オブジェクト生成手段により生成されたオブジェクトを記憶するオブジェクト記憶手段と、前記範囲指定の対象となった表示画像を前記オブジェクト記憶手段に記憶されたオブジェクトと関連づけて全体画像として記憶する全体画像記憶手段と、前記オブジェクト記憶手段により記憶されたオブジェクトを表示するオブジェクト表示手段と、前記オブジェクト表示手段により表示されたオブジェクトを選択するオブジェクト選択手段と、前記オブジェクト選択手段により選択されたオブジェクトに対応する前記全体画像記憶手段により記憶された全体画像を表示する全体画像表示手段とを具備したことを特徴とする。 According to the first aspect of the present invention, range specifying means for specifying a certain range of an image displayed on a display device, and object generation for generating an object based on a partial image corresponding to the range specified by the range specifying means Means, an object storage means for storing the object generated by the object generation means, and an entire image for storing the display image targeted for the range specification as an entire image in association with the object stored in the object storage means Corresponding to the object selected by the object selection means, the object display means for displaying the object stored by the object storage means, the object selection means for selecting the object displayed by the object display means, and the object selection means The whole image memory Characterized by comprising the entire image display means for displaying the whole image stored by.
請求項2記載の発明は、請求項1記載の発明において、前記範囲指定の対象となる表示画像は、他のアプリケーションにより表示された画像であることを特徴とする。 According to a second aspect of the present invention, in the first aspect of the present invention, the display image that is the target of the range specification is an image displayed by another application.
請求項3記載の発明は、請求項1記載の発明において、ポインティングデバイスを有し、前記範囲指定の対象となる表示画像は、前記ポインティングデバイスから入力されたデータからなる画像であることを特徴とする。
The invention according to
請求項4記載の発明は、請求項1記載の発明において、予め決められた時間の経過を判別する時間経過判別手段をさらに具備し、前記オブジェクト表示手段は、前記時間経過判別手段により予め決められた時間が経過したと判別された場合に、前記オブジェクト記憶手段により記憶されたオブジェクトを表示することを特徴とする。 According to a fourth aspect of the present invention, in the first aspect of the invention, the apparatus further comprises a time lapse determining means for determining a lapse of a predetermined time, and the object display means is predetermined by the time lapse determining means. When it is determined that a predetermined time has elapsed, the object stored by the object storage means is displayed.
請求項5記載の発明は、請求項4記載の発明において、前記オブジェクト表示手段によりオブジェクトを表示する条件を設定する条件設定手段とを具備し、前記オブジェクト表示手段は、前記条件設定手段によって設定された条件に従ってオブジェクトを表示することを特徴とする。
The invention according to
請求項6記載の発明は、請求項1記載の発明において、前記オブジェクト表示手段により表示されたオブジェクトの配列の変更要求を入力する配列変更要求入力手段と、前記オブジェクト表示手段は、前記配列変更要求入力手段により変更要求が入力される毎に前記オブジェクト記憶手段に記憶された複数のオブジェクトの配列をランダムに変更して表示させることを特徴とする。 According to a sixth aspect of the present invention, in the first aspect of the present invention, in the first aspect, an array change request input means for inputting a change request for the arrangement of objects displayed by the object display means; and the object display means includes the array change request. Each time a change request is input by the input means, the arrangement of a plurality of objects stored in the object storage means is randomly changed and displayed.
請求項7記載の発明は、請求項1記載の発明において、前記オブジェクト記憶手段に記憶されたオブジェクトの表示要求を入力する表示要求入力手段と、前記オブジェクト表示手段は、前記表示要求入力手段により入力された表示要求に応じて、前記オブジェクト記憶手段に記憶された複数のオブジェクトを一覧表示させることを特徴とする。 According to a seventh aspect of the present invention, in the first aspect of the present invention, the display request input means for inputting a display request for the object stored in the object storage means, and the object display means are input by the display request input means. A plurality of objects stored in the object storage means are displayed as a list in response to the displayed request.
請求項8記載の発明は、請求項1記載の発明において、前記オブジェクト表示手段によって表示された複数のオブジェクトを選択する複数オブジェクト選択手段と、前記複数オブジェクト選択手段によって選択された複数のオブジェクトを関連付けて共通する所定の属性を設定する設定手段とを具備したことを特徴とする。
The invention described in claim 8 relates to the invention described in
請求項9記載の発明は、請求項1記載の発明において、ネットワークを介して他の情報機器と接続する接続手段と、前記接続手段により接続された前記他の情報機器との間で、前記オブジェクト記憶手段により記憶されたオブジェクトを共有化する共有化手段とを具備したことを特徴とする。 According to a ninth aspect of the present invention, in the first aspect of the invention, the object is connected between a connection unit connected to another information device via a network and the other information device connected by the connection unit. And sharing means for sharing the object stored in the storage means.
請求項10記載の発明は、請求項9記載の発明において、前記他の情報機器に対応する機器オブジェクトを、前記オブジェクト表示手段により表示されるオブジェクトと共に表示する第2オブジェクト表示手段と、前記第2オブジェクト表示手段により表示された前記機器オブジェクトと、前記オブジェクト表示手段により表示されるオブジェクトとの関連づけを示す指示を入力する関連指示入力手段と、前記関連指示入力手段により入力された指示に応じて、前記機器オブジェクトと前記オブジェクトとを関連付けを設定する関連付け設定手段とを具備したことを特徴とする。 According to a tenth aspect of the present invention, in the ninth aspect of the invention, a second object display means for displaying a device object corresponding to the other information device together with an object displayed by the object display means; In accordance with the instruction input by the related instruction input means, the related instruction input means for inputting an instruction indicating the association between the device object displayed by the object display means and the object displayed by the object display means, An association setting means for setting an association between the device object and the object is provided.
請求項11記載の発明は、請求項9記載の発明において、前記接続手段により接続された他の情報機器のそれぞれに応じた画像データを記憶する画像データ記憶手段と、前記画像データ記憶手段により記憶された前記他の情報機器のそれぞれに応じた画像データを選択的に合成して表示する合成表示手段とを具備したことを特徴とする。 According to an eleventh aspect of the invention, in the ninth aspect of the invention, image data storage means for storing image data corresponding to each of the other information devices connected by the connection means, and storage by the image data storage means. And a combination display means for selectively combining and displaying image data corresponding to each of the other information devices.
請求項12記載の発明は、コンピュータを、表示装置に表示された画像の一定範囲を指定する範囲指定手段と、前記範囲指定手段により指定された範囲に該当する部分画像をもとにオブジェクトを生成するオブジェクト生成手段と、前記オブジェクト生成手段により生成されたオブジェクトを記憶するオブジェクト記憶手段と、前記範囲指定の対象となった表示画像を前記オブジェクト記憶手段に記憶されたオブジェクトと関連づけて全体画像として記憶する全体画像記憶手段と、前記オブジェクト記憶手段により記憶されたオブジェクトを表示するオブジェクト表示手段と、前記オブジェクト表示手段により表示されたオブジェクトを選択するオブジェクト選択手段と、前記オブジェクト選択手段により選択されたオブジェクトに対応する前記全体画像記憶手段により記憶された全体画像を表示する全体画像表示手段として機能させることを特徴とする。 According to a twelfth aspect of the present invention, a computer generates an object based on range designation means for designating a certain range of an image displayed on a display device, and a partial image corresponding to the range designated by the range designation means. Object generating means for storing, an object storing means for storing the object generated by the object generating means, and a display image which is a target of the range specification is stored as an entire image in association with the object stored in the object storing means. An entire image storage means, an object display means for displaying the object stored by the object storage means, an object selection means for selecting an object displayed by the object display means, and an object selected by the object selection means Corresponding to Whole image stored by serial whole image storage means, characterized in that to function as the entire image display means for displaying.
請求項1,12記載の発明によれば、表示された画像に対して一定範囲が指定されることで、指定範囲に該当する画像内に何らかの情報が表示されている場合には、その情報を表す部分画像をもとに、各種処理の処理単位となるオブジェクトを生成さすることができる。従って、全体画像中で特徴的な部分、例えば文字列、図形、画像などをオブジェクト化しておけば、このオブジェクトを画面中に表示させて、会議の内容や進行状況に応じて各種の操作、例えば移動、コピー、削除などをすることで、アイディアプロセッサとして機能させることで会議出席者の創造性を刺激し、より多くのアイディアを提供させることで議論の活性化を図ることができる。そして、必要に応じてオブジェクトを選択指示すれば、このオブジェクトを含む全体画像を表示して簡単にオブジェクトに対する詳細を確認することができる。
According to the invention described in
請求項2記載の発明によれば、請求項1の発明の効果に加えて、他のアプリケーションにより画面に表示された画像からオブジェクトを生成するので、他のアプリケーションで作成された情報を簡単に会議において利用することができる。 According to the second aspect of the invention, in addition to the effect of the first aspect of the invention, the object is generated from the image displayed on the screen by the other application, so that the information created by the other application can be easily conferenced. Can be used.
請求項3記載の発明によれば、請求項1の発明の効果に加えて、一般に会議などでは議論の内容をメモ書き(手書き)することが多いが、こうして手書きされたメモ内容からオブジェクトを生成して会議に利用することができる。
According to the invention of
請求項4記載の発明によれば、請求項1の発明の効果に加えて、予め決められた時間が経過した場合、例えば最後に行われた入力操作から一定時間が経過した場合には会議が停滞した状態にある可能性があるため、オブジェクトを自動で表示させることで創造性を刺激し、これをきっかけにして停滞した議論の活性化を図ることができる。
According to the invention of
請求項5記載の発明によれば、請求項4の発明の効果に加えて、オブジェクトを表示させる場合の条件、例えば表示開始時間(例えば入力操作がされていない期間)、表示対象とするオブジェクトの選択方法、表示パターンなどを、利用者の好みに合わせて設定できるようにすることで、創造性を刺激して会議の活性化に有効なオブジェクトの表示が可能となる。 According to the fifth aspect of the present invention, in addition to the effect of the fourth aspect of the invention, conditions for displaying an object, such as a display start time (for example, a period during which no input operation is performed), an object to be displayed, By enabling the selection method, display pattern, and the like to be set according to the user's preference, it is possible to display objects that are effective for stimulating the conference by stimulating creativity.
請求項6記載の発明によれば、請求項1の発明の効果に加えて、オブジェクトを表示させる場合に、複数のオブジェクトの配列をランダムに変更することで、会議の出席者が意図していないオブジェクトの関係を提示することで、創造性を刺激して会議の活性化を図ることができる。 According to the sixth aspect of the present invention, in addition to the effect of the first aspect of the invention, when displaying an object, the arrangement of a plurality of objects is randomly changed so that the attendee of the meeting does not intend. By presenting object relationships, you can stimulate your creativity and activate your meeting.
請求項7記載の発明によれば、請求項1の発明の効果に加えて、複数のオブジェクトを一覧表示して会議出席者に提示することができるので、オブジェクトとして設定されている事項を容易に整理することができ、議論を整理して会議の進行をスムーズにすることができる。 According to the seventh aspect of the present invention, in addition to the effect of the first aspect of the invention, a plurality of objects can be displayed in a list and presented to the meeting attendee, so that the items set as objects can be easily You can organize, and you can organize discussions and make meetings progress smoothly.
請求項8記載の発明によれば、請求項1の発明の効果に加えて、複数のオブジェクトを選択してそれらを関連づけて共通する属性、例えばサイズ、色、グループなどを設定することで、画面中でのオブジェクトを整理し、オブジェクトの関係を明瞭にすることで、オブジェクトを利用した会議の進行をスムーズにし、新たに創造性を刺激することができる。
According to the invention of claim 8, in addition to the effect of the invention of
請求項9記載の発明によれば、請求項1の発明の効果に加えて、他の情報機器とネットワークを介して接続し、オブジェクトを共有化することで、会議の出席者が個々に使用している情報機器において、出席者がオブジェクトに対する操作を行うことができる。この場合、オブジェクトに対する操作内容は、会議出席者に共有させることもできるし、オブジェクトを利用した個々の出席者の検討内容として扱うことができる。 According to the ninth aspect of the present invention, in addition to the effect of the first aspect of the invention, the object is shared by connecting to other information devices via the network and sharing the objects, so that the attendees of the conference can use each of them individually. The attendees can perform operations on the objects in the information equipment. In this case, the operation contents for the object can be shared by the meeting attendees, or can be handled as the examination contents of individual attendees using the object.
請求項10記載の発明によれば、請求項9の発明の効果に加えて、ネットワークを介して接続された他の情報機器のそれぞれに対応する機器オブジェクト、すなわち会議出席者に応じたオブジェクト(出席者オブジェクト)を表示させ、他のオブジェクトとの関連づけを設定できることで、例えばオブジェクトが表す事項についての担当者の割り振りなどをオブジェクトとの関連づけにより決めることができる。 According to the tenth aspect of the present invention, in addition to the effect of the ninth aspect, the apparatus object corresponding to each of the other information devices connected via the network, that is, the object corresponding to the conference attendee (attendance) (Person object) can be displayed and the association with other objects can be set, for example, the assignment of the person in charge of the matter represented by the object can be determined by the association with the object.
請求項11記載の発明によれば、請求項9の発明の効果に加えて、ネットワークを介して接続された他の情報機器における共有化されたオブジェクトに対する操作内容、すなわちオブジェクトを利用した個々の出席者の検討内容を表す画像データを別々に記憶し、これらを合成して、あるいは特定の出席者に対応する画像データを用いて表示させることで、出席者の意見をオブジェクトに対する操作内容として会議に提供することができる。 According to the eleventh aspect of the invention, in addition to the effect of the ninth aspect of the invention, the operation contents for the shared object in other information devices connected via the network, that is, individual attendance using the object By separately storing image data representing the contents of a person's examination and combining them or displaying them using image data corresponding to a specific attendee, the opinions of attendees can be used as operations for objects in the meeting. Can be provided.
以下、図面を参照して本発明の実施の形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本実施形態における電子会議装置1を使用するシステム構成を示すブロック図である。
FIG. 1 is a block diagram showing a system configuration using the
電子会議装置1には、複数のパーソナルコンピュータ2,3,4、PDA(personal digital assistant)5などが無線LAN(Local Area Network)などによる無線接続、あるいはUSB(Universal Serial Bus)などによる有線接続されている。なお、相互接続の方法については無線、有線の何れの場合も他の方法を用いることが可能である。
A plurality of
本実施形態における電子会議装置1では、電子会議装置制御プログラムを実行することにより、仮想のホワイトボード(電子ホワイトボード)を設定して画像データを管理する。本実施形態では、画像中において各種処理の単位とするオブジェクトを設定し、このオブジェクトと全体画像のデータとを関連づけて管理する。電子会議装置1は、ポインティングデバイス(タブレットなど)を通じて例えば手書き入力される軌跡を表すデータ(座標時系列データ)、あるいはアプリケーションによって処理されている画面の画像データを電子ホワイトボードに貼り付け、この電子ホワイトボードで管理される画像データによる画像を、プロジェクタ6を通じてスクリーン7に投影(表示)させて、会議の出席者に見せることができる。
In the
また、電子会議装置1は、電子ホワイトボードにより管理される画像データを、ネットワーク(無線LAN、USBなど)を介して接続されたパーソナルコンピュータ2,3,4及びPDA5と共有化し、パーソナルコンピュータ2,3,4及びPDA5においても同様の画面を表示させることができる。
The
さらに、電子会議装置1は、パーソナルコンピュータ2,3,4及びPDA5における、電子ホワイトボードにより管理される画像データに対する各種処理の結果を入力し、選択的に合成してプロジェクタ6を通じて投影(表示)させることができる。
Further, the
図2は、図1に示す電子会議装置1の詳細な構成を示すブロック図である。
図2に示すように、電子会議装置1は、CPU(Central Processing Unit)10、RAM(random access memory)11、ROM(Read Only Memory)12、RTC(Real Time clock)13、無線LANコントローラ14、映像信号出力コントローラ15、LCDコントローラ16、タブレットコントローラ17、USBコントローラ18、ハードディスクコントローラ19、LCD20、タブレット21、USBインタフェース22、及びハードディスク23を有している。
FIG. 2 is a block diagram showing a detailed configuration of the
As shown in FIG. 2, the
CPU10は、ROM12に記憶された各種プログラム、ハードディスク23からロードされたOSや各種のアプリケーションプログラムを実行する。アプリケーションプログラムには、プレゼンテーション、ワードプロセッサ、表計算、図形描画等の機能を提供するプログラムの他、本実施形態における電子ホワイトボード機能を実現するための電子会議装置制御プログラムが含まれている。
The
RAM11は、各種プログラムやデータなどが一時的に記憶されるもので、CPU10により実行される各種処理のワークエリアとして使用される。電子会議装置制御プログラム(電子ホワイトボード機能)が実行されている場合には、電子ホワイトボードに貼り付けられる画像データや、この機能により管理される各種データ(オブジェクト等)のファイルが記憶される。
The
ROM12は、システム全体の制御を行うためのプログラムが予め記憶されている。
RTC13は、専用バッテリによりバックアップされており、年月日時刻を示すデータを出力する。
無線LANコントローラ14は、パーソナルコンピュータ2,3との間の無線通信を制御する。
The
The
The
映像信号出力コントローラ15は、プロジェクタ6により画像を投影させるための映像信号を、例えばRGBあるいはDVI(Digital Visual Interface)により出力する。映像信号出力コントローラ15は、電子ホワイトボード機能が起動されている場合に、CPU10の制御により電子ホワイトボード画像を表示するための映像信号を出力する。
The video
LCDコントローラ16は、CPU10の制御のもとで、LCD20における表示を制御する。LCD20の表示面には、タブレット21が重ね合わせて一体化されており、タブレット21により入力される座標時系列データに応じた筆跡を入力位置に合わせて表示する。
The
タブレットコントローラ17は、タブレット21上で位置指示手段として使用されるペンのペン先が接触した部分を検出し、その位置情報(座標データ)を取り込む。タブレット21は、LCD20の表示面と重ね合わせて一体化されている。
The
USBコントローラ18は、CPU10の制御のもとで、USBインタフェース22を介して接続されたパーソナルコンピュータ4やPDA5などの他の情報機器との間でUSB規格に準拠したデータ転送を実行、制御する。
Under the control of the
ハードディスクコントローラ19は、CPU10の制御のもとで、ハードディスク23に対するプログラムやデータの書き込み、読出しを制御する。ハードディスク23には、OS(Operating System)プログラム、各種アプリケーションプログラム(電子会議装置制御プログラムを含む)などのプログラムの他、電子ホワイトボード機能において管理される画像データや設定データを含むファイルなどが記録されており、必要に応じて読み出される。
The
なお、図2に示す構成では、ポインティングデバイスとしてタブレット21が設けられているが、その他のポインティングデバイス、マウスやその他の座標データ入力デバイスを設けることも可能である。
In the configuration shown in FIG. 2, the
また、ポインティングデバイスとしてLCD20と一体化されたタブレット21だけではなく、一般のホワイトボードの形状をした、ボード上でのマーカ(ペン)などによる描画に応じて筆跡を表す座標時系列データを入力可能な装置を電子会議装置1に接続した構成とすることもできる。
In addition to the
また、図1に示すシステム構成では、電子会議装置1からプロジェクタ6に対して電子ホワイトボードの画像データを出力し、プロジェクタ6による画像をスクリーン7に投影させるものとしているが、例えば電子会議装置1からのデータを受信して画像を表示する大画面を持つディスプレイを用いることも可能である。
In the system configuration shown in FIG. 1, the electronic whiteboard image data is output from the
次に、本実施形態における電子会議装置1の動作について、図3〜図10に示すフローチャートを参照しながら説明する。
Next, operation | movement of the
本実施形態の電子会議装置1において、電子会議装置制御プログラムにより実行される電子ホワイトボード機能では、起動処理、ドラッグ処理(ドラッグメニュー処理、オブジェクト編集メニュー処理)、ファイルメニュー処理、自動オブジェクト表示処理を実行する。
以下、電子会議装置1により実行される各種処理の詳細について個々に説明する。
In the
Hereinafter, details of various processes executed by the
(起動処理)
まず、起動処理について、図3に示すフローチャートを参照しながら説明する。
(Start process)
First, the activation process will be described with reference to the flowchart shown in FIG.
電子会議装置1では、任意のアプリケーションプログラムを実行させることができる。アプリケーションには、例えばプレゼンテーション、ワードプロセッサ、表計算、図形描画等がある。電子会議装置1は、アプリケーションプログラムが実行中である場合、このアプリケーションで処理されている画面がLCD20において表示されている。
In the
ここで、電子ホワイトボード機能の実行が指示されると、CPU10は、電子会議装置制御プログラムを起動して起動処理を開始する。まず、CPU10は、電子ホワイトボード機能の起動時の画面をキャプチャ、すなわち起動時にアプリケーションで処理対象としていた画面の画像データを取得してRAM11に一時記憶する(ステップA1)。
Here, when the execution of the electronic whiteboard function is instructed, the
CPU10は、電子ホワイトボード画面(ウィンドウ)をLCD20において表示させ(ステップA2)、この電子ホワイトボードにキャプチャした画面を貼り付ける(ステップS3)。そして、CPU10は、電子ホワイトボードを使用可能状態、すなわちタブレット21上におけるペンを用いた手書き入力操作により座標時系列データ(筆跡データ)を入力し、この筆跡を表す画像を表示できるようにする。
The
図11には、電子ホワイトボードの表示画面の一例を示している。電子ホワイトボードには、ペン操作により指示可能な複数のコマンドボタンの他、手書き入力領域が設けられている。 FIG. 11 shows an example of an electronic whiteboard display screen. The electronic whiteboard is provided with a handwriting input area in addition to a plurality of command buttons that can be instructed by a pen operation.
電子ホワイトボードの起動時にアプリケーションにより処理されていた画面がキャプチャされた場合には、手書き入力領域にキャプチャされた画面が表示される。例えば、プレゼンテーション用のアプリケーションの場合には、文字列、図形、画像などが表示される。 When the screen processed by the application when the electronic whiteboard is activated is captured, the captured screen is displayed in the handwriting input area. For example, in the case of a presentation application, a character string, a figure, an image, and the like are displayed.
なお、前述した説明では、他のアプリケーションによる画面をキャプチャして電子ホワイトボードに貼り付けるものとして説明しているが、電子ホワイトボード機能の起動時にアプリケーションが実行されていない場合には、図11に示すような画像が貼り付けられていない初期状態の電子ホワイトボードが表示される。 In the above description, the screen by another application is captured and pasted on the electronic whiteboard. However, if the application is not executed when the electronic whiteboard function is activated, FIG. An electronic whiteboard in an initial state where an image as shown is not pasted is displayed.
この場合、以下に説明する処理では、電子ホワイトボードでペンを用いて手書き入力された筆跡を表す座標時系列データ(画像データ)を処理対象とする。以下の説明では、手書き入力された画像データを処理対象として説明する。 In this case, in the process described below, coordinate time-series data (image data) representing handwriting input by handwriting using a pen on an electronic whiteboard is set as a processing target. In the following description, image data input by handwriting will be described as a processing target.
(ドラッグ処理)
次に、ドラッグ処理について、図4に示すフローチャートを参照しながら説明する。ドラッグ処理では、電子ホワイトボードに入力された(貼り付けられた)画像データに対するドラッグ操作により各種の処理を実行することができる。ドラッグ操作とは、ペン先をタブレット21に接触させた状態で移動させて、座標時系列データを入力する操作をいう。
(Drag processing)
Next, the drag process will be described with reference to the flowchart shown in FIG. In the drag process, various processes can be executed by a drag operation on the image data input (pasted) to the electronic whiteboard. The drag operation refers to an operation of inputting coordinate time series data by moving the pen tip in contact with the
ここで、電子ホワイトボードには、例えば図12(a)に示すように、手書き入力された文字列(「ホワイトボード」)を表す座標時系列データ(画像データ)が入力されているものとする。 Here, for example, as shown in FIG. 12A, coordinate time-series data (image data) representing a character string ("whiteboard") input by handwriting is input to the electronic whiteboard. .
電子ホワイトボードがアクティブ(データ入力が可能な状態)であり、ペンがオブジェクトを選択するツールとしてのモードになっている時に、図11に示す電子ホワイトボード画面のデータ入力領域においてペンを用いたドラッグ操作により範囲指定がされた場合(ステップB1〜B3)、CPU10は、ドラッグ操作により指定された範囲内に、処理単位として管理されているオブジェクトが含まれているかを判別する(ステップB4)。なお、オブジェクトの詳細については後述する(図5、図13)。
When the electronic whiteboard is active (data input is possible) and the pen is in a mode as a tool for selecting an object, dragging using the pen in the data input area of the electronic whiteboard screen shown in FIG. When the range is specified by the operation (steps B1 to B3), the
範囲指定であるか否かは、例えばドラッグ操作により入力された座標時系列データの端点と終点が近傍に位置し(あるいは筆跡が交差し)、座標時系列データによって所定以上のサイズの領域を囲んでいるかにより判別する。 Whether or not the range is specified, for example, the end point and end point of the coordinate time series data input by the drag operation are located in the vicinity (or the handwriting intersects), and the coordinate time series data surrounds an area of a predetermined size or more. It is determined by whether or not
例えば、図12(a)に示す手書きの文字列を表す画像データに対して、図12(b)示すように、この文字列を囲むようにドラッグ操作された場合には、この画像データに対してはオブジェクトが定義されていないので、オブジェクトが含まれないと判別される(ステップB4、No)。 For example, when the image data representing the handwritten character string shown in FIG. 12A is dragged so as to surround the character string as shown in FIG. Since no object is defined, it is determined that no object is included (No in step B4).
この場合、CPU10は、ペンがタブレット21(LCD20の表示画面)上から離された(ペンアップ)のタイミングに合わせて、ドラッグ操作により画像データが入力された位置の近傍に、例えば図12(c)に示すように、ドラッグメニューを表示させる(ステップB7)。ドラッグメニューには、例えば「オブジェクト化」「空白挿入」「削除(左寄せ)」「消去」「コピー」「移動」のコマンド名(選択肢)が一覧表示されている。
In this case, the
次に、CPU10は、ドラッグメニューから選択されたコマンドに応じた処理のためのドラッグメニュー処理を実行する(ステップB8)。
Next, the
図5には、ドラッグメニュー処理のフローチャートを示している。
なお、ドラッグメニューの「オブジェクト化」以外の処理については、本発明と直接関係がないので説明を省略する。また、ドラッグメニュー外の部分がペンにより指示(あるいはマウスなどにクリック)された場合には(ステップC2、Yes)、ドラッグメニューを閉じて元の表示画面に戻るものとする(ステップC3)。
FIG. 5 shows a flowchart of the drag menu process.
The processing other than the “objectification” of the drag menu is not directly related to the present invention, and thus the description thereof is omitted. If a part outside the drag menu is instructed with a pen (or clicked with a mouse or the like) (step C2, Yes), the drag menu is closed to return to the original display screen (step C3).
まず、ドラッグメニューから「オブジェクト化」が選択されると(ステップC1、Yes)、CPU10は、範囲指定のためのドラッグ操作により入力された座標時系列データをもとに、指定された範囲を例えば矩形枠によって設定する。例えば、指定範囲内の画像から所定距離に位置する水平垂直(x,y)方向の直線により矩形枠を設定する。
First, when “objectification” is selected from the drag menu (step C1, Yes), the
そして、指定範囲内の画像(部分画像)を切り取り、RAM11に一時記憶しておく(ステップC4)。そして、CPU10は、部分画像と指定範囲の位置とをもとにオブジェクトを生成し、切り取った部分画像に矩形枠を付加してオブジェクトとして電子ホワイトボードに貼り付ける(ステップC5)。この時、オブジェクトは、部分画像を切り取った位置に貼り付けるものとする。
Then, an image (partial image) within the specified range is cut out and temporarily stored in the RAM 11 (step C4). Then, the
オブジェクトの生成では、図13に示すような各種データを記憶するファイルが生成される。すなわち、(1)全体画像からオブジェクト(部分画像)を除いた画面ファイル(ファイル名:picmmddhhmm.bmp)、(2)全体画像のサムネイル画像ファイル(ファイル名:sammmddhhmm.bmp)(図13(2)(b))、(3)オブジェクトの設定ファイル(ファイル名:cardmmddhhmm.def)、(4)オブジェクト画像ファイル(ファイル名:cardmmddhhmm.bmp)である。 In the generation of the object, a file for storing various data as shown in FIG. 13 is generated. That is, (1) a screen file (file name: picmmddhhmm.bmp) obtained by removing an object (partial image) from the entire image, (2) a thumbnail image file (file name: sammmddhhmm.bmp) of the entire image ((2) in FIG. 13) (B)), (3) Object setting file (file name: cardmmddhhmm.def), (4) Object image file (file name: cardmmddhhmm.bmp).
なお、全体画像のサムネイル画像に対応する全体画像の画像ファイル(図13(2)(a))については、別途、所定のファイル名が付されて記憶されているものとする。 Note that the image file (FIG. 13 (2) (a)) of the entire image corresponding to the thumbnail image of the entire image is separately stored with a predetermined file name.
なお、各ファイル名における「mmddhhmm」は、前の「mm」が現在月、「dd」が現在日、「hh」が現在時、後の「mm」が現在分を表しており、CPU10が、オブジェクトの生成時に、RTC13から取得されるデータをもとにそれぞれを設定し、ファイル名を自動生成する。
In each file name, “mmddhhmm” indicates that the previous “mm” indicates the current month, “dd” indicates the current date, “hh” indicates the current time, and the subsequent “mm” indicates the current minute. When an object is generated, each is set based on data acquired from the
なお、オブジェクトの設定ファイルの構成は、図13(3)に示すように、全体画像中におけるオブジェクトの位置よそサイズを示すデータと、オブジェクト画像ファイル名(貼り付け画像名)との組からなるデータ(以下、オブジェクトデータ)が、全体画像中に設定されたオブジェクト分含まれている。オブジェクトの位置を示すデータは、範囲指定された画像に対して設定した矩形枠の始点とする頂点のxy座標と、始点からのxyそれぞれの方向のサイズを示すデータにより定義されている。 As shown in FIG. 13 (3), the configuration of the object setting file is data consisting of a set of data indicating the size and size of the object in the entire image and the object image file name (pasted image name). (Hereinafter, object data) is included in the entire image for the set object. The data indicating the position of the object is defined by data indicating the xy coordinates of the vertex as the starting point of the rectangular frame set for the range-specified image and the sizes in the xy directions from the starting point.
CPU10は、オブジェクトの生成時に、前述した各ファイルを生成することによりオブジェクトと、オブジェクトに関連する画像(全体画像、部分画像)を管理する。CPU10は、これらのオブジェクトに関連するファイルを保存し(ステップC6)、ドラッグメニューを閉じる(ステップC7)。
When the object is generated, the
図12(d)には、オブジェクトが貼り付けられ、ドラッグメニューが閉じられた時の画面の一例を示している。 FIG. 12D shows an example of a screen when an object is pasted and the drag menu is closed.
なお、画面中に貼り付けられたオブジェクトに対しては、後述するオブジェクト編集メニューを用いた編集の他、画面中の任意の位置に移動させる編集が可能である。例えば、パーソナルコンピュータなどにおいて一般的に行われているGUI(Graphical User Interface)の操作と同様にして、ペンによりオブジェクトを選択した状態でドラッグ操作をすることで、ペン先の移動位置に追随するようにオブジェクトを移動させる。このオブジェクトの移動が行われた場合には、オブジェクトの設定ファイル中の移動対象となったオブジェクトのオブジェクトデータ(位置をデータ)を変更するものとする。 Note that an object pasted on the screen can be edited by moving it to an arbitrary position on the screen in addition to editing using an object edit menu described later. For example, in the same manner as a GUI (Graphical User Interface) operation generally performed on a personal computer or the like, a drag operation is performed with an object selected with a pen so as to follow the movement position of the pen tip. Move the object to. When the object is moved, the object data (position data) of the object to be moved in the object setting file is changed.
ここで、図12に示すオブジェクト化された画像を範囲指定するドラッグ操作がされた場合には(図4、ステップB3、Yes)、CPU10は、この全体画像に対するオブジェクトの設定ファイルに含まれる、各オブジェクトの位置を示すデータを参照し、指定範囲内にオブジェクトが含まれると判別することができる(ステップB4、Yes)。
Here, when a drag operation for specifying a range of the objectized image shown in FIG. 12 is performed (FIG. 4, step B3, Yes), the
この場合、CPU10は、ペンがタブレット21(LCD20の表示画面)上から離された(ペンアップ)のタイミングに合わせて、ドラッグ操作により画像データが入力された位置の近傍に、オブジェクト編集メニューを表示させる(ステップB5)。オブジェクト編集メニューには、「削除」「色分け」「グループ化」「グループ解除」「サイズ自動調整」のコマンド名(選択肢)が一覧表示されている(図15(b)、図16(b)、図17(c)参照)。
In this case, the
次に、CPU10は、オブジェクト編集メニューから選択されたコマンドに応じた、オブジェクトに対する各種処理のためのオブジェクト編集メニュー処理を実行する(ステップB6)。
Next, the
図6には、オブジェクト編集メニュー処理のフローチャートを示している。
まず、オブジェクト編集メニューから「削除」が選択された場合(ステップD1、Yes)、CPU10は、オブジェクト編集メニューを閉じて、図14に示すオブジェクト削除確認メッセージを表示する(ステップD7)。
FIG. 6 shows a flowchart of the object edit menu process.
First, when “delete” is selected from the object editing menu (step D1, Yes), the
ここで「OK」を選択する入力があった場合には(ステップD8、Yes)、CPU10は、範囲指定されたオブジェクトの削除を実行し(ステップD10)、削除確認メッセージを閉じて処理を終了する(ステップD11)。この場合、表示画面中からオブジェクトを削除し、元の画像(部分画像)を表示させる。また、オブジェクトの設定ファイル(図13(3))から削除対象となったオブジェクトのオブジェクトデータを削除する。また、オブジェクトを除いた画面ファイル(図13(1))についても、削除されたオブジェクトに対応する部分画像を含む画像データに更新するものとする。
If there is an input for selecting “OK” (step D8, Yes), the
一方、オブジェクト削除確認メッセージから「キャンセル」を選択する入力があった場合には(ステップD9、Yes)、CPU10は、削除確認メッセージを閉じて処理を終了する(ステップD11)。
On the other hand, when there is an input for selecting “cancel” from the object deletion confirmation message (step D9, Yes), the
次に、オブジェクト編集メニューから「色分け」が選択された場合(ステップD2、Yes)、CPU10は、複数の色が選択肢として設けられた色分けサブメニューを表示する(ステップD12)。
Next, when “color classification” is selected from the object edit menu (step D2, Yes), the
例えば、図15(a)に示すように、2つのオブジェクト(「ホワイトボード」「検索」)が表示された画面中において、図15(b)に示すように、2つのオブジェクトを囲むように範囲指定されたものとする。この場合、図15(b)に示すオブジェクト編集メニューを表示され、さらに「色分け」が選択された場合には、複数の色「白」「赤」「青」「緑」…を選択肢とした色分けサブメニューを表示する。 For example, as shown in FIG. 15A, in a screen on which two objects (“whiteboard” and “search”) are displayed, a range surrounds the two objects as shown in FIG. 15B. It shall be specified. In this case, when the object editing menu shown in FIG. 15B is displayed and “color coding” is selected, color coding using a plurality of colors “white”, “red”, “blue”, “green”,. Display a submenu.
ここで、色分けサブメニューから何れかの色を選択する指示が入力された場合(ステップD13)、CPU10は、選択された色(例えば「赤」)を示す属性データを、編集対象としているオブジェクトに対して共通して付加し、オブジェクトを赤色表示に変更し(ステップD15)、オブジェクト編集メニュー及びサブメニューを閉じて処理を終了する(ステップD16)。例えば、色を示す属性データは、オブジェクトの設定ファイルに含まれる各オブジェクトのオブジェクトデータ(図13(3))に付加して管理する。
Here, when an instruction to select any color is input from the color classification submenu (step D13), the
色変更されるオブジェクトは、枠表示のみを赤色に変更しても良いし、枠内の部分画像のみ、あるいは全ての部分を色変更するようにしても良い。 For the object whose color is changed, only the frame display may be changed to red, or only a partial image in the frame or all the portions may be changed in color.
一方、オブジェクト編集メニュー外の部分がペンにより指示(あるいはマウスなどにクリック)された場合には(ステップD14、Yes)、オブジェクト編集メニューを閉じて処理を終了する(ステップD16)。 On the other hand, when the part outside the object edit menu is instructed by the pen (or clicked with the mouse or the like) (step D14, Yes), the object edit menu is closed and the process is terminated (step D16).
なお、前述した「色分け」の説明では、2つ(複数)のオブジェクトに対して色変更をする場合について説明しているが、1つのオブジェクトを指定して色変更することも勿論可能である。 In the above description of “color classification”, the case of changing the color of two (plural) objects has been described, but it is of course possible to change the color by specifying one object.
次に、オブジェクト編集メニューから「グループ化」が選択された場合(ステップD3、Yes)、CPU10は、選択された複数のオブジェクトに対してグループ化を実行し、オブジェクト編集メニューを閉じて処理を終了する(ステップD17)。
Next, when “grouping” is selected from the object editing menu (step D3, Yes), the
例えば、図16(a)に示すように、2つのオブジェクト(「プロジェクタ」「検索」)が表示された画面中において、図16(b)に示すように、2つのオブジェクトを囲むように範囲指定されたものとする。この場合、図16(b)に示すオブジェクト編集メニューを表示し、ここで「グループ化」が選択された場合には、2つのオブジェクトの部分画像を合成して1つの部分画像とし、この部分画像からなるオブジェクトを生成して、図16(c)に示すようにして表示する。 For example, as shown in FIG. 16A, in a screen on which two objects (“projector” and “search”) are displayed, a range is specified so as to surround the two objects as shown in FIG. It shall be assumed. In this case, the object editing menu shown in FIG. 16B is displayed. When “Group” is selected here, the partial images of the two objects are combined into one partial image, and this partial image is displayed. An object consisting of is generated and displayed as shown in FIG.
この場合、オブジェクトの画像ファイル(図13(4))を、2つの部分画像を合成した部分画像の画像ファイルに変更すると共に、オブジェクトの設定ファイル(図13(3))に含まれる合成された2つのオブジェクトのオブジェクトデータに代えて、合成されたオブジェクトに対応するオブジェクトデータを設定する。 In this case, the image file of the object (FIG. 13 (4)) is changed to an image file of a partial image obtained by combining two partial images, and the combined image included in the object setting file (FIG. 13 (3)). Instead of the object data of the two objects, object data corresponding to the synthesized object is set.
なお、オブジェクトの「グループ化」を実行する場合には、グループ化前の個々のオブジェクトのファイル(オブジェクトの画像ファイル、オブジェクトの設定ファイルに含まれるオブジェクトデータ)については、後述する「グループ解除」に対応できるように、別途、記憶しておくものとする。 When performing “grouping” of objects, individual object files (object data included in object image files and object setting files) before grouping are referred to as “ungrouping” described later. It shall be memorized separately so that it can respond.
次に、オブジェクト編集メニューから「グループ解除」が選択された場合(ステップD4、Yes)、CPU10は、選択されたオブジェクトに対するグループ化を解除し、オブジェクト編集メニューを閉じて処理を終了する(ステップD18)。
Next, when “ungroup” is selected from the object edit menu (step D4, Yes), the
すなわち、ドラッグにより範囲指定されたオブジェクトが、前述したようにグループ化がされている場合、グループ化の際に記憶しておいたグループ化前の個々のオブジェクトのファイルを用いて、グループ化前の状態に戻すことによりグループ化を解除する。これにより、グループ化されていたオブジェクトが個々に分離され、複数のオブジェクトが表示される。 In other words, if the objects for which the range is specified by dragging are grouped as described above, the files before grouping are stored using the individual object files stored before grouping. Ungroup by returning to the state. As a result, the grouped objects are individually separated, and a plurality of objects are displayed.
次に、オブジェクト編集メニューから「サイズ自動調整」が選択された場合(ステップD5、Yes)、CPU10は、選択された複数のオブジェクトについてのオブジェクトデータ(オブジェクトの設定ファイル内)を参照し、オブジェクトの縦横方向のそれぞれについて最も大きいサイズを抽出する。そして、全てのオブジェクトの縦横サイズを、それぞれ抽出された最も大きいサイズに変更することでオブジェクトのサイズを調整し、オブジェクト編集メニューを閉じて処理を終了する(ステップD19)。この場合、オブジェクトの設定ファイル内のサイズが調整されたオブジェクトについて、オブジェクトデータの位置及びサイズを変更する。
Next, when “automatic size adjustment” is selected from the object edit menu (step D5, Yes), the
例えば、図17(a)に示すように、サイズが異なる2つのオブジェクト(「ホワイトボード」「検索」)が表示された画面中において、図17(b)に示すように、2つのオブジェクトを囲むように範囲指定されたものとする。この場合、図17(c)に示すオブジェクト編集メニューを表示し、ここで「サイズ自動調整」が選択された場合には、2つのオブジェクトのサイズの大きい方、すなわちオブジェクト「ホワイトボード」のサイズに合わせて、オブジェクト「検索」のサイズを調整して、図17(d)に示すように、2つのオブジェクトを同サイズで表示する。 For example, as shown in FIG. 17A, in a screen on which two objects of different sizes (“whiteboard” and “search”) are displayed, the two objects are surrounded as shown in FIG. 17B. The range is specified as follows. In this case, the object editing menu shown in FIG. 17C is displayed, and when “automatic size adjustment” is selected here, the larger of the two objects, that is, the size of the object “whiteboard” is displayed. In addition, the size of the object “search” is adjusted, and two objects are displayed in the same size as shown in FIG.
なお、オブジェクト編集メニュー外の部分がペンにより指示(あるいはマウスなどにクリック)された場合には(ステップD6、Yes)、オブジェクト編集メニューを閉じて元の表示画面に戻る(ステップD20)。 If a part outside the object edit menu is instructed with a pen (or clicked with a mouse or the like) (step D6, Yes), the object edit menu is closed and the original display screen is restored (step D20).
このようにして、複数のオブジェクトを選択してそれらを関連づけて共通する属性、例えばサイズ、色、グループなどを設定することで、画面中でのオブジェクトを整理し、オブジェクトの関係を明瞭にすることができる。これにより、オブジェクトを利用した会議の進行をスムーズにし、新たに創造性を刺激することができる。 In this way, by selecting multiple objects and associating them and setting common attributes such as size, color, group, etc., organize objects on the screen and clarify the relationship between objects Can do. Thereby, the progress of the meeting using an object can be made smooth, and creativity can be stimulated newly.
図18には、オブジェクト編集メニューを用いたオブジェクトの編集例を示している。図18は、KJ法的なオブジェクト編集の例を示すものである。 FIG. 18 shows an example of editing an object using the object edit menu. FIG. 18 shows an example of object editing based on the KJ method.
まず、図18(a)に示すように、会議中に議論であがったキーワードとなる文字列がランダムに手書き入力されたものとする。 First, as shown in FIG. 18A, it is assumed that a character string that is a keyword that has been discussed during a meeting is randomly input by handwriting.
ここで、前述したドラッグメニュー処理によりそれぞれをオブジェクト化し、さらに全てのオブジェクトを選択してオブジェクト編集メニューから「サイズ自動調整」を実行することにより、図18(b)に示すように、同じサイズに調整された各キーワードに対応するオブジェクトを表示させることができる(カード化)。これにより、各オブジェクトを画面上で容易に扱いやすくすることができる。 Here, each object is made into an object by the above-described drag menu process, and all objects are selected, and “automatic size adjustment” is executed from the object edit menu, so that the same size is obtained as shown in FIG. An object corresponding to each adjusted keyword can be displayed (in card form). Thereby, each object can be easily handled on the screen.
カード化されたオブジェクトは、会議の議論に応じて任意の位置に移動させることで、例えば関連するオブジェクトの位置を近接させる、同じ色により表示する、さらには図18(c)に示すように、手書きによりオブジェクトを接続する線を入力することにより(オブジェクト「ローカル」「TV会議」「ネットミーティング」「遠隔地」)、関連するオブジェクトをグルーピングする。そして、各オブジェクトの配置を決定し、これをもとに議論を進めることができる。 The carded object is displayed in the same color by moving it to an arbitrary position according to the discussion of the meeting, for example, bringing the positions of the related objects close to each other, and as shown in FIG. By inputting a line connecting the objects by handwriting (object “local”, “TV conference”, “net meeting”, “remote location”), related objects are grouped. Then, the arrangement of each object can be determined, and discussion can proceed based on this.
こうして、会議の内容や進行状況に応じてオブジェクトに対して各種の操作をすることで、アイディアプロセッサとして機能させることで会議出席者の創造性を刺激し、より多くのアイディアを提供させることで議論の活性化を図ることができる。 In this way, by performing various operations on objects according to the content and progress of the conference, it functions as an idea processor, stimulating the creativity of conference attendees, and providing more ideas Activation can be achieved.
(ファイルメニュー処理)
次に、ファイルメニュー処理について、図7、図8、図9に示すフローチャートを参照しながら説明する。ファイルメニュー処理では、オブジェクトを表示させ、このオブジェクトを用いて同オブジェクトを含む全体画像を表示させることができる。
(File menu processing)
Next, the file menu process will be described with reference to the flowcharts shown in FIGS. In the file menu process, an object can be displayed, and an entire image including the object can be displayed using the object.
電子会議装置1には、ファイルメニュー処理の実行を受け付けるためのファイルメニューが設けられている。例えば図11に示す電子ホワイトボードの表示画面において、コマンドラインの「ファイル」が選択された場合には、図19に示すようなファイルメニューを表示させる。
The
図19に示すファイルメニューには、「画面呼出」「画面保存」「オブジェクト一覧」「シャッフル」「出席者オブジェクト自動表示」「設定」などのコマンド名(選択肢)が一覧表示されている。 In the file menu shown in FIG. 19, command names (options) such as “screen call”, “screen save”, “object list”, “shuffle”, “attendant object automatic display”, and “setting” are displayed in a list.
ここで、ファイルメニューから「画面呼出」が選択された場合(ステップE1、Yes)、CPU10は、ファイルメニューを閉じて、オブジェクトが設定された画面を一覧中から選択して表示させるための画面一覧表示ウィンドウを表示する(ステップE2)。
Here, when “call screen” is selected from the file menu (step E1, Yes), the
図20には、画面一覧表示ウィンドウの一例を示している。画面一覧表示ウィンドウでは、オブジェクトが設定された画面(画像データ)のサムネイル画像ファイル名を一覧表示する一覧表示領域(図中、右側の領域)と、この領域中で指定されたファイル名に対応する画面を縮小表示するための画面表示領域、さらに「OK」「キャンセル」ボタンが設けられている。 FIG. 20 shows an example of a screen list display window. In the screen list display window, a list display area (the area on the right side in the figure) for displaying thumbnail image file names of the screen (image data) on which the object is set, and the file name specified in this area are displayed. A screen display area for displaying the screen in a reduced size, and “OK” and “Cancel” buttons are provided.
一覧表示領域において何れかの画面(ファイル名)が選択されると(ステップE3、Yes)、CPU10は、選択されたファイル名を例えばハイライト表示させ、該当するサムネイル画像ファイルを読み出して画面表示領域において縮小表示させる(ステップE4)。こうして、一覧表示領域中に表示されたファイル名を任意に選択することで、呼び出しの対象とする画面を縮小表示によって確認しながら探すことができる。
When any screen (file name) is selected in the list display area (step E3, Yes), the
何れかのファイル名に対応する画面が縮小表示された状態で「OK」ボタンが選択されると(ステップE5、Yes)、CPU10は、このファイル名に対応する全体画像のファイルを読み出し、電子ホワイトボード画面に表示させ(ステップE6)、画面一覧表示ウィンドウを閉じて処理を終了する(ステップE8)。
When the “OK” button is selected in a state where the screen corresponding to any one of the file names is displayed in a reduced size (step E5, Yes), the
一方、「キャンセル」ボタンが選択されると、CPU10は、画面一覧表示ウィンドウを閉じてファイルメニュー処理を終了する(ステップE8)。
On the other hand, when the “Cancel” button is selected, the
なお、一覧表示領域にサムネイル画像ファイルのファイル名を一覧表示するとしているが、全体画像のファイル名や、あるいは画面を識別する任意の名称を表示するようにしても良い。一覧表示において何れかが選択された場合、これに対応するサムネイル画像ファイルを読み出して、画面表示領域に表示するものとする。 Although the file names of the thumbnail image files are displayed in a list in the list display area, the file name of the entire image or an arbitrary name for identifying the screen may be displayed. When any one is selected in the list display, a thumbnail image file corresponding to this is read out and displayed in the screen display area.
次に、ファイルメニューから「オブジェクト一覧」が選択された場合(ステップE9、Yes)、CPU10は、ファイルメニューを閉じて、オブジェクトが設定された画面をオブジェクトを指定して表示させるためのオブジェクト一覧表示ウィンドウを表示する(ステップE10)。
Next, when “object list” is selected from the file menu (step E9, Yes), the
図21には、オブジェクト一覧表示ウィンドウの一例を示している。オブジェクト一覧表示ウィンドウでは、オブジェクトを一覧表示するオブジェクト一覧表示領域と、「画面呼出」「オブジェクト貼付」「キャンセル」ボタンが設けられている。CPU10は、各オブジェクトについてのオブジェクト画像ファイルを読み出し、例えば縦4横5の配列により一覧表示する。
FIG. 21 shows an example of the object list display window. In the object list display window, an object list display area for displaying a list of objects and “call screen”, “attach object”, and “cancel” buttons are provided. The
オブジェクト一覧表示領域において何れかのオブジェクトが選択されると(ステップE11、Yes)、CPU10は、選択されたオブジェクトを例えばハイライト表示させる(ステップE12)。ここでは、オブジェクト一覧表示領域中に表示されたオブジェクトを任意に選択してハイライト表示させることができる。
When any object is selected in the object list display area (step E11, Yes), the
そして、何れかのオブジェクトがハイライト表示された状態で「画面呼出」ボタンが選択されると(ステップE13、Yes)、CPU10は、このオブジェクトが含まれる全体画像のファイルを読み出し、電子ホワイトボード画面に表示させ(ステップE14)、オブジェクト一覧表示ウィンドウを閉じて処理を終了する(ステップE18)。
When the “call screen” button is selected in a state where any object is highlighted (step E13, Yes), the
また、何れかのオブジェクトがハイライト表示された状態で「オブジェクト貼付」ボタンが選択されると(ステップE15、Yes)、CPU10は、この選択されたオブジェクトを電子ホワイトボード画面に独立のオブジェクトとして貼り付け(ステップE16)、オブジェクト一覧表示ウィンドウを閉じて処理を終了する(ステップE18)。
Further, when the “object pasting” button is selected with any object highlighted (step E15, Yes), the
一方、「キャンセル」ボタンが選択されると、CPU10は、オブジェクト一覧表示ウィンドウを閉じてファイルメニュー処理を終了する(ステップE18)。
On the other hand, when the “cancel” button is selected, the
このように、画像中から会議の議論のキーワードとなるオブジェクトを生成しておくことで、オブジェクトを選択することで、簡単に議論で使用された画面を呼び出して表示させることができるので、議論の進行をスムーズにし、また議論を進める上で有効な情報を簡単に提供することで議論の活性化を図ることができる。 In this way, by generating an object that is a keyword for the discussion of the meeting from the image, it is possible to easily call and display the screen used in the discussion by selecting the object. It is possible to stimulate the discussion by making the progress smooth and simply providing useful information for proceeding with the discussion.
次に、ファイルメニューから「画面保存」が選択された場合(ステップE19、Yes)、CPU10は、ファイルメニューを閉じて、図22に示すような画面保存確認メッセージを表示させる(ステップE20)。
Next, when “screen save” is selected from the file menu (step E19, Yes), the
ここで「OK」を選択する入力があった場合には(ステップE21、Yes)、CPU10は、現在、電子ホワイトボード画面において表示されている画面の画像データを、所定のファイル名を設定して保存し(ステップE22)、画面保存確認メッセージを閉じて処理を終了する(ステップE24)。
If there is an input for selecting “OK” (step E21, Yes), the
一方、画面保存確認メッセージから「キャンセル」を選択する入力があった場合には(ステップE23、Yes)、CPU10は、画面保存確認メッセージを閉じて処理を終了する(ステップE24)。
On the other hand, if there is an input for selecting “cancel” from the screen save confirmation message (step E23, Yes), the
次に、ファイルメニューから「シャッフル」が選択された場合(ステップE25、Yes)、CPU10は、ファイルメニューを閉じて、図23に示すようなシャッフル確認メッセージを表示させる(ステップE26)。
Next, when “shuffle” is selected from the file menu (step E25, Yes), the
ここで「OK」を選択する入力があった場合には(ステップE27、Yes)、CPU10は、現在、電子ホワイトボード画面において表示されている各オブジェクトの位置をランダムに変更し(ステップE28)、シャッフル確認メッセージを閉じて処理を終了する(ステップE30)。
If there is an input for selecting “OK” (step E27, Yes), the
一方、シャッフル確認メッセージから「キャンセル」を選択する入力があった場合には(ステップE23、Yes)、CPU10は、シャッフル確認メッセージを閉じて処理を終了する(ステップE30)。
On the other hand, when there is an input for selecting “cancel” from the shuffle confirmation message (step E23, Yes), the
このように、複数のオブジェクトの配列をランダムに変更することで、会議の出席者が意図していないオブジェクトの関係を提示することもあり、これにより出席者に対して創造性を刺激して会議の活性化を図ることができる。 In this way, by randomly changing the arrangement of multiple objects, the meeting attendees may present unintended object relationships, which stimulates creativity for the attendees and Activation can be achieved.
次に、ファイルメニューから「出席者オブジェクト作成」が選択された場合(ステップE31)、CPU10は、ファイルメニューを閉じて、図24に示すような、出席者オブジェクト作成確認メッセージを表示させる(ステップE32)。
Next, when “Create attendee object” is selected from the file menu (step E31), the
ここで「OK」を選択する入力があった場合には(ステップE33、Yes)、CPU10は、電子ホワイトボード画面において出席者オブジェクトを作成して表示させ(ステップE34)、出席者オブジェクト作成確認メッセージを閉じて処理を終了する(ステップE36)。
If there is an input to select “OK” (step E33, Yes), the
図25(a)には、電子ホワイトボード画面に複数のオブジェクトが表示されている状態において、「出席者オブジェクト作成」の実行により複数の出席者オブジェクトが追加表示された画面の一例を示している。 FIG. 25A shows an example of a screen on which a plurality of attendee objects are additionally displayed by executing “create attendee object” in a state where a plurality of objects are displayed on the electronic whiteboard screen. .
例えば、電子会議装置1は、パーソナルコンピュータ2,3,4及びPDA5からネットワークを通じて、それぞれを識別するデータ、例えば会議出席者が任意に登録しているユーザ名を自動的に取得し、このデータをもとにして図25(a)に示すような、ユーザ名を含む所定サイズのオブジェクトを生成する。例えば、初期状態においては、予め決められた位置に出席者オブジェクトを一覧表示させる。
For example, the
なお、ネットワークを通じて取得したデータをもとに出席者オブジェクトを生成するのではなく、パーソナルコンピュータ2,3,4及びPDA5を使用している会議の出席者についてのデータ(氏名)などを別途登録しておくことで、このデータをもとにして出席者オブジェクトを生成するようにしても良い。
Rather than creating an attendee object based on the data acquired through the network, data (name) etc. about attendees of the meeting using
こうして、電子ホワイトボード画面に表示させた出席者オブジェクトは、他のオブジェクトと同様にして、任意の位置に移動させる他、前述したオブジェクト編集メニュー処理において説明した各種オブジェクトの編集を施すことができる。 In this way, the attendee object displayed on the electronic whiteboard screen can be moved to an arbitrary position in the same manner as other objects, and various objects described in the object editing menu process can be edited.
例えば、図25(b)に示す例は、資料のページを表すオブジェクト「目次」「ゴールイメージ」「企画書」…のそれぞれに対して、出席者を担当として割り振りする場合を示しており、出席者オブジェクトを担当とするオブジェクトの近傍にそれぞれ移動させ、さらに手書き入力によってその関係を示す線を入力している。 For example, the example shown in FIG. 25 (b) shows a case where attendees are assigned to each of the objects “table of contents”, “goal image”, “plan”, etc. representing the page of the material. Each person object is moved to the vicinity of the object in charge, and a line indicating the relationship is input by handwriting input.
CPU10は、各オブジェクトに対する出席者オブジェクトの関連づけを示す指示(線の入力)に応じて、各オブジェクトと出席者オブジェクト(ユーザ名)との関連を示す関連データを生成して、記憶しておく。この関連データは、ユーザからの指示に応じて任意に呼び出すことができ、オブジェクトと出席者(ユーザ名)との対応関係を示すオブジェクト表示、あるいは一覧表表示をすることができる。
The
一方、出席者オブジェクト作成確認メッセージから「キャンセル」を選択する入力があった場合には(ステップE35、Yes)、CPU10は、出席者オブジェクト作成確認メッセージを閉じて処理を終了する(ステップE36)。
On the other hand, if there is an input to select “Cancel” from the attendee object creation confirmation message (Yes in step E35), the
次に、ファイルメニューから「オブジェクト自動表示」が選択された場合(ステップE37、Yes)、CPU10は、ファイルメニューを閉じて(ステップE38)、後述する自動オブジェクト表示処理(図10)を起動し、同処理のステップF5以降処理を実行する(ステップE39)。オブジェクト自動表示処理は、後述する「設定」の処理(ステップE40〜E49)により設定されたオブジェクトの表示条件に従ってオブジェクトを自動的に表示させる処理である。詳細については後述する。
Next, when “automatic object display” is selected from the file menu (step E37, Yes), the
次に、ファイルメニューから「設定」が選択された場合(ステップE40、Yes)、CPU10は、ファイルメニューを閉じて、オブジェクトを自動表示する際の条件を設定するためのオブジェクト自動表示設定ウィンドウを表示する(ステップE41)。
Next, when “setting” is selected from the file menu (step E40, Yes), the
図26には、オブジェクト自動表示設定ウィンドウの表示例を示している。オブジェクト自動表示設定ウィンドウには、オブジェクト自動表示の実行を設定するための項目「オブジェクト自動表示」が設けられている。この項目に対するチェックボックスが選択されると(ステップE42、Yes)、「オブジェクト自動表示」を実行するように設定する(ステップE43)。 FIG. 26 shows a display example of the object automatic display setting window. The object automatic display setting window is provided with an item “automatic object display” for setting execution of automatic object display. When the check box for this item is selected (step E42, Yes), the "automatic object display" is set to be executed (step E43).
「オブジェクト自動表示」の実行が設定された場合、「自動表示開始時間」「オブジェクト抽出基準」「表示パターン」の項目に対する設定が可能となる。 When execution of “automatic object display” is set, settings for the items “automatic display start time”, “object extraction reference”, and “display pattern” are possible.
「自動表示開始時間」は、電子ホワイトボード画面に対する入力操作が最後にされた後に、何分経過した後にオブジェクトを自動表示させるかを示す時間を設定するためのもので、例えば1分〜60分の間でエディットボックスにおいて任意に設定することができる。 The “automatic display start time” is for setting a time indicating how many minutes have passed after the input operation on the electronic whiteboard screen is last, for example, 1 minute to 60 minutes. Can be arbitrarily set in the edit box.
「オブジェクト抽出基準」は、複数記憶されているオブジェクトのうち、何れのオブジェクトを表示させるか判別する条件を設定するためのもので、例えば「使用頻度昇順」「使用頻度降順」「日付昇順」「日付降順」の何れかをラジオボタンにより選択することができる。 The “object extraction criterion” is used to set a condition for determining which object is to be displayed among a plurality of stored objects. Any one of “descending date” can be selected by a radio button.
この場合、各オブジェクト画像ファイルのそれぞれに対応して、オブジェクトの使用頻度を示すデータが管理されているものとする。「使用頻度昇順」または「使用頻度降順」が選択された場合には、この使用頻度を示すデータを参照して表示対象とするオブジェクトを抽出する。「日付昇順」「日付降順」が選択された場合には、例えばオブジェクト画像ファイルのファイル名を参照することにより、表示対象とするオブジェクトを抽出することができる。 In this case, it is assumed that data indicating the usage frequency of the object is managed corresponding to each object image file. When “usage frequency ascending order” or “usage frequency descending order” is selected, an object to be displayed is extracted with reference to data indicating the usage frequency. When “date ascending order” or “date descending order” is selected, the object to be displayed can be extracted by referring to the file name of the object image file, for example.
「表示パターン」は、オブジェクトを表示する際のパターンを設定するためのもので、例えば予め用意されたパターン1〜4の何れかをラジオボタンにより設定することができる。オブジェクトの自動表示パターンの詳細については後述する(図27、図28)。
The “display pattern” is for setting a pattern for displaying an object. For example, any of
こうして、エディットボックスに対する入力、あるいはラジオボタンの選択操作があると(ステップE44)、CPU10は、その選択操作に応じた設定を行う(ステップE45)。
Thus, when there is an input to the edit box or a radio button selection operation (step E44), the
ここで、「OK」を選択する入力があった場合には(ステップE46、Yes)、CPU10は、設定変更された内容、すなわちオブジェクトを自動表示する際の条件を示すデータを記憶装置(ハードディスク23)に書き込み、オブジェクト自動表示設定ウィンドウを閉じて処理を終了する(ステップE49)。
Here, when there is an input for selecting “OK” (step E46, Yes), the
一方、オブジェクト自動表示設定ウィンドウから「キャンセル」を選択する入力があった場合には(ステップE48、Yes)、CPU10は、オブジェクト自動表示設定ウィンドウを閉じて処理を終了する(ステップE49)。
On the other hand, when there is an input for selecting “cancel” from the object automatic display setting window (step E48, Yes), the
このように、オブジェクトを表示させる場合の条件、例えば入力操作がされていない期間、表示対象とするオブジェクトの選択方法、表示パターンなどを、利用者の好みに合わせて設定できるようにすることで、後述する自動オブジェクト表示処理において、創造性を刺激して会議の活性化に有効なオブジェクトの表示が可能となる。 In this way, by making it possible to set the conditions for displaying an object, such as the period during which no input operation is performed, the method of selecting an object to be displayed, the display pattern, etc. according to the user's preference, In an automatic object display process to be described later, it is possible to display an object effective for stimulating a conference by stimulating creativity.
なお、ファイルメニュー外の部分がペンにより指示(あるいはマウスなどにクリック)された場合には(ステップE50、Yes)、ファイルメニューを閉じて元の表示画面に戻る(ステップE51)。 If a portion outside the file menu is instructed by the pen (or clicked with a mouse or the like) (step E50, Yes), the file menu is closed and the original display screen is restored (step E51).
(自動オブジェクト表示処理)
次に、自動オブジェクト表示処理について、図10に示すフローチャートを参照しながら説明する。自動オブジェクト表示処理では、ファイルメニュー処理の「設定」の処理により設定された、オブジェクトを自動表示する際の条件を示すデータに応じて、オブジェクトを自動表示させることができる。
(Automatic object display processing)
Next, automatic object display processing will be described with reference to the flowchart shown in FIG. In the automatic object display process, the object can be automatically displayed according to the data indicating the conditions for automatically displaying the object set by the “setting” process of the file menu process.
まず、自動オブジェクト表示処理が起動されると、自動オブジェクト表示タイマのカウントを開始する(ステップF1)。このタイマは、電子ホワイトボード画面に対する入力操作が最後にされた後の時間経過をカウントするためのものである。 First, when the automatic object display process is activated, the automatic object display timer starts counting (step F1). This timer is for counting the time elapsed after the last input operation on the electronic whiteboard screen.
CPU10は、電子ホワイトボード画面に対する何らかの入力操作があった場合には(ステップF2、Yes)、自動オブジェクト表示タイマをリセットして(ステップF4)、改めてカウントを開始する(ステップF1)。
When there is any input operation on the electronic whiteboard screen (step F2, Yes), the
一方、電子ホワイトボード画面に対する入力操作がなく(ステップF2、No)、オブジェクトを自動表示する際の条件を示すデータが示す自動表示開始時間が経過したと判別された場合(ステップF3、Yes)、同データのオブジェクト抽出基準及び表示パターンに応じてオブジェクトを電子ホワイトボード画面において表示させる(ステップF5)。 On the other hand, when there is no input operation on the electronic whiteboard screen (step F2, No) and it is determined that the automatic display start time indicated by the data indicating the conditions for automatically displaying the object has elapsed (step F3, Yes), The object is displayed on the electronic whiteboard screen according to the object extraction standard and the display pattern of the same data (step F5).
例えば、表示パターンとしては、電子ホワイトボード画面の予め決められた位置に固定して表示させる他、図27及び図28に示すように、オブジェクトの表示位置を変更しながら表示させたり、さらには同時に表示するオブジェクト数を変更しながら表示させるパターンなどがある。 For example, as a display pattern, the electronic whiteboard screen may be fixedly displayed at a predetermined position, or may be displayed while changing the display position of the object, as shown in FIGS. There are patterns to be displayed while changing the number of objects to be displayed.
図27(a1)〜(a4)、(b1)〜(b4)は、それぞれ表示対象とする1つのオブジェクトを変更しながら、その表示位置を変更して表示させるパターンを示している。 FIGS. 27 (a1) to (a4) and (b1) to (b4) each show a pattern in which a display object is changed and displayed while changing one object to be displayed.
図28(c1)〜(c8)は、同時に表示するオブジェクト数を1〜5、5〜1に順次変更しながら、表示対象とするオブジェクトを変更して表示させるパターンを示している。 FIGS. 28C1 to 28C8 show patterns in which objects to be displayed are changed and displayed while sequentially changing the number of objects to be displayed simultaneously to 1 to 5 and 5 to 1. FIG.
なお、図27、図28に示すパターン以外の表示パターンを用いることも勿論可能である。 Of course, display patterns other than those shown in FIGS. 27 and 28 can be used.
ここで、表示されるオブジェクトをペンにより指示(あるいはマウスなどにクリック)する入力操作があった場合(ステップF6、Yes)、CPU10は、自動オブジェクト表示を解除して、このオブジェクトが含まれる全体画像のファイルを読み出し、電子ホワイトボード画面に表示させる(ステップF7)。例えば、オブジェクトの自動表示により新たな発想があった場合などに、このオブジェクトを含む全体画像を表示させることで、より具体的な議論を開始することができる。
Here, when there is an input operation in which an object to be displayed is instructed with a pen (or clicked with a mouse or the like) (step F6, Yes), the
なお、全体画像を表示させた場合、自動オブジェクト表示処理を継続して実行し、前述と同様にして一定時間入力操作がなかった場合に、オブジェクトの自動表示を開始する。 When the entire image is displayed, the automatic object display process is continuously executed, and when there is no input operation for a certain period of time, the automatic object display is started.
一方、オブジェクトの自動表示がされている間に、オブジェクトを選択する操作以外の操作がされた場合には(ステップF8、Yes)、CPU10は、自動オブジェクト表示を解除して元の状態に戻す(ステップF9)。
On the other hand, when an operation other than the operation of selecting the object is performed while the object is automatically displayed (step F8, Yes), the
このように、予め決められた時間が経過した場合、例えば最後に行われた入力操作から一定時間が経過した場合には会議が停滞した状態にある可能性があるため、オブジェクトを自動で表示させることで出席者に対して創造性を刺激し、これをきっかけにして停滞した議論の活性化を図ることができる。 In this way, when a predetermined time has elapsed, for example, when a certain time has elapsed since the last input operation, the conference may be in a stagnation state, so the object is automatically displayed. This stimulates creativity for the attendees, and this can be used as an opportunity to stimulate the discussions that have stagnated.
次に、ネットワークを介して接続されたパーソナルコンピュータ2,3,4、PDA5における処理内容を、電子会議装置1によりプロジェクタ6を通じて投影(表示)させる場合について説明する。
Next, a case will be described in which processing contents in the
パーソナルコンピュータ2,3,4、PDA5は、ネットワークを通じて、電子会議装置1において電子ホワイトボードにより管理されている画像データ、すなわち図13に示す各ファイル、及び前述した各種処理に関係するデータを取得(共有化)することができる。また、これらのデータに対する電子会議装置1において電子ホワイトボード上で操作可能な各種処理についても、それぞれにおいて電子会議装置制御プログラムを実行することで実現することができる。
The
電子会議装置1は、パーソナルコンピュータ2,3,4、PDA5において実行される処理内容をネットワークを通じて取得し、それぞれの処理内容に応じた電子ホワイトボード画面の画像データを、例えば図29に示すような、パーソナルコンピュータ2,3,4、PDA5のそれぞれに専用のレイヤに記憶する。
The
図29において、最下層レイヤ(レイヤ1)は、テンプレート(例えばアプリケーションによる画面(罫線、議事録、スプレッドシート等))のファイルを表示させるためのレイヤである。 In FIG. 29, the lowest layer (layer 1) is a layer for displaying a file of a template (for example, a screen (ruled line, minutes, spreadsheet, etc.) by an application).
レイヤ2〜5は、ユーザ1〜4がそれぞれ使用するパーソナルコンピュータ2,3,4、PDA5に対応するもので、それぞれから取得した処理内容に応じて画像データが記憶される。
The
電子会議装置1は、例えば利用者からの指示に応じて、全てのレイヤを合成して表示(投影)させたり、あるいは複数のレイヤのうち何れかのレイヤを選択して(例えばレイヤ1,2,5)、これを合成して表示させたりすることができる。また、1つレイヤ(すなわち特定の会議出席者による操作内容)を選択して表示させることもできる。
For example, in response to an instruction from the user, the
このようにして、ネットワークを介して接続された他の情報機器(パーソナルコンピュータ2,3,4、PDA5)における共有化されたオブジェクトに対する操作内容、すなわちオブジェクトを利用した個々の出席者の検討内容を表す画像データを別々に記憶し、これらを合成して、あるいは特定の出席者に対応する画像データを用いて表示させることで、出席者の意見をオブジェクトに対する操作内容として会議に提供することができる。
In this way, the operation contents for the shared object in other information devices (
さらに、上記実施の形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜の組み合わせにより種々の発明が抽出され得る。例えば、実施の形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題の少なくとも1つが解決でき、発明の効果の欄で述べられている効果の少なくとも1つが得られる場合には、この構成要件が削除された構成が発明として抽出され得る。 Furthermore, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, at least one of the problems described in the column of problems to be solved by the invention can be solved, and described in the column of the effect of the invention. In a case where at least one of the obtained effects can be obtained, a configuration in which this configuration requirement is deleted can be extracted as an invention.
また、電子会議装置1を実現するコンピュータに実行させることのできる電子会議装置制御プログラムを、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで、あるいは通信媒体を通じて提供することができる。電子会議装置制御プログラムによりコンピュータの動作を制御することで、前述した実施形態における機能を実現することができる。
In addition, an electronic conference apparatus control program that can be executed by a computer that implements the
1…電子会議装置、2,3,4…パーソナルコンピュータ、5…PDA、6…プロジェクタ、7…スクリーン、10…CPU、11…RAM、12…ROM、13…RTC、14…無線LANコントローラ、14a…アンテナ、15…映像信号出力コントローラ、16…LCDコントローラ、17…タブレットコントローラ、18…USBコントローラ、19…ハードディスクコントローラ、20…LCD、21…タブレット、22…USBインタフェース、23…ハードディスク。
DESCRIPTION OF
Claims (12)
前記範囲指定手段により指定された範囲に該当する部分画像をもとにオブジェクトを生成するオブジェクト生成手段と、
前記オブジェクト生成手段により生成されたオブジェクトを記憶するオブジェクト記憶手段と、
前記範囲指定の対象となった表示画像を前記オブジェクト記憶手段に記憶されたオブジェクトと関連づけて全体画像として記憶する全体画像記憶手段と、
前記オブジェクト記憶手段により記憶されたオブジェクトを表示するオブジェクト表示手段と、
前記オブジェクト表示手段により表示されたオブジェクトを選択するオブジェクト選択手段と、
前記オブジェクト選択手段により選択されたオブジェクトに対応する前記全体画像記憶手段により記憶された全体画像を表示する全体画像表示手段と
を具備したことを特徴とする電子会議装置。 A range specifying means for specifying a certain range of an image displayed on the display device;
Object generating means for generating an object based on a partial image corresponding to the range specified by the range specifying means;
Object storage means for storing the object generated by the object generation means;
Whole image storage means for storing the display image that is the target of the range specification as a whole image in association with the object stored in the object storage means;
Object display means for displaying the object stored by the object storage means;
Object selection means for selecting an object displayed by the object display means;
An electronic conference apparatus comprising: a whole image display unit for displaying a whole image stored by the whole image storage unit corresponding to the object selected by the object selection unit.
前記範囲指定の対象となる表示画像は、前記ポインティングデバイスから入力されたデータからなる画像であることを特徴とする請求項1記載の電子会議装置。 A pointing device,
The electronic conference apparatus according to claim 1, wherein the display image to be the target of the range specification is an image made of data input from the pointing device.
前記オブジェクト表示手段は、前記時間経過判別手段により予め決められた時間が経過したと判別された場合に、前記オブジェクト記憶手段により記憶されたオブジェクトを表示することを特徴とする請求項1記載の電子会議装置。 It further comprises a time passage determination means for determining the passage of a predetermined time,
2. The electronic device according to claim 1, wherein the object display unit displays the object stored in the object storage unit when it is determined by the time elapse determination unit that a predetermined time has elapsed. Conference equipment.
前記オブジェクト表示手段は、前記条件設定手段によって設定された条件に従ってオブジェクトを表示することを特徴とする請求項4記載の電子会議装置。 Comprising condition setting means for setting conditions for displaying an object by the object display means,
5. The electronic conference apparatus according to claim 4, wherein the object display means displays an object in accordance with the condition set by the condition setting means.
前記オブジェクト表示手段は、前記配列変更要求入力手段により変更要求が入力される毎に前記オブジェクト記憶手段に記憶された複数のオブジェクトの配列をランダムに変更して表示させることを特徴とする請求項1記載の電子会議装置。 An array change request input means for inputting an array change request for the objects displayed by the object display means;
2. The object display means is characterized in that the arrangement of a plurality of objects stored in the object storage means is randomly changed and displayed each time a change request is input by the arrangement change request input means. The electronic conference apparatus described.
前記オブジェクト表示手段は、前記表示要求入力手段により入力された表示要求に応じて、前記オブジェクト記憶手段に記憶された複数のオブジェクトを一覧表示させることを特徴とする請求項1記載の電子会議装置。 Display request input means for inputting a display request for an object stored in the object storage means;
2. The electronic conference apparatus according to claim 1, wherein the object display means displays a list of a plurality of objects stored in the object storage means in response to a display request input by the display request input means.
前記複数オブジェクト選択手段によって選択された複数のオブジェクトを関連付けて共通する所定の属性を設定する設定手段と
を具備したことを特徴とする請求項1記載の電子会議装置。 A plurality of object selection means for selecting a plurality of objects displayed by the object display means;
2. The electronic conference apparatus according to claim 1, further comprising setting means for setting a predetermined common attribute in association with a plurality of objects selected by the plurality of object selecting means.
前記接続手段により接続された前記他の情報機器との間で、前記オブジェクト記憶手段により記憶されたオブジェクトを共有化する共有化手段と
を具備したことを特徴とする請求項1記載の電子会議装置。 Connection means for connecting to other information devices via a network;
2. The electronic conference apparatus according to claim 1, further comprising a sharing unit that shares the object stored by the object storage unit with the other information device connected by the connection unit. .
前記第2オブジェクト表示手段により表示された前記機器オブジェクトと、前記オブジェクト表示手段により表示されるオブジェクトとの関連づけを示す指示を入力する関連指示入力手段と、
前記関連指示入力手段により入力された指示に応じて、前記機器オブジェクトと前記オブジェクトとを関連付けを設定する関連付け設定手段と
を具備したことを特徴とする請求項9記載の電子会議装置。 Second object display means for displaying a device object corresponding to the other information device together with an object displayed by the object display means;
Related instruction input means for inputting an instruction indicating the association between the device object displayed by the second object display means and the object displayed by the object display means;
10. The electronic conference apparatus according to claim 9, further comprising an association setting unit configured to set an association between the device object and the object in accordance with an instruction input by the association instruction input unit.
前記画像データ記憶手段により記憶された前記他の情報機器のそれぞれに応じた画像データを選択的に合成して表示する合成表示手段と
を具備したことを特徴とする請求項9記載の電子会議装置。 Image data storage means for storing image data corresponding to each of the other information devices connected by the connection means;
10. The electronic conference apparatus according to claim 9, further comprising: composite display means for selectively combining and displaying image data corresponding to each of the other information devices stored by the image data storage means. .
表示装置に表示された画像の一定範囲を指定する範囲指定手段と、
前記範囲指定手段により指定された範囲に該当する部分画像をもとにオブジェクトを生成するオブジェクト生成手段と、
前記オブジェクト生成手段により生成されたオブジェクトを記憶するオブジェクト記憶手段と、
前記範囲指定の対象となった表示画像を前記オブジェクト記憶手段に記憶されたオブジェクトと関連づけて全体画像として記憶する全体画像記憶手段と、
前記オブジェクト記憶手段により記憶されたオブジェクトを表示するオブジェクト表示手段と、
前記オブジェクト表示手段により表示されたオブジェクトを選択するオブジェクト選択手段と、
前記オブジェクト選択手段により選択されたオブジェクトに対応する前記全体画像記憶手段により記憶された全体画像を表示する全体画像表示手段として機能させるための電子会議装置制御プログラム。 Computer
A range specifying means for specifying a certain range of an image displayed on the display device;
Object generating means for generating an object based on a partial image corresponding to the range specified by the range specifying means;
Object storage means for storing the object generated by the object generation means;
Whole image storage means for storing the display image that is the target of the range specification as a whole image in association with the object stored in the object storage means;
Object display means for displaying the object stored by the object storage means;
Object selection means for selecting an object displayed by the object display means;
An electronic conference device control program for functioning as a whole image display means for displaying a whole image stored by the whole image storage means corresponding to an object selected by the object selection means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004284482A JP2006099414A (en) | 2004-09-29 | 2004-09-29 | Electronic conference device and electronic conference device control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004284482A JP2006099414A (en) | 2004-09-29 | 2004-09-29 | Electronic conference device and electronic conference device control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006099414A true JP2006099414A (en) | 2006-04-13 |
JP2006099414A5 JP2006099414A5 (en) | 2007-05-24 |
Family
ID=36239162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004284482A Pending JP2006099414A (en) | 2004-09-29 | 2004-09-29 | Electronic conference device and electronic conference device control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006099414A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011523739A (en) * | 2008-05-19 | 2011-08-18 | スマート・インターネット・テクノロジー・シーアールシー・プロプライエタリー・リミテッド | System and method for collaborative interaction |
JP2012049969A (en) * | 2010-08-30 | 2012-03-08 | Ricoh Co Ltd | Electronic conference device, information display method, and program |
JP2014238667A (en) * | 2013-06-06 | 2014-12-18 | 株式会社リコー | Information terminal, information processing program, information processing system, and information processing method |
US9378569B2 (en) | 2010-08-30 | 2016-06-28 | Canon Kabushiki Kaisha | Information processing apparatus and control method thereof |
JP2020102828A (en) * | 2018-12-22 | 2020-07-02 | 弘真科技股▲ふん▼有限公司 | Wireless audiovisual information sharing system and method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06266632A (en) * | 1993-03-12 | 1994-09-22 | Toshiba Corp | Method and device for processing information of electronic conference system |
JPH08241188A (en) * | 1995-01-23 | 1996-09-17 | Internatl Business Mach Corp <Ibm> | System and method for data processing for processing of object-oriented development environment |
JPH1133830A (en) * | 1997-07-24 | 1999-02-09 | Fanuc Ltd | Method and device for determining coreless machined shape, and computer readable recording medium recording coreless machined shape determination program |
JP2004151899A (en) * | 2002-10-29 | 2004-05-27 | Fuji Xerox Co Ltd | Information providing method, information provision processing system and its program |
JP2004240597A (en) * | 2003-02-05 | 2004-08-26 | Fuji Xerox Co Ltd | Display control method, information display processing system, client's terminal, management server, and program |
-
2004
- 2004-09-29 JP JP2004284482A patent/JP2006099414A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06266632A (en) * | 1993-03-12 | 1994-09-22 | Toshiba Corp | Method and device for processing information of electronic conference system |
JPH08241188A (en) * | 1995-01-23 | 1996-09-17 | Internatl Business Mach Corp <Ibm> | System and method for data processing for processing of object-oriented development environment |
JPH1133830A (en) * | 1997-07-24 | 1999-02-09 | Fanuc Ltd | Method and device for determining coreless machined shape, and computer readable recording medium recording coreless machined shape determination program |
JP2004151899A (en) * | 2002-10-29 | 2004-05-27 | Fuji Xerox Co Ltd | Information providing method, information provision processing system and its program |
JP2004240597A (en) * | 2003-02-05 | 2004-08-26 | Fuji Xerox Co Ltd | Display control method, information display processing system, client's terminal, management server, and program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011523739A (en) * | 2008-05-19 | 2011-08-18 | スマート・インターネット・テクノロジー・シーアールシー・プロプライエタリー・リミテッド | System and method for collaborative interaction |
JP2012049969A (en) * | 2010-08-30 | 2012-03-08 | Ricoh Co Ltd | Electronic conference device, information display method, and program |
US9378569B2 (en) | 2010-08-30 | 2016-06-28 | Canon Kabushiki Kaisha | Information processing apparatus and control method thereof |
US10354420B2 (en) | 2010-08-30 | 2019-07-16 | Canon Kabushiki Kaisha | Information processing apparatus and control method thereof |
JP2014238667A (en) * | 2013-06-06 | 2014-12-18 | 株式会社リコー | Information terminal, information processing program, information processing system, and information processing method |
JP2020102828A (en) * | 2018-12-22 | 2020-07-02 | 弘真科技股▲ふん▼有限公司 | Wireless audiovisual information sharing system and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5666239B2 (en) | Information processing apparatus, information processing apparatus control method, program, and recording medium | |
JP5211430B2 (en) | Electronic conference system, electronic conference support program, electronic conference support method, electronic conference control device, conference server computer | |
JP3838282B2 (en) | Picture creation device | |
Zaman et al. | Gem-ni: A system for creating and managing alternatives in generative design | |
US20220270050A1 (en) | Online collaboration platform | |
JP5394555B2 (en) | Conference summary generation device, program, and computer-readable recording medium | |
US20150033102A1 (en) | Direct presentations from content collections | |
JP2009277192A (en) | Content management device, contents management method, program, and recording medium | |
KR20070085017A (en) | Electronic conference control device, electronic conference assistance method, and storage medium | |
JP2013031159A (en) | Image processing device, image processing method, and image processing program | |
JP2009277177A (en) | Image layout device, recording medium, and image layout method | |
JP2011128962A (en) | Information processing apparatus and method, and computer program | |
JP2012053545A (en) | Image processing system, and method for controlling the same | |
JP2016170613A (en) | Conference support device, conference support system, conference support program and conference support method | |
CN107037939B (en) | Electronic blackboard and image processing method | |
JP2013125488A (en) | Handwriting input device, information editing program, and information editing method | |
JP2007066081A (en) | Electronic conference device, and electronic conference device control program | |
JP2018073096A (en) | Information display device | |
JP2006099414A (en) | Electronic conference device and electronic conference device control program | |
JP2003009107A (en) | Terminal for electronic conference, electronic conference system, electronic conference method and program for electronic conference | |
JP2008102613A (en) | Retrieval result display device, method and program | |
JP2010267214A (en) | Information processing apparatus, method, and program | |
JP2007179083A (en) | Conference system, control method therefor and program | |
JP2009302952A (en) | Reproduction processing apparatus, reproduction processing method and program | |
JP4627814B2 (en) | Conference support system and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070404 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070404 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091222 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100413 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100921 |