JP2013114593A - Image display device, control method thereof, and program - Google Patents

Image display device, control method thereof, and program Download PDF

Info

Publication number
JP2013114593A
JP2013114593A JP2011262514A JP2011262514A JP2013114593A JP 2013114593 A JP2013114593 A JP 2013114593A JP 2011262514 A JP2011262514 A JP 2011262514A JP 2011262514 A JP2011262514 A JP 2011262514A JP 2013114593 A JP2013114593 A JP 2013114593A
Authority
JP
Japan
Prior art keywords
event
screen
pointing device
unit
switch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011262514A
Other languages
Japanese (ja)
Inventor
Gyoen En
暁燕 袁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2011262514A priority Critical patent/JP2013114593A/en
Publication of JP2013114593A publication Critical patent/JP2013114593A/en
Pending legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Drawing Aids And Blackboards (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a new image display device that maintains usability even when handwriting and operation are frequently switched therebetween, and to provide a control method thereof and a program.SOLUTION: In the present invention, an ON/OFF switch is provided at a pen device used for drawing and operation of an electronic blackboard. If the switch of the pen device is turned off, a mouse event is transferred to a handwriting drawing section. If the switch is turned on and a coordinate where the mouse event occurs is not in a region to inset and display a screen of a user's PC, the mouse event is transferred to a GUI control unit. If the switch is turned on and the coordinate where the mouse event occurs is in the region to inset and display the screen of the user's PC, the coordinate of the mouse event is converted into a screen coordinate system of the user's PC and transferred to the user's PC.

Description

本発明は、画像表示装置およびその制御方法並びにプログラムに関する。   The present invention relates to an image display apparatus, a control method thereof, and a program.

近年、大型ディスプレイを利用したいわゆる「電子黒板」が会議等において活用されている。特開2006−331263号公報(特許文献1)は、大型ディスプレイに表示された背景画像の上にユーザが文字や数字、図形等を手書きすることができる電子黒板装置を開示する。現在、ユーザのノートパソコンのスクリーン画像を大型ディスプレイに転送して表示させることができ、さらに、表示されたユーザPCのスクリーン画像をタッチすることによって、ユーザのノートパソコンを遠隔操作することができる電子黒板製品が提供されている。   In recent years, so-called “electronic blackboards” using large displays have been used in conferences and the like. Japanese Patent Laying-Open No. 2006-331263 (Patent Document 1) discloses an electronic blackboard device that allows a user to handwrite letters, numbers, figures, etc. on a background image displayed on a large display. Currently, the screen image of the user's notebook computer can be transferred to a large display and displayed, and the user's laptop computer can be remotely operated by touching the displayed screen image of the user PC. Blackboard products are provided.

しかし、従来の電子黒板は、手書き描画モードとその他の操作モードを相互に切り替える場合、操作パネル等を介してモードの切り替えを指示する必要があり、手書きと操作の両方を頻繁に交えて行うようなケースの場合、切り替えの度に、ペン先を移動させなくてはならないという点でユーザビリティに問題があった。   However, when switching between the handwritten drawing mode and the other operation modes, it is necessary for the conventional electronic blackboard to instruct the mode switching through the operation panel or the like, so that both handwriting and operation are frequently performed. In such a case, there was a problem in usability in that the pen tip had to be moved each time the switch was made.

本発明は、上記従来技術における課題に鑑みてなされたものであり、本発明は、手書きと操作の両方を頻繁に交えて行うようなケースであっても、ユーザビリティを損なわない新規な画像表示装置およびその制御方法並びにプログラムを提供することを目的とする。   The present invention has been made in view of the above problems in the prior art, and the present invention is a novel image display device that does not impair usability even in a case where both handwriting and operation are frequently performed. It is an object to provide a control method and program thereof.

本発明者は、手書きと操作の両方を頻繁に交えて行うようなケースであっても、ユーザビリティを損なわない新規な画像表示装置につき鋭意検討した結果、下記の構成に想到し、本発明に至ったのである。   As a result of intensive studies on a novel image display device that does not impair usability even when the handwriting and the operation are frequently performed, the present inventor has conceived the following configuration and led to the present invention. It was.

すなわち、本発明によれば、ディスプレイデバイスの上にポインティングデバイスが配置されたディスプレイ装置を制御する画像表示制御装置であって、ON/OFFスイッチを備える画面指示デバイスが前記ポインティングデバイスに接触または接近することに応答してポインティングデバイスイベントを生成するとともに、前記画面指示デバイスから受信したON/OFF信号に基づいてON/OFFイベントを生成するイベント生成部と、前記ポインティングデバイスイベントに基づいてグラフィックスを生成する手書き描画部と、前記ディスプレイデバイスに背景画像を表示し、外部に接続された情報処理装置のスクリーン画面を取り込んで前記背景画像内の所定のはめ込み領域に表示し、前記背景画像または前記所定のはめ込み領域の上に前記手書き描画部が生成した前記グラフィックスを重畳表示する映像処理部と、前記背景画像または前記所定のはめ込み領域にGUIを表示し、前記ポインティングデバイスイベントに基づいて所定の操作を受け付けるGUI制御部と、前記イベント生成部から前記ポインティングデバイスイベントおよび前記ON/OFFイベントを受領し、該ポインティングデバイスイベントを前記手書き描画部、前記GUI制御部、および前記情報処理装置のいずれかに転送するイベント振り分け部とを含む画像表示制御装置が提供される。   That is, according to the present invention, there is provided an image display control device that controls a display device in which a pointing device is disposed on a display device, and a screen instruction device having an ON / OFF switch contacts or approaches the pointing device. In response to this, a pointing device event is generated, an event generating unit that generates an ON / OFF event based on an ON / OFF signal received from the screen instruction device, and a graphic based on the pointing device event A handwritten drawing unit that displays a background image on the display device, captures a screen screen of an information processing apparatus connected to the outside, displays the screen image in a predetermined inset area in the background image, and the background image or the predetermined image Inset A video processing unit that superimposes and displays the graphics generated by the handwritten drawing unit, and a GUI that displays a GUI in the background image or the predetermined inset area and receives a predetermined operation based on the pointing device event An event for receiving the pointing device event and the ON / OFF event from the control unit and the event generation unit, and transferring the pointing device event to any one of the handwriting drawing unit, the GUI control unit, and the information processing apparatus An image display control device including a distribution unit is provided.

本実施形態の画像表示装置の外観を示す図。1 is a diagram illustrating an appearance of an image display device according to an embodiment. 本実施形態の画像表示装置のハードウェア構成図。1 is a hardware configuration diagram of an image display apparatus according to an embodiment. 本実施形態におけるペンデバイスの構成図。The block diagram of the pen device in this embodiment. 本実施形態の画像表示装置の機能ブロック図。1 is a functional block diagram of an image display apparatus according to an embodiment. イベント振り分け部が実行する処理を示すフローチャート。The flowchart which shows the process which an event distribution part performs. 描画モードを説明するための概念図。The conceptual diagram for demonstrating drawing mode. イベント振り分け部が実行する判断処理を説明するための概念図。The conceptual diagram for demonstrating the judgment process which an event distribution part performs. GUI操作モードを説明するための概念図。The conceptual diagram for demonstrating GUI operation mode. イベント振り分け部が実行する座標変換処理を説明するための概念図。The conceptual diagram for demonstrating the coordinate transformation process which an event distribution part performs. PC操作モードを説明するための概念図。The conceptual diagram for demonstrating PC operation mode. 本実施形態の画像表示装置の外観を示す図。1 is a diagram illustrating an appearance of an image display device according to an embodiment. イベント振り分け部が実行する処理を示すフローチャート。The flowchart which shows the process which an event distribution part performs. イベント振り分け部が実行する判断処理を説明するための概念図。The conceptual diagram for demonstrating the judgment process which an event distribution part performs. PC操作モードを説明するための概念図。The conceptual diagram for demonstrating PC operation mode.

以下、本発明を、実施形態をもって説明するが、本発明は後述する実施形態に限定されるものではない。なお、以下に参照する各図においては、共通する要素について同じ符号を用い、適宜、その説明を省略するものとする。   Hereinafter, although this invention is demonstrated with embodiment, this invention is not limited to embodiment mentioned later. In the drawings referred to below, the same reference numerals are used for common elements, and the description thereof is omitted as appropriate.

図1は、本発明の実施形態である画像表示装置100の外観を示す。本実施形態の画像表示装置100は、いわゆる電子黒板として参照される装置であり、大型のディスプレイ装置102と、ディスプレイ装置102を制御するための画像表示制御装置(図示せず)とを含んで構成されている。   FIG. 1 shows an appearance of an image display apparatus 100 according to an embodiment of the present invention. The image display device 100 according to the present embodiment is a device referred to as a so-called electronic blackboard, and includes a large display device 102 and an image display control device (not shown) for controlling the display device 102. Has been.

図1に示すように、本実施形態のディスプレイ装置102においては、スクリーン画面104に背景画像(例示では一様色の背景)がデスクトップとして表示され、当該デスクトップが描画キャンバスとして提供されている。   As shown in FIG. 1, in the display apparatus 102 of the present embodiment, a background image (in the example, a uniform color background) is displayed as a desktop on the screen screen 104, and the desktop is provided as a drawing canvas.

一方、ユーザは、画像表示装置100の使用にあたって、専用の画面指示デバイス200を提供される。本実施形態における画面指示デバイス200は、ユーザが手に持ってスクリーン画面104上の所望の位置をポインティングできるものであれば、その具体的な形態を限定するものではなく、好ましくは、ペン型の形状とすることができる。以下においては、ペン型の形状を備える画面指示デバイス200(以下、ペンデバイス200として参照する)を採用した場合を例にとって説明する。   On the other hand, when using the image display apparatus 100, the user is provided with a dedicated screen instruction device 200. The screen instruction device 200 according to the present embodiment is not limited to a specific form as long as the user can hold the desired position on the screen screen 104 with the hand, and is preferably a pen-type device. It can be a shape. In the following, a case where a screen instruction device 200 having a pen shape (hereinafter referred to as the pen device 200) is employed will be described as an example.

ユーザがペンデバイス200のペン先をスクリーン画面104に接触させながら移動させると、これに応答して、その移動軌跡が描画線としてデスクトップに表示される。つまり、ユーザは、図1(a)に示すように、黒板に見立てたスクリーン画面104に対して、ペンデバイス200を使って手書きの文字や図形を自由に書き込むことができる。   When the user moves the pen tip of the pen device 200 while making contact with the screen screen 104, in response to this, the movement locus is displayed on the desktop as a drawing line. That is, as shown in FIG. 1A, the user can freely write handwritten characters and figures using the pen device 200 on the screen screen 104 that looks like a blackboard.

一方、ディスプレイ装置102に表示されるデスクトップの紙面右隅には、画像表示装置100を操作するためのGUI制御部品106が表示されており、ユーザは、ペンデバイス200のペン先でGUI制御部品106を指定することによって所望の操作を行えるように構成されている。なお、図1に示したGUI制御部品106はあくまで例示であり、本実施形態においては、当業者が想定しうる如何なる形態のGUI制御部品を採用してもよい。   On the other hand, a GUI control component 106 for operating the image display device 100 is displayed at the right corner of the desktop displayed on the display device 102, and the user can use the GUI control component 106 with the pen tip of the pen device 200. By designating, a desired operation can be performed. Note that the GUI control component 106 shown in FIG. 1 is merely an example, and in this embodiment, any form of GUI control component that can be assumed by those skilled in the art may be employed.

さらに、本実施形態の画像表示装置100は、図1(b)に示すように、ユーザのパーソナル・コンピュータ300(以下、PC300として参照する)のスクリーン画面302を描画するための描画データを取り込んでディスプレイ装置102のスクリーン画面104に表示させることができる。具体的には、画像表示装置100は、PC300からVGAケーブル304を介して伝送されたVGA信号に基づいて、PC300のスクリーン画面302に表示される画像と同じ画像をスクリーン画面104に表示されたデスクトップ内に所定の大きさではめ込み表示させることができる。   Further, as shown in FIG. 1B, the image display apparatus 100 according to the present embodiment captures drawing data for drawing a screen screen 302 of a user's personal computer 300 (hereinafter referred to as PC 300). It can be displayed on the screen screen 104 of the display device 102. Specifically, the image display device 100 displays the same image as the image displayed on the screen screen 302 of the PC 300 on the screen screen 104 based on the VGA signal transmitted from the PC 300 via the VGA cable 304. It can be displayed in a predetermined size.

図2は、本実施形態の画像表示装置100のハードウェア構成図を示す。画像表示装置100は、プロセッサ150と、ROM151と、RAM152と、ハードディスク装置(HDD)153と、グラフィックスボード154と、ディスプレイデバイス155と、座標検出装置156と、無線通信インタフェース157と、外部機器接続インタフェース158とを含んで構成される。   FIG. 2 is a hardware configuration diagram of the image display apparatus 100 according to the present embodiment. The image display device 100 includes a processor 150, a ROM 151, a RAM 152, a hard disk device (HDD) 153, a graphics board 154, a display device 155, a coordinate detection device 156, a wireless communication interface 157, and an external device connection. And an interface 158.

プロセッサ150は、画像表示装置100が実行する処理を演算する装置であり、PENTIUM(登録商標)やAthlon等のCPUやMPUなどの種々のプロセッサを採用することができる。ROM151は、BIOS等のブートプログラムなどが保存されるメモリである。   The processor 150 is a device that calculates the processing executed by the image display apparatus 100, and various processors such as a CPU such as PENTIUM (registered trademark) and Athlon, and an MPU can be employed. The ROM 151 is a memory that stores a boot program such as BIOS.

RAM152は、本実施形態のプログラムを実行するための実行空間を提供するメモリである。画像表示装置100は、OSの管理下でアセンブラ、C、C++、Java(登録商標)、Java(登録商標)Script、PERL、RUBY、PYTHONなどのプログラム言語で記述されたプログラムを展開して実行することにより、後述する各機能手段を実現する。   The RAM 152 is a memory that provides an execution space for executing the program of the present embodiment. The image display apparatus 100 expands and executes a program written in a program language such as assembler, C, C ++, Java (registered trademark), Java (registered trademark) Script, PERL, RUBY, or PYTHON under the management of the OS. Thus, each functional means described later is realized.

ハードディスク装置153は、画像表示装置100のシステム全体を制御するWINDOWS(登録商標)シリーズ、UNIX(登録商標)、LINUX(登録商標)、Android(登録商標)、ITRON、μITRONなどの種々のオペレーティングシステム(OS)、各種デバイスドライバ、アプリケーションプログラムなどが保存されるストレージである。   The hard disk device 153 includes various operating systems (such as WINDOWS (registered trademark) series, UNIX (registered trademark), LINUX (registered trademark), Android (registered trademark), ITRON, and μITRON that control the entire system of the image display device 100. OS), various device drivers, application programs, and the like.

外部機器接続インタフェース158は、ユーザのPC300などの外部機器を接続するためのインタフェースであり、VGA入力コネクタやUSBポート等の物理インタフェースである。   The external device connection interface 158 is an interface for connecting an external device such as the user's PC 300, and is a physical interface such as a VGA input connector or a USB port.

グラフィックスボード154は、ディスプレイデバイス155に描画する描画データを処理するハードウェアであり、画像イメージを保持するVRAMやディスプレイデバイス155の接続端子を含んで構成される。ディスプレイデバイス155は、グラフィックスボード154が生成した描画データを描画表示する装置である。   The graphics board 154 is hardware that processes drawing data to be drawn on the display device 155, and includes a VRAM that holds an image and a connection terminal of the display device 155. The display device 155 is a device that draws and displays drawing data generated by the graphics board 154.

座標検出装置156は、ペンデバイス200が接触または接近(以下、接触等という)した位置座標を検出するための装置である。本実施形態においては、座標検出装置156を、物体の接触等に伴って変化する静電容量を検知する静電容量センサを利用したタッチパネルや、物体の接触圧を検知する圧力センサを利用したタッチパネルとして構成することができる。   The coordinate detection device 156 is a device for detecting the position coordinates at which the pen device 200 is in contact with or approaching (hereinafter referred to as contact or the like). In the present embodiment, the coordinate detection device 156 is a touch panel using a capacitance sensor that detects a capacitance that changes with contact of an object or the like, or a touch panel that uses a pressure sensor that detects the contact pressure of an object. Can be configured.

さらに、本実施形態においては、光学的な手法を用いて座標検出装置156を構成することができる。光学的な手法を用いた装置としては、例えば、本出願人の先の出願(特開2008−176802号公報)が開示するところの座標入力/検出装置を挙げることができる。当該座標入力/検出装置においては、ディスプレイ面に平行な光を照射し、その光がペンによって遮断されたことを検知することによって、ペンが接触等した位置座標を検出する。   Furthermore, in the present embodiment, the coordinate detection device 156 can be configured using an optical technique. As an apparatus using an optical technique, for example, a coordinate input / detection apparatus disclosed in a previous application (Japanese Patent Laid-Open No. 2008-176802) of the present applicant can be cited. In the coordinate input / detection device, the coordinate parallel to the display surface is detected by irradiating light parallel to the display surface and detecting that the light is blocked by the pen.

なお、本実施形態における座標検出装置156は、ペンデバイス200が接触等した位置の座標を検出することができるパネル状のポインティングデバイスであればどのような形態であってもよく、本実施形態は、座標検出装置156の構成に限定されるものではない。   Note that the coordinate detection device 156 in the present embodiment may take any form as long as it is a panel-like pointing device that can detect the coordinates of the position touched by the pen device 200. The configuration of the coordinate detection device 156 is not limited.

本実施形態の画像表示装置100は、ペンデバイス200と無線で通信を行うものであり、無線通信I/F157は、ペンデバイス200から送信される無線信号を受信するためのインタフェースである。無線通信方式としては、例えば、赤外線通信を採用することができ、Bluetooth(登録商標)やWiFi等のその他の適切な方式を採用してもよい。   The image display apparatus 100 according to the present embodiment performs wireless communication with the pen device 200, and the wireless communication I / F 157 is an interface for receiving a wireless signal transmitted from the pen device 200. As the wireless communication method, for example, infrared communication can be employed, and other suitable methods such as Bluetooth (registered trademark) and WiFi may be employed.

図3は、本実施形態におけるペンデバイス200の構成図を示す。ペンデバイス200は、例えば、ペン型の筐体を備えており、その外周面の適切な位置にメカニカルな押しボタン202が配設されている。本実施形態においては、押しボタン202は、ペンデバイス200を握り直すことなく容易に押下できる適切な位置に配設することが好ましい。信号生成部204は、押しボタン202が押下されている場合は「真」の信号を生成し、押しボタン202が押下されていない場合は「偽」の信号を生成する。生成された信号は、無線発信器として参照される信号送信部208によってディスプレイ装置102に対して発信される。   FIG. 3 shows a configuration diagram of the pen device 200 in the present embodiment. The pen device 200 includes, for example, a pen-type housing, and a mechanical push button 202 is disposed at an appropriate position on the outer peripheral surface thereof. In the present embodiment, the push button 202 is preferably disposed at an appropriate position where the push device 202 can be easily pressed without re-gripping the pen device 200. The signal generation unit 204 generates a “true” signal when the push button 202 is pressed, and generates a “false” signal when the push button 202 is not pressed. The generated signal is transmitted to the display apparatus 102 by a signal transmission unit 208 referred to as a wireless transmitter.

なお、図3に示した押しボタン202は、あくまで例示であり、本実施形態におけるペンデバイス200は、本質的には、ON/OFFといった2値情報を定義するための機構を備えていればよく、押しボタン202に代えて、スライドスイッチやロータリスイッチを採用することができ、光センサや圧力センサ等の各種センサを利用したスイッチを採用することもできる。以下の説明においては、押しボタン202の押下の有無に応じて生成される真偽信号をON/OFF信号として参照する。   Note that the push button 202 shown in FIG. 3 is merely an example, and the pen device 200 according to the present embodiment is essentially provided with a mechanism for defining binary information such as ON / OFF. Instead of the push button 202, a slide switch or a rotary switch can be adopted, and a switch using various sensors such as an optical sensor or a pressure sensor can also be adopted. In the following description, a true / false signal generated according to whether or not the push button 202 is pressed is referred to as an ON / OFF signal.

以上、本実施形態の画像表示装置100およびペンデバイス200のハードウェア構成について説明してきたが、次に、画像表示装置100を構成するディスプレイ装置102と、ディスプレイ装置102を制御する画像表示制御装置について、図4に基づいて説明する。なお、以下の説明においては、座標検出装置156をタッチパネル156として参照する。   The hardware configurations of the image display apparatus 100 and the pen device 200 according to the present embodiment have been described above. Next, the display apparatus 102 that constitutes the image display apparatus 100 and the image display control apparatus that controls the display apparatus 102 will be described. This will be described with reference to FIG. In the following description, the coordinate detection device 156 is referred to as the touch panel 156.

図4は、ディスプレイ装置102および画像表示制御装置120の機能ブロック図を示す。ディスプレイ装置102は、ディスプレイデバイス155と、ディスプレイデバイス155の上にスクリーン画面104全体を覆うように配置されるタッチパネル156と、ペンデバイス200から発信される無線信号を受信するための信号受信部110を含んで構成されている。なお、信号受信部110は、ペンデバイス200から発信される無線信号を受信可能な場所であれば、ディスプレイ装置102の筐体内に限らず、どのような位置に配設されていてもよく、画像表示制御装置120の筐体内に配設されていてもよい。   FIG. 4 shows a functional block diagram of the display device 102 and the image display control device 120. The display apparatus 102 includes a display device 155, a touch panel 156 disposed on the display device 155 so as to cover the entire screen screen 104, and a signal receiving unit 110 for receiving a wireless signal transmitted from the pen device 200. It is configured to include. The signal receiving unit 110 is not limited to the inside of the housing of the display apparatus 102 as long as it can receive a wireless signal transmitted from the pen device 200, and may be disposed at any position. The display control device 120 may be disposed in the housing.

一方、画像表示制御装置120は、コントローラ部121と、PC300から伝送されるVGA信号を受信するためのVGA
I/F128と、PC300に対してイベント信号を転送するためのUSB I/F129とを含んで構成され、コントローラ部121は、タッチパネルドライバ部122と、コントローラ部121全体を制御するオペレーティングシステム123と、映像処理部124と、手書き描画部125と、GUI制御部126と、イベント振り分け部130とを含んで構成されている。
On the other hand, the image display control device 120 includes a controller unit 121 and a VGA for receiving a VGA signal transmitted from the PC 300.
The controller unit 121 includes an I / F 128 and a USB I / F 129 for transferring an event signal to the PC 300. The controller unit 121 includes a touch panel driver unit 122, an operating system 123 that controls the entire controller unit 121, The video processing unit 124, the handwriting drawing unit 125, the GUI control unit 126, and the event distribution unit 130 are configured.

タッチパネル156は、ペンデバイス200が接触等したことに応答してタッチパネル156上の位置座標を示す信号を生成し、タッチパネルドライバ部122に送信する。一方、信号受信部110は、ペンデバイス200から受信したON/OFF信号をタッチパネルドライバ部122に送信する。   The touch panel 156 generates a signal indicating the position coordinates on the touch panel 156 in response to the touch of the pen device 200, and transmits the signal to the touch panel driver unit 122. On the other hand, the signal receiving unit 110 transmits the ON / OFF signal received from the pen device 200 to the touch panel driver unit 122.

タッチパネルドライバ部122は、タッチパネル156から受領した位置座標を示す信号を所定のポインティングデバイスイベント(以下、タッチパネルイベントとして参照する)に変換する。さらに、タッチパネルドライバ部122は、信号受信部110から受領したON/OFF信号を対応する所定のイベント(以下、ON/OFFイベントとして参照する)に変換する。なお、ON/OFFイベントは、ファンクションキーのキーイベントとして割り当てることができる。タッチパネルドライバ部122は、変換したタッチパネルイベントとON/OFFイベントを紐付けてオペレーティングシステム123に送る。   The touch panel driver unit 122 converts a signal indicating the position coordinates received from the touch panel 156 into a predetermined pointing device event (hereinafter referred to as a touch panel event). Further, the touch panel driver unit 122 converts the ON / OFF signal received from the signal receiving unit 110 into a corresponding predetermined event (hereinafter referred to as an ON / OFF event). The ON / OFF event can be assigned as a function key key event. The touch panel driver unit 122 associates the converted touch panel event with the ON / OFF event and sends it to the operating system 123.

オペレーティングシステム123は、タッチパネルドライバ部122から受領したタッチパネルイベントに基づいて、ディスプレイデバイス155のスクリーン座標系の座標を示す所定のポインティングデバイスイベント(以下、マウスイベントとして参照する)を生成する。すなわち、オペレーティングシステム123は、イベント生成部として機能する。オペレーティングシステム123は、マウスイベントを生成すると、同じく受領したON/OFFイベントとともにイベント振り分け部130に送る。   The operating system 123 generates a predetermined pointing device event (hereinafter referred to as a mouse event) indicating the coordinates of the screen coordinate system of the display device 155 based on the touch panel event received from the touch panel driver unit 122. That is, the operating system 123 functions as an event generation unit. When the operating system 123 generates a mouse event, the operating system 123 sends it to the event distribution unit 130 together with the received ON / OFF event.

映像処理部124は、PC300からVGA
I/F128を介して伝送されたVGA信号に基づいて、PC300のスクリーン画面302を表示するためのレイヤーを生成し、スクリーン画面104に表示されるデスクトップ(描画キャンパス)のレイヤーの上に重畳する。その結果、デスクトップ内の所定の位置にPC300のスクリーン画面302がはめ込み表示される。
The video processing unit 124 receives the VGA from the PC 300.
Based on the VGA signal transmitted via the I / F 128, a layer for displaying the screen screen 302 of the PC 300 is generated and superimposed on a desktop (drawing campus) layer displayed on the screen screen 104. As a result, the screen screen 302 of the PC 300 is displayed in a predetermined position in the desktop.

手書き描画部125は、描画アプリケーションとして参照される機能部であり、後述するイベント振り分け部130から転送されるマウスイベントに基づいて、手書き線などのグラフィックスを生成し、映像処理部124に渡す。映像処理部124は、受領したグラフィックスを表示するためのレイヤーを生成し、その他のレイヤー(デスクトップを表示するレイヤーまたはPC300のスクリーン画面302を表示するレイヤー)に対して上位に重畳する。   The handwriting drawing unit 125 is a functional unit referred to as a drawing application, generates graphics such as a handwritten line based on a mouse event transferred from the event distribution unit 130 described later, and passes the graphics to the video processing unit 124. The video processing unit 124 generates a layer for displaying the received graphics, and superimposes it on the other layers (the layer for displaying the desktop or the layer for displaying the screen screen 302 of the PC 300).

GUI制御部126は、GUIプログラムとして参照される機能部であり、デスクトップ上にGUI制御部品を表示し、当該GUI制御部品を介してユーザの操作を受け付ける。GUI制御部126は、後述するイベント振り分け部130から転送されるマウスイベントを待機し、所定のGUI制御部品を選択するマウスイベントが発生したことに応答して、当該GUI制御部品に関連付けられた所定の操作を受け付ける。   The GUI control unit 126 is a functional unit that is referred to as a GUI program, displays a GUI control component on the desktop, and accepts a user operation via the GUI control component. The GUI control unit 126 waits for a mouse event transferred from the event distribution unit 130, which will be described later, and responds to the occurrence of a mouse event that selects a predetermined GUI control component, in response to a predetermined event associated with the GUI control component. The operation of is accepted.

イベント振り分け部130は、外部入力画像管理部132、ON/OFF判断部134、座標取得部136および座標変換部138を含む。   The event distribution unit 130 includes an external input image management unit 132, an ON / OFF determination unit 134, a coordinate acquisition unit 136, and a coordinate conversion unit 138.

外部入力画像管理部132は、PC300から伝送されたPC300のスクリーン画面302がはめ込み表示される領域の座標(ディスプレイデバイス155のスクリーン座標系の座標情報)を管理する。外部入力画像管理部132は、スクリーン画面302がはめ込み表示される領域が固定される場合、すなわち、はめ込み表示される領域の座標が固定値である場合にはその値を保持し、はめ込み表示する領域が可変的に設定される場合は、その設定元(例えば、映像処理部124)に当該領域の座標情報を問い合わせて取得する。   The external input image management unit 132 manages the coordinates (the coordinate information of the screen coordinate system of the display device 155) of the area in which the screen screen 302 of the PC 300 transmitted from the PC 300 is displayed. The external input image management unit 132 holds the value when the area in which the screen screen 302 is fitted and displayed is fixed, that is, when the coordinate of the area to be displayed is a fixed value, and the area to be fitted and displayed. Is variably set, the coordinate information of the area is inquired and acquired from the setting source (for example, the video processing unit 124).

ON/OFF判断部134は、オペレーティングシステム123から受領したON/OFFイベントを参照し、ペンデバイス200の押しボタン202が押下されているか否か(すなわち、スイッチのON/OFF)を判断する。一方、座標取得部136は、オペレーティングシステム123から受領したマウスイベントに含まれる座標情報(マウスイベントの発生座標)を取得する。   The ON / OFF determination unit 134 refers to the ON / OFF event received from the operating system 123, and determines whether or not the push button 202 of the pen device 200 is pressed (that is, whether the switch is ON / OFF). On the other hand, the coordinate acquisition unit 136 acquires coordinate information (mouse event occurrence coordinates) included in the mouse event received from the operating system 123.

イベント振り分け部130は、オペレーティングシステム123から受領したマウスイベントおよびスイッチのON/OFFイベントならびにPC300のスクリーン画面をはめ込み表示する領域の座標情報に基づいて、手書き描画部125、GUI制御部126およびPC300(外部接続PC)のいずれか1つを当該マウスイベントの転送先として決定する。PC300がマウスイベントの転送先として決定した場合、イベント振り分け部130は、当該マウスイベントをUSB I/F129を介してPC300に転送する。   Based on the mouse event and the switch ON / OFF event received from the operating system 123 and the coordinate information of the area in which the screen screen of the PC 300 is inserted and displayed, the event distribution unit 130 is based on the handwriting drawing unit 125, the GUI control unit 126, and the PC 300 ( Any one of the externally connected PCs) is determined as the transfer destination of the mouse event. When the PC 300 determines the transfer destination of the mouse event, the event distribution unit 130 transfers the mouse event to the PC 300 via the USB I / F 129.

以上、本実施形態の画像表示制御装置120のコントローラ部121を構成する各機能部について説明してきたが、次に、図5に示すフローチャート基づいて、イベント振り分け部130が実行する処理を具体的に説明する。なお、以下の説明においては、画像表示装置100を電子黒板100として参照する。   The functional units constituting the controller unit 121 of the image display control apparatus 120 of the present embodiment have been described above. Next, the processing executed by the event distribution unit 130 is specifically described based on the flowchart shown in FIG. explain. In the following description, the image display device 100 is referred to as the electronic blackboard 100.

画像表示制御装置120が起動されると、イベント振り分け部130は、オペレーティングシステム123が生成するマウスイベントを監視する(ステップ101、No)。オペレーティングシステム123がマウスイベントを生成したことを検出すると(ステップ101、Yes)、当該マウスイベントとこれに紐付けられたON/OFFイベントを受領してステップ102に進む。   When the image display control device 120 is activated, the event distribution unit 130 monitors a mouse event generated by the operating system 123 (No in step 101). When the operating system 123 detects that a mouse event has been generated (step 101, Yes), the mouse event and an ON / OFF event associated therewith are received, and the process proceeds to step 102.

ステップ102においては、ON/OFF判断部134がON/OFFイベントを参照し、ペンデバイス200のスイッチがONになっているか否かを判断する。ペンデバイス200のスイッチがONになっていないと判断した場合は(ステップ102、No)、ステップ103に進み、イベント振り分け部130は、オペレーティングシステム123から受領したマウスイベントを手書き描画部125に転送した後、マウスイベントの監視ループ(ステップ101)に戻る。   In step 102, the ON / OFF determination unit 134 refers to the ON / OFF event, and determines whether the switch of the pen device 200 is ON. If it is determined that the switch of the pen device 200 is not turned on (No at Step 102), the process proceeds to Step 103, where the event distribution unit 130 transfers the mouse event received from the operating system 123 to the handwriting drawing unit 125. Thereafter, the process returns to the mouse event monitoring loop (step 101).

手書き描画部は、イベント振り分け部130から受領したマウスイベントに基づいて手書き線などのグラフィックスを生成する。つまり、本実施形態においては、ペンデバイス200のスイッチがOFFになっている間、電子黒板100は、常時、描画モードで動作し、ユーザは、デスクトップ画面の全領域を描画キャンバスとして手書き描画を行うことができる。なお、手書き描画部が生成するグラフィックスは、最上位のレイヤーに表示されるので、ユーザは、図6(a)に示すように、手書き文字等を背景色が表示された画素領域に書き入れることができるのはもちろんのこと、図6(b)に示すように、PC300のスクリーン画面をはめ込み表示する画素領域105(以下、PCスクリーン表示領域105として参照する)の上に手書き文字等を重ね書きすることもできる。   The handwriting drawing unit generates graphics such as a handwritten line based on the mouse event received from the event distribution unit 130. In other words, in the present embodiment, while the pen device 200 is switched off, the electronic blackboard 100 always operates in the drawing mode, and the user performs handwriting drawing using the entire area of the desktop screen as the drawing canvas. be able to. Since the graphics generated by the handwritten drawing unit are displayed on the uppermost layer, as shown in FIG. 6A, the user writes handwritten characters or the like in the pixel area where the background color is displayed. Of course, as shown in FIG. 6B, handwritten characters and the like are overwritten on the pixel area 105 (hereinafter referred to as the PC screen display area 105) in which the screen screen of the PC 300 is displayed. You can also

一方、ステップ102において、ペンデバイス200のスイッチがONになっていると判断した場合は(ステップ102、Yes)、ステップ104に進む。ステップ104においては、座標取得部136がオペレーティングシステム123から受領したマウスイベントの発生座標を取得する(ステップ104)。   On the other hand, if it is determined in step 102 that the switch of the pen device 200 is ON (step 102, Yes), the process proceeds to step 104. In step 104, the coordinate acquisition unit 136 acquires the mouse event occurrence coordinates received from the operating system 123 (step 104).

続くステップ105において、イベント振り分け部130は、マウスイベントの発生座標がPCスクリーン表示領域105内にあるか否かを判断する。以下、ステップ105の判断処理について図7に示す概念図に基づいて説明する。   In subsequent step 105, the event distribution unit 130 determines whether or not the mouse event occurrence coordinates are within the PC screen display area 105. Hereinafter, the determination processing in step 105 will be described based on the conceptual diagram shown in FIG.

イベント振り分け部130は、外部入力画像管理部132が保持または取得するはめ込み表示領域の座標情報からPCスクリーン表示領域105のX座標の最大値[xmin]および最小値[xmax]ならびにY座標の最大値[ymin]および最小値[ymax]を取得した上で、座標取得部136が取得したマウスイベントの発生座標(x,y)について、下記不等式(1)および(2)が同時に成立するか否かを判断する。
min<x<xmax(あるいは、xmin≦x≦xmax) (1)
min<y<ymax(あるいは、ymin≦y≦ymax) (2)
The event distribution unit 130 determines the maximum value [x min ] and minimum value [x max ] of the X coordinate of the PC screen display region 105 and the Y coordinate from the coordinate information of the inset display region held or acquired by the external input image management unit 132. After obtaining the maximum value [y min ] and the minimum value [y max ], the following inequalities (1) and (2) are simultaneously established for the mouse event occurrence coordinates (x, y) acquired by the coordinate acquisition unit 136. Judge whether to do.
x min <x <x max (or x min ≦ x ≦ x max ) (1)
y min <y <y max (or y min ≦ y ≦ y max ) (2)

その結果、上記不等式(1)および(2)が同時に成立しないと判断した場合は、マウスイベントの発生座標(x,y)がPCスクリーン表示領域105内にないと判断し(ステップ105、No)、ステップ106に進み、検出したマウスイベントをGUI制御部126に転送した後、マウスイベントの監視ループ(ステップ101)に戻る。   As a result, if it is determined that the inequalities (1) and (2) do not hold at the same time, it is determined that the mouse event occurrence coordinates (x, y) are not in the PC screen display area 105 (No in Step 105). In step 106, the detected mouse event is transferred to the GUI control unit 126, and the process returns to the mouse event monitoring loop (step 101).

GUI制御部126は、イベント振り分け部130から受領したマウスイベントが所定のGUI制御部品を選択するものであると判断した場合、選択されたGUI制御部品に関連付けられた所定の操作を受け付ける。例えば、ペンデバイス200が図8(a)に示すGUI制御部品「C」を指定している場合には、GUI制御部126は、タッチされたGUI制御部品「C」が定義するところの所定の処理を実行する。図8(b)は、ペンデバイス200によってGUI制御部品[C]が指定されたことに応答して、PC300のスクリーン画面を消去する操作が実行された場合を例示する。   When the GUI control unit 126 determines that the mouse event received from the event distribution unit 130 selects a predetermined GUI control component, the GUI control unit 126 receives a predetermined operation associated with the selected GUI control component. For example, when the pen device 200 designates the GUI control component “C” shown in FIG. 8A, the GUI control unit 126 defines a predetermined one defined by the touched GUI control component “C”. Execute the process. FIG. 8B illustrates a case where an operation for deleting the screen screen of the PC 300 is executed in response to the GUI control component [C] being specified by the pen device 200.

一方、ステップ105において、上記不等式(1)および(2)が同時に成立すると判断した場合は、マウスイベントの発生座標(x,y)がPCスクリーン表示領域105内にあると判断し(ステップ105、Yes)、ステップ107に進む。ステップ107においては、座標変換部138がオペレーティングシステム123から受領したマウスイベントの発生座標を適切な方法でPC300のスクリーン座標系に変換する。以下、座標変換部138が実行する座標変換処理の一例について図9に示す概念図に基づいて説明する。   On the other hand, if it is determined in step 105 that the inequalities (1) and (2) are simultaneously established, it is determined that the mouse event occurrence coordinates (x, y) are within the PC screen display area 105 (step 105, Yes), go to step 107. In step 107, the coordinate conversion unit 138 converts the mouse event occurrence coordinates received from the operating system 123 into the screen coordinate system of the PC 300 by an appropriate method. Hereinafter, an example of the coordinate conversion processing executed by the coordinate conversion unit 138 will be described based on the conceptual diagram shown in FIG.

座標変換部138は、下記変換式(3)に基づいて、電子黒板100のスクリーン座標系におけるマウスイベントの発生座標(x,y)をPC300のスクリーン座標系におけるマウスイベント座標(x’,y’)に変換する。   The coordinate conversion unit 138 converts the mouse event occurrence coordinates (x, y) in the screen coordinate system of the electronic blackboard 100 into the mouse event coordinates (x ′, y ′) in the screen coordinate system of the PC 300 based on the following conversion formula (3). ).

なお、上記式(3)において、[xmin]および[xmax]ならびに[ymin]および[ymax]は、それぞれ、PCスクリーン表示領域105のX座標の最大値および最小値ならびにY座標の最大値および最小値を示し、[x’max]および[y’max]は、それぞれ、PC300のスクリーン座標系のX座標の最大値およびY座標の最大値を示す。 In the above formula (3), [x min ] and [x max ], and [y min ] and [y max ] are respectively the maximum and minimum values of the X coordinate and the Y coordinate of the PC screen display area 105. The maximum value and the minimum value are indicated, and [x ′ max ] and [y ′ max ] indicate the maximum value of the X coordinate and the maximum value of the Y coordinate of the screen coordinate system of the PC 300, respectively.

ここで、PCスクリーン表示領域105およびマウスイベントの発生座標が図9(a)に示す状態であった場合、電子黒板100のスクリーン座標系におけるマウスイベントの発生座標(300,200)は、図9(b)に示すように、PC300のスクリーン座標系の座標(180,140)に変換される。   Here, when the PC screen display area 105 and the mouse event occurrence coordinates are in the state shown in FIG. 9A, the mouse event occurrence coordinates (300, 200) in the screen coordinate system of the electronic blackboard 100 are as shown in FIG. As shown in (b), it is converted into coordinates (180, 140) in the screen coordinate system of the PC 300.

イベント振り分け部130は、ステップ107で電子黒板100のスクリーン座標系におけるマウスイベントの発生座標をPC300のスクリーン座標系の座標に変換すると、ステップ108に進み、発生座標を変換したマウスイベントをPC300に転送した後、マウスイベントの監視ループ(ステップ101)に戻る。   When the event distribution unit 130 converts the mouse event occurrence coordinates in the screen coordinate system of the electronic blackboard 100 into the coordinates of the screen coordinate system of the PC 300 in step 107, the event distribution unit 130 proceeds to step 108 and transfers the mouse event in which the occurrence coordinates are converted to the PC 300. After that, the process returns to the mouse event monitoring loop (step 101).

PC300は、電子黒板100から受領したマウスイベントの(変換後の)発生座標に基づいて、所定のGUI制御部品が選択されたか否かを判断する。例えば、図10(a)に示すように、ペンデバイス200がPCスクリーン表示領域105に表示された「次のページに進む」という意味のボタン「→」をタッチすると、これに応答して発生したマウスイベントの座標がPC300のスクリーン座標系の座標(すなわち、PC300のスクリーン画面302に表示されたボタン「→」に対応する座標)に変換された後、当該マウスイベントがPC300に転送される。その結果、PC300は、図10(b)に示すように、PC300のスクリーン画面302を次のページの表示に切り替えるとともに、表示内容の変更を反映したVGA信号を電子黒板100に伝送する。その結果、PCスクリーン表示領域105の表示がPC300のスクリーン画面302に同期して切り替わる。   The PC 300 determines whether or not a predetermined GUI control component has been selected based on the generated coordinates (after conversion) of the mouse event received from the electronic blackboard 100. For example, as shown in FIG. 10A, when the pen device 200 touches a button “→” meaning “go to the next page” displayed in the PC screen display area 105, the response occurred in response to the touch. After the coordinates of the mouse event are converted into the coordinates of the screen coordinate system of the PC 300 (that is, the coordinates corresponding to the button “→” displayed on the screen screen 302 of the PC 300), the mouse event is transferred to the PC 300. As a result, as shown in FIG. 10B, the PC 300 switches the screen screen 302 of the PC 300 to the display of the next page, and transmits a VGA signal reflecting the change in display contents to the electronic blackboard 100. As a result, the display of the PC screen display area 105 is switched in synchronization with the screen screen 302 of the PC 300.

以上、本実施形態の電子黒板100について、1台のユーザPCからスクリーン画面を取り込んだ例に基づいて説明してきたが、本実施形態の電子黒板100は、複数台のユーザPCからスクリーン画面を取り込むこともできる。図11は、PC300a(PC1)のスクリーン画面302aとPC300b(PC2)のスクリーン画面302bが電子黒板100のスクリーン画面104に同時にはめ込み表示する実施形態を示す。以下、2台のPCを電子黒板100に接続する場合において、イベント振り分け部130が実行する処理を図12に示すフローチャート基づいて説明する。   The electronic blackboard 100 of the present embodiment has been described based on an example in which a screen screen is captured from one user PC. However, the electronic blackboard 100 of the present embodiment captures screen screens from a plurality of user PCs. You can also. FIG. 11 shows an embodiment in which the screen screen 302 a of the PC 300 a (PC 1) and the screen screen 302 b of the PC 300 b (PC 2) are simultaneously displayed on the screen screen 104 of the electronic blackboard 100. Hereinafter, the processing executed by the event distribution unit 130 when two PCs are connected to the electronic blackboard 100 will be described with reference to the flowchart shown in FIG.

図12において、ステップ101〜ステップ104は、図5において説明した内容と同様の処理を行う。   In FIG. 12, Step 101 to Step 104 perform the same processing as the content described in FIG.

ステップ104に続くステップ105においては、マウスイベントの発生座標がPC300a(PC1)のPCスクリーン表示領域105a内にあるか否かを判断し、マウスイベントの発生座標(x,y)がPCスクリーン表示領域105a内にあると判断した場合(ステップ105、Yes)、ステップ107に進み、検出したマウスイベントの発生座標をPC300aのスクリーン座標系に変換し、続くステップ108で、発生座標を変換したマウスイベントをPC300aに転送した後、マウスイベントの監視ループ(ステップ101)に戻る。   In step 105 following step 104, it is determined whether or not the mouse event occurrence coordinates are within the PC screen display area 105a of the PC 300a (PC1), and the mouse event occurrence coordinates (x, y) are the PC screen display area. If it is determined that the mouse event is within 105a (step 105, Yes), the process proceeds to step 107, where the detected coordinates of the mouse event are converted into the screen coordinate system of the PC 300a. After transferring to the PC 300a, the process returns to the mouse event monitoring loop (step 101).

一方、ステップ105において、マウスイベントの発生座標がPC300a(PC1)のPCスクリーン表示領域105a内にないと判断した場合(ステップ105、No)、ステップ109に進み、マウスイベントの発生座標がPC300b(PC2)のPCスクリーン表示領域105b内にあるか否かを判断する。   On the other hand, when it is determined in step 105 that the mouse event occurrence coordinates are not within the PC screen display area 105a of the PC 300a (PC1) (step 105, No), the process proceeds to step 109, where the mouse event occurrence coordinates are PC 300b (PC2). ) In the PC screen display area 105b.

ステップ109において、マウスイベントの発生座標(x,y)がPCスクリーン表示領域105b内にないと判断した場合は(ステップ109、No)、ステップ106に進み、検出したマウスイベントをGUI制御部126に転送した後、はマウスイベントの監視ループ(ステップ101)に戻る。一方、マウスイベントの発生座標(x,y)がPCスクリーン表示領域105b内にあると判断した場合(ステップ109、Yes)、ステップ110に進み、検出したマウスイベントの発生座標をPC300bのスクリーン座標系に変換し、続くステップ111で、発生座標を変換したマウスイベントをPC300bに転送した後、マウスイベントの監視ループ(ステップ101)に戻る。   If it is determined in step 109 that the mouse event occurrence coordinates (x, y) are not within the PC screen display area 105 b (step 109, No), the process proceeds to step 106, and the detected mouse event is sent to the GUI control unit 126. After the transfer, returns to the mouse event monitoring loop (step 101). On the other hand, if it is determined that the mouse event occurrence coordinates (x, y) are within the PC screen display area 105b (step 109, Yes), the process proceeds to step 110, and the detected mouse event occurrence coordinates are set to the screen coordinate system of the PC 300b. In step 111, the mouse event whose generated coordinates have been converted is transferred to the PC 300b, and the process returns to the mouse event monitoring loop (step 101).

ここで、ステップ105およびステップ109の判断処理について、図13に示す概念図に基づいて例示的に説明する。   Here, the determination processing in step 105 and step 109 will be exemplarily described based on the conceptual diagram shown in FIG.

イベント振り分け部130は、外部入力画像管理部132が保持または取得するはめ込み表示領域の座標情報からPC1のPCスクリーン表示領域105aのX座標の最大値[x1min]・最小値[x1max]ならびにY座標の最大値[y1min]・最小値[y1max]を取得するとともに、PC2のPCスクリーン表示領域105bのX座標の最大値[x2min]・最小値[x2max]ならびにY座標の最大値[y2min]・最小値[y2max]を取得する。その上で、ステップ105においては、マウスイベントの発生座標(x,y)について、下記不等式(4)および(5)が同時に成立するか否かを判断する。
x1min<x<x1max(あるいは、x1min≦x≦x1max) (4)
y1min<y<y1max(あるいは、y1min≦y≦y1max) (5)
The event distribution unit 130 determines the maximum value [x1 min ] / minimum value [x1 max ] of the X coordinate of the PC screen display area 105a of the PC1 and Y from the coordinate information of the inset display area held or acquired by the external input image management unit 132. Acquire the maximum value [y1 min ] / minimum value [y1 max ] of the coordinate, the maximum value [x2 min ] / minimum value [x2 max ] of the X coordinate of the PC screen display area 105b of PC2, and the maximum value of the Y coordinate [y2 min ] / minimum value [y2 max ] is acquired. Then, in step 105, it is determined whether or not the following inequalities (4) and (5) are simultaneously established for the mouse event occurrence coordinates (x, y).
x1 min <x <x1 max (or, x1 min ≦ x ≦ x1 max ) (4)
y1 min <y <y1 max (or, y1 min ≦ y ≦ y1 max ) (5)

その結果、上記不等式(4)および(5)が同時に成立する場合には、マウスイベントの発生座標(x,y)がPCスクリーン表示領域105a内にあると判断し(ステップ105,Yes)、それ以外の場合は、マウスイベントの発生座標(x,y)がPCスクリーン表示領域105a内にないと判断する(ステップ105,No)。   As a result, if the inequalities (4) and (5) hold simultaneously, it is determined that the mouse event occurrence coordinates (x, y) are within the PC screen display area 105a (step 105, Yes). Otherwise, it is determined that the mouse event occurrence coordinates (x, y) are not within the PC screen display area 105a (step 105, No).

一方、ステップ109においては、マウスイベントの発生座標(x,y)について、下記不等式(6)および(7)が同時に成立するか否かを判断する。
x2min<x<x2max(あるいは、x2min≦x≦x2max) (6)
y2min<y<y2max(あるいは、y2min≦y≦y2max) (7)
On the other hand, in step 109, it is determined whether or not the following inequalities (6) and (7) are simultaneously established for the mouse event occurrence coordinates (x, y).
x2 min <x <x2 max (or, x2 min ≦ x ≦ x2 max ) (6)
y2 min <y <y2 max (or, y2 min ≦ y ≦ y2 max ) (7)

その結果、上記不等式(6)および(7)が同時に成立する場合には、マウスイベントの発生座標(x,y)がPCスクリーン表示領域105b内にあると判断し(ステップ109,Yes)、それ以外の場合は、マウスイベントの発生座標(x,y)がPCスクリーン表示領域105b内にないと判断する(ステップ109,No)。   As a result, if the inequalities (6) and (7) hold simultaneously, it is determined that the mouse event occurrence coordinates (x, y) are within the PC screen display area 105b (step 109, Yes). Otherwise, it is determined that the mouse event occurrence coordinates (x, y) are not in the PC screen display area 105b (step 109, No).

例えば、図14(a)に示すように、ペンデバイス200がPC300b(PC2)のPCスクリーン表示領域105bに表示された「円グラフ」をタッチすると、これに応答して発生したマウスイベントの座標がPC300bのスクリーン座標系の座標(すなわち、PC300bのスクリーン画面302bに表示された「円グラフ」に対応する座標)に変換された後、当該マウスイベントがPC300bに転送される。その結果、PC300bは、図14(b)に示すように、PC300bのスクリーン画面302bに別ウィンドウ303をポップアップ表示させるとともに、表示内容の変更を反映したVGA信号を電子黒板100に転送する。その結果、PCスクリーン表示領域105bの表示がPC300bのスクリーン画面302bの表示切り替えに同期して切り替わる。   For example, as shown in FIG. 14A, when the pen device 200 touches a “pie graph” displayed in the PC screen display area 105b of the PC 300b (PC2), the coordinates of the mouse event generated in response thereto are displayed. After being converted into coordinates in the screen coordinate system of the PC 300b (that is, coordinates corresponding to the “pie graph” displayed on the screen screen 302b of the PC 300b), the mouse event is transferred to the PC 300b. As a result, as shown in FIG. 14 (b), the PC 300 b pops up another window 303 on the screen screen 302 b of the PC 300 b and transfers a VGA signal reflecting the change in display contents to the electronic blackboard 100. As a result, the display of the PC screen display area 105b is switched in synchronization with the display switching of the screen screen 302b of the PC 300b.

以上、説明したように、本発明によれば、ユーザは、手書き描画、電子黒板の操作および外部接続されたPCの操作という3つの操作を手元のごくわずかな動き(ペンデバイスのボタンのON/OFF)のみで切り替えることができるので、手書きと操作の両方を頻繁に交えて行うようなケースであっても、高いユーザビリティを維持することが可能になる。   As described above, according to the present invention, the user can perform three operations of handwriting drawing, operation of the electronic blackboard, and operation of the externally connected PC with very little movement (ON / OFF of the button of the pen device). It is possible to maintain high usability even in a case where both handwriting and operation are frequently performed.

上述した実施形態の各機能は、C、C++、C#、Java(登録商標)などのオブジェクト指向プログラミング言語などで記述された装置実行可能なプログラムにより実現でき、本実施形態のプログラムは、ハードディスク装置、CD−ROM、MO、DVD、フレキシブルディスク、EEPROM、EPROMなどの装置可読な記録媒体に格納して頒布することができ、また他装置が可能な形式でネットワークを介して伝送することができる。   Each function of the above-described embodiment can be realized by a device-executable program written in an object-oriented programming language such as C, C ++, C #, Java (registered trademark), and the program of this embodiment is a hard disk device. , CD-ROM, MO, DVD, flexible disk, EEPROM, EPROM and the like can be stored and distributed in a device-readable recording medium, and can be transmitted via a network in a format that other devices can.

以上、本発明について実施形態をもって説明してきたが、本発明は上述した実施形態に限定されるものではなく、当業者が推考しうる実施態様の範囲内において、本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。   As described above, the present invention has been described with the embodiment. However, the present invention is not limited to the above-described embodiment, and as long as the operations and effects of the present invention are exhibited within the scope of embodiments that can be considered by those skilled in the art. It is included in the scope of the present invention.

100…画像表示装置(電子黒板)
102…ディスプレイ装置
104…スクリーン画面
105…PCスクリーン表示領域
106…GUI制御部品
110…信号受信部
120…画像表示制御装置
121…コントローラ部
122…タッチパネルドライバ部
123…オペレーティングシステム
124…映像処理部
125…手書き描画部
126…GUI制御部
128…VGA I/F
129…USB I/F
130…イベント振り分け部
132…外部入力画像管理部
134…ON/OFF判断部
136…座標取得部
138…座標変換部
150…プロセッサ
151…ROM
152…RAM
153…ハードディスク装置
154…グラフィックスボード
155…ディスプレイデバイス
156…座標検出装置(タッチパネル)
157…無線通信インタフェース
158…外部機器接続インタフェース
200…画面指示デバイス(ペンデバイス)
202…押しボタン
204…信号生成部
208…信号送信部
300…パーソナル・コンピュータ
302…PCのスクリーン画面
303…ポップアップウィンドウ
304…VGAケーブル
100 ... Image display device (electronic blackboard)
DESCRIPTION OF SYMBOLS 102 ... Display apparatus 104 ... Screen screen 105 ... PC screen display area 106 ... GUI control component 110 ... Signal receiving part 120 ... Image display control apparatus 121 ... Controller part 122 ... Touch panel driver part 123 ... Operating system 124 ... Video processing part 125 ... Handwritten drawing unit 126 ... GUI control unit 128 ... VGA I / F
129 ... USB I / F
DESCRIPTION OF SYMBOLS 130 ... Event distribution part 132 ... External input image management part 134 ... ON / OFF judgment part 136 ... Coordinate acquisition part 138 ... Coordinate conversion part 150 ... Processor 151 ... ROM
152 ... RAM
153: Hard disk device 154: Graphics board 155 ... Display device 156 ... Coordinate detection device (touch panel)
157 ... Wireless communication interface 158 ... External device connection interface 200 ... Screen instruction device (pen device)
DESCRIPTION OF SYMBOLS 202 ... Push button 204 ... Signal generation part 208 ... Signal transmission part 300 ... Personal computer 302 ... PC screen screen 303 ... Pop-up window 304 ... VGA cable

特開2006−331263号公報JP 2006-331263 A

Claims (8)

ディスプレイデバイスの上にポインティングデバイスが配置されたディスプレイ装置を制御する画像表示制御装置であって、
ON/OFFスイッチを備える画面指示デバイスが前記ポインティングデバイスに接触または接近することに応答してポインティングデバイスイベントを生成するとともに、前記画面指示デバイスから受信したON/OFF信号に基づいてON/OFFイベントを生成するイベント生成部と、
前記ポインティングデバイスイベントに基づいてグラフィックスを生成する手書き描画部と、
前記ディスプレイデバイスに背景画像を表示し、外部に接続された情報処理装置のスクリーン画面を取り込んで前記背景画像内の所定のはめ込み領域に表示し、前記背景画像または前記所定のはめ込み領域の上に前記手書き描画部が生成した前記グラフィックスを重畳表示する映像処理部と、
前記背景画像または前記所定のはめ込み領域にGUIを表示し、前記ポインティングデバイスイベントに基づいて所定の操作を受け付けるGUI制御部と、
前記イベント生成部から前記ポインティングデバイスイベントおよび前記ON/OFFイベントを受領し、該ポインティングデバイスイベントを前記手書き描画部、前記GUI制御部、および前記情報処理装置のいずれかに転送するイベント振り分け部とを含む
画像表示制御装置。
An image display control device for controlling a display device in which a pointing device is disposed on a display device,
A pointing device event is generated in response to a screen pointing device having an ON / OFF switch contacting or approaching the pointing device, and an ON / OFF event is generated based on an ON / OFF signal received from the screen pointing device. An event generator to generate;
A handwriting drawing unit that generates graphics based on the pointing device event;
A background image is displayed on the display device, a screen screen of an information processing apparatus connected to the outside is captured and displayed in a predetermined inset area in the background image, and the background image or the predetermined inset area is over the A video processing unit that superimposes and displays the graphics generated by the handwriting drawing unit;
A GUI control unit that displays a GUI in the background image or the predetermined inset area and receives a predetermined operation based on the pointing device event;
An event distribution unit that receives the pointing device event and the ON / OFF event from the event generation unit and transfers the pointing device event to any one of the handwriting drawing unit, the GUI control unit, and the information processing apparatus; Including image display control device.
前記イベント振り分け部は、
前記ON/OFFイベントに基づいて、前記画面指示デバイスの前記スイッチのON/OFFを判断し、
前記スイッチがOFFの場合に、前記ポインティングデバイスイベントを前記手書き描画部に転送し、
前記スイッチがONであって、且つ、前記ポインティングデバイスイベントの発生座標が前記はめ込み領域内にない場合に、該ポインティングデバイスイベントを前記GUI制御部に転送し、
前記スイッチがONであって、且つ、前記ポインティングデバイスイベントの発生座標が前記はめ込み領域内にある場合に、該ポインティングデバイスイベントの座標を前記情報処理装置のスクリーン座標系に変換して、該情報処理装置に転送する、
請求項1に記載の画像表示制御装置。
The event distribution unit
Based on the ON / OFF event, determine ON / OFF of the switch of the screen instruction device,
When the switch is OFF, the pointing device event is transferred to the handwriting drawing unit,
When the switch is ON and the pointing device event occurrence coordinates are not within the fitting area, the pointing device event is transferred to the GUI control unit,
When the switch is ON and the coordinate of the pointing device event is within the fitting area, the coordinate of the pointing device event is converted into the screen coordinate system of the information processing apparatus, and the information processing Transfer to device,
The image display control apparatus according to claim 1.
前記映像処理部は、複数の前記情報処理装置のスクリーン画面を取り込んで前記背景画像内の所定のはめ込み領域に表示する、請求項1または2に記載の画像表示制御装置。   The image display control device according to claim 1, wherein the video processing unit captures screen screens of the plurality of information processing devices and displays the screen images in a predetermined inset area in the background image. 前記ON/OFFスイッチは、ボタンスイッチである、請求項1〜3のいずれか一項に記載の画像表示制御装置。   The image display control device according to claim 1, wherein the ON / OFF switch is a button switch. コンピュータに対して、ディスプレイデバイスの上にポインティングデバイスが配置されたディスプレイ装置を制御させるコンピュータ実行可能な方法であって、該コンピュータに対し、
ON/OFFスイッチを備える画面指示デバイスが前記ポインティングデバイスに接触または接近することに応答してポインティングデバイスイベントを生成するとともに、前記画面指示デバイスから受信したON/OFF信号に基づいてON/OFFイベントを生成するイベント生成手段と、
前記ポインティングデバイスイベントに基づいてグラフィックスを生成する手書き描画部手段と、
前記ディスプレイデバイスに背景画像を表示し、外部に接続された情報処理装置のスクリーン画面を取り込んで前記背景画像内の所定のはめ込み領域に表示し、前記背景画像または前記所定のはめ込み領域の上に前記手書き描画部が生成した前記グラフィックスを重畳表示する映像処理手段と、
前記背景画像または前記所定のはめ込み領域にGUIを表示し、前記ポインティングデバイスイベントに基づいて該記GUIを介した所定の操作を受け付けるGUI制御手段と、
生成された前記ポインティングデバイスイベントおよび前記ON/OFFイベントを受領し、該ポインティングデバイスイベントを前記手書き描画部、前記GUI制御部、および前記情報処理装置のいずれかに転送するイベント振り分け手段
を実現する方法。
A computer-executable method for causing a computer to control a display device having a pointing device disposed on a display device, the computer comprising:
A pointing device event is generated in response to a screen pointing device having an ON / OFF switch contacting or approaching the pointing device, and an ON / OFF event is generated based on an ON / OFF signal received from the screen pointing device. Event generation means for generating,
Handwriting drawing means for generating graphics based on the pointing device event;
A background image is displayed on the display device, a screen screen of an information processing apparatus connected to the outside is captured and displayed in a predetermined inset area in the background image, and the background image or the predetermined inset area is over the Video processing means for superimposing and displaying the graphics generated by the handwriting drawing unit;
GUI control means for displaying a GUI in the background image or the predetermined inset area, and receiving a predetermined operation via the GUI based on the pointing device event;
A method for realizing an event distribution unit that receives the generated pointing device event and the ON / OFF event and transfers the pointing device event to any one of the handwritten drawing unit, the GUI control unit, and the information processing apparatus .
前記イベント振り分け手段は、
前記ON/OFFイベントに基づいて、前記画面指示デバイスの前記スイッチのON/OFFを判断し、
前記スイッチがOFFの場合に、前記ポインティングデバイスイベントを前記手書き描画手段に転送し、
前記スイッチがONであって、且つ、前記ポインティングデバイスイベントの発生座標が前記はめ込み領域内にない場合に、該ポインティングデバイスイベントを前記GUI制御手段に転送し、
前記スイッチがONであって、且つ、前記ポインティングデバイスイベントの発生座標が前記はめ込み領域内にある場合に、該ポインティングデバイスイベントの座標を前記情報処理装置のスクリーン座標系に変換して、該情報処理装置に転送する、
請求項5に記載の方法。
The event distribution means includes:
Based on the ON / OFF event, determine ON / OFF of the switch of the screen instruction device,
When the switch is OFF, the pointing device event is transferred to the handwriting drawing means,
When the switch is ON and the pointing device event occurrence coordinates are not within the fitting area, the pointing device event is transferred to the GUI control means;
When the switch is ON and the coordinate of the pointing device event is within the fitting area, the coordinate of the pointing device event is converted into the screen coordinate system of the information processing apparatus, and the information processing Transfer to device,
The method of claim 5.
前記映像処理手段は、複数の前記情報処理装置のスクリーン画面を取り込んで前記背景画像内の所定のはめ込み領域に表示する、請求項5または6に記載の方法。   The method according to claim 5, wherein the video processing unit captures a plurality of screen images of the information processing apparatus and displays the screen images in a predetermined inset area in the background image. コンピュータに請求項5〜7のいずれか一項に記載の方法を実行させるためのコンピュータ実行可能なプログラム。   The computer executable program for making a computer perform the method as described in any one of Claims 5-7.
JP2011262514A 2011-11-30 2011-11-30 Image display device, control method thereof, and program Pending JP2013114593A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011262514A JP2013114593A (en) 2011-11-30 2011-11-30 Image display device, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011262514A JP2013114593A (en) 2011-11-30 2011-11-30 Image display device, control method thereof, and program

Publications (1)

Publication Number Publication Date
JP2013114593A true JP2013114593A (en) 2013-06-10

Family

ID=48710058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011262514A Pending JP2013114593A (en) 2011-11-30 2011-11-30 Image display device, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP2013114593A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015022410A (en) * 2013-07-17 2015-02-02 シャープ株式会社 Multi-mode input system and information processing system
CN105459688A (en) * 2014-09-12 2016-04-06 苏州泛普纳米科技有限公司 Touch control blackboard
JP2016162032A (en) * 2015-02-27 2016-09-05 セイコーエプソン株式会社 Display device, display control method, and program
JP2017224985A (en) * 2016-06-15 2017-12-21 株式会社リコー Information processing apparatus, electronic blackboard, and program
JP2018005636A (en) * 2016-07-04 2018-01-11 富士通株式会社 Transmission control program, transmission control method and information processing unit
US9870191B2 (en) 2014-08-22 2018-01-16 Ricoh Company, Ltd. Display device, displaying method, and computer-readable recording medium
JP2019214054A (en) * 2018-06-11 2019-12-19 住友重機械工業株式会社 Processing method and processing device
JP2020513619A (en) * 2016-12-20 2020-05-14 サムスン エレクトロニクス カンパニー リミテッド Display device and control method thereof
JP2021015376A (en) * 2019-07-10 2021-02-12 株式会社リコー Display device, display method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006172423A (en) * 2004-11-18 2006-06-29 Canon Inc Remote controlling system, remote controlling apparatus, controlled apparatus, remote controlling method, computer program, and storage medium
JP2007072502A (en) * 2005-09-02 2007-03-22 Canon Inc Display arrangement with coordinate input device
JP2008275687A (en) * 2007-04-25 2008-11-13 Canon Inc Display control device and method
JP2009003575A (en) * 2007-06-19 2009-01-08 Canon Inc Coordinate input device, coordinate detection method, and computer program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006172423A (en) * 2004-11-18 2006-06-29 Canon Inc Remote controlling system, remote controlling apparatus, controlled apparatus, remote controlling method, computer program, and storage medium
JP2007072502A (en) * 2005-09-02 2007-03-22 Canon Inc Display arrangement with coordinate input device
JP2008275687A (en) * 2007-04-25 2008-11-13 Canon Inc Display control device and method
JP2009003575A (en) * 2007-06-19 2009-01-08 Canon Inc Coordinate input device, coordinate detection method, and computer program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015022410A (en) * 2013-07-17 2015-02-02 シャープ株式会社 Multi-mode input system and information processing system
US9870191B2 (en) 2014-08-22 2018-01-16 Ricoh Company, Ltd. Display device, displaying method, and computer-readable recording medium
CN105459688A (en) * 2014-09-12 2016-04-06 苏州泛普纳米科技有限公司 Touch control blackboard
JP2016162032A (en) * 2015-02-27 2016-09-05 セイコーエプソン株式会社 Display device, display control method, and program
JP2017224985A (en) * 2016-06-15 2017-12-21 株式会社リコー Information processing apparatus, electronic blackboard, and program
JP2018005636A (en) * 2016-07-04 2018-01-11 富士通株式会社 Transmission control program, transmission control method and information processing unit
JP2020513619A (en) * 2016-12-20 2020-05-14 サムスン エレクトロニクス カンパニー リミテッド Display device and control method thereof
JP2019214054A (en) * 2018-06-11 2019-12-19 住友重機械工業株式会社 Processing method and processing device
JP7117903B2 (en) 2018-06-11 2022-08-15 住友重機械工業株式会社 Processing method and processing equipment
JP2021015376A (en) * 2019-07-10 2021-02-12 株式会社リコー Display device, display method, and program
JP7287156B2 (en) 2019-07-10 2023-06-06 株式会社リコー Display device, display method, program

Similar Documents

Publication Publication Date Title
JP2013114593A (en) Image display device, control method thereof, and program
EP2919104B1 (en) Information processing device, information processing method, and computer-readable recording medium
US8836653B1 (en) Extending host device functionality using a mobile device
US20140267078A1 (en) Input Differentiation for Touch Computing Devices
US20080109763A1 (en) Computer system and method thereof
JP2009064209A (en) Information display device
KR102521192B1 (en) Electronic apparatus and operating method thereof
US20140035851A1 (en) Method for controlling user input and electronic device thereof
CN110737374A (en) Operation method and electronic equipment
WO2014147717A1 (en) Electronic device, display control method, and program
US20100328232A1 (en) Touch Screen Cursor Presentation Preview Window
US20160195975A1 (en) Touchscreen computing device and method
US20150193028A1 (en) Display device and method of erasing information input with pen
TW201903568A (en) System, method for displaying handwriting synchronously, and handwriting device
CN113396378A (en) System and method for a multipurpose input device for two-dimensional and three-dimensional environments
JP6386897B2 (en) Electronic blackboard, information processing program, and information processing method
US20190064947A1 (en) Display control device, pointer display method, and non-temporary recording medium
US8819584B2 (en) Information processing apparatus and image display method
US9823890B1 (en) Modifiable bezel for media device
JP2013065073A (en) Image display device, image display method, and image display program
WO2009119716A1 (en) Information processing system, information processing device, method, and program
JP2015135553A (en) Display device with touch operation function
JP2015011679A (en) Operation input device and input operation processing method
WO2016208099A1 (en) Information processing device, input control method for controlling input upon information processing device, and program for causing information processing device to execute input control method
EP3287879A1 (en) Coordinate detection device, electronic blackboard, image display system, and coordinate detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160104