JP2023033109A - Display device, display system, display control method, and program - Google Patents

Display device, display system, display control method, and program Download PDF

Info

Publication number
JP2023033109A
JP2023033109A JP2022093684A JP2022093684A JP2023033109A JP 2023033109 A JP2023033109 A JP 2023033109A JP 2022093684 A JP2022093684 A JP 2022093684A JP 2022093684 A JP2022093684 A JP 2022093684A JP 2023033109 A JP2023033109 A JP 2023033109A
Authority
JP
Japan
Prior art keywords
display
display screen
unit
video signal
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022093684A
Other languages
Japanese (ja)
Inventor
慶弘 川島
Yoshihiro Kawashima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US17/818,429 priority Critical patent/US20230063335A1/en
Publication of JP2023033109A publication Critical patent/JP2023033109A/en
Pending legal-status Critical Current

Links

Images

Abstract

To ensure real-time performance of a display device which shares a display screen with an information terminal and receives operations or settings on the display screen from the information terminal.SOLUTION: A display device is provided, comprising a display unit configured to display a display screen based on a video signal input from an information terminal, an acquisition unit configured to acquire changes in an image showing the position on the display screen from the video signal, and a reception unit configured to receive operations on the display screen according to the changes in the image.SELECTED DRAWING: Figure 4

Description

本発明は、表示装置、表示システム、表示制御方法、及びプログラムに関する。 The present invention relates to a display device, a display system, a display control method, and a program.

タッチパネル付きの大型ディスプレイを有し、ディスプレイ上に、例えば、PC(Personal Computer)の画面に表示されている表示画面等を表示して、表示画面上に文字、又は図形等を描画可能な電子黒板が知られている。 An electronic blackboard that has a large display with a touch panel and can display, for example, a display screen of a PC (Personal Computer) on the display and draw characters or figures on the display screen. It has been known.

また、大会議室等の有線接続が困難な環境において、PCと電子黒板とを同一のネットワーク上に置き、PCと電子黒板とで遠隔画面共有を行い、電子黒板の操作を行う技術が知られている(例えば、特許文献1参照)。 In addition, in an environment where a wired connection is difficult, such as in a large conference room, there is known a technique in which a PC and an electronic blackboard are placed on the same network, the PC and the electronic blackboard share a remote screen, and the electronic blackboard is operated. (See, for example, Patent Document 1).

しかし、特許文献1に開示された技術では、ネットワークを介して、情報処理装置(PC)と電子黒板とで画面共有を行うため、リアルタイム性を確保できないという問題がある。なお、このような課題は、電子黒板に限られず、情報処理装置と表示画面を共有し、表示画面に対する操作、又は設定を受け付ける様々な表示装置に存在する。 However, the technique disclosed in Patent Literature 1 has a problem that real-time performance cannot be ensured because screen sharing is performed between an information processing apparatus (PC) and an electronic blackboard via a network. Note that such a problem is not limited to electronic blackboards, but is present in various display devices that share a display screen with an information processing device and receive operations or settings on the display screen.

本発明の一実施の形態は、上記の問題点に鑑みてなされたものであって、情報端末と表示画面を共有し、情報端末から表示画面に対する操作、又は設定を受け付ける表示装置において、リアルタイム性を確保できるようにする。 An embodiment of the present invention has been made in view of the above problems. to ensure

上記の課題を解決するため、本発明の一実施形態に係る表示装置は、情報端末から入力される映像信号に基づいて表示画面を表示する表示部と、前記映像信号から前記表示画面上の位置を示す画像の変化を取得する取得部と、前記画像の変化に基づいて、前記表示画面に対する操作を受け付ける受付部と、を有する。 In order to solve the above problems, a display device according to an embodiment of the present invention includes a display unit that displays a display screen based on a video signal input from an information terminal, and a position on the display screen based on the video signal. and a reception unit that receives an operation on the display screen based on the change in the image.

本発明の一実施形態によれば、情報端末と表示画面を共有し、情報端末から表示画面に対する操作、又は設定を受け付ける表示装置において、リアルタイム性を確保できるようになる。 According to an embodiment of the present invention, real-time performance can be ensured in a display device that shares a display screen with an information terminal and receives operations or settings on the display screen from the information terminal.

一実施形態に係る表示システムのシステム構成の例を示す図である。1 is a diagram illustrating an example of a system configuration of a display system according to one embodiment; FIG. 一実施形態に係る電子黒板のハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of the electronic blackboard which concerns on one Embodiment. 一実施形態に係るプロジェクタのハードウェア構成の例を示す図である。3 is a diagram illustrating an example of a hardware configuration of a projector according to one embodiment; FIG. 一実施形態に係る電子黒板の機能構成の例を示す図である。It is a figure showing an example of functional composition of an electronic blackboard concerning one embodiment. 第1の実施形態に係る操作の受付処理の例を示すフローチャートである。7 is a flowchart illustrating an example of operation acceptance processing according to the first embodiment; 第1の実施形態に係るポインタの検出処理について説明する図である。FIG. 7 is a diagram illustrating pointer detection processing according to the first embodiment; 第1の実施形態に係る座標の変換処理について説明する図である。FIG. 4 is a diagram for explaining coordinate conversion processing according to the first embodiment; 第1の実施形態に係る操作の受付処理について説明する図である。FIG. 7 is a diagram illustrating operation acceptance processing according to the first embodiment; 一実施形態に係るジェスチャの例について説明する図である。FIG. 5 is a diagram illustrating an example of gestures according to one embodiment; 第2の実施形態に係る操作の受付処理の例を示すフローチャートである。10 is a flowchart illustrating an example of operation acceptance processing according to the second embodiment; 第3の実施形態に係る操作の受付処理の例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of operation acceptance processing according to the third embodiment; FIG.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<システム構成>
図1は、一実施形態に係る表示システムのシステム構成の例を示す図である。表示システム1は、例えば、図1に示すように、情報端末10と、映像信号ケーブル11で情報端末10と接続される電子黒板100とを有する。
<System configuration>
FIG. 1 is a diagram illustrating an example of the system configuration of a display system according to one embodiment. The display system 1 includes, for example, an information terminal 10 and an electronic blackboard 100 connected to the information terminal 10 via a video signal cable 11, as shown in FIG.

情報端末10は、例えば、PC(Personal Computer)、又はタブレット端末等の情報処理装置である。映像信号ケーブル11は、例えば、HDMI(High Definition Multimedia Interface、登録商標)、DisplayPort、USB(Universal Serial Bus)Type-C等のデジタル映像信号(有線信号)を伝送するケーブルである。また、本実施形態では、映像信号ケーブル11は、例えば、VGA等のアナログ映像信号(有線信号)を伝送するケーブルであっても良い。 The information terminal 10 is, for example, an information processing device such as a PC (Personal Computer) or a tablet terminal. The video signal cable 11 is, for example, a cable that transmits a digital video signal (wired signal) such as HDMI (High Definition Multimedia Interface, registered trademark), DisplayPort, USB (Universal Serial Bus) Type-C. Further, in the present embodiment, the video signal cable 11 may be a cable that transmits an analog video signal (wired signal) such as VGA, for example.

電子黒板100は、タッチセンサ搭載型のディスプレイであり、IWB(Interactive White Board)とも呼ばれる。電子黒板100は、ディスプレイに表示した画面に、例えば、ペン、又は指等で直接書き込みができるほか、ディスプレイに表示した内容をデータとして保存することができる。 The electronic blackboard 100 is a touch sensor-equipped display, and is also called an IWB (Interactive White Board). The electronic blackboard 100 can directly write on the screen displayed on the display with, for example, a pen or a finger, and can save the contents displayed on the display as data.

電子黒板100は、映像信号ケーブル11で、情報端末10と電子黒板100とを接続し、情報端末10から入力される映像信号に基づいて、電子黒板100のディスプレイ12に、情報端末10の表示画面を含む表示画面13を表示することができる。 The electronic blackboard 100 connects the information terminal 10 and the electronic blackboard 100 with the video signal cable 11, and displays the display screen of the information terminal 10 on the display 12 of the electronic blackboard 100 based on the video signal input from the information terminal 10. can be displayed.

操作者は、表示画面13に書き込みを行う場合には電子黒板100の前に立って操作を行うが、プロジェクタのように大型のディスプレイとしての用途で利用する場合には、電子黒板100から離れたところに座っていることが多い。しかし、電子黒板100では、例えば、ページ切替、拡大縮小、画面保存等の操作を行う場合、電子黒板100の前に行って、表示画面上の操作ボタン15等の操作を行うようになっている。 When the operator writes on the display screen 13, the operator stands in front of the electronic blackboard 100 and performs operations. I often sit there. However, with the electronic blackboard 100, for example, when performing operations such as page switching, enlargement/reduction, screen saving, etc., the operation buttons 15 and the like on the display screen are operated before the electronic blackboard 100. .

そのため、特許文献1に開示された技術では、情報端末と電子黒板とを、同じネットワークに接続し、情報端末にインストールされた遠隔操作用のアプリケーションを利用して、操作者が電子黒板を操作できるようにしている。しかし、この方法では、ネットワークを経由するため、例えば、動画再生時等に遅延が発生し、コマ落ちした映像が表示される、又は操作に対するレスポンスが遅い等、リアルタイム性を確保できないという問題がある。 Therefore, in the technology disclosed in Patent Document 1, an information terminal and an electronic blackboard are connected to the same network, and an operator can operate the electronic blackboard using a remote control application installed in the information terminal. I'm trying However, in this method, since it goes through a network, there is a problem that real-time performance cannot be ensured, for example, delays occur during video playback and the display of dropped frames, or the response to operations is slow. .

そこで、本実施形態に係る電子黒板100は、映像信号ケーブル11を介して、情報端末10から入力される映像信号に基づいて表示画面13を表示し、表示画面13上のポインタ14の動きに基づいて、表示画面13に対する操作、又は設定等を受け付ける。 Therefore, the electronic whiteboard 100 according to the present embodiment displays the display screen 13 based on the video signal input from the information terminal 10 via the video signal cable 11, and displays the display screen 13 based on the movement of the pointer 14 on the display screen 13. to accept an operation or setting for the display screen 13 .

これにより、電子黒板100は、情報端末10から入力される映像信号に基づいて、表示画面13をリアルタイムに表示しつつ、表示画面13に対する操作を受け付けることができる。従って、本実施形態によれば、情報端末10と表示画面を共有し、情報端末10から表示画面13に対する操作、又は設定を受け付ける表示装置(電子黒板100等)において、リアルタイム性を確保できるようになる。 As a result, the electronic whiteboard 100 can receive an operation on the display screen 13 while displaying the display screen 13 in real time based on the video signal input from the information terminal 10 . Therefore, according to the present embodiment, a display device (such as the electronic whiteboard 100) that shares the display screen with the information terminal 10 and receives operations or settings for the display screen 13 from the information terminal 10 can ensure real-time performance. Become.

なお、電子黒板100は、本実施形態に係る表示装置の一例である。電子黒板100は、例えば、電子ホワイトボード、電子情報ボード等と呼ばれても良い。また、本実施形態は、様々な情報処理装置に好適に適用できる。情報処理装置は、例えば、デジタルサイネージ等の出力装置、産業用機械、ゲーム機等であっても良い。 Note that the electronic blackboard 100 is an example of the display device according to the present embodiment. The electronic blackboard 100 may be called an electronic whiteboard, an electronic information board, or the like, for example. Also, the present embodiment can be suitably applied to various information processing apparatuses. The information processing device may be, for example, an output device such as digital signage, an industrial machine, a game machine, or the like.

本実施形態では、操作者は、電子黒板100が備えるタッチセンサを利用せずに、電子黒板100を操作することができる。従って、本実施形態に係る表示装置は、タッチセンサを有していないディスプレイ、又はプロジェクタ等、コンピュータの構成を備える様々な表示装置であって良い。 In the present embodiment, the operator can operate the electronic blackboard 100 without using the touch sensors included in the electronic blackboard 100 . Therefore, the display device according to the present embodiment may be various display devices having a computer configuration, such as a display without a touch sensor or a projector.

<ハードウェア構成>
次に、本実施形態に係る表示装置のハードウェア構成について説明する。
<Hardware configuration>
Next, the hardware configuration of the display device according to this embodiment will be described.

(電子黒板のハードウェア構成)
図2は、一実施形態に係る電子黒板のハードウェア構成の例を示す図である。図2に示されているように、電子黒板100は、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、SSD(Solid State Drive)104、ネットワークI/F(Interface)105、及び、外部機器接続I/F106等を備えている。
(Hardware configuration of electronic blackboard)
FIG. 2 is a diagram illustrating an example of the hardware configuration of the electronic blackboard according to one embodiment. As shown in FIG. 2, the electronic blackboard 100 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an SSD (Solid State Drive) 104, a network I/ It has an F (Interface) 105, an external device connection I/F 106, and the like.

これらのうち、CPU101は、電子黒板100全体の動作を制御する演算装置である。ROM102は、CPU101やIPL(Initial Program Loader)等のCPU101の起動に用いられるプログラムを記憶する不揮発性のメモリである。RAM103は、CPU101のワークエリアとして使用される揮発性のメモリである。SSD104は、電子黒板100用のプログラム等の各種データを記憶する大容量で不揮発性の記憶装置である。 Among these, the CPU 101 is an arithmetic unit that controls the operation of the electronic blackboard 100 as a whole. The ROM 102 is a non-volatile memory that stores programs used to start the CPU 101, such as the CPU 101 and an IPL (Initial Program Loader). A RAM 103 is a volatile memory used as a work area for the CPU 101 . The SSD 104 is a large-capacity, nonvolatile storage device that stores various data such as programs for the electronic blackboard 100 .

ネットワークI/F105は、電子黒板100を通信ネットワークに接続し、通信を行うための通信インタフェースである。外部機器接続I/F106は、各種の外部機器を接続するためのインタフェースである。 A network I/F 105 is a communication interface for connecting the electronic blackboard 100 to a communication network and performing communication. The external device connection I/F 106 is an interface for connecting various external devices.

また、電子黒板100は、キャプチャデバイス111、GPU(Graphics Processing Unit)112、ディスプレイコントローラ113、接触センサ114、センサコントローラ115、電子ペンコントローラ116、近距離通信回路119、及び近距離通信回路119のアンテナ119a、電源スイッチ117及び選択スイッチ類118等を備えている。 The electronic blackboard 100 also includes a capture device 111, a GPU (Graphics Processing Unit) 112, a display controller 113, a contact sensor 114, a sensor controller 115, an electronic pen controller 116, a near field communication circuit 119, and an antenna for the near field communication circuit 119. 119a, a power switch 117, selection switches 118, and the like.

これらのうち、キャプチャデバイス111は、外付けの情報端末10のディスプレイ等に表示されている表示画面等を、静止画、又は動画としてキャプチャ(取得)する。GPU112は、グラフィクスを専門に扱う半導体チップ(プロセッサ)である。ディスプレイコントローラ113は、GPU112からの出力画像をディスプレイ12等へ出力するために画面表示の制御及び管理を行う。接触センサ114は、ディスプレイ12上に電子ペン130やユーザの手H等が接触したことを検知する。センサコントローラ115は、接触センサ114の処理を制御する。 Among these, the capture device 111 captures (obtains) a display screen or the like displayed on a display or the like of the external information terminal 10 as a still image or moving image. The GPU 112 is a semiconductor chip (processor) that specializes in graphics. A display controller 113 controls and manages screen display in order to output an output image from the GPU 112 to the display 12 or the like. The contact sensor 114 detects that the electronic pen 130 , the user's hand H, or the like touches the display 12 . A sensor controller 115 controls the processing of the contact sensor 114 .

接触センサ114は、例えば、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ12の上側両端部に設置された2つ受発光装置が、ディスプレイ12に平行して複数の赤外線を放射し、ディスプレイ12の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ114は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ115に出力し、センサコントローラ115が、物体の接触位置である座標位置を特定する。電子ペンコントローラ116は、電子ペン130と通信することで、ディスプレイ12へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信回路119は、アンテナ119aを介して、他の機器と近距離無線通信を行う通信回路である。 The contact sensor 114 performs coordinate input and coordinate detection using, for example, an infrared shielding method. In this method of inputting coordinates and detecting coordinates, two light emitting/receiving devices installed at both ends of the upper side of the display 12 radiate a plurality of infrared rays parallel to the display 12, and are provided around the display 12. This is a method of receiving light that is reflected by a reflecting member and returns along the same optical path as that of light emitted by a light receiving element. The contact sensor 114 outputs to the sensor controller 115 the ID of the infrared rays emitted by the two light emitting/receiving devices blocked by the object, and the sensor controller 115 identifies the coordinate position, which is the contact position of the object. The electronic pen controller 116 communicates with the electronic pen 130 to determine whether or not the display 12 has been touched with the tip of the pen or the bottom of the pen. The short-range communication circuit 119 is a communication circuit that performs short-range wireless communication with another device via an antenna 119a.

電源スイッチ117は、電子黒板100の電源のオン/オフを切り換えるためのスイッチである。選択スイッチ類118は、例えば、ディスプレイ12の表示の明暗や色合い等を調整するためのスイッチ群である。 The power switch 117 is a switch for switching on/off the power of the electronic blackboard 100 . The selection switches 118 are, for example, a group of switches for adjusting the brightness and color of the display on the display 12 .

さらに、電子黒板100は、バスライン120を備えている。バスライン120は、図2に示されているCPU101等の各構成要素を電気的に接続するためのアドレスバス、データバス、及び各種の制御信号等を含む。 Further, the electronic blackboard 100 has a bus line 120 . The bus line 120 includes an address bus, a data bus, various control signals, etc. for electrically connecting each component such as the CPU 101 shown in FIG.

なお、接触センサ114は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル等を用いても良い。また、接触センサ114は、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネル等の種々の検出手段を用いても良い。さらに、電子ペンコントローラ116が、電子ペン130のペン先及びペン尻だけでなく、電子ペン130のユーザが握る部分や、その他の電子ペンの部分におけるタッチの有無を判断するようにしても良い。 Note that the contact sensor 114 is not limited to the infrared shielding type, but is a capacitive type touch panel that identifies the contact position by detecting changes in capacitance, and identifies the contact position by voltage changes of two opposing resistive films. A resistive touch panel or the like may be used. Further, the contact sensor 114 may use various detection means such as an electromagnetic induction type touch panel that detects electromagnetic induction generated when a contacting object touches the display unit and identifies the contact position. Further, the electronic pen controller 116 may determine whether or not the user grips the electronic pen 130 or other parts of the electronic pen as well as the tip and the pen butt of the electronic pen 130 .

(プロジェクタのハードウェア構成)
図3は、一実施形態に係るプロジェクタのハードウェア構成の例を示す図である。なお、プロジェクタは、タッチセンサを有していない表示装置の一例である。図3に示すように、プロジェクタ300は、CPU301、ROM302、RAM303、メディアI/F305、操作部306、電源スイッチ307、ネットワークI/F308、音出力I/F309、キャプチャデバイス310、ファン駆動回路311、冷却ファン312、LED(Light Emitting Diode)駆動回路313、LED光源314、投写デバイス315、投写レンズ316、スピーカ317、及びバスライン318等を備えている。
(Hardware configuration of the projector)
FIG. 3 is a diagram illustrating an example of a hardware configuration of a projector according to one embodiment; Note that a projector is an example of a display device that does not have a touch sensor. As shown in FIG. 3, the projector 300 includes a CPU 301, a ROM 302, a RAM 303, a media I/F 305, an operation unit 306, a power switch 307, a network I/F 308, a sound output I/F 309, a capture device 310, a fan driving circuit 311, It includes a cooling fan 312, an LED (Light Emitting Diode) driving circuit 313, an LED light source 314, a projection device 315, a projection lens 316, a speaker 317, a bus line 318, and the like.

これらのうち、CPU301は、プロジェクタ300全体の動作を制御する。ROM302は、CPU301の駆動に用いられるプログラムを記憶する。RAM303は、CPU301のワークエリアとして使用される。メディアI/F305は、外部記憶装置であるメディア304に対するデータの読み出し又は書き込み(記憶)を制御する。 Among these, the CPU 301 controls the operation of the projector 300 as a whole. The ROM 302 stores programs used to drive the CPU 301 . A RAM 303 is used as a work area for the CPU 301 . A media I/F 305 controls reading or writing (storage) of data to a media 304 that is an external storage device.

操作部306は、種々のキー、ボタン及びLED等が配設されており、ユーザによるプロジェクタ300の電源のオン、及びオフ以外の各種操作を行うのに使用される。操作部306は、例えば、投写画像の大きさの調整操作、色調の調整操作、ピント調整操作、又はキーストン調整操作等の指示操作を受け付けて、受け付けた操作内容をCPU301に出力する。電源スイッチ307は、プロジェクタ300の電源のオン、及びオフ操作を受け付けるスイッチである。 An operation unit 306 has various keys, buttons, LEDs, etc., and is used by the user to perform various operations other than turning on and off the power of the projector 300 . The operation unit 306 receives an instruction operation such as a size adjustment operation of a projected image, a color tone adjustment operation, a focus adjustment operation, or a keystone adjustment operation, and outputs the contents of the received operation to the CPU 301 . A power switch 307 is a switch that accepts power-on and power-off operations of the projector 300 .

ネットワークI/F308は、例えば、無線LAN、又は有線LAN等のプロジェクタ300をネットワークに接続するためのインタフェースである。音出力I/F309は、CPU301からの制御に従って、スピーカ317から音を出力するための回路である。キャプチャデバイス310は、外付けの情報端末10のディスプレイ等に表示されている表示画面等を、静止画、又は動画としてキャプチャ(取得)する。 A network I/F 308 is an interface for connecting the projector 300 to a network such as a wireless LAN or a wired LAN. A sound output I/F 309 is a circuit for outputting sound from the speaker 317 under the control of the CPU 301 . The capture device 310 captures (acquires) the display screen or the like displayed on the display or the like of the external information terminal 10 as a still image or moving image.

ファン駆動回路311は、CPU301及び冷却ファン312に接続されており、CPU301からの制御信号に基づいて、冷却ファン312の駆動、及び駆動停止を行う。冷却ファン312は、回転することで、プロジェクタ300内部の空気を排気して、プロジェクタ300内部を冷却する。 A fan driving circuit 311 is connected to the CPU 301 and the cooling fan 312 , and drives and stops the cooling fan 312 based on a control signal from the CPU 301 . Cooling fan 312 rotates to exhaust the air inside projector 300 and cool the inside of projector 300 .

LED駆動回路313は、CPU301の制御下で、LED光源314等の点灯及び消灯を制御する。LED光源314は、LED駆動回路313の制御によって点灯されると、投写光を投写デバイス315に照射する。投写デバイス315は、表示対象となる画像データに基づいて、空間光変調方式によりLED光源314からの投写光を変調して得た変調光を、投写レンズ316を通して、スクリーンの投写面へ画像として投写する。投写デバイス315としては、例えば、液晶パネルまたはDMD(Digital Micromirror Device)等が用いられている。上記LED駆動回路313、LED光源314、投写デバイス315及び投写レンズ316は、全体として、画像データに基づいて投写面に投写画像を投写する投写部(投写手段)として機能する。 The LED driving circuit 313 controls lighting and extinguishing of the LED light source 314 and the like under the control of the CPU 301 . The LED light source 314 irradiates the projection device 315 with projection light when turned on under the control of the LED drive circuit 313 . The projection device 315 projects the modulated light obtained by modulating the projection light from the LED light source 314 by the spatial light modulation method based on the image data to be displayed onto the projection surface of the screen through the projection lens 316 as an image. do. As the projection device 315, for example, a liquid crystal panel or a DMD (Digital Micromirror Device) is used. The LED driving circuit 313, the LED light source 314, the projection device 315, and the projection lens 316 as a whole function as a projection section (projection means) that projects a projection image onto a projection surface based on image data.

バスライン318は、図3において、バスライン318に接続されている各構成要素を電気的に接続するためのアドレスバス、データバス、及び各種の制御信号等を含む。 The bus line 318 includes, in FIG. 3, an address bus, a data bus, various control signals, etc. for electrically connecting each component connected to the bus line 318 .

上記の構成において、CPU301は、電源電力が供給されると、ROM302に予め記憶されている制御プログラムに従って起動し、LED駆動回路313に制御信号を与えてLED光源314を点灯させる。また、CPU301は、ファン駆動回路311に制御信号を与えて冷却ファン312を所定の定格回転数で回転させる。さらに、プロジェクタ300は、電源電力の供給が開始されると、投写デバイス315が画像表示可能状態になり、更に、他の種々の構成要素へ電源電力が供給される。 In the above configuration, when the power is supplied, the CPU 301 is activated according to a control program pre-stored in the ROM 302 and gives a control signal to the LED driving circuit 313 to light the LED light source 314 . The CPU 301 also gives a control signal to the fan driving circuit 311 to rotate the cooling fan 312 at a predetermined rated rotation speed. Furthermore, in the projector 300, when power supply is started, the projection device 315 becomes ready for image display, and power is supplied to various other components.

また、プロジェクタ300は、電源スイッチ307がオフ操作されると、電源スイッチ307から電源オフ信号がCPU301に送られ、CPU301は、電源オフ信号を検知すると、LED駆動回路313へ制御信号を与えてLED光源314を消灯させる。CPU301は、その後、所定時間が経過すると、ファン駆動回路311へ制御信号を与えて冷却ファン312を停止させるとともに、自身で自身の制御処理を終了させ、最後に電源回路へ指示を与えて電源電力の供給を停止させる。 When the power switch 307 of the projector 300 is turned off, the power switch 307 sends a power off signal to the CPU 301. When the CPU 301 detects the power off signal, the CPU 301 gives a control signal to the LED driving circuit 313 to turn off the LED. Light source 314 is turned off. After that, after a predetermined time has passed, the CPU 301 gives a control signal to the fan driving circuit 311 to stop the cooling fan 312, terminates its own control processing, and finally gives an instruction to the power supply circuit to turn off the power supply. stop the supply of

<機能構成>
(電子黒板の機能構成)
図4は、一実施形態に係る電子黒板の機能構成の例を示す図である。電子黒板(表示装置の一例)100は、例えば、SSD104等の記憶媒体に記憶したプログラムをCPU101が実行することにより、入力部401、表示部402、取得部403、検出部404、変換部405、受付部406、及び記憶部407等を実現している。なお、上記の各機能構成のうち、少なくとも一部は、ハードウェアによって実現されるものであっても良い。
<Functional configuration>
(Functional configuration of electronic blackboard)
FIG. 4 is a diagram illustrating an example of the functional configuration of the electronic blackboard according to one embodiment. The electronic blackboard (an example of the display device) 100 has an input unit 401, a display unit 402, an acquisition unit 403, a detection unit 404, a conversion unit 405, It implements a reception unit 406, a storage unit 407, and the like. It should be noted that at least part of the functional configurations described above may be realized by hardware.

入力部401は、情報端末10から映像信号の入力を受け付ける入力処理を実行する。例えば、入力部401は、キャプチャデバイス111を用いて、情報端末10から入力される映像信号をキャプチャする。 The input unit 401 performs input processing for receiving an input of a video signal from the information terminal 10 . For example, the input unit 401 uses the capture device 111 to capture video signals input from the information terminal 10 .

表示部402は、情報端末10から入力部401に入力された映像信号に基づいて表示画面を表示する表示処理を実行する。例えば、表示部402は、図1に示すように、電子黒板100のディスプレイ12に、情報端末10が表示している画面、及び操作ボタン15等を表示する表示画面13を表示する。なお、操作ボタン15は、表示画面13又は電子黒板100に対する操作を受け付ける表示要素の一例である。 The display unit 402 executes display processing for displaying a display screen based on the video signal input from the information terminal 10 to the input unit 401 . For example, the display unit 402 displays the screen displayed by the information terminal 10 and the display screen 13 for displaying the operation buttons 15 and the like on the display 12 of the electronic blackboard 100, as shown in FIG. Note that the operation button 15 is an example of a display element that receives an operation on the display screen 13 or electronic whiteboard 100 .

取得部403は、入力部401に入力された映像信号に基づいて、表示画面13上の画像の変化を取得する。例えば、取得部403は、表示画面13上の位置を示す、情報端末10のマウスポインタ等のポインタ14の軌跡を取得する。なお、ポインタの軌跡は、表示画面13上の位置を示す画像の変化の一例である。 The acquisition unit 403 acquires changes in the image on the display screen 13 based on the video signal input to the input unit 401 . For example, the acquisition unit 403 acquires the trajectory of the pointer 14 such as the mouse pointer of the information terminal 10 indicating the position on the display screen 13 . Note that the locus of the pointer is an example of change in the image indicating the position on the display screen 13 .

検出部404は、取得部403が取得したポインタ14の軌跡から、所定のジェスチャを検出する検出処理を実行する。例えば、検出部404は、ポインタ14の軌跡によって、「選択」、「取り消し」、又は「戻る」などの操作を表す、予め定められた所定のジェスチャを検出する。 The detection unit 404 executes detection processing for detecting a predetermined gesture from the trajectory of the pointer 14 acquired by the acquisition unit 403 . For example, the detection unit 404 detects a predetermined gesture representing an operation such as “select”, “cancel”, or “return” from the trajectory of the pointer 14 .

変換部405は、検出部404が検出したジェスチャの軌跡の座標を、電子黒板100上の座標に変換する変換処理を実行する。なお、検出部404、又は変換部405等は、受付部406に含まれていても良い。 The conversion unit 405 executes a conversion process of converting the coordinates of the trajectory of the gesture detected by the detection unit 404 into coordinates on the electronic blackboard 100 . Note that the detection unit 404 , the conversion unit 405 , or the like may be included in the reception unit 406 .

受付部406は、取得部403が取得したポインタの軌跡に基づいて、表示画面13に対する操作を受け付ける受付処理を実行する。一例として、受付部406は、検出部404が検出したジェスチャが「選択」操作を表す場合、変換部405が電子黒板100上の座標に変換したジェスチャの軌跡の座標から、選択された操作ボタン15を特定し、特定した操作ボタン15の選択操作を受け付ける。 The receiving unit 406 executes receiving processing for receiving an operation on the display screen 13 based on the trajectory of the pointer acquired by the acquiring unit 403 . As an example, when the gesture detected by the detection unit 404 represents a “select” operation, the reception unit 406 extracts the coordinates of the selected operation button 15 from the coordinates of the trajectory of the gesture converted by the conversion unit 405 into the coordinates on the electronic whiteboard 100 . is specified, and selection operation of the specified operation button 15 is accepted.

別の一例として、受付部406は、検出部404が検出したジェスチャが「取り消し」操作を示す場合、直前の操作を取り消す取り消し操作を受け付ける。この場合、変換部405は、ジェスチャの軌跡の座標を電子黒板100上の座標に変換する変換処理を実行しなくても良い(しても良い)。 As another example, when the gesture detected by the detection unit 404 indicates an “undo” operation, the reception unit 406 receives an undo operation for undoing the immediately preceding operation. In this case, the conversion unit 405 may not (may) perform conversion processing for converting the coordinates of the trajectory of the gesture to the coordinates on the electronic blackboard 100 .

記憶部407は、例えば、CPU101が実行するプログラムと、RAM103、又はSSD104等のメモリによって実現され、例えば、ポインタの座標データ、又は所定のジェスチャの情報等の様々なデータ又は情報を記憶する。 The storage unit 407 is implemented by, for example, a program executed by the CPU 101 and a memory such as the RAM 103 or SSD 104, and stores various data or information such as pointer coordinate data or predetermined gesture information.

(プロジェクタの機能構成)
プロジェクタ300は、例えば、ROM302、又はメディア304等の記憶媒体に記憶したプログラムをCPU301が実行することにより、図4に示した電子黒板100の機能構成と同様の機能構成を実現する。プロジェクタ300の各機能構成は、電子黒板100の各機能構成と同様なので、ここでは説明を省略する。
(Functional configuration of projector)
The projector 300 implements a functional configuration similar to the functional configuration of the electronic whiteboard 100 shown in FIG. Since each functional configuration of the projector 300 is the same as each functional configuration of the electronic whiteboard 100, description thereof will be omitted here.

<処理の流れ>
続いて、第1の実施形態に係る表示制御方法の処理の流れについて説明する。
<Process flow>
Next, the processing flow of the display control method according to the first embodiment will be described.

(操作の受付処理)
図5は、第1の実施形態に係る操作の受付処理の例を示すフローチャートである。この処理は、例えば、図1に示す表示システム1において、情報端末10を操作する操作者が、マウスポインタ等を用いて、電子黒板100の表示画面13上に表示された操作ボタン15に対して行った操作を、電子黒板100が受付する受付処理の一例を示している。
(Operation reception processing)
FIG. 5 is a flowchart illustrating an example of operation reception processing according to the first embodiment. For example, in the display system 1 shown in FIG. An example of reception processing for the electronic blackboard 100 to receive the performed operation is shown.

ステップS501において、電子黒板100の取得部403は、入力部401に入力された映像信号から、表示画面13上の位置を示すポインタ14を検出する。例えば、取得部403は、図6に示すように、フレーム1と、フレーム1の次のフレームであるフレーム2との間で、フレーム間の輝度差分を算出し、閾値により2値化する。これにより、例えば、図6のフレーム間差分600に示すように、ポインタ14の移動前の座標601と移動後の座標602とを取得することができる。なお、ポインタ14の検出方法は、これに限られず、任意の検出方法であって良い。 In step S<b>501 , the acquisition unit 403 of the electronic whiteboard 100 detects the pointer 14 indicating the position on the display screen 13 from the video signal input to the input unit 401 . For example, as shown in FIG. 6, the acquisition unit 403 calculates the luminance difference between frames between frame 1 and frame 2, which is the frame next to frame 1, and binarizes it using a threshold value. As a result, for example, coordinates 601 before movement and coordinates 602 after movement of the pointer 14 can be obtained, as shown in an inter-frame difference 600 in FIG. In addition, the detection method of the pointer 14 is not limited to this, and any detection method may be used.

ステップS502において、ポインタ14を検出できた場合、取得部403は、処理をステップS503に移行させる。一方、ポインタ14を検出できない場合、取得部403は、処理をステップS501に戻す。 In step S502, when the pointer 14 can be detected, the acquisition unit 403 shifts the process to step S503. On the other hand, if the pointer 14 cannot be detected, the obtaining unit 403 returns the process to step S501.

ステップS503に移行すると、取得部403は、検出したポインタ14の軌跡を取得する。例えば、取得部403は、検出したポインタ14の座標を取得し、取得した座標を所定の期間、記憶部407に順次に記憶することにより、ポインタ14の座標の軌跡を取得する。 After moving to step S<b>503 , the acquisition unit 403 acquires the detected trajectory of the pointer 14 . For example, the acquisition unit 403 acquires the detected coordinates of the pointer 14 and sequentially stores the acquired coordinates in the storage unit 407 for a predetermined period, thereby acquiring the trajectory of the coordinates of the pointer 14 .

ステップS504において、電子黒板100の検出部404は、取得部403が取得したポインタ14の軌跡から所定のジェスチャを検出する。一例として、検出部404は、予め定められた複数のジェスチャの軌跡情報を記憶部407に記憶しておき、記憶した軌跡情報と、取得部403が取得したポインタ14の軌跡との差分を取り、全画素値の和が最も少ないジェスチャを検出しても良い。また、別の一例として、検出部404は、機械学習により、ユーザのジェスチャ動作を事前に学習させておき、取得部403が取得したポインタ14の軌跡を読み込ませることによりジェスチャを検出しても良い。 In step S<b>504 , the detection unit 404 of the electronic blackboard 100 detects a predetermined gesture from the trajectory of the pointer 14 acquired by the acquisition unit 403 . As an example, the detection unit 404 stores trajectory information of a plurality of predetermined gestures in the storage unit 407, calculates the difference between the stored trajectory information and the trajectory of the pointer 14 acquired by the acquisition unit 403, A gesture with the smallest sum of all pixel values may be detected. As another example, the detection unit 404 may detect the gesture by learning the user's gesture motion in advance by machine learning and reading the trajectory of the pointer 14 acquired by the acquisition unit 403 . .

或いは、検出部404は、予め定められた複数のジェスチャから抽出した特徴量を記憶部407に予め記憶しておき、取得部403が取得したポインタ14の軌跡から抽出した特徴量との類似度を算出し、類似度が閾値以上となるジェスチャを検出しても良い。 Alternatively, the detection unit 404 stores in advance the feature amount extracted from a plurality of predetermined gestures in the storage unit 407, and calculates the similarity with the feature amount extracted from the trajectory of the pointer 14 acquired by the acquisition unit 403. It is also possible to detect a gesture whose degree of similarity is equal to or greater than a threshold.

ステップS505において、所定のジェスチャを検出できた場合、検出部404は、処理をステップS506に移行させる。一方、所定のジェスチャを検出できない場合、検出部404は、処理をステップS501に戻す。 In step S505, if the predetermined gesture can be detected, the detection unit 404 causes the process to proceed to step S506. On the other hand, if the predetermined gesture cannot be detected, the detection unit 404 returns the processing to step S501.

ステップS506に移行すると、電子黒板100の変換部405は、検出部404が検出したジェスチャの軌跡の座標を、電子黒板100上の座標に変換する。例えば、図7(A)、(B)に示すように、情報端末10の座標空間と、電子黒板100の座標空間とが異なる場合、変換部405は、情報端末10の座標空間上のポインタ14の軌跡を、電子黒板100の座標空間上の軌跡に変換する。このとき、変換部405は、ポインタ14の軌跡の全てを変換しても良いし、既にジェスチャが確定しているため、ジェスチャの中心座標等を変換しても良い。 In step S<b>506 , the conversion unit 405 of the electronic blackboard 100 converts the coordinates of the trajectory of the gesture detected by the detection unit 404 into coordinates on the electronic blackboard 100 . For example, as shown in FIGS. 7A and 7B, when the coordinate space of the information terminal 10 and the coordinate space of the electronic blackboard 100 are different, the conversion unit 405 converts the pointer 14 in the coordinate space of the information terminal 10 is transformed into a trajectory on the coordinate space of the electronic blackboard 100 . At this time, the conversion unit 405 may convert the entire trajectory of the pointer 14, or may convert the center coordinates of the gesture, etc., since the gesture has already been determined.

ステップS507において、電子黒板100の受付部406は、変換部405が変換したジェスチャの位置に対応する操作ボタン15を検出する。例えば、表示部402が、図8に示すように、表示画面13上に複数の操作ボタン15a~eを表示しており、操作ボタン15aの周囲に、変換したジェスチャ801があるものとする。この場合、受付部406は、ジェスチャ801に対応する(ジェスチャ801で囲まれた)操作ボタン15aを検出する。或いは、受付部406は、ジェスチャ801の中心座標から、所定の距離以内にある操作ボタン15aを、ジェスチャ801に対応する操作ボタン15として検出しても良い。 In step S<b>507 , the receiving unit 406 of the electronic whiteboard 100 detects the operation button 15 corresponding to the position of the gesture converted by the converting unit 405 . For example, assume that the display unit 402 displays a plurality of operation buttons 15a to 15e on the display screen 13 as shown in FIG. 8, and that there is a converted gesture 801 around the operation button 15a. In this case, the reception unit 406 detects the operation button 15a corresponding to the gesture 801 (surrounded by the gesture 801). Alternatively, the reception unit 406 may detect the operation button 15 a within a predetermined distance from the center coordinates of the gesture 801 as the operation button 15 corresponding to the gesture 801 .

ステップS508において、操作ボタンを検出できた場合、受付部406は、処理をステップS509に移行させる。一方、操作ボタンを検出できない場合、受付部406は、処理をステップS501に戻す。 In step S508, if the operation button can be detected, the reception unit 406 causes the process to proceed to step S509. On the other hand, if the operation button cannot be detected, the reception unit 406 returns the process to step S501.

ステップS509に移行すると、検出した操作ボタン15、及びジェスチャに対応する操作を受け付ける。図9は、一実施形態に係るジェスチャの例について説明する図である。一例として、受付部406は、検出した操作ボタン15を、図9のジェスチャA901のような丸で囲うジェスチャを、操作ボタン15を選択する選択操作として受付しても良い。 When the process proceeds to step S509, an operation corresponding to the detected operation button 15 and gesture is accepted. FIG. 9 is a diagram illustrating examples of gestures according to one embodiment. As an example, the accepting unit 406 may accept a gesture of circling the detected operation button 15, such as the gesture A901 in FIG.

別の一例として、受付部406は、検出した操作ボタン15を、図9のジェスチャB902のようにチェックするジェスチャを、検出した操作ボタン15を選択する選択操作として受付しても良い。或いは、受付部406は、検出した操作ボタン上で、図9のジェスチャB902のようにチェックするジェスチャを、操作ボタン15の選択を解除する解除操作として受付しても良い。 As another example, the accepting unit 406 may accept a gesture of checking the detected operation button 15 as a selection operation for selecting the detected operation button 15, such as the gesture B902 in FIG. Alternatively, the accepting unit 406 may accept a gesture of checking on the detected operation button, such as the gesture B902 in FIG.

別の一例として、受付部406は、検出した操作ボタン15上で、図9のジェスチャC903のように、所定の回数以上、ポインタ14を左右に動かすジェスチャを、操作ボタン15の選択を取り消す取消操作として受付しても良い。なお、上述した各操作は一例であり、受付部406が受け付けるジェスチャは任意のジェスチャであって良い。 As another example, the reception unit 406 performs a gesture of moving the pointer 14 to the left or right a predetermined number of times or more on the detected operation button 15, such as gesture C903 in FIG. may be accepted as Note that each operation described above is an example, and the gestures accepted by the accepting unit 406 may be arbitrary gestures.

図5に示す操作の受付処理により、電子黒板100は、情報端末10から入力される映像信号に基づいて表示画面13を表示しつつ、表示画面13上のポインタ14の動きに基づいて、表示画面13に対する操作を受け付けることができる。 5, the electronic blackboard 100 displays the display screen 13 based on the video signal input from the information terminal 10, and displays the display screen based on the movement of the pointer 14 on the display screen 13. 13 can be accepted.

なお、電子黒板100の表示部402は、例えば、ページ切替、拡大縮小、画面保存等の表示画面13に対する操作又は設定を受け付ける操作ボタン15を表示し、受付部406は、操作者による表示画面13に対する操作を受け付けても良い。また、電子黒板100の表示部402は、例えば、輝度、コントラスト、アスペクト、音量、省電力機能等の電子黒板100に対する操作又は設定を受け付ける操作ボタン15を表示し、受付部406は、操作者による電子黒板100に対する操作を受け付けても良い。 Note that the display unit 402 of the electronic blackboard 100 displays operation buttons 15 for receiving operations or settings for the display screen 13 such as page switching, scaling, screen saving, etc., and the receiving unit 406 displays the display screen 13 by the operator. You may accept the operation for . Further, the display unit 402 of the electronic blackboard 100 displays the operation buttons 15 for receiving operations or settings for the electronic blackboard 100 such as brightness, contrast, aspect, volume, power saving function, etc., and the receiving unit 406 displays the An operation on the electronic blackboard 100 may be accepted.

また、図5では、表示装置が電子黒板100であるものとして説明を行ったが、図5の処理は、タッチセンサを用いないので、例えば、プロジェクタ300等のタッチセンサを有していない表示装置にも、同様の処理を適用することができる。 5 has been described assuming that the display device is the electronic whiteboard 100, but since the processing in FIG. A similar process can also be applied to

[第2の実施形態]
第1の実施形態では、電子黒板100の受付部406は、操作ボタン15、及びジェスチャに対応する操作を受付していたが、これに限られず、受付部406は、操作ボタン15に依存しないジェスチャに対応する操作を、さらに受付しても良い。
[Second embodiment]
In the first embodiment, the reception unit 406 of the electronic blackboard 100 receives the operation corresponding to the operation button 15 and the gesture. You may further receive an operation corresponding to .

一例として、受付部406は、表示画面13上の任意のエリアで、図9のジェスチャC903のように、所定の回数以上、ポインタ14を左右に動かすジェスチャを、直前の操作を取り消しする取消操作として受付しても良い。別の一例として、受付部406は、任意のエリアで、図9のジェスチャDのように「Z」の形を描くジェスチャを、直前の画面、又は操作前の状態に戻る操作として受付しても良い。 As an example, the reception unit 406 recognizes a gesture of moving the pointer 14 left or right a predetermined number of times or more, such as gesture C903 in FIG. You can accept it. As another example, the receiving unit 406 may receive, in any area, a gesture of drawing a "Z" shape, such as the gesture D in FIG. good.

<処理の流れ>
図10は、第2の実施形態に係る操作の受付処理の例を示すフローチャートである。この処理は、図1に示す表示システム1において、情報端末10を操作する操作者が、マウスポインタ等を用いて、電子黒板100の表示画面13上に表示された操作ボタン15に対して行った操作を、電子黒板100が受付する受付処理の別の一例を示している。
<Process flow>
FIG. 10 is a flowchart illustrating an example of operation reception processing according to the second embodiment. In the display system 1 shown in FIG. 1, the operator who operates the information terminal 10 uses the mouse pointer or the like to perform this process on the operation buttons 15 displayed on the display screen 13 of the electronic blackboard 100. Another example of reception processing in which the electronic blackboard 100 receives an operation is shown.

なお、図10に示す処理のうち、ステップS501~S504、及びS506~S509の処理は、図5で説明した第1の実施形態に係る操作の受付処理と同様なので、ここでは説明を省略する。また、第2の実施形態に係る電子黒板100の機能構成は、図4に示した第1の実施形態に係る電子黒板100の機能構成と同様で良い。 10, steps S501 to S504 and S506 to S509 are the same as the operation reception processing according to the first embodiment described with reference to FIG. 5, and therefore descriptions thereof are omitted here. Also, the functional configuration of the electronic blackboard 100 according to the second embodiment may be the same as the functional configuration of the electronic blackboard 100 according to the first embodiment shown in FIG.

図10のステップS505において、所定のジェスチャを検出できた場合、電子黒板100の検出部404は、処理をステップS1001に移行させる。 In step S505 of FIG. 10, when the predetermined gesture is detected, the detection unit 404 of the electronic whiteboard 100 shifts the process to step S1001.

ステップS1001に移行すると、電子黒板100の受付部406は、検出部404が検出したジェスチャが、操作ボタン15に依存するジェスチャであるか否かを判断する。例えば、受付部406は、所定のジェスチャを、操作ボタン15に依存するジェスチャと、操作ボタン15に依存しないジェスチャとに分けて、記憶部407に記憶しておくことにより、検出したジェスチャが操作ボタン15に依存するか否かを判断することができる。 In step S<b>1001 , the reception unit 406 of the electronic blackboard 100 determines whether the gesture detected by the detection unit 404 is a gesture dependent on the operation button 15 . For example, the reception unit 406 classifies predetermined gestures into gestures that depend on the operation button 15 and gestures that do not depend on the operation button 15, and stores them in the storage unit 407. 15 can be determined.

検出したジェスチャが、操作ボタン15に依存するジェスチャである場合、受付部406は、処理をステップS506に移行させる。一方、検出したジェスチャが、操作ボタン15に依存しないジェスチャである場合、受付部406は、処理をステップS1002に移行させる。 If the detected gesture is a gesture dependent on the operation button 15, the reception unit 406 causes the process to proceed to step S506. On the other hand, if the detected gesture is a gesture that does not depend on the operation button 15, the reception unit 406 causes the process to proceed to step S1002.

ステップS1002に移行すると、受付部406は、検出したジェスチャに対応する操作を受け付ける。一例として、受付部406は、表示画面13上の任意のエリアで、図9のジェスチャC903のように、所定の回数以上、ポインタ14を左右に動かすジェスチャを、直前の操作を取り消しする取消操作として受付しても良い。 After moving to step S1002, the receiving unit 406 receives an operation corresponding to the detected gesture. As an example, the reception unit 406 recognizes a gesture of moving the pointer 14 left or right a predetermined number of times or more, such as gesture C903 in FIG. You can accept it.

別の一例として、受付部406は、任意のエリアで、図9のジェスチャDのように「Z」の形を描くジェスチャを、直前の画面、又は操作前の状態に戻る操作として受付しても良い。なお、上述した各ジェスチャは一例であり、受付部406が受け付けるジェスチャは任意のジェスチャであって良い。 As another example, the receiving unit 406 may receive, in any area, a gesture of drawing a "Z" shape, such as the gesture D in FIG. good. Each gesture described above is an example, and the gesture received by the receiving unit 406 may be any gesture.

図10に示した操作の受付処理により、電子黒板100は、情報端末10から入力される映像信号に基づいて表示画面13を表示し、表示画面13上のポインタ14の動きに基づいて、表示画面13に対する操作を受け付けることができる。 10, the electronic whiteboard 100 displays the display screen 13 based on the video signal input from the information terminal 10, and displays the display screen 13 based on the movement of the pointer 14 on the display screen 13. 13 can be accepted.

なお、図10では、表示装置が電子黒板100であるものとして説明を行ったが、図10の処理は、タッチセンサを用いないので、例えば、プロジェクタ300等のタッチセンサを有していない表示装置にも、同様の処理を適用することができる。 10, the display device is the electronic whiteboard 100, but the process of FIG. 10 does not use a touch sensor. A similar process can also be applied to

[第3の実施形態]
第2の実施形態では、電子黒板100の受付部406は、操作ボタン15に依存するジェスチャ、及び操作ボタン15に依存しないジェスチャに対応する操作を受け付けていたが、受付部406は、操作ボタン15に依存しないジェスチャのみを受け付けても良い。
[Third embodiment]
In the second embodiment, the accepting unit 406 of the electronic blackboard 100 accepts operations corresponding to gestures that depend on the operation buttons 15 and gestures that do not depend on the operation buttons 15 . It may accept only gestures that do not depend on

<機能構成>
第3の実施形態に係る電子黒板100は、一例として、図4で説明した第1の実施形態に係る電子黒板100の機能構成を有している。別の一例として、第3の実施形態に係る電子黒板100は、図4で説明した第1の実施形態に係る電子黒板100の機能構成から、検出部404、及び変換部405を省略した機能構成を有していても良い。
<Functional configuration>
The electronic blackboard 100 according to the third embodiment has, as an example, the functional configuration of the electronic blackboard 100 according to the first embodiment described with reference to FIG. As another example, the electronic blackboard 100 according to the third embodiment has a functional configuration obtained by omitting the detection unit 404 and the conversion unit 405 from the functional configuration of the electronic blackboard 100 according to the first embodiment described with reference to FIG. may have

<処理の流れ>
図11は、第3の実施形態に係る操作の受付処理の例を示すフローチャートである。この処理は、図1に示す表示システム1において、情報端末10を操作する操作者が、マウスポインタ等を用いて、電子黒板100の表示画面13上に表示された操作ボタン15に対して行った操作を、電子黒板100が受付する受付処理の別の一例を示している。なお、図11に示す処理のうち、ステップS501~S504の処理は、図5で説明した第1の実施形態に係る操作の受付処理と同様なので、ここでは説明を省略する。
<Process flow>
FIG. 11 is a flowchart illustrating an example of operation reception processing according to the third embodiment. In the display system 1 shown in FIG. 1, the operator who operates the information terminal 10 uses the mouse pointer or the like to perform this process on the operation buttons 15 displayed on the display screen 13 of the electronic blackboard 100. Another example of reception processing in which the electronic blackboard 100 receives an operation is shown. Note that the processing of steps S501 to S504 in the processing shown in FIG. 11 is the same as the operation reception processing according to the first embodiment described with reference to FIG. 5, so description thereof will be omitted here.

図11のステップS505において、所定のジェスチャを検出できた場合、電子黒板100の検出部404は、処理をステップS1101に移行させる。 In step S505 of FIG. 11, when the predetermined gesture is detected, the detection unit 404 of the electronic blackboard 100 shifts the process to step S1101.

ステップS1101に移行すると、受付部406は、検出したジェスチャに対応する操作を受け付ける。一例として、受付部406は、表示画面13上の任意のエリアで、図9のジェスチャC903のように、所定の回数以上、ポインタ14を左右に動かすジェスチャを、直前の操作を取り消しする取消操作として受付しても良い。 After shifting to step S1101, the receiving unit 406 receives an operation corresponding to the detected gesture. As an example, the reception unit 406 recognizes a gesture of moving the pointer 14 left or right a predetermined number of times or more, such as gesture C903 in FIG. You can accept it.

別の一例として、受付部406は、任意のエリアで、図9のジェスチャDのように「Z」の形を描くジェスチャを、直前の画面、又は操作前の状態に戻る操作として受付しても良い。なお、上記のジェスチャは一例であり、受付部406が受け付けるジェスチャは任意のジェスチャであって良い。 As another example, the receiving unit 406 may receive, in any area, a gesture of drawing a "Z" shape, such as the gesture D in FIG. good. Note that the gestures described above are merely examples, and the gestures accepted by the accepting unit 406 may be arbitrary gestures.

図11に示した操作の受付処理により、電子黒板100は、情報端末10から入力される映像信号に基づいて表示画面13を表示し、表示画面13上のポインタ14の動きに基づいて、表示画面13に対する操作を受け付けることができる。 11, the electronic whiteboard 100 displays the display screen 13 based on the video signal input from the information terminal 10, and displays the display screen 13 based on the movement of the pointer 14 on the display screen 13. 13 can be accepted.

なお、図11では、表示装置が電子黒板100であるものとして説明を行ったが、図11の処理は、タッチセンサを用いないので、例えば、プロジェクタ300等のタッチセンサを有していない表示装置にも、同様の処理を適用することができる。 In FIG. 11, the explanation has been given assuming that the display device is the electronic whiteboard 100. However, since the process of FIG. A similar process can also be applied to

以上、本発明の各実施形態に係る表示装置は、情報端末10から入力される映像信号に基づいて、表示画面13をリアルタイムに表示しつつ、表示画面13に対する操作、又は設定等を受け付けることができる。従って、本実施形態によれば、情報端末10と表示画面を共有し、情報端末10から表示画面13に対する操作を受け付ける表示装置(電子黒板100、又はプロジェクタ300等)において、リアルタイム性を確保できるようになる。 As described above, the display device according to each embodiment of the present invention displays the display screen 13 in real time based on the video signal input from the information terminal 10, and can accept operations or settings for the display screen 13. can. Therefore, according to the present embodiment, the display device (the electronic blackboard 100, the projector 300, or the like) that shares the display screen with the information terminal 10 and receives the operation on the display screen 13 from the information terminal 10 can ensure real-time performance. become.

<補足>
上記で説明した各実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。
<Supplement>
Each function of each embodiment described above can be realized by one or more processing circuits. Here, the "processing circuit" in this specification means a processor programmed by software to perform each function, such as a processor implemented by an electronic circuit, or a processor designed to perform each function described above. ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), FPGAs (field programmable gate arrays) and devices such as conventional circuit modules.

<付記>
本明細書には、下記の各項の通信装置、通信方法、及びプログラムが開示されている。
(第1項)
情報端末から入力される映像信号に基づいて表示画面を表示する表示部と、
前記映像信号から前記表示画面上の位置を示す画像の変化を取得する取得部と、
前記画像の変化に基づいて、前記表示画面に対する操作を受け付ける受付部と、
を有する、表示装置。
(第2項)
前記表示部は、前記表示画面上に、前記表示画面に対する操作、又は設定を受け付ける表示要素を表示する、第1項に記載の表示装置。
(第3項)
前記表示部は、前記表示画面上に、前記表示装置に対する操作、又は設定を受け付ける表示要素を表示する、第1項に記載の表示装置。
(第4項)
前記受付部は、前記表示要素の位置に対応する前記画像の変化に応じて、前記表示要素に対する操作を受け付ける、第2項又は第3項に記載の表示装置。
(第5項)
前記受付部は、前記画像の変化が、予め定められたジェスチャを示す場合、前記ジェスチャに対応する操作を受け付ける、第1項~第4項のいずれかに記載の表示装置。
(第6項)
前記ジェスチャは、選択、取り消し、及び戻る、のうち1つ以上の操作に対応するジェスチャを含む、第5項に記載の表示装置。
(第7項)
前記映像信号は、デジタル、又はアナログの有線信号である、第1項~第4項のいずれかに記載の表示装置。
(第8項)
前記画像の変化は、前記表示画面上の位置を示すポインタの軌跡を含む、第1項~第7のいずれかに記載の表示装置。
(第9項)
情報端末から入力される映像信号に基づいて表示画面を表示する表示部と、
前記映像信号から前記表示画面上の位置を示す画像の変化を取得する取得部と、
前記画像の変化に基づいて、前記表示画面に対する操作を受け付ける受付部と、
を有する、表示システム。
(第10項)
情報端末から入力される映像信号に基づいて表示画面を表示する処理と、
前記映像信号から前記表示画面上の位置を示す画像の変化を取得する処理と、
前記画像の変化に基づいて、前記表示画面に対する操作を受け付ける処理と、
をコンピュータが実行する、表示制御方法。
(第11項)
第10項に記載の表示制御方法をコンピュータに実行させる、プログラム。
(第12項)
情報端末から入力される映像信号に基づいて表示画面を表示する表示部と、
前記映像信号から前記表示画面上の位置を示すポインタの軌跡を取得する取得部と、
前記ポインタの軌跡に基づいて、前記表示画面に対する操作を受け付ける受付部と、
を有する、表示装置。
(第13項)
前記表示部は、前記表示画面上に、前記表示画面に対する操作、又は設定を受け付ける表示要素を表示する、第12項に記載の表示装置。
(第14項)
前記表示部は、前記表示画面上に、前記表示装置に対する操作、又は設定を受け付ける表示要素を表示する、第12項に記載の表示装置。
(第15項)
前記受付部は、前記表示要素の位置に対応する前記ポインタの軌跡に応じて、前記表示要素に対する操作を受け付ける、第13項又は第14項に記載の表示装置。
(第16項)
前記受付部は、前記ポインタの軌跡が、予め定められたジェスチャを示す場合、前記ジェスチャに対応する操作を受け付ける、第12項~第15項のいずれかに記載の表示装置。
(第17項)
前記ジェスチャは、選択、取り消し、及び戻る、のうち1つ以上の操作に対応するジェスチャを含む、第16項に記載の表示装置。
(第18項)
前記映像信号は、デジタル、又はアナログの有線信号である、第12項~第15項のいずれかに記載の表示装置。
(第19項)
情報端末から入力される映像信号に基づいて表示画面を表示する表示部と、
前記映像信号から前記表示画面上の位置を示すポインタの軌跡を取得する取得部と、
前記ポインタの軌跡に基づいて、前記表示画面に対する操作を受け付ける受付部と、
を有する、表示システム。
(第20項)
情報端末から入力される映像信号に基づいて表示画面を表示する処理と、
前記映像信号から前記表示画面上の位置を示すポインタの軌跡を取得する処理と、
前記ポインタの軌跡に基づいて、前記表示画面に対する操作を受け付ける処理と、
をコンピュータが実行する、表示制御方法。
(第21項)
第20項に記載の表示制御方法をコンピュータに実行させる、プログラム。
<Appendix>
This specification discloses a communication device, a communication method, and a program for each of the following items.
(Section 1)
a display unit that displays a display screen based on a video signal input from an information terminal;
an acquisition unit that acquires a change in an image indicating a position on the display screen from the video signal;
a reception unit that receives an operation on the display screen based on the change in the image;
A display device.
(Section 2)
2. The display device according to claim 1, wherein the display unit displays, on the display screen, a display element for accepting an operation or setting for the display screen.
(Section 3)
2. The display device according to claim 1, wherein the display unit displays, on the display screen, display elements for accepting operations or settings for the display device.
(Section 4)
4. The display device according to claim 2 or 3, wherein the reception unit receives an operation on the display element according to a change in the image corresponding to the position of the display element.
(Section 5)
5. The display device according to any one of items 1 to 4, wherein when the change in the image indicates a predetermined gesture, the accepting unit accepts an operation corresponding to the gesture.
(Section 6)
6. The display device of Claim 5, wherein the gestures include gestures corresponding to one or more of select, cancel, and return.
(Section 7)
5. The display device according to any one of items 1 to 4, wherein the video signal is a digital or analog wired signal.
(Section 8)
8. The display device according to any one of items 1 to 7, wherein the change in the image includes a trajectory of a pointer indicating a position on the display screen.
(Section 9)
a display unit that displays a display screen based on a video signal input from an information terminal;
an acquisition unit that acquires a change in an image indicating a position on the display screen from the video signal;
a reception unit that receives an operation on the display screen based on the change in the image;
a display system.
(Section 10)
A process of displaying a display screen based on a video signal input from an information terminal;
A process of acquiring a change in an image indicating a position on the display screen from the video signal;
a process of receiving an operation on the display screen based on the change in the image;
A computer-implemented display control method.
(Section 11)
A program that causes a computer to execute the display control method according to claim 10.
(Section 12)
a display unit that displays a display screen based on a video signal input from an information terminal;
an acquisition unit that acquires a trajectory of a pointer indicating a position on the display screen from the video signal;
a reception unit that receives an operation on the display screen based on the trajectory of the pointer;
A display device.
(Section 13)
13. The display device according to claim 12, wherein the display unit displays, on the display screen, display elements for accepting operations or settings for the display screen.
(Section 14)
13. The display device according to claim 12, wherein the display unit displays, on the display screen, display elements for receiving operations or settings for the display device.
(Section 15)
15. The display device according to Item 13 or 14, wherein the receiving unit receives an operation on the display element according to a trajectory of the pointer corresponding to the position of the display element.
(Section 16)
16. The display device according to any one of items 12 to 15, wherein when the trajectory of the pointer indicates a predetermined gesture, the accepting unit accepts an operation corresponding to the gesture.
(Section 17)
17. The display device of Claim 16, wherein the gestures include gestures corresponding to one or more of select, cancel, and return.
(Section 18)
16. The display device according to any one of items 12 to 15, wherein the video signal is a digital or analog wired signal.
(Section 19)
a display unit that displays a display screen based on a video signal input from an information terminal;
an acquisition unit that acquires a trajectory of a pointer indicating a position on the display screen from the video signal;
a reception unit that receives an operation on the display screen based on the trajectory of the pointer;
a display system.
(Section 20)
A process of displaying a display screen based on a video signal input from an information terminal;
a process of acquiring a trajectory of a pointer indicating a position on the display screen from the video signal;
a process of receiving an operation on the display screen based on the trajectory of the pointer;
A computer-implemented display control method.
(Section 21)
A program that causes a computer to execute the display control method according to claim 20.

以上、本発明の実施形態について説明したが、本発明はかかる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、様々な変形、及び応用が可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to such specific embodiments, and various modifications and Application is possible.

1 表示システム
10 情報端末
13 表示画面
15 操作ボタン(表示要素の一例)
100 電子黒板(表示装置の一例)
300 プロジェクタ(表示装置の一例)
402 表示部
403 取得部
406 受付部
901 ジェスチャA
902 ジェスチャB
903 ジェスチャC
904 ジェスチャD
1 display system 10 information terminal 13 display screen 15 operation button (an example of display elements)
100 electronic blackboard (an example of a display device)
300 projector (an example of a display device)
402 display unit 403 acquisition unit 406 reception unit 901 gesture A
902 Gesture B
903 Gesture C
904 Gesture D

特開2015-70345号公報JP 2015-70345 A

Claims (11)

情報端末から入力される映像信号に基づいて表示画面を表示する表示部と、
前記映像信号から前記表示画面上の位置を示す画像の変化を取得する取得部と、
前記画像の変化に基づいて、前記表示画面に対する操作を受け付ける受付部と、
を有する、表示装置。
a display unit that displays a display screen based on a video signal input from an information terminal;
an acquisition unit that acquires a change in an image indicating a position on the display screen from the video signal;
a reception unit that receives an operation on the display screen based on the change in the image;
A display device.
前記表示部は、前記表示画面上に、前記表示画面に対する操作、又は設定を受け付ける表示要素を表示する、請求項1に記載の表示装置。 2. The display device according to claim 1, wherein said display unit displays, on said display screen, a display element for accepting an operation or setting for said display screen. 前記表示部は、前記表示画面上に、前記表示装置に対する操作、又は設定を受け付ける表示要素を表示する、請求項1に記載の表示装置。 2. The display device according to claim 1, wherein said display unit displays, on said display screen, display elements for receiving operations or settings for said display device. 前記受付部は、前記表示要素の位置に対応する前記画像の変化に応じて、前記表示要素に対する操作を受け付ける、請求項2又は3に記載の表示装置。 4. The display device according to claim 2, wherein said accepting unit accepts an operation on said display element according to a change in said image corresponding to the position of said display element. 前記受付部は、前記画像の変化が、予め定められたジェスチャを示す場合、前記ジェスチャに対応する操作を受け付ける、請求項1乃至3のいずれか一項に記載の表示装置。 The display device according to any one of claims 1 to 3, wherein, when the change in the image indicates a predetermined gesture, the reception unit receives an operation corresponding to the gesture. 前記ジェスチャは、選択、取り消し、及び戻る、のうち1つ以上の操作に対応するジェスチャを含む、請求項5に記載の表示装置。 6. The display device of claim 5, wherein the gestures include gestures corresponding to one or more of select, cancel, and return. 前記映像信号は、デジタル、又はアナログの有線信号である、請求項1乃至3のいずれか一項に記載の表示装置。 4. The display device according to any one of claims 1 to 3, wherein the video signal is a digital or analog wired signal. 前記画像の変化は、前記表示画面上の位置を示すポインタの軌跡を含む、請求項1乃至3のいずれか一項に記載の表示装置。 4. The display device according to any one of claims 1 to 3, wherein the change in the image includes a locus of a pointer indicating a position on the display screen. 情報端末から入力される映像信号に基づいて表示画面を表示する表示部と、
前記映像信号から前記表示画面上の位置を示す画像の変化を取得する取得部と、
前記画像の変化に基づいて、前記表示画面に対する操作を受け付ける受付部と、
を有する、表示システム。
a display unit that displays a display screen based on a video signal input from an information terminal;
an acquisition unit that acquires a change in an image indicating a position on the display screen from the video signal;
a reception unit that receives an operation on the display screen based on the change in the image;
a display system.
情報端末から入力される映像信号に基づいて表示画面を表示する処理と、
前記映像信号から前記表示画面上の位置を示す画像の変化を取得する処理と、
前記画像の変化に基づいて、前記表示画面に対する操作を受け付ける処理と、
をコンピュータが実行する、表示制御方法。
A process of displaying a display screen based on a video signal input from an information terminal;
A process of acquiring a change in an image indicating a position on the display screen from the video signal;
a process of receiving an operation on the display screen based on the change in the image;
A computer-implemented display control method.
請求項10に記載の表示制御方法をコンピュータに実行させる、プログラム。 A program that causes a computer to execute the display control method according to claim 10 .
JP2022093684A 2021-08-27 2022-06-09 Display device, display system, display control method, and program Pending JP2023033109A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/818,429 US20230063335A1 (en) 2021-08-27 2022-08-09 Display apparatus, display system, display control method, and non-transitory recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021139274 2021-08-27
JP2021139274 2021-08-27

Publications (1)

Publication Number Publication Date
JP2023033109A true JP2023033109A (en) 2023-03-09

Family

ID=85415984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022093684A Pending JP2023033109A (en) 2021-08-27 2022-06-09 Display device, display system, display control method, and program

Country Status (1)

Country Link
JP (1) JP2023033109A (en)

Similar Documents

Publication Publication Date Title
US9740338B2 (en) System and methods for providing a three-dimensional touch screen
KR102244925B1 (en) Manipulation of content on a surface
JP6539816B2 (en) Multi-modal gesture based interactive system and method using one single sensing system
TWI423096B (en) Projecting system with touch controllable projecting picture
US20120249463A1 (en) Interactive input system and method
US10559133B2 (en) Visual space management across information handling system and augmented reality
US20140267029A1 (en) Method and system of enabling interaction between a user and an electronic device
US10276133B2 (en) Projector and display control method for displaying split images
US20140333585A1 (en) Electronic apparatus, information processing method, and storage medium
KR20180006614A (en) Multi-touch display pannel and method of controlling the same
Morrison A camera-based input device for large interactive displays
JP6686345B2 (en) Method, system and program for detecting operation event
US20180188944A1 (en) Display apparatus and controlling method thereof
JP2022145191A (en) Display device, program, method for display, and display system
JP2023033109A (en) Display device, display system, display control method, and program
US10691262B2 (en) Projector, projection system and image projection method
TWI394063B (en) System of inputting instruction by image identification and method of the same
KR20220049407A (en) Display apparatus and control method thereof
Kudale et al. Human computer interaction model based virtual whiteboard: A review
KR101065771B1 (en) Touch display system
WO2022034745A1 (en) Information processing device for superimposing write screen image
Morrison A cmos camera-based man-machine input device for large-format interactive displays
Ashdown et al. High-resolution interactive displays
KR101592977B1 (en) Display apparatus and control method thereof
KR102441018B1 (en) Eraser function operating method according to movement trajectory of variable size change mode on Interactive Plat Panel Display