JP2020149633A - Display device, display method, and display program - Google Patents

Display device, display method, and display program Download PDF

Info

Publication number
JP2020149633A
JP2020149633A JP2019049123A JP2019049123A JP2020149633A JP 2020149633 A JP2020149633 A JP 2020149633A JP 2019049123 A JP2019049123 A JP 2019049123A JP 2019049123 A JP2019049123 A JP 2019049123A JP 2020149633 A JP2020149633 A JP 2020149633A
Authority
JP
Japan
Prior art keywords
image
display
input means
selecting
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019049123A
Other languages
Japanese (ja)
Inventor
敏洋 甲斐
Toshihiro Kai
敏洋 甲斐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019049123A priority Critical patent/JP2020149633A/en
Publication of JP2020149633A publication Critical patent/JP2020149633A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To improve operability for an object.SOLUTION: A display device comprises: an approach detection unit that detects approach of input means to a display unit on which an object is displayed; and a display control unit that, when the approach of the input means is detected, and a predetermined area including an image for selecting the object in the display unit includes a position indicated by the coordinates corresponding to the input means, enlarges and displays the image for selecting the object.SELECTED DRAWING: Figure 8

Description

本発明は、表示装置、表示方法、表示プログラムに関する。 The present invention relates to a display device, a display method, and a display program.

近年では、タッチパネルディスプレイを用いた入力装置において用いられる描画アプリケーションが普及しつつある。描画アプリケーションでは、手書きによって入力された文字や図形等を描画させる。 In recent years, drawing applications used in input devices using touch panel displays have become widespread. In the drawing application, characters and figures input by handwriting are drawn.

この描画アプリケーションのような技術では、タッチパネルディスプレイに表示されたオブジェクトに対する操作の1つとして、オブジェクトの角の画像を選択し、ドラッグするとで、オブジェクトの選択と拡大又は縮小とを行う操作が知られている。 In a technique such as this drawing application, as one of the operations on an object displayed on a touch panel display, an operation of selecting an image at the corner of the object and dragging it to select and enlarge or reduce the object is known. ing.

描画アプリケーションにおいて、オブジェクトを選択するための画像は、オブジェクトの描画を妨げないよう小さく設けられることが一般的である。このため、従来の描画アプリケーションでは、オブジェクトを選択する操作を行う際に、オブジェクトを選択するための画像が、ユーザの指や入力用の電子ペンによって隠されてしまい、誤って、選択しようとしたオブジェクト以外の領域を選択してしまう場合があった。尚、オブジェクトとは、例えば、文字、数字、図形、記号等であっても良いし、イラストや模様等であっても良い。 In a drawing application, an image for selecting an object is generally provided small so as not to interfere with the drawing of the object. For this reason, in a conventional drawing application, when performing an operation for selecting an object, the image for selecting the object is hidden by the user's finger or an electronic pen for input, and an attempt is made to select the object by mistake. In some cases, an area other than the object was selected. The object may be, for example, characters, numbers, figures, symbols, or the like, or may be an illustration, a pattern, or the like.

開示の技術は、オブジェクトに対する操作性を向上させること目的とする。 The disclosed technology aims to improve the operability of objects.

開示の技術は、オブジェクトが表示される表示部に対する入力手段の接近を検知する接近検知部と、前記入力手段の接近が検知され、前記表示部における前記オブジェクトを選択するための画像を含む所定領域内に、前記入力手段と対応する座標が示す位置が含まれる場合に、前記オブジェクトを選択するための画像を拡大して表示させる表示制御部と、を有する表示装置である。 The disclosed technology includes an approach detection unit that detects the approach of an input means to a display unit on which an object is displayed, and a predetermined area that includes an image for detecting the approach of the input means and selecting the object on the display unit. The display device includes a display control unit that enlarges and displays an image for selecting the object when the position indicated by the coordinates corresponding to the input means is included in the display device.

オブジェクトに対する操作性を向上させる。 Improves operability for objects.

電子黒板について説明する図である。It is a figure explaining the electronic blackboard. 電子黒板のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of an electronic blackboard. 電子黒板の機能構成を説明する図である。It is a figure explaining the functional structure of an electronic blackboard. 電子黒板のディスプレイに表示される画像について説明する図である。It is a figure explaining the image displayed on the display of an electronic blackboard. オブジェクトについて説明する図である。It is a figure explaining an object. オブジェクト記憶部の一例を示す図である。It is a figure which shows an example of the object storage part. 電子黒板の動作を説明するフローチャートである。It is a flowchart explaining operation of an electronic blackboard. 電子黒板の表示例を説明する第一の図である。It is the first figure explaining the display example of an electronic blackboard. 電子黒板の表示例を説明する第二の図である。It is the 2nd figure explaining the display example of an electronic blackboard. オブジェクトを選択するための画像を説明する図である。It is a figure explaining an image for selecting an object. 電子黒板を含む情報処理システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system structure of the information processing system including an electronic blackboard. 情報処理システムの変形例を示す第一の図である。It is the first figure which shows the modification of an information processing system. 情報処理システムの変形例を示す第二の図である。It is a second figure which shows the modification of an information processing system. 情報処理システムの変形例を示す第三の図である。It is a third figure which shows the modification of an information processing system.

以下に図面を参照して、本実施形態について説明する。図1は、電子黒板について説明する図である。 The present embodiment will be described below with reference to the drawings. FIG. 1 is a diagram illustrating an electronic blackboard.

本実施形態の電子黒板200は、近距離通信回路219、電源スイッチ222、ディスプレイ280、カメラ260を有する。電子黒板200は、電源スイッチ222が押下されると、後述する表示制御部が、ディスプレイ280に、電子ペンやユーザの指によって描画が可能な描画画面を表示させる表示部である。 The electronic blackboard 200 of the present embodiment includes a short-range communication circuit 219, a power switch 222, a display 280, and a camera 260. When the power switch 222 is pressed, the electronic blackboard 200 is a display unit in which a display control unit, which will be described later, displays a drawing screen on the display 280, which can be drawn by an electronic pen or a user's finger.

また、本実施形態の電子黒板200は、カメラ260によって、ユーザの指や電子ペンがディスプレイ280に接近したことを検出する。つまり、カメラ260は、近接センサの一例である。また、電子黒板200は、カメラ260によって、ユーザの指や電子ペンが、ディスプレイ280に表示されたオブジェクトを選択するための画像に接近したことを検出すると、このオブジェクトを選択するための画像を拡大して表示させる。 Further, the electronic blackboard 200 of the present embodiment detects that the user's finger or the electronic pen has approached the display 280 by the camera 260. That is, the camera 260 is an example of a proximity sensor. Further, when the camera 260 detects that the user's finger or the electronic pen approaches the image for selecting the object displayed on the display 280, the electronic blackboard 200 enlarges the image for selecting the object. To display.

本実施形態のオブジェクトとは、操作の対象となるものであって、例えば、文字、数字、図形、記号、イラスト、模様等を含む。 The object of the present embodiment is an object of operation, and includes, for example, characters, numbers, figures, symbols, illustrations, patterns, and the like.

本実施形態の電子黒板200は、この構成により、ユーザの指や電子ペンによって、オブジェクトを選択するための画像が隠されることによる誤操作の発生を抑制し、オブジェクトに対する操作性を向上させることができる。 With this configuration, the electronic blackboard 200 of the present embodiment can suppress the occurrence of erroneous operations due to the image for selecting an object being hidden by the user's finger or the electronic pen, and can improve the operability of the object. ..

以下に、図2を参照して、本実施形態の電子黒板200のハードウェア構成について説明する。図2は、電子黒板のハードウェア構成の一例を示す図である。
図2は、電子黒板のハードウェア構成図である。図2に示されているように、電子黒板2は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、SSD(Solid State Drive)204、ネットワークI/F205、及び、外部機器接続I/F(Interface)206を備えている。
The hardware configuration of the electronic blackboard 200 of the present embodiment will be described below with reference to FIG. FIG. 2 is a diagram showing an example of the hardware configuration of the electronic blackboard.
FIG. 2 is a hardware configuration diagram of the electronic blackboard. As shown in FIG. 2, the electronic blackboard 2 includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, an SSD (Solid State Drive) 204, and a network I / It includes an F205 and an external device connection I / F (Interface) 206.

これらのうち、CPU201は、電子黒板2全体の動作を制御する。ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。SSD204は、電子黒板用のプログラム等の各種データを記憶する。 Of these, the CPU 201 controls the operation of the entire electronic blackboard 2. The ROM 202 stores a program used to drive the CPU 201 such as the CPU 201 and the IPL (Initial Program Loader). The RAM 203 is used as a work area of the CPU 201. The SSD 204 stores various data such as a program for an electronic blackboard.

ネットワークI/F205は、通信ネットワークとの通信を制御する。外部機器接続I/F206は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリ230、外付け機器(マイク240、スピーカ250、カメラ260)である。 The network I / F 205 controls communication with the communication network. The external device connection I / F 206 is an interface for connecting various external devices. The external device in this case is, for example, a USB (Universal Serial Bus) memory 230 and an external device (microphone 240, speaker 250, camera 260).

また、電子黒板200は、キャプチャデバイス211、GPU212、ディスプレイコントローラ213、接触センサ214、センサコントローラ215、電子ペンコントローラ216、近距離通信回路219、及び近距離通信回路219のアンテナ219a、電源スイッチ222及び選択スイッチ類223を備えている。 Further, the electronic blackboard 200 includes a capture device 211, a GPU 212, a display controller 213, a contact sensor 214, a sensor controller 215, an electronic pen controller 216, a short-range communication circuit 219, an antenna 219a of the short-range communication circuit 219, a power switch 222, and the like. It includes selection switches 223.

これらのうち、キャプチャデバイス211は、外付けのPC(Personal Computer)270のディスプレイに対して映像情報を静止画または動画として表示させる。GPU(Graphics Processing Unit)212は、グラフィクスを専門に扱う半導体チップである。
GPU212は、CPU201に内蔵されてよいし、CPU201と統合されていてもよい。
Of these, the capture device 211 causes the display of the external PC (Personal Computer) 270 to display the video information as a still image or a moving image. The GPU (Graphics Processing Unit) 212 is a semiconductor chip that specializes in graphics.
The GPU 212 may be built in the CPU 201 or may be integrated with the CPU 201.

ディスプレイコントローラ213は、GPU212からの出力画像をディスプレイ280等へ出力するために画面表示の制御及び管理を行う。接触センサ214は、ディスプレイ280上に電子ペン290やユーザの手H等が接触したことを検知する。センサコントローラ215は、接触センサ214の処理を制御する。 The display controller 213 controls and manages the screen display in order to output the output image from the GPU 212 to the display 280 or the like. The contact sensor 214 detects that the electronic pen 290, the user's hand H, or the like has come into contact with the display 280. The sensor controller 215 controls the processing of the contact sensor 214.

接触センサ214は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ280の上側両端部に設置された2つ受発光装置が、ディスプレイ280に平行して複数の赤外線を放射し、ディスプレイ280の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ214は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ215に出力し、センサコントローラ215が、物体の接触位置である座標位置を特定する。 The contact sensor 214 inputs and detects the coordinates by the infrared blocking method. In this method of inputting coordinates and detecting coordinates, two light receiving and emitting devices installed at both upper ends of the display 280 emit a plurality of infrared rays in parallel with the display 280 and are provided around the display 280. This is a method of receiving light that is reflected by a reflecting member and returns on the same optical path as the light path emitted by the light receiving element. The contact sensor 214 outputs an infrared ID emitted by two light emitting / receiving devices blocked by the object to the sensor controller 215, and the sensor controller 215 specifies a coordinate position which is a contact position of the object.

電子ペンコントローラ216は、電子ペン290と通信することで、ディスプレイ280へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信回路219は、NF(Near Field Communication)やBluetooth(登録商標)等の通信回路である。電源スイッチ222は、電子黒板2の電源のON/OFFを切り換えるためのスイッチである。選択スイッチ類223は、例えば、ディスプレイ280の表示の明暗や色合い等を調整するためのスイッチ群である。 The electronic pen controller 216 determines whether or not there is a touch of the pen tip or a touch of the pen tail on the display 280 by communicating with the electronic pen 290. The short-range communication circuit 219 is a communication circuit such as NF (Near Field Communication) or Bluetooth (registered trademark). The power switch 222 is a switch for switching the power ON / OFF of the electronic blackboard 2. The selection switches 223 are, for example, a group of switches for adjusting the brightness and hue of the display of the display 280.

更に、電子黒板2は、バスライン210を備えている。バスライン210は、図2に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Further, the electronic blackboard 2 includes a bus line 210. The bus line 210 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 201 shown in FIG.

尚、接触センサ214は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いてもよい。また、電子ペンコントローラ216が、電子ペン290のペン先及びペン尻だけでなく、電子ペン290のユーザが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。 The contact sensor 214 is not limited to the infrared blocking method, but is a capacitive touch panel that specifies a contact position by detecting a change in capacitance, and a contact position is specified by a voltage change between two opposing resistance films. Various detection means such as a resistance film type touch panel and an electromagnetic induction type touch panel that detects the electromagnetic induction generated when a contact object comes into contact with the display unit and specifies the contact position may be used. Further, the electronic pen controller 216 may determine whether or not there is a touch not only on the pen tip and pen tip of the electronic pen 290 but also on the portion gripped by the user of the electronic pen 290 and other electronic pen portions.

また、本実施形態では、カメラ260は、ディスプレイ280に電子ペン290や手Hが接近したことを検出する近接センサの一例としたが、電子黒板200は、近接センサとして、投影型静電容量方式タッチパネルや赤外線センサ等を有していても良い。 Further, in the present embodiment, the camera 260 is an example of a proximity sensor that detects that the electronic pen 290 or the hand H is approaching the display 280, but the electronic blackboard 200 is a projection type capacitance type as a proximity sensor. It may have a touch panel, an infrared sensor, or the like.

次に、図3を参照して、本実施形態の電子黒板200の機能構成について説明する。図3は、電子黒板の機能構成を説明する図である。 Next, the functional configuration of the electronic blackboard 200 of the present embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating a functional configuration of the electronic blackboard.

本実施形態の電子黒板200は、ページ記憶部320、オブジェクト記憶部330、入力部341、ページ生成部342、オブジェクト特定部343、座標取得部344、接近検知部345、領域判定部346、表示制御部347、オブジェクト更新部348を有する。 The electronic blackboard 200 of the present embodiment includes a page storage unit 320, an object storage unit 330, an input unit 341, a page generation unit 342, an object identification unit 343, a coordinate acquisition unit 344, an approach detection unit 345, an area determination unit 346, and display control. It has a unit 347 and an object update unit 348.

ページ記憶部320は、電子黒板200のディスプレイ280に表示されるページデータが記憶される。ページ記憶部320に記憶されるページデータは、例えば、ディスプレイ280において描画されたストローク画像を示すストローク画像データであっても良いし、外部から取得した画像データであっても良い。 The page storage unit 320 stores page data displayed on the display 280 of the electronic blackboard 200. The page data stored in the page storage unit 320 may be, for example, stroke image data indicating a stroke image drawn on the display 280, or image data acquired from the outside.

ストローク画像とは、電子黒板200のディスプレイ280に対して、電子ペン290を用いて手書きで入力された一画毎の軌跡の画像である。 The stroke image is an image of a locus of each stroke input by hand using an electronic pen 290 on the display 280 of the electronic blackboard 200.

また、ページデータは、ディスプレイ280に表示された画像と、ディスプレイ280に入力されたストローク画像とを重畳した重畳画像の画像データであっても良い。ディスプレイ280に表示される画像データの詳細は後述する。 Further, the page data may be image data of a superimposed image in which the image displayed on the display 280 and the stroke image input to the display 280 are superimposed. Details of the image data displayed on the display 280 will be described later.

オブジェクト記憶部330は、オブジェクトに関するオブジェクト情報を格納する。具体的には、オブジェクト記憶部330は、画像データのうち、ディスプレイ280に手書き又は電子ペン290によって描画されたストロークを含む所定の矩形領域の画像を、オブジェクトとして記憶する。つまり、オブジェクトとは、ストローク画像を含む矩形領域の画像である。また、オブジェクト記憶部330は、矩形領域であるオブジェクトをディスプレイ280に表示させた場合の4点の位置を示す座標情報を保持している。オブジェクト記憶部330の詳細は後述する。 The object storage unit 330 stores object information related to the object. Specifically, the object storage unit 330 stores an image of a predetermined rectangular region including a stroke drawn by handwriting or an electronic pen 290 on the display 280 as an object among the image data. That is, the object is an image of a rectangular area including a stroke image. Further, the object storage unit 330 holds coordinate information indicating the positions of four points when the object, which is a rectangular area, is displayed on the display 280. The details of the object storage unit 330 will be described later.

入力部341は、ディスプレイ280に対して手書き入力された文字や画像を示すストローク画像や、ディスプレイ280に設けられたタッチパネルに表示された画像の画像データ等を取得する。 The input unit 341 acquires stroke images showing characters and images handwritten to the display 280, image data of images displayed on the touch panel provided on the display 280, and the like.

また、入力部341は、カメラ260により撮影された動画データ等を取得する。本実施形態では、動画データは、画像データに含まれる。また、入力部341は、電子黒板200に対する各種の指示を受け付ける。また、入力部341は、PC270等から出力され、電子黒板200に入力される入力画像データ等を取得する。 In addition, the input unit 341 acquires moving image data or the like taken by the camera 260. In the present embodiment, the moving image data is included in the image data. Further, the input unit 341 receives various instructions for the electronic blackboard 200. Further, the input unit 341 acquires input image data or the like output from the PC 270 or the like and input to the electronic blackboard 200.

ページ生成部342は、ディスプレイ280に表示された1ページの画像(表示画像)の画像データを取得する。また、ページ生成部342は、1ページの画像にストローク画像が入力された場合には、ストローク画像を示すストローク画像データを取得する。 The page generation unit 342 acquires the image data of the image (display image) of one page displayed on the display 280. Further, when the stroke image is input to the image of one page, the page generation unit 342 acquires the stroke image data indicating the stroke image.

具体的には、ページ生成部342は、ディスプレイ280に入力された入力画像やストローク画像等を重畳させた重畳画像の画像データを取得し、ページ記憶部320に格納する。尚、ページ生成部342は、ディスプレイ280に対してストローク画像が入力されていない場合には、ディスプレイ280に表示された画像を画像データとする。 Specifically, the page generation unit 342 acquires image data of a superimposed image in which an input image, a stroke image, or the like input to the display 280 is superimposed, and stores the image data in the page storage unit 320. When the stroke image is not input to the display 280, the page generation unit 342 uses the image displayed on the display 280 as the image data.

また、ページ生成部342は、ディスプレイ280に対してストローク画像が入力された場合には、ストローク画像を示すストローク画像データを画像データとして、ページ記憶部320に格納する。 Further, when the stroke image is input to the display 280, the page generation unit 342 stores the stroke image data indicating the stroke image as image data in the page storage unit 320.

このように、本実施形態のページ生成部342は、ディスプレイ280に表示された画像データや、ディスプレイ280に入力されたストローク画像を示すストローク画像データから、ページデータを生成する生成部である。 As described above, the page generation unit 342 of the present embodiment is a generation unit that generates page data from the image data displayed on the display 280 and the stroke image data indicating the stroke image input to the display 280.

オブジェクト特定部343は、手書き又は電子ペン290によって入力されたストローク画像を含む矩形領域の画像をオブジェクトとして特定する。 The object identification unit 343 identifies an image in a rectangular area including a stroke image input by handwriting or an electronic pen 290 as an object.

座標取得部344は、オブジェクト特定部343によって特定された矩形領域の4点の座標を取得し、オブジェクト記憶部330に、オブジェクトと対応付けて格納する。 The coordinate acquisition unit 344 acquires the coordinates of four points in the rectangular area specified by the object identification unit 343, and stores the coordinates in the object storage unit 330 in association with the object.

また、座標取得部344は、オブジェクトを特定する矩形領域の角を含む所定領域を示す情報を取得し、オブジェクトと対応付けてオブジェクト記憶部330に格納する。以下の説明では、オブジェクトを特定する矩形領域の角を含む所定領域を角領域と呼ぶ。つまり、本実施形態の角領域とは、ディスプレイ280に表示されたオブジェクトを選択するための画像を含み、オブジェクトを選択するための画像と対応付けられた、ディスプレイ280における所定領域である。 Further, the coordinate acquisition unit 344 acquires information indicating a predetermined area including a corner of a rectangular area that identifies the object, and stores the information in the object storage unit 330 in association with the object. In the following description, a predetermined area including the corners of the rectangular area that specifies the object is referred to as a corner area. That is, the corner region of the present embodiment is a predetermined region on the display 280 that includes an image for selecting an object displayed on the display 280 and is associated with an image for selecting an object.

また、以下の説明では、オブジェクトを含む矩形領域と、角領域を特定する情報とを対応づけることを、角領域を設定する、と表現する場合がある。オブジェクトを含む矩形領域と角領域の詳細は後述する。 Further, in the following description, associating a rectangular area including an object with information for specifying a corner area may be expressed as setting a corner area. Details of the rectangular area and the corner area including the object will be described later.

接近検知部345は、物体がディスプレイ280に接近したことを検知する。具体的には、接近検知部345は、電子ペン290又はユーザの手等の手書き画像の入力手段がディスプレイ280から所定の距離以内に入ったことを検知する。以下の説明では、電子ペン290又はユーザの手といった、手書き画像を入力するための物体を入力手段と表現する場合がある。 The approach detection unit 345 detects that the object has approached the display 280. Specifically, the approach detection unit 345 detects that the electronic pen 290 or the handwritten image input means such as the user's hand has entered the display 280 within a predetermined distance. In the following description, an object for inputting a handwritten image, such as an electronic pen 290 or a user's hand, may be expressed as an input means.

領域判定部346は、手書き画像の入力手段となり得る物体が、ディスプレイ280に表示されたオブジェクトを特定する矩形領域の角を含む所定領域に対して接近しているか否かを判定する。 The area determination unit 346 determines whether or not an object that can be an input means for a handwritten image is close to a predetermined area including a corner of a rectangular area that identifies the object displayed on the display 280.

具体的には、領域判定部346は、接近検知部345によって検知された入力手段と対応する座標情報が、角領域内にあるか否かを判定している。 Specifically, the area determination unit 346 determines whether or not the coordinate information corresponding to the input means detected by the approach detection unit 345 is in the corner area.

表示制御部347は、ディスプレイ280に対する各種の表示を制御する。領域判定部346により、入力手段と対応する座標情報が、角領域内にあると判定された場合に、角を示す画像を拡大表示させる。また、表示制御部347は、角を示す画像が拡大表示された状態において、領域判定部346により、入力手段と対応する座標情報が、角領域外にあると判定された場合、拡大表示された角を示す画像を元の大きさに戻す。 The display control unit 347 controls various displays on the display 280. When the area determination unit 346 determines that the coordinate information corresponding to the input means is within the corner area, the image showing the corner is enlarged and displayed. Further, the display control unit 347 is enlarged and displayed when the area determination unit 346 determines that the coordinate information corresponding to the input means is outside the corner area in the state where the image showing the corner is enlarged and displayed. Restores the image showing the corners to the original size.

オブジェクト更新部348は、表示制御部347によって、オブジェクトを拡大又は縮小する操作が行われると、操作に応じて、オブジェクト記憶部330に格納されるオブジェクト情報を更新する。 When the display control unit 347 performs an operation of enlarging or reducing the object, the object update unit 348 updates the object information stored in the object storage unit 330 in response to the operation.

次に、図4を参照して、ディスプレイ280に表示される画像について説明する。図4は、電子黒板のディスプレイに表示される画像について説明する図である。 Next, the image displayed on the display 280 will be described with reference to FIG. FIG. 4 is a diagram illustrating an image displayed on a display of an electronic blackboard.

図4(A)は、重畳される画像を説明する図であり、図4(B)は、重畳画像の一例を示す図である。 FIG. 4A is a diagram for explaining the superimposed image, and FIG. 4B is a diagram showing an example of the superimposed image.

本実施形態の電子黒板200において、表示制御部347は、入力部341により取得される入力画像や、ストローク画像、UI(User Interface)画像及び背景画像を予め指定されたレイアウトにしたがって重畳して表示させる。 In the electronic blackboard 200 of the present embodiment, the display control unit 347 superimposes and displays an input image, a stroke image, a UI (User Interface) image, and a background image acquired by the input unit 341 according to a layout specified in advance. Let me.

尚、UI画像とは、予め設定された画像である。また、背景画像は、例えば、無地の画像やグリッド線を含む画像等であり、重畳画像に含まれるメディアデータである。メディアデータとは、背景画像をディスプレイ280に表示させるためのデータである。 The UI image is a preset image. The background image is, for example, a plain image, an image including grid lines, or the like, and is media data included in the superimposed image. The media data is data for displaying a background image on the display 280.

表示制御部347は、図4に示すように、UI画像を表示させるためのレイヤ41、ストローク画像を表示させるためのレイヤ42、PCから出力されて電子黒板200に入力される入力画像を表示させるレイヤ43、背景画像を表示させるためのレイヤ44を有する。 As shown in FIG. 4, the display control unit 347 displays a layer 41 for displaying a UI image, a layer 42 for displaying a stroke image, and an input image output from a PC and input to the electronic whiteboard 200. It has a layer 43 and a layer 44 for displaying a background image.

本実施形態の表示制御部347は、電子黒板200のユーザからディスプレイ280を見たとき、レイヤ41が1層目、レイヤ42が2層目、レイヤ43が3層目、レイヤ44が4層目となるように、各レイヤを重畳させる。 When the display 280 is viewed from the user of the electronic blackboard 200, the display control unit 347 of the present embodiment has layer 41 as the first layer, layer 42 as the second layer, layer 43 as the third layer, and layer 44 as the fourth layer. Each layer is superimposed so as to be.

そして、表示制御部347は、UI画像の画像データ(UI画像データ)、ストローク画像データ、入力画像の画像データ(入力画像データ)、背景画像の画像データ(背景画像データ)を合成することで、4層の重畳画像40の画像データを生成する。 Then, the display control unit 347 synthesizes the image data of the UI image (UI image data), the stroke image data, the image data of the input image (input image data), and the image data of the background image (background image data). The image data of the four-layer superimposed image 40 is generated.

つまり、本実施形態の重畳画像とは、ディスプレイ280の各レイヤに表示された画像を合成した画像である。 That is, the superimposed image of the present embodiment is an image obtained by synthesizing the images displayed on each layer of the display 280.

尚、本実施形態の説明では、レイヤ42に表示さけたストローク画像を、オブジェクトとして特定するものとするが、オブジェクトとして特定される画像は、ストローク画像以外の画像であっても良い。 In the description of the present embodiment, the stroke image displayed on the layer 42 is specified as an object, but the image specified as an object may be an image other than the stroke image.

次に、図5を参照して、本実施形態のオブジェクトについて説明する。図5は、オブジェクトについて説明する図である。図5(A)は、オブジェクトと、オブジェクトを特定する矩形領域を説明する図であり、図5(B)は、矩形領域の角領域を説明する図である。 Next, the object of this embodiment will be described with reference to FIG. FIG. 5 is a diagram illustrating an object. FIG. 5A is a diagram for explaining an object and a rectangular area for specifying an object, and FIG. 5B is a diagram for explaining a corner area of the rectangular area.

図5(A)では、ストローク画像51が矩形領域52によって囲われている。本実施形態では、ディスプレイ280に表示される画像において、ストローク画像51を含む矩形領域52をオブジェクトとして特定する。 In FIG. 5A, the stroke image 51 is surrounded by a rectangular area 52. In the present embodiment, in the image displayed on the display 280, the rectangular area 52 including the stroke image 51 is specified as an object.

尚、オブジェクトとして特定される矩形領域に含まれる画像は、ストローク画像以外の画像であっても良い。言い換えれば、オブジェクトとして特定される矩形領域に含まれる画像は、図4で説明したストローク画像のレイヤ42以外のレイヤに表示される画像であっても良い。 The image included in the rectangular area specified as an object may be an image other than the stroke image. In other words, the image included in the rectangular region specified as the object may be an image displayed on a layer other than the layer 42 of the stroke image described with reference to FIG.

矩形領域52の四隅には、矩形領域52の角を示す角画像53〜56が表示される。通常、ユーザがストローク画像を拡大しようとした場合、この角画像53〜56の何れかを電子ペン290や指によって選択してドラッグする操作を行う。つまり、本実施形態の角画像は、オブジェクトと対応付けられており、オブジェクトを選択するための画像である。 At the four corners of the rectangular area 52, angle images 53 to 56 showing the corners of the rectangular area 52 are displayed. Normally, when the user tries to enlarge the stroke image, any one of the corner images 53 to 56 is selected and dragged by the electronic pen 290 or a finger. That is, the corner image of the present embodiment is associated with an object and is an image for selecting an object.

本実施形態では、矩形領域52の角を示す角画像53〜56のそれぞれの周囲に、角を中心とした角領域61〜64が設定される。 In the present embodiment, corner regions 61 to 64 centered on the corners are set around each of the corner images 53 to 56 showing the corners of the rectangular region 52.

本実施形態では、ディスプレイ280に表示された角画像53〜56に対して、電子ペン290や指が接近し、角領域61〜64の何れかの中に入ったことを検知すると、図5(B)に示すように、角画像53〜56を拡大させた角画像53A〜56Aとする。 In the present embodiment, when it is detected that the electronic pen 290 or the finger approaches the corner images 53 to 56 displayed on the display 280 and enters any of the corner regions 61 to 64, FIG. As shown in B), the angular images 53 to 56 are enlarged to make the angular images 53A to 56A.

本実施形態では、このように、角画像を拡大とすることで、ユーザに対して、オブジェクトの角を示す角画像を選択しやすくする。 In the present embodiment, by enlarging the corner image in this way, it is easy for the user to select the corner image showing the corner of the object.

次に、図6を参照して、本実施形態のオブジェクト記憶部330について説明する。図6は、オブジェクト記憶部の一例を示す図である。 Next, the object storage unit 330 of the present embodiment will be described with reference to FIG. FIG. 6 is a diagram showing an example of an object storage unit.

オブジェクト記憶部330には、オブジェクトに関するオブジェクト情報が格納される。オブジェクト情報は、情報の項目として、オブジェクトID、ストロークID、角座標、角領域、画像データ等を含む。項目「オブジェクトID」の値は、オブジェクトを特定する識別情報であり、項目「ストロークID」の値は、ストローク画像を特定する識別情報である。 Object information about an object is stored in the object storage unit 330. The object information includes an object ID, a stroke ID, angular coordinates, an angular region, image data, and the like as information items. The value of the item "object ID" is the identification information for identifying the object, and the value of the item "stroke ID" is the identification information for specifying the stroke image.

項目「角座標」の値は、オブジェクトである矩形領域の角の座標を示す。項目「角領域」の値は、角領域を特定するための情報である。具体的には、項目「角領域」の値は、角領域が、角座標のそれぞれを中心とする所定の大きさの矩形領域となるように決められた縦方向と横方向の長さを示す。 The value of the item "angle coordinates" indicates the coordinates of the corners of the rectangular area which is an object. The value of the item "corner area" is information for specifying the corner area. Specifically, the value of the item "corner region" indicates the length in the vertical direction and the horizontal direction in which the corner region is determined to be a rectangular region of a predetermined size centered on each of the angular coordinates. ..

項目「画像データ」の値は、ストロークIDと対応するストローク画像を示す画像データである。 The value of the item "image data" is image data indicating a stroke image corresponding to the stroke ID.

本実施形態では、入力部341によってストローク画像が入力されると、オブジェクト特定部343と、座標取得部344によって、オブジェクト情報に含まれる各項目の値が取得されて、オブジェクト情報とされる。 In the present embodiment, when the stroke image is input by the input unit 341, the object identification unit 343 and the coordinate acquisition unit 344 acquire the values of each item included in the object information and use the object information.

次に、図7を参照して、本実施形態の電子黒板200の動作について説明する。図7は、電子黒板の動作を説明するフローチャートである。 Next, the operation of the electronic blackboard 200 of the present embodiment will be described with reference to FIG. 7. FIG. 7 is a flowchart illustrating the operation of the electronic blackboard.

本実施形態の電子黒板200は、入力部341により、ストローク画像が入力されると、オブジェクト特定部343により、ストローク画像を含む矩形領域を特定し、座標取得部344により、矩形領域の角を示す座標を取得して、オブジェクト記憶部330に格納する(ステップS701)。 In the electronic blackboard 200 of the present embodiment, when a stroke image is input by the input unit 341, the object identification unit 343 identifies a rectangular area including the stroke image, and the coordinate acquisition unit 344 indicates the corner of the rectangular area. The coordinates are acquired and stored in the object storage unit 330 (step S701).

続いて、電子黒板200は、接近検知部345により、電子ペン290又はユーザの指等の入力手段となりえる物体が、ディスプレイ280から所定の距離以内となるまで接近したか否かを判定する(ステップS702)。 Subsequently, the electronic blackboard 200 determines whether or not an object that can be an input means such as an electronic pen 290 or a user's finger has approached the display 280 within a predetermined distance by the approach detection unit 345 (step). S702).

ステップS702において、接近していない場合、電子黒板200は、待機する。ステップS702において、接近したと判定された場合、電子黒板200は、オブジェクト記憶部330を参照し、領域判定部346により、ディスプレイ280における入力手段と対応する位置を示す座標が、オブジェクト記憶部330に格納された角領域の何れかの範囲内であるか否かを判定する(ステップS703)。 In step S702, if not approaching, the electronic blackboard 200 stands by. When it is determined in step S702 that the electronic blackboard 200 has approached, the electronic blackboard 200 refers to the object storage unit 330, and the area determination unit 346 sets the coordinates indicating the position corresponding to the input means on the display 280 to the object storage unit 330. It is determined whether or not it is within any range of the stored angular regions (step S703).

ステップS703において、角領域外である場合、電子黒板200は、ステップS702へ戻る。 If it is outside the corner region in step S703, the electronic blackboard 200 returns to step S702.

ステップS703において、角領域内である場合、表示制御部347は、ディスプレイ280に表示されたオブジェクトのうち、入力手段と対応する位置を示す座標を含む角領域と付けられたオブジェクトの角を示す角画像を、拡大する(ステップS704)。 In step S703, when it is within the corner area, the display control unit 347 indicates the corner indicating the corner of the object displayed on the display 280 as the corner area including the coordinates indicating the position corresponding to the input means. The image is enlarged (step S704).

このとき、表示制御部347は、角画像の大きさが、角領域と同じ大きさとなるように、拡大しても良い。 At this time, the display control unit 347 may enlarge the size of the corner image so that it becomes the same size as the corner region.

次に、電子黒板200は、領域判定部346により、入力手段と対応する位置を示す座標が、角領域内でなくなったか否かを判定する(ステップS705)。ステップS705において、角領域内でなくなった場合、表示制御部347は、拡大した角画像を初期状態に戻し(ステップS706)、処理を終了する。言い換えれば、表示制御部347は、拡大した角画像を、拡大する前の大きさに戻す。 Next, the electronic blackboard 200 determines whether or not the coordinates indicating the position corresponding to the input means are no longer in the corner region by the region determination unit 346 (step S705). When the image is no longer in the corner area in step S705, the display control unit 347 returns the enlarged corner image to the initial state (step S706), and ends the process. In other words, the display control unit 347 returns the enlarged angle image to the size before the enlargement.

ステップS705において、角領域内であった場合、電子黒板200は、入力部341により、接触センサ214が、角画像に入力手段が接触したことを検知したか否かを判定する(ステップS707)。ステップS707において、接触したことが検知されない場合、電子黒板200は、ステップS705へ戻る。 In step S705, when it is within the corner region, the electronic blackboard 200 determines whether or not the contact sensor 214 has detected that the input means has come into contact with the corner image by the input unit 341 (step S707). If the contact is not detected in step S707, the electronic blackboard 200 returns to step S705.

ステップS707において、接触したことが検知された場合、電子黒板200は、表示制御部347により、操作に応じてオブジェクトを拡大又は縮小して表示させる(ステップS708)。 When the contact is detected in step S707, the electronic blackboard 200 causes the display control unit 347 to enlarge or reduce the object according to the operation (step S708).

続いて、電子黒板200は、表示制御部347により、拡大した角画像を初期状態に戻し、オブジェクト更新部348により、拡大又は縮小されたオブジェクトのオブジェクト情報を更新し(ステップS709)、処理を終了する。具体的には、オブジェクト更新部348は、操作後のオブジェクトの角を示す座標を取得し、取得した座標と対応するように角領域を更新する。 Subsequently, the electronic blackboard 200 returns the enlarged corner image to the initial state by the display control unit 347, updates the object information of the enlarged or reduced object by the object update unit 348 (step S709), and ends the process. To do. Specifically, the object update unit 348 acquires the coordinates indicating the corners of the object after the operation, and updates the corner area so as to correspond to the acquired coordinates.

次に、図8を参照して、電子黒板200のディスプレイ280の表示の遷移について説明する。図8は、電子黒板の表示例を説明する第一の図である。 Next, the display transition of the display 280 of the electronic blackboard 200 will be described with reference to FIG. FIG. 8 is a first diagram illustrating a display example of the electronic blackboard.

図8では、ディスプレイ280に表示されたオブジェクト81が縮小される場合の表示の遷移を示している。 FIG. 8 shows a display transition when the object 81 displayed on the display 280 is reduced.

電子黒板200は、ディスプレイ280に、オブジェクト81と、オブジェクト81の角を示す角画像82〜85が表示された状態において、入力手段の一つである電子ペン290が所定の距離以内に接近したことを検知する。さらに、電子黒板200は、ディスプレイ280における電子ペン290と対応する位置を示す座標が、オブジェクト81の角画像82が示す角と対応する角領域内に入ったことを検知する。 In the electronic blackboard 200, the electronic pen 290, which is one of the input means, approaches within a predetermined distance in a state where the object 81 and the angle images 82 to 85 showing the corners of the object 81 are displayed on the display 280. Is detected. Further, the electronic blackboard 200 detects that the coordinates indicating the position corresponding to the electronic pen 290 on the display 280 are within the corner region corresponding to the corner indicated by the corner image 82 of the object 81.

すると、電子黒板200は、ディスプレイ280に表示されたオブジェクト81の角画像82〜85を、角領域と同じ大きさとなるように拡大させた角画像82A〜85Aとして表示させる。尚、このとき、拡大表示されるのは、電子ペン290と対応する位置を示す座標が角領域内に入った角画像のみであっても良い。したがって、この場合、角画像82のみが拡大されても良い。 Then, the electronic blackboard 200 displays the corner images 82 to 85 of the object 81 displayed on the display 280 as the corner images 82A to 85A enlarged so as to have the same size as the corner region. At this time, only the corner image in which the coordinates indicating the position corresponding to the electronic pen 290 are within the corner region may be enlarged and displayed. Therefore, in this case, only the corner image 82 may be enlarged.

次に、電子黒板200は、拡大された角画像82Aに対する電子ペン290の接触を検知し、電子ペン290によるオブジェクト81の縮小の操作を受け付けると、オブジェクト81を縮小したオブジェクト81Aとする。 Next, when the electronic blackboard 200 detects the contact of the electronic pen 290 with the enlarged square image 82A and accepts the operation of reducing the object 81 by the electronic pen 290, the object 81 becomes the reduced object 81A.

そして、電子黒板200は、拡大された角画像82A〜85Aを初期状態の角画像82〜85へ戻し、オブジェクト81のオブジェクト情報をオブジェクト81Aのオブジェクト情報に更新して、処理を終了する。 Then, the electronic blackboard 200 returns the enlarged corner images 82A to 85A to the corner images 82 to 85 in the initial state, updates the object information of the object 81 with the object information of the object 81A, and ends the process.

図9は、電子黒板の表示例を説明する第二の図である。図9では、ディスプレイ280に表示されたオブジェクト81が操作されない表示の遷移を示している。 FIG. 9 is a second diagram illustrating a display example of the electronic blackboard. FIG. 9 shows a display transition in which the object 81 displayed on the display 280 is not operated.

図9の例では、電子黒板200のディスプレイ280に電子ペン290が接近し、電子ペン290と対応する位置を示す座標が、オブジェクト81の角画像82と対応する角領域内に入ったために、角画像82〜85が拡大された角画像82A〜85Aとなる。 In the example of FIG. 9, the electronic pen 290 approaches the display 280 of the electronic blackboard 200, and the coordinates indicating the position corresponding to the electronic pen 290 are within the corner region corresponding to the corner image 82 of the object 81. Images 82 to 85 become enlarged angular images 82A to 85A.

その後、電子ペン290は、拡大された角画像82Aに接触せずに、電子ペン290と対応する位置を示す座標が、角画像82と対応する角領域外となると、拡大された角画像82A〜85Aは、初期状態の角画像82〜85へ戻る。 After that, the electronic pen 290 does not come into contact with the enlarged corner image 82A, and when the coordinates indicating the position corresponding to the electronic pen 290 are outside the corner region corresponding to the corner image 82, the enlarged corner image 82A to 85A returns to the angle images 82 to 85 in the initial state.

このように、本実施形態によれば、オブジェクトに対する操作を行うおうとする動作が検知された場合には、オブジェクトを選択するための画像を拡大させる。したがって、本実施形態によれば、オブジェクトを選択するための画像を、オブジェクトに対する操作を行わない場合には、ストローク画像の入力や、画像の表示等の妨げにならない程度の大きさで表示させ、オブジェクトの操作に応じて拡大するため、誤操作を抑制しつつ、オブジェクトに対する操作性を向上させることができる。 As described above, according to the present embodiment, when an operation for performing an operation on an object is detected, the image for selecting the object is enlarged. Therefore, according to the present embodiment, the image for selecting the object is displayed in a size that does not interfere with the input of the stroke image, the display of the image, etc., when the operation on the object is not performed. Since the image is enlarged according to the operation of the object, it is possible to improve the operability of the object while suppressing erroneous operation.

尚、上述した実施形態では、オブジェクトを選択するための画像を、オブジェクトを示す矩形領域の角を示す角画像として説明したが、オブジェクトを選択するための画像は、矩形領域の角を示す画像以外の画像であっても良い。 In the above-described embodiment, the image for selecting an object is described as a corner image showing the corners of a rectangular area showing an object, but the image for selecting an object is other than the image showing the corners of a rectangular area. It may be an image of.

図10は、オブジェクトを選択するための画像を説明する図である。図10の例では、ストローク画像101を含む矩形領域102を示す画像がオブジェクト103として特定される。 FIG. 10 is a diagram illustrating an image for selecting an object. In the example of FIG. 10, an image showing a rectangular region 102 including a stroke image 101 is specified as an object 103.

また、図10の例では、オブジェクト103を選択するための画像として、角画像104〜107に加え、矩形領域102の長辺上に2つの画像108、109が存在する。 Further, in the example of FIG. 10, in addition to the angular images 104 to 107, two images 108 and 109 are present on the long side of the rectangular region 102 as images for selecting the object 103.

この場合、画像109を含む角画像と対応する領域に電子ペン290が接近すれば、角画像104〜107と、画像108、109とが拡大されて、角画像104A〜107A、108A、109Aとなる。 In this case, if the electronic pen 290 approaches the region corresponding to the corner image including the image 109, the corner images 104 to 107 and the images 108 and 109 are enlarged to become the corner images 104A to 107A, 108A and 109A. ..

このように、本実施形態では、オブジェクトを選択するための画像は、オブジェクトを示す矩形領域の角を示す角画像以外の画像であっても良く、オブジェクトと対応付けられた画像であれば良い。また、上で説明した図では、オブジェクトを選択するための画像の形状を矩形としているが、オブジェクトを選択するための画像の形状は、任意の形状であって良い。例えば、オブジェクトを選択するための画像は、円形であっても良いし、矢印であっても良いし、人の手をかたどった形状であっても良い。また、オブジェクトを選択するための画像の大きさは、オブジェクトの大きさと関連付けて決められても良い。 As described above, in the present embodiment, the image for selecting the object may be an image other than the corner image indicating the corner of the rectangular region indicating the object, and may be an image associated with the object. Further, in the figure described above, the shape of the image for selecting the object is a rectangle, but the shape of the image for selecting the object may be any shape. For example, the image for selecting an object may be a circle, an arrow, or a shape in the shape of a human hand. Further, the size of the image for selecting the object may be determined in relation to the size of the object.

また、上で説明した図では、オブジェクトを選択するための画像は、オブジェクトの外周上に表示されるものとしたが、これに限定されない。オブジェクトを選択するための画像は、オブジェクトと対応づけられた位置に表示されていれば良い。したがって、例えば、オブジェクトを示す矩形領域が、ディスプレイ280の表示領域と比較して、十分に小さく、オブジェクトを選択するための画像をオブジェクトの外周上に表示することが困難である場合等には、オブジェクトの外周上から離れた位置にオブジェクトを選択するための画像を表示させても良い。 Further, in the figure described above, the image for selecting the object is displayed on the outer circumference of the object, but the image is not limited to this. The image for selecting the object may be displayed at the position associated with the object. Therefore, for example, when the rectangular area showing the object is sufficiently small as compared with the display area of the display 280 and it is difficult to display an image for selecting the object on the outer circumference of the object. An image for selecting an object may be displayed at a position away from the outer circumference of the object.

また、本実施形態では、オブジェクトを示す形状を矩形としたが、これに限定されない。オブジェクトは、例えば、ストローク画像等を含む円形や楕円形等の形状であっても良い。 Further, in the present embodiment, the shape indicating the object is a rectangle, but the present invention is not limited to this. The object may have a shape such as a circle or an ellipse including a stroke image or the like.

また、本実施形態の電子黒板200は、サーバ装置と通信を行うシステムに含まれていても良い。 Further, the electronic blackboard 200 of the present embodiment may be included in a system that communicates with the server device.

図11は、電子黒板を含む情報処理システムのシステム構成の一例を示す図である。情報処理システム500は、電子黒板(電子情報ボード)200と、サーバ装置550と、を有する。情報処理システム500において、電子黒板200とサーバ装置550とは、ネットワークを介して接続される。 FIG. 11 is a diagram showing an example of a system configuration of an information processing system including an electronic blackboard. The information processing system 500 includes an electronic blackboard (electronic information board) 200 and a server device 550. In the information processing system 500, the electronic blackboard 200 and the server device 550 are connected via a network.

本実施形態の情報処理システム500において、電子黒板200は、電子黒板200の画面をキャプチャした画像データ(キャプチャ画像データ)、電子黒板200に対して手書き入力された文字や画像等を示すストローク画像データ、マイク等の集音装置よって集音された音声データ等を取得し、サーバ装置550に送信する。尚、本実施形態の電子黒板200は、取得した情報と対応付けて各種のデータを取得したときの日時を、サーバ装置550に送信しても良い。 In the information processing system 500 of the present embodiment, the electronic blackboard 200 uses image data (captured image data) that captures the screen of the electronic whiteboard 200, and stroke image data indicating characters, images, and the like handwritten to the electronic whiteboard 200. , Acquires voice data and the like collected by a sound collecting device such as a microphone, and transmits the sound data to the server device 550. The electronic blackboard 200 of the present embodiment may transmit the date and time when various data are acquired in association with the acquired information to the server device 550.

また、電子黒板200は、複数の端末装置と通信が可能であり、各端末装置から画像データや音声データを取得しても良い。この場合、電子黒板200に表示される画像は、複数の端末装置によって共有されても良く、電子黒板200は、複数の端末装置に共有される画面を表示させる共有端末となる。 Further, the electronic blackboard 200 can communicate with a plurality of terminal devices, and image data and audio data may be acquired from each terminal device. In this case, the image displayed on the electronic blackboard 200 may be shared by a plurality of terminal devices, and the electronic blackboard 200 is a shared terminal for displaying a screen shared by the plurality of terminal devices.

次に、図12乃至図14を参照して、上述した情報処理システムの変形例について説明する。 Next, a modification of the above-mentioned information processing system will be described with reference to FIGS. 12 to 14.

図12は、情報処理システムの変形例を示す第一の図である。図12の例では、電子黒板200の代わりに、端末装置600、画像投影装置700、ペン動作検出装置810を有する。 FIG. 12 is a first diagram showing a modified example of the information processing system. In the example of FIG. 12, instead of the electronic blackboard 200, the terminal device 600, the image projection device 700, and the pen motion detection device 810 are provided.

端末装置600は、画像投影装置700及びペン動作検出装置810と有線で接続されている。 The terminal device 600 is wiredly connected to the image projection device 700 and the pen motion detection device 810.

画像投影装置700は、端末装置600により入力された画像データをスクリーン800に投影させる。 The image projection device 700 projects the image data input by the terminal device 600 onto the screen 800.

ペン動作検出装置810は、電子ペン820と通信を行っており、スクリーン800の近傍における電子ペン820の動作を検出する。具体的には、電子ペン820は、スクリーン800上において、電子ペン820が示している点を示す座標情報を検出し、端末装置600へ送信する。 The pen motion detection device 810 communicates with the electronic pen 820 and detects the motion of the electronic pen 820 in the vicinity of the screen 800. Specifically, the electronic pen 820 detects coordinate information indicating a point indicated by the electronic pen 820 on the screen 800 and transmits the coordinate information to the terminal device 600.

端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820によって入力されるストローク画像を示すストローク画像データを生成し、画像投影装置700によってストローク画像をスクリーン800に描画させる。 The terminal device 600 generates stroke image data indicating a stroke image input by the electronic pen 820 based on the coordinate information received from the pen motion detection device 810, and causes the image projection device 700 to draw the stroke image on the screen 800.

また、端末装置600は、画像投影装置700に投影させている画像を示す重畳画像データを含むページデータを生成し、サーバ装置550に送信する。 Further, the terminal device 600 generates page data including superimposed image data indicating an image projected on the image projection device 700, and transmits the page data to the server device 550.

図13は、情報処理システムの変形例を示す第二の図である。図13の例では、電子黒板200の代わりに、端末装置600とディスプレイ800Aと、ペン動作検出装置810とを有する。 FIG. 13 is a second diagram showing a modified example of the information processing system. In the example of FIG. 13, instead of the electronic blackboard 200, the terminal device 600, the display 800A, and the pen motion detection device 810 are provided.

ペン動作検出装置810は、ディスプレイ800Aの近傍に配置され、ディスプレイ800A上に、電子ペン820Aが示している点を示す座標情報を検出し、端末装置600へ送信する。尚、図13の例では、電子ペン820Aは、端末装置600によってUSBコネクタを介して充電されても良い。 The pen motion detection device 810 is arranged in the vicinity of the display 800A, detects coordinate information indicating a point indicated by the electronic pen 820A on the display 800A, and transmits the coordinate information to the terminal device 600. In the example of FIG. 13, the electronic pen 820A may be charged by the terminal device 600 via the USB connector.

端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820Aによって入力されるストローク画像の画像データを生成し、ディスプレイ800Aに表示させる。 The terminal device 600 generates image data of a stroke image input by the electronic pen 820A based on the coordinate information received from the pen motion detection device 810, and displays the image data on the display 800A.

また、本実施形態の端末装置600は、画像投影装置700に投影させている画像を示す重畳画像データを含むページデータを生成し、サーバ装置550に送信する。 Further, the terminal device 600 of the present embodiment generates page data including superimposed image data indicating an image projected on the image projection device 700, and transmits the page data to the server device 550.

図14は、情報処理システムの変形例を示す第三の図である。図14の例では、電子黒板200の代わりに、端末装置600と、画像投影装置700とを有する。 FIG. 14 is a third diagram showing a modified example of the information processing system. In the example of FIG. 14, instead of the electronic blackboard 200, the terminal device 600 and the image projection device 700 are provided.

端末装置600は、電子ペン820Bと無線通信(Bluetooth等)を行って、スクリーン800上において電子ペン820Bが示す点の座標情報を受信する。そして、端末装置600は、受信した座標情報に基づき、電子ペン820Bにより入力されるストローク画像の画像データを生成し、画像投影装置700によって、スクリーン800上にストローク画像を投影させる。 The terminal device 600 performs wireless communication (Bluetooth or the like) with the electronic pen 820B, and receives the coordinate information of the point indicated by the electronic pen 820B on the screen 800. Then, the terminal device 600 generates image data of the stroke image input by the electronic pen 820B based on the received coordinate information, and the image projection device 700 projects the stroke image on the screen 800.

また、端末装置600は、画像投影装置700に投影させている画像を示す重畳画像データを含むページデータを生成し、サーバ装置550に送信する。 Further, the terminal device 600 generates page data including superimposed image data indicating an image projected on the image projection device 700, and transmits the page data to the server device 550.

以上のように、上述した各実施形態は、様々なシステム構成において適用することができる。 As described above, each of the above-described embodiments can be applied in various system configurations.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiment described above can be realized by one or more processing circuits. Here, the "processing circuit" in the present specification is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array) and conventional circuit modules.

尚、本実施形態が適用される装置は、タッチ操作によって、オブジェクトを操作する機能を備えた表示装置であれば良く、電子黒板200に限定されにない。本実施形態が適用される装置は、例えば、PJ(Projector:プロジェクタ)、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、ネットワーク家電、自動車(Connected Car)、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)、ウェアラブルPC等であってもよい。 The device to which the present embodiment is applied may be a display device having a function of operating an object by a touch operation, and is not limited to the electronic blackboard 200. Devices to which this embodiment is applied include, for example, PJs (projectors), output devices such as digital signage, HUD (Head Up Display) devices, network home appliances, connected cars, notebook PCs (personal computers), and the like. It may be a mobile phone, a smartphone, a tablet terminal, a game machine, a PDA (Personal Digital Assistant), a wearable PC, or the like.

また、実施形態に記載された装置群は、本明細書に開示された実施形態を実施するための複数のコンピューティング環境のうちの1つを示すものにすぎない。 Further, the device group described in the embodiment is only one of a plurality of computing environments for implementing the embodiment disclosed in the present specification.

ある実施形態では、第1の装置は、サーバクラスタといった複数のコンピューティングデバイスを含む。複数のコンピューティングデバイスは、ネットワークや共有メモリなどを含む任意のタイプの通信リンクを介して互いに通信するように構成されており、本明細書に開示された処理を実施する。同様に、第2の装置は、互いに通信するように構成された複数のコンピューティングデバイスを含むことができる。 In certain embodiments, the first device comprises a plurality of computing devices, such as a server cluster. The plurality of computing devices are configured to communicate with each other over any type of communication link, including networks, shared memory, and the like, and perform the processes disclosed herein. Similarly, the second device can include multiple computing devices configured to communicate with each other.

さらに、第1の装置および第2の装置は、図7に示す処理のステップを様々な組み合わせで共有するように構成できる。例えば、所定のユニットによって実行されるプロセスは、第2の装置によって実行され得る。同様に、所定のユニットの機能は、第2の装置によって実行することができる。また、第1の装置と第2の装置の各要素は、1つのサーバ装置にまとめられていても良いし、複数の装置に分けられていても良い。 Further, the first device and the second device can be configured to share the processing steps shown in FIG. 7 in various combinations. For example, a process performed by a given unit may be performed by a second device. Similarly, the function of a given unit can be performed by a second device. Further, each element of the first device and the second device may be integrated into one server device, or may be divided into a plurality of devices.

以上、各実施形態に基づき本発明の説明を行ってきたが、上記実施形態に示した要件に本発明が限定されるものではない。これらの点に関しては、本発明の主旨をそこなわない範囲で変更することができ、その応用形態に応じて適切に定めることができる。 Although the present invention has been described above based on each embodiment, the present invention is not limited to the requirements shown in the above embodiments. With respect to these points, the gist of the present invention can be changed without impairing the gist of the present invention, and can be appropriately determined according to the application form thereof.

200 電子黒板
320 ページ記憶部
330 オブジェクト記憶部
341 入力部
342 ページ生成部
343 オブジェクト特定部
344 座標取得部
345 接近検知部
346 領域判定部
347 表示制御部
348 オブジェクト更新部
200 Electronic blackboard 320 Page storage 330 Object storage 341 Input unit 342 Page generation unit 343 Object identification unit 344 Coordinate acquisition unit 345 Approach detection unit 346 Area determination unit 347 Display control unit 348 Object update unit

特開2017−204082号公報Japanese Unexamined Patent Publication No. 2017-204082

Claims (8)

オブジェクトが表示される表示部に対する入力手段の接近を検知する接近検知部と、
前記入力手段の接近が検知され、前記表示部における前記オブジェクトを選択するための画像を含む所定領域内に、前記入力手段と対応する座標が示す位置が含まれる場合に、前記オブジェクトを選択するための画像を拡大して表示させる表示制御部と、を有する表示装置。
An approach detection unit that detects the approach of the input means to the display unit on which the object is displayed,
To select the object when the approach of the input means is detected and the position indicated by the coordinates corresponding to the input means is included in the predetermined area including the image for selecting the object on the display unit. A display device having a display control unit for enlarging and displaying an image of.
前記オブジェクトを選択するための画像は、前記オブジェクトの外周に沿って表示される画像である、請求項1記載の表示装置。 The display device according to claim 1, wherein the image for selecting the object is an image displayed along the outer circumference of the object. 前記オブジェクトは、矩形領域であり、前記オブジェクトに含まれる画像は、前記入力手段により手書き入力によって入力されたストローク画像であり、
前記オブジェクトを選択するための画像は、前記矩形領域の角を含む画像である、請求項2記載の表示装置。
The object is a rectangular area, and the image included in the object is a stroke image input by handwriting input by the input means.
The display device according to claim 2, wherein the image for selecting the object is an image including the corners of the rectangular region.
前記表示制御部は、
前記オブジェクトを選択するための画像を、前記所定領域と同じ大きさに拡大する、請求項1ないし3の何れか一項に記載の表示装置。
The display control unit
The display device according to any one of claims 1 to 3, wherein an image for selecting the object is enlarged to the same size as the predetermined area.
前記表示制御部は、
前記入力手段と対応する座標が示す位置が、前記所定領域外の位置となった場合に、各拡大した前記オブジェクトを選択するための画像を、拡大する前の大きさに戻す、請求項1ないし4の何れか一項に記載の表示装置。
The display control unit
Claim 1 to return the image for selecting each enlarged object to the size before enlargement when the position indicated by the coordinates corresponding to the input means is a position outside the predetermined area. The display device according to any one of 4.
前記所定領域内に前記入力手段と対応する座標が示す位置が含まれるか否かを判定する領域判定部を有する、請求項1ないし5の何れか一項に記載の表示装置。 The display device according to any one of claims 1 to 5, further comprising an area determination unit for determining whether or not a position indicated by coordinates corresponding to the input means is included in the predetermined area. 表示装置による表示方法であって、前記表示装置が、
オブジェクトが表示される表示部に対する入力手段の接近を検知し、
前記入力手段の接近が検知され、前記表示部における前記オブジェクトを選択するための画像を含む所定領域内に、前記入力手段と対応する座標が示す位置が含まれる場合に、前記オブジェクトを選択するための画像を拡大して表示させる、表示方法。
A display method using a display device, wherein the display device
Detects the approach of the input means to the display where the object is displayed,
To select the object when the approach of the input means is detected and the position indicated by the coordinates corresponding to the input means is included in the predetermined area including the image for selecting the object in the display unit. A display method that enlarges and displays the image of.
オブジェクトが表示される表示部に対する入力手段の接近を検知し、
前記入力手段の接近が検知され、前記表示部における前記オブジェクトを選択するための画像を含む所定領域内に、前記入力手段と対応する座標が示す位置が含まれる場合に、前記オブジェクトを選択するための画像を拡大して表示させる、処理を表示装置に実行させる表示プログラム。
Detects the approach of the input means to the display where the object is displayed,
To select the object when the approach of the input means is detected and the position indicated by the coordinates corresponding to the input means is included in the predetermined area including the image for selecting the object on the display unit. A display program that causes a display device to execute processing that enlarges and displays the image of.
JP2019049123A 2019-03-15 2019-03-15 Display device, display method, and display program Pending JP2020149633A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019049123A JP2020149633A (en) 2019-03-15 2019-03-15 Display device, display method, and display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019049123A JP2020149633A (en) 2019-03-15 2019-03-15 Display device, display method, and display program

Publications (1)

Publication Number Publication Date
JP2020149633A true JP2020149633A (en) 2020-09-17

Family

ID=72430656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019049123A Pending JP2020149633A (en) 2019-03-15 2019-03-15 Display device, display method, and display program

Country Status (1)

Country Link
JP (1) JP2020149633A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07219700A (en) * 1994-02-03 1995-08-18 Hitachi Ltd Information processor
JPH0816353A (en) * 1994-06-28 1996-01-19 Sharp Corp Object display enlarging method
JP2001118077A (en) * 1999-10-15 2001-04-27 Ricoh Co Ltd Device and method for preparing document
US20110074698A1 (en) * 2009-09-25 2011-03-31 Peter William Rapp Device, Method, and Graphical User Interface for Manipulation of User Interface Objects with Activation Regions
JP2014016948A (en) * 2012-07-11 2014-01-30 Ntt Docomo Inc User interface device, user interface method, and program
WO2016194650A1 (en) * 2015-06-04 2016-12-08 株式会社リコー Information processing device, image display method, and program
JP2017151491A (en) * 2014-07-07 2017-08-31 株式会社リコー Image display device, image processing system, image processing method, and image processing program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07219700A (en) * 1994-02-03 1995-08-18 Hitachi Ltd Information processor
JPH0816353A (en) * 1994-06-28 1996-01-19 Sharp Corp Object display enlarging method
JP2001118077A (en) * 1999-10-15 2001-04-27 Ricoh Co Ltd Device and method for preparing document
US20110074698A1 (en) * 2009-09-25 2011-03-31 Peter William Rapp Device, Method, and Graphical User Interface for Manipulation of User Interface Objects with Activation Regions
JP2014016948A (en) * 2012-07-11 2014-01-30 Ntt Docomo Inc User interface device, user interface method, and program
JP2017151491A (en) * 2014-07-07 2017-08-31 株式会社リコー Image display device, image processing system, image processing method, and image processing program
WO2016194650A1 (en) * 2015-06-04 2016-12-08 株式会社リコー Information processing device, image display method, and program

Similar Documents

Publication Publication Date Title
US9069386B2 (en) Gesture recognition device, method, program, and computer-readable medium upon which program is stored
US11188125B2 (en) Information processing apparatus, information processing meihod and program
JP6812579B2 (en) Methods and devices for detecting planes and / or quadtrees for use as virtual substrates
US10114501B2 (en) Wearable electronic device using a touch input and a hovering input and controlling method thereof
US20150268828A1 (en) Information processing device and computer program
US11907466B2 (en) Apparatus and method which displays additional information along with a display component in response to the display component being selected
US9395838B2 (en) Input device, input control method, and input control program
EP3989051A1 (en) Input device, input method, medium, and program
JP7338330B2 (en) Display device, display method, program
JP2020149633A (en) Display device, display method, and display program
JP7279425B2 (en) DISPLAY DEVICE, DISPLAY SYSTEM, OPERATING MODE CONTROL METHOD, AND PROGRAM
JP2022138285A (en) Display device, display method and program
JP2020154766A (en) Display device, display method, and display program
JP7467842B2 (en) Display device, display method, and display program
US11727896B2 (en) Apparatus and method for display control, and recording medium
JP7443685B2 (en) Display device, display method, display program
US20210027750A1 (en) Display apparatus, display system, and display method
JP7480608B2 (en) Display device, display method, and program
JP7342485B2 (en) Control device, method, program, and information processing system
JP2022147297A (en) Display device, method for display, and program
US11726654B2 (en) Display apparatus capable of displaying icon corresponding to shape of hand-drafted input, display method, and non-transitory computer-executable medium storing program thereon
US11816327B2 (en) Display apparatus, method for displaying, and non-transitory recording medium
JP7508916B2 (en) Display device, display method, and program
JP7215254B2 (en) Information processing device, display control method, and program
JP2022143517A (en) Display device, method for display, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230123

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230516