JP2021197024A - Display unit, display method, and program - Google Patents

Display unit, display method, and program Download PDF

Info

Publication number
JP2021197024A
JP2021197024A JP2020104709A JP2020104709A JP2021197024A JP 2021197024 A JP2021197024 A JP 2021197024A JP 2020104709 A JP2020104709 A JP 2020104709A JP 2020104709 A JP2020104709 A JP 2020104709A JP 2021197024 A JP2021197024 A JP 2021197024A
Authority
JP
Japan
Prior art keywords
display
display device
objects
pen
selected state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020104709A
Other languages
Japanese (ja)
Inventor
大良 小山
Taira Koyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2020104709A priority Critical patent/JP2021197024A/en
Publication of JP2021197024A publication Critical patent/JP2021197024A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a display unit that allows a user to easily select an intended object from a plurality of overlapping objects.SOLUTION: A display unit displays a plurality of objects, and has: operation receiving means that receives an operation performed with input means; and object selection means that, when the operation receiving means receives a predetermined behavior at a position where the plurality of objects overlap, changes an object in a selected state selected from the plurality of objects overlapping at the position.SELECTED DRAWING: Figure 2

Description

本発明は、表示装置、表示方法及びプログラムに関する。 The present invention relates to display devices, display methods and programs.

ディスプレーの表示面に手書きされた手書き情報を取り込み、ディスプレーに表示する機能を備えた電子黒板が知られている。従来の電子黒板はユーザが電子黒板の表示面に手書きした時の座標が連結されたストロークや、三角形、星、円形などの予め定められた図形を1つのオブジェクトとして描画する。従来の電子黒板では、このようなオブジェクトの選択を、オブジェクトを囲む軌跡を電子ペンや手で描画することや、オブジェクトの一部を電子ペンや手でタッチすることで行っていた(例えば、特許文献1参照)。 An electronic blackboard having a function of taking handwritten information on the display surface of a display and displaying it on the display is known. In the conventional electronic blackboard, a stroke in which the coordinates when the user handwrites on the display surface of the electronic blackboard are connected, or a predetermined figure such as a triangle, a star, or a circle is drawn as one object. In the conventional electronic blackboard, such an object is selected by drawing a trajectory surrounding the object with an electronic pen or a hand, or by touching a part of the object with an electronic pen or a hand (for example, a patent). See Document 1).

しかしながら、従来の電子黒板は、複数のオブジェクトが重なっている場合、ユーザの意図したオブジェクトを選択しづらいという問題がある。なお、特許文献1は、このような問題について記載されていない。 However, the conventional electronic blackboard has a problem that it is difficult to select the object intended by the user when a plurality of objects overlap. It should be noted that Patent Document 1 does not describe such a problem.

本発明の実施の形態は、重なった複数のオブジェクトからユーザが意図したオブジェクトを選択し易い表示装置を提供することを目的とする。 It is an object of the present invention to provide a display device that makes it easy for a user to select an object intended by a user from a plurality of overlapping objects.

本発明の一実施形態は、複数のオブジェクトを表示する表示装置であって、入力手段による操作を受け付ける操作受付手段と、前記複数のオブジェクトが重なっている位置に、前記操作受付手段で所定の所作を受け付けた場合に、前記位置に重なっている前記複数のオブジェクトから選択される選択状態の前記オブジェクトを変更するオブジェクト選択手段と、を有することを特徴とする。 One embodiment of the present invention is a display device that displays a plurality of objects, and a predetermined action is performed by the operation receiving means at a position where the operation receiving means that accepts an operation by the input means and the plurality of objects overlap. It is characterized by having an object selection means for changing the object in the selected state selected from the plurality of objects overlapping at the position when the above is received.

本発明の実施の形態によれば、重なった複数のオブジェクトからユーザが意図したオブジェクトを選択し易い表示装置を提供できる。 According to the embodiment of the present invention, it is possible to provide a display device that makes it easy for a user to select an object intended by a user from a plurality of overlapping objects.

重なったオブジェクトの選択方法を説明する図である。It is a figure explaining the selection method of the overlapped object. 重なったオブジェクトの長押し操作による選択方法を説明する図である。It is a figure explaining the selection method by long-pressing operation of the overlapped object. 重なったオブジェクトのタッチ操作による選択方法を説明する図である。It is a figure explaining the selection method by the touch operation of the overlapped object. ペンの斜視図の一例を示す。An example of a perspective view of a pen is shown. 表示装置の全体構成図を示した図である。It is a figure which showed the whole block diagram of the display device. 本実施形態に係る表示システムの一例の構成図である。It is a block diagram of an example of the display system which concerns on this embodiment. 表示装置のハードウェア構成図の一例である。This is an example of a hardware configuration diagram of a display device. 本実施形態に係るコンピュータの一例のハードウェア構成図である。It is a hardware block diagram of an example of the computer which concerns on this embodiment. 表示装置が有する機能をブロック状に分けて説明する機能ブロック図の一例である。This is an example of a functional block diagram for explaining the functions of the display device by dividing them into blocks. 選択モード時に表示装置が行う動作の全体的な流れを示したフローチャート図の一例である。This is an example of a flowchart showing the overall flow of operations performed by the display device in the selection mode. オブジェクトデータの一例の構成図である。It is a block diagram of an example of object data. 重なったオブジェクトの選択方法を説明する図である。It is a figure explaining the selection method of the overlapped object. 表示装置の他の構成例を示す図である。It is a figure which shows the other configuration example of a display device. 表示装置の他の構成例を示す図である。It is a figure which shows the other configuration example of a display device. 表示装置の他の構成例を示す図である。It is a figure which shows the other configuration example of a display device. 表示装置の他の構成例を示す図である。It is a figure which shows the other configuration example of a display device.

本発明の実施の形態について図面を参照しながら説明する。 An embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
<用語について>
入力手段とはタッチパネルに座標を指定して手書きが可能な手段であればよい。例えばペン、人の指や手、棒状部材などがある。また、ユーザがタッチパネルに入力手段を押しつけてから連続的に移動させた後、タッチパネルから離すという一連の操作をストロークという。ストロークデータとは、入力手段により入力される座標の軌跡に基づいてディスプレーに表示される情報である。ストロークデータは適宜、補間されてよい。
[First Embodiment]
<Terminology>
The input means may be any means that allows handwriting by designating coordinates on the touch panel. For example, there are pens, human fingers and hands, rod-shaped members, and the like. Further, a series of operations in which the user presses the input means on the touch panel, moves the input means continuously, and then releases the input means from the touch panel is called a stroke. The stroke data is information displayed on the display based on the locus of coordinates input by the input means. The stroke data may be interpolated as appropriate.

1つ以上のストロークデータに基づいてディスプレーに表示される表示物を手書きオブジェクトという。また、三角形、四角形、円形などの予め定められた図形データに基づいてディスプレーに表示される表示物を描画オブジェクトと呼ぶ。手書きオブジェクト及び描画オブジェクトはディスプレーに表示される複数のオブジェクトの一例である。 A display object displayed on the display based on one or more stroke data is called a handwritten object. Further, a display object displayed on the display based on predetermined graphic data such as a triangle, a quadrangle, and a circle is called a drawing object. Handwritten objects and drawn objects are examples of multiple objects displayed on the display.

<オブジェクトの選択の概略>
まず、本実施形態を説明するにあたって、参考になる比較例と共に、本実施形態を説明する。なお、比較例は従来技術や公知技術とは限らないことに注意されたい。
<Outline of object selection>
First, in explaining the present embodiment, the present embodiment will be described together with a comparative example that can be used as a reference. It should be noted that the comparative examples are not limited to the prior art and publicly known techniques.

図1は、重なったオブジェクトの選択方法を説明する図である。図1では、前面の手書きオブジェクト1002と背面の描画オブジェクト1004とが重なって表示されている例を示している。 FIG. 1 is a diagram illustrating a method of selecting overlapping objects. FIG. 1 shows an example in which the handwritten object 1002 on the front side and the drawing object 1004 on the back side are displayed so as to overlap each other.

図1(a)は、入力手段により入力された座標が、手書きオブジェクト1002の座標上であったため、手書きオブジェクト1002が選択状態となった例である。選択状態とは操作対象として選択されている状態である。選択状態となった手書きオブジェクト1002に対してユーザは操作が可能となる。また、選択状態でない手書きオブジェクト1002に対してユーザは操作ができない。ユーザは入力手段により手書きオブジェクト1002の上をタッチできれば、選択状態でない手書きオブジェクト1002を選択状態の手書きオブジェクト1002とすることができる。なお、図1(a)では選択状態となった手書きオブジェクト1002を破線1006で囲むことにより、ユーザから視認可能な表示態様としている。 FIG. 1A is an example in which the handwritten object 1002 is in the selected state because the coordinates input by the input means are on the coordinates of the handwritten object 1002. The selected state is a state in which the operation target is selected. The user can operate the handwritten object 1002 in the selected state. In addition, the user cannot operate the handwritten object 1002 that is not in the selected state. If the user can touch the handwritten object 1002 by the input means, the handwritten object 1002 that is not in the selected state can be set as the handwritten object 1002 in the selected state. In FIG. 1A, the handwritten object 1002 in the selected state is surrounded by the broken line 1006 so that the display mode can be visually recognized by the user.

図1(b)は、入力手段により入力された座標が、手書きオブジェクト1002の座標上でなく、描画オブジェクト1004の座標上であったため、背面の描画オブジェクト1004が選択状態となった例である。選択状態となった描画オブジェクト1004に対してユーザは操作可能となる。また、選択状態でない描画オブジェクト1004に対してユーザは操作ができない。ユーザは入力手段により手書きオブジェクト1002から少しずれた箇所をタッチすると、選択状態でない手書きオブジェクト1002を選択状態の描画オブジェクト1004とすることができない。なお、図1(b)では選択状態となった描画オブジェクト1004を破線1008で囲むことにより、ユーザから視認可能な表示態様としている。 FIG. 1B is an example in which the drawing object 1004 on the back surface is in the selected state because the coordinates input by the input means are not on the coordinates of the handwritten object 1002 but on the coordinates of the drawing object 1004. The user can operate the drawn object 1004 in the selected state. Further, the user cannot operate the drawing object 1004 that is not in the selected state. When the user touches a portion slightly deviated from the handwritten object 1002 by the input means, the handwritten object 1002 that is not in the selected state cannot be set as the drawn object 1004 in the selected state. In FIG. 1B, the drawn object 1004 in the selected state is surrounded by a broken line 1008 so that the display mode can be visually recognized by the user.

図2は、重なったオブジェクトの長押し操作による選択方法を説明する図である。長押し操作とは、タッチパネルの同じ位置に、入力手段を基準時間(所定時間)以上、押しつけたままにする操作である。図2も図1と同様、前面の手書きオブジェクト1002と背面の描画オブジェクト1004とが重なって表示されている例を示している。 FIG. 2 is a diagram illustrating a selection method by long-pressing an overlapping object. The long press operation is an operation in which the input means is pressed and held at the same position on the touch panel for a reference time (predetermined time) or longer. Similar to FIG. 1, FIG. 2 also shows an example in which the handwritten object 1002 on the front surface and the drawing object 1004 on the back surface are displayed so as to overlap each other.

また、図2は手書きオブジェクト1002及び描画オブジェクト1004が選択領域の情報を保持する例を示している。選択領域とは、オブジェクトを選択状態とするための入力手段による入力を認識するオブジェクトごとの領域である。また、選択領域は例えばオブジェクトが選択状態となった際の破線などで囲まれた領域である。 Further, FIG. 2 shows an example in which the handwritten object 1002 and the drawing object 1004 hold information in the selected area. The selection area is an area for each object that recognizes the input by the input means for selecting the object. Further, the selected area is, for example, an area surrounded by a broken line when the object is in the selected state.

なお、本実施形態では選択状態でないオブジェクトを選択状態のオブジェクトとし易くするため、オブジェクトの表示領域の大きさよりもオブジェクトの選択領域の大きさが大きい例を説明するが、これに限定されない。オブジェクトの表示領域の大きさとオブジェクトの選択領域の大きさとは同じであってもよい。また、オブジェクトの種類によりオブジェクトの表示領域の大きさと選択領域の大きさとの関係を異ならせてもよい。 In this embodiment, in order to facilitate the selection of an object that is not in the selected state, an example in which the size of the selected area of the object is larger than the size of the display area of the object will be described, but the present invention is not limited to this. The size of the display area of the object and the size of the selection area of the object may be the same. Further, the relationship between the size of the display area of the object and the size of the selection area may be different depending on the type of the object.

例えば手書きオブジェクト1002の場合は、描画オブジェクト1004よりも表示領域よりも小さいため、破線1006で囲まれた選択領域を手書きオブジェクト1002の表示領域よりも大きくする。また、描画オブジェクト1004の場合は、手書きオブジェクト1002よりも表示領域が大きいため、破線1008で囲まれた選択領域を描画オブジェクト1004の表示領域と同じ大きさとしてもよい。 For example, in the case of the handwritten object 1002, since it is smaller than the display area than the drawing object 1004, the selection area surrounded by the broken line 1006 is made larger than the display area of the handwritten object 1002. Further, in the case of the drawing object 1004, since the display area is larger than that of the handwritten object 1002, the selection area surrounded by the broken line 1008 may be the same size as the display area of the drawing object 1004.

図2(a)は、入力手段により入力された座標が、手書きオブジェクト1002の選択領域内であったため、手書きオブジェクト1002が選択状態となった例である。ユーザは入力手段により手書きオブジェクト1002の選択領域の上をタッチできれば、選択状態でない手書きオブジェクト1002を選択状態の手書きオブジェクト1002とすることができる。なお、図2(a)では選択状態となった手書きオブジェクト1002を破線1006で囲むことにより、ユーザから視認可能な表示態様としている。図2(a)に示した例では、図1(a)に示した例と比べて手書きオブジェクト1002を選択状態とすることが容易となる。 FIG. 2A is an example in which the handwritten object 1002 is in the selected state because the coordinates input by the input means are within the selection area of the handwritten object 1002. If the user can touch the selected area of the handwritten object 1002 by the input means, the handwritten object 1002 that is not in the selected state can be set as the handwritten object 1002 in the selected state. In FIG. 2A, the handwritten object 1002 in the selected state is surrounded by the broken line 1006 so that the display mode can be visually recognized by the user. In the example shown in FIG. 2A, it becomes easier to select the handwritten object 1002 as compared with the example shown in FIG. 1A.

図2(b)は、入力手段により長押し操作を受け付けた座標が、選択状態の手書きオブジェクト1002の選択領域内及び選択状態でない背面の描画オブジェクト1004の選択領域内であったため、選択状態の手書きオブジェクト1002が選択状態ではなくなると共に、選択状態でない描画オブジェクト1004が選択状態となっている。本実施形態では選択状態の手書きオブジェクト1002が選択状態ではなくなると共に、選択状態でない描画オブジェクト1004が選択状態となることを、手書きオブジェクト1002から描画オブジェクト1004への選択状態の移行(変更)と呼ぶ。図2(b)は選択状態が手書きオブジェクト1002から背面の描画オブジェクト1004に移行した例である。ユーザは図2(b)に示したような手書きオブジェクト1002及び背面の描画オブジェクト1004の選択領域内の箇所を長押し操作することで、オブジェクトの選択状態の移行が容易となる。なお、図2(b)では選択状態となった描画オブジェクト1004を破線1008で囲むことにより、ユーザから視認可能な表示態様としている。 In FIG. 2B, the coordinates for which the long press operation is received by the input means are in the selected area of the handwritten object 1002 in the selected state and in the selected area of the drawing object 1004 on the back surface which is not in the selected state. The object 1002 is no longer in the selected state, and the drawing object 1004 that is not in the selected state is in the selected state. In the present embodiment, the fact that the handwritten object 1002 in the selected state is not in the selected state and the drawn object 1004 that is not in the selected state is in the selected state is called transition (change) of the selected state from the handwritten object 1002 to the drawn object 1004. FIG. 2B is an example in which the selected state shifts from the handwritten object 1002 to the drawing object 1004 on the back surface. The user can easily shift the selected state of the object by long-pressing the portion in the selected area of the handwritten object 1002 and the drawing object 1004 on the back surface as shown in FIG. 2 (b). In FIG. 2B, the drawn object 1004 in the selected state is surrounded by a broken line 1008 so that the display mode can be visually recognized by the user.

図3は重なったオブジェクトのタッチ操作による選択方法を説明する図である。タッチ操作とは、タッチパネルに入力手段をタッチダウンしてから、基準時間を超えないようにタッチアップする操作である。タッチダウンとは、例えば入力手段がタッチパネルに触れることである。タッチアップとは、例えば入力手段がタッチパネルに触れた後、入力手段がタッチパネルから離れることである。 FIG. 3 is a diagram illustrating a selection method by touch operation of overlapping objects. The touch operation is an operation in which the input means is touched down on the touch panel and then touched up so as not to exceed the reference time. Touchdown means, for example, that the input means touches the touch panel. Touch-up means, for example, that the input means leaves the touch panel after the input means touches the touch panel.

なお、図3も図1及び図2と同様、前面の手書きオブジェクト1002と背面の描画オブジェクト1004とが重なって表示されている例を示している。また、図3も図2と同様、手書きオブジェクト1002及び描画オブジェクト1004が選択領域の情報を保持する例を示している。 Note that, as in FIGS. 1 and 2, FIG. 3 also shows an example in which the handwritten object 1002 on the front surface and the drawing object 1004 on the back surface are displayed so as to overlap each other. Further, FIG. 3 also shows an example in which the handwritten object 1002 and the drawing object 1004 hold the information of the selected area as in FIG. 2.

図3(a)は、入力手段により入力された座標が、手書きオブジェクト1002の選択領域内であったため、手書きオブジェクト1002が選択状態となった例である。ユーザは入力手段により手書きオブジェクト1002の選択領域の上をタッチできれば、手書きオブジェクト1002を選択状態とすることができる。なお、図3(a)では選択状態となった手書きオブジェクト1002を破線1006で囲むことにより、ユーザから視認可能な表示態様としている。図3(a)に示した例では、図1(a)に示した例と比べて手書きオブジェクト1002を選択状態とすることが容易となる。 FIG. 3A is an example in which the handwritten object 1002 is in the selected state because the coordinates input by the input means are within the selected area of the handwritten object 1002. If the user can touch the selected area of the handwritten object 1002 by the input means, the handwritten object 1002 can be selected. In FIG. 3A, the handwritten object 1002 in the selected state is surrounded by the broken line 1006 so that the display mode can be visually recognized by the user. In the example shown in FIG. 3A, it becomes easier to select the handwritten object 1002 as compared with the example shown in FIG. 1A.

図3(b)は入力手段により再度タッチ操作を受け付けた座標が、選択状態の手書きオブジェクト1002及び背面の描画オブジェクト1004の選択領域内であったため、選択状態が背面の描画オブジェクト1004に移行した例である。ユーザは選択状態の手書きオブジェクト1002及び背面の描画オブジェクト1004の選択領域内の箇所を再度タッチ操作することで、オブジェクトの選択状態の移行が容易となる。図3(b)では選択状態となった描画オブジェクト1004を破線1008で囲むことにより、ユーザから視認可能な表示態様としている。 FIG. 3B shows an example in which the selected state shifts to the drawing object 1004 on the back surface because the coordinates for which the touch operation is received again by the input means are within the selection area of the handwriting object 1002 in the selected state and the drawing object 1004 on the back surface. Is. The user can easily transfer the selected state of the handwritten object 1002 in the selected state and the drawn object 1004 on the back surface by touching the portion in the selected area again. In FIG. 3B, the drawn object 1004 in the selected state is surrounded by a broken line 1008 so that the display mode can be visually recognized by the user.

なお、図2及び図3で説明した長押し操作及びタッチ操作は、後述の操作受付部が受け付ける所定の所作の一例である。 The long press operation and the touch operation described with reference to FIGS. 2 and 3 are examples of predetermined actions accepted by the operation reception unit described later.

<ペンの外観の一例>
図4は、ペンの斜視図の一例を示す。図4は多機能なペン2500の一例を示す。電源を内蔵して表示装置2に命令を送信できるペン2500はアクティブペンという。電源を内蔵しないペンをパッシブペンという。図4のペン2500は、物理的なスイッチがペン先に一つ、ペン尻に一つ、ペン側面に二つあり、ペン先が筆記用、ペン尻が消去用、ペン側面がユーザ機能割り当て用である。本実施形態のペン2500は不揮発性のメモリーを有しており、他のペンと重複しないペンIDを記憶している。
<Example of pen appearance>
FIG. 4 shows an example of a perspective view of the pen. FIG. 4 shows an example of the multifunctional pen 2500. The pen 2500, which has a built-in power supply and can send commands to the display device 2, is called an active pen. A pen that does not have a built-in power supply is called a passive pen. The pen 2500 in FIG. 4 has one physical switch on the pen tip, one on the pen bottom, and two on the side of the pen. The pen tip is for writing, the pen bottom is for erasing, and the pen side is for assigning user functions. Is. The pen 2500 of the present embodiment has a non-volatile memory and stores a pen ID that does not overlap with other pens.

なお、スイッチ付きのペン2500であれば、ユーザの表示装置2の操作手順を減らすことも可能である。スイッチ付きのペン2500とは主にアクティブペンを言う。しかしながら、電磁誘導方式では電源を内蔵しないパッシブペンでもLC回路だけで電力を発生できる。このため、スイッチ付きのペン2500は、アクティブペンだけでなく電磁誘導方式のパッシブペンを含む。電磁誘導方式以外の光学方式、赤外線方式、及び、静電容量方式のスイッチ付きのペン2500はアクティブペンである。 If the pen 2500 has a switch, it is possible to reduce the operation procedure of the user's display device 2. The pen 2500 with a switch mainly refers to an active pen. However, in the electromagnetic induction method, even a passive pen that does not have a built-in power supply can generate electric power only by the LC circuit. Therefore, the pen 2500 with a switch includes not only an active pen but also an electromagnetic induction type passive pen. The pen 2500 with a switch of an optical system other than the electromagnetic induction system, an infrared system, and a capacitance system is an active pen.

なお、ペン2500のハードウェア構成は通信機能とマイコンを備えた一般的な制御方式と同様であるとする。ペン2500の座標の入力方式には、電磁誘導方式、アクティブ静電結合方式などがある。また、ペン2500は、筆圧検知、傾き検知、ホバー機能(ペンが触れる前にカーソルを表示)などの機能を有していてよい。 It is assumed that the hardware configuration of the pen 2500 is the same as that of a general control method including a communication function and a microcomputer. The input method of the coordinates of the pen 2500 includes an electromagnetic induction method, an active electrostatic coupling method, and the like. Further, the pen 2500 may have functions such as pen pressure detection, tilt detection, and a hover function (displaying a cursor before the pen touches it).

<装置の全体構成>
図5を用いて、本実施形態に係る表示装置2の全体構成を説明する。図5は、表示装置の全体構成図を示した図である。図5(a)では、表示装置2の一例として、壁につり下げられた横長の電子黒板として使用される表示装置2を示している。
<Overall configuration of the device>
The overall configuration of the display device 2 according to the present embodiment will be described with reference to FIG. FIG. 5 is a diagram showing an overall configuration diagram of the display device. FIG. 5A shows, as an example of the display device 2, a display device 2 used as a horizontally long electronic blackboard suspended from a wall.

図5(a)に示されているように、表示装置2は表示部の一例としてのディスプレー220が設置されている。ユーザUは、ペン2500を用いて、ディスプレー220に手書きオブジェクト1002等を手書き(入力、描画ともいう)することができる。 As shown in FIG. 5A, the display device 2 is provided with a display 220 as an example of the display unit. The user U can handwrite (also referred to as input or drawing) a handwritten object 1002 or the like on the display 220 by using the pen 2500.

図5(b)は壁につり下げられた縦長の電子黒板として使用される表示装置2を示している。図5(c)は机230に平置きされた表示装置2を示す。表示装置2は厚みが1cm程度なので、一般の机に平置きしても机の高さを調整する必要がない。また、容易に移動できる。 FIG. 5B shows a display device 2 used as a vertically long electronic blackboard suspended from a wall. FIG. 5C shows a display device 2 placed flat on the desk 230. Since the display device 2 has a thickness of about 1 cm, it is not necessary to adjust the height of the desk even if it is placed flat on a general desk. Also, it can be easily moved.

<システム構成>
図6は、本実施形態に係る表示システムの一例の構成図である。図6に示した表示システム1は、サーバ3と、1台以上の表示装置2とが、通信ネットワーク5を介して通信可能に接続されている。通信ネットワーク5は、携帯電話通信網、インターネット、又はLAN(Local Area Network)等が含まれる。
<System configuration>
FIG. 6 is a configuration diagram of an example of a display system according to the present embodiment. In the display system 1 shown in FIG. 6, the server 3 and one or more display devices 2 are communicably connected to each other via the communication network 5. The communication network 5 includes a mobile phone communication network, the Internet, a LAN (Local Area Network), and the like.

サーバ3は表示装置2と連携して動作することで、表示装置2に関連した機能を提供するようにしてもよい。サーバ3は、表示装置2のユーザ認証の機能や、データ記録の機能を有していてもよい。また、サーバ3は、オンプレミスでの運用であっても、クラウドでの運用であってもよい。サーバ3は、PC(Personal Computer)や携帯電話、スマートフォン、タブレット端末、PDA(Personal Digital Assistant)等であってもよい。 The server 3 may operate in cooperation with the display device 2 to provide a function related to the display device 2. The server 3 may have a user authentication function of the display device 2 and a data recording function. Further, the server 3 may be operated on-premises or in the cloud. The server 3 may be a PC (Personal Computer), a mobile phone, a smartphone, a tablet terminal, a PDA (Personal Digital Assistant), or the like.

なお、表示装置2の一例は電子黒板である。また、表示装置2は複数のオブジェクトを表示する機能と、入力手段による操作により選択状態のオブジェクトを変更する機能とを備えた装置であれば、電子看板(デジタルサイネージ)、遠隔画像(映像)診断装置、HUD(Head Up Display)装置などであってもよい。また、表示装置2は、産業機械、撮像装置、集音装置、医療機器、ネットワーク家電、自動車(Connected Car)、PC、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA、デジタルカメラ、デジタルビデオカメラ等であってもよい。 An example of the display device 2 is an electronic blackboard. Further, if the display device 2 is a device having a function of displaying a plurality of objects and a function of changing an object in the selected state by an operation by an input means, an electronic signage (digital signage) and a remote image (video) diagnosis are performed. It may be a device, a HUD (Head Up Display) device, or the like. The display device 2 includes an industrial machine, an image pickup device, a sound collecting device, a medical device, a network home appliance, a car (Connected Car), a PC, a mobile phone, a smartphone, a tablet terminal, a game machine, a PDA, a digital camera, and a digital video camera. And so on.

図6に示す表示システム1の構成は一例である。例えばサーバ3は複数台で構成されてもよいし、サーバ3の機能を表示装置2に備えることで、省略されてもよい。また、表示装置2の機能の少なくとも一部はサーバ3に備えるようにしてもよい。このように、表示システム1の表示装置2及びサーバ3の機能は、表示装置2及びサーバ3の何れかが備えていればよい。また、表示装置2及びサーバ3の機能は、表示装置2及びサーバ3以外の他の装置で実現する構成であってもよい。 The configuration of the display system 1 shown in FIG. 6 is an example. For example, the server 3 may be configured by a plurality of units, or may be omitted by providing the function of the server 3 in the display device 2. Further, at least a part of the functions of the display device 2 may be provided in the server 3. As described above, the functions of the display device 2 and the server 3 of the display system 1 may be provided by either the display device 2 or the server 3. Further, the functions of the display device 2 and the server 3 may be configured to be realized by a device other than the display device 2 and the server 3.

なお、表示装置2用のプログラム(アプリケーション)は、CD−ROM、DVD−ROM等のコンピュータで読み取り可能な記録媒体に記録して流通させることで提供するようにしてもよいし、オンプレミスやクラウドで運用されているサーバからのダウンロードで提供するようにしてもよい。サーバ3は、表示装置2用のプログラムを表示装置2にダウンロードさせる機能を有していてもよい。 The program (application) for the display device 2 may be provided by recording it on a computer-readable recording medium such as a CD-ROM or DVD-ROM and distributing it, or on-premises or in the cloud. It may be provided by downloading from the operating server. The server 3 may have a function of causing the display device 2 to download the program for the display device 2.

<ハードウェア構成>
続いて、図7を用いて、表示装置2のハードウェア構成例を説明する。表示装置2は図7に示すように情報処理装置又はコンピュータの構成を有している。図7は、表示装置のハードウェア構成図の一例である。表示装置2は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、及び、SSD(Solid State Drive)204を備えている。
<Hardware configuration>
Subsequently, a hardware configuration example of the display device 2 will be described with reference to FIG. 7. As shown in FIG. 7, the display device 2 has a configuration of an information processing device or a computer. FIG. 7 is an example of a hardware configuration diagram of the display device. The display device 2 includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, and an SSD (Solid State Drive) 204.

CPU201は、表示装置2全体の動作を制御する。ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。SSD204は表示装置2用のプログラム等の各種データを記憶する。 The CPU 201 controls the operation of the entire display device 2. The ROM 202 stores a program used for driving the CPU 201 such as the CPU 201 and the IPL (Initial Program Loader). The RAM 203 is used as a work area of the CPU 201. The SSD 204 stores various data such as a program for the display device 2.

また、表示装置2は、ディスプレーコントローラー213、タッチセンサーコントローラー215、タッチセンサー216、ディスプレー220、電源スイッチ227、チルトセンサー217、シリアルインタフェース218、スピーカー219、マイク221、無線通信装置222、赤外線I/F223、電源制御回路224、ACアダプター225、及びバッテリー226を備えている。 The display device 2 includes a display controller 213, a touch sensor controller 215, a touch sensor 216, a display 220, a power switch 227, a tilt sensor 217, a serial interface 218, a speaker 219, a microphone 221 and a wireless communication device 222, and an infrared I / F 223. , Power control circuit 224, AC adapter 225, and battery 226.

ディスプレーコントローラー213は、出力画像をディスプレー220等へ出力するために画面表示の制御及び管理を行う。タッチセンサー216は、ディスプレー220上にペン2500やユーザの手等(ペンやユーザの手は入力手段となる)が接触したことを検知する。また、タッチセンサー216はペンIDを受信する。 The display controller 213 controls and manages the screen display in order to output the output image to the display 220 or the like. The touch sensor 216 detects that the pen 2500, the user's hand, or the like (the pen or the user's hand serves as an input means) touches the display 220. Further, the touch sensor 216 receives the pen ID.

タッチセンサーコントローラー215は、タッチセンサー216の処理を制御する。タッチセンサー216は、座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、例えば、光学式の場合、ディスプレー220の上側両端部に設置された2つ受発光装置が、ディスプレー220に平行して複数の赤外線を放射し、ディスプレー220の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。タッチセンサー216は、物体によって遮断された2つの受発光装置が放射した赤外線の位置情報をタッチセンサーコントローラー215に出力し、タッチセンサーコントローラー215が、物体の接触位置である座標位置を特定する。また、タッチセンサーコントローラー215は通信ユニット215aを有しており、ペン2500と無線で通信することができる。例えば、Bluetooth(登録商標)などの規格で通信している場合は、市販されているペンを使用することができる。通信ユニット215aに予め1つ以上のペン2500を登録しておくと、ユーザはペン2500を表示装置2と通信させる接続設定を行わなくても通信できる。 The touch sensor controller 215 controls the processing of the touch sensor 216. The touch sensor 216 inputs coordinates and detects coordinates. In the case of an optical method, for example, in the case of an optical method, two light receiving / receiving devices installed at both upper ends of the display 220 emit a plurality of infrared rays in parallel with the display 220 to display the coordinates. This is a method of receiving light that is reflected by a reflecting member provided around the 220 and returns on the same optical path as the optical path of the light emitted by the light receiving element. The touch sensor 216 outputs infrared position information emitted by two light receiving / receiving devices blocked by the object to the touch sensor controller 215, and the touch sensor controller 215 specifies a coordinate position which is a contact position of the object. Further, the touch sensor controller 215 has a communication unit 215a and can wirelessly communicate with the pen 2500. For example, when communicating according to a standard such as Bluetooth (registered trademark), a commercially available pen can be used. If one or more pens 2500 are registered in the communication unit 215a in advance, the user can communicate without making a connection setting for communicating the pens 2500 with the display device 2.

電源スイッチ227は、表示装置2の電源のON/OFFを切り換えるためのスイッチである。チルトセンサー217は、表示装置2の傾き角度を検出するセンサーである。主に、表示装置2が図5(a)、図5(b)、又は図5(c)のいずれかの設置状態で使用されているかを検出するために使用され、設置状態に応じて文字等の太さを自動で変更することができる。 The power switch 227 is a switch for switching ON / OFF of the power of the display device 2. The tilt sensor 217 is a sensor that detects the tilt angle of the display device 2. It is mainly used to detect whether the display device 2 is used in the installed state of FIG. 5 (a), FIG. 5 (b), or FIG. 5 (c), and characters are used according to the installed state. Etc. can be changed automatically.

シリアルインタフェース218はUSBなどの外部との通信インタフェースである。外部からの情報の入力などに使用される。スピーカー219は音声の出力に使用され、マイク221は音声の入力に使用される。無線通信装置222は、ユーザが携帯する端末と通信し、例えばインターネットへの接続を中継する。無線通信装置222はWi−FiやBluetooth(登録商標)などで通信するが、通信規格は問わない。無線通信装置222はアクセスポイントを形成しており、ユーザが入手したSSID(Service Set Identifier)とパスワードをユーザが携帯する端末に設定すると、アクセスポイントに接続できる。 The serial interface 218 is a communication interface with the outside such as USB. It is used for inputting information from the outside. The speaker 219 is used for audio output and the microphone 221 is used for audio input. The wireless communication device 222 communicates with a terminal carried by the user and relays, for example, a connection to the Internet. The wireless communication device 222 communicates by Wi-Fi, Bluetooth (registered trademark), etc., but the communication standard does not matter. The wireless communication device 222 forms an access point, and when the SSID (Service Set Identifier) and the password obtained by the user are set in the terminal carried by the user, the access point can be connected.

赤外線I/F223は隣に配置された表示装置2を検出する。赤外線I/F223は赤外線の直進性を利用して、隣に配置された表示装置2のみを検出できる。赤外線I/F223は各辺に1つずつ設けられることが好ましく、表示装置2のどの方向に他の表示装置2が配置されたのかを検出できる。これにより画面が広がり、隣の表示装置2に過去に手書きされた手書き情報(1つのディスプレー220の広さを1ページとして別のページの手書き情報)等を表示できる。 The infrared I / F 223 detects the display device 2 arranged next to it. The infrared I / F 223 can detect only the display device 2 arranged next to it by utilizing the straightness of infrared rays. It is preferable that one infrared ray I / F 223 is provided on each side, and it is possible to detect in which direction of the display device 2 the other display device 2 is arranged. As a result, the screen expands, and handwritten information handwritten in the past (handwritten information on another page with the size of one display 220 as one page) and the like can be displayed on the adjacent display device 2.

電源制御回路224は表示装置2の電源であるACアダプター225とバッテリー226を制御する。ACアダプター225は商用電源が共有する交流を直流に変換する。 The power supply control circuit 224 controls the AC adapter 225 and the battery 226, which are the power supplies of the display device 2. The AC adapter 225 converts the alternating current shared by the commercial power supply into direct current.

ディスプレー220がいわゆる電子ペーパーの場合、画像の表示を維持するためにほとんど又は一切電力を消費しないので、バッテリー226による駆動も可能である。これにより、屋外など電源を接続しにくい場所でもデジタルサイネージなどの用途で表示装置2を使用することが可能になる。 If the display 220 is so-called electronic paper, it can also be driven by the battery 226 because it consumes little or no power to maintain the display of the image. This makes it possible to use the display device 2 for applications such as digital signage even in places where it is difficult to connect a power source such as outdoors.

更に、表示装置2は、バスライン210を備えている。バスライン210は、図7に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Further, the display device 2 includes a bus line 210. The bus line 210 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 201 shown in FIG. 7.

なお、タッチセンサー216は、光学式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなど種々の検出手段を用いてもよい。タッチセンサー216は、ペン先のタッチの有無を検知するのに電子ペンが必要ない方式であってよい。この場合はタッチ操作をするのに指先やペン型の棒を使用できる。なお、ペン2500は、細長いペン型である必要はない。 The touch sensor 216 is not limited to the optical type, but is a capacitive touch panel that specifies a contact position by detecting a change in capacitance, and a contact position is specified by a voltage change between two opposing resistance films. Various detection means such as a resistance film type touch panel and an electromagnetic induction type touch panel that detects the electromagnetic induction generated by the contact of a contact object with the display unit and specifies the contact position may be used. The touch sensor 216 may be a method that does not require an electronic pen to detect the presence or absence of touch of the pen tip. In this case, you can use your fingertips or a pen-shaped stick to perform touch operations. The pen 2500 does not have to be an elongated pen type.

図6に示すサーバ3は、例えば図8に示すようなハードウェア構成のコンピュータ500により実現される。図8は、本実施形態に係るコンピュータの一例のハードウェア構成図である。 The server 3 shown in FIG. 6 is realized by, for example, a computer 500 having a hardware configuration as shown in FIG. FIG. 8 is a hardware configuration diagram of an example of a computer according to the present embodiment.

図8に示されているように、コンピュータ500はCPU501、ROM502、RAM503、HD504、HDD(Hard Disk Drive)コントローラ505、ディスプレー506、外部機器接続I/F(Interface)508、ネットワークI/F509、データバス510、キーボード511、ポインティングデバイス512、DVD−RW(Digital Versatile Disk Rewritable)ドライブ514、メディアI/F516を備えている。 As shown in FIG. 8, the computer 500 includes a CPU 501, a ROM 502, a RAM 503, an HD504, an HDD (Hard Disk Drive) controller 505, a display 506, an external device connection I / F (Interface) 508, a network I / F 509, and data. It is equipped with a bus 510, a keyboard 511, a pointing device 512, a DVD-RW (Digital Versatile Disk Rewritable) drive 514, and a media I / F 516.

これらのうち、CPU501は、プログラムに従ってコンピュータ500全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504はプログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御する。 Of these, the CPU 501 controls the operation of the entire computer 500 according to a program. The ROM 502 stores a program used to drive the CPU 501 such as an IPL. The RAM 503 is used as a work area of the CPU 501. The HD504 stores various data such as programs. The HDD controller 505 controls reading or writing of various data to the HD 504 according to the control of the CPU 501.

ディスプレー506は、カーソル、メニュー、ウインドウ、文字、又は画像などの各種情報を表示する。外部機器接続I/F508は、各種の外部機器を接続するためのインタフェースである。外部機器は、例えばUSBメモリーやプリンタ等である。ネットワークI/F509は、通信ネットワーク5を利用してデータ通信をするためのインタフェースである。データバス510は、CPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The display 506 displays various information such as cursors, menus, windows, characters, or images. The external device connection I / F 508 is an interface for connecting various external devices. The external device is, for example, a USB memory, a printer, or the like. The network I / F 509 is an interface for performing data communication using the communication network 5. The data bus 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501.

キーボード511は、文字、数値、各種指示などの入力のための複数のキーを備えた入力装置の一種である。ポインティングデバイス512は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。DVD−RWドライブ514は、着脱可能な記録媒体の一例としてのDVD−RW513に対する各種データの読み出し又は書き込みを制御する。なお、DVD−RWに限らず、DVD−R等であってもよい。メディアI/F516はフラッシュメモリー等の記録メディア515に対するデータの読み出し又は書き込み(記憶)を制御する。 The keyboard 511 is a kind of input device including a plurality of keys for inputting characters, numerical values, various instructions, and the like. The pointing device 512 is a kind of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The DVD-RW drive 514 controls reading or writing of various data to the DVD-RW 513 as an example of a detachable recording medium. In addition, it is not limited to DVD-RW, and may be DVD-R or the like. The media I / F 516 controls reading or writing (storage) of data to a recording medium 515 such as a flash memory.

<機能構成>
次に、図9を用いて表示装置2の機能について説明する。図9は、表示装置が有する機能をブロック状に分けて説明する機能ブロック図の一例である。表示装置2は、接触位置検出部21、描画データ生成部22、オブジェクト選択部23、表示制御部26、データ記録部27、ネットワーク通信部28、及び、操作受付部29を有している。表示装置2が有する各機能は、図7に示されている各構成要素のいずれかが、SSD204からRAM203上に展開されたプログラムに従ったCPU201からの命令によって動作することで実現される機能又は手段である。
<Functional configuration>
Next, the function of the display device 2 will be described with reference to FIG. FIG. 9 is an example of a functional block diagram for explaining the functions of the display device by dividing them into blocks. The display device 2 has a contact position detection unit 21, a drawing data generation unit 22, an object selection unit 23, a display control unit 26, a data recording unit 27, a network communication unit 28, and an operation reception unit 29. Each function of the display device 2 is a function realized by operating any of the components shown in FIG. 7 by an instruction from the CPU 201 according to a program developed on the RAM 203 from the SSD 204. It is a means.

接触位置検出部21はタッチセンサー216に対しペン2500が接触した位置の座標を検出する。描画データ生成部22はペン2500のペン先が接触した座標を接触位置検出部21から取得する。この座標点列を補間することで接続して描画データ生成部22はストロークデータを生成する。接触位置検出部21はタッチセンサーコントローラー215とタッチセンサー216により実現される。描画データ生成部22はCPU201がプログラムを実行することで実現される。 The contact position detection unit 21 detects the coordinates of the position where the pen 2500 is in contact with the touch sensor 216. The drawing data generation unit 22 acquires the coordinates of contact with the pen tip of the pen 2500 from the contact position detection unit 21. The drawing data generation unit 22 generates stroke data by interpolating the coordinate point sequence to connect the coordinates. The contact position detection unit 21 is realized by the touch sensor controller 215 and the touch sensor 216. The drawing data generation unit 22 is realized by the CPU 201 executing a program.

オブジェクト選択部23はペン2500のペン先が接触した座標を接触位置検出部21から取得し、取得した座標と、ディスプレー220に表示されている手書きオブジェクトや描画オブジェクトなどのオブジェクトの選択領域と、が重なっている場合に、選択状態のオブジェクトを後述のように選択する。オブジェクト選択部23はCPU201がプログラムを実行することで実現される。 The object selection unit 23 acquires the coordinates of contact with the pen tip of the pen 2500 from the contact position detection unit 21, and the acquired coordinates and the selection area of an object such as a handwritten object or a drawing object displayed on the display 220 are displayed. If they overlap, select the selected objects as described below. The object selection unit 23 is realized by the CPU 201 executing a program.

表示制御部26は、手書きオブジェクト、描画オブジェクト、及び、ユーザが操作するための操作メニューなどをディスプレー220に表示する。また、表示制御部26は選択状態となった手書きオブジェクトや描画オブジェクトなどのオブジェクトを、視認可能な表示態様の一例として、反転表示、表示色の変更、点線表示、破線表示、及び太字表示の少なくとも一つで示す。表示制御部26は、ディスプレーコントローラー213とディスプレー220とにより実現される。 The display control unit 26 displays a handwritten object, a drawing object, an operation menu for the user to operate, and the like on the display 220. Further, the display control unit 26 displays at least objects such as handwritten objects and drawing objects in the selected state in reverse display, display color change, dotted line display, broken line display, and bold display as an example of a visible display mode. Shown by one. The display control unit 26 is realized by the display controller 213 and the display 220.

データ記録部27は、表示装置2に表示された手書きオブジェクトや描画オブジェクトなどのオブジェクトデータ等を記憶部30に記憶する。データ記録部27はCPU201がプログラムを実行することで実現される。 The data recording unit 27 stores object data such as handwritten objects and drawing objects displayed on the display device 2 in the storage unit 30. The data recording unit 27 is realized by the CPU 201 executing a program.

ネットワーク通信部28は通信ネットワーク5に接続して、他の表示装置2やサーバ3とデータの送受信を行う。なお、ネットワーク通信部28は無線通信装置222により実現される。 The network communication unit 28 connects to the communication network 5 and transmits / receives data to / from another display device 2 or the server 3. The network communication unit 28 is realized by the wireless communication device 222.

操作受付部29は、ペン2500のペン先が接触した座標を接触位置検出部21から取得し、表示装置2に表示された手書きオブジェクトや描画オブジェクトなどに対する長押し操作やタッチ操作などの所定の所作を受け付ける。なお、操作受付部29はCPU201がプログラムを実行することで実現される。なお、記憶部30は、図7に示されているSSD204やRAM203などに構築され、データ記録部27が記録する各種の情報を記憶する。 The operation reception unit 29 acquires the coordinates of contact with the pen tip of the pen 2500 from the contact position detection unit 21, and a predetermined action such as a long press operation or a touch operation on a handwritten object or a drawing object displayed on the display device 2. Accept. The operation reception unit 29 is realized by the CPU 201 executing the program. The storage unit 30 is built in the SSD 204, RAM 203, or the like shown in FIG. 7, and stores various information recorded by the data recording unit 27.

<表示装置の動作の流れ>
図10を参照して、選択モード時における表示装置2の動作の流れを説明する。図10は選択モード時に表示装置が行う動作の全体的な流れを示したフローチャート図の一例である。なお、選択モードとはユーザがペン2500等の入力手段で座標(タッチ座標)を入力することで、表示装置2に表示された手書きオブジェクトや描画オブジェクトなどのオブジェクトを選択状態に変更できるモードである。
<Operation flow of display device>
The operation flow of the display device 2 in the selection mode will be described with reference to FIG. FIG. 10 is an example of a flowchart showing the overall flow of the operation performed by the display device in the selection mode. The selection mode is a mode in which the user can change an object such as a handwritten object or a drawing object displayed on the display device 2 to the selected state by inputting coordinates (touch coordinates) by an input means such as a pen 2500. ..

選択モード時に接触位置検出部21がタッチ座標を検出すると、オブジェクト選択部23はステップS10に進み、接触位置検出部21からタッチ座標を取得する。また、オブジェクト選択部23は記憶部30に記憶されている図11のオブジェクトデータを参照することで、タッチ座標と選択領域が重なるオブジェクトの探索を行う。 When the contact position detection unit 21 detects the touch coordinates in the selection mode, the object selection unit 23 proceeds to step S10 and acquires the touch coordinates from the contact position detection unit 21. Further, the object selection unit 23 searches for an object in which the touch coordinates and the selection area overlap by referring to the object data of FIG. 11 stored in the storage unit 30.

図11はオブジェクトデータの一例の構成図である。図11のオブジェクトデータは項目としてオブジェクトID、選択領域、生成時刻、及び選択状態を有する。オブジェクトIDはオブジェクトを識別する識別情報の一例である。選択領域はオブジェクトを選択状態とするための入力手段による入力を認識するオブジェクトごとの領域である。 FIG. 11 is a block diagram of an example of object data. The object data in FIG. 11 has an object ID, a selection area, a generation time, and a selection state as items. The object ID is an example of identification information that identifies an object. The selection area is an area for each object that recognizes the input by the input means for selecting the object.

生成時刻はオブジェクトが生成された時刻である。なお、図11に示した生成時刻は複数のオブジェクトが重なって表示されている場合のオブジェクト間の前面/背面の重なり関係を判断するために利用する情報の一例である。例えば表示装置2が、生成時刻が新しいオブジェクトほど前面に表示する仕様であれば、生成時刻はオブジェクト間の前面/背面の重なり関係を判断するために利用できる。 The creation time is the time when the object was created. The generation time shown in FIG. 11 is an example of information used for determining the overlap relationship between the front and back surfaces when a plurality of objects are displayed overlapping. For example, if the display device 2 is designed to display an object with a newer generation time on the front side, the generation time can be used to determine the overlap relationship between the front side and the back side between the objects.

したがって、オブジェクトデータは生成時刻に替えて、又は生成時刻と共に、複数のオブジェクトが重なって表示されている場合のオブジェクト間の前面/背面の重なり関係を判断できる情報を有していてもよい。例えばアプリケーションには、オブジェクトの重なり関係をユーザが編集できる仕様のものがあり、オブジェクト間の前面/背面の重なり関係を例えばユーザが編集可能な表示順序で表すようにしてもよい。 Therefore, the object data may have information that can determine the front / back overlap relationship between the objects when a plurality of objects are overlapped and displayed in place of the generation time or together with the generation time. For example, some applications have specifications that allow the user to edit the overlapping relationship of objects, and the overlapping relationship between the front and back of the objects may be represented in a display order that can be edited by the user, for example.

選択状態は、選択状態のオブジェクトと選択状態ではないオブジェクトとを識別するための情報の一例である。図11は項目「選択状態」の値が「True」のオブジェクトが選択状態の例を示している。 The selected state is an example of information for distinguishing an object in the selected state from an object in the non-selected state. FIG. 11 shows an example in which an object whose value of the item “selected state” is “True” is in the selected state.

オブジェクト選択部23は、図11のオブジェクトデータからタッチ座標と選択領域が重なるオブジェクトが探索されなければ、オブジェクトをタッチしていないと判定して図10の処理を終了する。また、オブジェクト選択部23はタッチ座標と選択領域が重なるオブジェクトが探索されれば、ステップS12に進む。 If the object whose touch coordinates and the selection area overlap is not searched from the object data of FIG. 11, the object selection unit 23 determines that the object is not touched and ends the process of FIG. Further, if the object selection unit 23 searches for an object whose touch coordinates and the selection area overlap, the object selection unit 23 proceeds to step S12.

なお、図10ではタッチ座標と選択領域が重なる複数のオブジェクトが探索された場合の処理をステップS12以降に示し、タッチ座標と選択領域が重なる一つのオブジェクトが探索された場合の処理を省略している。例えばタッチ座標と選択領域が重なる一つのオブジェクトが探索された場合は、探索されたオブジェクトを選択状態とする。 In FIG. 10, the processing when a plurality of objects whose touch coordinates and the selection area overlap are searched is shown in step S12 and subsequent steps, and the processing when one object whose touch coordinates and the selection area overlap is searched is omitted. There is. For example, when one object whose touch coordinates and the selection area overlap is searched, the searched object is set as the selected state.

ステップS12において、オブジェクト選択部23はタッチ座標と選択領域が重なる複数のオブジェクトそれぞれの生成時刻を比較する。ステップS12により、オブジェクト選択部23はディスプレー220に重なって表示されているオブジェクト間の重なり関係を判断できる。 In step S12, the object selection unit 23 compares the generation time of each of the plurality of objects whose touch coordinates and the selection area overlap. In step S12, the object selection unit 23 can determine the overlapping relationship between the objects displayed on the display 220.

ステップS14に進み、図11のオブジェクトデータの項目「選択状態」を参照することで、オブジェクト選択部23はステップS10で探索した複数のオブジェクトに、選択状態のオブジェクトがあるか否かを判定する。選択状態のオブジェクトがないと判定するとオブジェクト選択部23はステップS16に進む。 By proceeding to step S14 and referring to the object data item “selected state” in FIG. 11, the object selection unit 23 determines whether or not there is an object in the selected state among the plurality of objects searched in step S10. If it is determined that there is no object in the selected state, the object selection unit 23 proceeds to step S16.

ステップS16ではオブジェクト選択部23が、ステップS10で探索した複数のオブジェクトの中から生成時刻が最新のオブジェクトを選択し、図11のオブジェクトデータの項目「選択状態」を「True」に変更したあと、ステップS18に進む。選択状態のオブジェクトがないと判定するとオブジェクト選択部23はステップS16をスキップしてステップS18に進む。 In step S16, the object selection unit 23 selects the object with the latest generation time from the plurality of objects searched in step S10, changes the object data item "selected state" in FIG. 11 to "True", and then changes the object data item "Selection state" to "True". The process proceeds to step S18. If it is determined that there is no object in the selected state, the object selection unit 23 skips step S16 and proceeds to step S18.

ステップS18において、オブジェクト選択部23はタッチ座標が移動しているか否かを判定することで、オブジェクトの移動操作をユーザから受け付けているか否かを判定している。タッチ座標が移動していれば、オブジェクト選択部23はオブジェクトの移動操作をユーザから受け付けていると判定し、図10のフローチャートの処理を終了し、オブジェクトの移動の処理を行う。 In step S18, the object selection unit 23 determines whether or not the touch coordinates are moving, thereby determining whether or not the movement operation of the object is accepted from the user. If the touch coordinates are moving, the object selection unit 23 determines that the object movement operation is accepted from the user, ends the processing of the flowchart of FIG. 10, and performs the object movement processing.

一方、タッチ座標が移動していなければ、オブジェクト選択部23はステップS20に進み、一つ下(選択状態のオブジェクトの次に生成時刻が新しい)のオブジェクトを選択状態にする。また、選択状態のオブジェクトの生成時刻が一番古い場合、オブジェクト選択部23は最新のオブジェクトを選択状態にする。 On the other hand, if the touch coordinates have not moved, the object selection unit 23 proceeds to step S20, and sets the object one level below (the object in the selected state has the newest generation time) in the selected state. If the creation time of the selected object is the oldest, the object selection unit 23 selects the latest object.

なお、ステップS16で選択状態となったオブジェクトの場合、オブジェクト選択部23は1回目のステップS20の処理をスキップすることで、ステップS16で選択状態となった直後に、選択状態のオブジェクトが変更されないようにする。 In the case of the object selected in step S16, the object selection unit 23 skips the process of the first step S20, so that the selected object is not changed immediately after being selected in step S16. To do so.

ステップS22において操作受付部29は、同じタッチ座標でのタッチ時間が基準時間以上となった場合に、長押し操作をユーザから受け付けたと判定し、ステップS20に戻り、一つ下のオブジェクトを選択状態にする。このように、ユーザはオブジェクトの選択領域が重なっている領域の長押し操作を継続することで、ステップS10で探索した複数のオブジェクトを、順次、選択状態とすることができる。 In step S22, the operation reception unit 29 determines that the long press operation has been accepted from the user when the touch time at the same touch coordinates exceeds the reference time, returns to step S20, and selects the object one level below. To. In this way, the user can sequentially put the plurality of objects searched in step S10 into the selected state by continuing the long press operation of the area where the selection areas of the objects overlap.

ステップS22において操作受付部29は、同じタッチ座標でのタッチ時間が基準時間を経過する前に終了した場合に、タッチ操作をユーザから受け付けたと判定し、図10のフローチャートの処理を終了する。ユーザはオブジェクトの選択領域が重なっている領域のタッチ操作を繰り返すことで、図10の処理を繰り返し、ステップS10で探索される複数のオブジェクトを、順次、選択状態とすることができる。 In step S22, when the operation receiving unit 29 ends before the touch time at the same touch coordinates elapses, it is determined that the touch operation has been accepted from the user, and the processing of the flowchart of FIG. 10 ends. By repeating the touch operation of the area where the selection areas of the objects overlap, the user can repeat the process of FIG. 10 and sequentially put the plurality of objects searched in step S10 into the selected state.

図1〜図3では2つのオブジェクトが重なっている例を示したが、例えば図12に示すように3つ以上のオブジェクトが重なっている場合であっても、図10の処理により選択状態のオブジェクトをタッチ操作や長押し操作により変更できる。 Although FIGS. 1 to 3 show an example in which two objects overlap, for example, even when three or more objects overlap as shown in FIG. 12, the object in the selected state by the process of FIG. 10 is shown. Can be changed by touch operation or long press operation.

なお、図12では最前面から最背面に向かって、手書きオブジェクト1002、描画オブジェクト1004、及び描画オブジェクト1010が重なって表示されている例を示している。また、図12では手書きオブジェクト1002、描画オブジェクト1004、及び描画オブジェクト1010の選択領域が、手書きオブジェクト1002の選択領域で重なっているものとする。 Note that FIG. 12 shows an example in which the handwritten object 1002, the drawing object 1004, and the drawing object 1010 are overlapped and displayed from the frontmost to the rearmost. Further, in FIG. 12, it is assumed that the selection areas of the handwriting object 1002, the drawing object 1004, and the drawing object 1010 overlap with the selection area of the handwriting object 1002.

図12(a)はタッチ操作や長押し操作により入力された座標が、手書きオブジェクト1002の選択領域内であったため、最前面の手書きオブジェクト1002が破線1006で囲まれた選択状態となった例である。 FIG. 12A shows an example in which the frontmost handwritten object 1002 is in the selected state surrounded by the broken line 1006 because the coordinates input by the touch operation or the long press operation are within the selection area of the handwritten object 1002. be.

図12(b)は、再度のタッチ操作や長押し操作により入力された座標が、手書きオブジェクト1002、描画オブジェクト1004、及び描画オブジェクト1010の選択領域の重なった領域内であったため、選択状態が手書きオブジェクト1002から一つ下の描画オブジェクト1004に移行した例である。 In FIG. 12B, the coordinates input by the touch operation or the long press operation again are within the overlapping area of the selection areas of the handwritten object 1002, the drawing object 1004, and the drawing object 1010, so that the selected state is handwritten. This is an example of shifting from the object 1002 to the drawing object 1004 one level below.

このようにユーザは手書きオブジェクト1002、描画オブジェクト1004、及び描画オブジェクト1010の選択領域の重なった領域内で、再度のタッチ操作や長押し操作することで、オブジェクトの選択状態の移行が容易となる。なお、図12(b)では選択状態となった描画オブジェクト1004を破線1008で囲むことにより、ユーザから視認可能な表示態様としている。 In this way, the user can easily shift the selected state of the object by performing a touch operation or a long press operation again in the overlapping area of the selection areas of the handwritten object 1002, the drawing object 1004, and the drawing object 1010. In FIG. 12B, the drawn object 1004 in the selected state is surrounded by the broken line 1008 so that the display mode can be visually recognized by the user.

図12(c)は、再度のタッチ操作や長押し操作により入力された座標が、手書きオブジェクト1002、描画オブジェクト1004、及び描画オブジェクト1010の選択領域の重なった領域内であったため、選択状態が描画オブジェクト1004から一つ下の描画オブジェクト1010に移行した例である。 In FIG. 12C, the coordinates input by the touch operation or the long press operation again are within the overlapping area of the selection areas of the handwritten object 1002, the drawing object 1004, and the drawing object 1010, so that the selected state is drawn. This is an example of shifting from the object 1004 to the drawing object 1010 one level below.

このようにユーザは手書きオブジェクト1002、描画オブジェクト1004、及び描画オブジェクト1010の選択領域の重なった領域内で、再度のタッチ操作や長押し操作することで、オブジェクトの選択状態の移行が容易となる。なお、図12(c)では選択状態となった描画オブジェクト1010を破線1012で囲むことにより、ユーザから視認可能な表示態様としている。 In this way, the user can easily shift the selected state of the object by performing a touch operation or a long press operation again in the overlapping area of the selection areas of the handwritten object 1002, the drawing object 1004, and the drawing object 1010. In FIG. 12C, the drawn object 1010 in the selected state is surrounded by the broken line 1012 so that the display mode can be visually recognized by the user.

[第2の実施形態]
以下の実施例では表示装置2の別の構成例について説明する。
[Second Embodiment]
In the following embodiment, another configuration example of the display device 2 will be described.

<<表示装置の別の構成例1>>
本実施形態の表示装置2はタッチパネルを有するものとして説明されているが、表示装置2はタッチパネルを有するものに限られない。
<< Another Configuration Example 1 of the Display Device >>
Although the display device 2 of the present embodiment is described as having a touch panel, the display device 2 is not limited to the one having a touch panel.

図13は、表示装置の他の構成例を示す図である。図13では、通常のホワイトボード413の上辺にプロジェクター411が設置されている。このプロジェクター411が表示装置2に相当する。通常のホワイトボード413とは、タッチパネルと一体のフラットパネルディスプレーではなく、ユーザがマーカーで直接、手書きするホワイトボードである。なお、ホワイトボードは黒板であってもよく、映像を投影するだけの広さの平面であればよい。 FIG. 13 is a diagram showing another configuration example of the display device. In FIG. 13, the projector 411 is installed on the upper side of the normal whiteboard 413. This projector 411 corresponds to the display device 2. The normal whiteboard 413 is not a flat panel display integrated with a touch panel, but a whiteboard that the user directly handwrites with a marker. The whiteboard may be a blackboard, and may be a flat surface large enough to project an image.

プロジェクター411は超短焦点の光学系を有しており、10cm程度から歪みの少ない映像をホワイトボード413に投影できる。この映像は、無線又は有線で接続されたPCから送信されてもよいし、プロジェクター411が記憶していてもよい。 The projector 411 has an ultra-short focus optical system, and can project an image with little distortion from about 10 cm onto the whiteboard 413. This image may be transmitted from a PC connected wirelessly or by wire, or may be stored by the projector 411.

ユーザは専用の電子ペン2501を使ってホワイトボード413に手書きする。電子ペン2501は、ユーザが手書きのためにホワイトボード413に押しつけるとスイッチがONになり発光する発光部を例えば先端部に有している。光の波長は近赤外や赤外なのでユーザの目には見えない。プロジェクター411はカメラを有しており、発光部を撮像して画像を解析し、電子ペン2501の方向を特定する。 The user writes on the whiteboard 413 using the dedicated electronic pen 2501. The electronic pen 2501 has, for example, a light emitting portion at its tip, which turns on when the user presses it against the whiteboard 413 for handwriting and emits light. Since the wavelength of light is near infrared or infrared, it is invisible to the user's eyes. The projector 411 has a camera, captures a light emitting unit, analyzes the image, and identifies the direction of the electronic pen 2501.

また、電子ペン2501は発光と共に音波を発信している。プロジェクター411は音波の到達時間により距離を算出する。方向と距離により電子ペン2501の位置は特定できる。電子ペン2501の位置には手書きされたデータが描画(投影)される。 Further, the electronic pen 2501 emits sound waves together with light emission. The projector 411 calculates the distance from the arrival time of the sound wave. The position of the electronic pen 2501 can be specified by the direction and the distance. Handwritten data is drawn (projected) at the position of the electronic pen 2501.

プロジェクター411はメニュー430を投影する。ユーザが電子ペン2501でボタンを押下すると、プロジェクター411は電子ペン2501の位置とスイッチのON信号により押下されたボタンを特定する。例えば、保存ボタン431が押下されると、ユーザが手書きしたデータ(座標点列)がプロジェクター411で保存される。 The projector 411 projects the menu 430. When the user presses a button with the electronic pen 2501, the projector 411 identifies the pressed button by the position of the electronic pen 2501 and the ON signal of the switch. For example, when the save button 431 is pressed, the data (coordinate point sequence) handwritten by the user is saved by the projector 411.

プロジェクター411は、予め定められたサーバー412又はUSBメモリー2600等に手書き情報を保存する。手書き情報はページごとに保存されている。手書き情報は画像データではなく座標のまま保存されるので、ユーザが再編集できる。ただし、操作コマンドを手書きで呼び出せる場合、メニュー430は表示されなくてもよい。 The projector 411 stores handwritten information in a predetermined server 412, a USB memory 2600, or the like. Handwritten information is stored page by page. Since the handwritten information is saved as coordinates instead of image data, the user can edit it again. However, if the operation command can be called by hand, the menu 430 may not be displayed.

[第3の実施形態]
<<表示装置の別の構成例2>>
図14は、表示装置の他の構成例を示す図である。図14の例では、表示装置2として、端末装置600、画像投影装置700A、及び、ペン動作検出装置810を有する。
[Third Embodiment]
<< Another Configuration Example 2 of the Display Device >>
FIG. 14 is a diagram showing another configuration example of the display device. In the example of FIG. 14, the display device 2 includes a terminal device 600, an image projection device 700A, and a pen motion detection device 810.

端末装置600は、画像投影装置700A及びペン動作検出装置810と有線で接続されている。画像投影装置700Aは、端末装置600により入力された画像データをスクリーン800に投影させる。 The terminal device 600 is connected to the image projection device 700A and the pen motion detection device 810 by wire. The image projection device 700A projects the image data input by the terminal device 600 onto the screen 800.

ペン動作検出装置810は電子ペン820と通信を行っており、スクリーン800の近傍における電子ペン820の動作を検出する。具体的に、電子ペン820は、スクリーン800上において、電子ペン820が示している点を示す座標情報を検出し(検出方法は図13と同様でよい)、端末装置600へ送信する。 The pen motion detection device 810 communicates with the electronic pen 820 and detects the motion of the electronic pen 820 in the vicinity of the screen 800. Specifically, the electronic pen 820 detects the coordinate information indicating the point indicated by the electronic pen 820 on the screen 800 (the detection method may be the same as that in FIG. 13), and transmits the coordinate information to the terminal device 600.

端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820によって入力される手書きデータの画像データを生成し、画像投影装置700Aによって手書きデータの画像をスクリーン800に描画させる。 The terminal device 600 generates image data of handwritten data input by the electronic pen 820 based on the coordinate information received from the pen motion detection device 810, and causes the image projection device 700A to draw an image of the handwritten data on the screen 800.

また、端末装置600は画像投影装置700Aに投影させている背景画像と、電子ペン820によって入力された手書データの画像とを合成した重畳画像を示す重畳画像データを生成する。 Further, the terminal device 600 generates superimposed image data showing a superimposed image in which the background image projected on the image projection device 700A and the image of the handwritten data input by the electronic pen 820 are combined.

[第4の実施形態]
<<表示装置の別の構成例3>>
図15は、表示装置の構成例を示す図である。図15の例では、表示装置2として、端末装置600と、ディスプレー800Aと、ペン動作検出装置810Aとを有する。
[Fourth Embodiment]
<< Another Configuration Example 3 of the Display Device >>
FIG. 15 is a diagram showing a configuration example of the display device. In the example of FIG. 15, the display device 2 includes a terminal device 600, a display 800A, and a pen operation detection device 810A.

ペン動作検出装置810Aはディスプレー800Aの近傍に配置され、ディスプレー800A上に、電子ペン820Aが示している点を示す座標情報を検出し(検出方法は図13と同様でよい)、端末装置600へ送信する。なお、図15の例では、電子ペン820Aが端末装置600によってUSBコネクタを介して充電されても良い。 The pen operation detection device 810A is arranged in the vicinity of the display 800A, detects coordinate information indicating a point indicated by the electronic pen 820A on the display 800A (the detection method may be the same as in FIG. 13), and the terminal device 600 is reached. Send. In the example of FIG. 15, the electronic pen 820A may be charged by the terminal device 600 via the USB connector.

端末装置600はペン動作検出装置810Aから受信した座標情報に基づき、電子ペン820Aによって入力される手書データの画像の画像データを生成し、ディスプレー800Aに表示させる。 The terminal device 600 generates image data of an image of handwritten data input by the electronic pen 820A based on the coordinate information received from the pen motion detection device 810A, and displays the image data on the display 800A.

[第5の実施形態]
<<表示装置の別の構成例4>>
図16は、表示装置の構成例を示す図である。図16の例では、表示装置2として、端末装置600と、画像投影装置700Aとを有する。
[Fifth Embodiment]
<< Another Configuration Example 4 of the Display Device >>
FIG. 16 is a diagram showing a configuration example of the display device. In the example of FIG. 16, the display device 2 has a terminal device 600 and an image projection device 700A.

端末装置600は電子ペン820BとBluetooth(登録商標)等により無線通信を行って、スクリーン800上において電子ペン820Bが示す点の座標情報を受信する。座標情報は、スクリーン800に形成された微小な位置情報を電子ペン820Bが読み取ってもよいし、スクリーン800から座標情報を受信してもよい。 The terminal device 600 wirelessly communicates with the electronic pen 820B by Bluetooth (registered trademark) or the like, and receives the coordinate information of the point indicated by the electronic pen 820B on the screen 800. As for the coordinate information, the electronic pen 820B may read the minute position information formed on the screen 800, or the coordinate information may be received from the screen 800.

そして、端末装置600は、受信した座標情報に基づき、電子ペン820Bにより入力される手書データの画像の画像データを生成し、画像投影装置700Aに手書データの画像を投影させる。 Then, the terminal device 600 generates image data of the image of the handwritten data input by the electronic pen 820B based on the received coordinate information, and causes the image projection device 700A to project the image of the handwritten data.

また、端末装置600は画像投影装置700Aに投影させている背景画像と、電子ペン820Bにより入力された手書データの画像とを合成した重畳画像を示す重畳画像データを生成する。 Further, the terminal device 600 generates superimposed image data showing a superimposed image in which the background image projected on the image projection device 700A and the image of the handwritten data input by the electronic pen 820B are combined.

以上のように、上記した各実施形態は、様々なシステム構成において適用することができる。 As described above, each of the above-described embodiments can be applied to various system configurations.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above with reference to examples, the present invention is not limited to these examples, and various modifications are made without departing from the gist of the present invention. And substitutions can be made.

例えば、本実施形態では電子黒板を一例として説明したが、電子黒板は、電子ホワイトボード、電子情報ボード、などと呼ばれてよい。また、本実施形態は、タッチパネルを有する情報処理装置であれば好適に適用できる。 For example, in the present embodiment, the electronic blackboard has been described as an example, but the electronic blackboard may be referred to as an electronic whiteboard, an electronic information board, or the like. Further, the present embodiment can be suitably applied to any information processing apparatus having a touch panel.

また、本実施形態ではペン先の座標をタッチパネルで検知する方法でペンの座標を検出したが、ペン先の座標を超音波により検出してもよい。この場合、ペンは発光と共に超音波を発信している。表示装置2は超音波の到達時間により距離を算出する。方向と距離により表示装置2はペンの位置を特定できる。プロジェクターは、ペンの軌跡をストロークデータとして描画(投影)する。 Further, in the present embodiment, the coordinates of the pen are detected by the method of detecting the coordinates of the pen tip with the touch panel, but the coordinates of the pen tip may be detected by ultrasonic waves. In this case, the pen emits ultrasonic waves as well as light emission. The display device 2 calculates the distance from the arrival time of the ultrasonic wave. The display device 2 can specify the position of the pen by the direction and the distance. The projector draws (projects) the trajectory of the pen as stroke data.

また、図9などの構成例は、表示装置2による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。表示装置2の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、表示装置2の処理は、1つの処理単位が更に多くの処理を含むように分割することもできる。 Further, the configuration examples shown in FIG. 9 and the like are divided according to the main functions in order to facilitate understanding of the processing by the display device 2. The present invention is not limited by the method of dividing the processing unit or the name. The processing of the display device 2 can be further divided into more processing units according to the processing content. Further, the processing of the display device 2 can be divided so that one processing unit includes more processing.

また、表示装置2が行う処理の一部を、表示装置2とネットワークを介して接続されたサーバ3が行ってもよい。 Further, a server 3 connected to the display device 2 via a network may perform a part of the processing performed by the display device 2.

また、上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Further, each function of the embodiment described above can be realized by one or a plurality of processing circuits. Here, the "processing circuit" as used herein is a processor programmed to perform each function by software, such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array) and conventional circuit modules.

なお、操作受付部29は、特許請求の範囲に記載した操作受付手段の一例である。オブジェクト選択部23はオブジェクト選択手段の一例である。表示制御部26は表示制御手段の一例である。 The operation receiving unit 29 is an example of the operation receiving means described in the claims. The object selection unit 23 is an example of the object selection means. The display control unit 26 is an example of the display control means.

1 表示システム
2 表示装置
3 サーバ
5 通信ネットワーク
21 接触位置検出部
22 描画データ生成部
23 オブジェクト選択部
26 表示制御部
27 データ記録部
28 ネットワーク通信部
29 操作受付部
30 記憶部
216 タッチセンサー
220 ディスプレー
1002 手書きオブジェクト
1004、1010 描画オブジェクト
1 Display system 2 Display device 3 Server 5 Communication network 21 Contact position detection unit 22 Drawing data generation unit 23 Object selection unit 26 Display control unit 27 Data recording unit 28 Network communication unit 29 Operation reception unit 30 Storage unit 216 Touch sensor 220 Display 1002 Handwritten object 1004, 1010 Drawing object

特許第6402826号公報Japanese Patent No. 6402826

Claims (10)

複数のオブジェクトを表示する表示装置であって、
入力手段による操作を受け付ける操作受付手段と、
前記複数のオブジェクトが重なっている位置に、前記操作受付手段で所定の所作を受け付けた場合に、前記位置に重なっている前記複数のオブジェクトから選択される選択状態の前記オブジェクトを変更するオブジェクト選択手段と、
を有する表示装置。
A display device that displays multiple objects.
Operation reception means that accepts operations by input means, and
Object selection means for changing the selected object selected from the plurality of objects overlapping at the position when a predetermined action is received by the operation receiving means at the position where the plurality of objects overlap. When,
Display device with.
前記オブジェクト選択手段は、前記複数のオブジェクトのそれぞれに設定されている前記操作受付手段による所定の所作を受け付ける選択領域が重なっている位置に、前記操作受付手段で所定の所作を受け付けた場合に、前記位置に前記選択領域が重なっている前記複数のオブジェクトから選択される選択状態の前記オブジェクトを変更すること
を特徴とする請求項1記載の表示装置。
When the operation receiving means receives a predetermined action at a position where the selection areas for receiving the predetermined action by the operation receiving means set for each of the plurality of objects overlap each other, the object selecting means receives the predetermined action. The display device according to claim 1, wherein the object in the selected state selected from the plurality of objects whose selection area overlaps the position is changed.
選択状態の前記オブジェクトを視認可能な表示態様で表示部に表示する表示制御手段、
を更に有する請求項1又は2記載の表示装置。
A display control means for displaying the selected object on the display unit in a visible display mode.
The display device according to claim 1 or 2, further comprising.
前記表示制御手段は、前記表示態様を、反転表示、表示色の変更、点線表示、及び太字表示の少なくとも一つで示すこと
を特徴とする請求項3記載の表示装置。
The display device according to claim 3, wherein the display control means indicates the display mode by at least one of reverse display, change of display color, dotted line display, and bold display.
前記オブジェクト選択手段は、前記複数のオブジェクトのそれぞれに設定されている生成時刻、又は重なり関係に基づき、前記オブジェクトを選択状態に変更する順番を決定すること
を特徴とする請求項1乃至4の何れか一項に記載の表示装置。
Any of claims 1 to 4, wherein the object selection means determines the order in which the objects are changed to the selected state based on the generation time set for each of the plurality of objects or the overlapping relationship. The display device according to one item.
前記オブジェクト選択手段は、前記操作受付手段で所定の所作としてタッチ操作を受け付ける度に、前記複数のオブジェクトから選択される選択状態の前記オブジェクトを変更すること
を特徴とする請求項1乃至5の何れか一項に記載の表示装置。
Any of claims 1 to 5, wherein the object selection means changes the selected object selected from the plurality of objects each time the operation receiving means receives a touch operation as a predetermined action. The display device according to one item.
前記オブジェクト選択手段は、前記操作受付手段で所定の所作として長押し操作を受け付けた場合、所定時間を経過する度に前記複数のオブジェクトから選択される選択状態の前記オブジェクトを変更すること
を特徴とする請求項1乃至5の何れか一項に記載の表示装置。
The object selection means is characterized in that, when a long press operation is received as a predetermined action by the operation reception means, the object in the selected state selected from the plurality of objects is changed every time a predetermined time elapses. The display device according to any one of claims 1 to 5.
前記選択状態の前記オブジェクトを変更する前記オブジェクト選択手段の処理は、前記位置に重なっている前記複数のオブジェクトから選択される操作対象の前記オブジェクトを変更する処理であること
を特徴とする請求項1乃至7の何れか一項に記載の表示装置。
Claim 1 is characterized in that the process of the object selection means for changing the object in the selected state is a process of changing the object to be operated selected from the plurality of objects overlapping the positions. The display device according to any one of 7 to 7.
複数のオブジェクトを表示する表示装置が行う表示方法であって、
入力手段による操作を受け付けるステップと、
前記複数のオブジェクトが重なっている位置に、前記操作を受け付けるステップで所定の所作を受け付けた場合に、前記位置に重なっている前記複数のオブジェクトから選択される選択状態の前記オブジェクトを変更するステップと、
を有する表示方法。
It is a display method performed by a display device that displays multiple objects.
Steps that accept operations by input means and
A step of changing the selected object selected from the plurality of objects overlapping the positions when a predetermined action is received in the step of accepting the operation at the position where the plurality of objects overlap. ,
Display method having.
複数のオブジェクトを表示する表示装置に実行させるプログラムであって、
入力手段による操作を受け付けるステップと、
前記複数のオブジェクトが重なっている位置に、前記操作を受け付けるステップで所定の所作を受け付けた場合に、前記位置に重なっている前記複数のオブジェクトから選択される選択状態の前記オブジェクトを変更するステップと、
を備えることを特徴とするプログラム。
A program that is executed by a display device that displays multiple objects.
Steps that accept operations by input means and
A step of changing the selected object selected from the plurality of objects overlapping the positions when a predetermined action is received in the step of accepting the operation at the position where the plurality of objects overlap. ,
A program characterized by being equipped with.
JP2020104709A 2020-06-17 2020-06-17 Display unit, display method, and program Pending JP2021197024A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020104709A JP2021197024A (en) 2020-06-17 2020-06-17 Display unit, display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020104709A JP2021197024A (en) 2020-06-17 2020-06-17 Display unit, display method, and program

Publications (1)

Publication Number Publication Date
JP2021197024A true JP2021197024A (en) 2021-12-27

Family

ID=79195725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020104709A Pending JP2021197024A (en) 2020-06-17 2020-06-17 Display unit, display method, and program

Country Status (1)

Country Link
JP (1) JP2021197024A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116030728A (en) * 2023-03-27 2023-04-28 湖北工业大学 Interactive advertisement box

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116030728A (en) * 2023-03-27 2023-04-28 湖北工业大学 Interactive advertisement box
CN116030728B (en) * 2023-03-27 2023-11-17 湖北工业大学 Interactive advertisement box

Similar Documents

Publication Publication Date Title
US10401964B2 (en) Mobile terminal and method for controlling haptic feedback
US11132063B2 (en) Information processing apparatus for interactively performing work based on input content in extended work space
US9977497B2 (en) Method for providing haptic effect set by a user in a portable terminal, machine-readable storage medium, and portable terminal
US9069386B2 (en) Gesture recognition device, method, program, and computer-readable medium upon which program is stored
US20140285453A1 (en) Portable terminal and method for providing haptic effect
KR200477008Y1 (en) Smart phone with mouse module
JP2021197024A (en) Display unit, display method, and program
JP2022019426A (en) Display unit, control method, and program
JP2012146017A (en) Electronic blackboard system, electronic blackboard system control method, program and recording medium therefor
JP2022013424A (en) Display unit, presentation method, and program
US20220300147A1 (en) Display apparatus, display method, and non-transitory recording medium
US20230070034A1 (en) Display apparatus, non-transitory recording medium, and display method
US11726654B2 (en) Display apparatus capable of displaying icon corresponding to shape of hand-drafted input, display method, and non-transitory computer-executable medium storing program thereon
JP7030527B2 (en) Electronic devices, information processing methods, programs and storage media
JP7268479B2 (en) Display device, program, display method
WO2022071448A1 (en) Display apparatus, display method, and program
JP2022020470A (en) Display device, display method and program
JP2022119463A (en) Display, display method, and program
JP2022147337A (en) Display device, display method and program
JP2022147384A (en) Display device, method for display, and program
JP2023133110A (en) Display device, display method, and program
JP2023137822A (en) Display device, fair copy method, program, and information sharing system
JP2022147297A (en) Display device, method for display, and program
JP2022146853A (en) Display device, program, method for display, and display system
JP2021051359A (en) Display device, image display method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402