JP6738450B2 - Display device and program - Google Patents

Display device and program Download PDF

Info

Publication number
JP6738450B2
JP6738450B2 JP2019029245A JP2019029245A JP6738450B2 JP 6738450 B2 JP6738450 B2 JP 6738450B2 JP 2019029245 A JP2019029245 A JP 2019029245A JP 2019029245 A JP2019029245 A JP 2019029245A JP 6738450 B2 JP6738450 B2 JP 6738450B2
Authority
JP
Japan
Prior art keywords
input
display
user
display screen
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019029245A
Other languages
Japanese (ja)
Other versions
JP2019117639A (en
Inventor
大樹 芳野
大樹 芳野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2019029245A priority Critical patent/JP6738450B2/en
Publication of JP2019117639A publication Critical patent/JP2019117639A/en
Application granted granted Critical
Publication of JP6738450B2 publication Critical patent/JP6738450B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、入力表示装置に係り、特に、タッチパネルなどの入力装置を備えたペンによる手書き入力が可能で、画面を水平或いは水平に近い状態で使用する入力表示装置に関する。 The present invention relates to an input display device, and more particularly to an input display device capable of handwriting input with a pen equipped with an input device such as a touch panel and used in a horizontal or nearly horizontal state of the screen.

従来、静電容量タッチパネル等のタッチ操作による入力が可能な入力装置を備えたディスプレイ装置が知られている。 2. Description of the Related Art Conventionally, there is known a display device including an input device such as an electrostatic capacity touch panel that enables input by touch operation.

従来技術として、例えば、テーブル型表示装置において、ユーザの位置を検出するために、テーブルに赤外線センサを設け、赤外線センサにてユーザを検出して、検出したユーザに対応して画像を配置するようにしたものが提案されている(特許文献1を参照)。 As a conventional technique, for example, in a table type display device, an infrared sensor is provided on a table to detect the position of the user, the infrared sensor detects the user, and an image is arranged corresponding to the detected user. Has been proposed (see Patent Document 1).

また、その他の技術として、矩形状の情報端末装置において、4角にセンサを設けて、このセンサをペンにて接触することにより画像の表示方向を決定し、更に、電源投入後に分割された画面の何れの位置に入力を行うかにより画像の表示方向を決定するようにしたものが提案されている(特許文献2を参照)。 In addition, as another technique, in a rectangular information terminal device, sensors are provided at four corners, a sensor is brought into contact with a pen to determine an image display direction, and a screen divided after power is turned on. There has been proposed a method in which the display direction of an image is determined depending on which position in which the image is input (see Patent Document 2).

また、情報処理装置において、画面が設けられたテーブルの周囲に複数のセンサを配置してユーザの位置を検出して、検出したユーザ位置とペン入力位置を結ぶ方向に画像を向けて表示するようにしたものが提案されている(特許文献3を参照)。 Further, in the information processing device, a plurality of sensors are arranged around a table provided with a screen to detect the position of the user, and the image is displayed in a direction connecting the detected user position and the pen input position. Has been proposed (see Patent Document 3).

特開2001−350588号公報JP 2001-350588 A 特開平11−175228号公報JP, 11-175228, A 特開2000−163179号公報JP 2000-163179 A

しかしながら、特許文献1にて提案されている技術では、テーブルの周囲に複数人のユーザがいる場合には何れのユーザが入力を行うのか判断することが出来ないので、複数人のユーザの場合には対応することが出来ないという問題がある。 However, in the technique proposed in Patent Document 1, when there are a plurality of users around the table, it is not possible to determine which user performs the input. Therefore, in the case of a plurality of users, Has the problem that it cannot respond.

また、特許文献2にて提案されている技術では、入力方向が変わる毎に情報端末装置上のセンサをペンにて接触される必要がある。また、分割された画面の何れの位置への入力であるかで判断する方法は、電源投入後に方向が決定されるため、途中での変更が難しく、対面側への記入を行うと画面が回転表示されてしまうため、正確にユーザの位置を検出出来ない状況が発生する。 Further, in the technique proposed in Patent Document 2, it is necessary to touch the sensor on the information terminal device with the pen every time the input direction changes. Also, in the method of determining which position on the divided screen the input is, since the direction is determined after the power is turned on, it is difficult to change it in the middle, and the screen will rotate when you enter on the facing side. Since it is displayed, a situation occurs in which the user's position cannot be accurately detected.

また、特許文献3にて提案されている技術では、複数人のユーザがいる場合には、どのユーザのペンにて入力が行われたかを特定する必要があり、ユーザと使用しているペンとを関連付ける必要があった。 Further, in the technique proposed in Patent Document 3, when there are a plurality of users, it is necessary to specify which user's pen has made the input. Needed to be associated.

本発明は、上記従来の課題に鑑みてなされたものであり、煩雑な操作を行なうことなく情報入力を行なうだけで、ユーザに適した方向で画面の表示を行うことができ、表示内容の視認性及びその表示内容の再利用性の向上を図ることができる入力表示装置を提供することを目的とする。 The present invention has been made in view of the above-mentioned conventional problems, and it is possible to display a screen in a direction suitable for a user only by inputting information without performing a complicated operation, and visually confirming the display content. It is an object of the present invention to provide an input display device capable of improving the user-friendliness and the reusability of its display content.

上述した課題を解決するために、本発明の表示装置は、オブジェクトを表示する表示画面と、前記表示画面に表示された複数のオブジェクトの表示情報を記憶する記憶手段と、前記表示画面に対するユーザのタッチ入力を検出する入力検出手段と、前記複数のオブジェクトのうち第1のオブジェクトに対する移動操作を検出した際、前記第1のオブジェクトを、前記表示画面の予め特定されたユーザ位置に対して表示されている第2のオブジェクトの表示情報に基づき調整し、前記第2のオブジェクトと共に表示する表示制御手段と、を備えることを特徴とする。 In order to solve the above-mentioned problems, a display device of the present invention is a display screen for displaying an object, a storage unit for storing display information of a plurality of objects displayed on the display screen, and a user for the display screen. Input detection means for detecting a touch input and, when detecting a movement operation for a first object of the plurality of objects, display the first object at a predetermined user position on the display screen. And a display control unit that adjusts based on the display information of the second object and displays the second object together with the second object.

また、本発明における前記記憶手段は、前記表示情報として、前記複数のオブジェクトの表示方向を記憶し、前記表示制御手段は、前記第1のオブジェクトの表示方向が前記第2のオブジェクトの表示方向と異なる場合、前記第1のオブジェクトを、前記第2のオブジェクトの表示方向と同じ向きに調整し、前記第2のオブジェクトと共に表示することを特徴とする。 Further, the storage unit in the present invention stores the display directions of the plurality of objects as the display information, and the display control unit sets the display direction of the first object to be the display direction of the second object. If different, the first object is adjusted in the same direction as the display direction of the second object, and is displayed together with the second object.

また、本発明における前記記憶手段は、前記表示情報として、前記複数のオブジェクトの表示サイズを更に記憶し、前記表示制御手段は、前記第1のオブジェクトの表示サイズが前記第2のオブジェクトの表示サイズと異なる場合、前記第1のオブジェクトを、前記第2のオブジェクトの表示サイズと同じ向きに調整し、前記第2のオブジェクトと共に表示することを特徴とする。 Further, the storage means in the present invention further stores the display sizes of the plurality of objects as the display information, and the display control means determines that the display size of the first object is the display size of the second object. When different from the above, the first object is adjusted in the same orientation as the display size of the second object and displayed together with the second object.

また、本発明において、前記表示制御手段は、前記第1のオブジェクトを、前記特定されたユーザ位置に対して正方向で先に表示されている第2のオブジェクトの表示サイズと同じサイズで、前記特定されたユーザ位置に対して正方向となる向きで表示することを特徴とする。 Further, in the present invention, the display control means sets the first object to the same size as the display size of the second object displayed first in the forward direction with respect to the specified user position, It is characterized in that it is displayed in a direction that is a positive direction with respect to the specified user position.

また、本発明において、前記表示制御手段は、前記第1のオブジェクトを前記第2のオブジェクトに追加した状態で表示することを特徴とする。 Further, in the invention, it is characterized in that the display control means displays the first object in a state of being added to the second object.

また、本発明において、前記入力検出手段により前記第1のオブジェクトおよび前記第2のオブジェクトの入力が検出された場合、検出された複数の入力情報に基づき、入力領域の大きさと入力方向を比較し、前記表示画面に対する前記第1のオブジェクトおよび前記第2のオブジェクトを入力したユーザの位置を判断するユーザ位置判断手段を更に備えることを特徴とする。 Further, in the present invention, when the input of the first object and the second object is detected by the input detection means, the size of the input area and the input direction are compared based on the plurality of detected input information. Further, it is characterized by further comprising user position determining means for determining the position of the user who has input the first object and the second object with respect to the display screen.

また、本発明において、前記複数の入力情報に対して、ペン先による入力か手つきによる入力かを判断する第1の入力判断手段と、前記ペン先による入力および前記手つきによる入力があり、前記ペン先による入力および前記手つきによる入力が所定範囲内の領域に存在するか否かを判断し、前記ペン先による入力および前記手つきによる入力が所定範囲内の領域に存在すると判断した場合、同一のユーザによる入力であると判断する第2の入力判断手段と、を更に備えることを特徴とする。 Further, in the present invention, there are a first input determination means for determining whether the input information is input by a pen tip or an input with a hand, and the input with the pen tip and the input with a hand with respect to the plurality of input information. When it is determined whether the input by the tip and the input by the hand are in the area within a predetermined range, and it is determined that the input by the pen tip and the input by the hand are in the area within the predetermined range, the same user And a second input determining means for determining that the input is input by.

また、本発明のプログラムは、オブジェクトを表示する表示画面を備える表示装置に搭載されるコンピュータに、前記表示画面に表示された複数のオブジェクトの表示情報を記憶する記憶ステップと、前記表示画面に対するユーザのタッチ入力を検出する入力検出ステップと、前記複数のオブジェクトのうち第1のオブジェクトに対する移動操作を検出した際、前記第1のオブジェクトを、前記表示画面の予め特定されたユーザ位置に対して表示されている第2のオブジェクトの表示情報に基づき調整し、前記第2のオブジェクトと共に表示する表示制御ステップと、を実現させることを特徴とする。 Further, the program of the present invention includes a storage step of storing display information of a plurality of objects displayed on the display screen in a computer mounted on a display device having a display screen for displaying the object, and a user for the display screen. An input detecting step of detecting a touch input of the first object, and displaying the first object to a pre-specified user position on the display screen when detecting a moving operation for the first object among the plurality of objects. A display control step of adjusting based on the display information of the second object being displayed and displaying the second object together with the second object.

本発明の表示装置によれば、オブジェクトを表示する表示画面と、前記表示画面に表示された複数のオブジェクトの表示情報を記憶する記憶手段と、前記表示画面に対するユーザのタッチ入力を検出する入力検出手段と、前記複数のオブジェクトのうち第1のオブジェクトに対する移動操作を検出した際、前記第1のオブジェクトを、前記表示画面の予め特定されたユーザ位置に対して表示されている第2のオブジェクトの表示情報に基づき調整し、前記第2のオブジェクトと共に表示する表示制御手段と、を備えることにより、ユーザに適した方向で画面の表示を行うことができ、表示内容の視認性及びその表示内容の再利用性の向上を図ることができる表示装置を提供することができる。 According to the display device of the present invention, a display screen for displaying an object, a storage unit for storing display information of a plurality of objects displayed on the display screen, and an input detection for detecting a user's touch input on the display screen. And a second object displayed on the display screen at a pre-specified user position when a movement operation for the first object among the plurality of objects is detected. By providing a display control unit that adjusts based on display information and displays the second object together with the second object, the screen can be displayed in a direction suitable for the user, and the visibility of the display content and the display content can be improved. A display device capable of improving reusability can be provided.

発明を実施する形態の一例であって、(a)は本発明の第1実施形態に係る入力表示装置に対して書き込みを行うユーザの位置と入力表示画面に表示される画像の表示方向との関係の一例を示す説明図、(b)は前記入力表示装置の表示画面に対してユーザが書き込みを行う状態を示す説明図、(c)は前記表示画面に入力されたオブジェクトを表示制御した状態を示す説明図である。1A is an example of an embodiment of the invention, in which FIG. 1A shows a position of a user who writes on the input display device according to the first embodiment of the present invention and a display direction of an image displayed on the input display screen Explanatory drawing which shows an example of a relationship, (b) is explanatory drawing which shows the state which a user writes in the display screen of the said input display device, (c) is the state which carried out the display control of the object input into the said display screen. FIG. (a)は前記入力表示装置の構成を示すブロック図、(b)は前記入力表示装置を構成する表示方向制御部の機能を示すブロック図である。(A) is a block diagram showing a configuration of the input display device, and (b) is a block diagram showing a function of a display direction control unit constituting the input display device. 前記入力表示装置に対して書き込み(入力)を行うユーザの位置と入力表示画面に表示される画像の表示方向との関係を示す説明図である。It is explanatory drawing which shows the relationship between the position of the user who writes (inputs) with respect to the said input display device, and the display direction of the image displayed on an input display screen. (a)は前記入力表示装置が備える静電容量センサにて検出された入力領域が縦長の場合を示す説明図、(b)は静電容量センサにて検出された入力領域が横長の場合を示す説明図である。(A) is an explanatory view showing a case where the input area detected by the capacitance sensor included in the input display device is vertically long, and (b) shows a case where the input area detected by the capacitance sensor is horizontally long. It is an explanatory view shown. 前記入力表示装置の表示画面に入力されたオブジェクトを表示する表示制御の手順を示すフローチャート図である。It is a flowchart figure which shows the procedure of the display control which displays the object input into the display screen of the said input display device. 前記入力表示装置の表示画面に表示される入力されたオブジェクトをマスタ設定に対して表示する表示方向制御の手順を示すフローチャート図である。It is a flowchart figure which shows the procedure of the display direction control which displays the input object displayed on the display screen of the said input display device with respect to master setting. (a)は本発明の第2実施形態に係る入力表示装置の表示画面に対して複数人のユーザが書き込みを行う状態を示す説明図、(b)は前記表示画面に入力されたオブジェクトを表示制御した状態を示す説明図である。(A) is an explanatory view showing a state in which a plurality of users are writing on the display screen of the input display device according to the second embodiment of the present invention, and (b) shows the input object on the display screen. It is explanatory drawing which shows the controlled state. 前記入力表示装置の表示画面におけるユーザの入力方向を判断する手順を示すフローチャート図である。It is a flowchart figure which shows the procedure which determines the input direction of a user in the display screen of the said input display device. 前記入力表示装置を使用するユーザ毎の入力処理の手順を示すフローチャート図である。It is a flowchart figure which shows the procedure of the input process for every user who uses the said input display device. (a)は本発明の第3実施形態に係る入力表示装置の表示画面に対して複数人のユーザが書き込みを行う状態を示す説明図、(b)は前記表示画面に入力されたオブジェクトを拡大して表示制御した状態を示す説明図である。(A) is an explanatory view showing a state in which a plurality of users are writing on the display screen of the input display device according to the third embodiment of the present invention, and (b) is an enlarged view of an object input on the display screen. It is an explanatory view showing a state where display control is performed. 前記入力表示装置の表示画面に入力されたオブジェクトに対してスケーリング処理を行う手順を示すフローチャート図である。It is a flowchart figure which shows the procedure which performs a scaling process with respect to the object input into the display screen of the said input display device. 前記入力表示装置において入力されたオブジェクトの画像データを2値化データとして配列した一例を示す説明図である。It is explanatory drawing which shows an example which arranged the image data of the object input in the said input display device as 2 value conversion data. 前記入力された文字のデータを2値化としてラベリングした例を示す説明図である。It is explanatory drawing which shows the example which labeled the data of the said input character as binarization. 図13のラベリングした結果を矩形化処理した例を示す説明図である。FIG. 14 is an explanatory diagram showing an example in which the labeling result of FIG. 13 is subjected to rectangle processing. 前記入力された文字をラベリングして行として抽出した一例を示す説明図である。It is explanatory drawing which shows an example which labeled the said input character and extracted as a line. 本発明の第4実施形態に係る入力表示装置の表示画面を用いてブレインストーミングを行う一例を示す説明図である。It is explanatory drawing which shows an example which performs brainstorming using the display screen of the input display apparatus which concerns on 4th Embodiment of this invention.

(第1実施形態)
以下、本発明の第1実施形態について図面を参照して説明する。
図1は発明を実施する形態の一例であって、(a)は本発明の第1実施形態に係る入力表示装置に対して書き込みを行うユーザの位置と入力表示画面に表示される画像の表示方向との関係の一例を示す説明図、(b)は前記入力表示装置の表示画面に対してユーザが書き込みを行う状態を示す説明図、(c)は前記表示画面に入力されたオブジェクトを表示制御した状態を示す説明図である。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is an example of a mode for carrying out the invention, and (a) is a position of a user who writes on the input display device according to the first embodiment of the present invention and a display of an image displayed on the input display screen. Explanatory diagram showing an example of the relationship with the direction, (b) is an explanatory diagram showing a state in which the user is writing on the display screen of the input display device, (c) shows the input object on the display screen It is explanatory drawing which shows the controlled state.

第1実施形態に係る入力表示装置1は、図1(a)〜(c)に示すように、情報を表示する表示画面10と、表示画面10に対するユーザの入力を検出するタッチパネル(センサ)2を備え、ペン100を用いた入力操作が可能な入力表示装置1において、本発明に係る特徴的な入力表示装置の構成を備えることを特徴とするものである。 As shown in FIGS. 1A to 1C, the input display device 1 according to the first embodiment includes a display screen 10 that displays information, and a touch panel (sensor) 2 that detects a user input on the display screen 10. In addition, the input display device 1 that includes the above and is capable of input operation using the pen 100 is characterized by including the characteristic configuration of the input display device according to the present invention.

第1実施形態は、入力表示装置1を会議テーブルとして機能させて、この入力表示装置1の周りの4方向に、4人のユーザA〜Dが位置している例である。 The first embodiment is an example in which the input display device 1 is made to function as a conference table, and four users A to D are located in four directions around the input display device 1.

ここでは、会議の主催者であるユーザAの位置は、マスタ位置(M)として特定するように設定されている。一方、その他の会議出席者であるユーザB〜Dの位置は、スレーブ位置(S)として設定されている。すなわち、入力表示装置1では、表示画面10がマスタ位置(M)に対して正方向となるように表示制御が行われる。 Here, the position of the user A who is the organizer of the conference is set to be specified as the master position (M). On the other hand, the positions of the users B to D who are the other attendees of the conference are set as slave positions (S). That is, in the input display device 1, the display control is performed so that the display screen 10 is in the forward direction with respect to the master position (M).

図1(a)は、いずれのユーザA〜Dも入力を行っていない状態を示している。
表示画面10の表示内容101は、マスタであるユーザAに対して正方向を向いて表示されている。
FIG. 1A shows a state in which none of the users A to D is performing input.
The display content 101 of the display screen 10 is displayed facing forward with respect to the user A who is the master.

図1(b)では、ユーザCが入力を開始した状態を示している。
例えば、ユーザCが入力している間は、表示画面10における入力領域で入力されたオブジェクト(描画情報)102や入力メニュー(メニュー画像)103といった表示内容は、ユーザCに対して正方向を向いて表示される。
FIG. 1B shows a state in which the user C has started input.
For example, while the user C is inputting, the display contents such as the object (drawing information) 102 and the input menu (menu image) 103 input in the input area of the display screen 10 face the user C in the normal direction. Is displayed.

ユーザCが入力を完了した際、ユーザCが入力したオブジェクト(描画情報)と、その表示方向(入力情報)を保存する。そして、移動指示を検出すると、指先が離れるまで入力したオブジェクトをユーザ指示に基づき移動する。移動完了後、マスタ設定方向と入力したオブジェクト方向が異なる場合には、入力したオブジェクトがマスタ位置に対して正方向の向きで表示するように制御される。 When the user C completes the input, the object (drawing information) input by the user C and its display direction (input information) are saved. When the movement instruction is detected, the input object is moved based on the user instruction until the fingertip is released. After the movement is completed, if the master setting direction and the input object direction are different, the input object is controlled to be displayed in the forward direction with respect to the master position.

図1(c)は、ユーザCによる移動指示があった後、入力したオブジェクトをマスタ位置に対して正方向の向きにするために、180度回転して表示するように制御した状態を示している。 FIG. 1C shows a state in which after the movement instruction from the user C, the input object is controlled to be displayed rotated by 180 degrees so as to be oriented in the positive direction with respect to the master position. There is.

まず、入力表示装置1の特徴的な構成についてブロック図を参照して説明する。
図2(a)は第1実施形態に係る入力表示装置の構成を示すブロック図、(b)は前記入力表示装置を構成する表示方向制御部の機能を示すブロック図、図3は前記入力表示装置に対して書き込み(入力)を行うユーザの位置と入力表示画面に表示される画像の表示方向との関係を示す説明図、図4(a)は前記入力表示装置が備える静電容量センサにて検出された入力領域が縦長の場合を示す説明図、(b)は静電容量センサにて検出された入力領域が横長の場合を示す説明図である。
First, a characteristic configuration of the input display device 1 will be described with reference to a block diagram.
2A is a block diagram showing a configuration of the input display device according to the first embodiment, FIG. 2B is a block diagram showing a function of a display direction control unit constituting the input display device, and FIG. 3 is the input display device. Explanatory diagram showing the relationship between the position of the user who writes (input) to the device and the display direction of the image displayed on the input display screen. FIG. 4A shows the capacitance sensor included in the input display device. Is an explanatory view showing a case where the input area detected by the above is vertically long, and (b) is an explanatory view showing a case where the input area detected by the capacitance sensor is horizontally long.

入力表示装置1は、図2(a)に示すように、タッチパネル2と表示部11とを備える表示画面10と、センサ駆動部/容量値受信部3、表示駆動部9、および制御部12を備えている。 As shown in FIG. 2A, the input display device 1 includes a display screen 10 including a touch panel 2 and a display unit 11, a sensor drive unit/capacity value reception unit 3, a display drive unit 9, and a control unit 12. I have it.

タッチパネル2は、静電容量センサにより構成され、複数の入力を検出可能な機能を備えている。 The touch panel 2 is composed of a capacitance sensor and has a function of detecting a plurality of inputs.

制御部12は、図示しないCPU,ROM,RAMにて構成され、形状/手つき判定部(入力情報比較部)4、タッチ認識処理部5、ユーザ位置判断部6、表示方向制御部(表示方向切換部)7および描画情報制御部8を構築する。 The control unit 12 is composed of a CPU, a ROM, and a RAM (not shown), and has a shape/touch determination unit (input information comparison unit) 4, a touch recognition processing unit 5, a user position determination unit 6, a display direction control unit (display direction switching). Part) 7 and the drawing information control part 8 are constructed.

タッチパネル2を構成する静電容量センサは、面状に複数本のマトリックス状に配置された線から、近接する物体との間の静電容量を検出することにより物体の形状を検出可能なセンサである。静電容量センサは、例えば、4096×2160の各位置の容量を検出することが可能である。 The capacitance sensor that constitutes the touch panel 2 is a sensor that can detect the shape of an object by detecting the capacitance between an adjacent object from a plurality of lines arranged in a matrix on a plane. is there. The capacitance sensor can detect the capacitance at each position of 4096×2160, for example.

ここでは、図3に示すように、第3方向に位置するユーザより見て表示画面10の左上の角を(0,0)、右下の角を(4095、2159)として、座標が設定されており、それぞれの座標に対して容量が検出される。なお、タッチパネル2は、静電容量方式に限らず、接触/非接触に関わらず、近接する物体の形状を捉えることが可能であれば、その他の方式のものであってもよい。 Here, as shown in FIG. 3, the coordinates are set with the upper left corner of the display screen 10 viewed from the user located in the third direction as (0, 0) and the lower right corner as (4095, 2159). The capacity is detected for each coordinate. The touch panel 2 is not limited to the capacitance type, and may be of any other type as long as it can capture the shape of an approaching object regardless of contact/non-contact.

センサ駆動部/容量値受信部3は、タッチパネル(静電容量センサ)2を駆動し、その結果より静電容量値を検出するものである。センサ駆動部/容量値受信部3は、検出した静電容量値を制御部12に送る。 The sensor driving unit/capacity value receiving unit 3 drives the touch panel (electrostatic capacity sensor) 2 and detects the electrostatic capacity value from the result. The sensor driving unit/capacity value receiving unit 3 sends the detected electrostatic capacitance value to the control unit 12.

制御部12における形状/手つき判定部(比較部)4は、センサ駆動部/容量値受信部3にて検出された静電容量値に基づき、表示画面10に近接する物体の形状を判定するものである。画面に近接する物体の形状は、物体の近接を示す静電容量をもつ連続した範囲の形状に相当する。図4(a),(b)に、静電容量センサにて検出された入力領域(連続した範囲)を示す。 The shape/touch determination section (comparison section) 4 of the control section 12 determines the shape of an object in proximity to the display screen 10 based on the capacitance value detected by the sensor drive section/capacity value reception section 3. Is. The shape of the object close to the screen corresponds to the shape of a continuous range having a capacitance indicating the proximity of the object. FIGS. 4A and 4B show the input area (continuous range) detected by the capacitance sensor.

形状/手つき判定部4は、タッチパネル2により検出した複数の入力情報に基づき、検出された形状(入力領域)の大きさにより、検出した物体がペン先であるか、手つきであるかを判定するとともに、入力方向(縦方向または横方向)を比較する。 The shape/touch determination unit 4 determines whether the detected object is a pen tip or a touch based on the size of the detected shape (input area) based on a plurality of input information detected by the touch panel 2. At the same time, the input direction (vertical direction or horizontal direction) is compared.

なお、手つきとは、表示画面10に手の腹などが触れる現象である。
具体的には、形状/手つき判定部4は、例えば、検出された形状を所定値Aと比較し、検出された形状の面積が所定値A以下の場合はペン先と判定し、所定値Aよりも大きな場合は手つきと判定する。ここで、所定値Aとは、ペン先と想定される大きさの上限値である。
In addition, the touching with the hands is a phenomenon in which the belly of the hand touches the display screen 10.
Specifically, the shape/touch determination unit 4 compares, for example, the detected shape with a predetermined value A, and when the area of the detected shape is equal to or smaller than the predetermined value A, determines that the pen tip is the predetermined value A. If it is larger than that, it is determined to be a touch. Here, the predetermined value A is an upper limit value of the size assumed to be the pen tip.

検出した形状は、図4(a)に示すように、X軸値の最小値(min x),最大値(max x)、Y軸値の最小値(min y),最大値(max y)に基づいて、Y軸方向の長さがX軸方向の長さよりも長い場合に縦長と判定し、図4(b)に示すように、Y軸方向の長さがX軸方向の長さよりも短い場合に横長と判定する。 The detected shape is, as shown in FIG. 4A, the minimum value (min x) of the X-axis value, the maximum value (max x), the minimum value (min y) and the maximum value (max y) of the Y-axis value. Based on the above, when the length in the Y-axis direction is longer than the length in the X-axis direction, it is determined to be vertically long, and the length in the Y-axis direction is longer than the length in the X-axis direction as shown in FIG. If it is short, it is determined to be landscape.

そして、形状/手つき判定部4は、判定した結果を、タッチ認識処理部5とユーザ位置判断部6とに送る。 Then, the shape/touch determination unit 4 sends the determination result to the touch recognition processing unit 5 and the user position determination unit 6.

タッチ認識処理部5は、形状/手つき判定部4の判定結果に基づいてペン先の位置を判定し、ペン先の位置がメニュー位置であればメニュー処理を行い、メニュー位置でない場合は描画処理を行う。 The touch recognition processing unit 5 determines the position of the pen tip based on the determination result of the shape/touch detection unit 4, performs the menu process if the position of the pen tip is the menu position, and performs the drawing process if it is not the menu position. To do.

ユーザ位置判断部6は、形状/手つき判定部4の判定結果に基づいて、入力ユーザの表示画面10に対する位置を判断するものである。ユーザ位置判断部6の詳細については後述する。ユーザ位置判断部6は、判断した結果を表示方向制御部(表示方向切換部)7に送る。 The user position determination unit 6 determines the position of the input user with respect to the display screen 10 based on the determination result of the shape/touch determination unit 4. Details of the user position determination unit 6 will be described later. The user position determination unit 6 sends the determined result to the display direction control unit (display direction switching unit) 7.

表示方向制御部(表示方向切換部)7は、ユーザ位置判断部6の判断した結果に基づいて、表示画面10における表示方向を判定して入力されたオブジェクトを表示するものである。ここでは、表示方向が判定される対象の表示は、表示画面10に表示される表示内容の全体、あるいはメニュー表示である。メニュー表示は、画面に表示される表示内容の一部に相当する。 The display direction control unit (display direction switching unit) 7 determines the display direction on the display screen 10 based on the result determined by the user position determination unit 6 and displays the input object. Here, the display of which the display direction is determined is the entire display content displayed on the display screen 10 or the menu display. The menu display corresponds to a part of the display content displayed on the screen.

また、表示方向制御部7は、特徴的な構成として、図2(b)に示すように、複数人のユーザにより表示画面10を共有して使用する場合は、予め特定されたマスタ位置(M)に対して正方向となる向きで入力されたオブジェクトを表示画面10に表示する特定方向表示機能71と、追加入力されたオブジェクトをマスタ位置(M)に対して正方向となる向きで追加した状態で表示する特定方向追加表示機能72とを備えている。 Further, as shown in FIG. 2B, when the display direction control unit 7 shares the display screen 10 with a plurality of users as a characteristic configuration, the display direction control unit 7 specifies a master position (M ), the specific direction display function 71 for displaying the object input in the positive direction on the display screen 10 and the additionally input object in the positive direction with respect to the master position (M) are added. A specific direction additional display function 72 for displaying in a state is provided.

さらに、表示方向制御部7は、複数人のユーザにより表示画面10を共有して使用する場合は、ユーザが入力中である場合に、入力されたオブジェクトの表示方向を入力中のユーザに対して正方向になるように切換えるユーザ方向表示機能73と、前記ユーザによる入力完了後、入力されたオブジェクトが表示される方向と予め特定されたマスタ位置(M)に対して正方向となる向きとが異なる場合には、入力されたオブジェクトがマスタ位置(M)に対して正方向となるように表示するユーザ方向表示切換機能74とを備えている。 Furthermore, when a plurality of users share the display screen 10 and use the display direction control unit 7, when the users are inputting the display direction, the display direction control unit 7 is provided to the user who is inputting the display direction of the input object. The user direction display function 73 for switching to the positive direction, and the direction in which the input object is displayed after the input by the user is completed and the direction in which the object is in the positive direction with respect to the master position (M) specified in advance. If they are different, the user direction display switching function 74 is provided to display the input object so that it is in the forward direction with respect to the master position (M).

さらに、表示方向制御部7は、入力を終了したユーザによる移動指示を検出すると、ユーザの移動指示に基づき、その入力したオブジェクトを移動する移動表示機能75と、移動完了後、マスタ位置(M)に対して入力したオブジェクトの方向が異なる場合は、マスタ位置(M)に対して正方向になるように表示する移動表示切換機能76とを備えている。 Further, when the display direction control unit 7 detects a movement instruction from the user who has completed the input, the display direction control unit 7 moves the input object based on the movement instruction from the user, and a master position (M) after the movement is completed. When the direction of the input object is different, the moving display switching function 76 is provided so as to display the object in the positive direction with respect to the master position (M).

描画情報制御部(表示切換部、描画部)8は、内部に図示していない記憶部を備えており、該記憶部に、手書きされた情報やグラフ情報等の描画情報と一時的に描画情報にオーバーラップして表示するメニュー情報とを別レイヤーにて保持している。 The drawing information control unit (display switching unit, drawing unit) 8 includes a storage unit (not shown) inside, and the storage unit temporarily stores drawing information such as handwritten information and graph information. The menu information to be displayed in an overlapping manner is held in a separate layer.

また、描画情報制御部8は、タッチ認識処理部5からのメニュー処理あるいは描画処理と、表示方向制御部7からの表示方向の判定の結果とに基づいて、表示部11に表示する内容を記憶している上記記憶部の内容を更新するように制御する。 Further, the drawing information control unit 8 stores the content to be displayed on the display unit 11 based on the menu process or the drawing process from the touch recognition processing unit 5 and the result of the determination of the display direction from the display direction control unit 7. The contents of the storage unit being operated are updated.

また、描画情報制御部8は、追加入力された描画情報をマスタ位置(M)に対して正方向となる向きで追加した状態で表示される際に、先に表示されているオブジェクトと追加入力されるオブジェクトの表示サイズを同じサイズとする機能を備えている。 Further, when the drawing information control unit 8 is displayed in a state in which the additionally input drawing information is added in a direction that is the positive direction with respect to the master position (M), the drawing information control unit 8 and the additional input are displayed. It has a function to make the display size of objects to be the same.

さらに、描画情報制御部8は、入力された描画情報を入力したユーザに関連づけてユーザ毎に異なる表示態様(色、フォント、大きさ等)で表示する機能を備えている。 Furthermore, the drawing information control unit 8 has a function of associating the input drawing information with the input user and displaying it in a display mode (color, font, size, etc.) that is different for each user.

表示駆動部9は、描画情報制御部8に備えられた上記記憶部に記憶された情報に基づいて表示部11を駆動し、情報を表示部11に表示するものである。 The display drive unit 9 drives the display unit 11 based on the information stored in the storage unit provided in the drawing information control unit 8 and displays the information on the display unit 11.

表示部11は、情報をユーザに表示画面10に表示することにより与えるためのもので、例えば液晶表示、EL表示等の平面形状からなる。表示部11の上面に静電容量センサより構成されるタッチパネル2が重ねて設けられている。 The display unit 11 is for giving information to the user by displaying it on the display screen 10, and has a planar shape such as liquid crystal display or EL display. A touch panel 2 including an electrostatic capacity sensor is provided on the upper surface of the display unit 11 so as to overlap.

次に、第1実施形態の入力表示装置1において表示画面10に入力されたオブジェクトを表示する表示制御の手順をフローチャートに沿って説明する。
図5は第1実施形態の入力表示装置の表示画面に入力されたオブジェクトを表示する表示制御の手順を示すフローチャート図である。
Next, a procedure of display control for displaying an object input on the display screen 10 in the input display device 1 of the first embodiment will be described according to a flowchart.
FIG. 5 is a flowchart showing a procedure of display control for displaying an object input on the display screen of the input display device according to the first embodiment.

入力表示装置1において、表示画面10へのオブジェクト(描画情報)の入力が開始されると、タッチパネル2において静電容量センサにより検出した容量値の変化の有無で表示画面10へユーザによる入力が行われたか否かが判断される(ステップS1)。 When input of an object (drawing information) to the display screen 10 is started in the input display device 1, the user inputs the display screen 10 depending on whether or not the capacitance value detected by the capacitance sensor on the touch panel 2 changes. It is determined whether or not it has been broken (step S1).

ステップS1において、ユーザによる入力が行われたと判断された場合は、ステップS2へ進み、入力領域の大きさが検出される。そして、その入力領域の大きさ(検出された形状)により、その入力がペン先によるものであるか否かが判断される(ステップS3)。入力領域の大きさの判断については、図4(a),(b)に示すように、その検出した範囲のmax x−min xと、max y−min yにて表される。 When it is determined in step S1 that the user has input, the process proceeds to step S2, and the size of the input area is detected. Then, based on the size of the input area (the detected shape), it is determined whether or not the input is made by the pen tip (step S3). The determination of the size of the input area is represented by max x-min x and max y-min y of the detected range, as shown in FIGS.

一方、ステップS1において、ユーザによる入力が行われていないと判断された場合は、入力が検出されるまで繰り返される。 On the other hand, if it is determined in step S1 that the user has not input, the process is repeated until the input is detected.

ステップS3において、入力がペン先によるものである(所定以下の大きさの領域である)と判断された場合は、ステップS4に進み、手つきによる入力があるか否かが判断される。一方、入力がペン先によるものではないと判断された場合は、ステップS1に戻り入力の検出が続けられる。 If it is determined in step S3 that the input is made by the pen tip (the area has a size equal to or smaller than a predetermined size), the process proceeds to step S4, and it is determined whether there is an input by hand. On the other hand, if it is determined that the input is not from the pen tip, the process returns to step S1 to continue detecting the input.

ステップS4における判断方法としては、例えば、ペン先として想定される領域の大きさより大きな領域であると判断した場合には、手つきとして判断する。 As the determination method in step S4, for example, when it is determined that the area is larger than the size of the area assumed as the pen tip, it is determined as a touch.

ステップS4において、手つきによる入力があると判断された場合は、ステップS5に進み、入力が所定範囲内の領域に存在するか否かが判断される。一方、ステップS4において、手つきによる入力が無いと判断された場合は、ステップS11に進む。 When it is determined in step S4 that there is an input by hand, the process proceeds to step S5, and it is determined whether or not the input exists in the area within the predetermined range. On the other hand, if it is determined in step S4 that there is no manual input, the process proceeds to step S11.

ステップS5では、ステップS3で判断されたペン先の入力と、ステップS4で判断された手つきの入力とが、所定範囲内の領域に存在するか否かが判断される。すなわち、ステップS5では、ペン先の入力と手つきの入力が同一ユーザのものであるか否かを判断している。 In step S5, it is determined whether or not the input of the pen tip determined in step S3 and the input with the hand determined in step S4 exist in an area within a predetermined range. That is, in step S5, it is determined whether the input with the pen tip and the input with the hand are for the same user.

ステップS5において、ペン先の入力と手つきの入力とが所定範囲内の領域に存在すると判断された場合は、ステップS6に進み、メニューの表示指示があったか否かが判断される。一方、ステップS5において、ペン先の入力と手つきの入力が所定範囲内の領域に存在しないと判断された場合は、ステップS11に進む。 If it is determined in step S5 that the pen tip input and the manual input are in the area within the predetermined range, the process proceeds to step S6, and it is determined whether or not there is a menu display instruction. On the other hand, if it is determined in step S5 that the pen tip input and the manual input do not exist in the area within the predetermined range, the process proceeds to step S11.

ステップS6におけるメニューの表示指示方法に関しては、別途スイッチを操作する等の方法を採用することにより解決することが可能である。
ステップS6において、メニューの表示指示があったと判断された場合は、ステップS7に進み、手つき入力の形状が判断される。一方、ステップS6において、メニューの表示指示がないと判断された場合は、ステップS11に進む。
The menu display instruction method in step S6 can be solved by adopting a method such as operating a switch separately.
If it is determined in step S6 that the menu display instruction has been given, the process proceeds to step S7, and the shape of the manual input is determined. On the other hand, if it is determined in step S6 that there is no menu display instruction, the process proceeds to step S11.

ステップS11では、ペン先の入力位置がメニュー表示位置であるか否かが判断される。ステップS11において、ペン先の入力位置がメニュー表示位置であると判断された場合は、ステップS12に進み、ペン先がUPされたか否かが判断される。 In step S11, it is determined whether the input position of the pen tip is the menu display position. When it is determined in step S11 that the input position of the pen tip is the menu display position, the process proceeds to step S12, and it is determined whether the pen tip is UP.

ステップS12では、ペン先がUPされたか否か、すなわちペン入力が終了したか否かが判断される。ステップS12において、ペン先がUPされたと判断された場合は、ステップS13に進み、ペン先がUPされた位置のメニュー項目が選択されて、実行される。 In step S12, it is determined whether or not the pen tip has been updated, that is, whether or not pen input has been completed. If it is determined in step S12 that the pen tip has been updated, the process proceeds to step S13, and the menu item at the position where the pen tip has been updated is selected and executed.

ステップS12において、ペン先がUPされていないと判断された場合は、ステップS11に戻る。 When it is determined in step S12 that the pen tip has not been updated, the process returns to step S11.

一方、ステップS11において、ペン先の入力位置がメニュー表示位置ではないと判断された場合は、ステップS14に進み、入力処理としてメニューで選択されている処理が実行され、ステップS15に進み、ペン先の位置が検出される。そして、ステップS16に進み、ペン先がUPされたか否かが判断される。 On the other hand, in step S11, when it is determined that the input position of the pen tip is not the menu display position, the process proceeds to step S14, the process selected in the menu is executed as the input process, and the process proceeds to step S15 where the pen tip Is detected. Then, in step S16, it is determined whether or not the pen tip has been updated.

ステップS16では、ペン先がUPすることでペン入力が終了したことを判断する。
ステップS16において、ペン先がUPされたと判断された場合は、ステップS1に戻り、次の入力に対応する。
In step S16, it is determined that the pen input is completed by the UP of the pen tip.
When it is determined in step S16 that the pen tip has been updated, the process returns to step S1 and corresponds to the next input.

一方、ステップS16において、ペン先がUPされていないと判断された場合は、ステップS14に戻り、ペン先がUPされるまで繰り返される。 On the other hand, if it is determined in step S16 that the pen tip has not been updated, the process returns to step S14 and the process is repeated until the pen tip is updated.

ここで、ステップS7以降の処理(2点鎖線で囲まれた個所の処理)は、ユーザによる入力に基づきメニューの方向を決定し表示を行う処理である。 Here, the process after step S7 (the process of the part surrounded by the two-dot chain line) is the process of determining the direction of the menu based on the input by the user and displaying it.

ステップS7では、図4(a),(b)に示すように、ステップS2にて検出した手つきのmin x:max xと、min y:max yを用いて、max x−min
xと、max y−min yを計算して、何れの方が長いかを判断する。
In step S7, as shown in FIGS. 4(a) and 4(b), max x-min is calculated using min x:max x and min y:max y with the hand detected in step S2.
x and max y-min y are calculated to determine which is longer.

ステップS7において、手つきが縦長であると判断された場合は、ステップS8に進む。一方、ステップS7において、手つきが縦長ではないと判断された場合は、ステップS17に進む。 When it is determined in step S7 that the touch is vertical, the process proceeds to step S8. On the other hand, if it is determined in step S7 that the hand is not vertically long, the process proceeds to step S17.

例えば、手つきの形状が縦長である場合には、図3に示すように、表示画面10における第1方向あるいは第3方向からの入力であると判断することができる。一方、手つきの形状が横長である場合には、表示画面10における第2方向あるいは第4方向からの入力であると判断することができる。 For example, when the shape of the hand is vertically long, it can be determined that the input is from the first direction or the third direction on the display screen 10, as shown in FIG. On the other hand, when the shape with the hand is horizontally long, it can be determined that the input is from the second direction or the fourth direction on the display screen 10.

ステップS8では、ペン先(小領域)の中心座標と、手つき(大領域)の中心座標のY軸値を比較することでユーザの向く方向(ユーザの位置)を判断する。 In step S8, the direction in which the user is facing (the position of the user) is determined by comparing the Y-axis values of the center coordinates of the pen tip (small area) and the center coordinates of the touch (large area).

ステップS8において、ペン先の中心座標が手つきの中心座標より小さいと判断された場合は、ステップS9に進む。一方、ステップS8において、ペン先の中心座標が手つきの中心座標より大きいと判断された場合は、ステップS10に進む。 If it is determined in step S8 that the center coordinate of the pen tip is smaller than the center coordinate of the hand, the process proceeds to step S9. On the other hand, if it is determined in step S8 that the center coordinate of the pen tip is larger than the center coordinate of the hand, the process proceeds to step S10.

例えば、図4(a)に示すように、ペン先の中心座標のY座標が手つきの中心座標のY座標より小さいということは、表示画面10の第3方向から入力が行われており、ステップS9において、表示画面10の第3方向に向けてメニューを表示するとともに、ユーザが表示画面10の第3方向に位置するものとして設定する。 For example, as shown in FIG. 4A, the fact that the Y coordinate of the center coordinate of the pen tip is smaller than the Y coordinate of the center coordinate of the hand means that the input is performed from the third direction of the display screen 10, In S<b>9, the menu is displayed in the third direction of the display screen 10 and the user is set to be positioned in the third direction of the display screen 10.

また、手つきの中心座標のY座標がペン先の中心座標のY座標より大きいということは、表示画面10の第1方向から入力が行われており、ステップS10において、表示画面10の第1方向に向けてメニューを表示するとともに、ユーザが表示画面10の第1方向に位置するものとして設定する。 The fact that the Y coordinate of the center coordinate of the touch is larger than the Y coordinate of the center coordinate of the pen tip means that the input is made from the first direction of the display screen 10, and in step S10, the first direction of the display screen 10 is performed. The menu is displayed toward, and the user sets it so as to be positioned in the first direction of the display screen 10.

そして、ステップS1に戻り、次の入力に対応する。 Then, the process returns to step S1 and corresponds to the next input.

ステップS17では、ペン先(小領域)の中心座標と、手つき(大領域)の中心座標のX軸値を比較することでユーザの向く方向(ユーザの位置)を判断する。 In step S17, the direction in which the user is facing (the user's position) is determined by comparing the X-axis values of the center coordinates of the pen tip (small area) and the center coordinates of the touch (large area).

ステップS17において、ペン先の中心座標が手つきの中心座標より大きいと判断された場合は、ステップS18に進む。一方、ステップS17において、ペン先の中心座標が手つきの中心座標より小さいと判断された場合は、ステップS19に進む。 If it is determined in step S17 that the center coordinate of the pen tip is larger than the center coordinate of the hand, the process proceeds to step S18. On the other hand, if it is determined in step S17 that the center coordinate of the pen tip is smaller than the center coordinate of the hand, the process proceeds to step S19.

例えば、図4(b)に示すように、ペン先の中心座標のX座標が手つきの中心座標のX座標より大きいということは、表示画面10の第4方向から入力が行われており、ステップS18において、表示画面10の第4方向に向けてメニューを表示するとともに、ユーザが表示画面10の第4方向に位置するものとして設定する。 For example, as shown in FIG. 4B, the fact that the X coordinate of the center coordinate of the pen tip is larger than the X coordinate of the center coordinate of the hand means that the input is performed from the fourth direction of the display screen 10, In S18, the menu is displayed in the fourth direction of the display screen 10 and the user is set to be positioned in the fourth direction of the display screen 10.

また、手つきの中心座標のX座標がペン先の中心座標のX座標より小さいということは、表示画面10の第2方向から入力が行われており、ステップS19において、表示画面10の第2方向に向けてメニューを表示するとともに、ユーザが表示画面10の第2方向に位置するものとして設定する。
そして、ステップS1に戻り、次の入力に対応する。
Further, the fact that the X coordinate of the center coordinate of the hand is smaller than the X coordinate of the center coordinate of the pen tip means that the input is made from the second direction of the display screen 10, and in step S19, the second direction of the display screen 10 is performed. The menu is displayed toward, and the user sets it so as to be positioned in the second direction of the display screen 10.
Then, the process returns to step S1 and corresponds to the next input.

このようにして、図3に示すように、表示画面10に対向する入力ユーザに合わせてメニューを表示する方向を制御することができるとともに、それぞれのユーザ位置を設定し、入力するオブジェクトと関連付けて保存することができる。 In this way, as shown in FIG. 3, it is possible to control the direction in which the menu is displayed in accordance with the input user facing the display screen 10, set each user position, and associate it with the input object. Can be saved.

次に、第1実施形態の入力表示装置1においてユーザからの移動指示に基づき、入力されたオブジェクトを移動してマスタ設定に対して表示する表示制御の手順をフローチャートに沿って説明する。
図6は第1実施形態の入力表示装置の表示画面に表示される入力されたオブジェクトをマスタ設定に対して表示する表示方向制御の手順を示すフローチャート図である。
Next, the procedure of the display control for moving the input object and displaying it for the master setting based on the moving instruction from the user in the input display device 1 of the first embodiment will be described with reference to a flowchart.
FIG. 6 is a flow chart showing a procedure of display direction control for displaying the input object displayed on the display screen of the input display device of the first embodiment with respect to the master setting.

図6に示すように、第1実施形態の入力表示装置1において、表示画面10へのオブジェクト(描画情報)の表示制御が開始されると、ユーザから入力されたオブジェクトに対して移動指示があるか否かが判断される(ステップS101)。 As shown in FIG. 6, when the display control of the object (drawing information) on the display screen 10 is started in the input display device 1 of the first embodiment, a movement instruction is given to the object input by the user. It is determined whether or not (step S101).

ステップS101において、ユーザから入力されたオブジェクトに対して移動指示がない場合は、ステップS104に進む。一方、ステップS101において、ユーザから入力されたオブジェクトに対して移動指示があった場合は、ステップS102に進む。 In step S101, if there is no movement instruction for the object input by the user, the process proceeds to step S104. On the other hand, in step S101, when the user inputs a movement instruction to the object, the process proceeds to step S102.

ステップS102において、ユーザからの移動指示については、図5のステップS13におけるメニュー処理で移動指示を与えられた場合や、一定時間同じ位置をタッチした場合に移動指示として検出することで実行が可能である。 In step S102, the movement instruction from the user can be executed by detecting the movement instruction when the movement instruction is given in the menu processing in step S13 of FIG. 5 or when the same position is touched for a certain time. is there.

ステップS102では、ユーザの移動指示に基づき、入力されたオブジェクトが移動されて、ステップS103にと進む。 In step S102, the input object is moved based on the user's movement instruction, and the process proceeds to step S103.

ステップS103では、ペン先がUPされたか否か、すなわちペン入力が終了したか否かが判断される。 In step S103, it is determined whether or not the pen tip has been updated, that is, whether or not pen input has been completed.

ステップS103において、ペン先がUPされていないと判断された場合は、ステップS102に進み、入力されたオブジェクトの移動を繰り返す。 When it is determined in step S103 that the pen tip has not been updated, the process proceeds to step S102, and the movement of the input object is repeated.

一方、ステップS103において、ペン先がUPされたと判断された場合は、ステップS104に進み、マスタ設定された方向と入力されたオブジェクトの方向が同じか否かが判断される。 On the other hand, if it is determined in step S103 that the pen tip has been updated, the process proceeds to step S104, and it is determined whether or not the direction set as the master and the direction of the input object are the same.

ステップS104において、マスタ設定された方向と入力オブジェクトの方向が同じであると判断された場合は、そのまま処理を終了する。 If it is determined in step S104 that the direction set as the master and the direction of the input object are the same, the process ends.

一方、ステップS104において、マスタ設定された方向と入力オブジェクトの方向が異なると判断された場合は、ステップS105に進み、マスタ位置に対して正方向になるように表示制御が実行される。 On the other hand, when it is determined in step S104 that the direction set as the master and the direction of the input object are different, the process proceeds to step S105, and the display control is performed so that the master position is in the positive direction.

尚、ペン先ではなく、指先にて操作しても良い。 The operation may be performed with the fingertip instead of the pen tip.

ステップS105では、入力されたオブジェクトがマスタ位置に対して正方向になる位置で追加表示する。具体的には、図1(b)に示すように、ユーザCにより表示画面10に入力されたオブジェクト102が、図1(c)に示すように、180度回転した状態で追加表示される。 In step S105, the input object is additionally displayed at a position in the positive direction with respect to the master position. Specifically, as shown in FIG. 1B, the object 102 input by the user C on the display screen 10 is additionally displayed in a state of being rotated by 180 degrees as shown in FIG. 1C.

以上のように構成したので、第1実施形態によれば、入力表示装置1において、タッチパネル2の構成として複数の入力を検出可能な機能を備え、さらに、入力表示装置1の制御部12の構成として、形状/手つき判定部4と、ユーザ位置判断部6と、表示方向制御部7と、を備えることで、入力表示装置1を会議テーブルとして複数人のユーザにより共有して使用する際に、それぞれのユーザの位置(方向)を特定するとともに、表示画面10に入力されたオブジェクトを予め特定されたマスタ位置(M)に対して正方向となる向きで表示することができるので、表示画面10に表示される表示内容の視認性を向上できるとともに、その表示内容の再利用性を高めることができる。 With the above-described configuration, according to the first embodiment, the input display device 1 has a function of detecting a plurality of inputs as the configuration of the touch panel 2, and further the configuration of the control unit 12 of the input display device 1. By including the shape/touch determination unit 4, the user position determination unit 6, and the display direction control unit 7, when the input display device 1 is shared and used by a plurality of users as a conference table, Since the position (direction) of each user can be specified and the object input to the display screen 10 can be displayed in the direction that is the positive direction with respect to the master position (M) specified in advance, the display screen 10 It is possible to improve the visibility of the display content displayed on the screen and to improve the reusability of the display content.

(第2実施形態)
次に、本発明の第2実施形態について図面を参照して説明する。
なお、説明の便宜上、第1実施形態と同一の機能を有する構成には、同一の番号を付して説明を省略する。
図7(a)は本発明の第2実施形態に係る入力表示装置の表示画面に対して複数人のユーザが書き込みを行う状態を示す説明図、(b)は前記表示画面に入力されたオブジェクトを表示制御した状態を示す説明図、図8は前記入力表示装置の表示画面におけるユーザの入力方向を判断する手順を示すフローチャート図、図9は前記入力表示装置を使用するユーザ毎の入力処理の手順を示すフローチャート図である。
(Second embodiment)
Next, a second embodiment of the present invention will be described with reference to the drawings.
Note that, for convenience of description, configurations having the same functions as those in the first embodiment are denoted by the same reference numerals and description thereof will be omitted.
FIG. 7A is an explanatory diagram showing a state in which a plurality of users write on the display screen of the input display device according to the second embodiment of the present invention, and FIG. 7B is an object input on the display screen. Is an explanatory view showing a state in which the display control is performed, FIG. 8 is a flowchart showing a procedure for determining the input direction of the user on the display screen of the input display device, and FIG. 9 is an input process for each user who uses the input display device. It is a flowchart figure which shows a procedure.

第1実施形態では、入力表示装置1を会議テーブルとして複数人のユーザにより共有して使用する際に、何れかのユーザが表示画面10に入力する場合について説明したが、第2実施形態は、複数人のユーザが同時に表示画面10を使用する場合について、図7(a),(b)に示すように、マスタ位置(M)に対して正方向になるように配慮して、入力されたオブジェクトを追加表示できるような表示制御を行うことを特徴とするものである。 In the first embodiment, when the input display device 1 is shared and used by a plurality of users as a conference table, a case where any user inputs on the display screen 10 has been described. When a plurality of users use the display screen 10 at the same time, as shown in FIGS. 7(a) and 7(b), the input is made in consideration of the positive direction with respect to the master position (M). It is characterized by performing display control so that an object can be additionally displayed.

図7(a)では、例えば、入力表示装置1の表示画面10にユーザBおよびユーザCが入力を開始した状態を示している。ユーザBおよびユーザCが入力している間は、入力領域の文字、入力メニューといった画面の表示内容は、ユーザBおよびユーザC各々に対して正方向を向いて表示されている。 FIG. 7A shows, for example, a state in which the user B and the user C have started inputting on the display screen 10 of the input display device 1. While the user B and the user C are inputting, the display contents of the screen such as the characters in the input area and the input menu are displayed in the forward direction with respect to the user B and the user C, respectively.

図7(b)では、ユーザBおよびユーザCにより入力されたオブジェクトがマスタ位置(M)に対して正方向になるように表示制御された状態を示している。 In FIG. 7B, the display control is performed so that the objects input by the users B and C are in the positive direction with respect to the master position (M).

以下に、第2実施形態の入力表示装置1において、表示画面10を複数人のユーザが同時に使用する場合に、表示画面10に対して複数人のユーザの向きを設定する表示制御の手順をフローチャートに沿って説明する。 Below, in the input display device 1 of the second embodiment, when a plurality of users use the display screen 10 at the same time, a flowchart of a display control procedure for setting the orientations of the plurality of users on the display screen 10. Follow along.

図8に示すように、入力表示装置1において、表示画面10へのオブジェクト(描画情報)の入力が開始されると、タッチパネル2において静電容量センサにより検出した容量値の変化の有無で表示画面10へユーザによる入力が行われたか否かが判断される(ステップS201)。 As shown in FIG. 8, when input of an object (drawing information) to the display screen 10 is started in the input display device 1, the display screen changes depending on whether or not the capacitance value detected by the capacitance sensor on the touch panel 2 changes. It is determined whether or not the user has input 10 (step S201).

ステップS201において、ユーザによる入力が行われたと判断された場合は、ステップS202へ進み、入力領域の大きさが検出される。一方、ステップS1において、ユーザによる入力が行われていないと判断された場合は、処理を終了する。 When it is determined in step S201 that the user has input, the process proceeds to step S202, and the size of the input area is detected. On the other hand, if it is determined in step S1 that the user has not made an input, the process ends.

ステップS202では、それぞれの入力領域の大きさ(検出された形状)を判断する。入力領域の大きさの判断については、図4に示すように、その検出した範囲のmax x−min xと、max y−min yにて表される。そして、ステップS203に進む。 In step S202, the size (detected shape) of each input area is determined. The determination of the size of the input area is represented by max x-min x and max y-min y of the detected range, as shown in FIG. Then, the process proceeds to step S203.

ステップS203では、所定以下の大きさの領域、すなわちペン先の入力が含まれているか否かが判断されるとともに、所定以下の大きさの領域が含まれている場合に、その個数をカウントする。すなわち、ステップS203では、使用されているペンの数(ユーザの数)がカウントされる。そして、ステップS204に進む。 In step S203, it is determined whether or not an area having a size equal to or smaller than a predetermined size, that is, an input of a pen tip is included, and when the area having a size equal to or smaller than the predetermined size is included, the number is counted. .. That is, in step S203, the number of pens used (the number of users) is counted. Then, the process proceeds to step S204.

ステップS204では、ステップS203にてカウントした数値を変数iに設定する。そして、ステップS205に進む。 In step S204, the numerical value counted in step S203 is set in the variable i. Then, the process proceeds to step S205.

ステップS205では、変数iが0であるか否かが判断される。ステップS205において、変数iが0であると判断された場合は、処理すべき大きさの領域が無いと判断して処理を終了する。一方、ステップS205において、変数iが0ではないと判断された場合は、ステップS206へ進む。 In step S205, it is determined whether the variable i is 0. If it is determined in step S205 that the variable i is 0, it is determined that there is no area of a size to be processed, and the process is terminated. On the other hand, if it is determined in step S205 that the variable i is not 0, the process proceeds to step S206.

ステップS206では、手つきによる入力があるか否かが判断される。ステップS206において、手つきによる入力があると判断された場合は、ステップS207へと進む。一方、ステップS206において、手つきによる入力がないと判断された場合は、ステップS215へと進む。 In step S206, it is determined whether there is a manual input. If it is determined in step S206 that there is a manual input, the process proceeds to step S207. On the other hand, when it is determined in step S206 that there is no manual input, the process proceeds to step S215.

ステップS206における判断方法としては、例えば、入力領域が、ペン先として想定される領域の大きさより大きな領域であると判断した場合には、手つきとして判断する。 As a determination method in step S206, for example, when it is determined that the input area is larger than the size of the area assumed as the pen tip, it is determined as a touch.

ステップS207では、ステップS203にて判断されたペン先の領域と、ステップS206にて判断された手つきの領域とが、所定範囲内の領域に存在するか否かを判断される。すなわち、ステップS207では、ペン先の入力と手つきの入力が同一ユーザのものであるか否かを判断している。 In step S207, it is determined whether the pen tip area determined in step S203 and the hand-touched area determined in step S206 are within a predetermined range. That is, in step S207, it is determined whether the input with the pen tip and the input with the hand are for the same user.

ステップS207において、ペン先の入力と手つきの入力とが所定範囲内に存在すると判断した場合には、ステップS208に進む。一方、ステップS207において、ペン先の入力と手つきの入力が所定範囲内に存在しないと判断された場合は、ステップS215に進む。 If it is determined in step S207 that the pen tip input and the manual input are within the predetermined range, the process proceeds to step S208. On the other hand, if it is determined in step S207 that the pen tip input and the manual input are not within the predetermined range, the process proceeds to step S215.

ステップS208では、図4(a),(b)に示すように、ステップS202にて検出した手つきのmin x:max xと、min y:max yを用いて、max x−min xと、max y−min yを計算して、何れの方が長いかを判断する。 In step S208, as shown in FIGS. 4(a) and 4(b), max x-min x and max are calculated using min x:max x and min y:max y with the hand detected in step S202. Calculate y-min y to determine which is longer.

ステップS208において、手つきが縦長であると判断された場合は、ステップS209へと進む。一方、ステップS208において、手つきが縦長ではないと判断された場合は、ステップS212に進む。 If it is determined in step S208 that the touch is vertical, the process proceeds to step S209. On the other hand, when it is determined in step S208 that the hand is not vertically long, the process proceeds to step S212.

例えば、手つきの形状が縦長である場合には、図3に示すように、表示画面10における第1方向あるいは第3方向からの入力であると判断することができる。一方、手つきの形状が横長である場合には、表示画面10における第2方向あるいは第4方向からの入力であると判断することができる。 For example, when the shape of the hand is vertically long, it can be determined that the input is from the first direction or the third direction on the display screen 10, as shown in FIG. On the other hand, when the shape with the hand is horizontally long, it can be determined that the input is from the second direction or the fourth direction on the display screen 10.

ステップS209では、ペン先(小領域)の中心座標と、手つき(大領域)の中心座標のY軸値を比較することでユーザの向く方向(ユーザの位置)を判断する。 In step S209, the direction in which the user is facing (the position of the user) is determined by comparing the Y-axis values of the center coordinates of the pen tip (small area) and the center coordinates of the touch (large area).

ステップS209において、ペン先の中心座標が手つきの中心座標より小さいと判断された場合は、ステップS210に進む。一方、ステップS209において、ペン先の中心座標が手つきの中心座標より大きいと判断された場合は、ステップS211に進む。 If it is determined in step S209 that the center coordinate of the pen tip is smaller than the center coordinate of the hand, the process proceeds to step S210. On the other hand, if it is determined in step S209 that the center coordinate of the pen tip is larger than the center coordinate of the hand, the process proceeds to step S211.

例えば、図3に示すように、ペン先の中心座標のY座標が手つきの中心座標のY座標より小さいということは、ユーザiが表示画面10の第3方向にいることが分かるため、ステップS210おいて、ユーザiを表示画面10の第3方向に設定する。 For example, as shown in FIG. 3, the fact that the Y coordinate of the center coordinate of the pen tip is smaller than the Y coordinate of the center coordinate of the hand means that the user i is in the third direction of the display screen 10, and thus step S210. Then, the user i is set in the third direction of the display screen 10.

また、手つきの中心座標のY座標がペン先の中心座標のY座標より大きいということは、ユーザiが表示画面10の第1方向にいることが分かるため、ステップS211において、ユーザiを表示画面10の第1方向に設定する。 Further, the fact that the Y coordinate of the center coordinate of the hand is larger than the Y coordinate of the center coordinate of the pen tip indicates that the user i is in the first direction of the display screen 10. Therefore, in step S211, the user i is displayed on the display screen. Set in the first direction of 10.

ステップS212では、ペン先(小領域)の中心座標と、手つき(大領域)の中心座標のX軸値を比較することでユーザの向く方向(ユーザの位置)を判断する。 In step S212, the direction in which the user is facing (the position of the user) is determined by comparing the X-axis values of the center coordinates of the pen tip (small area) and the center coordinates of the touch (large area).

ステップS212において、ペン先の中心座標が手つきの中心座標より大きいと判断された場合は、ステップS213に進む。一方、ステップS212において、ペン先の中心座標が手つきの中心座標より小さいと判断した場合は、ステップS214に進む。 When it is determined in step S212 that the center coordinate of the pen tip is larger than the center coordinate of the hand, the process proceeds to step S213. On the other hand, if it is determined in step S212 that the center coordinate of the pen tip is smaller than the center coordinate of the hand, the process proceeds to step S214.

例えば、図3に示すように、ペン先の中心座標のX座標が手つきの中心座標のX座標より大きいということは、ユーザiが表示画面10の第4方向にいることが分かるため、ステップS213において、ユーザiを第4方向に設定する。 For example, as shown in FIG. 3, the fact that the X coordinate of the center coordinate of the pen tip is larger than the X coordinate of the center coordinate of the hand means that the user i is in the fourth direction of the display screen 10, and thus step S213. In, the user i is set in the fourth direction.

また、手つきの中心座標のX座標がペン先の中心座標のX座標より小さいということは、ユーザiが表示画面10の第2方向にいることが分かるため、ステップS214において、ユーザiを第2方向に設定する。 Further, the fact that the X coordinate of the center coordinate of the hand is smaller than the X coordinate of the center coordinate of the pen tip indicates that the user i is in the second direction of the display screen 10. Therefore, in step S214, the user i is set to the second coordinate. Set to the direction.

そして、ユーザiの位置する方向が設定された後、カウントした数値の変数iから1を減算して変数を設定する(ステップS215)。そして、ステップS205に戻り、変数iが0になるまで繰り返される。
これにより、複数人の入力ユーザの方向を検出することが出来る。
Then, after the direction in which the user i is located is set, 1 is subtracted from the counted variable i to set the variable (step S215). Then, the process returns to step S205 and is repeated until the variable i becomes zero.
Thereby, the directions of a plurality of input users can be detected.

次に、第2実施形態の入力表示装置1において、表示画面10にメニュー表示する表示制御の手順をフローチャートに沿って説明する。 Next, in the input display device 1 of the second embodiment, a procedure of display control for displaying a menu on the display screen 10 will be described with reference to a flowchart.

入力表示装置1において、表示画面10を複数人のユーザが同時に使用する場合に、図8に示すように、表示画面10に対して複数人のユーザの向きを設定する表示制御を行った後に、図9に示すように、表示画面10にメニュー表示する処理をユーザ数(i)に合わせて並行して実施される。 In the input display device 1, when a plurality of users simultaneously use the display screen 10, as shown in FIG. 8, after performing display control for setting the orientations of the plurality of users on the display screen 10, As shown in FIG. 9, the process of displaying a menu on the display screen 10 is performed in parallel according to the number of users (i).

入力表示装置1において、表示画面10へのオブジェクト(描画情報)の入力が開始されると、まず、メニュー表示が指示されたか否かが判断される(ステップS301)。 When the input display device 1 starts to input an object (drawing information) to the display screen 10, it is first determined whether or not a menu display is instructed (step S301).

ステップS301において、メニュー表示が指示されていないと判断された場合は、ステップS302に進み、図8の処理にて設定された各ユーザの方向に対して正方向となるように入力メニューを表示して、処理を終了する。一方、ステップS301において、メニュー表示が指示されたと判断された場合は、ステップS303に進む。 If it is determined in step S301 that the menu display is not instructed, the process proceeds to step S302, and the input menu is displayed so as to be in the forward direction with respect to the direction of each user set in the process of FIG. Then, the process ends. On the other hand, when it is determined in step S301 that the menu display is instructed, the process proceeds to step S303.

ステップS303では、メニュー表示位置であるか否かが判断される。ステップS303において、メニュー表示位置であると判断された場合は、ステップS304に進む。一方、ステップS303において、メニュー表示位置ではないと判断された場合は、ステップS306に進む。 In step S303, it is determined whether or not it is the menu display position. When it is determined in step S303 that the menu display position is reached, the process proceeds to step S304. On the other hand, if it is determined in step S303 that it is not the menu display position, the process proceeds to step S306.

ステップS304では、ペン先がUPされたか否かが判断される。ステップS304において、ペン先がUPされたと判断された場合は、ステップS305に進む。 In step S304, it is determined whether the pen tip has been UP. If it is determined in step S304 that the pen tip has been updated, the process proceeds to step S305.

ステップS305では、ペン先がUPされたことを検出することにより、ペン先がUPされた位置のメニュー項目が選択されて、実行される。 In step S305, the menu item at the position where the pen tip is UP is selected and executed by detecting that the pen tip is UP.

一方、ステップS304において、ペン先がUPされていないと判断された場合は、ステップS303に戻り、ペン先がUPされるまで繰り返される。 On the other hand, if it is determined in step S304 that the pen tip has not been updated, the process returns to step S303 and the process is repeated until the pen tip is updated.

ステップS303において、メニュー表示位置ではないと判断された場合は、ステップS306にて入力処理として入力メニューで選択されている処理が実行され、ステップS307にてペン先の位置が検出される。そして、ステップS308に進み、ペン先がUPされたか否かが判断される。 If it is determined in step S303 that the position is not the menu display position, the process selected in the input menu is executed as the input process in step S306, and the position of the pen tip is detected in step S307. Then, in step S308, it is determined whether or not the pen tip has been updated.

ステップS308では、ペン先がUPすることでペン入力が終了したことを判断する。ステップS308において、ペン先がUPされたと判断された場合は、処理が終了する。 In step S308, it is determined that the pen input is completed by the UP of the pen tip. If it is determined in step S308 that the pen tip has been updated, the process ends.

一方、ステップS308において、ペン先がUPされていない判断された場合は、ステップS306に戻り、ペン先がUPされるまで処理を繰り返す。 On the other hand, if it is determined in step S308 that the pen tip has not been updated, the process returns to step S306 and the process is repeated until the pen tip is updated.

これにより、複数人の入力ユーザがそれぞれ異なる処理を要求した場合においても、並行してそれぞれの処理を行うため、結果として複数人のユーザ入力に対して、メニューを適切な方向に表示することができる。 As a result, even when a plurality of input users request different processes, the respective processes are performed in parallel, and as a result, the menu can be displayed in an appropriate direction for the user inputs of a plurality of users. it can.

次に、第2実施形態において、入力表示装置1の表示画面10に入力されたオブジェクトを表示制御する場合について説明する。 Next, in the second embodiment, a case where display control of an object input on the display screen 10 of the input display device 1 is performed will be described.

入力表示装置1の表示画面10にそれぞれのユーザによって入力されたオブジェクトを表示制御する場合は、図9に示すように、表示画面10にメニュー表示する処理をユーザ数(i)に合わせて並行して実施した後、図6に示すように、表示画面10に入力されたオブジェクトをマスタ位置(M)に対して表示する表示制御の処理をユーザ数(i)に合わせて並行してそれぞれ実施する。 When controlling the display of the objects input by each user on the display screen 10 of the input display device 1, as shown in FIG. 9, the process of displaying the menu on the display screen 10 is performed in parallel according to the number of users (i). 6, the display control process for displaying the object input on the display screen 10 at the master position (M) is performed in parallel according to the number of users (i). ..

図6に示す処理内容については、第1実施形態と同様であるため説明を省略する。
この処理により、例えば、図7(a)では、ユーザBおよびユーザCが入力を開始した状態を示しており、ユーザBおよびユーザCが入力している間は、入力領域の文字、入力メニューといった画面の表示内容は、ユーザBおよびユーザC各々に対して正方向を向いて表示されている。
The processing content shown in FIG. 6 is the same as that in the first embodiment, and thus the description thereof is omitted.
By this processing, for example, FIG. 7A shows a state in which the user B and the user C have started inputting, and while the user B and the user C are inputting, characters in the input area, an input menu, etc. The display content of the screen is displayed in the forward direction with respect to each of user B and user C.

ユーザBおよびユーザCが入力を完了した際、ユーザBおよびユーザCが入力したそれぞれのオブジェクト102b,102cと、それらの表示方向を保存しておき、それぞれに対して移動指示を検出すると、指先が離れるまでそれぞれの入力されたオブジェクト102b,102cをユーザBおよびユーザCの指示に基づき移動する。 When the user B and the user C complete the input, the respective objects 102b and 102c input by the user B and the user C and their display directions are stored, and when a movement instruction is detected for each of them, the fingertips are moved. The input objects 102b and 102c are moved based on the instructions of the user B and the user C until they are separated.

移動完了後、マスタ設定方向と入力されたオブジェクト102b,102cの方向とが異なる場合には、入力されたオブジェクトがマスタ位置(M)に対して正方向となるように表示を制御する。 After the movement is completed, if the master setting direction is different from the direction of the input objects 102b and 102c, the display is controlled so that the input object is in the forward direction with respect to the master position (M).

図7(b)に示すように、ユーザBによる移動指示があった場合は、マスタ位置(M)に対して正方向にすべく、ユーザBのオブジェクト102bを右90度回転して表示する表示制御が行われる。また、ユーザCによる移動指示があった場合は、ユーザCのオブジェクト102cを180度回転して表示する表示制御が行われる。 As shown in FIG. 7B, when the user B gives a movement instruction, the object B of the user B is rotated 90 degrees to the right so as to be in the forward direction with respect to the master position (M). Control is performed. In addition, when the movement instruction is given by the user C, display control is performed in which the object C of the user C is rotated 180 degrees and displayed.

以上のように構成したので、第2実施形態によれば、入力表示装置1を会議テーブルとして複数人のユーザにより共有して使用する際に、複数人のユーザが同時に入力する場合についても、表示画面10に入力されたオブジェクトをマスタ位置(M)に対して正方向になるように配慮して、複数人のユーザにより入力されたオブジェクトをそれぞれ追加表示することができるので、表示画面10に表示される表示内容の視認性を向上できるとともに、その表示内容の再利用性を高めることができる。 With the above-described configuration, according to the second embodiment, when the input display device 1 is shared and used by a plurality of users as a conference table, even when a plurality of users simultaneously input, the display is performed. Since the objects input by the screen 10 can be displayed in addition to the objects input by a plurality of users in consideration that the objects are input in the positive direction with respect to the master position (M), the objects are displayed on the display screen 10. It is possible to improve the visibility of the displayed content and improve the reusability of the displayed content.

(第3実施形態)
次に、本発明の第3実施形態について図面を参照して説明する。
なお、説明の便宜上、第1実施形態と同一の機能を有する構成には、同一の番号を付して説明を省略する。
図10(a)は本発明の第3実施形態に係る入力表示装置の表示画面に対して複数人のユーザが書き込みを行う状態を示す説明図、(b)は前記表示画面に入力されたオブジェクトを拡大して表示制御した状態を示す説明図、図11は前記入力表示装置の表示画面に入力されたオブジェクトに対してスケーリング処理を行う手順を示すフローチャート図、図12は前記入力表示装置において入力されたオブジェクトの画像データを2値化データとして配列した一例を示す説明図、図13は前記入力された文字のデータを2値化としてラベリングした例を示す説明図、図14は図13のラベリングした結果を矩形化処理した例を示す説明図、図15は前記入力された文字をラベリングして行として抽出した一例を示す説明図である。
(Third Embodiment)
Next, a third embodiment of the present invention will be described with reference to the drawings.
Note that, for convenience of description, configurations having the same functions as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted.
FIG. 10A is an explanatory diagram showing a state in which a plurality of users write on the display screen of the input display device according to the third embodiment of the present invention, and FIG. 10B is an object input on the display screen. FIG. 11 is an explanatory view showing a state in which display control is performed in an enlarged manner, FIG. 11 is a flowchart showing a procedure for performing scaling processing on an object input to the display screen of the input display device, and FIG. 12 is input in the input display device. FIG. 13 is an explanatory view showing an example in which image data of a rendered object is arranged as binarized data, FIG. 13 is an explanatory view showing an example in which the input character data is labeled as binarized, and FIG. 14 is a labeling in FIG. FIG. 15 is an explanatory view showing an example in which the result is subjected to a rectangular processing, and FIG. 15 is an explanatory view showing an example in which the input characters are labeled and extracted as a line.

第3実施形態は、表示方向制御部7の機能として、上述した第1実施形態における機能に加えてスケーリング機能を備えることを特徴としている。これにより、入力表示装置1の表示画面10に入力されたオブジェクトを拡大、縮小して表示制御することが可能になる。 The third embodiment is characterized in that the display direction control section 7 has a scaling function in addition to the function in the first embodiment described above. Thereby, it becomes possible to control the display by enlarging or reducing the object input on the display screen 10 of the input display device 1.

入力表示装置1の表示画面10において、手書き入力する時の文字の大きさについては、ユーザによって大きさが異なるため、そのままの状態では、非常に見づらくなることが考えられる。そのため、表示内容の視認性、及び、その表示内容の再利用性を高めるとなると、手書き入力されたオブジェクトを拡大・縮小する必要がある。 On the display screen 10 of the input display device 1, the size of the characters when handwriting input is different depending on the user, and therefore it may be very difficult to see the characters as they are. Therefore, in order to improve the visibility of the display content and the reusability of the display content, it is necessary to enlarge or reduce the object input by handwriting.

例えば、図10(a)に示すように、ユーザAの手書き入力された文字301が、先に入力されたオブジェクト300よりも小さい場合は、入力終了後、所定処理(ここでは拡大処理)を実施した上で、図10(b)に示すように、設定されている閾値に基づいて、他の文字と同じような大きさの文字302になるようスケーリングが行われる。 For example, as illustrated in FIG. 10A, when the handwritten input character 301 of the user A is smaller than the previously input object 300, a predetermined process (enlargement process here) is performed after the input is completed. Then, as shown in FIG. 10B, based on the set threshold value, scaling is performed so that the character 302 has the same size as other characters.

以下に、第3実施形態の入力表示装置1において、入力されたオブジェクトに対してスケーリングを行い表示する表示制御の手順をフローチャートに沿って説明する。 Hereinafter, in the input display device 1 according to the third embodiment, a procedure of display control for scaling and displaying an input object will be described with reference to a flowchart.

図11に示すように、入力表示装置1において、表示画面10へのオブジェクト(描画情報)の入力が開始されると、最初にユーザによる手書き入力が終了したか否かが判断される(ステップS401)。 As shown in FIG. 11, when input of an object (drawing information) to the display screen 10 is started in the input display device 1, it is first determined whether or not handwriting input by the user is completed (step S401). ).

ステップ401において、ユーザによる手書き入力が終了していないと判断された場合は、入力が終了するまで判定を繰り返す。一方、ステップS401において、ユーザによる手書き入力が終了したと判断された場合は、次にラベリング処理が実行される(ステップS402)。 If it is determined in step 401 that the handwriting input by the user is not completed, the determination is repeated until the input is completed. On the other hand, if it is determined in step S401 that the user's handwriting input is completed, then the labeling process is executed (step S402).

ステップS402におけるラベリング処理は、ユーザが手書き入力した内容を2値化し、「1」が連続した画素に同じ番号を振る。 In the labeling process in step S402, the content handwritten by the user is binarized, and the same number is assigned to pixels in which “1” is consecutive.

図12は、2値化された画像の縦、横方向に連続している部分を同じラベルにする4連結の例を示している。例えば、注目画素310の2値データを([y][x])とすると、左上データ311は([y−1][x−1])、上データ312は([y−1][x])、右上データ313は([y−1][x+1])、左データ314は([y][x−1])、・・・となる。また、例えば、「あ」という文字をラベリングした例は、図13のようになる。 FIG. 12 shows an example of four connections in which the continuous portions in the vertical and horizontal directions of the binarized image are labeled with the same label. For example, if the binary data of the pixel of interest 310 is ([y][x]), the upper left data 311 is ([y-1][x-1]) and the upper data 312 is ([y-1][x]. ], the upper right data 313 becomes ([y−1][x+1]), the left data 314 becomes ([y][x−1]),.... Further, for example, an example in which the character "A" is labeled is as shown in FIG.

ラベリング処理の後、矩形化処理を実施する(ステップS403)。
ステップS403における矩形化処理は、同じラベルが付与された画素群の外接四角形を求める処理である。図14は、図13のラベリングした「あ」という文字を矩形化処理した結果の例である。
After the labeling process, the rectangularization process is performed (step S403).
The rectangularization process in step S403 is a process for obtaining a circumscribed quadrangle of pixel groups to which the same label is attached. FIG. 14 is an example of the result of rectangularizing the labeled character “a” in FIG. 13.

その後、ステップS404において、各矩形の重心を求め、各矩形の重心位置が所定閾値以内であれば、その矩形群を結合する結合処理を行う。
そして、ステップS405において、図15に示すように、ラベリングした文字320を行として抽出する。
Then, in step S404, the center of gravity of each rectangle is obtained, and if the center of gravity of each rectangle is within a predetermined threshold value, a combining process of combining the rectangle groups is performed.
Then, in step S405, the labeled character 320 is extracted as a line, as shown in FIG.

そして、抽出した行数を「i」に設定する(ステップS406)。
そして、その「i」の数、つまり、抽出行数分、次の処理を実施する。
Then, the number of extracted lines is set to "i" (step S406).
Then, the following processing is performed for the number of “i”, that is, the number of extracted rows.

まず、ステップS407において、抽出された行が縦書きであるか否かが判断される。縦書きか横書きかの判定方法としては、図15に示すように、行抽出された外接矩形の座標から判定する。外接矩形の座標は、左上を(X1,Y1)として、右下を(X2,Y2)とする。 First, in step S407, it is determined whether the extracted line is vertical writing. As a method of determining whether to write vertically or horizontally, as shown in FIG. 15, it is determined from the coordinates of the circumscribed rectangle in which the line is extracted. Regarding the coordinates of the circumscribed rectangle, the upper left is (X1, Y1) and the lower right is (X2, Y2).

そして、
|X1−X2|>|Y1−Y2|ならば横書き、
|X1−X2|<|Y1−Y2|ならば縦書き、
として判定可能である。
And
If |X1-X2|>|Y1-Y2|
If |X1-X2|<|Y1-Y2|
Can be determined as

ステップS407において、抽出された行が縦書きであると判断された場合は、ステップS408に進み、入力されたオブジェクトはスケーリング倍率:(閾値3/|X1−X2|)でスケーリングされる。 If it is determined in step S407 that the extracted line is vertical writing, the process proceeds to step S408, and the input object is scaled by the scaling factor: (threshold value 3/|X1-X2|).

例えば、ディスプレイが60型FULL−HDの場合、画素ピッチは0.692mmであるため、実際の文字の大きさ(幅)を50mm程度で表示させたい場合は、約73dot必要であるため、閾値3を73と設定する。 For example, when the display is a 60-type FULL-HD, the pixel pitch is 0.692 mm. Therefore, when it is desired to display the actual character size (width) at about 50 mm, about 73 dots are required. Is set to 73.

そして、ステップS409に進み、抽出された行の幅(|Y1−Y2|)が閾値4より大きいか否かが判断される。 Then, the process proceeds to step S409, and it is determined whether the width (|Y1-Y2|) of the extracted row is larger than the threshold value 4.

例えば、ディスプレイが60型の場合は、垂直方向の画素数は1080dotであり、例えば、表示エリアをこの80%とした場合は、864dot(閾値4)となる。 For example, when the display is a 60-inch display, the number of pixels in the vertical direction is 1080 dots. For example, when the display area is 80%, the pixel count is 864 dots (threshold value 4).

ステップS409において、抽出された行の幅(|Y1−Y2|)が閾値4より大きいと判断された場合は、スケーリング後の抽出された行が1行に収まらないことを意味しているため、ステップS410に進み、列を分割する。そして、この判定を繰り返す。 If it is determined in step S409 that the width (|Y1-Y2|) of the extracted row is larger than the threshold value 4, it means that the extracted row after scaling does not fit in one row. In step S410, the column is divided. Then, this determination is repeated.

一方、ステップS409において、抽出された行の幅(|Y1−Y2|)が閾値4より大きくないと判断された場合、すなわち、(|Y1−Y2|)≦閾値4となった時点で、ステップS411に進み、「i」から1を減算して、ステップS412に進む。 On the other hand, when it is determined in step S409 that the width (|Y1-Y2|) of the extracted row is not larger than the threshold value 4, that is, when (|Y1-Y2|)≦threshold value 4, The process proceeds to step S411, 1 is subtracted from "i", and the process proceeds to step S412.

ステップS412では、「i」が0であるか否かが判断される。ステップS412において、「i」が0であると判断された場合は、スケーリング処理を終了する。一方、ステップS412において、「i」が0ではないと判断された場合は、ステップS407に戻り、縦書き判定が繰り返される。 In step S412, it is determined whether "i" is 0. If it is determined in step S412 that "i" is 0, the scaling process ends. On the other hand, if it is determined in step S412 that "i" is not 0, the process returns to step S407 and the vertical writing determination is repeated.

ステップS407において、抽出された行が縦書きではない、横書きであると判断された場合は、ステップS413に進み、入力されたオブジェクトはスケーリング倍率:(閾値1/|Y1−Y2|)でスケーリングされる。
そして、ステップS414に進み、抽出された行の幅(|X1−X2|)が閾値2より大きいか否かが判断される。
If it is determined in step S407 that the extracted line is not vertical writing or horizontal writing, the process proceeds to step S413, and the input object is scaled by the scaling ratio: (threshold 1/|Y1-Y2|). It
Then, in step S414, it is determined whether or not the width (|X1-X2|) of the extracted row is larger than the threshold value 2.

ステップS414において設定される閾値2は、縦書きの際の閾値4の設定方法と同様である。 The threshold value 2 set in step S414 is the same as the setting method of the threshold value 4 in vertical writing.

ステップS414において、抽出された行の幅(|X1−X2|)が閾値2より大きいと判断された場合は、スケーリング後の抽出された行が1行に収まらないことを意味しているため、ステップS415に進み、列を分割する。そして、この判定を繰り返す。 When it is determined in step S414 that the width (|X1-X2|) of the extracted row is larger than the threshold value 2, it means that the extracted row after scaling does not fit in one row. In step S415, the column is divided. Then, this determination is repeated.

一方、ステップS414において、抽出された行の幅(|X1−X2|)が閾値2より大きくないと判断された場合、すなわち、(|X1−X2|)≦閾値2となった時点で、ステップS411に進み、「i」から1を減算して、ステップS412に進む。 On the other hand, when it is determined in step S414 that the width (|X1-X2|) of the extracted row is not larger than the threshold value 2, that is, when (|X1-X2|)≦threshold value 2, The process proceeds to step S411, 1 is subtracted from "i", and the process proceeds to step S412.

ステップS412では、「i」が0であるか否かが判断される。ステップS412において、「i」が0であると判断された場合は、スケーリング処理を終了する。一方、ステップS412において、「i」が0ではないと判断された場合は、ステップS407に戻り、縦書き判定が繰り返される。 In step S412, it is determined whether "i" is 0. If it is determined in step S412 that "i" is 0, the scaling process ends. On the other hand, if it is determined in step S412 that "i" is not 0, the process returns to step S407 and the vertical writing determination is repeated.

以上のように、第3実施形態によれば、表示方向制御部7の機能として、スケーリング機能を備えることで、図10(a),(b)に示すように、手書き入力された文字の大きさ(大きい、小さい)に関わらず、あらかじめ設定された大きさに手書き入力文字をスケーリングすることが可能となる。 As described above, according to the third embodiment, by providing the scaling function as the function of the display direction control unit 7, as shown in FIGS. 10A and 10B, the size of the handwritten character is input. Regardless of the size (large or small), it is possible to scale the handwritten input character to a preset size.

(第4実施形態)
次に、本発明の第4実施形態について図面を参照して説明する。
なお、説明の便宜上、第1実施形態と同一の機能を有する構成には、同一の番号を付して説明を省略する。
図16は本発明の第4実施形態に係る入力表示装置の表示画面を用いてブレインストーミングを行う一例を示す説明図である。
(Fourth Embodiment)
Next, a fourth embodiment of the present invention will be described with reference to the drawings.
Note that, for convenience of description, configurations having the same functions as those in the first embodiment are denoted by the same reference numerals and description thereof will be omitted.
FIG. 16 is an explanatory diagram showing an example of performing brainstorming using the display screen of the input display device according to the fourth embodiment of the present invention.

第4実施形態は、上述した実施形態のように入力表示装置1の表示画面10に入力されたオブジェクトを箇条書きに表示すること以外の例として、ブレインストーミングに用いることを可能にしたものである。 The fourth embodiment is capable of being used for brainstorming as an example other than displaying the objects input on the display screen 10 of the input display device 1 in a bulleted form as in the above-described embodiments. ..

第4実施形態では、例えば、図16に示すように、マスタ位置(M)に特定されたユーザAが出した「展示会の成功」というテーマ401に対して、ユーザB〜Dがそれぞれのアイデアを手書き入力した結果を表示している。 In the fourth embodiment, for example, as shown in FIG. 16, with respect to the theme 401 of “exhibition success” issued by the user A specified at the master position (M), the users B to D have their own ideas. The result of handwriting input is displayed.

ユーザB〜Dによって入力されたオブジェクト402b,403c,404d等は、それぞれユーザに対して正方向の向きに対応して表示される。 The objects 402b, 403c, 404d, etc. input by the users B to D are displayed corresponding to the user in the forward direction.

形状/手つき判定部4によるお手つき形状の判定により、入力されたオブジェクトとユーザを一致させることができるため、例えば、ユーザに応じて各自が入力したオブジェクトを色づけして、表示=グルーピングすることが可能である。 Since the input object and the user can be matched by the shape/touch determination unit 4 determining the touch shape, for example, it is possible to display=group the objects input by each user in accordance with the user's color. Is.

なお、ユーザをセンサ等で判定し、ユーザと文字入力を関連付けてもよい。 Note that the user may be determined by a sensor or the like, and the user may be associated with the character input.

表示画面10においてブレインストーミングを行った結果を表示した後の処理として、ユーザ指示により、各オブジェクトを移動したり、あるいは、マスタであるユーザAの位置が正方向となるよう回転するようにしたりすることも可能である。 As the processing after displaying the result of the brainstorming on the display screen 10, each object is moved or the position of the master user A is rotated so as to be in the normal direction according to a user instruction. It is also possible.

以上のように、本発明は、上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、すなわち、本発明の要旨を逸脱しない範囲内において適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 As described above, the present invention is not limited to the above-described embodiment, and various modifications can be made within the scope of the claims. It is obvious to those skilled in the art that various changes or modifications can be conceived within the scope of the claims, that is, appropriate changes are made without departing from the scope of the present invention. Embodiments obtained by combining technical means are also included in the technical scope of the present invention.

また、発明の一態様としては、情報を表示する表示画面と、前記表示画面に対するユーザの入力を検出するセンサを備え、ペンを用いた入力操作が可能なテーブル型入力表示装置であって、
前記センサは、複数の入力を検出可能な機能を備え、
前記センサにより検出した複数の入力情報に基づき、入力領域の大きさと入力方向を比較する入力情報比較部と、
前記入力情報比較部による比較結果に基づき、前記表示画面に対するユーザの位置を判断するユーザ位置判断部と、
前記ユーザ位置判断部による判断結果に基づき、前記表示画面に表示される画像情報の表示方向を切り替える表示方向切換部と、を備え、
前記表示方向切換部は、複数のユーザにより前記表示画面を共有する場合は、予め特定されたユーザの位置に対して正方向となる向きで入力された描画情報を前記表示画面に表示する機能と、追加入力された描画情報を予め特定されたユーザの位置に対して正方向となる向きで追加した状態で表示する機能と、さらに、1または複数のユーザのうちの1ユーザによる描画情報を入力完了後、前記ユーザにより入力された描画情報を移動する指示を検出した場合、前記ユーザの指示に基づき、前記入力された描画情報を移動する機能と、前記ユーザによる描画情報の移動完了後、前記入力された描画情報が表示される方向と、予め特定されたユーザの位置に対して正方向となる向きとが異なる場合は、前記入力された描画情報が予め特定されたユーザの位置に対して正方向になるように表示する機能と、を備えることを特徴とするテーブル型入力表示装置であってもよい。
Further, as one aspect of the invention, there is provided a table-type input display device including a display screen for displaying information and a sensor for detecting a user's input on the display screen, which is capable of input operation using a pen,
The sensor has a function capable of detecting a plurality of inputs,
Based on a plurality of input information detected by the sensor, an input information comparison unit that compares the size of the input area and the input direction,
A user position determination unit that determines the position of the user with respect to the display screen based on the comparison result by the input information comparison unit;
A display direction switching unit that switches the display direction of the image information displayed on the display screen based on the determination result by the user position determination unit,
In the case where the display screen is shared by a plurality of users, the display direction switching unit has a function of displaying, on the display screen, drawing information input in a direction that is a positive direction with respect to a position of a user specified in advance. , A function of displaying the additionally input drawing information in a state in which it is added in a positive direction with respect to the position of the user specified in advance, and further inputting drawing information by one of one or more users After the completion, when the instruction to move the drawing information input by the user is detected, the function of moving the input drawing information based on the instruction of the user, and the completion of the movement of the drawing information by the user, If the direction in which the input drawing information is displayed is different from the direction that is the positive direction with respect to the position of the user specified in advance, the input drawing information is changed with respect to the position of the user specified in advance. It may be a table type input display device having a function of displaying in a positive direction.

このとき、前記表示画面には、入力操作に関するメニュー画像が表示され、前記表示方向切換部は、ユーザが入力中である場合に、その入力された描画情報と前記メニュー画像の表示方向を、入力中のユーザに対して正方向になるように切換える機能と、前記ユーザによる描画情報の入力完了後、前記入力された描画情報が表示される方向と、予め特定されたユーザの位置に対して正方向となる向きとが異なる場合には、前記入力された描画情報が予め特定されたユーザの位置に対して正方向となるように表示する機能と、を備えることを特徴としてもよい。 At this time, a menu image related to the input operation is displayed on the display screen, and the display direction switching unit inputs the input drawing information and the display direction of the menu image when the user is inputting. The function of switching to the normal direction for the inside user, the direction in which the input drawing information is displayed after the input of the drawing information by the user is completed, and the normal position with respect to the position of the user specified in advance. When the orientation is different, the function of displaying the input drawing information so as to be in a positive direction with respect to the position of the user specified in advance may be provided.

このとき、前記センサにて検出されたユーザにより入力された描写情報に応じて描画表示を行う描画部を備え、前記描画部は、ユーザにより入力された描画情報を記憶する記憶部を備え、前記表示方向切換部による表示方向を切換える判断に用いた複数の入力情報を描画の入力としては使用しないことを特徴としてもよい。 At this time, a drawing unit that performs drawing display according to the drawing information input by the user detected by the sensor is provided, and the drawing unit includes a storage unit that stores the drawing information input by the user, It may be characterized in that a plurality of pieces of input information used by the display direction switching unit to determine the display direction is not used as the drawing input.

このとき、前記センサにて検出されたユーザにより入力された描写情報に応じて描画表示を行う描画部を備え、前記描画部は、ユーザにより入力された描画情報を記憶する記憶部を備え、ユーザによる描画情報を入力完了後、その入力された描画情報と表示方向を関連付けて前記記憶部に保存し、前記描画情報を表示する表示制御に使用することを特徴としてもよい。 At this time, the drawing unit includes a drawing unit that performs drawing display according to the drawing information input by the user detected by the sensor, and the drawing unit includes a storage unit that stores the drawing information input by the user. After inputting the drawing information by the above, the input drawing information and the display direction are associated and stored in the storage unit, and may be used for display control of displaying the drawing information.

1 入力表示装置
2 タッチパネル(静電容量センサ)
3 センサ駆動部/容量値受信部
4 形状/手つき判定部(入力情報比較部)
5 タッチ認識処理部
6 ユーザ位置判断部
7 表示方向制御部(表示方向切換部)
8 描画情報制御部
9 表示駆動部
10 表示画面
11 表示部
12 制御部
71 特定方向表示機能
72 特定方向追加表示機能
73 ユーザ方向表示機能
74 ユーザ方向表示切換機能
75 移動表示機能
76 移動表示切換機能
101 表示内容
102,102b,102c,300,402b,403c,404d オブジェクト
100 ペン
1 Input display device 2 Touch panel (capacitance sensor)
3 Sensor drive unit/Capacity value receiving unit 4 Shape/touch determination unit (input information comparison unit)
5 Touch recognition processing unit 6 User position determination unit 7 Display direction control unit (display direction switching unit)
8 Drawing Information Control Section 9 Display Driving Section 10 Display Screen 11 Display Section 12 Control Section 71 Specific Direction Display Function 72 Specific Direction Additional Display Function 73 User Direction Display Function 74 User Direction Display Switching Function 75 Moving Display Function 76 Moving Display Switching Function 101 Display contents 102, 102b, 102c, 300, 402b, 403c, 404d Object 100 Pen

Claims (7)

オブジェクトを表示する表示画面を備える表示装置において、
前記表示画面が予め特定された第1ユーザの位置に対して表示されるように制御する特定表示制御手段と、
前記第1ユーザの位置に対して表示された第1のオブジェクトの表示情報を記憶する記憶手段と、
前記第1ユーザと前記表示画面を共有する異なる位置の第2ユーザによるタッチ入力を検出する入力検出手段と、
前記第2ユーザによりタッチ入力された第2のオブジェクトを、前記第2ユーザの位置に対して表示させるユーザ表示制御手段と、
前記第2のオブジェクトに対する移動操作が検出された際、前記第2のオブジェクトを、前記第1ユーザの位置に対して表示されている第1のオブジェクトの表示情報に基づき調整し、前記第1のオブジェクトに追加した状態で表示させる移動表示制御手段と、
を備えることを特徴とする表示装置。
In a display device having a display screen for displaying an object,
Specific display control means for controlling the display screen to be displayed at the position of the first user specified in advance;
Storage means for storing display information of the first object displayed with respect to the position of the first user ;
Input detection means for detecting a touch input by a second user at a different position sharing the display screen with the first user ;
User display control means for displaying the second object touch-input by the second user with respect to the position of the second user,
When moving operation to the second object is detected, the second object, based on said display information of the first object displayed adjusted relative to the first user position, the first Moving display control means to be displayed in the state of being added to the object,
A display device comprising:
前記記憶手段は、前記表示情報として、前記第1のオブジェクトと前記第2のオブジェクトの表示方向を記憶し、
前記移動表示制御手段は、前記第2のオブジェクトの表示方向が前記第1のオブジェクトの表示方向と異なる場合、前記第2のオブジェクトを、前記第1のオブジェクトの表示方向と同じ向きに調整し、前記第1のオブジェクトに追加した状態で表示することを特徴とする請求項1に記載の表示装置。
The storage means stores, as the display information, display directions of the first object and the second object ,
When the display direction of the second object is different from the display direction of the first object, the movement display control means adjusts the second object to the same direction as the display direction of the first object, The display device according to claim 1, wherein the display is performed in a state of being added to the first object.
前記記憶手段は、前記表示情報として、前記第1のオブジェクトと前記第2のオブジェクトの表示サイズを更に記憶し、
前記移動表示制御手段は、前記第2のオブジェクトの表示サイズが前記第1のオブジェクトの表示サイズと異なる場合、前記第2のオブジェクトを、前記第1のオブジェクトの表示サイズと同じサイズに調整し、前記第1のオブジェクト追加した状態で表示することを特徴とする請求項1または2に記載の表示装置。
The storage means further stores, as the display information, display sizes of the first object and the second object ,
When the display size of the second object is different from the display size of the first object, the movement display control means adjusts the second object to the same size as the display size of the first object, The display device according to claim 1 , wherein the display is performed in a state where the first object is added .
前記入力検出手段により前記第1のオブジェクトと前記第2のオブジェクトの入力が検出された場合、検出された複数の入力情報に基づき、入力領域の大きさと入力方向を比較し、前記表示画面に対する前記第1のオブジェクトと前記第2のオブジェクトを入力したユーザの位置を判断するユーザ位置判断手段を、更に備えることを特徴とする請求項1からの何れか一項に記載の表示装置。 When the input of the first object and the second object is detected by the input detection means, the size of the input area and the input direction are compared based on the plurality of detected input information, and the input screen is displayed on the display screen. the display device according to user position determining means, from claim 1, further comprising in any one of 3 to determine the position of the user input the first object and the second object. 前記複数の入力情報に対して、ペン先による入力か手つきによる入力かを判断する第1の入力判断手段と、
前記ペン先による入力および前記手つきによる入力があり、前記ペン先による入力および前記手つきによる入力が所定範囲内の領域に存在するか否かを判断し、前記ペン先による入力および前記手つきによる入力が所定範囲内の領域に存在すると判断した場合、同一のユーザによる入力であると判断する第2の入力判断手段と、
を更に備えることを特徴とする請求項に記載の表示装置。
A first input determination means for determining whether the input is made by a pen tip or an input with respect to the plurality of input information;
There is an input by the pen tip and an input by the touch, it is determined whether the input by the pen tip and the input by the touch exist in an area within a predetermined range, and the input by the pen tip and the input by the touch are performed. Second input determining means for determining that the input is made by the same user when it is determined that the input is within the predetermined range.
The display device according to claim 4 , further comprising:
前記第1のオブジェクトと前記第2のオブジェクトを異なる表示態様で表示する描画情報制御手段を、更に備えることを特徴とする請求項1から5の何れか一項に記載の入力表示装置。The input display device according to any one of claims 1 to 5, further comprising drawing information control means for displaying the first object and the second object in different display modes. オブジェクトを表示する表示画面を備える表示装置に搭載されるコンピュータに、
前記表示画面が予め特定された第1ユーザの位置に対して表示されるように制御する特定表示制御ステップと、
前記第1ユーザの位置に対して表示された第1のオブジェクトの表示情報を記憶する記憶ステップと、
前記第1ユーザと前記表示画面を共有する異なる位置の第2ユーザによるタッチ入力を検出する入力検出ステップと、
前記第2ユーザによりタッチ入力された第2のオブジェクトを、前記第2ユーザの位置に対して表示させるユーザ表示制御ステップと、
前記第2のオブジェクトに対する移動操作が検出された際、前記第2のオブジェクトを、前記表示画面の第1ユーザの位置に対して表示されている第1のオブジェクトの表示情報に基づき調整し、前記第1のオブジェクトに追加した状態で表示させる移動表示制御ステップと、
を実現させることを特徴としたプログラム。
In a computer mounted on a display device having a display screen for displaying an object,
A specific display control step of controlling the display screen to be displayed at the position of the first user specified in advance;
A storage step of storing display information of the first object displayed with respect to the position of the first user ;
An input detection step of detecting a touch input by a second user at a different position sharing the display screen with the first user ;
A user display control step of displaying a second object touch-input by the second user with respect to the position of the second user;
When a moving operation for the second object is detected, the second object is adjusted based on display information of the first object displayed with respect to the position of the first user on the display screen, A moving display control step of displaying the added state to the first object,
A program characterized by realizing.
JP2019029245A 2019-02-21 2019-02-21 Display device and program Active JP6738450B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019029245A JP6738450B2 (en) 2019-02-21 2019-02-21 Display device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019029245A JP6738450B2 (en) 2019-02-21 2019-02-21 Display device and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017161281A Division JP6487506B2 (en) 2017-08-24 2017-08-24 Input display device

Publications (2)

Publication Number Publication Date
JP2019117639A JP2019117639A (en) 2019-07-18
JP6738450B2 true JP6738450B2 (en) 2020-08-12

Family

ID=67305378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019029245A Active JP6738450B2 (en) 2019-02-21 2019-02-21 Display device and program

Country Status (1)

Country Link
JP (1) JP6738450B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3758866B2 (en) * 1998-12-01 2006-03-22 富士ゼロックス株式会社 Coordinate input device
JP2011113128A (en) * 2009-11-24 2011-06-09 Sharp Corp Pen tablet input device and input method using the same
JP5595312B2 (en) * 2011-03-15 2014-09-24 株式会社Nttドコモ Display device, display device control method, and program
JP5661726B2 (en) * 2011-12-15 2015-01-28 株式会社東芝 Information processing apparatus and display program

Also Published As

Publication number Publication date
JP2019117639A (en) 2019-07-18

Similar Documents

Publication Publication Date Title
US9519371B2 (en) Display device and control method therefor
JP4087879B2 (en) Touch panel character recognition method and character input method
EP2461237B1 (en) Portable display device, control method for the same, program for the same, and storage medium for the same
JPH0969037A (en) Data processor
JPH0876926A (en) Picture display device
JPH11154074A (en) Scroll controller
JP2015138360A (en) System, control program, and control method for object manipulation
JP2014016519A (en) Display device
JPH0876927A (en) Information processor
JP2010218286A (en) Information processor, program, and display method
JP6487506B2 (en) Input display device
JP6199639B2 (en) Table type input display device
JP6738450B2 (en) Display device and program
JP7247554B2 (en) Display device and display method
JP2010002990A (en) Character input device and program
JP6622837B2 (en) Input display device and input display method
JPS63217393A (en) Pointer display
JPH11203038A (en) Portable terminal
JP6797270B2 (en) Input display device and control method
JPH09237175A (en) Scroll controller
JP2019160090A (en) Portable terminal device and display control method for portable terminal device
JP2019160091A (en) Portable terminal device and display control method for portable terminal device
JPH0380296A (en) Screen enlarging method for image display device
JP2003296029A (en) Input device
JPH06202800A (en) Information processor of pen input system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190221

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190821

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200717

R150 Certificate of patent or registration of utility model

Ref document number: 6738450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150