JP6738450B2 - Display device and program - Google Patents
Display device and program Download PDFInfo
- Publication number
- JP6738450B2 JP6738450B2 JP2019029245A JP2019029245A JP6738450B2 JP 6738450 B2 JP6738450 B2 JP 6738450B2 JP 2019029245 A JP2019029245 A JP 2019029245A JP 2019029245 A JP2019029245 A JP 2019029245A JP 6738450 B2 JP6738450 B2 JP 6738450B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- display
- user
- display screen
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、入力表示装置に係り、特に、タッチパネルなどの入力装置を備えたペンによる手書き入力が可能で、画面を水平或いは水平に近い状態で使用する入力表示装置に関する。 The present invention relates to an input display device, and more particularly to an input display device capable of handwriting input with a pen equipped with an input device such as a touch panel and used in a horizontal or nearly horizontal state of the screen.
従来、静電容量タッチパネル等のタッチ操作による入力が可能な入力装置を備えたディスプレイ装置が知られている。 2. Description of the Related Art Conventionally, there is known a display device including an input device such as an electrostatic capacity touch panel that enables input by touch operation.
従来技術として、例えば、テーブル型表示装置において、ユーザの位置を検出するために、テーブルに赤外線センサを設け、赤外線センサにてユーザを検出して、検出したユーザに対応して画像を配置するようにしたものが提案されている(特許文献1を参照)。 As a conventional technique, for example, in a table type display device, an infrared sensor is provided on a table to detect the position of the user, the infrared sensor detects the user, and an image is arranged corresponding to the detected user. Has been proposed (see Patent Document 1).
また、その他の技術として、矩形状の情報端末装置において、4角にセンサを設けて、このセンサをペンにて接触することにより画像の表示方向を決定し、更に、電源投入後に分割された画面の何れの位置に入力を行うかにより画像の表示方向を決定するようにしたものが提案されている(特許文献2を参照)。 In addition, as another technique, in a rectangular information terminal device, sensors are provided at four corners, a sensor is brought into contact with a pen to determine an image display direction, and a screen divided after power is turned on. There has been proposed a method in which the display direction of an image is determined depending on which position in which the image is input (see Patent Document 2).
また、情報処理装置において、画面が設けられたテーブルの周囲に複数のセンサを配置してユーザの位置を検出して、検出したユーザ位置とペン入力位置を結ぶ方向に画像を向けて表示するようにしたものが提案されている(特許文献3を参照)。 Further, in the information processing device, a plurality of sensors are arranged around a table provided with a screen to detect the position of the user, and the image is displayed in a direction connecting the detected user position and the pen input position. Has been proposed (see Patent Document 3).
しかしながら、特許文献1にて提案されている技術では、テーブルの周囲に複数人のユーザがいる場合には何れのユーザが入力を行うのか判断することが出来ないので、複数人のユーザの場合には対応することが出来ないという問題がある。
However, in the technique proposed in
また、特許文献2にて提案されている技術では、入力方向が変わる毎に情報端末装置上のセンサをペンにて接触される必要がある。また、分割された画面の何れの位置への入力であるかで判断する方法は、電源投入後に方向が決定されるため、途中での変更が難しく、対面側への記入を行うと画面が回転表示されてしまうため、正確にユーザの位置を検出出来ない状況が発生する。
Further, in the technique proposed in
また、特許文献3にて提案されている技術では、複数人のユーザがいる場合には、どのユーザのペンにて入力が行われたかを特定する必要があり、ユーザと使用しているペンとを関連付ける必要があった。
Further, in the technique proposed in
本発明は、上記従来の課題に鑑みてなされたものであり、煩雑な操作を行なうことなく情報入力を行なうだけで、ユーザに適した方向で画面の表示を行うことができ、表示内容の視認性及びその表示内容の再利用性の向上を図ることができる入力表示装置を提供することを目的とする。 The present invention has been made in view of the above-mentioned conventional problems, and it is possible to display a screen in a direction suitable for a user only by inputting information without performing a complicated operation, and visually confirming the display content. It is an object of the present invention to provide an input display device capable of improving the user-friendliness and the reusability of its display content.
上述した課題を解決するために、本発明の表示装置は、オブジェクトを表示する表示画面と、前記表示画面に表示された複数のオブジェクトの表示情報を記憶する記憶手段と、前記表示画面に対するユーザのタッチ入力を検出する入力検出手段と、前記複数のオブジェクトのうち第1のオブジェクトに対する移動操作を検出した際、前記第1のオブジェクトを、前記表示画面の予め特定されたユーザ位置に対して表示されている第2のオブジェクトの表示情報に基づき調整し、前記第2のオブジェクトと共に表示する表示制御手段と、を備えることを特徴とする。 In order to solve the above-mentioned problems, a display device of the present invention is a display screen for displaying an object, a storage unit for storing display information of a plurality of objects displayed on the display screen, and a user for the display screen. Input detection means for detecting a touch input and, when detecting a movement operation for a first object of the plurality of objects, display the first object at a predetermined user position on the display screen. And a display control unit that adjusts based on the display information of the second object and displays the second object together with the second object.
また、本発明における前記記憶手段は、前記表示情報として、前記複数のオブジェクトの表示方向を記憶し、前記表示制御手段は、前記第1のオブジェクトの表示方向が前記第2のオブジェクトの表示方向と異なる場合、前記第1のオブジェクトを、前記第2のオブジェクトの表示方向と同じ向きに調整し、前記第2のオブジェクトと共に表示することを特徴とする。 Further, the storage unit in the present invention stores the display directions of the plurality of objects as the display information, and the display control unit sets the display direction of the first object to be the display direction of the second object. If different, the first object is adjusted in the same direction as the display direction of the second object, and is displayed together with the second object.
また、本発明における前記記憶手段は、前記表示情報として、前記複数のオブジェクトの表示サイズを更に記憶し、前記表示制御手段は、前記第1のオブジェクトの表示サイズが前記第2のオブジェクトの表示サイズと異なる場合、前記第1のオブジェクトを、前記第2のオブジェクトの表示サイズと同じ向きに調整し、前記第2のオブジェクトと共に表示することを特徴とする。 Further, the storage means in the present invention further stores the display sizes of the plurality of objects as the display information, and the display control means determines that the display size of the first object is the display size of the second object. When different from the above, the first object is adjusted in the same orientation as the display size of the second object and displayed together with the second object.
また、本発明において、前記表示制御手段は、前記第1のオブジェクトを、前記特定されたユーザ位置に対して正方向で先に表示されている第2のオブジェクトの表示サイズと同じサイズで、前記特定されたユーザ位置に対して正方向となる向きで表示することを特徴とする。 Further, in the present invention, the display control means sets the first object to the same size as the display size of the second object displayed first in the forward direction with respect to the specified user position, It is characterized in that it is displayed in a direction that is a positive direction with respect to the specified user position.
また、本発明において、前記表示制御手段は、前記第1のオブジェクトを前記第2のオブジェクトに追加した状態で表示することを特徴とする。 Further, in the invention, it is characterized in that the display control means displays the first object in a state of being added to the second object.
また、本発明において、前記入力検出手段により前記第1のオブジェクトおよび前記第2のオブジェクトの入力が検出された場合、検出された複数の入力情報に基づき、入力領域の大きさと入力方向を比較し、前記表示画面に対する前記第1のオブジェクトおよび前記第2のオブジェクトを入力したユーザの位置を判断するユーザ位置判断手段を更に備えることを特徴とする。 Further, in the present invention, when the input of the first object and the second object is detected by the input detection means, the size of the input area and the input direction are compared based on the plurality of detected input information. Further, it is characterized by further comprising user position determining means for determining the position of the user who has input the first object and the second object with respect to the display screen.
また、本発明において、前記複数の入力情報に対して、ペン先による入力か手つきによる入力かを判断する第1の入力判断手段と、前記ペン先による入力および前記手つきによる入力があり、前記ペン先による入力および前記手つきによる入力が所定範囲内の領域に存在するか否かを判断し、前記ペン先による入力および前記手つきによる入力が所定範囲内の領域に存在すると判断した場合、同一のユーザによる入力であると判断する第2の入力判断手段と、を更に備えることを特徴とする。 Further, in the present invention, there are a first input determination means for determining whether the input information is input by a pen tip or an input with a hand, and the input with the pen tip and the input with a hand with respect to the plurality of input information. When it is determined whether the input by the tip and the input by the hand are in the area within a predetermined range, and it is determined that the input by the pen tip and the input by the hand are in the area within the predetermined range, the same user And a second input determining means for determining that the input is input by.
また、本発明のプログラムは、オブジェクトを表示する表示画面を備える表示装置に搭載されるコンピュータに、前記表示画面に表示された複数のオブジェクトの表示情報を記憶する記憶ステップと、前記表示画面に対するユーザのタッチ入力を検出する入力検出ステップと、前記複数のオブジェクトのうち第1のオブジェクトに対する移動操作を検出した際、前記第1のオブジェクトを、前記表示画面の予め特定されたユーザ位置に対して表示されている第2のオブジェクトの表示情報に基づき調整し、前記第2のオブジェクトと共に表示する表示制御ステップと、を実現させることを特徴とする。 Further, the program of the present invention includes a storage step of storing display information of a plurality of objects displayed on the display screen in a computer mounted on a display device having a display screen for displaying the object, and a user for the display screen. An input detecting step of detecting a touch input of the first object, and displaying the first object to a pre-specified user position on the display screen when detecting a moving operation for the first object among the plurality of objects. A display control step of adjusting based on the display information of the second object being displayed and displaying the second object together with the second object.
本発明の表示装置によれば、オブジェクトを表示する表示画面と、前記表示画面に表示された複数のオブジェクトの表示情報を記憶する記憶手段と、前記表示画面に対するユーザのタッチ入力を検出する入力検出手段と、前記複数のオブジェクトのうち第1のオブジェクトに対する移動操作を検出した際、前記第1のオブジェクトを、前記表示画面の予め特定されたユーザ位置に対して表示されている第2のオブジェクトの表示情報に基づき調整し、前記第2のオブジェクトと共に表示する表示制御手段と、を備えることにより、ユーザに適した方向で画面の表示を行うことができ、表示内容の視認性及びその表示内容の再利用性の向上を図ることができる表示装置を提供することができる。 According to the display device of the present invention, a display screen for displaying an object, a storage unit for storing display information of a plurality of objects displayed on the display screen, and an input detection for detecting a user's touch input on the display screen. And a second object displayed on the display screen at a pre-specified user position when a movement operation for the first object among the plurality of objects is detected. By providing a display control unit that adjusts based on display information and displays the second object together with the second object, the screen can be displayed in a direction suitable for the user, and the visibility of the display content and the display content can be improved. A display device capable of improving reusability can be provided.
(第1実施形態)
以下、本発明の第1実施形態について図面を参照して説明する。
図1は発明を実施する形態の一例であって、(a)は本発明の第1実施形態に係る入力表示装置に対して書き込みを行うユーザの位置と入力表示画面に表示される画像の表示方向との関係の一例を示す説明図、(b)は前記入力表示装置の表示画面に対してユーザが書き込みを行う状態を示す説明図、(c)は前記表示画面に入力されたオブジェクトを表示制御した状態を示す説明図である。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is an example of a mode for carrying out the invention, and (a) is a position of a user who writes on the input display device according to the first embodiment of the present invention and a display of an image displayed on the input display screen. Explanatory diagram showing an example of the relationship with the direction, (b) is an explanatory diagram showing a state in which the user is writing on the display screen of the input display device, (c) shows the input object on the display screen It is explanatory drawing which shows the controlled state.
第1実施形態に係る入力表示装置1は、図1(a)〜(c)に示すように、情報を表示する表示画面10と、表示画面10に対するユーザの入力を検出するタッチパネル(センサ)2を備え、ペン100を用いた入力操作が可能な入力表示装置1において、本発明に係る特徴的な入力表示装置の構成を備えることを特徴とするものである。
As shown in FIGS. 1A to 1C, the
第1実施形態は、入力表示装置1を会議テーブルとして機能させて、この入力表示装置1の周りの4方向に、4人のユーザA〜Dが位置している例である。
The first embodiment is an example in which the
ここでは、会議の主催者であるユーザAの位置は、マスタ位置(M)として特定するように設定されている。一方、その他の会議出席者であるユーザB〜Dの位置は、スレーブ位置(S)として設定されている。すなわち、入力表示装置1では、表示画面10がマスタ位置(M)に対して正方向となるように表示制御が行われる。
Here, the position of the user A who is the organizer of the conference is set to be specified as the master position (M). On the other hand, the positions of the users B to D who are the other attendees of the conference are set as slave positions (S). That is, in the
図1(a)は、いずれのユーザA〜Dも入力を行っていない状態を示している。
表示画面10の表示内容101は、マスタであるユーザAに対して正方向を向いて表示されている。
FIG. 1A shows a state in which none of the users A to D is performing input.
The
図1(b)では、ユーザCが入力を開始した状態を示している。
例えば、ユーザCが入力している間は、表示画面10における入力領域で入力されたオブジェクト(描画情報)102や入力メニュー(メニュー画像)103といった表示内容は、ユーザCに対して正方向を向いて表示される。
FIG. 1B shows a state in which the user C has started input.
For example, while the user C is inputting, the display contents such as the object (drawing information) 102 and the input menu (menu image) 103 input in the input area of the
ユーザCが入力を完了した際、ユーザCが入力したオブジェクト(描画情報)と、その表示方向(入力情報)を保存する。そして、移動指示を検出すると、指先が離れるまで入力したオブジェクトをユーザ指示に基づき移動する。移動完了後、マスタ設定方向と入力したオブジェクト方向が異なる場合には、入力したオブジェクトがマスタ位置に対して正方向の向きで表示するように制御される。 When the user C completes the input, the object (drawing information) input by the user C and its display direction (input information) are saved. When the movement instruction is detected, the input object is moved based on the user instruction until the fingertip is released. After the movement is completed, if the master setting direction and the input object direction are different, the input object is controlled to be displayed in the forward direction with respect to the master position.
図1(c)は、ユーザCによる移動指示があった後、入力したオブジェクトをマスタ位置に対して正方向の向きにするために、180度回転して表示するように制御した状態を示している。 FIG. 1C shows a state in which after the movement instruction from the user C, the input object is controlled to be displayed rotated by 180 degrees so as to be oriented in the positive direction with respect to the master position. There is.
まず、入力表示装置1の特徴的な構成についてブロック図を参照して説明する。
図2(a)は第1実施形態に係る入力表示装置の構成を示すブロック図、(b)は前記入力表示装置を構成する表示方向制御部の機能を示すブロック図、図3は前記入力表示装置に対して書き込み(入力)を行うユーザの位置と入力表示画面に表示される画像の表示方向との関係を示す説明図、図4(a)は前記入力表示装置が備える静電容量センサにて検出された入力領域が縦長の場合を示す説明図、(b)は静電容量センサにて検出された入力領域が横長の場合を示す説明図である。
First, a characteristic configuration of the
2A is a block diagram showing a configuration of the input display device according to the first embodiment, FIG. 2B is a block diagram showing a function of a display direction control unit constituting the input display device, and FIG. 3 is the input display device. Explanatory diagram showing the relationship between the position of the user who writes (input) to the device and the display direction of the image displayed on the input display screen. FIG. 4A shows the capacitance sensor included in the input display device. Is an explanatory view showing a case where the input area detected by the above is vertically long, and (b) is an explanatory view showing a case where the input area detected by the capacitance sensor is horizontally long.
入力表示装置1は、図2(a)に示すように、タッチパネル2と表示部11とを備える表示画面10と、センサ駆動部/容量値受信部3、表示駆動部9、および制御部12を備えている。
As shown in FIG. 2A, the
タッチパネル2は、静電容量センサにより構成され、複数の入力を検出可能な機能を備えている。
The
制御部12は、図示しないCPU,ROM,RAMにて構成され、形状/手つき判定部(入力情報比較部)4、タッチ認識処理部5、ユーザ位置判断部6、表示方向制御部(表示方向切換部)7および描画情報制御部8を構築する。
The
タッチパネル2を構成する静電容量センサは、面状に複数本のマトリックス状に配置された線から、近接する物体との間の静電容量を検出することにより物体の形状を検出可能なセンサである。静電容量センサは、例えば、4096×2160の各位置の容量を検出することが可能である。
The capacitance sensor that constitutes the
ここでは、図3に示すように、第3方向に位置するユーザより見て表示画面10の左上の角を(0,0)、右下の角を(4095、2159)として、座標が設定されており、それぞれの座標に対して容量が検出される。なお、タッチパネル2は、静電容量方式に限らず、接触/非接触に関わらず、近接する物体の形状を捉えることが可能であれば、その他の方式のものであってもよい。
Here, as shown in FIG. 3, the coordinates are set with the upper left corner of the
センサ駆動部/容量値受信部3は、タッチパネル(静電容量センサ)2を駆動し、その結果より静電容量値を検出するものである。センサ駆動部/容量値受信部3は、検出した静電容量値を制御部12に送る。
The sensor driving unit/capacity
制御部12における形状/手つき判定部(比較部)4は、センサ駆動部/容量値受信部3にて検出された静電容量値に基づき、表示画面10に近接する物体の形状を判定するものである。画面に近接する物体の形状は、物体の近接を示す静電容量をもつ連続した範囲の形状に相当する。図4(a),(b)に、静電容量センサにて検出された入力領域(連続した範囲)を示す。
The shape/touch determination section (comparison section) 4 of the
形状/手つき判定部4は、タッチパネル2により検出した複数の入力情報に基づき、検出された形状(入力領域)の大きさにより、検出した物体がペン先であるか、手つきであるかを判定するとともに、入力方向(縦方向または横方向)を比較する。
The shape/
なお、手つきとは、表示画面10に手の腹などが触れる現象である。
具体的には、形状/手つき判定部4は、例えば、検出された形状を所定値Aと比較し、検出された形状の面積が所定値A以下の場合はペン先と判定し、所定値Aよりも大きな場合は手つきと判定する。ここで、所定値Aとは、ペン先と想定される大きさの上限値である。
In addition, the touching with the hands is a phenomenon in which the belly of the hand touches the
Specifically, the shape/
検出した形状は、図4(a)に示すように、X軸値の最小値(min x),最大値(max x)、Y軸値の最小値(min y),最大値(max y)に基づいて、Y軸方向の長さがX軸方向の長さよりも長い場合に縦長と判定し、図4(b)に示すように、Y軸方向の長さがX軸方向の長さよりも短い場合に横長と判定する。 The detected shape is, as shown in FIG. 4A, the minimum value (min x) of the X-axis value, the maximum value (max x), the minimum value (min y) and the maximum value (max y) of the Y-axis value. Based on the above, when the length in the Y-axis direction is longer than the length in the X-axis direction, it is determined to be vertically long, and the length in the Y-axis direction is longer than the length in the X-axis direction as shown in FIG. If it is short, it is determined to be landscape.
そして、形状/手つき判定部4は、判定した結果を、タッチ認識処理部5とユーザ位置判断部6とに送る。
Then, the shape/
タッチ認識処理部5は、形状/手つき判定部4の判定結果に基づいてペン先の位置を判定し、ペン先の位置がメニュー位置であればメニュー処理を行い、メニュー位置でない場合は描画処理を行う。
The touch
ユーザ位置判断部6は、形状/手つき判定部4の判定結果に基づいて、入力ユーザの表示画面10に対する位置を判断するものである。ユーザ位置判断部6の詳細については後述する。ユーザ位置判断部6は、判断した結果を表示方向制御部(表示方向切換部)7に送る。
The user
表示方向制御部(表示方向切換部)7は、ユーザ位置判断部6の判断した結果に基づいて、表示画面10における表示方向を判定して入力されたオブジェクトを表示するものである。ここでは、表示方向が判定される対象の表示は、表示画面10に表示される表示内容の全体、あるいはメニュー表示である。メニュー表示は、画面に表示される表示内容の一部に相当する。
The display direction control unit (display direction switching unit) 7 determines the display direction on the
また、表示方向制御部7は、特徴的な構成として、図2(b)に示すように、複数人のユーザにより表示画面10を共有して使用する場合は、予め特定されたマスタ位置(M)に対して正方向となる向きで入力されたオブジェクトを表示画面10に表示する特定方向表示機能71と、追加入力されたオブジェクトをマスタ位置(M)に対して正方向となる向きで追加した状態で表示する特定方向追加表示機能72とを備えている。
Further, as shown in FIG. 2B, when the display
さらに、表示方向制御部7は、複数人のユーザにより表示画面10を共有して使用する場合は、ユーザが入力中である場合に、入力されたオブジェクトの表示方向を入力中のユーザに対して正方向になるように切換えるユーザ方向表示機能73と、前記ユーザによる入力完了後、入力されたオブジェクトが表示される方向と予め特定されたマスタ位置(M)に対して正方向となる向きとが異なる場合には、入力されたオブジェクトがマスタ位置(M)に対して正方向となるように表示するユーザ方向表示切換機能74とを備えている。
Furthermore, when a plurality of users share the
さらに、表示方向制御部7は、入力を終了したユーザによる移動指示を検出すると、ユーザの移動指示に基づき、その入力したオブジェクトを移動する移動表示機能75と、移動完了後、マスタ位置(M)に対して入力したオブジェクトの方向が異なる場合は、マスタ位置(M)に対して正方向になるように表示する移動表示切換機能76とを備えている。
Further, when the display
描画情報制御部(表示切換部、描画部)8は、内部に図示していない記憶部を備えており、該記憶部に、手書きされた情報やグラフ情報等の描画情報と一時的に描画情報にオーバーラップして表示するメニュー情報とを別レイヤーにて保持している。 The drawing information control unit (display switching unit, drawing unit) 8 includes a storage unit (not shown) inside, and the storage unit temporarily stores drawing information such as handwritten information and graph information. The menu information to be displayed in an overlapping manner is held in a separate layer.
また、描画情報制御部8は、タッチ認識処理部5からのメニュー処理あるいは描画処理と、表示方向制御部7からの表示方向の判定の結果とに基づいて、表示部11に表示する内容を記憶している上記記憶部の内容を更新するように制御する。
Further, the drawing
また、描画情報制御部8は、追加入力された描画情報をマスタ位置(M)に対して正方向となる向きで追加した状態で表示される際に、先に表示されているオブジェクトと追加入力されるオブジェクトの表示サイズを同じサイズとする機能を備えている。
Further, when the drawing
さらに、描画情報制御部8は、入力された描画情報を入力したユーザに関連づけてユーザ毎に異なる表示態様(色、フォント、大きさ等)で表示する機能を備えている。
Furthermore, the drawing
表示駆動部9は、描画情報制御部8に備えられた上記記憶部に記憶された情報に基づいて表示部11を駆動し、情報を表示部11に表示するものである。
The
表示部11は、情報をユーザに表示画面10に表示することにより与えるためのもので、例えば液晶表示、EL表示等の平面形状からなる。表示部11の上面に静電容量センサより構成されるタッチパネル2が重ねて設けられている。
The
次に、第1実施形態の入力表示装置1において表示画面10に入力されたオブジェクトを表示する表示制御の手順をフローチャートに沿って説明する。
図5は第1実施形態の入力表示装置の表示画面に入力されたオブジェクトを表示する表示制御の手順を示すフローチャート図である。
Next, a procedure of display control for displaying an object input on the
FIG. 5 is a flowchart showing a procedure of display control for displaying an object input on the display screen of the input display device according to the first embodiment.
入力表示装置1において、表示画面10へのオブジェクト(描画情報)の入力が開始されると、タッチパネル2において静電容量センサにより検出した容量値の変化の有無で表示画面10へユーザによる入力が行われたか否かが判断される(ステップS1)。
When input of an object (drawing information) to the
ステップS1において、ユーザによる入力が行われたと判断された場合は、ステップS2へ進み、入力領域の大きさが検出される。そして、その入力領域の大きさ(検出された形状)により、その入力がペン先によるものであるか否かが判断される(ステップS3)。入力領域の大きさの判断については、図4(a),(b)に示すように、その検出した範囲のmax x−min xと、max y−min yにて表される。 When it is determined in step S1 that the user has input, the process proceeds to step S2, and the size of the input area is detected. Then, based on the size of the input area (the detected shape), it is determined whether or not the input is made by the pen tip (step S3). The determination of the size of the input area is represented by max x-min x and max y-min y of the detected range, as shown in FIGS.
一方、ステップS1において、ユーザによる入力が行われていないと判断された場合は、入力が検出されるまで繰り返される。 On the other hand, if it is determined in step S1 that the user has not input, the process is repeated until the input is detected.
ステップS3において、入力がペン先によるものである(所定以下の大きさの領域である)と判断された場合は、ステップS4に進み、手つきによる入力があるか否かが判断される。一方、入力がペン先によるものではないと判断された場合は、ステップS1に戻り入力の検出が続けられる。 If it is determined in step S3 that the input is made by the pen tip (the area has a size equal to or smaller than a predetermined size), the process proceeds to step S4, and it is determined whether there is an input by hand. On the other hand, if it is determined that the input is not from the pen tip, the process returns to step S1 to continue detecting the input.
ステップS4における判断方法としては、例えば、ペン先として想定される領域の大きさより大きな領域であると判断した場合には、手つきとして判断する。 As the determination method in step S4, for example, when it is determined that the area is larger than the size of the area assumed as the pen tip, it is determined as a touch.
ステップS4において、手つきによる入力があると判断された場合は、ステップS5に進み、入力が所定範囲内の領域に存在するか否かが判断される。一方、ステップS4において、手つきによる入力が無いと判断された場合は、ステップS11に進む。 When it is determined in step S4 that there is an input by hand, the process proceeds to step S5, and it is determined whether or not the input exists in the area within the predetermined range. On the other hand, if it is determined in step S4 that there is no manual input, the process proceeds to step S11.
ステップS5では、ステップS3で判断されたペン先の入力と、ステップS4で判断された手つきの入力とが、所定範囲内の領域に存在するか否かが判断される。すなわち、ステップS5では、ペン先の入力と手つきの入力が同一ユーザのものであるか否かを判断している。 In step S5, it is determined whether or not the input of the pen tip determined in step S3 and the input with the hand determined in step S4 exist in an area within a predetermined range. That is, in step S5, it is determined whether the input with the pen tip and the input with the hand are for the same user.
ステップS5において、ペン先の入力と手つきの入力とが所定範囲内の領域に存在すると判断された場合は、ステップS6に進み、メニューの表示指示があったか否かが判断される。一方、ステップS5において、ペン先の入力と手つきの入力が所定範囲内の領域に存在しないと判断された場合は、ステップS11に進む。 If it is determined in step S5 that the pen tip input and the manual input are in the area within the predetermined range, the process proceeds to step S6, and it is determined whether or not there is a menu display instruction. On the other hand, if it is determined in step S5 that the pen tip input and the manual input do not exist in the area within the predetermined range, the process proceeds to step S11.
ステップS6におけるメニューの表示指示方法に関しては、別途スイッチを操作する等の方法を採用することにより解決することが可能である。
ステップS6において、メニューの表示指示があったと判断された場合は、ステップS7に進み、手つき入力の形状が判断される。一方、ステップS6において、メニューの表示指示がないと判断された場合は、ステップS11に進む。
The menu display instruction method in step S6 can be solved by adopting a method such as operating a switch separately.
If it is determined in step S6 that the menu display instruction has been given, the process proceeds to step S7, and the shape of the manual input is determined. On the other hand, if it is determined in step S6 that there is no menu display instruction, the process proceeds to step S11.
ステップS11では、ペン先の入力位置がメニュー表示位置であるか否かが判断される。ステップS11において、ペン先の入力位置がメニュー表示位置であると判断された場合は、ステップS12に進み、ペン先がUPされたか否かが判断される。 In step S11, it is determined whether the input position of the pen tip is the menu display position. When it is determined in step S11 that the input position of the pen tip is the menu display position, the process proceeds to step S12, and it is determined whether the pen tip is UP.
ステップS12では、ペン先がUPされたか否か、すなわちペン入力が終了したか否かが判断される。ステップS12において、ペン先がUPされたと判断された場合は、ステップS13に進み、ペン先がUPされた位置のメニュー項目が選択されて、実行される。 In step S12, it is determined whether or not the pen tip has been updated, that is, whether or not pen input has been completed. If it is determined in step S12 that the pen tip has been updated, the process proceeds to step S13, and the menu item at the position where the pen tip has been updated is selected and executed.
ステップS12において、ペン先がUPされていないと判断された場合は、ステップS11に戻る。 When it is determined in step S12 that the pen tip has not been updated, the process returns to step S11.
一方、ステップS11において、ペン先の入力位置がメニュー表示位置ではないと判断された場合は、ステップS14に進み、入力処理としてメニューで選択されている処理が実行され、ステップS15に進み、ペン先の位置が検出される。そして、ステップS16に進み、ペン先がUPされたか否かが判断される。 On the other hand, in step S11, when it is determined that the input position of the pen tip is not the menu display position, the process proceeds to step S14, the process selected in the menu is executed as the input process, and the process proceeds to step S15 where the pen tip Is detected. Then, in step S16, it is determined whether or not the pen tip has been updated.
ステップS16では、ペン先がUPすることでペン入力が終了したことを判断する。
ステップS16において、ペン先がUPされたと判断された場合は、ステップS1に戻り、次の入力に対応する。
In step S16, it is determined that the pen input is completed by the UP of the pen tip.
When it is determined in step S16 that the pen tip has been updated, the process returns to step S1 and corresponds to the next input.
一方、ステップS16において、ペン先がUPされていないと判断された場合は、ステップS14に戻り、ペン先がUPされるまで繰り返される。 On the other hand, if it is determined in step S16 that the pen tip has not been updated, the process returns to step S14 and the process is repeated until the pen tip is updated.
ここで、ステップS7以降の処理(2点鎖線で囲まれた個所の処理)は、ユーザによる入力に基づきメニューの方向を決定し表示を行う処理である。 Here, the process after step S7 (the process of the part surrounded by the two-dot chain line) is the process of determining the direction of the menu based on the input by the user and displaying it.
ステップS7では、図4(a),(b)に示すように、ステップS2にて検出した手つきのmin x:max xと、min y:max yを用いて、max x−min
xと、max y−min yを計算して、何れの方が長いかを判断する。
In step S7, as shown in FIGS. 4(a) and 4(b), max x-min is calculated using min x:max x and min y:max y with the hand detected in step S2.
x and max y-min y are calculated to determine which is longer.
ステップS7において、手つきが縦長であると判断された場合は、ステップS8に進む。一方、ステップS7において、手つきが縦長ではないと判断された場合は、ステップS17に進む。 When it is determined in step S7 that the touch is vertical, the process proceeds to step S8. On the other hand, if it is determined in step S7 that the hand is not vertically long, the process proceeds to step S17.
例えば、手つきの形状が縦長である場合には、図3に示すように、表示画面10における第1方向あるいは第3方向からの入力であると判断することができる。一方、手つきの形状が横長である場合には、表示画面10における第2方向あるいは第4方向からの入力であると判断することができる。
For example, when the shape of the hand is vertically long, it can be determined that the input is from the first direction or the third direction on the
ステップS8では、ペン先(小領域)の中心座標と、手つき(大領域)の中心座標のY軸値を比較することでユーザの向く方向(ユーザの位置)を判断する。 In step S8, the direction in which the user is facing (the position of the user) is determined by comparing the Y-axis values of the center coordinates of the pen tip (small area) and the center coordinates of the touch (large area).
ステップS8において、ペン先の中心座標が手つきの中心座標より小さいと判断された場合は、ステップS9に進む。一方、ステップS8において、ペン先の中心座標が手つきの中心座標より大きいと判断された場合は、ステップS10に進む。 If it is determined in step S8 that the center coordinate of the pen tip is smaller than the center coordinate of the hand, the process proceeds to step S9. On the other hand, if it is determined in step S8 that the center coordinate of the pen tip is larger than the center coordinate of the hand, the process proceeds to step S10.
例えば、図4(a)に示すように、ペン先の中心座標のY座標が手つきの中心座標のY座標より小さいということは、表示画面10の第3方向から入力が行われており、ステップS9において、表示画面10の第3方向に向けてメニューを表示するとともに、ユーザが表示画面10の第3方向に位置するものとして設定する。
For example, as shown in FIG. 4A, the fact that the Y coordinate of the center coordinate of the pen tip is smaller than the Y coordinate of the center coordinate of the hand means that the input is performed from the third direction of the
また、手つきの中心座標のY座標がペン先の中心座標のY座標より大きいということは、表示画面10の第1方向から入力が行われており、ステップS10において、表示画面10の第1方向に向けてメニューを表示するとともに、ユーザが表示画面10の第1方向に位置するものとして設定する。
The fact that the Y coordinate of the center coordinate of the touch is larger than the Y coordinate of the center coordinate of the pen tip means that the input is made from the first direction of the
そして、ステップS1に戻り、次の入力に対応する。 Then, the process returns to step S1 and corresponds to the next input.
ステップS17では、ペン先(小領域)の中心座標と、手つき(大領域)の中心座標のX軸値を比較することでユーザの向く方向(ユーザの位置)を判断する。 In step S17, the direction in which the user is facing (the user's position) is determined by comparing the X-axis values of the center coordinates of the pen tip (small area) and the center coordinates of the touch (large area).
ステップS17において、ペン先の中心座標が手つきの中心座標より大きいと判断された場合は、ステップS18に進む。一方、ステップS17において、ペン先の中心座標が手つきの中心座標より小さいと判断された場合は、ステップS19に進む。 If it is determined in step S17 that the center coordinate of the pen tip is larger than the center coordinate of the hand, the process proceeds to step S18. On the other hand, if it is determined in step S17 that the center coordinate of the pen tip is smaller than the center coordinate of the hand, the process proceeds to step S19.
例えば、図4(b)に示すように、ペン先の中心座標のX座標が手つきの中心座標のX座標より大きいということは、表示画面10の第4方向から入力が行われており、ステップS18において、表示画面10の第4方向に向けてメニューを表示するとともに、ユーザが表示画面10の第4方向に位置するものとして設定する。
For example, as shown in FIG. 4B, the fact that the X coordinate of the center coordinate of the pen tip is larger than the X coordinate of the center coordinate of the hand means that the input is performed from the fourth direction of the
また、手つきの中心座標のX座標がペン先の中心座標のX座標より小さいということは、表示画面10の第2方向から入力が行われており、ステップS19において、表示画面10の第2方向に向けてメニューを表示するとともに、ユーザが表示画面10の第2方向に位置するものとして設定する。
そして、ステップS1に戻り、次の入力に対応する。
Further, the fact that the X coordinate of the center coordinate of the hand is smaller than the X coordinate of the center coordinate of the pen tip means that the input is made from the second direction of the
Then, the process returns to step S1 and corresponds to the next input.
このようにして、図3に示すように、表示画面10に対向する入力ユーザに合わせてメニューを表示する方向を制御することができるとともに、それぞれのユーザ位置を設定し、入力するオブジェクトと関連付けて保存することができる。
In this way, as shown in FIG. 3, it is possible to control the direction in which the menu is displayed in accordance with the input user facing the
次に、第1実施形態の入力表示装置1においてユーザからの移動指示に基づき、入力されたオブジェクトを移動してマスタ設定に対して表示する表示制御の手順をフローチャートに沿って説明する。
図6は第1実施形態の入力表示装置の表示画面に表示される入力されたオブジェクトをマスタ設定に対して表示する表示方向制御の手順を示すフローチャート図である。
Next, the procedure of the display control for moving the input object and displaying it for the master setting based on the moving instruction from the user in the
FIG. 6 is a flow chart showing a procedure of display direction control for displaying the input object displayed on the display screen of the input display device of the first embodiment with respect to the master setting.
図6に示すように、第1実施形態の入力表示装置1において、表示画面10へのオブジェクト(描画情報)の表示制御が開始されると、ユーザから入力されたオブジェクトに対して移動指示があるか否かが判断される(ステップS101)。
As shown in FIG. 6, when the display control of the object (drawing information) on the
ステップS101において、ユーザから入力されたオブジェクトに対して移動指示がない場合は、ステップS104に進む。一方、ステップS101において、ユーザから入力されたオブジェクトに対して移動指示があった場合は、ステップS102に進む。 In step S101, if there is no movement instruction for the object input by the user, the process proceeds to step S104. On the other hand, in step S101, when the user inputs a movement instruction to the object, the process proceeds to step S102.
ステップS102において、ユーザからの移動指示については、図5のステップS13におけるメニュー処理で移動指示を与えられた場合や、一定時間同じ位置をタッチした場合に移動指示として検出することで実行が可能である。 In step S102, the movement instruction from the user can be executed by detecting the movement instruction when the movement instruction is given in the menu processing in step S13 of FIG. 5 or when the same position is touched for a certain time. is there.
ステップS102では、ユーザの移動指示に基づき、入力されたオブジェクトが移動されて、ステップS103にと進む。 In step S102, the input object is moved based on the user's movement instruction, and the process proceeds to step S103.
ステップS103では、ペン先がUPされたか否か、すなわちペン入力が終了したか否かが判断される。 In step S103, it is determined whether or not the pen tip has been updated, that is, whether or not pen input has been completed.
ステップS103において、ペン先がUPされていないと判断された場合は、ステップS102に進み、入力されたオブジェクトの移動を繰り返す。 When it is determined in step S103 that the pen tip has not been updated, the process proceeds to step S102, and the movement of the input object is repeated.
一方、ステップS103において、ペン先がUPされたと判断された場合は、ステップS104に進み、マスタ設定された方向と入力されたオブジェクトの方向が同じか否かが判断される。 On the other hand, if it is determined in step S103 that the pen tip has been updated, the process proceeds to step S104, and it is determined whether or not the direction set as the master and the direction of the input object are the same.
ステップS104において、マスタ設定された方向と入力オブジェクトの方向が同じであると判断された場合は、そのまま処理を終了する。 If it is determined in step S104 that the direction set as the master and the direction of the input object are the same, the process ends.
一方、ステップS104において、マスタ設定された方向と入力オブジェクトの方向が異なると判断された場合は、ステップS105に進み、マスタ位置に対して正方向になるように表示制御が実行される。 On the other hand, when it is determined in step S104 that the direction set as the master and the direction of the input object are different, the process proceeds to step S105, and the display control is performed so that the master position is in the positive direction.
尚、ペン先ではなく、指先にて操作しても良い。 The operation may be performed with the fingertip instead of the pen tip.
ステップS105では、入力されたオブジェクトがマスタ位置に対して正方向になる位置で追加表示する。具体的には、図1(b)に示すように、ユーザCにより表示画面10に入力されたオブジェクト102が、図1(c)に示すように、180度回転した状態で追加表示される。
In step S105, the input object is additionally displayed at a position in the positive direction with respect to the master position. Specifically, as shown in FIG. 1B, the
以上のように構成したので、第1実施形態によれば、入力表示装置1において、タッチパネル2の構成として複数の入力を検出可能な機能を備え、さらに、入力表示装置1の制御部12の構成として、形状/手つき判定部4と、ユーザ位置判断部6と、表示方向制御部7と、を備えることで、入力表示装置1を会議テーブルとして複数人のユーザにより共有して使用する際に、それぞれのユーザの位置(方向)を特定するとともに、表示画面10に入力されたオブジェクトを予め特定されたマスタ位置(M)に対して正方向となる向きで表示することができるので、表示画面10に表示される表示内容の視認性を向上できるとともに、その表示内容の再利用性を高めることができる。
With the above-described configuration, according to the first embodiment, the
(第2実施形態)
次に、本発明の第2実施形態について図面を参照して説明する。
なお、説明の便宜上、第1実施形態と同一の機能を有する構成には、同一の番号を付して説明を省略する。
図7(a)は本発明の第2実施形態に係る入力表示装置の表示画面に対して複数人のユーザが書き込みを行う状態を示す説明図、(b)は前記表示画面に入力されたオブジェクトを表示制御した状態を示す説明図、図8は前記入力表示装置の表示画面におけるユーザの入力方向を判断する手順を示すフローチャート図、図9は前記入力表示装置を使用するユーザ毎の入力処理の手順を示すフローチャート図である。
(Second embodiment)
Next, a second embodiment of the present invention will be described with reference to the drawings.
Note that, for convenience of description, configurations having the same functions as those in the first embodiment are denoted by the same reference numerals and description thereof will be omitted.
FIG. 7A is an explanatory diagram showing a state in which a plurality of users write on the display screen of the input display device according to the second embodiment of the present invention, and FIG. 7B is an object input on the display screen. Is an explanatory view showing a state in which the display control is performed, FIG. 8 is a flowchart showing a procedure for determining the input direction of the user on the display screen of the input display device, and FIG. 9 is an input process for each user who uses the input display device. It is a flowchart figure which shows a procedure.
第1実施形態では、入力表示装置1を会議テーブルとして複数人のユーザにより共有して使用する際に、何れかのユーザが表示画面10に入力する場合について説明したが、第2実施形態は、複数人のユーザが同時に表示画面10を使用する場合について、図7(a),(b)に示すように、マスタ位置(M)に対して正方向になるように配慮して、入力されたオブジェクトを追加表示できるような表示制御を行うことを特徴とするものである。
In the first embodiment, when the
図7(a)では、例えば、入力表示装置1の表示画面10にユーザBおよびユーザCが入力を開始した状態を示している。ユーザBおよびユーザCが入力している間は、入力領域の文字、入力メニューといった画面の表示内容は、ユーザBおよびユーザC各々に対して正方向を向いて表示されている。
FIG. 7A shows, for example, a state in which the user B and the user C have started inputting on the
図7(b)では、ユーザBおよびユーザCにより入力されたオブジェクトがマスタ位置(M)に対して正方向になるように表示制御された状態を示している。 In FIG. 7B, the display control is performed so that the objects input by the users B and C are in the positive direction with respect to the master position (M).
以下に、第2実施形態の入力表示装置1において、表示画面10を複数人のユーザが同時に使用する場合に、表示画面10に対して複数人のユーザの向きを設定する表示制御の手順をフローチャートに沿って説明する。
Below, in the
図8に示すように、入力表示装置1において、表示画面10へのオブジェクト(描画情報)の入力が開始されると、タッチパネル2において静電容量センサにより検出した容量値の変化の有無で表示画面10へユーザによる入力が行われたか否かが判断される(ステップS201)。
As shown in FIG. 8, when input of an object (drawing information) to the
ステップS201において、ユーザによる入力が行われたと判断された場合は、ステップS202へ進み、入力領域の大きさが検出される。一方、ステップS1において、ユーザによる入力が行われていないと判断された場合は、処理を終了する。 When it is determined in step S201 that the user has input, the process proceeds to step S202, and the size of the input area is detected. On the other hand, if it is determined in step S1 that the user has not made an input, the process ends.
ステップS202では、それぞれの入力領域の大きさ(検出された形状)を判断する。入力領域の大きさの判断については、図4に示すように、その検出した範囲のmax x−min xと、max y−min yにて表される。そして、ステップS203に進む。 In step S202, the size (detected shape) of each input area is determined. The determination of the size of the input area is represented by max x-min x and max y-min y of the detected range, as shown in FIG. Then, the process proceeds to step S203.
ステップS203では、所定以下の大きさの領域、すなわちペン先の入力が含まれているか否かが判断されるとともに、所定以下の大きさの領域が含まれている場合に、その個数をカウントする。すなわち、ステップS203では、使用されているペンの数(ユーザの数)がカウントされる。そして、ステップS204に進む。 In step S203, it is determined whether or not an area having a size equal to or smaller than a predetermined size, that is, an input of a pen tip is included, and when the area having a size equal to or smaller than the predetermined size is included, the number is counted. .. That is, in step S203, the number of pens used (the number of users) is counted. Then, the process proceeds to step S204.
ステップS204では、ステップS203にてカウントした数値を変数iに設定する。そして、ステップS205に進む。 In step S204, the numerical value counted in step S203 is set in the variable i. Then, the process proceeds to step S205.
ステップS205では、変数iが0であるか否かが判断される。ステップS205において、変数iが0であると判断された場合は、処理すべき大きさの領域が無いと判断して処理を終了する。一方、ステップS205において、変数iが0ではないと判断された場合は、ステップS206へ進む。 In step S205, it is determined whether the variable i is 0. If it is determined in step S205 that the variable i is 0, it is determined that there is no area of a size to be processed, and the process is terminated. On the other hand, if it is determined in step S205 that the variable i is not 0, the process proceeds to step S206.
ステップS206では、手つきによる入力があるか否かが判断される。ステップS206において、手つきによる入力があると判断された場合は、ステップS207へと進む。一方、ステップS206において、手つきによる入力がないと判断された場合は、ステップS215へと進む。 In step S206, it is determined whether there is a manual input. If it is determined in step S206 that there is a manual input, the process proceeds to step S207. On the other hand, when it is determined in step S206 that there is no manual input, the process proceeds to step S215.
ステップS206における判断方法としては、例えば、入力領域が、ペン先として想定される領域の大きさより大きな領域であると判断した場合には、手つきとして判断する。 As a determination method in step S206, for example, when it is determined that the input area is larger than the size of the area assumed as the pen tip, it is determined as a touch.
ステップS207では、ステップS203にて判断されたペン先の領域と、ステップS206にて判断された手つきの領域とが、所定範囲内の領域に存在するか否かを判断される。すなわち、ステップS207では、ペン先の入力と手つきの入力が同一ユーザのものであるか否かを判断している。 In step S207, it is determined whether the pen tip area determined in step S203 and the hand-touched area determined in step S206 are within a predetermined range. That is, in step S207, it is determined whether the input with the pen tip and the input with the hand are for the same user.
ステップS207において、ペン先の入力と手つきの入力とが所定範囲内に存在すると判断した場合には、ステップS208に進む。一方、ステップS207において、ペン先の入力と手つきの入力が所定範囲内に存在しないと判断された場合は、ステップS215に進む。 If it is determined in step S207 that the pen tip input and the manual input are within the predetermined range, the process proceeds to step S208. On the other hand, if it is determined in step S207 that the pen tip input and the manual input are not within the predetermined range, the process proceeds to step S215.
ステップS208では、図4(a),(b)に示すように、ステップS202にて検出した手つきのmin x:max xと、min y:max yを用いて、max x−min xと、max y−min yを計算して、何れの方が長いかを判断する。 In step S208, as shown in FIGS. 4(a) and 4(b), max x-min x and max are calculated using min x:max x and min y:max y with the hand detected in step S202. Calculate y-min y to determine which is longer.
ステップS208において、手つきが縦長であると判断された場合は、ステップS209へと進む。一方、ステップS208において、手つきが縦長ではないと判断された場合は、ステップS212に進む。 If it is determined in step S208 that the touch is vertical, the process proceeds to step S209. On the other hand, when it is determined in step S208 that the hand is not vertically long, the process proceeds to step S212.
例えば、手つきの形状が縦長である場合には、図3に示すように、表示画面10における第1方向あるいは第3方向からの入力であると判断することができる。一方、手つきの形状が横長である場合には、表示画面10における第2方向あるいは第4方向からの入力であると判断することができる。
For example, when the shape of the hand is vertically long, it can be determined that the input is from the first direction or the third direction on the
ステップS209では、ペン先(小領域)の中心座標と、手つき(大領域)の中心座標のY軸値を比較することでユーザの向く方向(ユーザの位置)を判断する。 In step S209, the direction in which the user is facing (the position of the user) is determined by comparing the Y-axis values of the center coordinates of the pen tip (small area) and the center coordinates of the touch (large area).
ステップS209において、ペン先の中心座標が手つきの中心座標より小さいと判断された場合は、ステップS210に進む。一方、ステップS209において、ペン先の中心座標が手つきの中心座標より大きいと判断された場合は、ステップS211に進む。 If it is determined in step S209 that the center coordinate of the pen tip is smaller than the center coordinate of the hand, the process proceeds to step S210. On the other hand, if it is determined in step S209 that the center coordinate of the pen tip is larger than the center coordinate of the hand, the process proceeds to step S211.
例えば、図3に示すように、ペン先の中心座標のY座標が手つきの中心座標のY座標より小さいということは、ユーザiが表示画面10の第3方向にいることが分かるため、ステップS210おいて、ユーザiを表示画面10の第3方向に設定する。
For example, as shown in FIG. 3, the fact that the Y coordinate of the center coordinate of the pen tip is smaller than the Y coordinate of the center coordinate of the hand means that the user i is in the third direction of the
また、手つきの中心座標のY座標がペン先の中心座標のY座標より大きいということは、ユーザiが表示画面10の第1方向にいることが分かるため、ステップS211において、ユーザiを表示画面10の第1方向に設定する。
Further, the fact that the Y coordinate of the center coordinate of the hand is larger than the Y coordinate of the center coordinate of the pen tip indicates that the user i is in the first direction of the
ステップS212では、ペン先(小領域)の中心座標と、手つき(大領域)の中心座標のX軸値を比較することでユーザの向く方向(ユーザの位置)を判断する。 In step S212, the direction in which the user is facing (the position of the user) is determined by comparing the X-axis values of the center coordinates of the pen tip (small area) and the center coordinates of the touch (large area).
ステップS212において、ペン先の中心座標が手つきの中心座標より大きいと判断された場合は、ステップS213に進む。一方、ステップS212において、ペン先の中心座標が手つきの中心座標より小さいと判断した場合は、ステップS214に進む。 When it is determined in step S212 that the center coordinate of the pen tip is larger than the center coordinate of the hand, the process proceeds to step S213. On the other hand, if it is determined in step S212 that the center coordinate of the pen tip is smaller than the center coordinate of the hand, the process proceeds to step S214.
例えば、図3に示すように、ペン先の中心座標のX座標が手つきの中心座標のX座標より大きいということは、ユーザiが表示画面10の第4方向にいることが分かるため、ステップS213において、ユーザiを第4方向に設定する。
For example, as shown in FIG. 3, the fact that the X coordinate of the center coordinate of the pen tip is larger than the X coordinate of the center coordinate of the hand means that the user i is in the fourth direction of the
また、手つきの中心座標のX座標がペン先の中心座標のX座標より小さいということは、ユーザiが表示画面10の第2方向にいることが分かるため、ステップS214において、ユーザiを第2方向に設定する。
Further, the fact that the X coordinate of the center coordinate of the hand is smaller than the X coordinate of the center coordinate of the pen tip indicates that the user i is in the second direction of the
そして、ユーザiの位置する方向が設定された後、カウントした数値の変数iから1を減算して変数を設定する(ステップS215)。そして、ステップS205に戻り、変数iが0になるまで繰り返される。
これにより、複数人の入力ユーザの方向を検出することが出来る。
Then, after the direction in which the user i is located is set, 1 is subtracted from the counted variable i to set the variable (step S215). Then, the process returns to step S205 and is repeated until the variable i becomes zero.
Thereby, the directions of a plurality of input users can be detected.
次に、第2実施形態の入力表示装置1において、表示画面10にメニュー表示する表示制御の手順をフローチャートに沿って説明する。
Next, in the
入力表示装置1において、表示画面10を複数人のユーザが同時に使用する場合に、図8に示すように、表示画面10に対して複数人のユーザの向きを設定する表示制御を行った後に、図9に示すように、表示画面10にメニュー表示する処理をユーザ数(i)に合わせて並行して実施される。
In the
入力表示装置1において、表示画面10へのオブジェクト(描画情報)の入力が開始されると、まず、メニュー表示が指示されたか否かが判断される(ステップS301)。
When the
ステップS301において、メニュー表示が指示されていないと判断された場合は、ステップS302に進み、図8の処理にて設定された各ユーザの方向に対して正方向となるように入力メニューを表示して、処理を終了する。一方、ステップS301において、メニュー表示が指示されたと判断された場合は、ステップS303に進む。 If it is determined in step S301 that the menu display is not instructed, the process proceeds to step S302, and the input menu is displayed so as to be in the forward direction with respect to the direction of each user set in the process of FIG. Then, the process ends. On the other hand, when it is determined in step S301 that the menu display is instructed, the process proceeds to step S303.
ステップS303では、メニュー表示位置であるか否かが判断される。ステップS303において、メニュー表示位置であると判断された場合は、ステップS304に進む。一方、ステップS303において、メニュー表示位置ではないと判断された場合は、ステップS306に進む。 In step S303, it is determined whether or not it is the menu display position. When it is determined in step S303 that the menu display position is reached, the process proceeds to step S304. On the other hand, if it is determined in step S303 that it is not the menu display position, the process proceeds to step S306.
ステップS304では、ペン先がUPされたか否かが判断される。ステップS304において、ペン先がUPされたと判断された場合は、ステップS305に進む。 In step S304, it is determined whether the pen tip has been UP. If it is determined in step S304 that the pen tip has been updated, the process proceeds to step S305.
ステップS305では、ペン先がUPされたことを検出することにより、ペン先がUPされた位置のメニュー項目が選択されて、実行される。 In step S305, the menu item at the position where the pen tip is UP is selected and executed by detecting that the pen tip is UP.
一方、ステップS304において、ペン先がUPされていないと判断された場合は、ステップS303に戻り、ペン先がUPされるまで繰り返される。 On the other hand, if it is determined in step S304 that the pen tip has not been updated, the process returns to step S303 and the process is repeated until the pen tip is updated.
ステップS303において、メニュー表示位置ではないと判断された場合は、ステップS306にて入力処理として入力メニューで選択されている処理が実行され、ステップS307にてペン先の位置が検出される。そして、ステップS308に進み、ペン先がUPされたか否かが判断される。 If it is determined in step S303 that the position is not the menu display position, the process selected in the input menu is executed as the input process in step S306, and the position of the pen tip is detected in step S307. Then, in step S308, it is determined whether or not the pen tip has been updated.
ステップS308では、ペン先がUPすることでペン入力が終了したことを判断する。ステップS308において、ペン先がUPされたと判断された場合は、処理が終了する。 In step S308, it is determined that the pen input is completed by the UP of the pen tip. If it is determined in step S308 that the pen tip has been updated, the process ends.
一方、ステップS308において、ペン先がUPされていない判断された場合は、ステップS306に戻り、ペン先がUPされるまで処理を繰り返す。 On the other hand, if it is determined in step S308 that the pen tip has not been updated, the process returns to step S306 and the process is repeated until the pen tip is updated.
これにより、複数人の入力ユーザがそれぞれ異なる処理を要求した場合においても、並行してそれぞれの処理を行うため、結果として複数人のユーザ入力に対して、メニューを適切な方向に表示することができる。 As a result, even when a plurality of input users request different processes, the respective processes are performed in parallel, and as a result, the menu can be displayed in an appropriate direction for the user inputs of a plurality of users. it can.
次に、第2実施形態において、入力表示装置1の表示画面10に入力されたオブジェクトを表示制御する場合について説明する。
Next, in the second embodiment, a case where display control of an object input on the
入力表示装置1の表示画面10にそれぞれのユーザによって入力されたオブジェクトを表示制御する場合は、図9に示すように、表示画面10にメニュー表示する処理をユーザ数(i)に合わせて並行して実施した後、図6に示すように、表示画面10に入力されたオブジェクトをマスタ位置(M)に対して表示する表示制御の処理をユーザ数(i)に合わせて並行してそれぞれ実施する。
When controlling the display of the objects input by each user on the
図6に示す処理内容については、第1実施形態と同様であるため説明を省略する。
この処理により、例えば、図7(a)では、ユーザBおよびユーザCが入力を開始した状態を示しており、ユーザBおよびユーザCが入力している間は、入力領域の文字、入力メニューといった画面の表示内容は、ユーザBおよびユーザC各々に対して正方向を向いて表示されている。
The processing content shown in FIG. 6 is the same as that in the first embodiment, and thus the description thereof is omitted.
By this processing, for example, FIG. 7A shows a state in which the user B and the user C have started inputting, and while the user B and the user C are inputting, characters in the input area, an input menu, etc. The display content of the screen is displayed in the forward direction with respect to each of user B and user C.
ユーザBおよびユーザCが入力を完了した際、ユーザBおよびユーザCが入力したそれぞれのオブジェクト102b,102cと、それらの表示方向を保存しておき、それぞれに対して移動指示を検出すると、指先が離れるまでそれぞれの入力されたオブジェクト102b,102cをユーザBおよびユーザCの指示に基づき移動する。
When the user B and the user C complete the input, the
移動完了後、マスタ設定方向と入力されたオブジェクト102b,102cの方向とが異なる場合には、入力されたオブジェクトがマスタ位置(M)に対して正方向となるように表示を制御する。 After the movement is completed, if the master setting direction is different from the direction of the input objects 102b and 102c, the display is controlled so that the input object is in the forward direction with respect to the master position (M).
図7(b)に示すように、ユーザBによる移動指示があった場合は、マスタ位置(M)に対して正方向にすべく、ユーザBのオブジェクト102bを右90度回転して表示する表示制御が行われる。また、ユーザCによる移動指示があった場合は、ユーザCのオブジェクト102cを180度回転して表示する表示制御が行われる。 As shown in FIG. 7B, when the user B gives a movement instruction, the object B of the user B is rotated 90 degrees to the right so as to be in the forward direction with respect to the master position (M). Control is performed. In addition, when the movement instruction is given by the user C, display control is performed in which the object C of the user C is rotated 180 degrees and displayed.
以上のように構成したので、第2実施形態によれば、入力表示装置1を会議テーブルとして複数人のユーザにより共有して使用する際に、複数人のユーザが同時に入力する場合についても、表示画面10に入力されたオブジェクトをマスタ位置(M)に対して正方向になるように配慮して、複数人のユーザにより入力されたオブジェクトをそれぞれ追加表示することができるので、表示画面10に表示される表示内容の視認性を向上できるとともに、その表示内容の再利用性を高めることができる。
With the above-described configuration, according to the second embodiment, when the
(第3実施形態)
次に、本発明の第3実施形態について図面を参照して説明する。
なお、説明の便宜上、第1実施形態と同一の機能を有する構成には、同一の番号を付して説明を省略する。
図10(a)は本発明の第3実施形態に係る入力表示装置の表示画面に対して複数人のユーザが書き込みを行う状態を示す説明図、(b)は前記表示画面に入力されたオブジェクトを拡大して表示制御した状態を示す説明図、図11は前記入力表示装置の表示画面に入力されたオブジェクトに対してスケーリング処理を行う手順を示すフローチャート図、図12は前記入力表示装置において入力されたオブジェクトの画像データを2値化データとして配列した一例を示す説明図、図13は前記入力された文字のデータを2値化としてラベリングした例を示す説明図、図14は図13のラベリングした結果を矩形化処理した例を示す説明図、図15は前記入力された文字をラベリングして行として抽出した一例を示す説明図である。
(Third Embodiment)
Next, a third embodiment of the present invention will be described with reference to the drawings.
Note that, for convenience of description, configurations having the same functions as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted.
FIG. 10A is an explanatory diagram showing a state in which a plurality of users write on the display screen of the input display device according to the third embodiment of the present invention, and FIG. 10B is an object input on the display screen. FIG. 11 is an explanatory view showing a state in which display control is performed in an enlarged manner, FIG. 11 is a flowchart showing a procedure for performing scaling processing on an object input to the display screen of the input display device, and FIG. 12 is input in the input display device. FIG. 13 is an explanatory view showing an example in which image data of a rendered object is arranged as binarized data, FIG. 13 is an explanatory view showing an example in which the input character data is labeled as binarized, and FIG. 14 is a labeling in FIG. FIG. 15 is an explanatory view showing an example in which the result is subjected to a rectangular processing, and FIG. 15 is an explanatory view showing an example in which the input characters are labeled and extracted as a line.
第3実施形態は、表示方向制御部7の機能として、上述した第1実施形態における機能に加えてスケーリング機能を備えることを特徴としている。これにより、入力表示装置1の表示画面10に入力されたオブジェクトを拡大、縮小して表示制御することが可能になる。
The third embodiment is characterized in that the display
入力表示装置1の表示画面10において、手書き入力する時の文字の大きさについては、ユーザによって大きさが異なるため、そのままの状態では、非常に見づらくなることが考えられる。そのため、表示内容の視認性、及び、その表示内容の再利用性を高めるとなると、手書き入力されたオブジェクトを拡大・縮小する必要がある。
On the
例えば、図10(a)に示すように、ユーザAの手書き入力された文字301が、先に入力されたオブジェクト300よりも小さい場合は、入力終了後、所定処理(ここでは拡大処理)を実施した上で、図10(b)に示すように、設定されている閾値に基づいて、他の文字と同じような大きさの文字302になるようスケーリングが行われる。
For example, as illustrated in FIG. 10A, when the
以下に、第3実施形態の入力表示装置1において、入力されたオブジェクトに対してスケーリングを行い表示する表示制御の手順をフローチャートに沿って説明する。
Hereinafter, in the
図11に示すように、入力表示装置1において、表示画面10へのオブジェクト(描画情報)の入力が開始されると、最初にユーザによる手書き入力が終了したか否かが判断される(ステップS401)。
As shown in FIG. 11, when input of an object (drawing information) to the
ステップ401において、ユーザによる手書き入力が終了していないと判断された場合は、入力が終了するまで判定を繰り返す。一方、ステップS401において、ユーザによる手書き入力が終了したと判断された場合は、次にラベリング処理が実行される(ステップS402)。
If it is determined in
ステップS402におけるラベリング処理は、ユーザが手書き入力した内容を2値化し、「1」が連続した画素に同じ番号を振る。 In the labeling process in step S402, the content handwritten by the user is binarized, and the same number is assigned to pixels in which “1” is consecutive.
図12は、2値化された画像の縦、横方向に連続している部分を同じラベルにする4連結の例を示している。例えば、注目画素310の2値データを([y][x])とすると、左上データ311は([y−1][x−1])、上データ312は([y−1][x])、右上データ313は([y−1][x+1])、左データ314は([y][x−1])、・・・となる。また、例えば、「あ」という文字をラベリングした例は、図13のようになる。
FIG. 12 shows an example of four connections in which the continuous portions in the vertical and horizontal directions of the binarized image are labeled with the same label. For example, if the binary data of the pixel of
ラベリング処理の後、矩形化処理を実施する(ステップS403)。
ステップS403における矩形化処理は、同じラベルが付与された画素群の外接四角形を求める処理である。図14は、図13のラベリングした「あ」という文字を矩形化処理した結果の例である。
After the labeling process, the rectangularization process is performed (step S403).
The rectangularization process in step S403 is a process for obtaining a circumscribed quadrangle of pixel groups to which the same label is attached. FIG. 14 is an example of the result of rectangularizing the labeled character “a” in FIG. 13.
その後、ステップS404において、各矩形の重心を求め、各矩形の重心位置が所定閾値以内であれば、その矩形群を結合する結合処理を行う。
そして、ステップS405において、図15に示すように、ラベリングした文字320を行として抽出する。
Then, in step S404, the center of gravity of each rectangle is obtained, and if the center of gravity of each rectangle is within a predetermined threshold value, a combining process of combining the rectangle groups is performed.
Then, in step S405, the labeled
そして、抽出した行数を「i」に設定する(ステップS406)。
そして、その「i」の数、つまり、抽出行数分、次の処理を実施する。
Then, the number of extracted lines is set to "i" (step S406).
Then, the following processing is performed for the number of “i”, that is, the number of extracted rows.
まず、ステップS407において、抽出された行が縦書きであるか否かが判断される。縦書きか横書きかの判定方法としては、図15に示すように、行抽出された外接矩形の座標から判定する。外接矩形の座標は、左上を(X1,Y1)として、右下を(X2,Y2)とする。 First, in step S407, it is determined whether the extracted line is vertical writing. As a method of determining whether to write vertically or horizontally, as shown in FIG. 15, it is determined from the coordinates of the circumscribed rectangle in which the line is extracted. Regarding the coordinates of the circumscribed rectangle, the upper left is (X1, Y1) and the lower right is (X2, Y2).
そして、
|X1−X2|>|Y1−Y2|ならば横書き、
|X1−X2|<|Y1−Y2|ならば縦書き、
として判定可能である。
And
If |X1-X2|>|Y1-Y2|
If |X1-X2|<|Y1-Y2|
Can be determined as
ステップS407において、抽出された行が縦書きであると判断された場合は、ステップS408に進み、入力されたオブジェクトはスケーリング倍率:(閾値3/|X1−X2|)でスケーリングされる。
If it is determined in step S407 that the extracted line is vertical writing, the process proceeds to step S408, and the input object is scaled by the scaling factor: (
例えば、ディスプレイが60型FULL−HDの場合、画素ピッチは0.692mmであるため、実際の文字の大きさ(幅)を50mm程度で表示させたい場合は、約73dot必要であるため、閾値3を73と設定する。 For example, when the display is a 60-type FULL-HD, the pixel pitch is 0.692 mm. Therefore, when it is desired to display the actual character size (width) at about 50 mm, about 73 dots are required. Is set to 73.
そして、ステップS409に進み、抽出された行の幅(|Y1−Y2|)が閾値4より大きいか否かが判断される。
Then, the process proceeds to step S409, and it is determined whether the width (|Y1-Y2|) of the extracted row is larger than the
例えば、ディスプレイが60型の場合は、垂直方向の画素数は1080dotであり、例えば、表示エリアをこの80%とした場合は、864dot(閾値4)となる。 For example, when the display is a 60-inch display, the number of pixels in the vertical direction is 1080 dots. For example, when the display area is 80%, the pixel count is 864 dots (threshold value 4).
ステップS409において、抽出された行の幅(|Y1−Y2|)が閾値4より大きいと判断された場合は、スケーリング後の抽出された行が1行に収まらないことを意味しているため、ステップS410に進み、列を分割する。そして、この判定を繰り返す。
If it is determined in step S409 that the width (|Y1-Y2|) of the extracted row is larger than the
一方、ステップS409において、抽出された行の幅(|Y1−Y2|)が閾値4より大きくないと判断された場合、すなわち、(|Y1−Y2|)≦閾値4となった時点で、ステップS411に進み、「i」から1を減算して、ステップS412に進む。
On the other hand, when it is determined in step S409 that the width (|Y1-Y2|) of the extracted row is not larger than the
ステップS412では、「i」が0であるか否かが判断される。ステップS412において、「i」が0であると判断された場合は、スケーリング処理を終了する。一方、ステップS412において、「i」が0ではないと判断された場合は、ステップS407に戻り、縦書き判定が繰り返される。 In step S412, it is determined whether "i" is 0. If it is determined in step S412 that "i" is 0, the scaling process ends. On the other hand, if it is determined in step S412 that "i" is not 0, the process returns to step S407 and the vertical writing determination is repeated.
ステップS407において、抽出された行が縦書きではない、横書きであると判断された場合は、ステップS413に進み、入力されたオブジェクトはスケーリング倍率:(閾値1/|Y1−Y2|)でスケーリングされる。
そして、ステップS414に進み、抽出された行の幅(|X1−X2|)が閾値2より大きいか否かが判断される。
If it is determined in step S407 that the extracted line is not vertical writing or horizontal writing, the process proceeds to step S413, and the input object is scaled by the scaling ratio: (
Then, in step S414, it is determined whether or not the width (|X1-X2|) of the extracted row is larger than the
ステップS414において設定される閾値2は、縦書きの際の閾値4の設定方法と同様である。
The
ステップS414において、抽出された行の幅(|X1−X2|)が閾値2より大きいと判断された場合は、スケーリング後の抽出された行が1行に収まらないことを意味しているため、ステップS415に進み、列を分割する。そして、この判定を繰り返す。
When it is determined in step S414 that the width (|X1-X2|) of the extracted row is larger than the
一方、ステップS414において、抽出された行の幅(|X1−X2|)が閾値2より大きくないと判断された場合、すなわち、(|X1−X2|)≦閾値2となった時点で、ステップS411に進み、「i」から1を減算して、ステップS412に進む。
On the other hand, when it is determined in step S414 that the width (|X1-X2|) of the extracted row is not larger than the
ステップS412では、「i」が0であるか否かが判断される。ステップS412において、「i」が0であると判断された場合は、スケーリング処理を終了する。一方、ステップS412において、「i」が0ではないと判断された場合は、ステップS407に戻り、縦書き判定が繰り返される。 In step S412, it is determined whether "i" is 0. If it is determined in step S412 that "i" is 0, the scaling process ends. On the other hand, if it is determined in step S412 that "i" is not 0, the process returns to step S407 and the vertical writing determination is repeated.
以上のように、第3実施形態によれば、表示方向制御部7の機能として、スケーリング機能を備えることで、図10(a),(b)に示すように、手書き入力された文字の大きさ(大きい、小さい)に関わらず、あらかじめ設定された大きさに手書き入力文字をスケーリングすることが可能となる。
As described above, according to the third embodiment, by providing the scaling function as the function of the display
(第4実施形態)
次に、本発明の第4実施形態について図面を参照して説明する。
なお、説明の便宜上、第1実施形態と同一の機能を有する構成には、同一の番号を付して説明を省略する。
図16は本発明の第4実施形態に係る入力表示装置の表示画面を用いてブレインストーミングを行う一例を示す説明図である。
(Fourth Embodiment)
Next, a fourth embodiment of the present invention will be described with reference to the drawings.
Note that, for convenience of description, configurations having the same functions as those in the first embodiment are denoted by the same reference numerals and description thereof will be omitted.
FIG. 16 is an explanatory diagram showing an example of performing brainstorming using the display screen of the input display device according to the fourth embodiment of the present invention.
第4実施形態は、上述した実施形態のように入力表示装置1の表示画面10に入力されたオブジェクトを箇条書きに表示すること以外の例として、ブレインストーミングに用いることを可能にしたものである。
The fourth embodiment is capable of being used for brainstorming as an example other than displaying the objects input on the
第4実施形態では、例えば、図16に示すように、マスタ位置(M)に特定されたユーザAが出した「展示会の成功」というテーマ401に対して、ユーザB〜Dがそれぞれのアイデアを手書き入力した結果を表示している。
In the fourth embodiment, for example, as shown in FIG. 16, with respect to the
ユーザB〜Dによって入力されたオブジェクト402b,403c,404d等は、それぞれユーザに対して正方向の向きに対応して表示される。
The
形状/手つき判定部4によるお手つき形状の判定により、入力されたオブジェクトとユーザを一致させることができるため、例えば、ユーザに応じて各自が入力したオブジェクトを色づけして、表示=グルーピングすることが可能である。
Since the input object and the user can be matched by the shape/
なお、ユーザをセンサ等で判定し、ユーザと文字入力を関連付けてもよい。 Note that the user may be determined by a sensor or the like, and the user may be associated with the character input.
表示画面10においてブレインストーミングを行った結果を表示した後の処理として、ユーザ指示により、各オブジェクトを移動したり、あるいは、マスタであるユーザAの位置が正方向となるよう回転するようにしたりすることも可能である。
As the processing after displaying the result of the brainstorming on the
以上のように、本発明は、上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、すなわち、本発明の要旨を逸脱しない範囲内において適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 As described above, the present invention is not limited to the above-described embodiment, and various modifications can be made within the scope of the claims. It is obvious to those skilled in the art that various changes or modifications can be conceived within the scope of the claims, that is, appropriate changes are made without departing from the scope of the present invention. Embodiments obtained by combining technical means are also included in the technical scope of the present invention.
また、発明の一態様としては、情報を表示する表示画面と、前記表示画面に対するユーザの入力を検出するセンサを備え、ペンを用いた入力操作が可能なテーブル型入力表示装置であって、
前記センサは、複数の入力を検出可能な機能を備え、
前記センサにより検出した複数の入力情報に基づき、入力領域の大きさと入力方向を比較する入力情報比較部と、
前記入力情報比較部による比較結果に基づき、前記表示画面に対するユーザの位置を判断するユーザ位置判断部と、
前記ユーザ位置判断部による判断結果に基づき、前記表示画面に表示される画像情報の表示方向を切り替える表示方向切換部と、を備え、
前記表示方向切換部は、複数のユーザにより前記表示画面を共有する場合は、予め特定されたユーザの位置に対して正方向となる向きで入力された描画情報を前記表示画面に表示する機能と、追加入力された描画情報を予め特定されたユーザの位置に対して正方向となる向きで追加した状態で表示する機能と、さらに、1または複数のユーザのうちの1ユーザによる描画情報を入力完了後、前記ユーザにより入力された描画情報を移動する指示を検出した場合、前記ユーザの指示に基づき、前記入力された描画情報を移動する機能と、前記ユーザによる描画情報の移動完了後、前記入力された描画情報が表示される方向と、予め特定されたユーザの位置に対して正方向となる向きとが異なる場合は、前記入力された描画情報が予め特定されたユーザの位置に対して正方向になるように表示する機能と、を備えることを特徴とするテーブル型入力表示装置であってもよい。
Further, as one aspect of the invention, there is provided a table-type input display device including a display screen for displaying information and a sensor for detecting a user's input on the display screen, which is capable of input operation using a pen,
The sensor has a function capable of detecting a plurality of inputs,
Based on a plurality of input information detected by the sensor, an input information comparison unit that compares the size of the input area and the input direction,
A user position determination unit that determines the position of the user with respect to the display screen based on the comparison result by the input information comparison unit;
A display direction switching unit that switches the display direction of the image information displayed on the display screen based on the determination result by the user position determination unit,
In the case where the display screen is shared by a plurality of users, the display direction switching unit has a function of displaying, on the display screen, drawing information input in a direction that is a positive direction with respect to a position of a user specified in advance. , A function of displaying the additionally input drawing information in a state in which it is added in a positive direction with respect to the position of the user specified in advance, and further inputting drawing information by one of one or more users After the completion, when the instruction to move the drawing information input by the user is detected, the function of moving the input drawing information based on the instruction of the user, and the completion of the movement of the drawing information by the user, If the direction in which the input drawing information is displayed is different from the direction that is the positive direction with respect to the position of the user specified in advance, the input drawing information is changed with respect to the position of the user specified in advance. It may be a table type input display device having a function of displaying in a positive direction.
このとき、前記表示画面には、入力操作に関するメニュー画像が表示され、前記表示方向切換部は、ユーザが入力中である場合に、その入力された描画情報と前記メニュー画像の表示方向を、入力中のユーザに対して正方向になるように切換える機能と、前記ユーザによる描画情報の入力完了後、前記入力された描画情報が表示される方向と、予め特定されたユーザの位置に対して正方向となる向きとが異なる場合には、前記入力された描画情報が予め特定されたユーザの位置に対して正方向となるように表示する機能と、を備えることを特徴としてもよい。 At this time, a menu image related to the input operation is displayed on the display screen, and the display direction switching unit inputs the input drawing information and the display direction of the menu image when the user is inputting. The function of switching to the normal direction for the inside user, the direction in which the input drawing information is displayed after the input of the drawing information by the user is completed, and the normal position with respect to the position of the user specified in advance. When the orientation is different, the function of displaying the input drawing information so as to be in a positive direction with respect to the position of the user specified in advance may be provided.
このとき、前記センサにて検出されたユーザにより入力された描写情報に応じて描画表示を行う描画部を備え、前記描画部は、ユーザにより入力された描画情報を記憶する記憶部を備え、前記表示方向切換部による表示方向を切換える判断に用いた複数の入力情報を描画の入力としては使用しないことを特徴としてもよい。 At this time, a drawing unit that performs drawing display according to the drawing information input by the user detected by the sensor is provided, and the drawing unit includes a storage unit that stores the drawing information input by the user, It may be characterized in that a plurality of pieces of input information used by the display direction switching unit to determine the display direction is not used as the drawing input.
このとき、前記センサにて検出されたユーザにより入力された描写情報に応じて描画表示を行う描画部を備え、前記描画部は、ユーザにより入力された描画情報を記憶する記憶部を備え、ユーザによる描画情報を入力完了後、その入力された描画情報と表示方向を関連付けて前記記憶部に保存し、前記描画情報を表示する表示制御に使用することを特徴としてもよい。 At this time, the drawing unit includes a drawing unit that performs drawing display according to the drawing information input by the user detected by the sensor, and the drawing unit includes a storage unit that stores the drawing information input by the user. After inputting the drawing information by the above, the input drawing information and the display direction are associated and stored in the storage unit, and may be used for display control of displaying the drawing information.
1 入力表示装置
2 タッチパネル(静電容量センサ)
3 センサ駆動部/容量値受信部
4 形状/手つき判定部(入力情報比較部)
5 タッチ認識処理部
6 ユーザ位置判断部
7 表示方向制御部(表示方向切換部)
8 描画情報制御部
9 表示駆動部
10 表示画面
11 表示部
12 制御部
71 特定方向表示機能
72 特定方向追加表示機能
73 ユーザ方向表示機能
74 ユーザ方向表示切換機能
75 移動表示機能
76 移動表示切換機能
101 表示内容
102,102b,102c,300,402b,403c,404d オブジェクト
100 ペン
1
3 Sensor drive unit/Capacity
5 Touch
8 Drawing
Claims (7)
前記表示画面が予め特定された第1ユーザの位置に対して表示されるように制御する特定表示制御手段と、
前記第1ユーザの位置に対して表示された第1のオブジェクトの表示情報を記憶する記憶手段と、
前記第1ユーザと前記表示画面を共有する異なる位置の第2ユーザによるタッチ入力を検出する入力検出手段と、
前記第2ユーザによりタッチ入力された第2のオブジェクトを、前記第2ユーザの位置に対して表示させるユーザ表示制御手段と、
前記第2のオブジェクトに対する移動操作が検出された際、前記第2のオブジェクトを、前記第1ユーザの位置に対して表示されている第1のオブジェクトの表示情報に基づき調整し、前記第1のオブジェクトに追加した状態で表示させる移動表示制御手段と、
を備えることを特徴とする表示装置。 In a display device having a display screen for displaying an object,
Specific display control means for controlling the display screen to be displayed at the position of the first user specified in advance;
Storage means for storing display information of the first object displayed with respect to the position of the first user ;
Input detection means for detecting a touch input by a second user at a different position sharing the display screen with the first user ;
User display control means for displaying the second object touch-input by the second user with respect to the position of the second user,
When moving operation to the second object is detected, the second object, based on said display information of the first object displayed adjusted relative to the first user position, the first Moving display control means to be displayed in the state of being added to the object,
A display device comprising:
前記移動表示制御手段は、前記第2のオブジェクトの表示方向が前記第1のオブジェクトの表示方向と異なる場合、前記第2のオブジェクトを、前記第1のオブジェクトの表示方向と同じ向きに調整し、前記第1のオブジェクトに追加した状態で表示することを特徴とする請求項1に記載の表示装置。 The storage means stores, as the display information, display directions of the first object and the second object ,
When the display direction of the second object is different from the display direction of the first object, the movement display control means adjusts the second object to the same direction as the display direction of the first object, The display device according to claim 1, wherein the display is performed in a state of being added to the first object.
前記移動表示制御手段は、前記第2のオブジェクトの表示サイズが前記第1のオブジェクトの表示サイズと異なる場合、前記第2のオブジェクトを、前記第1のオブジェクトの表示サイズと同じサイズに調整し、前記第1のオブジェクト追加した状態で表示することを特徴とする請求項1または2に記載の表示装置。 The storage means further stores, as the display information, display sizes of the first object and the second object ,
When the display size of the second object is different from the display size of the first object, the movement display control means adjusts the second object to the same size as the display size of the first object, The display device according to claim 1 , wherein the display is performed in a state where the first object is added .
前記ペン先による入力および前記手つきによる入力があり、前記ペン先による入力および前記手つきによる入力が所定範囲内の領域に存在するか否かを判断し、前記ペン先による入力および前記手つきによる入力が所定範囲内の領域に存在すると判断した場合、同一のユーザによる入力であると判断する第2の入力判断手段と、
を更に備えることを特徴とする請求項4に記載の表示装置。 A first input determination means for determining whether the input is made by a pen tip or an input with respect to the plurality of input information;
There is an input by the pen tip and an input by the touch, it is determined whether the input by the pen tip and the input by the touch exist in an area within a predetermined range, and the input by the pen tip and the input by the touch are performed. Second input determining means for determining that the input is made by the same user when it is determined that the input is within the predetermined range.
The display device according to claim 4 , further comprising:
前記表示画面が予め特定された第1ユーザの位置に対して表示されるように制御する特定表示制御ステップと、
前記第1ユーザの位置に対して表示された第1のオブジェクトの表示情報を記憶する記憶ステップと、
前記第1ユーザと前記表示画面を共有する異なる位置の第2ユーザによるタッチ入力を検出する入力検出ステップと、
前記第2ユーザによりタッチ入力された第2のオブジェクトを、前記第2ユーザの位置に対して表示させるユーザ表示制御ステップと、
前記第2のオブジェクトに対する移動操作が検出された際、前記第2のオブジェクトを、前記表示画面の第1ユーザの位置に対して表示されている第1のオブジェクトの表示情報に基づき調整し、前記第1のオブジェクトに追加した状態で表示させる移動表示制御ステップと、
を実現させることを特徴としたプログラム。 In a computer mounted on a display device having a display screen for displaying an object,
A specific display control step of controlling the display screen to be displayed at the position of the first user specified in advance;
A storage step of storing display information of the first object displayed with respect to the position of the first user ;
An input detection step of detecting a touch input by a second user at a different position sharing the display screen with the first user ;
A user display control step of displaying a second object touch-input by the second user with respect to the position of the second user;
When a moving operation for the second object is detected, the second object is adjusted based on display information of the first object displayed with respect to the position of the first user on the display screen, A moving display control step of displaying the added state to the first object,
A program characterized by realizing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019029245A JP6738450B2 (en) | 2019-02-21 | 2019-02-21 | Display device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019029245A JP6738450B2 (en) | 2019-02-21 | 2019-02-21 | Display device and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017161281A Division JP6487506B2 (en) | 2017-08-24 | 2017-08-24 | Input display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019117639A JP2019117639A (en) | 2019-07-18 |
JP6738450B2 true JP6738450B2 (en) | 2020-08-12 |
Family
ID=67305378
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019029245A Active JP6738450B2 (en) | 2019-02-21 | 2019-02-21 | Display device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6738450B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3758866B2 (en) * | 1998-12-01 | 2006-03-22 | 富士ゼロックス株式会社 | Coordinate input device |
JP2011113128A (en) * | 2009-11-24 | 2011-06-09 | Sharp Corp | Pen tablet input device and input method using the same |
JP5595312B2 (en) * | 2011-03-15 | 2014-09-24 | 株式会社Nttドコモ | Display device, display device control method, and program |
JP5661726B2 (en) * | 2011-12-15 | 2015-01-28 | 株式会社東芝 | Information processing apparatus and display program |
-
2019
- 2019-02-21 JP JP2019029245A patent/JP6738450B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019117639A (en) | 2019-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9519371B2 (en) | Display device and control method therefor | |
JP4087879B2 (en) | Touch panel character recognition method and character input method | |
EP2461237B1 (en) | Portable display device, control method for the same, program for the same, and storage medium for the same | |
JPH0969037A (en) | Data processor | |
JPH0876926A (en) | Picture display device | |
JPH11154074A (en) | Scroll controller | |
JP2015138360A (en) | System, control program, and control method for object manipulation | |
JP2014016519A (en) | Display device | |
JPH0876927A (en) | Information processor | |
JP2010218286A (en) | Information processor, program, and display method | |
JP6487506B2 (en) | Input display device | |
JP6199639B2 (en) | Table type input display device | |
JP6738450B2 (en) | Display device and program | |
JP7247554B2 (en) | Display device and display method | |
JP2010002990A (en) | Character input device and program | |
JP6622837B2 (en) | Input display device and input display method | |
JPS63217393A (en) | Pointer display | |
JPH11203038A (en) | Portable terminal | |
JP6797270B2 (en) | Input display device and control method | |
JPH09237175A (en) | Scroll controller | |
JP2019160090A (en) | Portable terminal device and display control method for portable terminal device | |
JP2019160091A (en) | Portable terminal device and display control method for portable terminal device | |
JPH0380296A (en) | Screen enlarging method for image display device | |
JP2003296029A (en) | Input device | |
JPH06202800A (en) | Information processor of pen input system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190221 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190821 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200717 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6738450 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |