JP2008033844A - Display device, control method and program - Google Patents

Display device, control method and program Download PDF

Info

Publication number
JP2008033844A
JP2008033844A JP2006209273A JP2006209273A JP2008033844A JP 2008033844 A JP2008033844 A JP 2008033844A JP 2006209273 A JP2006209273 A JP 2006209273A JP 2006209273 A JP2006209273 A JP 2006209273A JP 2008033844 A JP2008033844 A JP 2008033844A
Authority
JP
Japan
Prior art keywords
keyboard
input device
display
file
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006209273A
Other languages
Japanese (ja)
Inventor
Koichi Sugiyama
晃一 杉山
Kuniyoshi Maruyama
晋由 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2006209273A priority Critical patent/JP2008033844A/en
Publication of JP2008033844A publication Critical patent/JP2008033844A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily display and rewrite/update information associated to an input device placed on a display part. <P>SOLUTION: A CPU 6 decides whether a keyboard is placed on a screen or not, and performs control to display a file associated to the keyboard decided to be placed on the screen. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、表示装置、制御方法およびプログラムに関し、たとえばテーブルの表面部に画像を表示させる技術などに好適に適用される。   The present invention relates to a display device, a control method, and a program, and is suitably applied to, for example, a technique for displaying an image on a surface portion of a table.

本発明において、「関連付ける」とは、入力装置によって情報を書き換え・更新可能な状態にすることと同義である。   In the present invention, “associating” is synonymous with making information in a state where it can be rewritten and updated by the input device.

入力装置として、機器自体に内蔵されたもの、ケーブルで電気的にかつ機械的に接続されたもの、ワイヤレス通信などを用いて接続されたものが実用に供されている。従来の入力装置として、ボード上に載置された部品に標記された文字、記号などを自動的に入力する入力装置(特許文献1参照)、キーボードのボタンそれぞれにバーコードを付け、ボタン位置を自由に置換えても入力可能なキーボード(特許文献2参照)、入力装置とコマンドとを対応付けておき、予め定める道具の位置、動きを検出して予め登録された機能を実行する装置(特許文献3参照)などがそれぞれ開示されている。   As an input device, a device built in the device itself, a device electrically and mechanically connected by a cable, or a device connected using wireless communication or the like are put into practical use. As a conventional input device, an input device that automatically inputs characters, symbols, and the like marked on components placed on the board (see Patent Document 1), a barcode is attached to each button of the keyboard, and the button position is determined. Keyboard that can be input even if it is freely replaced (see Patent Document 2), device that associates an input device with a command, detects the position and movement of a predetermined tool, and executes a pre-registered function (Patent Document) 3) and the like.

特開昭61−46511号公報JP 61-46511 A 特開平3−220616号公報JP-A-3-220616 特開平5−224853号公報Japanese Patent Laid-Open No. 5-224853

前述の機器自体に内蔵した入力装置では、入力装置自体を取り替えることが困難であり、汎用性に欠ける。ケーブルで接続する入力装置では、そのケーブル自体のとりまわしが困難であり、入力装置の使用範囲が規制されるなどの問題もある。ワイヤレス通信などを用いて接続された入力装置では、該入力装置に設けられる電池の寿命が低減する問題がある。前記公報に記載の従来の入力装置では、該入力装置とアプリケーションとを対応付けることができない。   In the input device built in the above-mentioned device itself, it is difficult to replace the input device itself and lacks versatility. In an input device connected by a cable, it is difficult to route the cable itself, and there is a problem that the range of use of the input device is restricted. An input device connected using wireless communication or the like has a problem that the life of a battery provided in the input device is reduced. In the conventional input device described in the publication, the input device cannot be associated with an application.

本発明の目的は、表示部に載置可能な入力装置に関連付けられる情報を、簡単に表示させて書き換え・更新可能にすることができる表示装置、制御方法およびプログラムを提供することである。   An object of the present invention is to provide a display device, a control method, and a program capable of easily displaying and rewriting / updating information associated with an input device that can be placed on a display unit.

本発明は、入力装置と情報とを対応付けて記憶する記憶手段と、
当該表示装置の表示部上に載置される入力装置を認識する認識手段と、
前記記憶手段に基づいて、前記認識された入力装置に対応する情報を表示部に表示する表示手段と、
前記認識された入力装置からの入力に応じて、該入力装置に対応する前記記憶手段に記憶された情報を更新する制御手段と、
を備えることを特徴とする表示装置である。
The present invention comprises a storage means for storing an input device and information in association with each other;
Recognition means for recognizing an input device placed on the display unit of the display device;
Display means for displaying information corresponding to the recognized input device on a display unit based on the storage means;
Control means for updating information stored in the storage means corresponding to the input device in response to an input from the recognized input device;
It is provided with the following.

また本発明は、前記認識手段は複数の入力装置を認識し、
前記表示手段は前記認識手段が認識した入力装置毎に対応する情報を表示することを特徴とする。
In the present invention, the recognition means recognizes a plurality of input devices,
The display means displays information corresponding to each input device recognized by the recognition means.

また本発明は、前記認識手段が認識した複数の入力装置が同一の情報に対応付けられる場合は、前記表示手段は該情報を単数表示し、
前記複数の入力装置のうちいずれか一つを選択する選択手段をさらに備え、
前記制御手段は、前記選択された入力装置からの入力に応じて該情報を更新することを特徴とする。
In the present invention, when a plurality of input devices recognized by the recognition unit are associated with the same information, the display unit displays the information in a singular manner,
A selection means for selecting any one of the plurality of input devices;
The control means updates the information in accordance with an input from the selected input device.

また本発明は、前記認識手段はさらに入力装置の表示部上における載置位置を認識し、
前記表示手段はさらに前記選択手段により選択された入力装置の載置位置に基づいて対応する情報の表示レイアウトを切替えることを特徴とする。
In the present invention, the recognition means further recognizes a placement position on the display unit of the input device,
The display means further switches the display layout of the corresponding information based on the mounting position of the input device selected by the selection means.

また本発明は、入力装置と情報とを対応付けて記憶する工程と、
表示装置の表示部上に載置される入力装置を認識する工程と、
前記記憶する工程に基づいて、前記認識された入力装置に対応する情報を表示部に表示する工程と、
前記認識された入力装置からの入力に応じて、該入力装置に対応する記憶された情報を更新する工程と、
を有することを特徴とする制御方法である。
According to another aspect of the present invention, there is provided a process of storing an input device and information in association with each other;
Recognizing an input device placed on the display unit of the display device;
Displaying information corresponding to the recognized input device on a display unit based on the storing step;
Updating stored information corresponding to the input device in response to an input from the recognized input device;
It is the control method characterized by having.

また本発明は、コンピュータに、前記表示装置の機能を実行させることを特徴とするプログラムである。   The present invention is a program that causes a computer to execute the function of the display device.

本発明によれば、認識手段は、表示部上に載置される入力装置を認識する。記憶手段には、入力装置と情報とが対応付けて記憶されている。制御手段は、認識手段で認識された入力装置からの入力に応じて、該入力装置に対応する記憶手段に記憶された情報を更新する。このように入力装置を表示部上に載置するだけの簡単な操作で、前記情報を表示部に表示させ、該情報を書き換え・更新することができる。従来技術のように、入力装置をケーブルなどで電気的にかつ機械的に接続する手間を省略できる。したがって本表示装置によれば、情報の入出力を簡単にかつ遅滞なく実行することができる。   According to the present invention, the recognition unit recognizes the input device placed on the display unit. The storage means stores an input device and information in association with each other. The control means updates the information stored in the storage means corresponding to the input device according to the input from the input device recognized by the recognition means. As described above, the information can be displayed on the display unit, and the information can be rewritten / updated by a simple operation of simply placing the input device on the display unit. As in the prior art, the trouble of electrically and mechanically connecting the input device with a cable or the like can be omitted. Therefore, according to this display device, input / output of information can be executed easily and without delay.

また本発明によれば、表示手段は、入力装置毎に対応する情報を表示することができるので、複数の入力装置に対する汎用性を高めることができる。しかもこれら複数の入力装置によって、並行して複数の情報を書き換え・更新することが可能となる。このように表示装置の利便性を高めることができる。   Further, according to the present invention, since the display means can display information corresponding to each input device, versatility with respect to a plurality of input devices can be enhanced. Moreover, a plurality of information can be rewritten / updated in parallel by the plurality of input devices. Thus, the convenience of the display device can be improved.

また本発明によれば、認識した複数の入力装置が同一の情報に対応付けられる場合は、表示手段は該情報を単数表示する。選択手段によって前記複数の入力装置のうちいずれか一つが選択されると、制御手段は、前記選択された入力装置からの入力に応じて該情報を更新する。前記選択手段は、例えば、複数ある入力装置のいずれが更新を行なっても良いかを利用者が選択指示する方法をとっても良いし、あるいは、入力装置を表示装置の表示部に載置した順番で最も早いものが優先的に該情報の更新を行なえるよう、割当てるようにしても良い。いずれの場合も、選択されていない入力装置からは、該情報は更新されない。いわゆる共有違反を未然に避けることができる。   Further, according to the present invention, when a plurality of recognized input devices are associated with the same information, the display means displays the information in a single form. When any one of the plurality of input devices is selected by the selection unit, the control unit updates the information according to the input from the selected input device. For example, the selection means may take a method in which the user selects and instructs which of a plurality of input devices may be updated, or in the order in which the input devices are placed on the display unit of the display device. Allocation may be performed so that the earliest one can preferentially update the information. In any case, the information is not updated from an unselected input device. So-called sharing violations can be avoided.

また本発明によれば、表示手段は、前記選択手段により選択された入力装置の載置位置に基づいて、対応する情報を表示する。使用者が何ら操作することなく、前記入力装置の載置位置に基づいて、対応する情報の表示レイアウト、すなわち、表示位置、表示サイズ、表示の向きを切替えることができるので、内容を見易くすることができ、当該入力装置による操作性を向上させることができる。   According to the invention, the display means displays corresponding information based on the placement position of the input device selected by the selection means. The display layout of the corresponding information, that is, the display position, the display size, and the display direction can be switched based on the mounting position of the input device without any operation by the user, so that the contents can be easily viewed. And the operability of the input device can be improved.

また本発明によれば、記憶工程において、入力装置と情報とを対応付けて記憶する。認識工程において、表示部上に載置される入力装置を認識する。表示工程において、前記記憶工程に基づき、前記認識された入力装置に対応する情報を表示部に表示する。情報を更新する工程において、前記認識された入力装置からの入力に応じて、当該入力装置に対応する記憶された情報を更新する。以上の工程を有する制御方法を用いることにより、入力装置を表示部上に載置するだけの簡単な操作で、対応する情報を表示部に表示し、書き換え・更新することができる。したがって本制御方法によれば、情報の入出力を簡単にかつ遅滞なく実行することができ、使用者の利便性を向上することができる。   According to the invention, in the storing step, the input device and the information are stored in association with each other. In the recognition step, the input device placed on the display unit is recognized. In the display step, information corresponding to the recognized input device is displayed on the display unit based on the storage step. In the step of updating the information, the stored information corresponding to the input device is updated in accordance with the input from the recognized input device. By using the control method having the above steps, the corresponding information can be displayed on the display unit and rewritten / updated by a simple operation of simply placing the input device on the display unit. Therefore, according to this control method, input / output of information can be executed easily and without delay, and the convenience for the user can be improved.

また本発明によれば、コンピュータに表示装置の機能を実行させることができ、表示部に載置された入力装置に対応付けられた情報を、正確にかつ確実に前記表示部に表示させることができる。   In addition, according to the present invention, it is possible to cause the computer to execute the function of the display device, and to display information associated with the input device placed on the display unit accurately and reliably on the display unit. it can.

以下、図面を参照しながら本発明を実施するための形態を、複数の形態について説明する。以下の説明においては、各形態で先行する形態で説明している事項に対応している部分には同一の参照符を付し、重複する説明を略する場合がある。構成の一部のみを説明している場合、構成の他の部分は、先行して説明している形態と同様とする。実施の各形態で具体的に説明している部分の組合せばかりではなく、特に組合せに支障が生じなければ、実施の形態同士を部分的に組合せることも可能である。本実施形態は、机形の表面部に画像を表示させる表示装置に適用される。以下の説明は、後述する情報と入力装置とを関連付ける制御方法についての説明をも含む。   Hereinafter, a plurality of embodiments for carrying out the present invention will be described with reference to the drawings. In the following description, the same reference numerals are given to portions corresponding to the matters described in the preceding forms in each embodiment, and overlapping description may be omitted. When only a part of the configuration is described, the other parts of the configuration are the same as those described in the preceding section. Not only the combination of the parts specifically described in each embodiment, but also the embodiments can be partially combined as long as the combination does not hinder. The present embodiment is applied to a display device that displays an image on a surface portion of a desk shape. The following description also includes a description of a control method for associating information and an input device, which will be described later.

図1は、本発明の実施形態に係る表示装置1の電気的構成を表すブロック図である。表示装置1は、表示装置本体と制御系とを有する。前記表示装置本体は、液晶ディスプレイ2(Liquid Crystal Display:略称LCD)、センサー3、内蔵カメラ4および光源であるバックライト5を有する。前記制御系は、制御手段としての中央演算処理装置6(
Central Processing Unit:略称CPU)、センサー入力部7、周辺機器入力部8、表示制御部9、主記憶部10、補助記憶部11、通信部12およびバス13を有する。制御系のうちCPU6、主記憶部10、補助記憶部11およびバス13は、たとえばマイクロコンピュータによって実現される。CPU6は、表示制御手段および認識手段としての機能をも有する。
FIG. 1 is a block diagram showing an electrical configuration of a display device 1 according to an embodiment of the present invention. The display device 1 includes a display device body and a control system. The display device main body includes a liquid crystal display 2 (abbreviated as LCD), a sensor 3, a built-in camera 4, and a backlight 5 as a light source. The control system is a central processing unit 6 (
Central Processing Unit: CPU), sensor input unit 7, peripheral device input unit 8, display control unit 9, main storage unit 10, auxiliary storage unit 11, communication unit 12, and bus 13. Of the control system, the CPU 6, the main storage unit 10, the auxiliary storage unit 11, and the bus 13 are realized by, for example, a microcomputer. The CPU 6 also has functions as display control means and recognition means.

表示手段である前記LCD2はその表示部に、ファイルなどの情報を画像として表示する。センサー3は、表示部いわゆる画面上に載置される物体、文字およびダグの少なくともいずれか一つのパターンを検出するものである。センサー3は、TFT(Thin
Film Transistor)アレイを用いたイメージセンサー、赤外線センサー、デジタイザー、タブレットなどによって実現される。低解像度のセンサーと高解像度のセンサーとを別々に構成してもよいし、一体形で構成してもよい。内蔵カメラ4は、表示部に載置される物体、文字およびタグの少なくともいずれか一つのパターンを検出する。この内蔵カメラ4は、前記センサー3と一体形で構成してもよい。バックライト5は、液晶表示を行うための光源となる。光源としてはこのバックライト5に限らず、LCDが反射形で構成される場合は、フロントライト方式でもよい。
The LCD 2 which is a display means displays information such as a file as an image on the display unit. The sensor 3 detects a pattern of at least one of an object, a character, and a doug placed on a display unit so-called screen. Sensor 3 is TFT (Thin
Realized by image sensors, infrared sensors, digitizers, tablets, etc. using a film transistor array. The low resolution sensor and the high resolution sensor may be configured separately, or may be configured in an integrated manner. The built-in camera 4 detects at least one pattern of an object, a character, and a tag placed on the display unit. The built-in camera 4 may be integrated with the sensor 3. The backlight 5 serves as a light source for performing liquid crystal display. The light source is not limited to the backlight 5 and may be a front light system when the LCD is configured in a reflective form.

制御系のうちCPU6は、各ブロックの制御を行う。センサー入力部7には、センサー3および内蔵カメラ4が電気的に接続され、このセンサー入力部7は、センサー3および内蔵カメラ4からの出力を変換しデータ化する。センサー3、内蔵カメラ4およびセンサー入力部7が、画像読取手段に相当する。周辺機器入力部8には、キーボード、ポインティングデバイス、外部カメラ、マイクなどがそれぞれ電気的に接続可能に構成されている。表示制御部9には、LCD2、バックライト5が電気的に接続されている。表示制御部9は、CPU6からの出力を受け、LCD2、バックライト5の制御を行う。主記憶部10には、動作に必要なプログラム(後述する)および情報が記憶されている。補助記憶部11には、補助的に動作に必要な情報が記憶されている。通信部12は外部の機器と通信を行う。CPU6は、これらセンサー入力部7、周辺機器入力部8、表示制御部9、主記憶部10、補助記憶部11、通信部12にバス13を介して電気的に接続されている。   Of the control system, the CPU 6 controls each block. The sensor 3 and the built-in camera 4 are electrically connected to the sensor input unit 7, and the sensor input unit 7 converts the output from the sensor 3 and the built-in camera 4 into data. The sensor 3, the built-in camera 4, and the sensor input unit 7 correspond to image reading means. The peripheral device input unit 8 is configured such that a keyboard, a pointing device, an external camera, a microphone, and the like can be electrically connected to each other. An LCD 2 and a backlight 5 are electrically connected to the display control unit 9. The display control unit 9 receives the output from the CPU 6 and controls the LCD 2 and the backlight 5. The main memory 10 stores programs (described later) and information necessary for operation. The auxiliary storage unit 11 stores information necessary for the operation in an auxiliary manner. The communication unit 12 communicates with an external device. The CPU 6 is electrically connected to the sensor input unit 7, peripheral device input unit 8, display control unit 9, main storage unit 10, auxiliary storage unit 11, and communication unit 12 via a bus 13.

図2は、主記憶部10に格納されるソフトウェアの構成を表す図である。本プログラム14によって、位置認識処理、方向認識処理、タグ認識処理、形状認識処理、文字認識処理、情報検索処理、リンク生成処理および画像比較処理を実行可能になっている。位置認識処理では、センサー3または内蔵カメラ4で検知された画像情報の位置を認識する。また、LCD2上に表示する画像の位置情報も併せて識別する。方向認識処理では、センサー3または内蔵カメラ4で検知された画像情報の方向を認識する。タグ認識処理では、センサー3または内蔵カメラ4で検知されたタグ情報を認識する。   FIG. 2 is a diagram illustrating a configuration of software stored in the main storage unit 10. With this program 14, position recognition processing, direction recognition processing, tag recognition processing, shape recognition processing, character recognition processing, information search processing, link generation processing, and image comparison processing can be executed. In the position recognition process, the position of the image information detected by the sensor 3 or the built-in camera 4 is recognized. Further, the position information of the image displayed on the LCD 2 is also identified. In the direction recognition process, the direction of the image information detected by the sensor 3 or the built-in camera 4 is recognized. In the tag recognition process, tag information detected by the sensor 3 or the built-in camera 4 is recognized.

形状認識処理では、センサー3または内蔵カメラ4で検知された画像の形状を認識する。文字認識処理では、センサー3または内蔵カメラ4で検知された文字情報を認識する。情報検索処理では、主記憶部10、補助記憶部11、または図示外の外部記録装置内の情報を検索する。リンク生成処理では、センサー3または内蔵カメラ4で検知された画像情報と、内部もしくは外部のファイルデータやコマンドデータとを関連付ける。画像比較処理では、時系列の画像データの比較を行うようになっている。本実施形態において、これら複数の処理のうち前記画像比較処理を省略してもよい。   In the shape recognition process, the shape of the image detected by the sensor 3 or the built-in camera 4 is recognized. In the character recognition process, character information detected by the sensor 3 or the built-in camera 4 is recognized. In the information search process, information in the main storage unit 10, the auxiliary storage unit 11, or an external recording device (not shown) is searched. In the link generation process, image information detected by the sensor 3 or the built-in camera 4 is associated with internal or external file data or command data. In the image comparison process, time-series image data is compared. In the present embodiment, the image comparison process may be omitted from the plurality of processes.

図3は、本発明の第1の実施形態に係る関連付け処理を表すフローチャートである。図4は、第1の実施形態に係る登録処理(1)のサブルーチンを表すフローチャートである。図5は、ファイルに、所望のキーボード15を関連付ける形態を表す表示装置1の平面図である。特に記載のない限り本フローの制御主体はCPU6である。たとえば表示装置1の図示外の主電源をオフからオンにする条件で本フローが開始する。本フロー開始後ステップa1に移行し、次工程で物体があるか否かを判断すべく、当該表示装置1の表示部としての画面上の状態をセンサー3でセンシングする。次にステップa2に移行し、画面上に物体があるか否かを判断する。つまり前記センシングの結果、画面上に物体があると判断されると、次のステップa3に移行し、画面上に物体がないと判断されると、本処理を終了する。   FIG. 3 is a flowchart showing the association process according to the first embodiment of the present invention. FIG. 4 is a flowchart showing a subroutine of the registration process (1) according to the first embodiment. FIG. 5 is a plan view of the display device 1 showing a form in which a desired keyboard 15 is associated with a file. Unless otherwise specified, the control entity of this flow is the CPU 6. For example, this flow starts under the condition that the main power source (not shown) of the display device 1 is turned on from off. After starting this flow, the process proceeds to step a1, and the sensor 3 senses the state on the screen as the display unit of the display device 1 in order to determine whether or not there is an object in the next process. Next, the process proceeds to step a2, and it is determined whether or not there is an object on the screen. That is, as a result of the sensing, if it is determined that there is an object on the screen, the process proceeds to the next step a3, and if it is determined that there is no object on the screen, this process is terminated.

ステップa3において、前述の位置認識処理によって物体の位置を認識する。次にステップa4に移行して、表示部に表示される画像(対象ファイル)位置または画像位置近傍に、前記物体があるか否かを判断する。ファイル表示位置またはその近傍に物体があると判断されると、次のステップa5に移行し、ファイル表示位置またはその近傍に物体がないと判断されると、本処理を終了する。ステップa5において、画面上の物体近傍に”登録”選択メニュー画面16を表示する(図5参照)。次にステップa6に移行し、”登録”選択メニュー画面16で”登録”が選択されたか否かを判断する。”登録”が選択された場合次のステップa7に移行し、選択されなかった場合には本処理を終了する。   In step a3, the position of the object is recognized by the position recognition process described above. Next, the process proceeds to step a4, and it is determined whether or not the object is present at or near the image (target file) position displayed on the display unit. When it is determined that there is an object at or near the file display position, the process proceeds to the next step a5, and when it is determined that there is no object at or near the file display position, this process is terminated. In step a5, the “registration” selection menu screen 16 is displayed near the object on the screen (see FIG. 5). Next, the process proceeds to step a6, and it is determined whether or not “registration” is selected on the “registration” selection menu screen 16. When “Register” is selected, the process proceeds to the next step a7, and when it is not selected, this process is terminated.

ステップa7では、後述する登録処理のサブルーチンへ移行する。次にステップa8に移行して、登録をしたいファイル全てに対して登録作業を終えたか否かを判断する。登録をしたいファイル全てに対して登録作業を終えた場合は、本処理を終了する。登録を希望するいずれかのファイルの登録作業が終えていないとの判断で、ステップa5に戻る。   In step a7, the process proceeds to a registration process subroutine which will be described later. Next, the process proceeds to step a8, where it is determined whether or not the registration work has been completed for all the files to be registered. When the registration work has been completed for all the files to be registered, this process ends. If it is determined that the registration work for any file that is desired to be registered has not been completed, the process returns to step a5.

前記ステップa7に移行する条件で図4に示す登録処理が開始する。本登録処理開始後ステップa70に移行して、登録対象のファイルを選択する。次にステップa71に移行して、キーボード識別処理によって、画面上に載置された物体がキーボード15であるか否かを判別する。たとえばキーボード15毎に付与される識別情報として、特定形状、マーク、バーコード、透かし、タグおよび形状などの少なくともいずれか一つによって、キーボード識別処理を実行し得る。   The registration process shown in FIG. 4 starts under the condition for shifting to step a7. After the start of the registration process, the process proceeds to step a70 to select a file to be registered. Next, the process proceeds to step a71, and it is determined whether or not the object placed on the screen is the keyboard 15 by keyboard identification processing. For example, keyboard identification processing can be executed by using at least one of a specific shape, a mark, a barcode, a watermark, a tag, and a shape as identification information given to each keyboard 15.

次にステップa72に移行して、画面上の物体がキーボード15か否かを判断する。ここで物体を、登録を希望するキーボード15として判別した場合は、前述のリンク生成処理によって、キーボード15とファイルとの関連付けを行う(ステップa73)。その後本登録処理を終了する。物体をキーボード15として判別しなかった場合(ステップa72:NO)は、本登録処理を終了する。本実施形態では、物体をキーボード15として判別しなかった場合、本登録処理を終了しているが、たとえば前述の形状認識処理によって前記物体形状を認識し、リンク生成処理によって物体形状とファイルとの関連付けを行ってもよい。以上説明した図3〜図5に示す関連付け処理によれば、関連付けられたキーボード15によって、対象ファイルの編集を行うことが可能となる。   Next, the process proceeds to step a72, where it is determined whether or not the object on the screen is the keyboard 15. If it is determined that the object is the keyboard 15 that is desired to be registered, the keyboard 15 is associated with the file by the link generation process described above (step a73). Thereafter, the main registration process is terminated. If the object is not identified as the keyboard 15 (step a72: NO), the registration process is terminated. In this embodiment, when the object is not determined as the keyboard 15, the main registration process ends. For example, the object shape is recognized by the shape recognition process described above, and the object shape and the file are determined by the link generation process. Association may be performed. According to the association processing shown in FIGS. 3 to 5 described above, the target file can be edited by the associated keyboard 15.

図6は、本発明の第2の実施形態に係る関連付け処理を表すフローチャートである。図7は、第2の実施形態に係る登録処理(2)のサブルーチンを表すフローチャートである。図8は、キーボード15を登録エリアAtに載置して、ファイルに前記キーボード15を関連付ける形態を表す表示装置1の平面図である。図9は、キーボード15に、所望のファイルを関連付ける形態を表す表示装置1の平面図である。特に記載のない限り本フローの制御主体はCPU6である。たとえば表示装置1の主電源をオフからオンにする条件で本フローが開始する。本フロー開始後ステップb1に移行し、画面上に”登録”選択メニュー画面16を表示する。次にステップb2に移行し、”登録”選択メニュー画面16で”登録”が選択されたか否かを判断する。”登録”が選択された場合次のステップb3に移行し、表示部としての画面上の状態をセンサー3でセンシングする。次にステップb4に移行し、前述の位置認識処理によって物体の位置を認識する。   FIG. 6 is a flowchart showing the association process according to the second embodiment of the present invention. FIG. 7 is a flowchart showing a subroutine of the registration process (2) according to the second embodiment. FIG. 8 is a plan view of the display device 1 showing a form in which the keyboard 15 is placed in the registration area At and the keyboard 15 is associated with a file. FIG. 9 is a plan view of the display device 1 showing a form in which a desired file is associated with the keyboard 15. Unless otherwise specified, the control entity of this flow is the CPU 6. For example, this flow starts under the condition that the main power supply of the display device 1 is turned on. After the start of this flow, the process proceeds to step b1, and the “registration” selection menu screen 16 is displayed on the screen. Next, the process proceeds to step b2, and it is determined whether or not “registration” is selected on the “registration” selection menu screen 16. When "Register" is selected, the process proceeds to the next step b3, and the state on the screen as the display unit is sensed by the sensor 3. Next, the process proceeds to step b4, where the position of the object is recognized by the position recognition process described above.

次にステップb5に移行し、物体が、所定の場所、換言すれば予め定める登録エリアAtにあるか否かを判断する。物体が前記登録エリアAtにあると判断されると、次のステップb6に移行し、物体が前記登録エリアAtにないと判断されると本処理を終了する。ステップb6では、後述する登録処理のサブルーチンへ移行する。次にステップb7に移行して、登録終了か否かを判断する。登録終了したとの判断で、本処理を終了する。登録終了していないとの判断で、ステップb1に戻る。   Next, the process proceeds to step b5, and it is determined whether or not the object is in a predetermined place, in other words, in a predetermined registration area At. When it is determined that the object is in the registration area At, the process proceeds to the next step b6, and when it is determined that the object is not in the registration area At, the process is terminated. In step b6, the process proceeds to a registration process subroutine which will be described later. Next, the process proceeds to step b7, and it is determined whether or not registration is completed. If it is determined that the registration has been completed, the process is terminated. If it is determined that the registration has not ended, the process returns to step b1.

前記ステップb6に移行する条件で図7に示す登録処理を実行する。本登録処理開始後、ステップb60に移行して、キーボード識別処理によって、所定の場所いわゆる登録エリアAtにある物体が、キーボード15か否かを判別する。キーボード15毎に付与される識別情報として、特定形状、マーク、QRコード、バーコード、透かし、タグおよび形状などの少なくともいずれか一つによって、キーボード識別処理を実行し得る。次にステップb61に移行して、画面上の物体がキーボード15か否かを判断する。   The registration process shown in FIG. 7 is executed under the condition for shifting to step b6. After the start of the main registration process, the process proceeds to step b60, and it is determined whether or not the object in the predetermined place so-called registration area At is the keyboard 15 by the keyboard identification process. Keyboard identification processing can be executed by at least one of a specific shape, a mark, a QR code, a barcode, a watermark, a tag, and a shape as identification information given to each keyboard 15. Next, the process proceeds to step b61, where it is determined whether or not the object on the screen is the keyboard 15.

ここで物体を、登録を希望するキーボード15として判別した場合は、前述のリンク生成処理によって、キーボード15とファイルとの関連付けを行う(ステップb62)。その後本登録処理を終了する。物体をキーボード15として判別しなかった場合(ステップb61:No)は、本登録処理を終了する。本実施形態では、物体をキーボード15として判別しなかった場合、本登録処理を終了しているが、たとえば前述の形状認識処理によって前記物体形状を認識し、リンク生成処理によって物体形状とファイルとの関連付けを行ってもよい。以上説明した図6〜図8に示す関連付け処理によれば、関連付けられたキーボード15によって、対象ファイルの編集を行うことが可能となる。   If it is determined that the object is the keyboard 15 that is desired to be registered, the keyboard 15 is associated with the file by the link generation process described above (step b62). Thereafter, the main registration process is terminated. If the object is not identified as the keyboard 15 (step b61: No), the registration process is terminated. In this embodiment, when the object is not determined as the keyboard 15, the main registration process ends. For example, the object shape is recognized by the shape recognition process described above, and the object shape and the file are determined by the link generation process. Association may be performed. According to the association process shown in FIGS. 6 to 8 described above, the target file can be edited by the associated keyboard 15.

図10は、本発明の第3の実施形態に係り、キーボード15を載置すると、該キーボード15に関連付けられた情報を表示させる処理を表すフローチャートである。図11は、キーボード15に関連付けられたファイルを表示する形態を表す表示装置1の平面図である。特に記載のない限り本フローの制御主体はCPU6である。たとえば表示装置1の主電源をオフからオンにする条件で本フローが開始する。本フロー開始後ステップc1に移行し、次工程で物体があるか否かを判断すべく、画面上の状態をセンサー3でセンシングする。次にステップc2に移行し、画面上に物体があるか否かを判断する。つまり前記センシングの結果、画面上に物体があると判断されると、次のステップc3に移行し、画面上に物体がないと判断されると、本処理を終了する。   FIG. 10 is a flowchart showing processing for displaying information associated with the keyboard 15 when the keyboard 15 is placed according to the third embodiment of the present invention. FIG. 11 is a plan view of the display device 1 showing a form for displaying a file associated with the keyboard 15. Unless otherwise specified, the control entity of this flow is the CPU 6. For example, this flow starts under the condition that the main power supply of the display device 1 is turned on. After starting this flow, the process proceeds to step c1, and the state on the screen is sensed by the sensor 3 in order to determine whether or not there is an object in the next process. Next, the process proceeds to step c2, and it is determined whether or not there is an object on the screen. That is, if it is determined that there is an object on the screen as a result of the sensing, the process proceeds to the next step c3, and if it is determined that there is no object on the screen, this process is terminated.

ステップc3において、前述の位置認識処理によって物体の位置を認識する。次にステップc4に移行して、キーボード識別処理によって、画面上に載置された物体がキーボード15であるか否かを判別する。たとえばキーボード15毎に付与される識別情報として、特定形状、マーク、QRコード、バーコード、透かし、タグおよび形状などの少なくともいずれか一つによって、キーボード識別処理を実行し得る。次にステップc5に移行して、前述の情報検索処理によって、キーボード15と関連付けされたファイルを検索する。次のステップc6において、前記キーボード15と関連付けられたファイルがあると判断されると、次のステップc7に移行し、その関連付けられたファイルを画面に表示させる。その後本処理を終了する。ステップc6において、関連付けられたファイルなしと判断されると(ステップc6:No)、本処理を終了する。   In step c3, the position of the object is recognized by the position recognition process described above. Next, the process proceeds to step c4, where it is determined whether or not the object placed on the screen is the keyboard 15 by keyboard identification processing. For example, keyboard identification processing can be executed by using at least one of a specific shape, a mark, a QR code, a barcode, a watermark, a tag, and a shape as identification information given to each keyboard 15. Next, the process proceeds to step c5, where a file associated with the keyboard 15 is searched by the information search process described above. In the next step c6, if it is determined that there is a file associated with the keyboard 15, the process proceeds to the next step c7 to display the associated file on the screen. Thereafter, this process is terminated. If it is determined in step c6 that there is no associated file (step c6: No), this process ends.

図12は、キーボード15を除去すると、該キーボード15に関連付けられた情報を非表示にする処理を表すフローチャートである。本フロー開始後ステップd1に移行し、キーボードが画面上から除去されたか否かをモニタリングする。除去されたと判断された場合、次のステップd3へ移行し、除去されていないと判断された場合、本フロー開始時に戻る。ステップd3において、関連付けられたファイルを非表示にするか否かの問い合わせ処理を行う。この段階で使用者によって、たとえば「非表示」が承諾つまり選択されると、その信号が順次、センサー、センサー入力部、バスを介してCPUに伝達される。該CPUが非表示である旨確認すると、ステップd4に移行して、関連付けられたファイルを非表示にする。その後本処理を終了する。ステップd3で「非表示」が未承諾の場合(ステップd3:NO)、本処理を終了する。   FIG. 12 is a flowchart showing a process of removing information associated with the keyboard 15 when the keyboard 15 is removed. After starting this flow, the process proceeds to step d1, and it is monitored whether the keyboard is removed from the screen. If it is determined that it has been removed, the process proceeds to the next step d3. If it is determined that it has not been removed, the process returns to the start of this flow. In step d3, an inquiry process is performed as to whether or not to hide the associated file. At this stage, for example, when “non-display” is accepted or selected by the user, the signal is sequentially transmitted to the CPU via the sensor, the sensor input unit, and the bus. If it is confirmed that the CPU is not displayed, the process proceeds to step d4 to hide the associated file. Thereafter, this process is terminated. If “non-display” is unapproved in step d3 (step d3: NO), this process is terminated.

図13は、複数のキーボードのうち、いずれか一つのキーボードにファイルを関連付けるとともに他のキーボードとファイルとの関連付けを解除する処理を表すフローチャートである。図14は、一つのファイルと複数のキーボード15との関係を表す表示装置1の平面図であり、図14(a)は、いずれかのキーボード15を関連付ける前の状態を表す表示装置1の平面図、図14(b)は、前記キーボード15を関連付けた後の状態を表す表示装置1の平面図である。図15は、一つのキーボード15と複数のファイルとの関係を表す表示装置1の平面図であり、図15(a)はいずれかのファイルを関連付ける前の状態を表す表示装置1の平面図、図15(b)は前記ファイルを関連付けた後の状態を表す表示装置1の平面図である。   FIG. 13 is a flowchart showing a process of associating a file with any one of a plurality of keyboards and releasing the association between the other keyboard and the file. FIG. 14 is a plan view of the display device 1 showing the relationship between one file and a plurality of keyboards 15, and FIG. 14A is a plan view of the display device 1 showing a state before any of the keyboards 15 is associated. FIG. 14 and FIG. 14B are plan views of the display device 1 showing the state after the keyboard 15 is associated. FIG. 15 is a plan view of the display device 1 showing the relationship between one keyboard 15 and a plurality of files, and FIG. 15A is a plan view of the display device 1 showing a state before any file is associated, FIG. 15B is a plan view of the display device 1 showing a state after the files are associated with each other.

ステップc7において、関連付けられたファイルを画面に表示させた後、ステップc8に移行する。ここで画面に表示されるファイルが複数のキーボード15に関連付けられたファイル(いわゆる共有ファイル)であるか否かを判断する。共有ファイルであると判断されると、ステップc9に移行し、前記複数のキーボード15のうちいずれか一方のキーボード15に選択されたか否かを判断する。このとき図14(a)に示すように、画面上にはたとえば「どちらのキーボードを選択しますか?」などのメッセージ画像が表示され、フラッシングFLによってキーボード15を選択させる。   In step c7, the associated file is displayed on the screen, and then the process proceeds to step c8. Here, it is determined whether or not the file displayed on the screen is a file (so-called shared file) associated with a plurality of keyboards 15. If it is determined that the file is a shared file, the process proceeds to step c9 to determine whether any one of the plurality of keyboards 15 is selected. At this time, as shown in FIG. 14A, a message image such as “Which keyboard should be selected?” Is displayed on the screen, and the keyboard 15 is selected by the flushing FL.

前記ファイルに関連付けたいキーボード15が選択されると、ステップc10に移行し、選択されたキーボード15とファイルとを関連付け、他のキーボード15とファイルとの関連付けを解除する。また図14(b)に示すように、選択したキーボード15(P1)に合わせてファイルの向きと位置とが変わるようにファイル表示が制御される。その後本処理を終了する。ステップc8において、共有ファイルではないと判断されると、本処理を終了する。ステップc9において、ファイルに関連付けたいキーボード15が選択されていないと判断されると、ステップc9に再び戻る。ステップc9を含む当該プログラムが選択手段に相当する。   When the keyboard 15 to be associated with the file is selected, the process proceeds to step c10, where the selected keyboard 15 is associated with the file, and the association between the other keyboard 15 and the file is released. As shown in FIG. 14B, the file display is controlled so that the direction and position of the file change according to the selected keyboard 15 (P1). Thereafter, this process is terminated. If it is determined in step c8 that the file is not a shared file, this process is terminated. If it is determined in step c9 that the keyboard 15 to be associated with the file has not been selected, the process returns to step c9 again. The program including step c9 corresponds to selection means.

図15(a)に示すように、一つのキーボード15に関連付けられた複数のファイルがあると、画面上にはたとえば「どのファイルを編集しますか?」などのメッセージ画像17が表示され、フラッシングFLによってファイルを選択させる。図15(b)に示すように、選択したファイル(たとえばFile C)の向きおよび位置を、キーボード15に合わせて表示させる。未選択のファイル(たとえばFile AおよびB)は、画面の隅部(一箇所)に片付ける。よって選択されたファイルの作業性を向上させることができる。   As shown in FIG. 15A, when there are a plurality of files associated with one keyboard 15, a message image 17 such as "Which file do you want to edit?" The file is selected by FL. As shown in FIG. 15B, the orientation and position of the selected file (for example, File C) are displayed in accordance with the keyboard 15. Unselected files (for example, File A and B) are cleared at the corner (one place) of the screen. Therefore, the workability of the selected file can be improved.

図16は、装置識別情報18が付与され、各ボタンスイッチのオン・オフを通知可能なキーボード15Aの形態を表す図であり、図16(a)はキーボード15Aの正面図、図16(b)はキーボード15Aの背面図である。入力装置としてのキーボード15Aは、無線または有線にて、各操作キー毎に割当てられた各ボタンスイッチのオン、オフ(キー識別情報に相当)を周辺機器入力部8、バス13を介してCPU6に通知する。このキーボード15Aの背面には、図16(b)に示すように、当該キーボード15Aを識別する特定形状、マーク、QRコード、バーコードおよび埋め込みタグの少なくともいずれか一つ(装置の識別情報に相当)が設けられている。   FIG. 16 is a diagram showing a form of a keyboard 15A to which device identification information 18 is attached and which can notify on / off of each button switch. FIG. 16 (a) is a front view of the keyboard 15A, and FIG. 16 (b). These are rear views of the keyboard 15A. The keyboard 15A as an input device is connected to the CPU 6 via the peripheral device input unit 8 and the bus 13 to turn on / off (corresponding to key identification information) of each button switch assigned to each operation key wirelessly or by wire. Notice. On the back surface of the keyboard 15A, as shown in FIG. 16B, at least one of a specific shape, mark, QR code, bar code, and embedded tag for identifying the keyboard 15A (corresponding to device identification information) ) Is provided.

図17は、装置識別情報18が付与され、キーボードを画面上に表示する形態を表す図であり、図17(a)はキーボード15Bの正面図、図17(b)はキーボード15Bの背面図である。入力装置としての前記キーボード15Bの背面には、特定形状、マーク、QRコード、バーコード、タグおよび透かしなどの少なくともいずれか一つ(装置の識別情報に相当)が設けられている。このようなキーボード15Bを画面上に載置することにより、CPU6は別途ソフトウェアキーボードを画面上に表示するようにしてもよい。この場合には、キーボード15Bの形状を簡単化でき、入力装置自体の構造を簡単化することが可能となる。   FIG. 17 is a diagram showing a form in which the device identification information 18 is given and the keyboard is displayed on the screen. FIG. 17A is a front view of the keyboard 15B, and FIG. 17B is a rear view of the keyboard 15B. is there. On the back surface of the keyboard 15B as an input device, at least one of a specific shape, a mark, a QR code, a barcode, a tag, and a watermark (corresponding to device identification information) is provided. By placing such a keyboard 15B on the screen, the CPU 6 may separately display a software keyboard on the screen. In this case, the shape of the keyboard 15B can be simplified, and the structure of the input device itself can be simplified.

図18は、装置識別情報が付与され、各ボタン押下により入力されたか否かを判別する形態を表す図であり、図18(a)はキーボード15Cの正面図、図18(b)はキーボード15Cの背面図である。入力装置としての前記キーボード15Cの背面には、特定形状、マーク、QRコード、バーコード、タグおよび透かしなどの少なくともいずれか一つ(装置識別情報に相当)が設けられている。本キーボード15Cにおいて、透明な板もしくはボタン押下19によりパネル面にボタンのバーコードなどが接触してキー入力されたことがわかる構造になっていてもよい。   18A and 18B are diagrams illustrating a form in which device identification information is given and whether or not an input is made by pressing each button. FIG. 18A is a front view of the keyboard 15C, and FIG. 18B is a keyboard 15C. FIG. On the back surface of the keyboard 15C as an input device, at least one of a specific shape, a mark, a QR code, a bar code, a tag, a watermark, and the like (corresponding to device identification information) is provided. The keyboard 15C may have a structure in which a key is input by touching a bar code or the like on the panel surface by a transparent board or button press 19.

図19は、関連付けテーブルが保持される例を表す図である。キーボード(1)には、ファイルA、ファイルB、ファイルCが関連付けられている。キーボード(2)には、ファイルDが関連付けられている。キーボード(1)および(2)を当該表示装置1の画面上に載置したタイミングでファイルA、ファイルB、ファイルCおよびファイルDを、前記画面上に表示してもよい。キーボード(1)および(2)を当該表示装置の画面上から除去したタイミングでファイルA、ファイルB、ファイルCおよびファイルDを、前記画面上で非表示にしてもよい。   FIG. 19 is a diagram illustrating an example in which an association table is held. File A, file B, and file C are associated with the keyboard (1). A file D is associated with the keyboard (2). The file A, file B, file C, and file D may be displayed on the screen at the timing when the keyboards (1) and (2) are placed on the screen of the display device 1. File A, file B, file C, and file D may be hidden on the screen at the timing when the keyboards (1) and (2) are removed from the screen of the display device.

図20は、関連付けテーブルが都度作成される例を表す図である。表示装置1の画面上にファイルAが表示され、かつ画面上にはキーボードが載置されていない。この状態からファイルA上、ファイルAの近傍もしくは登録エリアにキーボード(1)を載置する。するとファイルAとキーボード(1)とが関連付けされる。その後、キーボード(1)を画面上から除去すると、ファイルAとキーボード(1)との関連付けが抹消される。キーボード(1)を画面上から除去したタイミングでファイルAを非表示にしてもよい。   FIG. 20 is a diagram illustrating an example in which an association table is created each time. The file A is displayed on the screen of the display device 1 and no keyboard is placed on the screen. From this state, the keyboard (1) is placed on the file A, in the vicinity of the file A or in the registration area. Then, the file A and the keyboard (1) are associated with each other. Thereafter, when the keyboard (1) is removed from the screen, the association between the file A and the keyboard (1) is deleted. The file A may be hidden at the timing when the keyboard (1) is removed from the screen.

以上説明した表示装置1によれば、制御手段としてのCPU6は、キーボード15の位置を認識したうえで、画面に表示されるファイルの位置ととの相対的な関係(図3ステップa4,図6ステップb5参照)に基づいて、キーボード15によってファイルを書き換え・更新可能な状態にするか否かを判断する。従来技術のように、入力装置をケーブルなどで電気的にかつ機械的に接続する手間を省略できる。このように入力装置としてのキーボード15と予め主記憶部10などに記憶されるファイルとの関連付けを簡単に行うことができ、操作性の向上を図ることができる。したがって本表示装置1によれば、ケーブルなどをとりまわす必要もなくなり、前記関連付けに要する時間短縮を図ることができる。   According to the display device 1 described above, the CPU 6 as the control means recognizes the position of the keyboard 15 and then makes a relative relationship with the position of the file displayed on the screen (steps a4 and FIG. 6 in FIG. 3). Based on step b5), it is determined whether or not the file can be rewritten / updated by the keyboard 15. As in the prior art, the trouble of electrically and mechanically connecting the input device with a cable or the like can be omitted. Thus, the keyboard 15 as the input device can be easily associated with the file stored in advance in the main storage unit 10 and the like, and the operability can be improved. Therefore, according to the present display device 1, it is not necessary to use a cable or the like, and the time required for the association can be reduced.

センサー3、内蔵カメラ4は、対象物であるキーボード15が画面上に載置されているか否かを検知する。CPU6は、その検知結果に基づいて前記キーボード15の位置を認識可能になっている。   The sensor 3 and the built-in camera 4 detect whether or not the keyboard 15 as an object is placed on the screen. The CPU 6 can recognize the position of the keyboard 15 based on the detection result.

本実施形態に係る制御方法によれば、キーボード15の位置を認識する工程と、画面に表示されるファイルの位置との相対的な関係に基づいて、前記ファイルと前記キーボード15とを関連付けるか否かを判断する工程とを有する。これらの工程によって、ファイルとキーボード15とを関連付ける。つまりキーボード15によってファイルを書き換え・更新可能な状態にする。このようにキーボード15とファイルとの関連付けを簡単に行うことができ、操作性の向上を図ることができる。したがって本制御方法によれば、ケーブルなどをとりまわすこともなくなり、前記関連付けに要する時間短縮を図ることができる。   According to the control method of the present embodiment, whether or not to associate the file with the keyboard 15 based on the relative relationship between the step of recognizing the position of the keyboard 15 and the position of the file displayed on the screen. And determining whether or not. By these steps, the file and the keyboard 15 are associated with each other. In other words, the file can be rewritten and updated by the keyboard 15. In this way, the keyboard 15 and the file can be easily associated with each other, and the operability can be improved. Therefore, according to the present control method, it is possible to reduce the time required for the association without having to use cables and the like.

以上説明した表示装置1によれば、制御手段としてのCPU6は、キーボード15が画面上に載置されたか否かを判断する。キーボード15が載置されたとの判断で、CPU6は、このキーボード15に関連付けられるファイルを画面に表示させる。このようにキーボード15を載置するだけの簡単な操作で、前記ファイルを画面に表示させ、該ファイルを書き換え・更新することができる。従来技術のように、キーボードをケーブルなどで電気的にかつ機械的に接続する手間を省略できる。したがって本実施形態に係る表示装置1によれば、ファイルの入出力を簡単にかつ遅滞なく実行することができる。   According to the display device 1 described above, the CPU 6 as the control unit determines whether or not the keyboard 15 is placed on the screen. When determining that the keyboard 15 is placed, the CPU 6 displays a file associated with the keyboard 15 on the screen. As described above, the file can be displayed on the screen, and the file can be rewritten / updated by a simple operation by simply placing the keyboard 15. As in the prior art, the trouble of electrically and mechanically connecting the keyboard with a cable or the like can be eliminated. Therefore, according to the display device 1 according to the present embodiment, file input / output can be executed easily and without delay.

CPU6は、複数のキーボード15にそれぞれ関連付けられる複数のファイルを画面に表示させるので、複数のキーボード15に対する汎用性を高めることができる。しかもこれら複数のキーボード15によって、並行して複数のファイルを書き換え・更新することが可能となる。このように表示装置1の利便性を高めることができる。   Since the CPU 6 displays a plurality of files respectively associated with the plurality of keyboards 15 on the screen, the versatility for the plurality of keyboards 15 can be enhanced. Moreover, it is possible to rewrite / update a plurality of files in parallel by using the plurality of keyboards 15. Thus, the convenience of the display device 1 can be improved.

ファイルが複数のキーボード15に関連付けられている場合、図13のステップc10などに示すように、一つのキーボード15にファイルを関連付けるとともに、他のキーボード15と前記ファイルとの関連付けを解除する。その後、一つのキーボード15に関連付けられているファイルだけを書き換え・更新することができる。いわゆる共有違反を未然に避けることができる。   When a file is associated with a plurality of keyboards 15, as shown in step c10 of FIG. 13 and the like, the file is associated with one keyboard 15 and the association between the other keyboard 15 and the file is released. Thereafter, only the file associated with one keyboard 15 can be rewritten / updated. So-called sharing violations can be avoided.

CPU6は、一つのキーボード15に関連付けられたファイルに基づき表示されるファイル画像の表示位置を、前記キーボード15の位置に基づいて補正する。図14(b)などに示すように、CPU6は、選択されたキーボード15の方向に、該キーボード15に関連付けられたファイルを画面に垂直な軸線方向まわりに回転させて表示するように補正する。つまり使用者が何ら操作することなく、前記キーボード近傍にファイル画像を表示させることができるので、画像を見易くすることができ、このキーボード15による操作性を向上させることができる。   The CPU 6 corrects the display position of the file image displayed based on the file associated with one keyboard 15 based on the position of the keyboard 15. As shown in FIG. 14B and the like, the CPU 6 corrects the file associated with the keyboard 15 in the direction of the selected keyboard 15 so as to be rotated around the axis direction perpendicular to the screen. That is, since the file image can be displayed near the keyboard without any operation by the user, the image can be easily viewed, and the operability of the keyboard 15 can be improved.

以上説明した入力装置としてのキーボード15には、画面上に載置される当該キーボード15を識別するキーボード固有の装置識別情報と、キーボード15の各操作キーが操作されたか否かを判別する各操作キー固有のキー識別情報とが付与されている。装置識別情報が付与されるキーボード15によって、複数のキーボード15を用いる場合であっても、所望のキーボード15を簡単にかつ確実に識別することが可能となる。また複数のキーボード15を同時に換言すれば並行して使用することも可能となる。さらにキーボード15には、前述のキー識別情報が付与されるので、各操作キーを介して情報の書き換え・更新を実現することが可能となる。   The keyboard 15 serving as the input device described above includes device identification information specific to the keyboard 15 placed on the screen and each operation for determining whether or not each operation key of the keyboard 15 is operated. Key identification information unique to the key is provided. Even when a plurality of keyboards 15 are used, the desired keyboard 15 can be easily and reliably identified by the keyboard 15 to which device identification information is assigned. In other words, a plurality of keyboards 15 can be used in parallel. Further, since the key identification information described above is given to the keyboard 15, it is possible to realize rewriting / updating of information via each operation key.

制御手段としてのCPU6は、キーボード15毎に付与されるキーボード固有の装置識別情報を走査して前記キーボード15からの入力を認識する。複数のキーボード15を用いる場合であっても所望のキーボード15を簡単にかつ確実に識別し得る表示装置1を実現することができる。また複数のキーボード15を同時に換言すれば並行して使用し得る表示装置1を実現することができる。   The CPU 6 as the control means recognizes input from the keyboard 15 by scanning device identification information unique to the keyboard provided for each keyboard 15. Even when a plurality of keyboards 15 are used, the display device 1 that can easily and reliably identify a desired keyboard 15 can be realized. In other words, the display device 1 that can be used in parallel can be realized in other words.

本実施形態では、入力装置としてキーボードが適用されているが、キーボードだけに限定されるものではない。たとえば入力装置として、ポインティングデバイスなどを適用してもよい。この場合であっても本実施形態と同様の効果を奏する。その他、本発明の趣旨を逸脱しない範囲において種々の変更を付加した形態で実施することも可能である。   In the present embodiment, a keyboard is applied as an input device, but is not limited to a keyboard. For example, a pointing device or the like may be applied as the input device. Even in this case, the same effects as in the present embodiment can be obtained. In addition, the present invention can be implemented in various forms without departing from the spirit of the present invention.

本発明の実施形態に係る表示装置1の電気的構成を表すブロック図である。It is a block diagram showing the electric constitution of the display apparatus 1 which concerns on embodiment of this invention. 主記憶部10に格納されるソフトウェアの構成を表す図である。2 is a diagram illustrating a configuration of software stored in a main storage unit 10. FIG. 本発明の第1の実施形態に係る関連付け処理を表すフローチャートである。It is a flowchart showing the association process which concerns on the 1st Embodiment of this invention. 第1の実施形態に係る登録処理(1)のサブルーチンを表すフローチャートである。It is a flowchart showing the subroutine of the registration process (1) which concerns on 1st Embodiment. ファイルに、所望のキーボード15を関連付ける形態を表す表示装置1の平面図である。It is a top view of the display apparatus 1 showing the form which associates the desired keyboard 15 with a file. 本発明の第2の実施形態に係る関連付け処理を表すフローチャートである。It is a flowchart showing the association process which concerns on the 2nd Embodiment of this invention. 第2の実施形態に係る登録処理(2)のサブルーチンを表すフローチャートである。It is a flowchart showing the subroutine of the registration process (2) which concerns on 2nd Embodiment. キーボード15を登録エリアAtに載置して、ファイルに前記キーボード15を関連付ける形態を表す表示装置1の平面図である。It is a top view of the display apparatus 1 showing the form which mounts the keyboard 15 in the registration area At, and associates the said keyboard 15 with a file. キーボード15に、所望のファイルを関連付ける形態を表す表示装置1の平面図である。3 is a plan view of the display device 1 showing a form in which a desired file is associated with a keyboard 15. FIG. 本発明の第3の実施形態に係り、キーボード15を載置すると、該キーボード15に関連付けられた情報を表示させる処理を表すフローチャートである。14 is a flowchart illustrating processing for displaying information associated with the keyboard 15 when the keyboard 15 is placed according to the third embodiment of the present invention. キーボード15に関連付けられたファイルを表示する形態を表す表示装置1の平面図である。3 is a plan view of the display device 1 showing a form for displaying a file associated with a keyboard 15. FIG. キーボード15を除去すると、該キーボード15に関連付けられた情報を非表示にする処理を表すフローチャートである。It is a flowchart showing the process which hides the information linked | related with this keyboard 15 when the keyboard 15 is removed. 複数のキーボードのうち、いずれか一つのキーボードにファイルを関連付けるとともに他のキーボードとファイルとの関連付けを解除する処理を表すフローチャートである。It is a flowchart showing the process which cancels | relates the association of another keyboard and a file while associating a file with any one keyboard among several keyboards. 一つのファイルと複数のキーボード15との関係を表す表示装置1の平面図であり、図14(a)は、いずれかのキーボード15を関連付ける前の状態を表す表示装置1の平面図、図14(b)は、前記キーボード15を関連付けた後の状態を表す表示装置1の平面図である。FIG. 14A is a plan view of the display device 1 showing a relationship between one file and a plurality of keyboards 15, and FIG. 14A is a plan view of the display device 1 showing a state before any of the keyboards 15 is associated; (B) is a top view of the display apparatus 1 showing the state after associating the keyboard 15. 一つのキーボード15と複数のファイルとの関係を表す表示装置1の平面図であり、図15(a)は、いずれかのファイルを関連付ける前の状態を表す表示装置1の平面図、図15(b)は前記ファイルを関連付けた後の状態を表す表示装置1の平面図である。FIG. 15A is a plan view of the display device 1 showing the relationship between one keyboard 15 and a plurality of files. FIG. 15A is a plan view of the display device 1 showing a state before associating any one of the files. b) is a plan view of the display device 1 showing a state after the files are associated with each other. 装置識別情報18が付与され、各ボタンスイッチのオン・オフを通知可能なキーボード15Aの形態を表す図であり、図16(a)はキーボード15Aの正面図、図16(b)はキーボード15Aの背面図である。FIGS. 16A and 16B are diagrams showing a form of a keyboard 15A to which device identification information 18 is attached and capable of notifying on / off of each button switch. FIG. 16A is a front view of the keyboard 15A, and FIG. It is a rear view. 装置識別情報18が付与され、キーボードを画面上に表示する形態を表す図であり、図17(a)はキーボード15Bの正面図、図17(b)はキーボード15Bの背面図である。It is a figure showing the form which the apparatus identification information 18 is provided and displays a keyboard on a screen, Fig.17 (a) is a front view of the keyboard 15B, FIG.17 (b) is a rear view of the keyboard 15B. 装置識別情報が付与され、各ボタン押下により入力されたか否かを判別する形態を表す図であり、図18(a)はキーボード15Cの正面図、図18(b)はキーボード15Cの背面図である。It is a figure showing the form which discriminate | determines whether apparatus identification information is provided and it was input by pressing each button, FIG.18 (a) is a front view of the keyboard 15C, FIG.18 (b) is a rear view of the keyboard 15C. is there. 関連付けテーブルが保持される例を表す図である。It is a figure showing the example by which an association table is hold | maintained. 関連付けテーブルが都度作成される例を表す図である。It is a figure showing the example by which an association table is created each time.

符号の説明Explanation of symbols

1 表示装置
2 LCD
3 センサー
4 内蔵カメラ
6 CPU
10 主記憶部
11 補助記憶部
15 キーボード
1 Display device 2 LCD
3 Sensor 4 Built-in camera 6 CPU
10 Main Memory 11 Auxiliary Memory 15 Keyboard

Claims (6)

入力装置と情報とを対応付けて記憶する記憶手段と、
当該表示装置の表示部上に載置される入力装置を認識する認識手段と、
前記記憶手段に基づいて、前記認識された入力装置に対応する情報を表示部に表示する表示手段と、
前記認識された入力装置からの入力に応じて、該入力装置に対応する前記記憶手段に記憶された情報を更新する制御手段と、
を備えることを特徴とする表示装置。
Storage means for storing the input device and information in association with each other;
Recognition means for recognizing an input device placed on the display unit of the display device;
Display means for displaying information corresponding to the recognized input device on a display unit based on the storage means;
Control means for updating information stored in the storage means corresponding to the input device in response to an input from the recognized input device;
A display device comprising:
前記認識手段は複数の入力装置を認識し、
前記表示手段は前記認識手段が認識した入力装置毎に対応する情報を表示することを特徴とする請求項1に記載の表示装置。
The recognition means recognizes a plurality of input devices;
The display device according to claim 1, wherein the display unit displays information corresponding to each input device recognized by the recognition unit.
前記認識手段が認識した複数の入力装置が同一の情報に対応付けられる場合は、前記表示手段は該情報を単数表示し、
前記複数の入力装置のうちいずれか一つを選択する選択手段をさらに備え、
前記制御手段は、前記選択された入力装置からの入力に応じて該情報を更新することを特徴とする請求項2に記載の表示装置。
When a plurality of input devices recognized by the recognizing unit are associated with the same information, the display unit displays the information in a singular manner,
A selection means for selecting any one of the plurality of input devices;
The display device according to claim 2, wherein the control unit updates the information in accordance with an input from the selected input device.
前記認識手段はさらに入力装置の表示部上における載置位置を認識し、
前記表示手段はさらに前記選択手段により選択された入力装置の載置位置に基づいて対応する情報の表示レイアウトを切替えることを特徴とする請求項3に記載の表示装置。
The recognizing means further recognizes a mounting position on the display unit of the input device;
The display device according to claim 3, wherein the display unit further switches a display layout of corresponding information based on a placement position of the input device selected by the selection unit.
入力装置と情報とを対応付けて記憶する工程と、
表示装置の表示部上に載置される入力装置を認識する工程と、
前記記憶する工程に基づいて、前記認識された入力装置に対応する情報を表示部に表示する工程と、
前記認識された入力装置からの入力に応じて、該入力装置に対応する記憶された情報を更新する工程と、
を有することを特徴とする制御方法。
Storing the input device and information in association with each other;
Recognizing an input device placed on the display unit of the display device;
Displaying information corresponding to the recognized input device on a display unit based on the storing step;
Updating stored information corresponding to the input device in response to an input from the recognized input device;
A control method characterized by comprising:
コンピュータに、請求項1に記載される表示装置の機能を実行させることを特徴とするプログラム。   A program causing a computer to execute the function of the display device according to claim 1.
JP2006209273A 2006-07-31 2006-07-31 Display device, control method and program Pending JP2008033844A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006209273A JP2008033844A (en) 2006-07-31 2006-07-31 Display device, control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006209273A JP2008033844A (en) 2006-07-31 2006-07-31 Display device, control method and program

Publications (1)

Publication Number Publication Date
JP2008033844A true JP2008033844A (en) 2008-02-14

Family

ID=39123151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006209273A Pending JP2008033844A (en) 2006-07-31 2006-07-31 Display device, control method and program

Country Status (1)

Country Link
JP (1) JP2008033844A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033190A (en) * 2006-07-31 2008-02-14 Sharp Corp Display device, control method and program
KR20100132293A (en) * 2009-06-09 2010-12-17 삼성전자주식회사 Method for providing ui and display apparatus applying the same
JP2012513047A (en) * 2008-09-30 2012-06-07 マイクロソフト コーポレーション Using physical objects with interactive surfaces
JP2015032208A (en) * 2013-08-05 2015-02-16 シャープ株式会社 Image display device and operation method of the same
JP2015082168A (en) * 2013-10-22 2015-04-27 シャープ株式会社 Image display device
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
JP2016110549A (en) * 2014-12-10 2016-06-20 カシオ計算機株式会社 Information display control device and program
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US9509981B2 (en) 2010-02-23 2016-11-29 Microsoft Technology Licensing, Llc Projectors and depth cameras for deviceless augmented reality and interaction
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
JP2017084396A (en) * 2016-12-27 2017-05-18 シャープ株式会社 Image display device, display control program, and display control method
JP2018028954A (en) * 2017-11-28 2018-02-22 シャープ株式会社 Image display method
JP2018163703A (en) * 2018-07-25 2018-10-18 シャープ株式会社 Image display device, display control program, and display control method
JP2018195082A (en) * 2017-05-17 2018-12-06 富士ゼロックス株式会社 Input device and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266498A (en) * 1993-03-16 1994-09-22 Hitachi Ltd Information processor
JP2001175374A (en) * 1999-12-21 2001-06-29 Sony Corp Information input/output system and information input/ output method
JP2005165864A (en) * 2003-12-04 2005-06-23 Ricoh Co Ltd Command input method, image display method and image display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266498A (en) * 1993-03-16 1994-09-22 Hitachi Ltd Information processor
JP2001175374A (en) * 1999-12-21 2001-06-29 Sony Corp Information input/output system and information input/ output method
JP2005165864A (en) * 2003-12-04 2005-06-23 Ricoh Co Ltd Command input method, image display method and image display device

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033190A (en) * 2006-07-31 2008-02-14 Sharp Corp Display device, control method and program
US9372552B2 (en) 2008-09-30 2016-06-21 Microsoft Technology Licensing, Llc Using physical objects in conjunction with an interactive surface
JP2012513047A (en) * 2008-09-30 2012-06-07 マイクロソフト コーポレーション Using physical objects with interactive surfaces
US10346529B2 (en) 2008-09-30 2019-07-09 Microsoft Technology Licensing, Llc Using physical objects in conjunction with an interactive surface
EP2332024B1 (en) * 2008-09-30 2019-10-30 Microsoft Technology Licensing, LLC Using physical objects in conjunction with an interactive surface
JP2012529693A (en) * 2009-06-09 2012-11-22 サムスン エレクトロニクス カンパニー リミテッド UI providing method and display device using the same
KR101626461B1 (en) * 2009-06-09 2016-06-02 삼성전자주식회사 Method for providing UI and display apparatus applying the same
KR20100132293A (en) * 2009-06-09 2010-12-17 삼성전자주식회사 Method for providing ui and display apparatus applying the same
US9389783B2 (en) 2009-06-09 2016-07-12 Samsung Electronics Co., Ltd Method for associating an onscreen keyboard with a displayed application window and display apparatus applying the same
US9509981B2 (en) 2010-02-23 2016-11-29 Microsoft Technology Licensing, Llc Projectors and depth cameras for deviceless augmented reality and interaction
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
JP2015032208A (en) * 2013-08-05 2015-02-16 シャープ株式会社 Image display device and operation method of the same
JP2015082168A (en) * 2013-10-22 2015-04-27 シャープ株式会社 Image display device
JP2016110549A (en) * 2014-12-10 2016-06-20 カシオ計算機株式会社 Information display control device and program
JP2017084396A (en) * 2016-12-27 2017-05-18 シャープ株式会社 Image display device, display control program, and display control method
JP2018195082A (en) * 2017-05-17 2018-12-06 富士ゼロックス株式会社 Input device and program
JP2018028954A (en) * 2017-11-28 2018-02-22 シャープ株式会社 Image display method
JP2018163703A (en) * 2018-07-25 2018-10-18 シャープ株式会社 Image display device, display control program, and display control method

Similar Documents

Publication Publication Date Title
JP2008033844A (en) Display device, control method and program
EP2360560A1 (en) Mobile terminal device and key arrangement control method
US9483172B2 (en) Information processing device, information processing method, and computer-readable recording medium which records program
JP4841359B2 (en) Display control device
US20040070633A1 (en) Electronic paper file and mark setting system
JP2008052062A (en) Display device, display method of display device, program and recording medium
JP2004152217A (en) Display device with touch panel
JP6184084B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2008097151A (en) Information processor, information processing system, information processing method, and program
JP2009260889A (en) Terminal equipment and program
JP2009037464A (en) Image display device and computer program
JP4758299B2 (en) Display device
JP4949763B2 (en) Display device, control method, and program
JP2014059767A (en) Portable information processor
JP4951266B2 (en) Display device, related information display method and program
CN115187988A (en) Regional text recognition method and device, electronic equipment and storage medium
JP2010128666A (en) Information processor
JPH10283108A (en) Writing data input device and program recording medium therefor
JPH11184442A (en) Back light controller and storage medium
JP4713428B2 (en) Information processing apparatus, information processing method, and program
JP2005084862A (en) Computer-readable recording medium recording display device, its customizing method and customize program stored therein
JPH09282318A (en) Information processor
JP6504209B2 (en) Electronics
JP2014109876A (en) Information processor, information processing method and program
US20220276781A1 (en) Electronic device, electronic device control method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110712