JP6654722B2 - Image display device and image display method - Google Patents
Image display device and image display method Download PDFInfo
- Publication number
- JP6654722B2 JP6654722B2 JP2019043037A JP2019043037A JP6654722B2 JP 6654722 B2 JP6654722 B2 JP 6654722B2 JP 2019043037 A JP2019043037 A JP 2019043037A JP 2019043037 A JP2019043037 A JP 2019043037A JP 6654722 B2 JP6654722 B2 JP 6654722B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image display
- display
- external device
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、タッチパネルディスプレイの画像表示面が水平に配置されたテーブル型画像表示装置に関し、特に、携帯端末と同期して、携帯端末への入力の補助、及び携帯端末の画像表示機能の拡張を可能とする画像表示装置に関する。 The present invention relates to a table-type image display device in which an image display surface of a touch-panel display is horizontally arranged, and in particular, to assist in inputting to a mobile terminal and extend an image display function of the mobile terminal in synchronization with the mobile terminal. The present invention relates to an image display device capable of being used.
近年、携帯型の情報処理装置が普及している。そのユーザインターフェイス装置として、画像表示面上にタッチパネルが配置されたディスプレイ(以下、タッチパネルディスプレイという)が採用されている。タッチパネルディスプレイに表示された対象を直接タッチ操作するだけでなく、文字及び数字等の入力が必要な場合には、画面にソフトウェアキーボードを表示し、これを操作することが一般化している。 In recent years, portable information processing apparatuses have become widespread. As the user interface device, a display in which a touch panel is arranged on an image display surface (hereinafter, referred to as a touch panel display) is employed. When it is necessary to input characters and numbers in addition to directly touching an object displayed on a touch panel display, it is common to display a software keyboard on a screen and operate the software keyboard.
コンピュータにおいてもタッチパネルディスプレイが搭載され、タッチ操作を想定したユーザインターフェイスを採用したオペレーティングシステム(OS)も提供されている。従来のコンピュータ用キーボード(以下、単にキーボードという)及びコンピュータ用マウスの何れも標準装備していないタブレットPC又はタブレット端末等と呼ばれる携帯端末装置も提供されている。 A computer is also provided with a touch panel display, and an operating system (OS) employing a user interface that assumes a touch operation is also provided. There is also provided a portable terminal device such as a tablet PC or a tablet terminal which does not have a conventional computer keyboard (hereinafter simply referred to as a keyboard) and a computer mouse as standard equipment.
タッチパネルディスプレイに関しては、その大画面化が進展しており、今後、タッチパネルディスプレイが種々の用途に使用されることが予想される。例えば、電子黒板等の用途は元より、画像表示面を水平に配置して、タッチ操作可能なテーブル(事務用テーブル又は会議用テーブル等)として使用することが提案されている。 As for the touch panel display, the size of the screen is increasing, and it is expected that the touch panel display will be used for various purposes in the future. For example, it has been proposed to use an electronic blackboard or the like as a table (such as an office table or a conference table) in which an image display surface is horizontally arranged and can be touch-operated.
このようなタッチパネルディスプレイの普及に伴い、タッチ操作の改善が要望されている。例えば、下記特許文献1には、オフィス環境を改善するための事務機器一体型デスクにおいて、入力手段としてキーボードをタッチパネルに表示する技術が開示されている。具体的には、デスクの天板にパソコン機能部を備え、パソコン機能部には、ディスプレイ画面を表示するスクリーン部と、キーボードを表示するキーボード用タッチパネルとが設けられている。また、下記特許文献2には、テーブルの上面がタッチパネルで構成され、外部のコンピュータに接続されて、テーブル上面に表示用画面とキーボードとを表示する技術が開示されている。このテーブルには、タッチパネルの機能をオン/オフするためのフットスイッチ又はプッシュスイッチを備えている。
With the spread of such touch panel displays, there is a demand for improved touch operations. For example,
しかし、特許文献1に開示された技術では、液晶パネルの大きさの制約により、デスクの天板の一部にタッチパネルディスプレイを設けることしかできず、主に個人使用に限定され、複数人で同時に使用することができない問題があった。
However, according to the technology disclosed in
上記したように、タッチパネルディスプレイの大画面化が進展しているが、画像表示面を水平に配置して、テーブルとして使用したタッチ操作可能なテーブル型画像表示装置は、十分に活用されておらず、その可能性が十分に検討されていない。例えば、特許文献2では、テーブルの上面を構成するタッチパネルの機能を、単にオン/オフすることしかできない。
As described above, the touch-panel display has a large screen, but the image display surface is arranged horizontally, and a touch-operable table-type image display device used as a table has not been fully utilized. , Its potential has not been fully considered. For example, in
近年では、Bluetooth(登録商標)、Wi−Fi等の無線通信環境が普及している。これらの無線通信機能が標準搭載された携帯端末も普及しており、携帯端末とテーブル型画像表示装置との連携により、操作性の改善、利便性の向上、及び新たな機能の創出が期待される。 In recent years, wireless communication environments such as Bluetooth (registered trademark) and Wi-Fi have become widespread. Portable terminals equipped with these wireless communication functions as standard equipment are also in widespread use, and improvement of operability, convenience, and creation of new functions are expected by cooperation between the portable terminals and the table-type image display device. You.
したがって、本発明は、タッチパネルディスプレイの画像表示面が水平に配置されたテーブル型画像表示装置であって、携帯端末と同期して、携帯端末への入力の補助、及び携帯端末の画像表示機能の拡張を可能とする画像表示装置を提供することを目的とする。 Therefore, the present invention is a table-type image display device in which an image display surface of a touch panel display is horizontally arranged, and assists input to the mobile terminal in synchronization with the mobile terminal, and provides an image display function of the mobile terminal. It is an object of the present invention to provide an image display device that can be extended.
本発明に係る画像表示装置は、画像表示面が水平に配置された表示部と、表示部の画像表示面上に配置され、タッチされた位置を検出する検出部とを含む。表示部は、検出部が、外部装置が検出部の上に載置されたことを検出したことを受けて、検出された載置領域に対応する画像表示面上の領域の近傍に、外部装置に対する入力機器の画像を表示する。 An image display device according to the present invention includes a display unit on which an image display surface is horizontally arranged, and a detection unit arranged on the image display surface of the display unit and detecting a touched position. The display unit receives the detection that the external device is mounted on the detection unit, and displays the external device in the vicinity of an area on the image display surface corresponding to the detected mounting area. The image of the input device corresponding to is displayed.
好ましくは、画像表示装置は、検出部により、入力機器の画像に対応する位置へのタッチが検出されたことを受けて、入力機器に対する操作に対応する指示情報を、外部装置に送信する通信部をさらに含む。 Preferably, the image display device is a communication unit that transmits, to the external device, instruction information corresponding to an operation on the input device, in response to the detection unit detecting a touch on a position corresponding to the image of the input device. Further included.
より好ましくは、表示部は、検出部が、入力機器の画像の表示位置の変更を指示されたことを受けて、新たに指示された位置に、入力機器の画像を移動させて表示する。 More preferably, the display unit displays the image of the input device by moving the image of the input device to the newly instructed position in response to the instruction of the change of the display position of the image of the input device by the detection unit.
さらに好ましくは、表示部は、検出部により、タッチされたことが検出されたことを受けて、外部装置から受信した、外部装置の画像表示面に表示された画像データを、拡大して表示する。 More preferably, the display unit receives the detection of the touch by the detection unit, and displays the image data received from the external device and displayed on the image display surface of the external device in an enlarged manner. .
好ましくは、表示部は、外部装置が載置された状態で、検出部により、タッチされたことが検出されたことを受けて、外部装置から受信した外部装置の画像表示面に表示された画像データを、載置領域に対応する部分を含む領域に拡大表示し、拡大表示された状態で、検出部により、外部装置が検出部の上から取除かれたことを受けて、載置領域に対応する部分に表示されていた部分画像を異なる部分画像に変更する。 Preferably, the display unit is an image displayed on the image display surface of the external device received from the external device in response to the detection of the touch by the detection unit in a state where the external device is mounted. The data is enlarged and displayed in an area including a portion corresponding to the mounting area, and in a state where the external device is removed from above the detecting section by the detecting unit in the enlarged display state, the data is displayed in the mounting area. The partial image displayed in the corresponding part is changed to a different partial image.
より好ましくは、表示部は、外部装置が載置された状態で、検出部により、タッチされたことが検出されたことを受けて、外部装置から受信した外部装置の画像表示面に表示された画像データを、載置領域に対応する部分を含む領域に拡大表示し、拡大表示された状態で、検出部により、外部装置が検出部の上から取除かれたことが検出されても、拡大表示を維持する。 More preferably, the display unit is displayed on the image display surface of the external device received from the external device in response to the detection that the touch has been detected by the detection unit in a state where the external device is placed. The image data is enlarged and displayed in an area including a portion corresponding to the mounting area, and in the enlarged display state, even if the detection unit detects that the external device has been removed from above the detection unit, the image is enlarged. Maintain the display.
さらに好ましくは、表示部は、検出部が、複数の外部装置が検出部の上に載置されたことを検出したことを受けて、検出された複数の載置位置に対応する位置の各々の近傍に、入力機器の画像を表示する。 More preferably, the display unit receives the detection that the plurality of external devices are mounted on the detection unit, the detection unit, each of the positions corresponding to the plurality of detected mounting positions An image of the input device is displayed nearby.
好ましくは、表示部は、検出部が、複数台の外部装置の各々に対して入力機器を表示する指示を受けたことに応じて、複数台の外部装置の各々を載置する領域の境界線を表示する。 Preferably, the display unit is configured such that, in response to the detection unit receiving an instruction to display an input device for each of the plurality of external devices, a boundary line of an area on which each of the plurality of external devices is placed. Is displayed.
本発明によれば、テーブル型画像表示装置において、画像表示面の上に端末装置が載置されると、端末装置の近傍にキーボード等の入力機器の画像が表示されることにより、ユーザは端末装置への入力を容易に行なうことができる。 According to the present invention, in the table-type image display device, when the terminal device is placed on the image display surface, an image of an input device such as a keyboard is displayed near the terminal device, so that the user can operate the terminal device. Input to the device can be easily performed.
また、端末装置の表示画面に表示された画像を、より大画面の画像表示装置に表示することにより、ユーザは、打合せ又はプレゼンテーション等を、容易且つ効率的に行なうことができる。 In addition, by displaying the image displayed on the display screen of the terminal device on an image display device having a larger screen, the user can easily and efficiently perform a meeting or a presentation.
以下の実施の形態では、同一の部品には同一の参照番号を付してある。それらの名称及び機能も同一である。したがって、それらについての詳細な説明は繰返さない。 In the following embodiments, the same components are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
以下において、「タッチ」とは入力位置の検出装置が位置を検出可能な状態になることを意味し、検出装置に接触して押圧する場合、押圧せずに接触する場合、及び、接触せずに近接する場合を含む。入力位置の検出装置には、接触型に限らず非接触型の装置を用いることもできる。非接触型の検出装置の場合には「タッチ」とは、入力位置を検出可能な距離まで検出装置に近接した状態を意味する。 In the following, "touch" means that the input position detecting device is in a state capable of detecting the position, when touching and pressing the detecting device, when touching without pressing, and without touching Including the case where it is close to The device for detecting the input position is not limited to the contact type, but may be a non-contact type device. In the case of a non-contact type detection device, “touch” means a state in which the input position is close to the detection device to a detectable distance.
(第1の実施の形態)
図1を参照して、本発明の第1の実施の形態に係る画像表示装置100は、演算処理部(以下、CPUと記す)102、読出専用メモリ(以下、ROMと記す)104、書換可能メモリ(以下、RAMと記す)106、記録部108、通信部110、タッチ検出部112、表示部114、表示制御部116、ビデオメモリ(以下、VRAMと記す)118、及びバス120を備えている。CPU102は、画像表示装置100全体を制御する。
(First Embodiment)
With reference to FIG. 1, an
後述するように、タッチ検出部112及び表示部114がタッチパネルディスプレイを構成し、タッチパネルディスプレイの画像表示面が水平に配置され、画像表示装置100はテーブルとして使用される。
As will be described later, the
ROM104は不揮発性の記憶装置であり、画像表示装置100の動作を制御するために必要なプログラム及びデータを記憶している。RAM106は、通電が遮断された場合にデータが消去される揮発性の記憶装置である。記録部108は、通電が遮断された場合にもデータを保持する不揮発性記憶装置であり、例えば、ハードディスクドライブ、又はフラッシュメモリ等である。記録部108は着脱可能に構成されていてもよい。CPU102は、バス120を介してROM104からプログラムをRAM106上に読出して、RAM106の一部を作業領域としてプログラムを実行する。CPU102は、ROM104に格納されているプログラムにしたがって画像表示装置100を構成する各部の制御を行なう。
The
バス120には、CPU102、ROM104、RAM106、記録部108、通信部110、タッチ検出部112、表示制御部116、及びVRAM118が接続されている。各部間のデータ(制御情報を含む)交換は、バス120を介して行なわれる。
The
表示部114は、画像を表示するための表示パネル(液晶パネル等)である。表示制御部116は、表示部114を駆動するための駆動部を備え、VRAM118に記憶された画像データを所定のタイミングで読出し、表示部114に画像として表示するための信号を生成して、表示部114に出力する。表示される画像データは、CPU102が記録部108から読出して、VRAM118に伝送する。
The
通信部110は、後述する携帯型端末装置との無線通信を可能とする。無線通信方式は任意であり、例えば、Bluetooth(登録商標)、又はWi−Fiを使用することができる。なお、Wi−Fiを用いる場合には、通信部110は、無線ルータが接続されたネットワークに有線で接続されていてもよい。
The
タッチ検出部112は、例えばタッチパネルであり、ユーザによるタッチ操作を検出する。タッチ検出部112は、表示部114の表示画面に重畳して配置される。タッチ検出部112へのタッチは、タッチ位置に対応する、表示画面に表示された画像の点を指定する操作である。したがって、本願明細書においては、記載の冗長性を排除するために、表示部114に表示された画像へのタッチと記載されている場合、この記載は、対応するタッチ検出部112上の位置へのタッチを意味する。
The
タッチ検出部112にタッチパネルを用いる場合のタッチ操作の検出について、図2を参照して説明する。図2は、赤外線遮断検出方式のタッチパネル(タッチ検出部112)を示す。タッチパネルは、長方形の書込面の隣接する2辺にそれぞれ一列に配置された発光ダイオード列(以下、LED列と記す)140、142と、それぞれのLED列140、142に対向させて一列に配置された2つのフォトダイオード列(以下、PD列と記す)144、146とを備えている。LED列140、142の各LEDから赤外線を発光し、この赤外線を対向するPD列144、146の各PDが検出する。図2において、LED列140、142の各LEDから赤外線を上向き及び左向きの矢印で示す。
Detection of a touch operation when a touch panel is used for the
タッチパネルは、例えばマイクロコンピュータ(以下、マイコンという)(CPU、メモリ、及び入出力回路等を含む素子)を備え、各LEDの発光を制御する。各PDは、受光した光の強度に応じた電圧を出力する。PDの出力電圧は、アンプによって増幅される。また、各PD列144、146の複数のPDからは同時に信号が出力されるので、出力信号は一旦バッファに保存された後、PDの配列順序に応じたシリアル信号として出力され、マイコンに伝送される。PD列142から出力されるシリアル信号の順序は、X座標を表す。PD列146から出力されるシリアル信号の順序は、Y座標を表す。
The touch panel includes, for example, a microcomputer (hereinafter, referred to as a microcomputer) (elements including a CPU, a memory, an input / output circuit, and the like) and controls light emission of each LED. Each PD outputs a voltage corresponding to the intensity of the received light. The output voltage of the PD is amplified by the amplifier. Further, since signals are simultaneously output from a plurality of PDs in each of the
ユーザ900が指でタッチパネル上にタッチすると、タッチされた位置で赤外線が遮断される。したがって、遮断される前まで、その赤外線を受光していたPDの出力電圧は減少する。タッチされた位置(XY座標)に対応するPDからの信号部分が減少するので、マイコンは、受信した2つのシリアル信号の信号レベルが低下している部分を検出し、タッチされた位置座標を求める。マイコンは、決定した位置座標をCPU102に伝送する。このタッチ位置を検出する処理は、所定の検出周期で繰返されるので、同じ点が検出周期よりも長い時間タッチされていると、同じ座標データが繰返し出力される。どこにもタッチされていなければ、マイコンは位置座標を伝送しない。
When the
上記したタッチされた位置の検出技術は公知であるので、これ以上の説明は繰返さない。また、タッチ検出部112には、赤外線遮断方式以外のタッチパネル(静電容量方式、表面弾性波方式、抵抗膜方式等)を用いてもよい。なお、静電容量方式では、センサに近接していれば非接触でも位置を検出することができる。
Since the above-described technique of detecting the touched position is known, further description will not be repeated. The
画像表示装置100は上記のように構成されており、ユーザは画像表示装置100をコンピュータと同様に操作することができる。即ち、ユーザは、表示部114に表示された画面上のユーザインターフェイス(操作ボタン等)を、タッチ検出部112を介してタッチ操作し、アプリケーションプログラムを起動すること、及び、起動したアプリケーションによって表示されるウィンドウ上の操作を、タッチ検出部112を介して行なうことができる。
The
図3を参照して、画像表示装置100と連携する携帯型端末装置(以下、単に端末装置という)は、画像表示装置100と同様に構成されている。即ち、端末装置200は、CPU202、ROM204、RAM206、記録部208、通信部210、タッチ検出部212、表示部214、表示制御部216、VRAM218、及びバス220を備えている。CPU202は、端末装置200全体を制御する。タッチ検出部212及び表示部214がタッチパネルディスプレイを構成している。
Referring to FIG. 3, a portable terminal device (hereinafter, simply referred to as a terminal device) that cooperates with
ROM104は、端末装置200の動作を制御するために必要なプログラム及びデータを記憶している。CPU202は、バス220を介してROM204からプログラムをRAM206上に読出して、RAM206の一部を作業領域としてプログラムを実行する。CPU202は、ROM204に格納されているプログラムにしたがって端末装置200を構成する各部の制御を行なう。
The
表示部214は、画像を表示するための表示パネル(液晶パネル等)である。表示制御部216は、表示部214を駆動するための駆動部を備え、VRAM218に記憶された画像データを所定のタイミングで読出し、表示部214に画像として表示するための信号を生成して、表示部214に出力する。表示される画像データは、CPU202が記録部208から読出して、VRAM218に伝送する。
The
通信部210は、Bluetooth(登録商標)又はWi−Fi等により、画像表示装置100との無線通信を可能とする。
The
タッチ検出部212は、例えばタッチパネルであり、ユーザによるタッチ操作を検出する。タッチ検出部212は、表示部214の表示画面に重畳して配置される。タッチ検出部212へのタッチは、タッチ位置に対応する、表示画面に表示された画像の点を指定する操作である。タッチ検出部212にタッチパネルを用いる場合のタッチ操作の検出については、図2を参照して上記したとおりである。
The
以下、図4及び図5を参照して、画像表示装置100と端末装置200との連携により、端末装置200の入力補助機能及び表示補助機能を実現する方法に関して、具体的に説明する。ここでは、画像表示装置100において、連携を実現するためのプログラムが起動している状態で、ユーザが、連携を実現するためのプログラムが起動した端末装置200を持って、画像表示装置100に近付いたとする。画像表示装置100と端末装置200との通信は、Bluetooth(登録商標)によって直接行なわれるとする。
Hereinafter, a method of realizing the input assisting function and the display assisting function of the
画像表示装置100の動作に関して説明する。図4を参照して、ステップ400において、CPU102は、連携機能を提供する対象である予め登録済みの端末装置200が検出されたか否かを判定する。検出されたと判定された場合、制御は402に移行する。そうでなければ、制御はステップ432に移行し、CPU102は、終了を指示されているか否かを判定する。終了の指示は、例えば、画像表示装置100の電源がオフされることによってなされる。終了を指示されていれば、本プログラムを終了する。そうでなければ、制御はステップ400に戻る。これにより、該当する端末装置200を検出するまで、検出処理が繰返される。
The operation of the
端末装置200が検出された場合、ステップ402において、CPU102は、表示部114に機能の選択画面を表示して、ユーザによる選択を待受ける。例えば、表示部114の画面600には、図6に示すような、入力補助及び表示補助の機能を選択するためのウィンドウが表示される。
When the
ステップ404において、CPU102は、選択がなされたか否かを判定する。具体的には、CPU102は、「入力補助」キー又は「表示補助」キーの何れかがタッチされたか否かを判定する。「入力補助」キー又は「表示補助」キーの何れかがタッチされたと判定された場合、制御はステップ406に移行する。そうでなければ、ステップ404が繰返される。
In
ステップ406において、CPU102は、ステップ404で検出した選択結果を選択情報として端末装置200に送信する。例えば、CPU102は、「入力補助」キーがタッチされたことが検出された場合には、選択情報として“0”を送信し、「表示補助」キーがタッチされたことが検出された場合には、選択情報として“1”を送信する。
In
ステップ408において、CPU102は、ステップ404で検出した選択に応じて制御を分岐する。「入力補助」であると判定された場合、制御はステップ410に移行する。「表示補助」であると判定された場合、制御はステップ422に移行する。
In
ステップ410において、CPU102は、タッチ検出部112の上に端末装置200が載置されたか否かを判定する。このとき、CPU102は、表示部114に、何らかのメッセージを表示することが好ましい。例えば、図7に示すように、ユーザに端末装置を画像表示装置100の上に置くように促すメッセージを表示する。
In
CPU102は、タッチ検出部112の上に端末装置200が置かれたことを、上記したようにして取得したタッチ位置座標から判定することができる。例えば、所定の面積以上の領域で同時に複数点のタッチが検出された場合、端末装置が画像表示装置100の上に載置されたと判定する。端末装置が載置されたと判定された場合、制御はステップ412に移行する。そうでなければ、ステップ410が繰返される。
The
ステップ412において、CPU102は、タッチ検出部112上の端末装置200が載置された領域の下側に位置する表示部114の領域の近傍に、キーボード画像及びタッチパッド画像を表示する。キーボード画像及びタッチパッド画像は、回転等の処置を行なうことなく、画像表示装置100の通常の表示機能によって表示される。例えば、図8に示すように、端末装置200の下方に、キーボード画像610が表示され、その右側にタッチパッド画像612が表示される。また、CPU102は、連携機能の終了を指示するためのキーを表示する。図8では、画面の右上に終了キー620が表示されている。この状態で、ユーザがタッチ検出部112にタッチした場合、CPU102は、上記したようにタッチされた位置を特定することができる。
In
ステップ414において、CPU102は、入力操作がなされたか否かを判定する。具体的には、キーボード画像610、タッチパッド画像612及び終了キー620の何れかがタッチされたか否かを判定する。入力操作がなされたと判定された場合、制御はステップ416に移行する。そうでなければ、ステップ414が繰返される。
At
ステップ416において、CPU102は、ステップ414で検出された操作が、終了キー620へのタッチであるか否かを判定する。終了キー620へのタッチであると判定された場合、制御はステップ420に移行し、表示画像(キーボード画像610、タッチパッド画像612及び終了キー620)を消去し、終了を表す情報(以下、終了情報という)を端末装置200に送信する。その後、制御はステップ400に戻る。終了キー620へのタッチでないと判定された場合、制御はステップ418に移行する。
In
ステップ418において、CPU102は、ステップ414で取得したタッチ位置座標からタッチ位置に対応する指示を特定し、対応するデータ(文字コード等)を端末装置200に送信する。具体的には、CPU102は、キーボード画像610のキーがタッチされた場合、タッチされた位置座標から、タッチされたキーに対応する文字コードを特定する。CPU102は、タッチパッド画像612がタッチされた場合には、タッチされた位置に応じたデータを特定する。図8に示したタッチパッド画像612には、パッド領域618、左クリックキー614、右クリックキー616が含まれているので、CPU102は、パッド領域618内がタッチされた場合には、タッチ検出部112から取得した位置座標に対応する、パッド領域618内の位置座標を特定する。CPU102は、左クリックキー614又は右クリックキー616がタッチされた場合には、該当するコードを特定する。
In
画像表示装置100から送信されたデータは、後述するように、端末装置200によって受信されて、端末装置200に対する入力処理が実行される。
The data transmitted from the
ステップ408で「表示補助」であると判定された場合、ステップ422において、CPU102は表示部114に、表示補助機能を実行するための所定のメッセージ、及び連携機能の終了を指示するためのキーを表示する。例えば、図9に示すように、メッセージ及び終了キー620が表示される。
If it is determined in
後述するように、上記のメッセージを見たユーザが端末装置200のタッチ検出部212上でドラッグ操作を行なうと、端末装置200は、表示されている画面の画像データを、画像表示装置100に送信する。
As will be described later, when the user who sees the above message performs a drag operation on the
ステップ424において、CPU102は、タッチ検出部112へのタッチ操作があったか否かを判定する。タッチ操作があったと判定された場合、制御はステップ426に移行する。そうでなければ、ステップ424が繰返される。即ち、ユーザが、端末装置200のタッチ検出部212上でドラッグ操作を行なった後、画像表示装置100のタッチ検出部112にタッチすると、制御はステップ426に移行する。
In
ステップ426において、CPU102は、ステップ424で検出された操作が、終了キー620へのタッチであるか否かを判定する。終了キー620へのタッチであると判定された場合、制御はステップ420に移行し、表示画面の消去及び終了情報の送信を行なった後、制御はステップ400に戻る。終了キー620へのタッチでないと判定された場合、制御はステップ428に移行する。
In
ステップ428において、CPU102は、端末装置200から画像データを受信したか否かを判定する。受信したと判定された場合、制御はステップ430に移行する。そうでなければ、ステップ428が繰返される。
In
ステップ430において、CPU102は、ステップ428で受信した画像データを、ステップ424で検出されたタッチ位置に、例えば拡大して表示する。これによって、図10に示すように、端末装置200の表示部214の画面の画像と同じ画像632が、画像表示装置100の表示部114に表示される。
In
その後、制御はステップ428に戻る。したがって、端末装置200から画像データを受信する度に、画像表示装置100は画面600に表示することができる。例えば、ユーザが端末装置200を操作して端末装置200の画面が変更された状態で、ユーザがドラッグ操作を行なうと、新たな画像データが送信され、画像表示装置は受信した画像データを表示する。したがって、例えば、端末装置200の画面に表示されている、複数のページ画像のうちの1ページをドラッグ操作して、画像表示装置100に表示した後、端末装置200の画面に別のページを表示すれば、2ページを同時に表示することができる。
Thereafter, control returns to step 428. Therefore, each time image data is received from the
端末装置200の動作に関して説明する。図5を参照して、ステップ500において、CPU202は、連携の対象である画像表示装置100が検出されたか否かを判定する。検出されたと判定された場合、制御は502に移行する。そうでなければ、制御はステップ522に移行し、CPU202は、終了を指示されているか否かを判定する。終了の指示は、例えば、端末装置200の電源がオフされることによってなされる。終了を指示されていれば、本プログラムを終了する。そうでなければ、制御はステップ500に戻る。これにより、該当する画像表示装置100を検出するまで、検出処理が繰返される。
The operation of the
画像表示装置100が検出された場合、ステップ502において、CPU202は、選択情報を受信したか否かを判定する。選択情報は、上記したように、ステップ406において、画像表示装置100から送信される、入力補助及び表示補助の何れが選択されたかを表す情報である。選択情報を受信した場合、制御はステップ504に移行する。そうでなければ、ステップ502が繰返される。
When the
ステップ504において、CPU202は、ステップ502で受信した選択情報に応じて制御を分岐する。受信した選択情報が「入力補助」に対応すると判定された場合(選択情報=0)、制御はステップ506に移行する。受信した選択情報が「表示補助」に対応すると判定された場合(選択情報=1)、制御はステップ512に移行する。
In
ステップ506において、CPU202は、画像表示装置100からデータを受信したか否かを判定する。上記したステップ418において、画像表示装置100から、画像表示装置100に対するユーザの操作に応じたデータ(キーボード画像610上のタッチされたキーに対応する文字コード等)が送信される。受信したと判定された場合、制御はステップ508に移行する。そうでなければ、ステップ506が繰返される。
In
ステップ508において、CPU202は、ステップ506で受信したデータが終了情報であるか否かを判定する。終了情報は、上記したステップ420において、画像表示装置100から送信される。終了情報であると判定された場合、制御はステップ500に戻る。そうでなければ、制御はステップ510に移行する。
In
ステップ510において、CPU202は、受信したデータに応じた処理を実行する。即ち、CPU202は、受信したデータを入力データとして、選択されているアプリケーションに渡す。その後、制御はステップ506に戻る。
In
したがって、画像表示装置100に表示されたキーボード画像610又はタッチパッド画像612に対するタッチ操作がなされると、それに応じた入力処理が端末装置200上で実行される。例えば、端末装置200においてワープロソフトが起動され、選択されている状態で、画像表示装置100に表示されたキーボード画像610が操作されたことにより、端末装置200が文字コードを受信した場合、その文字コードはワープロソフトに渡され、ワープロソフトにより対応する文字が表示部214に表示される。また、画像表示装置100に表示されたタッチパッド画像612が操作(タッチ)された場合、受信されたデータが、選択されているアプリケーションに渡され、タッチパッド画像612の操作に対応する処理が、選択されているアプリケーションにより実行される。
Therefore, when a touch operation is performed on the
ステップ504で「表示補助」に対応すると判定された場合、ステップ512において、CPU202は、タッチ検出部212に対するタッチ操作がなされたか否かを判定する。タッチ操作が検出された場合、制御はステップ514に移行する。そうでなければ、制御はステップ518に移行し、終了情報を受信したか否かを判定する。終了情報は、上記したステップ420において、画像表示装置100から送信される。終了情報であると判定された場合、制御はステップ500に戻る。そうでなければ、制御はステップ512に戻る。
If it is determined in
ステップ514において、CPU202は、タッチ検出部212上でドラッグ操作がなされたか否かを判定する。ドラッグ操作が検出された場合、制御はステップ516に移行する。そうでなければ、制御はステップ520に移行する。
In
上記したように、画像表示装置100に、図9に示したようなメッセージが表示され、画像表示装置100に、端末装置200の画面を表示したいとユーザが考えた場合、ユーザは端末装置200においてドラッグ操作を行なう。
As described above, the message as shown in FIG. 9 is displayed on the
ステップ516において、CPU202は、表示部214の画面に表示されている画像データを、VRAM218から読出して画像表示装置100に送信する。送信した画像データは、画像表示装置100によって受信されて表示部114に表示される(ステップ428及びステップ430参照)。
In
その後、制御はステップ514に戻り、タッチ検出部212に対してドラッグ操作がなされる度に、表示部214の画面に表示されている画像データが画像表示装置100に送信される。
Thereafter, the control returns to step 514, and every time a drag operation is performed on the
ステップ512で検出された操作が、ドラッグ操作でなければ、ステップ520において、CPU202は、操作に対応する処理を実行する。その後、制御はステップ512に戻る。
If the operation detected in
表示補助機能が選択された場合、ステップ512〜ステップ520によって、ユーザは、端末装置200を操作して画面を変更することができ、画面が変更された後にドラッグ操作を行なえば、新たに画面に表示された画像データが送信されて画像表示装置100に表示される。
When the display assisting function is selected, the user can operate the
以上のように、画像表示装置100と端末装置200との連携により、画像表示装置100は、端末装置200に対する入力補助機能及び表示補助機能を提供することができる。即ち、入力補助機能によって、ユーザは、端末装置200の小さい画面にキーボード画像等を表示して画面の一部を入力のために使用することなく、端末装置200の画面全体を表示のために使用することができる。画像表示装置100の大画面に、通常の大きさのキーボード等が表示されるので、ユーザは入力操作を容易に行なうことができる。また、キーボード等を端末装置200と一緒に持ち運ばなくてもよい。さらに、表示補助機能によって、端末装置200の画面を拡大して画像表示装置100に表示することができるので、ユーザは、端末装置200を操作しながら、打合せ又はプレゼンテーション等を効率的に行なうことができる。
As described above, the
上記では、入力補助機能においては、入力処理のみに関して説明したが、キーボード画像610及びタッチパッド画像612を任意の位置に移動可能にしてもよい。例えば、キーボード画像610又はタッチパッド画像612の特定の部分(例えば、画像の上部)がタッチされ、タッチが維持された状態でドラッグされた場合、対象の画像を移動させてもよい。図11は、キーボード画像610及びタッチパッド画像612の位置が、図8の配置から変更された状態を示す。これによって、ユーザは、より容易且つ効率的に入力操作を行なうことができる。
In the above description, only the input processing is described in the input assisting function. However, the
同様に、表示補助機能において、画像表示装置100に表示された、端末装置200の画面の画像632の表示位置を、タッチ検出部112に対するドラッグ操作等によって変更できるようにしてもよい。
Similarly, in the display assisting function, the display position of the
上記では、画像表示装置100に表示された終了キー620がタッチされた場合に、連携を終了する場合を説明したがこれに限定されない。例えば、端末装置200が、画像表示装置100のタッチ検出部112の上から取除かれた時点で、連携を終了してもよい。
In the above, the case where the cooperation is ended when the
上記では、表示補助機能において、ユーザが端末装置200に対してドラッグ操作を行なった後、画像表示装置100に対してタッチ操作を行なうことによって、タッチ位置に端末装置200の画面の画像が表示される場合を説明したが、これに限定されない。例えば、ユーザが、端末装置200のタッチ検出部212に対して指によるドラッグ操作を行ない、そのままその指を画像表示装置100のタッチ検出部112に移動させて、続けてドラッグ操作を行なった場合に、そのドラッグ操作に応じて、画像表示装置100に端末装置200の画面の画像を表示してもよい。具体的には、図12に示すように、ユーザは、端末装置200の右端部分を画像表示装置100の画面(タッチ検出部112の上面)の左側にタッチさせた状態で、端末装置200上で右方向にドラッグ操作(左側の矢印)を行ない、そのまま、指を右方向に移動させて、画像表示装置100にタッチし、タッチを維持したままドラッグ操作を行なう(右側の矢印)。この操作にしたがって、CPU202は、端末装置200上でのドラッグにより、端末装置200の画面の画像データを画像表示装置100に送信する。CPU102は、タッチ位置(右側矢印の末端)に受信した画像の右端部分を表示し、その後のドラッグ操作の継続に応じて、現在のタッチ位置(右側矢印の先端)に画像の右端を移動させ、最初のタッチ位置(右側矢印の末端)までの範囲に、受信した画像の一部分630を表示する。ドラッグがさらに継続すると、図13に示すように、端末装置200の画面全体の画像632が画像表示装置100に表示される。このような操作によって、画像表示装置100と端末装置200との連携をより効果的に演出することができ、相手に印象付けることができる。
In the above, in the display assisting function, after the user performs a drag operation on the
また、上記では、表示補助機能において、ユーザがドラッグ操作を行なうことにより、端末装置200の画面の画像データが送信される場合を説明したが、ドラッグ操作以外の操作であってもよい。また、端末装置200の画面表示が変更される度に、ユーザがドラッグ操作を行なうことなく、自動的に端末装置200の画面の画像データが送信されるようにしてもよい。このようにすると、ユーザの操作が少なくてすみ、より効率的である。
In the above description, the case where image data of the screen of the
上記では、ユーザが入力補助機能及び表示補助機能の何れか一方を選択して利用する場合を説明したが、両方の機能を同時に利用可能にしてもよい。例えば、図4において、ステップ404でユーザが入力補助を選択した場合、ステップ412でキーボード画像610及びタッチパッド画像612を表示した後、表示補助機能を利用するか否かを選択するためのウィンドウを表示してもよい。ユーザが、表示補助機能の利用を選択した場合には、ステップ422〜430が実行されるようにすればよい。同様に、ステップ404でユーザが表示補助を選択した場合、ステップ430で端末装置の画面の画像を表示した後、入力補助機能を利用するか否かを選択するためのウィンドウを表示してもよい。ユーザが、入力補助機能の利用を選択した場合には、ステップ410〜418が実行されるようにすればよい。このようにすると、図14に示すように、端末装置200の画面が拡大されて表示された状態で、ユーザは、キーボード画像610及びタッチパッド画像612に対してタッチ操作を行なうことにより入力を行なうことができる。このとき、上記したように、端末装置200の画面表示が変更される度に、自動的に端末装置200の画面の画像データが送信されるようにすれば、キーボード画像610及びタッチパッド画像612に対するタッチ操作が自動的に、画像表示装置100に表示された画像632に反映され、効率的である。
In the above, the case where the user selects and uses one of the input assisting function and the display assisting function has been described. However, both functions may be simultaneously available. For example, in FIG. 4, when the user selects input assistance in
また、上記では、端末装置200の画面が画像表示装置100の画面と平行になるように、画像表示装置100の上に端末装置200を載置する場合を説明したが、これに限定されない。例えば、端末装置200を立てて配置するためのスタンド等を用いて、画像表示装置100のタッチ検出部112の上に、端末装置200を載置してもよい。
In the above description, the case where the
上記では、キーボード画像及びタッチパッドの画像を表示する場合を説明したが、これに限定されない。キーボード画像及びタッチパッド画像の何れか一方のみを表示してもよい。その場合、キーボード画像及びタッチパッド画像の何れを表示するかを、ユーザが選択可能にしてもよい。 Although the case where the keyboard image and the image of the touch pad are displayed has been described above, the present invention is not limited to this. Only one of the keyboard image and the touchpad image may be displayed. In that case, the user may be able to select which of the keyboard image and the touchpad image is to be displayed.
(第2の実施の形態)
第1の実施の形態では、端末装置の画面の画像と同じ画像を、例えば拡大して画像表示装置に表示する場合を説明したが、第2の実施の形態では、端末装置の画面の画像が、画像表示装置の画面の画像の一部を構成する。即ち、端末装置の画面が画像表示装置の画面を補完する。
(Second embodiment)
In the first embodiment, the case where the same image as the screen image of the terminal device is displayed on the image display device, for example, in an enlarged manner has been described. In the second embodiment, the image of the screen of the terminal device is displayed. And a part of the image of the screen of the image display device. That is, the screen of the terminal device complements the screen of the image display device.
第2の実施の形態に係る画像表示装置及び端末装置は、図1〜図3に示した第1の実施の形態に係る画像表示装置及び端末装置と同様に構成されている。以下においては、図1〜図3と同じ参照番号を使用する。第2の実施の形態に係る画像表示装置及び端末装置で実行されるプログラムは、第1の実施の形態と異なる。 The image display device and the terminal device according to the second embodiment have the same configuration as the image display device and the terminal device according to the first embodiment shown in FIGS. In the following, the same reference numbers are used as in FIGS. The programs executed by the image display device and the terminal device according to the second embodiment are different from those of the first embodiment.
図15及び図16を参照して、第2の実施の形態に係る画像表示装置100と端末装置200との連携に関して説明する。図15に示すフローチャートが、図4に示すフローチャートと異なるのは、ステップ700〜ステップ704が追加されているだけである。図15においては、便宜上、図4のステップ422〜ステップ430を、ステップ706(表示補助処理)としてまとめて記載している。また、図16に示すフローチャートが、図5に示すフローチャートと異なるのは、ステップ720〜ステップ726が追加されているだけである。図16においては、便宜上、図5のステップ512〜ステップ520を、ステップ728(表示補助端末側処理)としてまとめて記載している。
The cooperation between the
図15を参照して、入力補助が選択されてキーボード画像610及びタッチパッド画像612が表示された(ステップ412)後、入力操作がなされた場合(ステップ414での判定結果がYES)、ステップ700において、CPU102は、所定領域がタッチされたか否かを判定する。所定領域とは、キーボード画像610、タッチパッド画像612、及び終了キー620が表示された領域である。所定領域へのタッチであると判定された場合、制御はステップ416に移行する。そうでなければ、制御はステップ702に移行する。
Referring to FIG. 15, after input assistance is selected and
ステップ702において、CPU102は、端末装置200から画像データを受信したか否かを判定する。画像データの受信は、本プログラムと並行して実行されている別のプログラムによって行なわれ、受信された画像データは、RAM106又は記録部108に記憶される。画像データが受信されていれば、制御はステップ704に移行する。そうでなければ、制御はステップ414に戻る。端末装置200からの画像データの送信は、後述するように、端末装置200の画面上でのドラッグ操作によって指示される。
In
ステップ704において、CPU102は、受信している画像データを、端末装置200が搭載されている領域を含むように、表示部114に表示する。例えば、図17に示すように、端末装置200が置かれている領域を左下部分に含むように、画像640が表示される。その後、制御はステップ414に戻る。
In
図17では、端末装置200の画面上で、矢印で示すようにドラッグ操作がなされたことによって、端末装置200の画面の画像データが画像表示装置100に送信され、画像表示装置100の表示部114に何も表示されていない領域に対応する、タッチ検出部112上の領域がタッチされたことによって、端末装置200の画面と同じ画像640が表示されている。
In FIG. 17, the image data of the screen of the
図16を参照して、入力補助に対応するデータを受信した(ステップ504での判定結果がYES)後、画像表示装置100からのデータを受信していない場合(ステップ506での判定結果がNO)、ステップ720において、CPU202は、タッチ検出部212に対するタッチ操作がなされたか否かを判定する。タッチ操作が検出された場合、制御はステップ722に移行する。そうでなければ、ステップ720が繰返される。
Referring to FIG. 16, after data corresponding to input assistance is received (the determination result in
ステップ722において、CPU202は、タッチ検出部212上でドラッグ操作がなされたか否かを判定する。ドラッグ操作が検出された場合、制御はステップ724に移行する。そうでなければ、制御はステップ726に移行する。
In
ステップ724において、CPU202は、表示部214の画面に表示されている画像データを、VRAM218から読出して画像表示装置100に送信する。送信され画像データは、上記したように、画像表示装置100によって受信されて表示部114に表示される(ステップ702及びステップ704参照)。その後、制御はステップ506に戻る。
In
ステップ720で検出された操作が、ドラッグ操作でなければ、ステップ726において、CPU202は、操作に対応する処理を実行する。その後、制御はステップ506に戻る。
If the operation detected in
したがって、入力補助が選択された場合(ステップ408での判定結果がYES)、ステップ700〜ステップ704、及びステップ720〜ステップ726によって、ユーザは、端末装置200を操作して画面の表示を変更することができ、画面の表示が変更された後にドラッグ操作を行なえば、新たな画面の画像データが送信されて画像表示装置100に表示される。
Therefore, when the input assistance is selected (the determination result in
図17の状態から、図18に示すように、端末装置200が画像表示装置100の上から取除かれても(取除かれた端末装置200は左端部分のみが示されている)、端末装置200の画面の画像と同じ画像640の表示は維持される。したがって、ユーザは、端末装置200の画面が拡大されて表示された画像640を見ながら、キーボード画像610及びタッチパッド画像612に対してタッチ操作を行なうことができるので、入力操作を効率的に行なうことができる。
17, even if the
上記では、端末装置200が画像表示装置100の上から取除かれても、端末装置200の画面と同じ画像640の表示が維持される場合を説明したが、図19に示すように、端末装置200が画像表示装置100の上から取除かると、端末装置200が置かれていた部分が表示されないようにしてもよい。即ち、ステップ704において、受信した画像データを表示する場合に、画像データのうち、端末装置200が載置されている領域に表示される部分画像のデータを、別のデータ(例えば、黒等を表す単一色のデータ)に置換えて、表示部114に表示する。図19では、端末装置200が置かれていた部分644は単色で表示されている(グレーアウト)。このようにすれば、例えば図20に示すように、ユーザは、端末装置200を取除いた後、相手に見せたくない画像802を端末装置200に表示して、検討することができる。図20では、端末装置200で実行されているアプリケーションのウィンドウに、社外秘の情報が表示されているが、その情報は、画像表示装置100には表示されていない。この状態で、端末装置200に対してドラッグ操作がなされて、端末装置200の新たな画面の画像データが送信されても、社外秘の情報が表示されたウィンドウの位置が変更されない限り、画像表示装置100には、端末装置200の新たな画面の画像データが、社外秘の情報が除かれた状態で表示される。
In the above description, the case where the display of the
(第3の実施の形態)
第1及び第2の実施の形態に係る画像表示装置は1台の端末装置と連携し、端末装置に対する入力補助機能を提供した。第3の実施の形態に係る画像表示装置は、複数の端末装置と連携し、各端末装置に対して入力補助機能を提供する。
(Third embodiment)
The image display devices according to the first and second embodiments cooperate with one terminal device to provide an input assist function for the terminal device. The image display device according to the third embodiment cooperates with a plurality of terminal devices to provide an input assist function to each terminal device.
第3の実施の形態に係る画像表示装置は、図1に示した第1の実施の形態に係る画像表示装置と同様に構成されている。また、複数台の各端末装置は、図3に示した端末装置と同様に構成されている。第3の実施の形態に係る画像表示装置及び端末装置で実行されるプログラムは、第1及び第2の実施の形態と異なる。 The image display device according to the third embodiment has the same configuration as the image display device according to the first embodiment shown in FIG. Each of the plurality of terminal devices has the same configuration as the terminal device shown in FIG. The programs executed by the image display device and the terminal device according to the third embodiment are different from those of the first and second embodiments.
図21及び図22を参照して、第3の実施の形態に係る画像表示装置100が2台の端末装置に入力補助機能を提供する場合に関して説明する。以下においては、画像表示装置に関しては、図1と同じ参照番号を使用する。2台の端末装置は、後述するように第1端末装置及び第2端末装置を明記した上で、図3の参照番号を使用する。図21及び図22において、図4及び図5と同じ参照番号を付したステップは、図4及び図5のステップと同じである。
A case where the
図21を参照して、連携機能を提供する対象の端末装置がステップ400で検出された後、ステップ740において、CPU102は、表示部114に、2台の端末装置に対して入力補助機能を提供可能であることを示すメッセージを含む画像を表示する。具体的には、図23に示すように、画面600に、メッセージを含むウィンドウ660と2台用キー662とが表示される。
Referring to FIG. 21, after a terminal device to which a cooperative function is provided is detected in
ステップ742において、CPU102は、2台での利用が選択されたか否かを判定する。2台での利用は、2台用キー662がタッチされることによって選択される。2台での利用が選択されたと判定された場合、制御はステップ744に移行する。そうでなければ、制御はステップ410に移行する。
In
なお、画像表示装置100は2台の端末装置を識別する必要がある。例えば、1台の端末装置に関して電源オン、プログラムの起動、及び画像表示装置100への載置を行なった後、別の端末装置に関して、電源オン、プログラムの起動、及び画像表示装置100への載置を行なうようにすれば、画像表示装置100は2台の端末装置を識別し、2台の端末装置と、表示した2組のキーボード画像及びタッチパッド画像とを対応させることができる。また、2台の端末装置がオンされ、専用プログラムが起動された状態で、画像表示装置100と通信可能になった場合には、端末装置が搭載されたときに、2台の端末装置を識別する情報(デバイス名等)を表示し、ユーザに選択させることにより、端末装置と、キーボード画像及びタッチパッド画像とを対応させてもよい。
Note that the
ステップ744において、CPU102は、画面600を2分割する境界線を表示する。例えば、図24に示すように、破線の境界線664を表示する。図24において、タッチされた2台用キー662は、選択されていることを表すために輝度が反転されて表示されている。
In
ステップ746において、CPU102は、タッチ検出部112の上に、端末装置が載置されたか否かを判定する。載置された場合、CPU102は、カウンタ(初期値は“0”)に“1”を加算し、制御はステップ748に移行する。そうでなれば、ステップ746が繰返される。以下、最初に載置された端末装置を第1端末装置という。
In
ステップ748において、CPU102は、載置された第1端末装置の近傍にキーボード画像及びタッチパッド画像を表示する。具体的には、境界線664と平行な第1端末装置が載置された側の辺と、第1端末装置が載置された位置との間に、キーボード画像及びタッチパッド画像を表示する。例えば、図25に示したように、第1端末装置222が載置された場合、キーボード画像670及びタッチパッド画像672が表示される。
In
ステップ750において、CPU102は、2台の端末装置が全て載置されたか否かを判定する。2台目の端末装置(以下、第2端末装置という)が載置された場合、ステップ746が再度実行され、カウンタの加算処理が実行されて、カウンタの値が“2”になるので、カウンタが“2”であるか否かを判定する。全て載置されたと判定された場合、制御はステップ414に移行する。そうでなければ、制御はステップ746に戻る。
In
2台の端末装置が載置された状態は、図26のようになる。図26では、上記したように、第1端末装置222が載置された領域674にキーボード画像670及びタッチパッド画像672が表示され、第2端末装置224が載置された領域676に、対応するキーボード画像678及びタッチパッド画像680が表示されている。
FIG. 26 shows a state where two terminal devices are placed. In FIG. 26, as described above, the
ステップ742での判定の結果、2台用キー662がタッチされていなければ、ステップ410において、CPU102は、タッチ検出部112の上に、端末装置が載置されたか否かを判定する。
If the result of determination in
CPU102は、ステップ414において、キーボード画像及びタッチパッド画像に対して入力操作がなされたか否かを判定し、入力された場合、ステップ418において、ステップ414で取得したタッチ位置座標からタッチ位置に対応する指示を特定し、対応するデータ(文字コード等)を、第1端末装置222及び第2端末装置224のうち、対応する端末装置に送信する。2台用キー662がタッチされないまま、ステップ414が実行される場合(これは、カウンタの値が初期値“0”であるか否かにより判定できる)には、以下では1台の端末装置に関して処理が実行される。
In
ステップ752において、CPU102は、端末装置が、画像表示装置の上から除去されたか否かを判定する。除去されたと判定された場合、制御はステップ754に移行する。そうでなければ、制御はステップ414に戻る。
In
ステップ754において、CPU102は、端末装置が除去された領域からキーボード画像、タッチパッド画像、境界線、及び2台用キー662を削除し、その端末装置に終了情報を送信する。このとき、CPU102は、カウンタが“0”でなければ、カウンタを“1”だけ減算する。
In
ステップ756において、CPU102は、端末装置が全て除去された否かを判定する。これは、カウンタが初期値(“0”)であるか否かによって判定される。端末装置が2台とも除去されたと判定された場合、制御はステップ400に戻る。そうでなければ、制御はステップ414に戻る。
In
図22を参照して、第1端末装置及び第2端末装置が実行するプログラムの各ステップは、図5に示されたステップのうち、入力補助機能に関連するステップと同じである。即ち、第1端末装置及び第2端末装置は、上記したように、画像表示装置100との通信が確立された後、画像表示装置100から自機宛ての入力データを受信し、入力データに応じた処理を実行する。
Referring to FIG. 22, the steps of the program executed by the first terminal device and the second terminal device are the same as the steps related to the input assist function among the steps shown in FIG. That is, as described above, after the communication with the
このようにして、2台用キー662がタッチされない状態で、1台の端末装置が載置されると(ステップ742でNO、ステップ410でYES)、第1の実施の形態と同様に、1台の端末装置に対して入力補助機能を提供することができる。一方、2台用キー662がタッチされ、2台の端末装置が載置されると、画像表示装置100は、2台の端末装置に対して入力補助機能を提供することができる。載置されている端末装置のうち、1台の端末装置が除去されると、対応するキーボード画像及びタッチパッド画像が消去される。その状態では、搭載された端末装置があれば、その端末装置に対する入力補助機能は維持される。端末装置が全て除去されると。画像表示装置100の画面から画像が消去され、最初の状態に戻る。
In this way, when one terminal device is placed in a state where the two
上記では、ユーザが2台用キー662にタッチすることによって、2台の端末装置に対して入力補助機能を提供する場合を説明したが、これに限定されない。例えば、図23のような画面を表示することなく、端末装置が画像表示装置に載置される度に、画像表示装置が端末装置と通信を確立し、端末装置の近傍に、キーボード画像及びタッチパッド画像を表示するスペースがあれば、それらを表示してもよい。
In the above, the case where the user provides the input assistance function to the two terminal devices by touching the two
また、画像表示装置の画面600の分割の方法は、図24のような分割方法に限定されない。例えば、図27に示すように、画面600の対角位置を使用してもよい。
Further, the method of dividing the
また、画像表示装置の画面が大きければ、3台以上の端末装置に入力補助機能を提供するようにしてもよい。 If the screen of the image display device is large, the input assist function may be provided to three or more terminal devices.
以上、実施の形態を説明することにより本発明を説明したが、上記した実施の形態は例示であって、本発明は上記した実施の形態に限定されるものではなく、種々変更して実施することができる。 As described above, the present invention has been described by describing the embodiment. However, the above-described embodiment is merely an example, and the present invention is not limited to the above-described embodiment, and may be implemented with various changes. be able to.
100 画像表示装置
102、202 演算処理部(CPU)
104、204 読出専用メモリ(ROM)
106、206 書換可能メモリ(RAM)
108、208 記録部
110、210 通信部
112、212 タッチ検出部
114、214 表示部
116、216 表示制御部
118、218 ビデオメモリ(VRAM)
120、220 バス
600 画面
610、670、678 キーボード画像
612、672、680 タッチパッド画像
620 終了キー
100
104, 204 Read-only memory (ROM)
106, 206 Rewritable memory (RAM)
108, 208
120, 220
Claims (14)
前記表示部の画像表示面上に配置され、前記画像表示面のタッチされた位置を検出する検出部と
を備え、
前記表示部は、外部装置が前記検出部の上に載置されたことを前記検出部が検出したことを受けて、前記外部装置に情報を入力するための入力機器の画像を表示するか否かを選択する画面を前記画像表示面に表示し、
前記表示部は、前記入力機器の画像を表示することが選択されたことを前記検出部が検出したことを受けて、前記入力機器の画像を前記画像表示面に表示する、画像表示装置。 A display section in which the image display surface is arranged horizontally,
A detection unit arranged on an image display surface of the display unit and detecting a touched position of the image display surface,
The display unit is configured to display an image of an input device for inputting information to the external device in response to the detection unit detecting that the external device is mounted on the detection unit. Display a screen for selecting on the image display surface,
The image display device, wherein the display unit displays the image of the input device on the image display surface in response to the detection unit detecting that the display of the image of the input device has been selected.
前記外部装置が載置された状態で前記画像表示面がタッチされたことを前記検出部が検出したことを受けて、前記外部装置から受信した前記外部装置の画像表示面に表示された画像データを、前記外部装置の載置された載置領域に対応する部分を含む領域に拡大表示し、
前記拡大表示された状態で前記外部装置が前記検出部の上から取除かれたことを前記検出部が検出したことを受けて、前記載置領域に対応する部分に表示されていた部分画像を異なる部分画像に変更する、請求項1から3のいずれかに記載の画像表示装置。 The display unit,
In response to the detection unit detecting that the image display surface has been touched while the external device is mounted, image data displayed on the image display surface of the external device received from the external device. Is enlarged and displayed in an area including a portion corresponding to the mounting area where the external device is mounted,
In response to the detection unit detecting that the external device has been removed from above the detection unit in the enlarged display state, a partial image displayed in a portion corresponding to the placement area is described. The image display device according to any one of claims 1 to 3, wherein the image display device changes to a different partial image.
前記外部装置が載置された状態で前記画像表示面がタッチされたことを前記検出部が検出したことを受けて、前記外部装置から受信した前記外部装置の画像表示面に表示された画像データを、前記外部装置の載置された載置領域に対応する部分を含む領域に拡大表示し、
前記拡大表示された状態で前記外部装置が前記検出部の上から取除かれたことを前記検出部が検出しても、前記拡大表示を維持する、請求項1から3のいずれかに記載の画像表示装置。 The display unit,
In response to the detection unit detecting that the image display surface has been touched while the external device is mounted, image data displayed on the image display surface of the external device received from the external device. Is enlarged and displayed in an area including a portion corresponding to the mounting area where the external device is mounted,
4. The enlarged display according to claim 1, wherein the enlarged display is maintained even when the detection unit detects that the external device has been removed from above the detection unit in the enlarged display state. 5. Image display device.
前記画像表示面上に載置された外部装置の位置を検知する外部装置検知ステップと、
前記外部装置の位置を検知した後、前記画像表示面に、前記外部装置に情報を入力するための入力機器の画像を表示するか否かを選択する画面を表示する選択画面表示ステップと、
前記画像表示面において、前記入力機器の画像を表示することが選択されたことを検出する入力機器画像選択検出ステップと、
前記入力機器の画像を表示することが選択されたことを検出した後、前記入力機器を示す画像を表示する入力機器画像表示ステップと
を包含する、画像表示方法。 An image display method for displaying an image on a horizontally arranged image display surface,
An external device detection step of detecting a position of the external device placed on the image display surface,
After detecting the position of the external device, on the image display surface, a selection screen display step of displaying a screen for selecting whether to display an image of an input device for inputting information to the external device,
On the image display surface, an input device image selection detection step of detecting that display of the image of the input device has been selected,
An input device image displaying step of displaying an image indicating the input device after detecting that the display of the image of the input device has been selected.
前記タッチ検知ステップにおいて、前記画像表示面がタッチされたことを検出したことを受けて、前記外部装置から受信した、前記外部装置の画像表示面に表示された画像データを、拡大して表示する表示部表示ステップと
をさらに包含する、請求項8または9に記載の画像表示方法。 A touch detection step of detecting a touch on the image display surface,
In the touch detection step, in response to detecting that the image display surface has been touched, image data received from the external device and displayed on the image display surface of the external device is enlarged and displayed. The image display method according to claim 8, further comprising a display unit display step.
前記拡大表示された状態で、前記外部装置検知ステップにおいて、前記外部装置が前記画像表示面の上から取除かれたことが検出されたことを受けて、前記表示部表示ステップにおいて、前記外部装置が載置された位置に対応する部分に表示されていた部分画像が、異なる部分画像に変更される、請求項10に記載の画像表示方法。 In a state where the external device is mounted, in the touch detection step, in response to detecting that the image display surface has been touched, the external device received from the external device in the display unit display step The image data displayed on the image display surface is enlarged and displayed in an area including a portion corresponding to the position where the external device is mounted,
In the enlarged display state, in the external device detection step, in response to the detection that the external device has been removed from above the image display surface, in the display unit display step, the external device The image display method according to claim 10, wherein the partial image displayed on the portion corresponding to the position where is placed is changed to a different partial image.
前記拡大表示された状態で、前記外部装置検知ステップにおいて、前記外部装置が前記画像表示面上から取除かれたことが検出されても、前記表示部表示ステップにおいて、前記拡大表示を維持する、請求項10に記載の画像表示方法。 In a state where the external device is placed, in response to detecting that the image display surface has been touched in the touch detection step, the display unit displaying step includes the step of displaying the external device received from the external device. Image data displayed on the image display surface is enlarged and displayed in an area including a portion corresponding to the position where the external device is mounted,
In the enlarged display state, in the external device detection step, even if it is detected that the external device has been removed from the image display surface, the display unit display step maintains the enlarged display. The image display method according to claim 10.
前記タッチ検知ステップにおいて、複数台の前記外部装置の各々に対して入力機器を表示する指示を受けたことに応じて、複数台の前記外部装置の各々を載置する領域の境界線を表示する境界線表示ステップと
をさらに包含する、請求項8に記載の画像表示方法。 A touch detection step of detecting a touch on the image display surface,
In the touch detection step, in response to receiving an instruction to display an input device for each of the plurality of external devices, displaying a boundary line of a region where each of the plurality of external devices is placed The image display method according to claim 8, further comprising a boundary line display step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019043037A JP6654722B2 (en) | 2019-03-08 | 2019-03-08 | Image display device and image display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019043037A JP6654722B2 (en) | 2019-03-08 | 2019-03-08 | Image display device and image display method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017228070A Division JP6522719B2 (en) | 2017-11-28 | 2017-11-28 | Image display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019117649A JP2019117649A (en) | 2019-07-18 |
JP6654722B2 true JP6654722B2 (en) | 2020-02-26 |
Family
ID=67304690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019043037A Active JP6654722B2 (en) | 2019-03-08 | 2019-03-08 | Image display device and image display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6654722B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220061752A (en) | 2020-11-06 | 2022-05-13 | 삼성전자주식회사 | Method for controlling a flexible display and electronic device thereof |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4618401B2 (en) * | 2003-07-04 | 2011-01-26 | 富士ゼロックス株式会社 | Information display system and information display method |
JP4933304B2 (en) * | 2006-10-16 | 2012-05-16 | キヤノン株式会社 | Image processing apparatus, control method thereof, and program |
US8421747B2 (en) * | 2008-09-24 | 2013-04-16 | Microsoft Corporation | Object detection and user settings |
US8427424B2 (en) * | 2008-09-30 | 2013-04-23 | Microsoft Corporation | Using physical objects in conjunction with an interactive surface |
US20120249463A1 (en) * | 2010-06-04 | 2012-10-04 | Smart Technologies Ulc | Interactive input system and method |
JP2013041350A (en) * | 2011-08-12 | 2013-02-28 | Panasonic Corp | Touch table system |
JP2013130982A (en) * | 2011-12-21 | 2013-07-04 | Sharp Corp | Information display device |
-
2019
- 2019-03-08 JP JP2019043037A patent/JP6654722B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019117649A (en) | 2019-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110647248B (en) | Image display device and method of operating the same | |
KR20110063561A (en) | Device for controlling an electronic apparatus by handling graphic objects on a multi-contact touch screen | |
JP6189680B2 (en) | Interface device, interface method, interface program, and computer-readable recording medium storing the program | |
JP5905783B2 (en) | Image display system | |
KR20150144267A (en) | Method for arranging icon and electronic device supporting the same | |
JP2012168621A (en) | Touch drawing display device and operation method therefor | |
JP2014016743A (en) | Information processing device, information processing device control method and information processing device control program | |
CN101650635A (en) | Method for controlling remote display by terminal equipment and terminal equipment | |
JP2004030536A (en) | Information processor and character input support method used in the processor | |
JP6654722B2 (en) | Image display device and image display method | |
JP6253945B2 (en) | Image display device | |
JP6522719B2 (en) | Image display method | |
JP2020190928A (en) | Information processing device, information processing method, and information processing program | |
US9075433B1 (en) | Information processing method and electronic device | |
JP6105434B2 (en) | Image display apparatus and operation method thereof | |
JP6139854B2 (en) | Display device | |
JP2017215857A (en) | Display, display method, and program | |
JP6600423B2 (en) | Display device, display method, and program | |
JP2019204384A (en) | Information processing apparatus, information processing method, and program | |
JP6162001B2 (en) | Drawing system | |
JP2013219610A (en) | Information processing apparatus, information processing method, and keyboard creation system | |
JP6466527B2 (en) | Display device, display method, and program | |
JP6416988B2 (en) | Display device, display method, and program | |
JP6377828B2 (en) | Image display device, display control program, and display control method | |
JP6466993B2 (en) | Display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6654722 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |