JP2019117649A - Image display apparatus and image display method - Google Patents

Image display apparatus and image display method Download PDF

Info

Publication number
JP2019117649A
JP2019117649A JP2019043037A JP2019043037A JP2019117649A JP 2019117649 A JP2019117649 A JP 2019117649A JP 2019043037 A JP2019043037 A JP 2019043037A JP 2019043037 A JP2019043037 A JP 2019043037A JP 2019117649 A JP2019117649 A JP 2019117649A
Authority
JP
Japan
Prior art keywords
image
image display
display
external device
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019043037A
Other languages
Japanese (ja)
Other versions
JP6654722B2 (en
Inventor
福田 吉夫
Yoshio Fukuda
吉夫 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2019043037A priority Critical patent/JP6654722B2/en
Publication of JP2019117649A publication Critical patent/JP2019117649A/en
Application granted granted Critical
Publication of JP6654722B2 publication Critical patent/JP6654722B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an image display apparatus capable of assisting input to a mobile terminal and expanding an image display function of the mobile terminal in synchronization with the mobile terminal.SOLUTION: An image display apparatus according to the present invention includes a display unit and a detection unit. An image display surface of the display unit is arranged horizontally. The detection unit is disposed on the image display surface of the display unit, and detects a touched position of the image display surface. The display unit displays a screen on the image display surface for selection as to whether to display the image of an input device for inputting information to an external device in response to such detection by the detection unit that the external device is placed on the detection unit, and the display unit displays the image of the input device on the image display surface in response to the detection unit detecting that the display of the image of the input device is selected.SELECTED DRAWING: Figure 4

Description

本発明は、タッチパネルディスプレイの画像表示面が水平に配置されたテーブル型画像表示装置に関し、特に、携帯端末と同期して、携帯端末への入力の補助、及び携帯端末の画像表示機能の拡張を可能とする画像表示装置に関する。   The present invention relates to a table-type image display device in which an image display surface of a touch panel display is horizontally arranged, and in particular, assisting in input to a mobile terminal and extending an image display function of the mobile terminal in synchronization with the mobile terminal. The present invention relates to an image display device that enables this.

近年、携帯型の情報処理装置が普及している。そのユーザインターフェイス装置として、画像表示面上にタッチパネルが配置されたディスプレイ(以下、タッチパネルディスプレイという)が採用されている。タッチパネルディスプレイに表示された対象を直接タッチ操作するだけでなく、文字及び数字等の入力が必要な場合には、画面にソフトウェアキーボードを表示し、これを操作することが一般化している。   In recent years, portable information processing apparatuses have become widespread. As the user interface device, a display (hereinafter referred to as a touch panel display) in which a touch panel is arranged on an image display surface is adopted. When it is necessary not only to directly touch the object displayed on the touch panel display but also to input characters and numbers, it is common to display a software keyboard on the screen and operate it.

コンピュータにおいてもタッチパネルディスプレイが搭載され、タッチ操作を想定したユーザインターフェイスを採用したオペレーティングシステム(OS)も提供されている。従来のコンピュータ用キーボード(以下、単にキーボードという)及びコンピュータ用マウスの何れも標準装備していないタブレットPC又はタブレット端末等と呼ばれる携帯端末装置も提供されている。   Also in a computer, a touch panel display is mounted, and an operating system (OS) adopting a user interface assuming a touch operation is also provided. There is also provided a portable terminal device called a tablet PC or a tablet terminal etc. which is not equipped with either a conventional computer keyboard (hereinafter simply referred to as a keyboard) and a computer mouse as standard.

タッチパネルディスプレイに関しては、その大画面化が進展しており、今後、タッチパネルディスプレイが種々の用途に使用されることが予想される。例えば、電子黒板等の用途は元より、画像表示面を水平に配置して、タッチ操作可能なテーブル(事務用テーブル又は会議用テーブル等)として使用することが提案されている。   With regard to touch panel displays, the increase in screen size has progressed, and it is expected that touch panel displays will be used for various applications in the future. For example, it has been proposed that the image display surface be arranged horizontally and used as a table (such as an office table or a conference table) that can be operated by touch, from the original use of an electronic blackboard or the like.

このようなタッチパネルディスプレイの普及に伴い、タッチ操作の改善が要望されている。例えば、下記特許文献1には、オフィス環境を改善するための事務機器一体型デスクにおいて、入力手段としてキーボードをタッチパネルに表示する技術が開示されている。具体的には、デスクの天板にパソコン機能部を備え、パソコン機能部には、ディスプレイ画面を表示するスクリーン部と、キーボードを表示するキーボード用タッチパネルとが設けられている。また、下記特許文献2には、テーブルの上面がタッチパネルで構成され、外部のコンピュータに接続されて、テーブル上面に表示用画面とキーボードとを表示する技術が開示されている。このテーブルには、タッチパネルの機能をオン/オフするためのフットスイッチ又はプッシュスイッチを備えている。   With the spread of such touch panel displays, there is a demand for improvement in touch operations. For example, Patent Document 1 below discloses a technology for displaying a keyboard as an input unit on a touch panel in an office equipment integrated desk for improving an office environment. Specifically, the top plate of the desk is provided with a personal computer function unit, and the personal computer function unit is provided with a screen unit for displaying a display screen and a keyboard touch panel for displaying a keyboard. Further, Patent Document 2 below discloses a technology in which the upper surface of a table is configured by a touch panel and connected to an external computer to display a display screen and a keyboard on the upper surface of the table. The table is provided with a foot switch or push switch for turning on / off the touch panel function.

特開平8−89346号公報JP-A-8-89346 特開2012−138030号公報JP, 2012-138030, A

しかし、特許文献1に開示された技術では、液晶パネルの大きさの制約により、デスクの天板の一部にタッチパネルディスプレイを設けることしかできず、主に個人使用に限定され、複数人で同時に使用することができない問題があった。   However, in the technology disclosed in Patent Document 1, due to the restriction of the size of the liquid crystal panel, it is only possible to provide a touch panel display on a part of the desk top, which is mainly limited to personal use, and by multiple persons simultaneously There was a problem that can not be used.

上記したように、タッチパネルディスプレイの大画面化が進展しているが、画像表示面を水平に配置して、テーブルとして使用したタッチ操作可能なテーブル型画像表示装置は、十分に活用されておらず、その可能性が十分に検討されていない。例えば、特許文献2では、テーブルの上面を構成するタッチパネルの機能を、単にオン/オフすることしかできない。   As described above, although the screen size of touch panel displays has progressed, the table-type image display device capable of touch operation using an image display surface arranged horizontally as a table has not been fully utilized. , The possibility has not been fully considered. For example, in patent document 2, the function of the touch panel which comprises the upper surface of a table can only be turned on / off.

近年では、Bluetooth(登録商標)、Wi−Fi等の無線通信環境が普及している。これらの無線通信機能が標準搭載された携帯端末も普及しており、携帯端末とテーブル型画像表示装置との連携により、操作性の改善、利便性の向上、及び新たな機能の創出が期待される。   In recent years, wireless communication environments such as Bluetooth (registered trademark) and Wi-Fi have become widespread. Portable terminals equipped with these wireless communication functions as standard are also in widespread use, and cooperation between the portable terminal and the table-type image display device is expected to improve operability, improve convenience, and create new functions. Ru.

したがって、本発明は、タッチパネルディスプレイの画像表示面が水平に配置されたテーブル型画像表示装置であって、携帯端末と同期して、携帯端末への入力の補助、及び携帯端末の画像表示機能の拡張を可能とする画像表示装置を提供することを目的とする。   Therefore, the present invention is a table-type image display device in which the image display surface of the touch panel display is arranged horizontally, and in synchronization with the portable terminal, assisting the input to the portable terminal and the image display function of the portable terminal. An object of the present invention is to provide an image display device that enables expansion.

本発明に係る画像表示装置は、画像表示面が水平に配置された表示部と、表示部の画像表示面上に配置され、タッチされた位置を検出する検出部とを含む。表示部は、検出部が、外部装置が検出部の上に載置されたことを検出したことを受けて、検出された載置領域に対応する画像表示面上の領域の近傍に、外部装置に対する入力機器の画像を表示する。   The image display apparatus according to the present invention includes a display unit in which an image display surface is horizontally disposed, and a detection unit disposed on the image display surface of the display unit and detecting a touched position. The display unit receives the detection that the external device has been placed on the detection unit, and the external device is provided in the vicinity of the area on the image display surface corresponding to the detected placement area. Display the image of the input device for.

好ましくは、画像表示装置は、検出部により、入力機器の画像に対応する位置へのタッチが検出されたことを受けて、入力機器に対する操作に対応する指示情報を、外部装置に送信する通信部をさらに含む。   Preferably, the image display apparatus transmits the instruction information corresponding to the operation on the input device to the external device in response to the detection unit detecting that the touch to the position corresponding to the image of the input device is detected by the detection unit. Further includes

より好ましくは、表示部は、検出部が、入力機器の画像の表示位置の変更を指示されたことを受けて、新たに指示された位置に、入力機器の画像を移動させて表示する。   More preferably, the display unit moves and displays the image of the input device to the newly instructed position in response to the detection unit being instructed to change the display position of the image of the input device.

さらに好ましくは、表示部は、検出部により、タッチされたことが検出されたことを受けて、外部装置から受信した、外部装置の画像表示面に表示された画像データを、拡大して表示する。   More preferably, the display unit magnifies and displays the image data displayed on the image display surface of the external device, which is received from the external device in response to the detection of the touch detected by the detection unit. .

好ましくは、表示部は、外部装置が載置された状態で、検出部により、タッチされたことが検出されたことを受けて、外部装置から受信した外部装置の画像表示面に表示された画像データを、載置領域に対応する部分を含む領域に拡大表示し、拡大表示された状態で、検出部により、外部装置が検出部の上から取除かれたことを受けて、載置領域に対応する部分に表示されていた部分画像を異なる部分画像に変更する。   Preferably, the display unit is an image displayed on the image display surface of the external device received from the external device in response to the detection of the touch detected by the detection unit in a state where the external device is placed. The data is enlarged and displayed in the area including the portion corresponding to the mounting area, and in the enlarged display state, the detection unit receives that the external device is removed from above the detection unit, and The partial image displayed in the corresponding part is changed to a different partial image.

より好ましくは、表示部は、外部装置が載置された状態で、検出部により、タッチされたことが検出されたことを受けて、外部装置から受信した外部装置の画像表示面に表示された画像データを、載置領域に対応する部分を含む領域に拡大表示し、拡大表示された状態で、検出部により、外部装置が検出部の上から取除かれたことが検出されても、拡大表示を維持する。   More preferably, the display unit is displayed on the image display surface of the external device received from the external device in response to detection of the touch by the detection unit in a state where the external device is placed. The image data is enlarged and displayed in an area including a portion corresponding to the placement area, and in the enlarged state, even if the detection unit detects that the external device is removed from above the detection unit, the enlargement is performed. Keep the display.

さらに好ましくは、表示部は、検出部が、複数の外部装置が検出部の上に載置されたことを検出したことを受けて、検出された複数の載置位置に対応する位置の各々の近傍に、入力機器の画像を表示する。   More preferably, in response to the detection unit detecting that the plurality of external devices are placed on the detection unit, the display unit further detects each of the positions corresponding to the plurality of detected placement positions. Display the image of the input device in the vicinity.

好ましくは、表示部は、検出部が、複数台の外部装置の各々に対して入力機器を表示する指示を受けたことに応じて、複数台の外部装置の各々を載置する領域の境界線を表示する。   Preferably, the display unit is a boundary of a region on which each of the plurality of external devices is to be placed in response to the detection unit receiving an instruction to display the input device to each of the plurality of external devices. Display

本発明によれば、テーブル型画像表示装置において、画像表示面の上に端末装置が載置されると、端末装置の近傍にキーボード等の入力機器の画像が表示されることにより、ユーザは端末装置への入力を容易に行なうことができる。   According to the present invention, in the table type image display device, when the terminal device is placed on the image display surface, the image of the input device such as the keyboard is displayed in the vicinity of the terminal device, thereby the user Input to the device can be easily performed.

また、端末装置の表示画面に表示された画像を、より大画面の画像表示装置に表示することにより、ユーザは、打合せ又はプレゼンテーション等を、容易且つ効率的に行なうことができる。   Further, by displaying the image displayed on the display screen of the terminal device on the image display device with a larger screen, the user can easily and efficiently perform a meeting, a presentation, and the like.

本発明の第1の実施の形態に係る画像表示装置の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of an image display device according to a first embodiment of the present invention. タッチ入力の検出方法の一例を示す図である。It is a figure which shows an example of the detection method of touch input. 本発明の第1の実施の形態に係る画像表示装置と連携する端末装置の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a terminal device cooperating with an image display device according to a first embodiment of the present invention. 本発明の第1の実施の形態に係る画像表示装置と端末装置との連携を実現するために、画像表示装置において実行されるプログラムの制御構造を示すフローチャートである。It is a flowchart which shows the control structure of the program run in an image display apparatus, in order to implement | achieve cooperation with the image display apparatus which concerns on the 1st Embodiment of this invention, and a terminal device. 本発明の第1の実施の形態に係る画像表示装置と端末装置との連携を実現するために、端末装置において実行されるプログラムの制御構造を示すフローチャートである。It is a flowchart which shows the control structure of the program performed in a terminal device, in order to implement | achieve cooperation with the image display apparatus and terminal device which concern on the 1st Embodiment of this invention. 選択画面が表示された状態の画像表示装置を示す平面図である。It is a top view which shows the image display apparatus of the state on which the selection screen was displayed. 入力補助機能を提供するためのメッセージが表示された状態の画像表示装置を示す平面図である。It is a top view which shows the image display apparatus of the state on which the message for providing an input assistance function was displayed. 端末装置が載置され、キーボード及びタッチパッドの画像が表示された状態の画像表示装置を示す平面図である。It is a top view which shows the image display apparatus of the state in which the terminal device was mounted and the image of the keyboard and touch pad was displayed. 表示補助機能を提供するためのメッセージが表示された状態の画像表示装置を示す平面図である。It is a top view which shows the image display apparatus of the state in which the message for providing a display assistance function was displayed. 端末装置の画面の画像が表示された状態の画像表示装置を示す平面図である。It is a top view which shows the image display apparatus of the state on which the image of the screen of a terminal device was displayed. 図8の状態から、キーボード画像及びタッチパッド画像の表示位置が変更された状態の画像表示装置を示す平面図である。It is a top view which shows the image display apparatus of the state in which the display position of the keyboard image and touch pad image was changed from the state of FIG. 端末装置及び画像表示装置に対するドラッグ操作を示す平面図である。It is a top view which shows the drag operation with respect to a terminal device and an image display apparatus. 図12に続く、端末装置及び画像表示装置に対するドラッグ操作を示す平面図である。It is a top view which shows the drag operation with respect to a terminal device and an image display apparatus following FIG. 端末装置が置かれ、キーボード画像と、タッチパッド画像と、拡大された端末装置の画面の画像とが表示された状態の画像表示装置を示す平面図である。FIG. 6 is a plan view showing the image display apparatus in a state in which the terminal device is placed, and a keyboard image, a touch pad image, and an image of a magnified terminal device screen are displayed. 本発明の第2の実施の形態に係る画像表示装置と端末装置との連携を実現するために、画像表示装置において実行されるプログラムの制御構造を示すフローチャートである。It is a flowchart which shows the control structure of the program run in an image display apparatus, in order to implement | achieve cooperation with the image display apparatus which concerns on the 2nd Embodiment of this invention, and a terminal device. 本発明の第2の実施の形態に係る画像表示装置と端末装置との連携を実現するために、端末装置において実行されるプログラムの制御構造を示すフローチャートである。It is a flowchart which shows the control structure of the program run in a terminal device in order to implement | achieve cooperation with the image display apparatus and terminal device which concern on the 2nd Embodiment of this invention. 端末装置上のドラッグ操作によって端末装置の画面の画像が表示された状態の画像表示装置を示す平面図である。It is a top view which shows the image display apparatus of the state in which the image of the screen of a terminal device was displayed by the drag operation on a terminal device. 端末装置が画像表示装置の上から取除かれた状態を示す平面図である。It is a top view which shows the state from which the terminal device was removed from the top of an image display apparatus. 図18とは別の、端末装置が画像表示装置の上から取除かれた状態を示す平面図である。FIG. 19 is a plan view showing a state in which the terminal device is removed from above the image display device, which is different from FIG. 18; 端末装置が画像表示装置の上から取除かれた後、端末装置の画面が変更された状態を示す平面図である。It is a top view which shows the state in which the screen of the terminal device was changed, after the terminal device was removed from on an image display apparatus. 本発明の第3の実施の形態に係る画像表示装置と端末装置との連携を実現するために、画像表示装置において実行されるプログラムの制御構造を示すフローチャートである。It is a flowchart which shows the control structure of the program run in an image display apparatus, in order to implement | achieve cooperation with the image display apparatus which concerns on the 3rd Embodiment of this invention, and a terminal device. 本発明の第3の実施の形態に係る画像表示装置と端末装置との連携を実現するために、端末装置において実行されるプログラムの制御構造を示すフローチャートである。It is a flowchart which shows the control structure of the program run in a terminal device, in order to implement cooperation with a graphics display device and a terminal device concerning a 3rd embodiment of the present invention. 2台の端末装置の入力補助機能を提供するためのメッセージが表示された状態の画像表示装置を示す平面図である。It is a top view which shows the image display apparatus of the state in which the message for providing the input assistance function of 2 units | sets of terminal devices was displayed. 2台用キーがタッチされた状態の画像表示装置を示す平面図である。It is a top view which shows the image display apparatus of the state in which the key for 2 units was touched. 1台の端末装置が載置された状態の画像表示装置を示す平面図である。It is a top view which shows the image display apparatus of the state in which one terminal device was mounted. 2台の端末装置が載置された状態の画像表示装置を示す平面図である。It is a top view which shows the image display apparatus of the state in which two terminal devices were mounted. 図26とは別の、2台の端末装置が載置された状態の画像表示装置を示す平面図である。FIG. 27 is a plan view showing an image display apparatus in a state in which two terminal devices are placed, which is different from FIG. 26.

以下の実施の形態では、同一の部品には同一の参照番号を付してある。それらの名称及び機能も同一である。したがって、それらについての詳細な説明は繰返さない。   In the following embodiments, the same parts are given the same reference numerals. Their names and functions are also identical. Therefore, detailed description about them will not be repeated.

以下において、「タッチ」とは入力位置の検出装置が位置を検出可能な状態になることを意味し、検出装置に接触して押圧する場合、押圧せずに接触する場合、及び、接触せずに近接する場合を含む。入力位置の検出装置には、接触型に限らず非接触型の装置を用いることもできる。非接触型の検出装置の場合には「タッチ」とは、入力位置を検出可能な距離まで検出装置に近接した状態を意味する。   In the following, “touch” means that the detection device of the input position is in a state capable of detecting the position, and when touching and pressing the detection device, the case of touching without pressing and without touching Including close proximity to The detection device of the input position is not limited to the contact type, and a non-contact type device can also be used. In the case of the non-contact type detection device, "touch" means a state in which the input position is close to the detection device to a detectable distance.

(第1の実施の形態)
図1を参照して、本発明の第1の実施の形態に係る画像表示装置100は、演算処理部(以下、CPUと記す)102、読出専用メモリ(以下、ROMと記す)104、書換可能メモリ(以下、RAMと記す)106、記録部108、通信部110、タッチ検出部112、表示部114、表示制御部116、ビデオメモリ(以下、VRAMと記す)118、及びバス120を備えている。CPU102は、画像表示装置100全体を制御する。
First Embodiment
Referring to FIG. 1, an image display apparatus 100 according to the first embodiment of the present invention includes an arithmetic processing unit (hereinafter referred to as a CPU) 102, a read only memory (hereinafter referred to as a ROM) 104, and can be rewritten. A memory (hereinafter referred to as a RAM) 106, a recording unit 108, a communication unit 110, a touch detection unit 112, a display unit 114, a display control unit 116, a video memory (hereinafter referred to as a VRAM) 118, and a bus 120 . The CPU 102 controls the entire image display apparatus 100.

後述するように、タッチ検出部112及び表示部114がタッチパネルディスプレイを構成し、タッチパネルディスプレイの画像表示面が水平に配置され、画像表示装置100はテーブルとして使用される。   As described later, the touch detection unit 112 and the display unit 114 constitute a touch panel display, the image display surface of the touch panel display is disposed horizontally, and the image display apparatus 100 is used as a table.

ROM104は不揮発性の記憶装置であり、画像表示装置100の動作を制御するために必要なプログラム及びデータを記憶している。RAM106は、通電が遮断された場合にデータが消去される揮発性の記憶装置である。記録部108は、通電が遮断された場合にもデータを保持する不揮発性記憶装置であり、例えば、ハードディスクドライブ、又はフラッシュメモリ等である。記録部108は着脱可能に構成されていてもよい。CPU102は、バス120を介してROM104からプログラムをRAM106上に読出して、RAM106の一部を作業領域としてプログラムを実行する。CPU102は、ROM104に格納されているプログラムにしたがって画像表示装置100を構成する各部の制御を行なう。   The ROM 104 is a non-volatile storage device, and stores programs and data necessary to control the operation of the image display apparatus 100. The RAM 106 is a volatile storage device in which data is erased when the power supply is interrupted. The recording unit 108 is a non-volatile storage device that holds data even when the power supply is interrupted, and is, for example, a hard disk drive or a flash memory. The recording unit 108 may be configured to be removable. The CPU 102 reads a program from the ROM 104 onto the RAM 106 via the bus 120, and executes the program using a part of the RAM 106 as a work area. The CPU 102 controls each part constituting the image display apparatus 100 in accordance with a program stored in the ROM 104.

バス120には、CPU102、ROM104、RAM106、記録部108、通信部110、タッチ検出部112、表示制御部116、及びVRAM118が接続されている。各部間のデータ(制御情報を含む)交換は、バス120を介して行なわれる。   The CPU 102, the ROM 104, the RAM 106, the recording unit 108, the communication unit 110, the touch detection unit 112, the display control unit 116, and the VRAM 118 are connected to the bus 120. The exchange of data (including control information) between the units is performed via the bus 120.

表示部114は、画像を表示するための表示パネル(液晶パネル等)である。表示制御部116は、表示部114を駆動するための駆動部を備え、VRAM118に記憶された画像データを所定のタイミングで読出し、表示部114に画像として表示するための信号を生成して、表示部114に出力する。表示される画像データは、CPU102が記録部108から読出して、VRAM118に伝送する。   The display unit 114 is a display panel (liquid crystal panel or the like) for displaying an image. The display control unit 116 includes a drive unit for driving the display unit 114, reads out the image data stored in the VRAM 118 at a predetermined timing, generates a signal for displaying as an image on the display unit 114, and performs display. Output to the part 114. The image data to be displayed is read from the recording unit 108 by the CPU 102 and transmitted to the VRAM 118.

通信部110は、後述する携帯型端末装置との無線通信を可能とする。無線通信方式は任意であり、例えば、Bluetooth(登録商標)、又はWi−Fiを使用することができる。なお、Wi−Fiを用いる場合には、通信部110は、無線ルータが接続されたネットワークに有線で接続されていてもよい。   The communication unit 110 enables wireless communication with a portable terminal device described later. The wireless communication scheme is optional, and for example, Bluetooth (registered trademark) or Wi-Fi can be used. In the case of using Wi-Fi, the communication unit 110 may be connected by wire to a network to which a wireless router is connected.

タッチ検出部112は、例えばタッチパネルであり、ユーザによるタッチ操作を検出する。タッチ検出部112は、表示部114の表示画面に重畳して配置される。タッチ検出部112へのタッチは、タッチ位置に対応する、表示画面に表示された画像の点を指定する操作である。したがって、本願明細書においては、記載の冗長性を排除するために、表示部114に表示された画像へのタッチと記載されている場合、この記載は、対応するタッチ検出部112上の位置へのタッチを意味する。   The touch detection unit 112 is, for example, a touch panel, and detects a touch operation by the user. The touch detection unit 112 is disposed so as to overlap the display screen of the display unit 114. The touch on the touch detection unit 112 is an operation of designating a point of the image displayed on the display screen, which corresponds to the touch position. Therefore, in the present specification, in the case where the touch on the image displayed on the display unit 114 is described in order to eliminate the redundancy described, this description indicates the position on the corresponding touch detection unit 112. Means a touch of

タッチ検出部112にタッチパネルを用いる場合のタッチ操作の検出について、図2を参照して説明する。図2は、赤外線遮断検出方式のタッチパネル(タッチ検出部112)を示す。タッチパネルは、長方形の書込面の隣接する2辺にそれぞれ一列に配置された発光ダイオード列(以下、LED列と記す)140、142と、それぞれのLED列140、142に対向させて一列に配置された2つのフォトダイオード列(以下、PD列と記す)144、146とを備えている。LED列140、142の各LEDから赤外線を発光し、この赤外線を対向するPD列144、146の各PDが検出する。図2において、LED列140、142の各LEDから赤外線を上向き及び左向きの矢印で示す。   Detection of a touch operation in the case of using a touch panel as the touch detection unit 112 will be described with reference to FIG. FIG. 2 shows an infrared cut-off detection type touch panel (touch detection unit 112). The touch panel is disposed in a row so as to face light emitting diode rows (hereinafter referred to as LED rows) 140 and 142 arranged in two rows on adjacent two sides of the rectangular writing surface and to the respective LED rows 140 and 142 And two photodiode rows (hereinafter referred to as PD rows) 144 and 146. Infrared rays are emitted from the LEDs of the LED rows 140 and 142, and the infrared rays are detected by the PDs of the opposing PD rows 144 and 146, respectively. In FIG. 2, infrared rays from the LEDs of the LED strings 140 and 142 are indicated by arrows pointing upward and to the left.

タッチパネルは、例えばマイクロコンピュータ(以下、マイコンという)(CPU、メモリ、及び入出力回路等を含む素子)を備え、各LEDの発光を制御する。各PDは、受光した光の強度に応じた電圧を出力する。PDの出力電圧は、アンプによって増幅される。また、各PD列144、146の複数のPDからは同時に信号が出力されるので、出力信号は一旦バッファに保存された後、PDの配列順序に応じたシリアル信号として出力され、マイコンに伝送される。PD列142から出力されるシリアル信号の順序は、X座標を表す。PD列146から出力されるシリアル信号の順序は、Y座標を表す。   The touch panel includes, for example, a microcomputer (hereinafter, referred to as a microcomputer) (an element including a CPU, a memory, an input / output circuit, and the like), and controls light emission of each LED. Each PD outputs a voltage according to the intensity of the received light. The output voltage of PD is amplified by an amplifier. In addition, since signals are simultaneously output from a plurality of PDs in each of the PD columns 144 and 146, the output signals are temporarily stored in a buffer and then output as serial signals according to the arrangement order of the PDs and transmitted to the microcomputer Ru. The order of the serial signals output from the PD column 142 represents the X coordinate. The order of serial signals output from the PD column 146 represents Y coordinates.

ユーザ900が指でタッチパネル上にタッチすると、タッチされた位置で赤外線が遮断される。したがって、遮断される前まで、その赤外線を受光していたPDの出力電圧は減少する。タッチされた位置(XY座標)に対応するPDからの信号部分が減少するので、マイコンは、受信した2つのシリアル信号の信号レベルが低下している部分を検出し、タッチされた位置座標を求める。マイコンは、決定した位置座標をCPU102に伝送する。このタッチ位置を検出する処理は、所定の検出周期で繰返されるので、同じ点が検出周期よりも長い時間タッチされていると、同じ座標データが繰返し出力される。どこにもタッチされていなければ、マイコンは位置座標を伝送しない。   When the user 900 touches on the touch panel with a finger, infrared light is blocked at the touched position. Therefore, the output voltage of the PD that has received the infrared light decreases until it is shut off. Since the signal portion from the PD corresponding to the touched position (XY coordinates) decreases, the microcomputer detects a portion where the signal levels of the two received serial signals are lowered, and obtains the touched position coordinates. . The microcomputer transmits the determined position coordinates to the CPU 102. Since the process of detecting the touch position is repeated at a predetermined detection cycle, if the same point is touched for a longer time than the detection cycle, the same coordinate data is repeatedly output. The microcomputer does not transmit the position coordinates unless touched anywhere.

上記したタッチされた位置の検出技術は公知であるので、これ以上の説明は繰返さない。また、タッチ検出部112には、赤外線遮断方式以外のタッチパネル(静電容量方式、表面弾性波方式、抵抗膜方式等)を用いてもよい。なお、静電容量方式では、センサに近接していれば非接触でも位置を検出することができる。   As the above-described touch position detection technique is known, the further description will not be repeated. In addition, as the touch detection unit 112, a touch panel other than the infrared blocking method (capacitive method, surface acoustic wave method, resistive film method, or the like) may be used. In the electrostatic capacitance method, if it is close to the sensor, the position can be detected without contact.

画像表示装置100は上記のように構成されており、ユーザは画像表示装置100をコンピュータと同様に操作することができる。即ち、ユーザは、表示部114に表示された画面上のユーザインターフェイス(操作ボタン等)を、タッチ検出部112を介してタッチ操作し、アプリケーションプログラムを起動すること、及び、起動したアプリケーションによって表示されるウィンドウ上の操作を、タッチ検出部112を介して行なうことができる。   The image display apparatus 100 is configured as described above, and the user can operate the image display apparatus 100 in the same manner as a computer. That is, the user performs a touch operation on a user interface (operation button or the like) on the screen displayed on the display unit 114 via the touch detection unit 112 to activate an application program, and is displayed by the activated application. Can be performed via the touch detection unit 112.

図3を参照して、画像表示装置100と連携する携帯型端末装置(以下、単に端末装置という)は、画像表示装置100と同様に構成されている。即ち、端末装置200は、CPU202、ROM204、RAM206、記録部208、通信部210、タッチ検出部212、表示部214、表示制御部216、VRAM218、及びバス220を備えている。CPU202は、端末装置200全体を制御する。タッチ検出部212及び表示部214がタッチパネルディスプレイを構成している。   Referring to FIG. 3, a portable terminal device (hereinafter simply referred to as a terminal device) cooperating with image display device 100 is configured similarly to image display device 100. That is, the terminal device 200 includes a CPU 202, a ROM 204, a RAM 206, a recording unit 208, a communication unit 210, a touch detection unit 212, a display unit 214, a display control unit 216, a VRAM 218, and a bus 220. The CPU 202 controls the entire terminal device 200. The touch detection unit 212 and the display unit 214 constitute a touch panel display.

ROM104は、端末装置200の動作を制御するために必要なプログラム及びデータを記憶している。CPU202は、バス220を介してROM204からプログラムをRAM206上に読出して、RAM206の一部を作業領域としてプログラムを実行する。CPU202は、ROM204に格納されているプログラムにしたがって端末装置200を構成する各部の制御を行なう。   The ROM 104 stores programs and data necessary to control the operation of the terminal device 200. The CPU 202 reads a program from the ROM 204 onto the RAM 206 via the bus 220, and executes the program using a part of the RAM 206 as a work area. The CPU 202 controls each unit constituting the terminal device 200 in accordance with a program stored in the ROM 204.

表示部214は、画像を表示するための表示パネル(液晶パネル等)である。表示制御部216は、表示部214を駆動するための駆動部を備え、VRAM218に記憶された画像データを所定のタイミングで読出し、表示部214に画像として表示するための信号を生成して、表示部214に出力する。表示される画像データは、CPU202が記録部208から読出して、VRAM218に伝送する。   The display unit 214 is a display panel (liquid crystal panel or the like) for displaying an image. The display control unit 216 includes a drive unit for driving the display unit 214, reads out the image data stored in the VRAM 218 at a predetermined timing, generates a signal for displaying as an image on the display unit 214, and performs display. Output to the unit 214. The CPU 202 reads out the image data to be displayed from the recording unit 208 and transmits the image data to the VRAM 218.

通信部210は、Bluetooth(登録商標)又はWi−Fi等により、画像表示装置100との無線通信を可能とする。   The communication unit 210 enables wireless communication with the image display apparatus 100 by Bluetooth (registered trademark), Wi-Fi, or the like.

タッチ検出部212は、例えばタッチパネルであり、ユーザによるタッチ操作を検出する。タッチ検出部212は、表示部214の表示画面に重畳して配置される。タッチ検出部212へのタッチは、タッチ位置に対応する、表示画面に表示された画像の点を指定する操作である。タッチ検出部212にタッチパネルを用いる場合のタッチ操作の検出については、図2を参照して上記したとおりである。   The touch detection unit 212 is, for example, a touch panel, and detects a touch operation by the user. The touch detection unit 212 is disposed so as to overlap the display screen of the display unit 214. The touch on the touch detection unit 212 is an operation of designating a point of the image displayed on the display screen, which corresponds to the touch position. The detection of the touch operation in the case of using the touch panel as the touch detection unit 212 is as described above with reference to FIG.

以下、図4及び図5を参照して、画像表示装置100と端末装置200との連携により、端末装置200の入力補助機能及び表示補助機能を実現する方法に関して、具体的に説明する。ここでは、画像表示装置100において、連携を実現するためのプログラムが起動している状態で、ユーザが、連携を実現するためのプログラムが起動した端末装置200を持って、画像表示装置100に近付いたとする。画像表示装置100と端末装置200との通信は、Bluetooth(登録商標)によって直接行なわれるとする。   Hereinafter, with reference to FIGS. 4 and 5, a method of realizing the input assistance function and the display assistance function of the terminal device 200 by cooperation of the image display device 100 and the terminal device 200 will be specifically described. Here, in the state where the program for realizing cooperation is activated in image display apparatus 100, the user brings terminal apparatus 200 at which the program for realizing cooperation is activated and approaches image display apparatus 100. I suppose. Communication between the image display device 100 and the terminal device 200 is assumed to be directly performed by Bluetooth (registered trademark).

画像表示装置100の動作に関して説明する。図4を参照して、ステップ400において、CPU102は、連携機能を提供する対象である予め登録済みの端末装置200が検出されたか否かを判定する。検出されたと判定された場合、制御は402に移行する。そうでなければ、制御はステップ432に移行し、CPU102は、終了を指示されているか否かを判定する。終了の指示は、例えば、画像表示装置100の電源がオフされることによってなされる。終了を指示されていれば、本プログラムを終了する。そうでなければ、制御はステップ400に戻る。これにより、該当する端末装置200を検出するまで、検出処理が繰返される。   The operation of the image display apparatus 100 will be described. Referring to FIG. 4, in step 400, CPU 102 determines whether or not a pre-registered terminal device 200 to be provided with the cooperation function has been detected. If it is determined that it has been detected, control transfers to 402. If not, the control proceeds to step 432, and the CPU 102 determines whether termination has been instructed. The end instruction is issued, for example, by turning off the image display device 100. If termination is instructed, this program is terminated. Otherwise, control returns to step 400. Thus, the detection process is repeated until the corresponding terminal device 200 is detected.

端末装置200が検出された場合、ステップ402において、CPU102は、表示部114に機能の選択画面を表示して、ユーザによる選択を待受ける。例えば、表示部114の画面600には、図6に示すような、入力補助及び表示補助の機能を選択するためのウィンドウが表示される。   When the terminal device 200 is detected, in step 402, the CPU 102 displays a function selection screen on the display unit 114, and waits for the user's selection. For example, on the screen 600 of the display unit 114, a window for selecting the function of the input assistance and the display assistance as shown in FIG. 6 is displayed.

ステップ404において、CPU102は、選択がなされたか否かを判定する。具体的には、CPU102は、「入力補助」キー又は「表示補助」キーの何れかがタッチされたか否かを判定する。「入力補助」キー又は「表示補助」キーの何れかがタッチされたと判定された場合、制御はステップ406に移行する。そうでなければ、ステップ404が繰返される。   In step 404, the CPU 102 determines whether a selection has been made. Specifically, the CPU 102 determines whether or not either the “input assist” key or the “display assist” key is touched. If it is determined that either the "input assist" key or the "display assist" key is touched, the control moves to step 406. Otherwise, step 404 is repeated.

ステップ406において、CPU102は、ステップ404で検出した選択結果を選択情報として端末装置200に送信する。例えば、CPU102は、「入力補助」キーがタッチされたことが検出された場合には、選択情報として“0”を送信し、「表示補助」キーがタッチされたことが検出された場合には、選択情報として“1”を送信する。   In step 406, the CPU 102 transmits the selection result detected in step 404 to the terminal device 200 as selection information. For example, when it is detected that the "input auxiliary" key is touched, the CPU 102 transmits "0" as the selection information, and when it is detected that the "display auxiliary" key is touched. Send "1" as the selection information.

ステップ408において、CPU102は、ステップ404で検出した選択に応じて制御を分岐する。「入力補助」であると判定された場合、制御はステップ410に移行する。「表示補助」であると判定された場合、制御はステップ422に移行する。   At step 408, the CPU 102 branches the control according to the selection detected at step 404. If it is determined that the "input assist", the control proceeds to step 410. If it is determined that the "display assistance", the control proceeds to step 422.

ステップ410において、CPU102は、タッチ検出部112の上に端末装置200が載置されたか否かを判定する。このとき、CPU102は、表示部114に、何らかのメッセージを表示することが好ましい。例えば、図7に示すように、ユーザに端末装置を画像表示装置100の上に置くように促すメッセージを表示する。   In step S <b> 410, the CPU 102 determines whether the terminal device 200 has been placed on the touch detection unit 112. At this time, the CPU 102 preferably displays a message on the display unit 114. For example, as shown in FIG. 7, a message prompting the user to place the terminal device on the image display apparatus 100 is displayed.

CPU102は、タッチ検出部112の上に端末装置200が置かれたことを、上記したようにして取得したタッチ位置座標から判定することができる。例えば、所定の面積以上の領域で同時に複数点のタッチが検出された場合、端末装置が画像表示装置100の上に載置されたと判定する。端末装置が載置されたと判定された場合、制御はステップ412に移行する。そうでなければ、ステップ410が繰返される。   The CPU 102 can determine that the terminal device 200 has been placed on the touch detection unit 112 from the touch position coordinates acquired as described above. For example, when a plurality of touches are simultaneously detected in an area of a predetermined area or more, it is determined that the terminal device is placed on the image display device 100. If it is determined that the terminal device has been placed, control proceeds to step 412. Otherwise, step 410 is repeated.

ステップ412において、CPU102は、タッチ検出部112上の端末装置200が載置された領域の下側に位置する表示部114の領域の近傍に、キーボード画像及びタッチパッド画像を表示する。キーボード画像及びタッチパッド画像は、回転等の処置を行なうことなく、画像表示装置100の通常の表示機能によって表示される。例えば、図8に示すように、端末装置200の下方に、キーボード画像610が表示され、その右側にタッチパッド画像612が表示される。また、CPU102は、連携機能の終了を指示するためのキーを表示する。図8では、画面の右上に終了キー620が表示されている。この状態で、ユーザがタッチ検出部112にタッチした場合、CPU102は、上記したようにタッチされた位置を特定することができる。   In step 412, the CPU 102 displays a keyboard image and a touch pad image near the area of the display unit 114 located below the area on the touch detection unit 112 where the terminal device 200 is placed. The keyboard image and the touch pad image are displayed by the normal display function of the image display device 100 without performing any treatment such as rotation. For example, as shown in FIG. 8, a keyboard image 610 is displayed below the terminal device 200, and a touch pad image 612 is displayed on the right side thereof. Further, the CPU 102 displays a key for instructing the end of the cooperation function. In FIG. 8, an end key 620 is displayed at the upper right of the screen. In this state, when the user touches the touch detection unit 112, the CPU 102 can specify the touched position as described above.

ステップ414において、CPU102は、入力操作がなされたか否かを判定する。具体的には、キーボード画像610、タッチパッド画像612及び終了キー620の何れかがタッチされたか否かを判定する。入力操作がなされたと判定された場合、制御はステップ416に移行する。そうでなければ、ステップ414が繰返される。   In step 414, the CPU 102 determines whether an input operation has been performed. Specifically, it is determined whether any one of the keyboard image 610, the touch pad image 612, and the end key 620 is touched. If it is determined that the input operation has been performed, the control proceeds to step 416. Otherwise, step 414 is repeated.

ステップ416において、CPU102は、ステップ414で検出された操作が、終了キー620へのタッチであるか否かを判定する。終了キー620へのタッチであると判定された場合、制御はステップ420に移行し、表示画像(キーボード画像610、タッチパッド画像612及び終了キー620)を消去し、終了を表す情報(以下、終了情報という)を端末装置200に送信する。その後、制御はステップ400に戻る。終了キー620へのタッチでないと判定された場合、制御はステップ418に移行する。   In step 416, the CPU 102 determines whether the operation detected in step 414 is a touch on the end key 620. If it is determined that the touch on the end key 620 is made, the control proceeds to step 420, and the display image (keyboard image 610, touch pad image 612 and end key 620) is erased, and information indicating the end (hereinafter, end) Information) is transmitted to the terminal device 200. Control then returns to step 400. If it is determined that the touch on the end key 620 is not made, then the control moves to step 418.

ステップ418において、CPU102は、ステップ414で取得したタッチ位置座標からタッチ位置に対応する指示を特定し、対応するデータ(文字コード等)を端末装置200に送信する。具体的には、CPU102は、キーボード画像610のキーがタッチされた場合、タッチされた位置座標から、タッチされたキーに対応する文字コードを特定する。CPU102は、タッチパッド画像612がタッチされた場合には、タッチされた位置に応じたデータを特定する。図8に示したタッチパッド画像612には、パッド領域618、左クリックキー614、右クリックキー616が含まれているので、CPU102は、パッド領域618内がタッチされた場合には、タッチ検出部112から取得した位置座標に対応する、パッド領域618内の位置座標を特定する。CPU102は、左クリックキー614又は右クリックキー616がタッチされた場合には、該当するコードを特定する。   In step 418, the CPU 102 specifies an instruction corresponding to the touch position from the touch position coordinates acquired in step 414, and transmits corresponding data (such as a character code) to the terminal device 200. Specifically, when the key of the keyboard image 610 is touched, the CPU 102 specifies a character code corresponding to the touched key from the touched position coordinates. When the touch pad image 612 is touched, the CPU 102 specifies data corresponding to the touched position. Since the touch pad image 612 shown in FIG. 8 includes the pad area 618, the left click key 614, and the right click key 616, when the inside of the pad area 618 is touched, the CPU 102 detects the touch detection unit The position coordinates in the pad area 618 corresponding to the position coordinates acquired from 112 are specified. When the left click key 614 or the right click key 616 is touched, the CPU 102 specifies the corresponding code.

画像表示装置100から送信されたデータは、後述するように、端末装置200によって受信されて、端末装置200に対する入力処理が実行される。   The data transmitted from the image display device 100 is received by the terminal device 200 as described later, and an input process to the terminal device 200 is executed.

ステップ408で「表示補助」であると判定された場合、ステップ422において、CPU102は表示部114に、表示補助機能を実行するための所定のメッセージ、及び連携機能の終了を指示するためのキーを表示する。例えば、図9に示すように、メッセージ及び終了キー620が表示される。   If it is determined in step 408 that “display assistance” is set, in step 422, the CPU 102 causes the display unit 114 to display a predetermined message for executing the display assistance function and a key for instructing the end of the cooperation function. indicate. For example, as shown in FIG. 9, a message and end key 620 are displayed.

後述するように、上記のメッセージを見たユーザが端末装置200のタッチ検出部212上でドラッグ操作を行なうと、端末装置200は、表示されている画面の画像データを、画像表示装置100に送信する。   As described later, when the user who sees the above message performs a drag operation on the touch detection unit 212 of the terminal device 200, the terminal device 200 transmits the image data of the displayed screen to the image display device 100. Do.

ステップ424において、CPU102は、タッチ検出部112へのタッチ操作があったか否かを判定する。タッチ操作があったと判定された場合、制御はステップ426に移行する。そうでなければ、ステップ424が繰返される。即ち、ユーザが、端末装置200のタッチ検出部212上でドラッグ操作を行なった後、画像表示装置100のタッチ検出部112にタッチすると、制御はステップ426に移行する。   In step S 424, the CPU 102 determines whether a touch operation on the touch detection unit 112 has been made. If it is determined that a touch operation has been made, control proceeds to step 426. Otherwise, step 424 is repeated. That is, when the user performs the drag operation on the touch detection unit 212 of the terminal device 200 and then touches the touch detection unit 112 of the image display device 100, the control proceeds to step 426.

ステップ426において、CPU102は、ステップ424で検出された操作が、終了キー620へのタッチであるか否かを判定する。終了キー620へのタッチであると判定された場合、制御はステップ420に移行し、表示画面の消去及び終了情報の送信を行なった後、制御はステップ400に戻る。終了キー620へのタッチでないと判定された場合、制御はステップ428に移行する。   In step 426, the CPU 102 determines whether the operation detected in step 424 is a touch on the end key 620. If it is determined that the touch on the end key 620 is made, the control proceeds to step 420, and after the display screen is erased and the end information is transmitted, the control returns to the step 400. If it is determined that the touch on the end key 620 is not made, the control proceeds to step 428.

ステップ428において、CPU102は、端末装置200から画像データを受信したか否かを判定する。受信したと判定された場合、制御はステップ430に移行する。そうでなければ、ステップ428が繰返される。   In step 428, the CPU 102 determines whether or not image data has been received from the terminal device 200. If it is determined that it has been received, the control moves to step 430. Otherwise, step 428 is repeated.

ステップ430において、CPU102は、ステップ428で受信した画像データを、ステップ424で検出されたタッチ位置に、例えば拡大して表示する。これによって、図10に示すように、端末装置200の表示部214の画面の画像と同じ画像632が、画像表示装置100の表示部114に表示される。   In step 430, the CPU 102 displays, for example, the image data received in step 428 at the touch position detected in step 424 in an enlarged manner. As a result, as shown in FIG. 10, the same image 632 as the image on the screen of the display unit 214 of the terminal device 200 is displayed on the display unit 114 of the image display device 100.

その後、制御はステップ428に戻る。したがって、端末装置200から画像データを受信する度に、画像表示装置100は画面600に表示することができる。例えば、ユーザが端末装置200を操作して端末装置200の画面が変更された状態で、ユーザがドラッグ操作を行なうと、新たな画像データが送信され、画像表示装置は受信した画像データを表示する。したがって、例えば、端末装置200の画面に表示されている、複数のページ画像のうちの1ページをドラッグ操作して、画像表示装置100に表示した後、端末装置200の画面に別のページを表示すれば、2ページを同時に表示することができる。   Thereafter, control returns to step 428. Therefore, each time image data is received from the terminal device 200, the image display device 100 can display it on the screen 600. For example, when the user performs a drag operation while the user operates the terminal device 200 to change the screen of the terminal device 200, new image data is transmitted, and the image display device displays the received image data. . Therefore, for example, after one page of a plurality of page images displayed on the screen of the terminal device 200 is dragged and displayed on the image display device 100, another page is displayed on the screen of the terminal device 200. If you do, two pages can be displayed at the same time.

端末装置200の動作に関して説明する。図5を参照して、ステップ500において、CPU202は、連携の対象である画像表示装置100が検出されたか否かを判定する。検出されたと判定された場合、制御は502に移行する。そうでなければ、制御はステップ522に移行し、CPU202は、終了を指示されているか否かを判定する。終了の指示は、例えば、端末装置200の電源がオフされることによってなされる。終了を指示されていれば、本プログラムを終了する。そうでなければ、制御はステップ500に戻る。これにより、該当する画像表示装置100を検出するまで、検出処理が繰返される。   The operation of the terminal device 200 will be described. Referring to FIG. 5, in step 500, CPU 202 determines whether or not image display apparatus 100 to be cooperated is detected. If it is determined that it has been detected, control transfers to 502. Otherwise, control proceeds to step 522, where the CPU 202 determines whether termination has been instructed. The termination instruction is issued, for example, by turning off the terminal device 200. If termination is instructed, this program is terminated. Otherwise, control returns to step 500. Thus, the detection process is repeated until the corresponding image display device 100 is detected.

画像表示装置100が検出された場合、ステップ502において、CPU202は、選択情報を受信したか否かを判定する。選択情報は、上記したように、ステップ406において、画像表示装置100から送信される、入力補助及び表示補助の何れが選択されたかを表す情報である。選択情報を受信した場合、制御はステップ504に移行する。そうでなければ、ステップ502が繰返される。   If the image display apparatus 100 is detected, the CPU 202 determines in step 502 whether or not selection information has been received. As described above, the selection information is information indicating which of the input assistance and the display assistance is selected, which is transmitted from the image display apparatus 100 in step 406. If selection information has been received, control proceeds to step 504. Otherwise, step 502 is repeated.

ステップ504において、CPU202は、ステップ502で受信した選択情報に応じて制御を分岐する。受信した選択情報が「入力補助」に対応すると判定された場合(選択情報=0)、制御はステップ506に移行する。受信した選択情報が「表示補助」に対応すると判定された場合(選択情報=1)、制御はステップ512に移行する。   In step 504, the CPU 202 branches the control according to the selection information received in step 502. If it is determined that the received selection information corresponds to “input assist” (selection information = 0), the control proceeds to step 506. If it is determined that the received selection information corresponds to “display assistance” (selection information = 1), the control proceeds to step 512.

ステップ506において、CPU202は、画像表示装置100からデータを受信したか否かを判定する。上記したステップ418において、画像表示装置100から、画像表示装置100に対するユーザの操作に応じたデータ(キーボード画像610上のタッチされたキーに対応する文字コード等)が送信される。受信したと判定された場合、制御はステップ508に移行する。そうでなければ、ステップ506が繰返される。   In step 506, the CPU 202 determines whether data has been received from the image display apparatus 100. In step 418 described above, data (a character code or the like corresponding to the touched key on the keyboard image 610) corresponding to the user's operation on the image display device 100 is transmitted from the image display device 100. If it is determined that it has been received, the control proceeds to step 508. Otherwise, step 506 is repeated.

ステップ508において、CPU202は、ステップ506で受信したデータが終了情報であるか否かを判定する。終了情報は、上記したステップ420において、画像表示装置100から送信される。終了情報であると判定された場合、制御はステップ500に戻る。そうでなければ、制御はステップ510に移行する。   In step 508, the CPU 202 determines whether the data received in step 506 is end information. The end information is transmitted from the image display apparatus 100 in step 420 described above. If it is determined to be end information, control returns to step 500. Otherwise, control transfers to step 510.

ステップ510において、CPU202は、受信したデータに応じた処理を実行する。即ち、CPU202は、受信したデータを入力データとして、選択されているアプリケーションに渡す。その後、制御はステップ506に戻る。   At step 510, the CPU 202 executes processing in accordance with the received data. That is, the CPU 202 passes the received data as input data to the selected application. Control then returns to step 506.

したがって、画像表示装置100に表示されたキーボード画像610又はタッチパッド画像612に対するタッチ操作がなされると、それに応じた入力処理が端末装置200上で実行される。例えば、端末装置200においてワープロソフトが起動され、選択されている状態で、画像表示装置100に表示されたキーボード画像610が操作されたことにより、端末装置200が文字コードを受信した場合、その文字コードはワープロソフトに渡され、ワープロソフトにより対応する文字が表示部214に表示される。また、画像表示装置100に表示されたタッチパッド画像612が操作(タッチ)された場合、受信されたデータが、選択されているアプリケーションに渡され、タッチパッド画像612の操作に対応する処理が、選択されているアプリケーションにより実行される。   Therefore, when a touch operation is performed on the keyboard image 610 or the touch pad image 612 displayed on the image display device 100, input processing corresponding to the touch operation is performed on the terminal device 200. For example, when the terminal device 200 receives a character code by operating the keyboard image 610 displayed on the image display device 100 while word processing software is activated and selected in the terminal device 200, the character The code is passed to word processing software, and the corresponding characters are displayed on the display unit 214 by the word processing software. Further, when the touch pad image 612 displayed on the image display device 100 is operated (touched), the received data is passed to the selected application, and the processing corresponding to the operation of the touch pad image 612 is Executed by the selected application.

ステップ504で「表示補助」に対応すると判定された場合、ステップ512において、CPU202は、タッチ検出部212に対するタッチ操作がなされたか否かを判定する。タッチ操作が検出された場合、制御はステップ514に移行する。そうでなければ、制御はステップ518に移行し、終了情報を受信したか否かを判定する。終了情報は、上記したステップ420において、画像表示装置100から送信される。終了情報であると判定された場合、制御はステップ500に戻る。そうでなければ、制御はステップ512に戻る。   When it is determined in step 504 that “display assistance” is to be performed, in step 512, the CPU 202 determines whether a touch operation on the touch detection unit 212 has been performed. If a touch operation is detected, control transfers to step 514. If not, control transfers to step 518 which determines whether termination information has been received. The end information is transmitted from the image display apparatus 100 in step 420 described above. If it is determined to be end information, control returns to step 500. Otherwise, control returns to step 512.

ステップ514において、CPU202は、タッチ検出部212上でドラッグ操作がなされたか否かを判定する。ドラッグ操作が検出された場合、制御はステップ516に移行する。そうでなければ、制御はステップ520に移行する。   In step 514, the CPU 202 determines whether a drag operation has been performed on the touch detection unit 212. If a drag operation is detected, control transfers to step 516. Otherwise, control transfers to step 520.

上記したように、画像表示装置100に、図9に示したようなメッセージが表示され、画像表示装置100に、端末装置200の画面を表示したいとユーザが考えた場合、ユーザは端末装置200においてドラッグ操作を行なう。   As described above, when a message as shown in FIG. 9 is displayed on the image display device 100 and the user wants to display the screen of the terminal device 200 on the image display device 100, the user uses the terminal device 200. Do a drag operation.

ステップ516において、CPU202は、表示部214の画面に表示されている画像データを、VRAM218から読出して画像表示装置100に送信する。送信した画像データは、画像表示装置100によって受信されて表示部114に表示される(ステップ428及びステップ430参照)。   In step 516, the CPU 202 reads out the image data displayed on the screen of the display unit 214 from the VRAM 218 and transmits the image data to the image display apparatus 100. The transmitted image data is received by the image display apparatus 100 and displayed on the display unit 114 (see step 428 and step 430).

その後、制御はステップ514に戻り、タッチ検出部212に対してドラッグ操作がなされる度に、表示部214の画面に表示されている画像データが画像表示装置100に送信される。   Thereafter, the control returns to step 514, and each time a drag operation is performed on the touch detection unit 212, the image data displayed on the screen of the display unit 214 is transmitted to the image display apparatus 100.

ステップ512で検出された操作が、ドラッグ操作でなければ、ステップ520において、CPU202は、操作に対応する処理を実行する。その後、制御はステップ512に戻る。   If the operation detected in step 512 is not a drag operation, in step 520, the CPU 202 executes processing corresponding to the operation. Control then returns to step 512.

表示補助機能が選択された場合、ステップ512〜ステップ520によって、ユーザは、端末装置200を操作して画面を変更することができ、画面が変更された後にドラッグ操作を行なえば、新たに画面に表示された画像データが送信されて画像表示装置100に表示される。   When the display auxiliary function is selected, the user can operate the terminal device 200 to change the screen in steps 512 to 520, and if the drag operation is performed after the screen is changed, the screen is newly displayed. The displayed image data is transmitted and displayed on the image display device 100.

以上のように、画像表示装置100と端末装置200との連携により、画像表示装置100は、端末装置200に対する入力補助機能及び表示補助機能を提供することができる。即ち、入力補助機能によって、ユーザは、端末装置200の小さい画面にキーボード画像等を表示して画面の一部を入力のために使用することなく、端末装置200の画面全体を表示のために使用することができる。画像表示装置100の大画面に、通常の大きさのキーボード等が表示されるので、ユーザは入力操作を容易に行なうことができる。また、キーボード等を端末装置200と一緒に持ち運ばなくてもよい。さらに、表示補助機能によって、端末装置200の画面を拡大して画像表示装置100に表示することができるので、ユーザは、端末装置200を操作しながら、打合せ又はプレゼンテーション等を効率的に行なうことができる。   As described above, the image display device 100 can provide the input assistance function and the display assistance function to the terminal device 200 by cooperation between the image display device 100 and the terminal device 200. That is, the user can use the entire screen of the terminal device 200 for display without displaying a keyboard image or the like on the small screen of the terminal device 200 and using a part of the screen for input by the input assistance function. can do. Since a keyboard or the like of a normal size is displayed on the large screen of the image display apparatus 100, the user can easily perform an input operation. Further, the keyboard or the like may not be carried along with the terminal device 200. Furthermore, since the screen of the terminal device 200 can be enlarged and displayed on the image display device 100 by the display assistance function, the user can efficiently perform meetings, presentations, etc. while operating the terminal device 200. it can.

上記では、入力補助機能においては、入力処理のみに関して説明したが、キーボード画像610及びタッチパッド画像612を任意の位置に移動可能にしてもよい。例えば、キーボード画像610又はタッチパッド画像612の特定の部分(例えば、画像の上部)がタッチされ、タッチが維持された状態でドラッグされた場合、対象の画像を移動させてもよい。図11は、キーボード画像610及びタッチパッド画像612の位置が、図8の配置から変更された状態を示す。これによって、ユーザは、より容易且つ効率的に入力操作を行なうことができる。   In the above, in the input assistance function, only the input processing has been described, but the keyboard image 610 and the touch pad image 612 may be movable to any position. For example, if the keyboard image 610 or a particular portion of the touch pad image 612 (eg, the top of the image) is touched and dragged while the touch is maintained, the image of the subject may be moved. FIG. 11 shows a state in which the positions of the keyboard image 610 and the touch pad image 612 have been changed from the arrangement of FIG. This enables the user to perform input operations more easily and efficiently.

同様に、表示補助機能において、画像表示装置100に表示された、端末装置200の画面の画像632の表示位置を、タッチ検出部112に対するドラッグ操作等によって変更できるようにしてもよい。   Similarly, in the display assistance function, the display position of the image 632 of the screen of the terminal device 200 displayed on the image display device 100 may be changed by a drag operation or the like on the touch detection unit 112.

上記では、画像表示装置100に表示された終了キー620がタッチされた場合に、連携を終了する場合を説明したがこれに限定されない。例えば、端末装置200が、画像表示装置100のタッチ検出部112の上から取除かれた時点で、連携を終了してもよい。   Although the case where cooperation is ended when the end key 620 displayed on the image display device 100 is touched has been described above, the present invention is not limited to this. For example, when the terminal device 200 is removed from above the touch detection unit 112 of the image display device 100, the cooperation may be ended.

上記では、表示補助機能において、ユーザが端末装置200に対してドラッグ操作を行なった後、画像表示装置100に対してタッチ操作を行なうことによって、タッチ位置に端末装置200の画面の画像が表示される場合を説明したが、これに限定されない。例えば、ユーザが、端末装置200のタッチ検出部212に対して指によるドラッグ操作を行ない、そのままその指を画像表示装置100のタッチ検出部112に移動させて、続けてドラッグ操作を行なった場合に、そのドラッグ操作に応じて、画像表示装置100に端末装置200の画面の画像を表示してもよい。具体的には、図12に示すように、ユーザは、端末装置200の右端部分を画像表示装置100の画面(タッチ検出部112の上面)の左側にタッチさせた状態で、端末装置200上で右方向にドラッグ操作(左側の矢印)を行ない、そのまま、指を右方向に移動させて、画像表示装置100にタッチし、タッチを維持したままドラッグ操作を行なう(右側の矢印)。この操作にしたがって、CPU202は、端末装置200上でのドラッグにより、端末装置200の画面の画像データを画像表示装置100に送信する。CPU102は、タッチ位置(右側矢印の末端)に受信した画像の右端部分を表示し、その後のドラッグ操作の継続に応じて、現在のタッチ位置(右側矢印の先端)に画像の右端を移動させ、最初のタッチ位置(右側矢印の末端)までの範囲に、受信した画像の一部分630を表示する。ドラッグがさらに継続すると、図13に示すように、端末装置200の画面全体の画像632が画像表示装置100に表示される。このような操作によって、画像表示装置100と端末装置200との連携をより効果的に演出することができ、相手に印象付けることができる。   In the above, in the display assistance function, after the user performs a drag operation on the terminal device 200, an image of the screen of the terminal device 200 is displayed at the touch position by performing a touch operation on the image display device 100. Although the case has been described, it is not limited thereto. For example, when the user performs a drag operation with a finger on the touch detection unit 212 of the terminal device 200, moves the finger to the touch detection unit 112 of the image display device 100 as it is, and then performs a drag operation. The image of the screen of the terminal device 200 may be displayed on the image display device 100 in response to the drag operation. Specifically, as shown in FIG. 12, the user touches the right end portion of the terminal device 200 on the left side of the screen of the image display device 100 (the upper surface of the touch detection unit 112). A drag operation (arrow on the left) is performed in the right direction, the finger is moved in the right direction, the image display apparatus 100 is touched, and a drag operation is performed while the touch is maintained (arrow on the right). According to this operation, the CPU 202 transmits the image data of the screen of the terminal device 200 to the image display device 100 by dragging on the terminal device 200. The CPU 102 displays the right end portion of the received image at the touch position (end of the right arrow) and moves the right end of the image to the current touch position (tip of the right arrow) according to the continuation of the drag operation thereafter. A portion 630 of the received image is displayed in the range up to the first touch position (end of the right arrow). When the dragging is further continued, as shown in FIG. 13, an image 632 of the entire screen of the terminal device 200 is displayed on the image display device 100. By such an operation, cooperation between the image display device 100 and the terminal device 200 can be more effectively produced, and the other party can be impressed.

また、上記では、表示補助機能において、ユーザがドラッグ操作を行なうことにより、端末装置200の画面の画像データが送信される場合を説明したが、ドラッグ操作以外の操作であってもよい。また、端末装置200の画面表示が変更される度に、ユーザがドラッグ操作を行なうことなく、自動的に端末装置200の画面の画像データが送信されるようにしてもよい。このようにすると、ユーザの操作が少なくてすみ、より効率的である。   Further, although the case where the image data of the screen of the terminal device 200 is transmitted by the user performing the drag operation in the display assist function has been described above, the operation may be an operation other than the drag operation. In addition, whenever the screen display of the terminal device 200 is changed, the image data of the screen of the terminal device 200 may be automatically transmitted without the user performing a drag operation. In this way, the user's operation can be reduced and it is more efficient.

上記では、ユーザが入力補助機能及び表示補助機能の何れか一方を選択して利用する場合を説明したが、両方の機能を同時に利用可能にしてもよい。例えば、図4において、ステップ404でユーザが入力補助を選択した場合、ステップ412でキーボード画像610及びタッチパッド画像612を表示した後、表示補助機能を利用するか否かを選択するためのウィンドウを表示してもよい。ユーザが、表示補助機能の利用を選択した場合には、ステップ422〜430が実行されるようにすればよい。同様に、ステップ404でユーザが表示補助を選択した場合、ステップ430で端末装置の画面の画像を表示した後、入力補助機能を利用するか否かを選択するためのウィンドウを表示してもよい。ユーザが、入力補助機能の利用を選択した場合には、ステップ410〜418が実行されるようにすればよい。このようにすると、図14に示すように、端末装置200の画面が拡大されて表示された状態で、ユーザは、キーボード画像610及びタッチパッド画像612に対してタッチ操作を行なうことにより入力を行なうことができる。このとき、上記したように、端末装置200の画面表示が変更される度に、自動的に端末装置200の画面の画像データが送信されるようにすれば、キーボード画像610及びタッチパッド画像612に対するタッチ操作が自動的に、画像表示装置100に表示された画像632に反映され、効率的である。   Although the case has been described above where the user selects and uses one of the input assistance function and the display assistance function, both functions may be simultaneously available. For example, in FIG. 4, if the user selects the input assistance in step 404, a window for selecting whether to use the display assistance function after displaying the keyboard image 610 and the touch pad image 612 in step 412 is displayed. You may display it. If the user selects to use the display assistance function, steps 422 to 430 may be executed. Similarly, if the user selects display assistance in step 404, after displaying the screen image of the terminal device in step 430, a window may be displayed to select whether to use the input assistance function. . If the user selects to use the input assistance function, steps 410 to 418 may be executed. Then, as shown in FIG. 14, the user performs an input by performing a touch operation on the keyboard image 610 and the touch pad image 612 in a state where the screen of the terminal device 200 is enlarged and displayed. be able to. At this time, as described above, if the image data of the screen of the terminal device 200 is automatically transmitted whenever the screen display of the terminal device 200 is changed, the keyboard image 610 and the touch pad image 612 can be transmitted. The touch operation is automatically reflected on the image 632 displayed on the image display device 100, which is efficient.

また、上記では、端末装置200の画面が画像表示装置100の画面と平行になるように、画像表示装置100の上に端末装置200を載置する場合を説明したが、これに限定されない。例えば、端末装置200を立てて配置するためのスタンド等を用いて、画像表示装置100のタッチ検出部112の上に、端末装置200を載置してもよい。   Moreover, although the case where the terminal device 200 was mounted on the image display apparatus 100 so that the screen of the terminal device 200 may become parallel with the screen of the image display apparatus 100 above was demonstrated, it is not limited to this. For example, the terminal device 200 may be placed on the touch detection unit 112 of the image display device 100 using a stand or the like for arranging the terminal device 200 upright.

上記では、キーボード画像及びタッチパッドの画像を表示する場合を説明したが、これに限定されない。キーボード画像及びタッチパッド画像の何れか一方のみを表示してもよい。その場合、キーボード画像及びタッチパッド画像の何れを表示するかを、ユーザが選択可能にしてもよい。   Although the case of displaying the keyboard image and the image of the touch pad has been described above, the present invention is not limited to this. Only one of the keyboard image and the touch pad image may be displayed. In that case, the user may select which of the keyboard image and the touch pad image to display.

(第2の実施の形態)
第1の実施の形態では、端末装置の画面の画像と同じ画像を、例えば拡大して画像表示装置に表示する場合を説明したが、第2の実施の形態では、端末装置の画面の画像が、画像表示装置の画面の画像の一部を構成する。即ち、端末装置の画面が画像表示装置の画面を補完する。
Second Embodiment
In the first embodiment, the same image as the screen image of the terminal device is enlarged and displayed on the image display device, for example. However, in the second embodiment, the screen image of the terminal device is , Configure a part of the image of the screen of the image display device. That is, the screen of the terminal device complements the screen of the image display device.

第2の実施の形態に係る画像表示装置及び端末装置は、図1〜図3に示した第1の実施の形態に係る画像表示装置及び端末装置と同様に構成されている。以下においては、図1〜図3と同じ参照番号を使用する。第2の実施の形態に係る画像表示装置及び端末装置で実行されるプログラムは、第1の実施の形態と異なる。   The image display device and the terminal device according to the second embodiment are configured in the same manner as the image display device and the terminal device according to the first embodiment shown in FIGS. 1 to 3. In the following, the same reference numerals as in FIGS. 1 to 3 are used. The program executed by the image display device and the terminal device according to the second embodiment is different from the first embodiment.

図15及び図16を参照して、第2の実施の形態に係る画像表示装置100と端末装置200との連携に関して説明する。図15に示すフローチャートが、図4に示すフローチャートと異なるのは、ステップ700〜ステップ704が追加されているだけである。図15においては、便宜上、図4のステップ422〜ステップ430を、ステップ706(表示補助処理)としてまとめて記載している。また、図16に示すフローチャートが、図5に示すフローチャートと異なるのは、ステップ720〜ステップ726が追加されているだけである。図16においては、便宜上、図5のステップ512〜ステップ520を、ステップ728(表示補助端末側処理)としてまとめて記載している。   The cooperation between the image display device 100 and the terminal device 200 according to the second embodiment will be described with reference to FIGS. 15 and 16. The flowchart shown in FIG. 15 differs from the flowchart shown in FIG. 4 only in the addition of steps 700 to 704. In FIG. 15, for the sake of convenience, steps 422 to 430 in FIG. 4 are collectively described as step 706 (display assistance processing). Further, the flowchart shown in FIG. 16 is different from the flowchart shown in FIG. 5 only in the addition of steps 720 to 726. In FIG. 16, for convenience, steps 512 to 520 in FIG. 5 are collectively described as step 728 (display auxiliary terminal side process).

図15を参照して、入力補助が選択されてキーボード画像610及びタッチパッド画像612が表示された(ステップ412)後、入力操作がなされた場合(ステップ414での判定結果がYES)、ステップ700において、CPU102は、所定領域がタッチされたか否かを判定する。所定領域とは、キーボード画像610、タッチパッド画像612、及び終了キー620が表示された領域である。所定領域へのタッチであると判定された場合、制御はステップ416に移行する。そうでなければ、制御はステップ702に移行する。   Referring to FIG. 15, after input assistance is selected and keyboard image 610 and touch pad image 612 are displayed (step 412), if an input operation is performed (the determination result in step 414 is YES), step 700. The CPU 102 determines whether the predetermined area has been touched. The predetermined area is an area where the keyboard image 610, the touch pad image 612, and the end key 620 are displayed. If it is determined that the touch on the predetermined area is made, the control proceeds to step 416. Otherwise, control transfers to step 702.

ステップ702において、CPU102は、端末装置200から画像データを受信したか否かを判定する。画像データの受信は、本プログラムと並行して実行されている別のプログラムによって行なわれ、受信された画像データは、RAM106又は記録部108に記憶される。画像データが受信されていれば、制御はステップ704に移行する。そうでなければ、制御はステップ414に戻る。端末装置200からの画像データの送信は、後述するように、端末装置200の画面上でのドラッグ操作によって指示される。   In step 702, the CPU 102 determines whether image data has been received from the terminal device 200. Reception of image data is performed by another program being executed in parallel with the present program, and the received image data is stored in the RAM 106 or the recording unit 108. If image data has been received, control proceeds to step 704. If not, control returns to step 414. Transmission of image data from the terminal device 200 is instructed by a drag operation on the screen of the terminal device 200, as described later.

ステップ704において、CPU102は、受信している画像データを、端末装置200が搭載されている領域を含むように、表示部114に表示する。例えば、図17に示すように、端末装置200が置かれている領域を左下部分に含むように、画像640が表示される。その後、制御はステップ414に戻る。   In step 704, the CPU 102 displays the received image data on the display unit 114 so as to include the area in which the terminal device 200 is mounted. For example, as shown in FIG. 17, the image 640 is displayed so that the area where the terminal device 200 is placed is included in the lower left portion. Control then returns to step 414.

図17では、端末装置200の画面上で、矢印で示すようにドラッグ操作がなされたことによって、端末装置200の画面の画像データが画像表示装置100に送信され、画像表示装置100の表示部114に何も表示されていない領域に対応する、タッチ検出部112上の領域がタッチされたことによって、端末装置200の画面と同じ画像640が表示されている。   17, the image data of the screen of the terminal device 200 is transmitted to the image display device 100 by performing the drag operation as indicated by the arrow on the screen of the terminal device 200, and the display unit 114 of the image display device 100. The same image 640 as the screen of the terminal device 200 is displayed by touching the area on the touch detection unit 112 corresponding to the area where nothing is displayed.

図16を参照して、入力補助に対応するデータを受信した(ステップ504での判定結果がYES)後、画像表示装置100からのデータを受信していない場合(ステップ506での判定結果がNO)、ステップ720において、CPU202は、タッチ検出部212に対するタッチ操作がなされたか否かを判定する。タッチ操作が検出された場合、制御はステップ722に移行する。そうでなければ、ステップ720が繰返される。   Referring to FIG. 16, after data corresponding to the input assistance is received (determination result in step 504 is YES), when data from image display device 100 is not received (determination result in step 506 is NO). In step 720, the CPU 202 determines whether a touch operation has been performed on the touch detection unit 212. If a touch operation is detected, control transfers to step 722. Otherwise, step 720 is repeated.

ステップ722において、CPU202は、タッチ検出部212上でドラッグ操作がなされたか否かを判定する。ドラッグ操作が検出された場合、制御はステップ724に移行する。そうでなければ、制御はステップ726に移行する。   In step 722, the CPU 202 determines whether a drag operation has been performed on the touch detection unit 212. If a drag operation is detected, control transfers to step 724. Otherwise, control transfers to step 726.

ステップ724において、CPU202は、表示部214の画面に表示されている画像データを、VRAM218から読出して画像表示装置100に送信する。送信され画像データは、上記したように、画像表示装置100によって受信されて表示部114に表示される(ステップ702及びステップ704参照)。その後、制御はステップ506に戻る。   In step 724, the CPU 202 reads the image data displayed on the screen of the display unit 214 from the VRAM 218 and transmits the image data to the image display apparatus 100. The transmitted image data is received by the image display apparatus 100 and displayed on the display unit 114 as described above (see step 702 and step 704). Control then returns to step 506.

ステップ720で検出された操作が、ドラッグ操作でなければ、ステップ726において、CPU202は、操作に対応する処理を実行する。その後、制御はステップ506に戻る。   If the operation detected in step 720 is not a drag operation, in step 726, the CPU 202 executes processing corresponding to the operation. Control then returns to step 506.

したがって、入力補助が選択された場合(ステップ408での判定結果がYES)、ステップ700〜ステップ704、及びステップ720〜ステップ726によって、ユーザは、端末装置200を操作して画面の表示を変更することができ、画面の表示が変更された後にドラッグ操作を行なえば、新たな画面の画像データが送信されて画像表示装置100に表示される。   Therefore, when the input assistance is selected (the determination result in step 408 is YES), the user operates terminal apparatus 200 to change the display of the screen according to steps 700 to 704 and steps 720 to 726. If a drag operation is performed after the screen display is changed, image data of a new screen is transmitted and displayed on the image display apparatus 100.

図17の状態から、図18に示すように、端末装置200が画像表示装置100の上から取除かれても(取除かれた端末装置200は左端部分のみが示されている)、端末装置200の画面の画像と同じ画像640の表示は維持される。したがって、ユーザは、端末装置200の画面が拡大されて表示された画像640を見ながら、キーボード画像610及びタッチパッド画像612に対してタッチ操作を行なうことができるので、入力操作を効率的に行なうことができる。   Even if the terminal device 200 is removed from above the image display apparatus 100 from the state of FIG. 17 as shown in FIG. 18 (only the left end portion of the removed terminal device 200 is shown), the terminal device The display of the same image 640 as the image of the 200 screen is maintained. Therefore, the user can perform the touch operation on the keyboard image 610 and the touch pad image 612 while looking at the image 640 displayed by enlarging the screen of the terminal device 200, so that the input operation can be performed efficiently. be able to.

上記では、端末装置200が画像表示装置100の上から取除かれても、端末装置200の画面と同じ画像640の表示が維持される場合を説明したが、図19に示すように、端末装置200が画像表示装置100の上から取除かると、端末装置200が置かれていた部分が表示されないようにしてもよい。即ち、ステップ704において、受信した画像データを表示する場合に、画像データのうち、端末装置200が載置されている領域に表示される部分画像のデータを、別のデータ(例えば、黒等を表す単一色のデータ)に置換えて、表示部114に表示する。図19では、端末装置200が置かれていた部分644は単色で表示されている(グレーアウト)。このようにすれば、例えば図20に示すように、ユーザは、端末装置200を取除いた後、相手に見せたくない画像802を端末装置200に表示して、検討することができる。図20では、端末装置200で実行されているアプリケーションのウィンドウに、社外秘の情報が表示されているが、その情報は、画像表示装置100には表示されていない。この状態で、端末装置200に対してドラッグ操作がなされて、端末装置200の新たな画面の画像データが送信されても、社外秘の情報が表示されたウィンドウの位置が変更されない限り、画像表示装置100には、端末装置200の新たな画面の画像データが、社外秘の情報が除かれた状態で表示される。   Although the case where the display of the same image 640 as the screen of the terminal device 200 is maintained even if the terminal device 200 is removed from the top of the image display device 100 has been described above, as shown in FIG. When 200 is removed from the top of the image display device 100, the portion where the terminal device 200 was placed may not be displayed. That is, when displaying the received image data in step 704, the data of the partial image displayed in the area where the terminal device 200 is placed among the image data is another data (for example, black etc.). (Displayed on the display unit 114). In FIG. 19, the portion 644 where the terminal device 200 was placed is displayed in single color (grayed out). In this way, for example, as shown in FIG. 20, after removing the terminal device 200, the user can display an image 802 which the user does not want to show to the other party on the terminal device 200, and can examine it. In FIG. 20, confidential information is displayed in the window of the application being executed by the terminal device 200, but the information is not displayed on the image display device 100. In this state, even if a drag operation is performed on the terminal device 200 and image data of a new screen of the terminal device 200 is transmitted, the image display device as long as the position of the window in which the confidential information is displayed is not changed. The image data of the new screen of the terminal device 200 is displayed on the screen 100 with the confidential information removed.

(第3の実施の形態)
第1及び第2の実施の形態に係る画像表示装置は1台の端末装置と連携し、端末装置に対する入力補助機能を提供した。第3の実施の形態に係る画像表示装置は、複数の端末装置と連携し、各端末装置に対して入力補助機能を提供する。
Third Embodiment
The image display apparatus according to the first and second embodiments cooperates with one terminal device to provide an input assistance function to the terminal device. The image display apparatus according to the third embodiment cooperates with a plurality of terminal devices to provide an input assistance function to each terminal device.

第3の実施の形態に係る画像表示装置は、図1に示した第1の実施の形態に係る画像表示装置と同様に構成されている。また、複数台の各端末装置は、図3に示した端末装置と同様に構成されている。第3の実施の形態に係る画像表示装置及び端末装置で実行されるプログラムは、第1及び第2の実施の形態と異なる。   The image display apparatus according to the third embodiment is configured in the same manner as the image display apparatus according to the first embodiment shown in FIG. Further, each of the plurality of terminal devices is configured in the same manner as the terminal device shown in FIG. Programs executed by the image display device and the terminal device according to the third embodiment are different from the first and second embodiments.

図21及び図22を参照して、第3の実施の形態に係る画像表示装置100が2台の端末装置に入力補助機能を提供する場合に関して説明する。以下においては、画像表示装置に関しては、図1と同じ参照番号を使用する。2台の端末装置は、後述するように第1端末装置及び第2端末装置を明記した上で、図3の参照番号を使用する。図21及び図22において、図4及び図5と同じ参照番号を付したステップは、図4及び図5のステップと同じである。   The case where the image display apparatus 100 according to the third embodiment provides an input assistance function to two terminal apparatuses will be described with reference to FIGS. 21 and 22. In the following, the same reference numerals as in FIG. 1 are used for the image display device. The two terminal devices use the reference numerals in FIG. 3 after specifying the first terminal device and the second terminal device as described later. In FIGS. 21 and 22, steps given the same reference numerals as in FIGS. 4 and 5 are the same as the steps in FIGS. 4 and 5.

図21を参照して、連携機能を提供する対象の端末装置がステップ400で検出された後、ステップ740において、CPU102は、表示部114に、2台の端末装置に対して入力補助機能を提供可能であることを示すメッセージを含む画像を表示する。具体的には、図23に示すように、画面600に、メッセージを含むウィンドウ660と2台用キー662とが表示される。   Referring to FIG. 21, after the target terminal device providing the cooperation function is detected in step 400, in step 740, CPU 102 provides display unit 114 with the input assistance function for the two terminal devices. Display an image that contains a message indicating that it is possible. Specifically, as shown in FIG. 23, on the screen 600, a window 660 including a message and a key 662 for two machines are displayed.

ステップ742において、CPU102は、2台での利用が選択されたか否かを判定する。2台での利用は、2台用キー662がタッチされることによって選択される。2台での利用が選択されたと判定された場合、制御はステップ744に移行する。そうでなければ、制御はステップ410に移行する。   At step 742, the CPU 102 determines whether or not two units are selected. The use of two units is selected by touching the two unit key 662. If it is determined that the two units are selected, the control proceeds to step 744. Otherwise, control transfers to step 410.

なお、画像表示装置100は2台の端末装置を識別する必要がある。例えば、1台の端末装置に関して電源オン、プログラムの起動、及び画像表示装置100への載置を行なった後、別の端末装置に関して、電源オン、プログラムの起動、及び画像表示装置100への載置を行なうようにすれば、画像表示装置100は2台の端末装置を識別し、2台の端末装置と、表示した2組のキーボード画像及びタッチパッド画像とを対応させることができる。また、2台の端末装置がオンされ、専用プログラムが起動された状態で、画像表示装置100と通信可能になった場合には、端末装置が搭載されたときに、2台の端末装置を識別する情報(デバイス名等)を表示し、ユーザに選択させることにより、端末装置と、キーボード画像及びタッチパッド画像とを対応させてもよい。   The image display apparatus 100 needs to identify two terminal devices. For example, after power on, activation of a program, and placement on the image display apparatus 100 for one terminal apparatus, power on, activation of a program, and placement on the image display apparatus 100 for another terminal apparatus. If placement is performed, the image display apparatus 100 can identify two terminal devices and associate the two terminal devices with the displayed two sets of keyboard images and touch pad images. In addition, when two terminal devices are turned on and the dedicated program is activated and communication with the image display apparatus 100 becomes possible, when the terminal devices are installed, the two terminal devices are identified. The terminal device may be made to correspond to the keyboard image and the touch pad image by displaying the information (device name and the like) to be selected by the user.

ステップ744において、CPU102は、画面600を2分割する境界線を表示する。例えば、図24に示すように、破線の境界線664を表示する。図24において、タッチされた2台用キー662は、選択されていることを表すために輝度が反転されて表示されている。   In step 744, the CPU 102 displays a boundary dividing the screen 600 into two. For example, as shown in FIG. 24, a dashed border 664 is displayed. In FIG. 24, the two touched keys 662 are displayed with inverted luminance to indicate that they are selected.

ステップ746において、CPU102は、タッチ検出部112の上に、端末装置が載置されたか否かを判定する。載置された場合、CPU102は、カウンタ(初期値は“0”)に“1”を加算し、制御はステップ748に移行する。そうでなれば、ステップ746が繰返される。以下、最初に載置された端末装置を第1端末装置という。   In step 746, the CPU 102 determines whether the terminal device is placed on the touch detection unit 112. When it is placed, the CPU 102 adds “1” to the counter (initial value is “0”), and the control proceeds to step 748. If not, step 746 is repeated. Hereinafter, the terminal device placed first is referred to as a first terminal device.

ステップ748において、CPU102は、載置された第1端末装置の近傍にキーボード画像及びタッチパッド画像を表示する。具体的には、境界線664と平行な第1端末装置が載置された側の辺と、第1端末装置が載置された位置との間に、キーボード画像及びタッチパッド画像を表示する。例えば、図25に示したように、第1端末装置222が載置された場合、キーボード画像670及びタッチパッド画像672が表示される。   At step 748, the CPU 102 displays a keyboard image and a touch pad image in the vicinity of the placed first terminal device. Specifically, the keyboard image and the touch pad image are displayed between the side on which the first terminal device is placed parallel to the boundary 664 and the position where the first terminal device is placed. For example, as shown in FIG. 25, when the first terminal device 222 is placed, the keyboard image 670 and the touch pad image 672 are displayed.

ステップ750において、CPU102は、2台の端末装置が全て載置されたか否かを判定する。2台目の端末装置(以下、第2端末装置という)が載置された場合、ステップ746が再度実行され、カウンタの加算処理が実行されて、カウンタの値が“2”になるので、カウンタが“2”であるか否かを判定する。全て載置されたと判定された場合、制御はステップ414に移行する。そうでなければ、制御はステップ746に戻る。   In step 750, the CPU 102 determines whether all the two terminal devices have been placed. When the second terminal device (hereinafter referred to as the second terminal device) is placed, step 746 is executed again, the addition processing of the counter is executed, and the value of the counter becomes “2”. It is determined whether or not "2". If it is determined that all the sheets have been placed, the control proceeds to step 414. Otherwise, control returns to step 746.

2台の端末装置が載置された状態は、図26のようになる。図26では、上記したように、第1端末装置222が載置された領域674にキーボード画像670及びタッチパッド画像672が表示され、第2端末装置224が載置された領域676に、対応するキーボード画像678及びタッチパッド画像680が表示されている。   The state in which the two terminal devices are placed is as shown in FIG. In FIG. 26, as described above, the keyboard image 670 and the touch pad image 672 are displayed in the area 674 in which the first terminal device 222 is placed, and corresponds to the area 676 in which the second terminal device 224 is placed. A keyboard image 678 and a touch pad image 680 are displayed.

ステップ742での判定の結果、2台用キー662がタッチされていなければ、ステップ410において、CPU102は、タッチ検出部112の上に、端末装置が載置されたか否かを判定する。   As a result of the determination in step 742, if the two-unit key 662 is not touched, the CPU 102 determines whether or not the terminal device is placed on the touch detection unit 112 in step 410.

CPU102は、ステップ414において、キーボード画像及びタッチパッド画像に対して入力操作がなされたか否かを判定し、入力された場合、ステップ418において、ステップ414で取得したタッチ位置座標からタッチ位置に対応する指示を特定し、対応するデータ(文字コード等)を、第1端末装置222及び第2端末装置224のうち、対応する端末装置に送信する。2台用キー662がタッチされないまま、ステップ414が実行される場合(これは、カウンタの値が初期値“0”であるか否かにより判定できる)には、以下では1台の端末装置に関して処理が実行される。   In step 414, the CPU 102 determines whether an input operation has been performed on the keyboard image and the touch pad image. If the input operation has been performed, the CPU 102 corresponds to the touch position from the touch position coordinates acquired in step 414 in step 418. The instruction is specified, and the corresponding data (such as a character code) is transmitted to the corresponding one of the first terminal 222 and the second terminal 224. In the case where step 414 is executed without the two keys 662 being touched (this can be determined by whether or not the value of the counter is the initial value "0"), in the following, with respect to one terminal device Processing is performed.

ステップ752において、CPU102は、端末装置が、画像表示装置の上から除去されたか否かを判定する。除去されたと判定された場合、制御はステップ754に移行する。そうでなければ、制御はステップ414に戻る。   In step 752, the CPU 102 determines whether the terminal device has been removed from the top of the image display device. If it is determined that it has been removed, then control transfers to step 754. If not, control returns to step 414.

ステップ754において、CPU102は、端末装置が除去された領域からキーボード画像、タッチパッド画像、境界線、及び2台用キー662を削除し、その端末装置に終了情報を送信する。このとき、CPU102は、カウンタが“0”でなければ、カウンタを“1”だけ減算する。   In step 754, the CPU 102 deletes the keyboard image, the touch pad image, the boundary line, and the two keys 662 from the area where the terminal device has been removed, and transmits the end information to the terminal device. At this time, if the counter is not "0", the CPU 102 subtracts the counter by "1".

ステップ756において、CPU102は、端末装置が全て除去された否かを判定する。これは、カウンタが初期値(“0”)であるか否かによって判定される。端末装置が2台とも除去されたと判定された場合、制御はステップ400に戻る。そうでなければ、制御はステップ414に戻る。   In step 756, the CPU 102 determines whether all the terminal devices have been removed. This is determined by whether the counter is an initial value ("0"). If it is determined that two terminals have been removed, control returns to step 400. If not, control returns to step 414.

図22を参照して、第1端末装置及び第2端末装置が実行するプログラムの各ステップは、図5に示されたステップのうち、入力補助機能に関連するステップと同じである。即ち、第1端末装置及び第2端末装置は、上記したように、画像表示装置100との通信が確立された後、画像表示装置100から自機宛ての入力データを受信し、入力データに応じた処理を実行する。   Referring to FIG. 22, each step of a program executed by the first terminal device and the second terminal device is the same as the step related to the input assistance function among the steps shown in FIG. That is, as described above, after the communication with the image display apparatus 100 is established, the first terminal apparatus and the second terminal apparatus receive the input data addressed to the own apparatus from the image display apparatus 100 and respond to the input data. Execute the process.

このようにして、2台用キー662がタッチされない状態で、1台の端末装置が載置されると(ステップ742でNO、ステップ410でYES)、第1の実施の形態と同様に、1台の端末装置に対して入力補助機能を提供することができる。一方、2台用キー662がタッチされ、2台の端末装置が載置されると、画像表示装置100は、2台の端末装置に対して入力補助機能を提供することができる。載置されている端末装置のうち、1台の端末装置が除去されると、対応するキーボード画像及びタッチパッド画像が消去される。その状態では、搭載された端末装置があれば、その端末装置に対する入力補助機能は維持される。端末装置が全て除去されると。画像表示装置100の画面から画像が消去され、最初の状態に戻る。   In this manner, if one terminal device is placed in a state where the two-unit key 662 is not touched (NO at step 742 and YES at step 410), 1 as in the first embodiment, 1 It is possible to provide an input assistance function to one or more terminal devices. On the other hand, when the two device keys 662 are touched and the two terminal devices are placed, the image display apparatus 100 can provide the input assistance function to the two terminal devices. When one of the mounted terminals is removed, the corresponding keyboard image and touch pad image are erased. In that state, if there is a terminal device mounted, the input assistance function for that terminal device is maintained. When all terminals are removed. The image is erased from the screen of the image display device 100, and the initial state is restored.

上記では、ユーザが2台用キー662にタッチすることによって、2台の端末装置に対して入力補助機能を提供する場合を説明したが、これに限定されない。例えば、図23のような画面を表示することなく、端末装置が画像表示装置に載置される度に、画像表示装置が端末装置と通信を確立し、端末装置の近傍に、キーボード画像及びタッチパッド画像を表示するスペースがあれば、それらを表示してもよい。   Although the case where the user has provided the input assistance function to the two terminal devices by touching the two-piece key 662 has been described above, the present invention is not limited to this. For example, the image display device establishes communication with the terminal device each time the terminal device is placed on the image display device without displaying the screen as shown in FIG. 23, and a keyboard image and a touch are displayed in the vicinity of the terminal device. If there is a space for displaying pad images, they may be displayed.

また、画像表示装置の画面600の分割の方法は、図24のような分割方法に限定されない。例えば、図27に示すように、画面600の対角位置を使用してもよい。   Further, the method of dividing the screen 600 of the image display device is not limited to the dividing method as shown in FIG. For example, as shown in FIG. 27, the diagonal position of the screen 600 may be used.

また、画像表示装置の画面が大きければ、3台以上の端末装置に入力補助機能を提供するようにしてもよい。   Further, if the screen of the image display device is large, three or more terminal devices may be provided with the input assistance function.

以上、実施の形態を説明することにより本発明を説明したが、上記した実施の形態は例示であって、本発明は上記した実施の形態に限定されるものではなく、種々変更して実施することができる。   The present invention has been described above by describing the embodiment, but the above-described embodiment is an exemplification, and the present invention is not limited to the above-described embodiment, and various modifications may be made. be able to.

100 画像表示装置
102、202 演算処理部(CPU)
104、204 読出専用メモリ(ROM)
106、206 書換可能メモリ(RAM)
108、208 記録部
110、210 通信部
112、212 タッチ検出部
114、214 表示部
116、216 表示制御部
118、218 ビデオメモリ(VRAM)
120、220 バス
600 画面
610、670、678 キーボード画像
612、672、680 タッチパッド画像
620 終了キー
100 image display devices 102 and 202 arithmetic processing unit (CPU)
104, 204 Read Only Memory (ROM)
106, 206 Rewritable Memory (RAM)
108, 208 recording unit 110, 210 communication unit 112, 212 touch detection unit 114, 214 display unit 116, 216 display control unit 118, 218 video memory (VRAM)
120, 220 bus 600 screen 610, 670, 678 keyboard image 612, 672, 680 touch pad image 620 end key

Claims (14)

画像表示面が水平に配置された表示部と、
前記表示部の画像表示面上に配置され、前記画像表示面のタッチされた位置を検出する検出部と
を備え、
前記表示部は、外部装置が前記検出部の上に載置されたことを前記検出部が検出したことを受けて、前記外部装置に情報を入力するための入力機器の画像を表示するか否かを選択する画面を前記画像表示面に表示し、
前記表示部は、前記入力機器の画像を表示することが選択されたことを前記検出部が検出したことを受けて、前記入力機器の画像を前記画像表示面に表示する、画像表示装置。
A display unit in which the image display surface is arranged horizontally,
A detection unit disposed on the image display surface of the display unit and detecting a touched position of the image display surface;
The display unit receives the fact that the detection unit detects that the external device has been placed on the detection unit, and displays the image of the input device for inputting information to the external device. Display a screen for selecting the image on the image display surface,
The image display apparatus, wherein the display unit displays an image of the input device on the image display surface in response to detection that the detection unit has selected to display the image of the input device.
前記表示部は、前記入力機器の画像を表示することが選択されたことを前記検出部が検出したことを受けて、前記画像表示面において前記外部装置の載置された領域と異なる領域に、前記入力機器の画像を表示する、請求項1に記載の画像表示装置。   In response to the detection unit detecting that the display unit has selected to display the image of the input device, the display unit is arranged on an area different from the area where the external device is placed on the image display surface, The image display apparatus according to claim 1, wherein an image of the input device is displayed. 前記表示部は、前記画像表示面がタッチされたことを前記検出部が検出したことを受けて、前記外部装置から受信した、前記外部装置の画像表示面に表示された画像データを、拡大して表示する、請求項1または2に記載の画像表示装置。   The display unit enlarges the image data displayed on the image display surface of the external device, which is received from the external device in response to detection that the detection unit detects that the image display surface is touched. The image display apparatus according to claim 1, wherein the image display is performed. 前記表示部は、
前記外部装置が載置された状態で前記画像表示面がタッチされたことを前記検出部が検出したことを受けて、前記外部装置から受信した前記外部装置の画像表示面に表示された画像データを、前記外部装置の載置された載置領域に対応する部分を含む領域に拡大表示し、
前記拡大表示された状態で前記外部装置が前記検出部の上から取除かれたことを前記検出部が検出したことを受けて、前記載置領域に対応する部分に表示されていた部分画像を異なる部分画像に変更する、請求項1から3のいずれかに記載の画像表示装置。
The display unit is
Image data displayed on the image display surface of the external device received from the external device in response to the detection unit detecting that the image display surface is touched in a state where the external device is mounted In an area including a portion corresponding to the placement area on which the external device is placed;
In response to the detection unit detecting that the external device has been removed from above the detection unit in the magnified state, the partial image displayed in the portion corresponding to the placement area is displayed. The image display apparatus according to any one of claims 1 to 3, wherein the image is changed to a different partial image.
前記表示部は、
前記外部装置が載置された状態で前記画像表示面がタッチされたことを前記検出部が検出したことを受けて、前記外部装置から受信した前記外部装置の画像表示面に表示された画像データを、前記外部装置の載置された載置領域に対応する部分を含む領域に拡大表示し、
前記拡大表示された状態で前記外部装置が前記検出部の上から取除かれたことを前記検出部が検出しても、前記拡大表示を維持する、請求項1から3のいずれかに記載の画像表示装置。
The display unit is
Image data displayed on the image display surface of the external device received from the external device in response to the detection unit detecting that the image display surface is touched in a state where the external device is mounted In an area including a portion corresponding to the placement area on which the external device is placed;
The enlarged display according to any one of claims 1 to 3, wherein the enlarged display is maintained even if the detection unit detects that the external device is removed from above the detection unit in the enlarged display state. Image display device.
前記表示部は、複数台の前記外部装置の各々に対して入力機器を表示する指示を受けたことを前記検出部が検出することに応じて、複数台の前記外部装置の各々を載置する領域の境界線を表示する、請求項1から5のいずれかに記載の画像表示装置。   The display unit mounts each of the plurality of external devices in response to the detection unit detecting that each of the plurality of external devices receives an instruction to display the input device. The image display apparatus according to any one of claims 1 to 5, wherein a boundary of the area is displayed. 前記入力機器を示す画像は、キーボード画像またはタッチパッド画像を含む、請求項1から6のいずれかに記載の画像表示装置。   The image display apparatus according to any one of claims 1 to 6, wherein the image indicating the input device includes a keyboard image or a touch pad image. 水平配置された画像表示面に画像を表示する画像表示方法であって、
前記画像表示面上に載置された外部装置の位置を検知する外部装置検知ステップと、
前記外部装置の位置を検知した後、前記画像表示面に、前記外部装置に情報を入力するための入力機器の画像を表示するか否かを選択する画面を表示する選択画面表示ステップと、
前記画像表示面において、前記入力機器の画像を表示することが選択されたことを検出する入力機器画像選択検出ステップと、
前記入力機器の画像を表示することが選択されたことを検出した後、前記入力機器を示す画像を表示する入力機器画像表示ステップと
を包含する、画像表示方法。
An image display method for displaying an image on a horizontally arranged image display surface, comprising:
An external device detection step of detecting the position of the external device placed on the image display surface;
A selection screen display step of displaying a screen for selecting whether or not to display an image of an input device for inputting information to the external device on the image display surface after detecting the position of the external device;
An input device image selection detection step of detecting that the display of the image of the input device is selected on the image display surface;
An input device image display step of displaying an image indicating the input device after detecting that the display of the image of the input device is selected.
前記入力機器画像表示ステップにおいて、前記画像表示面において、前記画像表示面において前記外部装置の載置された領域と異なる領域に、前記入力機器の画像を表示する、請求項8に記載の画像表示方法。   The image display according to claim 8, wherein an image of the input device is displayed on the image display surface in an area different from the area where the external device is placed on the image display surface in the input device image display step. Method. 前記画像表示面へのタッチを検出するタッチ検知ステップと、
前記タッチ検知ステップにおいて、前記画像表示面がタッチされたことを検出したことを受けて、前記外部装置から受信した、前記外部装置の画像表示面に表示された画像データを、拡大して表示する表示部表示ステップと
をさらに包含する、請求項8または9に記載の画像表示方法。
A touch detection step of detecting a touch on the image display surface;
In response to detecting that the image display surface is touched in the touch detection step, the image data displayed from the external device and displayed on the image display surface of the external device is enlarged and displayed. The image display method according to claim 8, further comprising: a display unit display step.
前記外部装置が載置された状態で、前記タッチ検知ステップにおいて、前記画像表示面がタッチされたことを検出したことを受けて、前記表示部表示ステップにおいて、前記外部装置から受信した前記外部装置の画像表示面に表示された画像データが、前記外部装置が載置された位置に対応する部分を含む領域に拡大表示され、
前記拡大表示された状態で、前記外部装置検知ステップにおいて、前記外部装置が前記画像表示面の上から取除かれたことが検出されたことを受けて、前記表示部表示ステップにおいて、前記外部装置が載置された位置に対応する部分に表示されていた部分画像が、異なる部分画像に変更される、請求項10に記載の画像表示方法。
The external device received from the external device in the display unit display step in response to the detection that the image display surface is touched in the touch detection step in a state where the external device is placed. Image data displayed on the image display surface of the image display area is enlarged and displayed in an area including a portion corresponding to the position at which the external device is mounted,
In the enlarged display state, the external device detection step detects that the external device has been removed from the top of the image display surface, and the display unit displays the external device in the display step. The image display method according to claim 10, wherein a partial image displayed in a portion corresponding to a position at which is placed is changed to a different partial image.
前記外部装置が載置された状態で、前記タッチ検知ステップにおいて前記画像表示面がタッチされたことを検出したことを受けて、前記表示部表示ステップにおいて、前記外部装置から受信した前記外部装置の画像表示面に表示された画像データが、前記外部装置が載置された位置に対応する部分を含む領域に拡大表示され、
前記拡大表示された状態で、前記外部装置検知ステップにおいて、前記外部装置が前記画像表示面上から取除かれたことが検出されても、前記表示部表示ステップにおいて、前記拡大表示を維持する、請求項10に記載の画像表示方法。
In the state where the external device is placed, receiving that the image display surface has been touched in the touch detection step, and in the display unit display step, the external device received from the external device Image data displayed on the image display surface is enlarged and displayed in an area including a portion corresponding to the position at which the external device is mounted;
Even if it is detected in the external device detection step that the external device has been removed from the image display surface in the enlarged display state, the enlarged display is maintained in the display unit display step. The image display method according to claim 10.
前記画像表示面へのタッチを検出するタッチ検知ステップと、
前記タッチ検知ステップにおいて、複数台の前記外部装置の各々に対して入力機器を表示する指示を受けたことに応じて、複数台の前記外部装置の各々を載置する領域の境界線を表示する境界線表示ステップと
をさらに包含する、請求項8に記載の画像表示方法。
A touch detection step of detecting a touch on the image display surface;
In the touch detection step, in response to an instruction to display the input device to each of the plurality of external devices, a boundary line of a region on which each of the plurality of external devices is to be placed is displayed. The image display method according to claim 8, further comprising: a boundary line display step.
前記入力機器を示す画像は、キーボード画像またはタッチパッド画像を含む、請求項8から13のいずれかに記載の画像表示方法。   The image display method according to any one of claims 8 to 13, wherein the image indicating the input device includes a keyboard image or a touch pad image.
JP2019043037A 2019-03-08 2019-03-08 Image display device and image display method Active JP6654722B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019043037A JP6654722B2 (en) 2019-03-08 2019-03-08 Image display device and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019043037A JP6654722B2 (en) 2019-03-08 2019-03-08 Image display device and image display method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017228070A Division JP6522719B2 (en) 2017-11-28 2017-11-28 Image display method

Publications (2)

Publication Number Publication Date
JP2019117649A true JP2019117649A (en) 2019-07-18
JP6654722B2 JP6654722B2 (en) 2020-02-26

Family

ID=67304690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019043037A Active JP6654722B2 (en) 2019-03-08 2019-03-08 Image display device and image display method

Country Status (1)

Country Link
JP (1) JP6654722B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11940847B2 (en) 2020-11-06 2024-03-26 Samsung Electronics Co., Ltd. Method for controlling flexible display, and electronic device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031448A (en) * 2003-07-04 2005-02-03 Fuji Xerox Co Ltd Information display system and information display method
JP2008123476A (en) * 2006-10-16 2008-05-29 Canon Inc Image processing apparatus and its control method
US20100079369A1 (en) * 2008-09-30 2010-04-01 Microsoft Corporation Using Physical Objects in Conjunction with an Interactive Surface
JP2012503801A (en) * 2008-09-24 2012-02-09 マイクロソフト コーポレーション Object detection and user settings
US20120249463A1 (en) * 2010-06-04 2012-10-04 Smart Technologies Ulc Interactive input system and method
JP2013041350A (en) * 2011-08-12 2013-02-28 Panasonic Corp Touch table system
WO2013094271A1 (en) * 2011-12-21 2013-06-27 シャープ株式会社 Information display device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031448A (en) * 2003-07-04 2005-02-03 Fuji Xerox Co Ltd Information display system and information display method
JP2008123476A (en) * 2006-10-16 2008-05-29 Canon Inc Image processing apparatus and its control method
JP2012503801A (en) * 2008-09-24 2012-02-09 マイクロソフト コーポレーション Object detection and user settings
US20100079369A1 (en) * 2008-09-30 2010-04-01 Microsoft Corporation Using Physical Objects in Conjunction with an Interactive Surface
JP2012513047A (en) * 2008-09-30 2012-06-07 マイクロソフト コーポレーション Using physical objects with interactive surfaces
US20120249463A1 (en) * 2010-06-04 2012-10-04 Smart Technologies Ulc Interactive input system and method
JP2013041350A (en) * 2011-08-12 2013-02-28 Panasonic Corp Touch table system
WO2013094271A1 (en) * 2011-12-21 2013-06-27 シャープ株式会社 Information display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11940847B2 (en) 2020-11-06 2024-03-26 Samsung Electronics Co., Ltd. Method for controlling flexible display, and electronic device

Also Published As

Publication number Publication date
JP6654722B2 (en) 2020-02-26

Similar Documents

Publication Publication Date Title
JP3630153B2 (en) Information display input device, information display input method, and information processing device
JP5513266B2 (en) Conversion device and program
US9454257B2 (en) Electronic system
JP7042622B2 (en) Image processing device, image processing system, image processing method, and program
JP2011134278A (en) Information processing apparatus and pointing control method
JP2009151718A (en) Information processing device and display control method
CN103955339A (en) Terminal operation method and terminal equipment
JP6988060B2 (en) Image processing equipment, image processing system, image processing method and program
JP5905783B2 (en) Image display system
JP2015041336A (en) Interface device, interface method, interface program, and computer-readable recording medium with program recorded thereon
JP2009064068A (en) Information processor, and user interface control method and program
JP2006092321A (en) Electronic equipment and touchpad device
CN101650635A (en) Method for controlling remote display by terminal equipment and terminal equipment
JP2009098990A (en) Display device
JP2014016743A (en) Information processing device, information processing device control method and information processing device control program
JP2004030536A (en) Information processor and character input support method used in the processor
JP6522719B2 (en) Image display method
JP6654722B2 (en) Image display device and image display method
JP6253945B2 (en) Image display device
JP7356263B2 (en) Information processing device, information processing method, and information processing program
US9075433B1 (en) Information processing method and electronic device
JP2019204384A (en) Information processing apparatus, information processing method, and program
JP6220374B2 (en) Information processing apparatus, output character code determination method, and program
US20100265107A1 (en) Self-description of an adaptive input device
JP5886997B2 (en) Information display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200130

R150 Certificate of patent or registration of utility model

Ref document number: 6654722

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150