JP2014038474A - Terminal equipment, display system and operation program - Google Patents

Terminal equipment, display system and operation program Download PDF

Info

Publication number
JP2014038474A
JP2014038474A JP2012180284A JP2012180284A JP2014038474A JP 2014038474 A JP2014038474 A JP 2014038474A JP 2012180284 A JP2012180284 A JP 2012180284A JP 2012180284 A JP2012180284 A JP 2012180284A JP 2014038474 A JP2014038474 A JP 2014038474A
Authority
JP
Japan
Prior art keywords
unit
terminal device
user
image display
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012180284A
Other languages
Japanese (ja)
Inventor
和寛 ▲高▼澤
Kazuhiro Takazawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012180284A priority Critical patent/JP2014038474A/en
Publication of JP2014038474A publication Critical patent/JP2014038474A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

PROBLEM TO BE SOLVED: To operate an image display device without adding equipment or parts for operating the image display device or restricting the position or operation of a user.SOLUTION: Terminal equipment includes: an acquisition section for acquiring a predetermined application via a network; and a detection section for detecting the operation of a user to terminal equipment for operating an image display device which displays an image. Also, the predetermined application functions as: a holding section for holding the operation of the user and an operation to the image display device in association; an operation specification section for specifying an operation corresponding to the operation detected by the detection section on the basis of the holding section; and a transmission section for transmitting the operation specified by the operation specification section to the image display device.

Description

本発明は、端末装置、表示システム及び操作プログラムに関する。   The present invention relates to a terminal device, a display system, and an operation program.

従来、画像ファイルを表示するプロジェクタ等の画像表示装置が知られている。また、画像表示装置による画像ファイルの表示に関しては、ユーザの所定動作であるジェスチャを検知し、検知したジェスチャに対応する操作を画像表示装置に指示することで、所望の画像ファイルを表示する技術がある。   Conventionally, an image display device such as a projector for displaying an image file is known. In addition, regarding the display of an image file by the image display device, there is a technology for displaying a desired image file by detecting a gesture that is a predetermined operation of the user and instructing the image display device to perform an operation corresponding to the detected gesture. is there.

かかる技術において、ユーザによるジェスチャは、例えば、カメラによって撮像されたユーザの映像から検知される。このため、ユーザは、画像表示装置を操作するためのジェスチャとして誤検知が生じないように自身の動きに留意することになる。加えて、ユーザは、ジェスチャとして検知させるために、カメラによって撮像可能な範囲に居なければならないので、自身の位置が制限されてしまう。また、ジェスチャの検知においては、上記のようにカメラ等の機器を要することになるためコストが増大してしまう。   In such a technique, a user's gesture is detected from, for example, a user's image captured by a camera. For this reason, the user pays attention to his / her movement so that a false detection does not occur as a gesture for operating the image display apparatus. In addition, since the user must be within a range that can be imaged by the camera in order to be detected as a gesture, the user's position is limited. In addition, in detecting a gesture, since a device such as a camera is required as described above, the cost increases.

そこで、最近では、角度センサや加速度センサを備えたリモートコントローラを用いて、その運動方向や傾きをユーザによるジェスチャとして検知することにより、画像表示装置を操作する技術がある。   Therefore, recently, there is a technique for operating an image display device by detecting a movement direction and inclination as a gesture by a user using a remote controller including an angle sensor and an acceleration sensor.

しかしながら、上述した従来技術であっても、専用のリモートコントローラを用意しなければならないために、コストが増大するという問題は解消できない。   However, even with the above-described conventional technology, a dedicated remote controller must be prepared, and thus the problem of increased cost cannot be solved.

本発明は、上記に鑑みてなされたものであって、画像表示装置を操作するための機器や部品を追加することなく、また、ユーザの位置及び動作を制限せずに画像表示装置の操作を行なうことが可能である端末装置、表示システム及び操作プログラムを提供することを目的とする。   The present invention has been made in view of the above, and it is possible to operate an image display device without adding equipment and parts for operating the image display device and without restricting the position and operation of the user. It is an object to provide a terminal device, a display system, and an operation program that can be performed.

上述した課題を解決し、目的を達成するため、本発明に係る端末装置は、端末装置であって、ネットワークを介して所定アプリケーションを取得する取得部と、画像を表示する画像表示装置を操作するための前記端末装置に対するユーザの動作を検知する検知部とを有し、前記所定アプリケーションは、前記動作と、前記画像表示装置に対する前記操作とを対応付けて保持する保持部と、前記保持部に基づいて、前記検知部によって検知された動作に対応する操作を特定する操作特定部と、前記操作特定部によって特定された操作を前記画像表示装置に対して送信する送信部として機能する。   In order to solve the above-described problems and achieve the object, a terminal device according to the present invention is a terminal device, and operates an acquisition unit that acquires a predetermined application and an image display device that displays an image via a network. A detection unit that detects a user's operation on the terminal device, and the predetermined application includes a holding unit that holds the operation and the operation on the image display device in association with each other, and Based on this, it functions as an operation specifying unit that specifies an operation corresponding to the operation detected by the detecting unit, and a transmission unit that transmits the operation specified by the operation specifying unit to the image display device.

また、本発明に係る表示システムは、端末装置と画像を表示する画像表示装置とを有する表示システムであって、前記端末装置は、ネットワークを介して所定アプリケーションを取得する取得部と、前記画像表示装置を操作するための前記端末装置に対するユーザの動作を検知する検知部とを有し、前記所定アプリケーションは、前記動作と、前記画像表示装置に対する前記操作とを対応付けて保持する保持部と、前記保持部に基づいて、前記検知部によって検知された動作に対応する操作を特定する操作特定部と、前記操作特定部によって特定された操作を前記画像表示装置に対して送信する送信部として機能し、前記画像表示装置は、表示対象の前記画像を記憶する画像記憶部と、前記送信部によって送信された操作を受信する受信部と、受信された操作に応じた前記画像を前記画像記憶部から取得する画像取得部と、取得された前記画像をもとに表示画像を生成する生成部と、生成された前記表示画像を表示する表示部とを有する。   The display system according to the present invention is a display system having a terminal device and an image display device that displays an image, wherein the terminal device acquires an application through a network, and the image display A detection unit that detects a user's operation on the terminal device for operating the device, and the predetermined application holds the operation and the operation on the image display device in association with each other, Based on the holding unit, functions as an operation specifying unit that specifies an operation corresponding to the operation detected by the detection unit, and a transmission unit that transmits the operation specified by the operation specifying unit to the image display device The image display device includes an image storage unit that stores the image to be displayed, and a reception unit that receives an operation transmitted by the transmission unit. An image acquisition unit that acquires the image corresponding to the received operation from the image storage unit, a generation unit that generates a display image based on the acquired image, and a display that displays the generated display image Part.

また、本発明に係る操作プログラムは、コンピュータを、ネットワークを介して所定アプリケーションを取得する取得部と、画像を表示する画像表示装置を操作するための端末装置に対するユーザの動作を検知する検知部として機能させ、前記所定アプリケーションは、前記動作と、前記画像表示装置に対する前記操作とを対応付けて保持する保持部と、前記保持部に基づいて、前記検知部によって検知された動作に対応する操作を特定する操作特定部と、前記操作特定部によって特定された操作を前記画像表示装置に対して送信する送信部として機能する。   Further, the operation program according to the present invention includes a computer as an acquisition unit that acquires a predetermined application via a network and a detection unit that detects an operation of a user with respect to a terminal device for operating an image display device that displays an image. And the predetermined application performs an operation corresponding to the operation detected by the detection unit based on the holding unit, and a holding unit that holds the operation and the operation on the image display device in association with each other. It functions as an operation specifying unit to be specified and a transmission unit for transmitting the operation specified by the operation specifying unit to the image display device.

本発明の一つの様態によれば、画像表示装置を操作するための機器や部品を追加することなく、また、ユーザの位置及び動作を制限せずに画像表示装置の操作を行なうことができるという効果を奏する。   According to one aspect of the present invention, it is possible to operate the image display device without adding equipment and parts for operating the image display device and without restricting the position and operation of the user. There is an effect.

図1は、実施の形態1に係る表示システムの構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of a display system according to the first embodiment. 図2は、実施の形態1に係る端末装置及び画像表示装置の構成例を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating a configuration example of the terminal device and the image display device according to the first embodiment. 図3は、ジェスチャの開始及び終了に係るユーザの特定動作の例を説明する図である。FIG. 3 is a diagram illustrating an example of a user specific operation related to the start and end of a gesture. 図4は、端末装置に対するユーザのジェスチャに対応する操作の例を説明する図である。FIG. 4 is a diagram illustrating an example of an operation corresponding to a user gesture with respect to the terminal device. 図5は、スライドの拡大中における、端末装置に対するユーザのジェスチャに対応する操作の例を説明する図である。FIG. 5 is a diagram illustrating an example of an operation corresponding to a user's gesture on the terminal device during the expansion of the slide. 図6Aは、Webアプリケーションのユーザインタフェースの例を示す図である。FIG. 6A is a diagram illustrating an example of a user interface of a Web application. 図6Bは、Webアプリケーションのユーザインタフェースの例を示す図である。FIG. 6B is a diagram illustrating an example of a user interface of a Web application. 図7は、音の出力又は振動の発生のパターンの例について説明する図である。FIG. 7 is a diagram illustrating an example of a sound output or vibration generation pattern. 図8は、実施の形態1に係る装置間の処理の流れの例を示す処理シーケンス図である。FIG. 8 is a process sequence diagram illustrating an example of a process flow between apparatuses according to the first embodiment. 図9は、実施の形態1に係る操作指示処理の流れの例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of the flow of the operation instruction process according to the first embodiment. 図10は、実施の形態1に係る表示処理の流れの例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of the flow of display processing according to the first embodiment. 図11は、実施の形態2に係る表示システムの構成例を示す図である。FIG. 11 is a diagram illustrating a configuration example of the display system according to the second embodiment. 図12は、実施の形態2に係る端末装置及び画像表示装置の構成例を示す機能ブロック図である。FIG. 12 is a functional block diagram illustrating a configuration example of the terminal device and the image display device according to the second embodiment. 図13は、端末装置のハードウェア構成例を示す図である。FIG. 13 is a diagram illustrating a hardware configuration example of the terminal device.

以下に添付図面を参照して、本発明に係る端末装置、表示システム及び操作プログラムの実施の形態を説明する。なお、以下の実施の形態により本発明が限定されるものではない。   Embodiments of a terminal device, a display system, and an operation program according to the present invention will be described below with reference to the accompanying drawings. In addition, this invention is not limited by the following embodiment.

(実施の形態1)
[システム構成]
図1を用いて、実施の形態1に係る表示システムの構成を説明する。図1は、実施の形態1に係る表示システムの構成例を示す図である。図1に示すように、表示システム1では、サーバ装置10と、端末装置20と、画像表示装置30とがネットワーク2に接続されている。なお、ネットワーク2には、複数の端末装置20が接続されていても良い。
(Embodiment 1)
[System configuration]
The configuration of the display system according to Embodiment 1 will be described with reference to FIG. FIG. 1 is a diagram illustrating a configuration example of a display system according to the first embodiment. As shown in FIG. 1, in the display system 1, a server device 10, a terminal device 20, and an image display device 30 are connected to a network 2. A plurality of terminal devices 20 may be connected to the network 2.

これらのうち、サーバ装置10は、画像表示装置30を操作するためのユーザの動作であるジェスチャを認識するための所定アプリケーションを記憶する。実施の形態1では、所定アプリケーションを「Webアプリケーション」と呼ぶ場合がある。   Among these, the server device 10 stores a predetermined application for recognizing a gesture that is a user operation for operating the image display device 30. In the first embodiment, the predetermined application may be referred to as a “Web application”.

端末装置20は、Webブラウザや加速度センサ等が搭載されたスマートフォン(Smartphone)等の多機能携帯電話機である。かかるWebブラウザは、JavaScript(登録商標)でアクセス可能な加速度センサの情報を取得するAPI(Application Program Interface)を提供する。また、端末装置20は、Webブラウザを利用してサーバ装置10からWebアプリケーションを取得及び実行する。   The terminal device 20 is a multifunctional mobile phone such as a smartphone equipped with a web browser, an acceleration sensor, and the like. Such a Web browser provides an API (Application Program Interface) that acquires information on an acceleration sensor that can be accessed with JavaScript (registered trademark). The terminal device 20 acquires and executes a Web application from the server device 10 using a Web browser.

画像表示装置30は、ユーザによるジェスチャに応じた操作の操作対象となるプロジェクタ等の機器である。かかる画像表示装置30は、Http(HyperText Transfer Protocol)リクエストによりプロジェクタの操作を可能にするWebAPIを提供する。なお、Webアプリケーションから画像表示装置30のWebAPIにアクセスする際には、異なるドメインのサービスに接続することによるクロスドメイン(Cross Domain)の問題が発生する可能性がある。クロスドメインの問題の解決手段は、例えば、サーバ装置10によって提供されれば良い。また、上記サーバ装置10の役割については、画像表示装置30によって代替されても良い。   The image display device 30 is a device such as a projector that is an operation target of an operation corresponding to a gesture by a user. The image display device 30 provides a Web API that enables operation of the projector by an HTTP (HyperText Transfer Protocol) request. Note that when accessing the Web API of the image display apparatus 30 from a Web application, there is a possibility that a cross domain problem will occur due to connection to a service of a different domain. The server for solving the cross-domain problem may be provided by the server device 10, for example. Further, the role of the server device 10 may be replaced by the image display device 30.

[実施の形態1に係る装置構成]
次に、図2を用いて、実施の形態1に係る端末装置20及び画像表示装置30の構成を説明する。図2は、実施の形態1に係る端末装置20及び画像表示装置30の構成例を示す機能ブロック図である。以下では、端末装置20の構成について説明した後に、画像表示装置30の構成について説明する。
[Device Configuration According to Embodiment 1]
Next, the configuration of the terminal device 20 and the image display device 30 according to the first embodiment will be described with reference to FIG. FIG. 2 is a functional block diagram illustrating a configuration example of the terminal device 20 and the image display device 30 according to the first embodiment. Below, after demonstrating the structure of the terminal device 20, the structure of the image display apparatus 30 is demonstrated.

図2に示すように、端末装置20は、Webブラウザ21と、取得部22と、特定動作検知部23と、検知部24とを有する。   As illustrated in FIG. 2, the terminal device 20 includes a Web browser 21, an acquisition unit 22, a specific operation detection unit 23, and a detection unit 24.

取得部22は、Webブラウザ21を利用して、Webアプリケーション25を記憶するサーバ装置10から、Webアプリケーション25を取得する。取得部22によって取得されたWebアプリケーション25は、Webブラウザ21によって読み込まれ、Webブラウザ21によってその各種機能が実行可能な形式で構成されている。Webアプリケーション25の各種機能は、判定部25a、操作特定部25b、保持部25c、送信部25d及び報知部25eとして機能する。なお、Webアプリケーション25の各種機能による処理については後述する。   The acquisition unit 22 uses the Web browser 21 to acquire the Web application 25 from the server device 10 that stores the Web application 25. The Web application 25 acquired by the acquisition unit 22 is configured in a format that can be read by the Web browser 21 and that various functions can be executed by the Web browser 21. Various functions of the Web application 25 function as a determination unit 25a, an operation specifying unit 25b, a holding unit 25c, a transmission unit 25d, and a notification unit 25e. Note that processing by various functions of the Web application 25 will be described later.

特定動作検知部23は、画像表示装置30を操作するための端末装置20に対するユーザのジェスチャを開始するための、該端末装置20に対するユーザの特定動作を表す第1動作を検知する。かかる第1動作は、例えば、端末装置20のタッチパネルにユーザが接触する動作や、端末装置20のハードキーをユーザが押下する動作である。つまり、タッチパネルを利用した検知を例に挙げると、特定動作検知部23は、画像表示装置30を操作するためのジェスチャを開始するユーザが端末装置20のタッチパネルに接触すると、タッチパネルに対する操作を検知するタッチセンサ等により、タッチパネルに接触したことを検知する。なお、タッチパネルへの接触やハードキーの押下は、例えば、端末装置20を持つユーザの手で行なわれる。また、特定動作検知部23によって検知された第1動作の検知結果は、Webブラウザ21を介して、判定部25aに通知される。   The specific action detection unit 23 detects a first action representing a specific action of the user with respect to the terminal device 20 for starting a user gesture with respect to the terminal device 20 for operating the image display device 30. For example, the first operation is an operation in which the user touches the touch panel of the terminal device 20 or an operation in which the user presses a hard key of the terminal device 20. In other words, taking the detection using the touch panel as an example, the specific operation detection unit 23 detects an operation on the touch panel when a user who starts a gesture for operating the image display device 30 touches the touch panel of the terminal device 20. A touch sensor or the like detects contact with the touch panel. In addition, the touch on the touch panel and the pressing of the hard key are performed by the hand of the user holding the terminal device 20, for example. In addition, the detection result of the first action detected by the specific action detection unit 23 is notified to the determination unit 25 a via the Web browser 21.

また、特定動作検知部23は、画像表示装置30を操作するための端末装置20に対するユーザのジェスチャを終了するための、該端末装置20に対するユーザの特定動作を表す第2動作を検知する。かかる第2動作は、例えば、端末装置20のタッチパネルにユーザが接触している状態から非接触の状態になった動作や、端末装置20のハードキーをユーザが押下している状態から押下をやめた状態になった動作である。つまり、タッチパネルを利用した検知を例に挙げると、特定動作検知部23は、画像表示装置30を操作するためのジェスチャを終了するユーザが端末装置20のタッチパネルへの接触をやめると、タッチパネルに対する操作を検知するタッチセンサ等により、タッチパネルに接触した状態から非接触の状態になったことを検知する。また、特定動作検知部23によって検知された第2動作の検知結果は、Webブラウザ21を介して、判定部25aに通知される。   In addition, the specific action detection unit 23 detects a second action representing the specific action of the user with respect to the terminal device 20 for ending the user's gesture with respect to the terminal device 20 for operating the image display device 30. For example, the second operation is stopped when the user touches the touch panel of the terminal device 20 from a non-contact state or when the user presses the hard key of the terminal device 20. It is an operation that has entered a state. In other words, taking the detection using the touch panel as an example, the specific motion detection unit 23 operates the touch panel when the user who finishes the gesture for operating the image display device 30 stops touching the touch panel of the terminal device 20. The touch sensor or the like for detecting the touch detects that the touch panel is changed to the non-contact state. In addition, the detection result of the second action detected by the specific action detection unit 23 is notified to the determination unit 25 a via the Web browser 21.

検知部24は、画像表示装置30を操作するための端末装置20に対するユーザのジェスチャとして、該端末装置20の傾き及び移動方向の少なくとも一つを、加速度センサ等により検知する。検知部24によって検知された端末装置20の傾きや移動方向の検知結果は、Webブラウザ21を介して、操作特定部25bに通知される。   The detection unit 24 detects at least one of the inclination and the moving direction of the terminal device 20 by an acceleration sensor or the like as a user gesture for the terminal device 20 for operating the image display device 30. The detection result of the inclination and movement direction of the terminal device 20 detected by the detection unit 24 is notified to the operation specifying unit 25b via the Web browser 21.

判定部25aは、特定動作検知部23から第1動作の検知結果を受け付けた場合に、画像表示装置30を操作するための端末装置20に対するユーザのジェスチャが開始されると判定する。そして、判定部25aは、検知部24によって通知されるユーザのジェスチャの記録を開始する指示、すなわち端末装置20の傾きや移動方向の検知結果の記録を開始する指示を、操作特定部25bに対して行なう。   The determination unit 25 a determines that the user's gesture for the terminal device 20 for operating the image display device 30 is started when the detection result of the first motion is received from the specific motion detection unit 23. Then, the determination unit 25a gives an instruction to start recording of the user's gesture notified by the detection unit 24, that is, an instruction to start recording of the detection result of the tilt or movement direction of the terminal device 20 to the operation specifying unit 25b. To do.

一方、判定部25aは、特定動作検知部23から第2動作の検知結果を受け付けた場合に、画像表示装置30を操作するための端末装置20に対するユーザのジェスチャが終了されると判定する。そして、判定部25aは、検知部24によって通知されるユーザのジェスチャの記録を終了する指示、すなわち端末装置20の傾きや移動方向の検知結果の記録を終了する指示を、操作特定部25bに対して行なう。   On the other hand, the determination part 25a determines with the user's gesture with respect to the terminal device 20 for operating the image display apparatus 30 being complete | finished, when the detection result of 2nd operation | movement is received from the specific operation | movement detection part 23. Then, the determination unit 25a gives an instruction to end the recording of the user's gesture notified by the detection unit 24, that is, an instruction to end the recording of the detection result of the tilt or movement direction of the terminal device 20 to the operation specifying unit 25b. To do.

図3は、ジェスチャの開始及び終了に係るユーザの特定動作の例を説明する図である。なお、図3では、タッチパネルへの接触・非接触により、ジェスチャの開始・終了を検知する場合の例を示している。   FIG. 3 is a diagram illustrating an example of a user specific operation related to the start and end of a gesture. FIG. 3 shows an example in which the start / end of a gesture is detected by contact / non-contact with the touch panel.

図3の上段に示すように、ユーザは、端末装置20のタッチパネルを指で押さえる特定動作を行なう。これにより、特定動作検知部23は、タッチセンサ等により、タッチパネルに接触したことを表す第1動作を検知し、検知した第1動作の検知結果を、Webブラウザ21を介して判定部25aに通知する。第1動作の検知結果を通知された判定部25aは、ユーザのジェスチャが開始されることとして判定し、ユーザのジェスチャの記録を開始する指示を操作特定部25bに対して行なう。   As shown in the upper part of FIG. 3, the user performs a specific operation of pressing the touch panel of the terminal device 20 with a finger. Thereby, the specific operation detection unit 23 detects a first operation indicating that the touch panel is touched by a touch sensor or the like, and notifies the determination unit 25a of the detection result of the detected first operation via the web browser 21. To do. The determination unit 25a notified of the detection result of the first action determines that the user's gesture is started, and gives an instruction to start recording the user's gesture to the operation specifying unit 25b.

また、図3の中段に示すように、タッチパネルが指で押さえられている状態においては、端末装置20がユーザによって傾けられたり移動されたりしており、ユーザによるジェスチャが行なわれている最中であることを意味する。なお、端末装置20を利用したユーザによるジェスチャについては後述する。   Further, as shown in the middle part of FIG. 3, in a state where the touch panel is pressed by a finger, the terminal device 20 is tilted or moved by the user, and the user is performing a gesture. It means that there is. In addition, the gesture by the user using the terminal device 20 will be described later.

また、図3の下段に示すように、ユーザは、端末装置20のタッチパネルを指で押さえた状態において、該タッチパネルから指を離す特定動作を行なう。これにより、特定動作検知部23は、タッチセンサ等により、タッチパネルに非接触になったことを表す第2動作を検知し、検知した第2動作の検知結果を、Webブラウザ21を介して判定部25aに通知する。第2動作の検知結果を通知された判定部25aは、ユーザのジェスチャが終了されることとして判定し、ユーザのジェスチャの記録を終了する指示を操作特定部25bに対して行なう。   As shown in the lower part of FIG. 3, the user performs a specific operation of releasing the finger from the touch panel in a state where the touch panel of the terminal device 20 is pressed with the finger. Thereby, the specific operation detection unit 23 detects the second operation indicating that the touch panel is not in contact with the touch sensor or the like, and the detection result of the detected second operation is determined via the web browser 21. 25a is notified. The determination unit 25a that is notified of the detection result of the second action determines that the user's gesture is to be ended, and instructs the operation specifying unit 25b to end the recording of the user's gesture.

図2の説明に戻り、操作特定部25bは、検知部24によって検知された端末装置20の傾きや移動方向の検知結果を、ユーザのジェスチャとして受け付ける。このとき、操作特定部25bは、判定部25aによってユーザのジェスチャの記録を開始する指示を受け付けた場合に、検知部24から受け付けているユーザのジェスチャの記録を開始する。ジェスチャの記録は、所定のメモリ(図示せず)に対して行なわれれば良い。また、操作特定部25bは、判定部25aによってユーザのジェスチャの記録を終了する指示を受け付けた場合に、検知部24から受け付けているユーザのジェスチャの記録を終了する。つまり、操作特定部25bは、図3の上段に示したユーザの第1動作に応じてジェスチャの記録を開始し、図3の中段に示した状態においてジェスチャの記録を継続し、図3の下段に示したユーザの第2動作に応じてジェスチャの記録を終了する。   Returning to the description of FIG. 2, the operation specifying unit 25 b receives the detection result of the inclination and movement direction of the terminal device 20 detected by the detection unit 24 as a user gesture. At this time, when the determination unit 25a receives an instruction to start recording the user's gesture, the operation specifying unit 25b starts recording the user's gesture received from the detection unit 24. The gesture may be recorded on a predetermined memory (not shown). Further, when the determination unit 25a receives an instruction to end recording of the user's gesture, the operation specifying unit 25b ends the recording of the user's gesture received from the detection unit 24. That is, the operation specifying unit 25b starts recording the gesture in accordance with the first action of the user shown in the upper part of FIG. 3, continues the recording of the gesture in the state shown in the middle part of FIG. The gesture recording is terminated in accordance with the second operation of the user shown in FIG.

そして、操作特定部25bは、ジェスチャの記録を終了すると、所定のメモリから記録したジェスチャを取得し、保持部25cを参照して、取得したジェスチャに対応する画像表示装置30に対する操作を特定する。保持部25cは、ジェスチャと操作とを対応付けて保持する。続いて、操作特定部25bは、特定した操作を送信部25dに通知する。また、操作特定部25bは、ジェスチャに対応する操作を特定する場合に、対応する操作の有無に関する操作有無情報を報知部25eに通知する。   When the gesture specifying unit 25b finishes recording the gesture, the operation specifying unit 25b acquires the recorded gesture from a predetermined memory, and refers to the holding unit 25c to specify the operation on the image display device 30 corresponding to the acquired gesture. The holding unit 25c holds a gesture and an operation in association with each other. Subsequently, the operation specifying unit 25b notifies the specified operation to the transmitting unit 25d. Further, when specifying the operation corresponding to the gesture, the operation specifying unit 25b notifies the notification unit 25e of the operation presence / absence information regarding the presence / absence of the corresponding operation.

図4は、端末装置20に対するユーザのジェスチャに対応する操作の例を説明する図である。なお、図4に示すジェスチャは、図3の中段に示した状態、すなわちユーザがタッチパネルに触れている状態のときに行なわれる。   FIG. 4 is a diagram illustrating an example of an operation corresponding to a user gesture on the terminal device 20. The gesture shown in FIG. 4 is performed in the state shown in the middle part of FIG. 3, that is, when the user is touching the touch panel.

図4に示すように、ユーザによって端末装置20が右方向に移動されることにより、「次のスライドへ進む」という操作になる。また、ユーザによって端末装置20が左方向に移動されることにより、「前のスライドへ戻る」という操作になる。また、ユーザによって端末装置20がタッチパネルの方向に移動されることにより、「スライドを拡大する」という操作になる。また、ユーザによって端末装置20がタッチパネルと反対方向に移動されることにより、「スライドを縮小する」という操作になる。また、ユーザによって端末装置20が時計回りに回転されることにより、「スライドを時計回りに回転する」という操作になる。また、ユーザによって端末装置20が反時計回りに回転されることにより、「スライドを反時計回りに回転する」という操作になる。   As shown in FIG. 4, when the terminal device 20 is moved rightward by the user, an operation “go to the next slide” is performed. Further, when the terminal device 20 is moved leftward by the user, an operation of “return to the previous slide” is performed. Further, when the terminal device 20 is moved in the direction of the touch panel by the user, an operation of “enlarging the slide” is performed. Further, the user moves the terminal device 20 in the direction opposite to the touch panel, thereby performing an operation of “reducing the slide”. Further, when the terminal device 20 is rotated clockwise by the user, an operation of “rotate the slide clockwise” is performed. Further, when the terminal device 20 is rotated counterclockwise by the user, an operation of “rotate the slide counterclockwise” is performed.

ここで、スライドの拡大においては、一定量ずつ拡大するようにしても良いし、移動量に応じて拡大率を変化させても良い。同様に、スライドの縮小においては、一定量ずつ縮小するようにしても良いし、移動量に応じて縮小率を変化させても良い。以下に、スライドの拡大中における操作について説明する。   Here, in the enlargement of the slide, it may be enlarged by a certain amount, or the enlargement ratio may be changed according to the movement amount. Similarly, in reducing the slide, it may be reduced by a certain amount, or the reduction rate may be changed according to the amount of movement. Hereinafter, an operation during enlargement of the slide will be described.

図5は、スライドの拡大中における、端末装置20に対するユーザのジェスチャに対応する操作の例を説明する図である。図5に示すように、ユーザによって端末装置20が右方向に移動されることにより、「表示している範囲を左に移動する」という操作になる。また、ユーザによって端末装置20が左方向に移動されることにより、「表示している範囲を右に移動する」という操作になる。また、ユーザによって端末装置20が上方向に移動されることにより、「表示している範囲を下に移動する」という操作になる。また、ユーザによって端末装置20が下方向に移動されることにより、「表示している範囲を上に移動する」という操作になる。また、ユーザによって端末装置20が左右に移動されることにより、「拡大をやめる」という操作になる。   FIG. 5 is a diagram for explaining an example of an operation corresponding to a user gesture on the terminal device 20 during the expansion of the slide. As illustrated in FIG. 5, when the terminal device 20 is moved rightward by the user, an operation of “moving the displayed range to the left” is performed. Further, when the terminal device 20 is moved leftward by the user, an operation of “moving the displayed range to the right” is performed. Further, when the terminal device 20 is moved upward by the user, an operation of “moving the displayed range downward” is performed. Further, when the terminal device 20 is moved downward by the user, an operation of “moving the displayed range upward” is performed. Further, when the user moves the terminal device 20 left and right, an operation of “stop enlarging” is performed.

図6A及び図6Bは、Webアプリケーション25のユーザインタフェースの例を示す図である。図6Aに示すユーザインタフェースは、ユーザのジェスチャ入力を受け付けるためのものであり、画面を目視することなく操作を行なえるように、ほぼ全画面を操作可能な領域としている。ユーザは、図6Aに示すユーザインタフェースにおいて、タッチパネルをタップしながらジェスチャを行なう。なお、ジェスチャの入力は、端末装置20に搭載されたボタンを押下することにより行なっても良い。また、図6Aに示す「疑問符」のアイコンは、ジェスチャの入力に慣れていないユーザのためのものである。疑問符のアイコンがタッチされた場合には、図6Bに示すように、ヘルプ画面に遷移する。ヘルプ画面では、図4や図5に示したジェスチャに対応する操作の説明が表示される。   6A and 6B are diagrams showing examples of the user interface of the Web application 25. FIG. The user interface shown in FIG. 6A is for accepting a user's gesture input, and has almost the entire screen operable area so that the operation can be performed without looking at the screen. In the user interface shown in FIG. 6A, the user performs a gesture while tapping the touch panel. Note that the gesture input may be performed by pressing a button mounted on the terminal device 20. Further, the “question mark” icon shown in FIG. 6A is for a user who is not used to inputting a gesture. When the question mark icon is touched, the screen transitions to the help screen as shown in FIG. 6B. On the help screen, explanations of operations corresponding to the gestures shown in FIGS. 4 and 5 are displayed.

図2の説明に戻り、送信部25dは、操作特定部25bによって特定された操作を、Webブラウザ21を介して、画像表示装置30に対して送信する。報知部25eは、操作特定部25bによってジェスチャに対応する操作が特定できた場合に、画像表示装置30の操作が成功したこととして、操作成功の旨を報知する。一方、報知部25eは、操作特定部25bによってジェスチャに対応する操作が特定できない場合に、画像表示装置30の操作が失敗したこととして、操作失敗の旨を報知する。ジェスチャに対応する操作を取得出来たか否かについては、操作有無情報をもとに判定すれば良い。   Returning to the description of FIG. 2, the transmission unit 25 d transmits the operation specified by the operation specifying unit 25 b to the image display device 30 via the Web browser 21. When the operation specifying unit 25b can specify the operation corresponding to the gesture, the notification unit 25e notifies the user that the operation of the image display device 30 is successful and that the operation is successful. On the other hand, when the operation specifying unit 25b cannot specify the operation corresponding to the gesture, the notification unit 25e notifies the user that the operation has failed because the operation of the image display device 30 has failed. Whether or not the operation corresponding to the gesture has been acquired can be determined based on the operation presence / absence information.

また、操作成功や操作失敗の旨の報知において、報知部25eは、音の出力及び振動の発生の少なくとも一つにより報知する。例えば、音による報知は、端末装置20に搭載されたスピーカ(図示せず)を制御することにより出力される。また、例えば、振動による報知は、端末装置20に搭載された振動モータ等のバイブレータ(図示せず)を制御することにより出力される。   Further, in the notification of the success or failure of the operation, the notification unit 25e notifies by at least one of sound output and occurrence of vibration. For example, the notification by sound is output by controlling a speaker (not shown) mounted on the terminal device 20. Further, for example, the notification by vibration is output by controlling a vibrator (not shown) such as a vibration motor mounted on the terminal device 20.

図7は、音の出力及び振動の発生のパターンの例について説明する図である。図7に示すように、報知部25eは、操作特定部25bによってジェスチャに対応する操作が特定できた場合に、画像表示装置30に対するジェスチャ操作が成功したこととして、一定の間が設けられた音・振動パターンにより、スピーカ及び振動モータの少なくとも一つを制御する。同様に、報知部25eは、操作特定部25bによってジェスチャに対応する操作が特定できなかった場合に、画像表示装置30に対するジェスチャ操作が失敗したこととして、一定の間を設けない音・振動パターンにより、スピーカ及び振動モードの少なくとも一つを制御する。   FIG. 7 is a diagram illustrating an example of a sound output and vibration generation pattern. As shown in FIG. 7, when the operation specifying unit 25b can identify the operation corresponding to the gesture, the notification unit 25e determines that the gesture operation on the image display device 30 has been successful and the sound provided for a certain period of time. -Control at least one of a speaker and a vibration motor with a vibration pattern. Similarly, the notification unit 25e uses a sound / vibration pattern that does not provide a certain interval as the gesture operation on the image display device 30 has failed when the operation corresponding to the gesture cannot be specified by the operation specifying unit 25b. , Controlling at least one of a speaker and a vibration mode.

次に、画像表示装置30の構成について説明する。図2に示すように、画像表示装置30は、受信部31と、画像取得部32と、画像記憶部33と、生成部34と、表示部35とを有する。   Next, the configuration of the image display device 30 will be described. As illustrated in FIG. 2, the image display device 30 includes a reception unit 31, an image acquisition unit 32, an image storage unit 33, a generation unit 34, and a display unit 35.

受信部31は、端末装置20の送信部25dによって送信された、画像表示装置30に対する操作を受信する。画像取得部32は、受信部31によって受信された操作に応じた画像を画像記憶部33から取得する。画像記憶部33は、表示対象の画像を記憶する。つまり、「次のスライドへ進む」の操作である場合には、現在表示されているスライドの次に表示されるスライドに該当する画像が画像記憶部33から取得される。   The receiving unit 31 receives an operation on the image display device 30 transmitted by the transmitting unit 25d of the terminal device 20. The image acquisition unit 32 acquires an image corresponding to the operation received by the reception unit 31 from the image storage unit 33. The image storage unit 33 stores an image to be displayed. That is, when the operation is “go to the next slide”, an image corresponding to the slide displayed next to the currently displayed slide is acquired from the image storage unit 33.

生成部34は、画像取得部32によって取得された画像をもとに表示部35に表示させる表示画像を生成する。表示画像の生成では、例えば、表示位置や画像の拡大率・縮小率等を調整する処理が行なわれる。表示部35は、生成部34によって生成された表示画像を表示する。表示画像の表示では、例えば、スクリーン等の投影面に表示画像を投影する処理が行なわれる。   The generation unit 34 generates a display image to be displayed on the display unit 35 based on the image acquired by the image acquisition unit 32. In the generation of the display image, for example, processing for adjusting the display position, the enlargement / reduction ratio of the image, and the like is performed. The display unit 35 displays the display image generated by the generation unit 34. In displaying the display image, for example, a process of projecting the display image onto a projection surface such as a screen is performed.

[実施の形態1に係る装置間の処理シーケンス]
次に、図8を用いて、実施の形態1に係る装置間の処理の流れについて説明する。図8は、実施の形態1に係る装置間の処理の流れの例を示す処理シーケンス図である。
[Processing sequence between apparatuses according to Embodiment 1]
Next, a flow of processing between apparatuses according to the first embodiment will be described with reference to FIG. FIG. 8 is a process sequence diagram illustrating an example of a process flow between apparatuses according to the first embodiment.

図8に示すように、端末装置20は、サーバ装置10に対してWebアプリケーション25を要求する(ステップS101)。また、サーバ装置10は、端末装置20からのWebアプリケーション25の要求に対して、該当するWebアプリケーション25を端末装置20に対して送信する(ステップS102)。   As illustrated in FIG. 8, the terminal device 20 requests the web application 25 from the server device 10 (step S101). Further, in response to the request for the Web application 25 from the terminal device 20, the server device 10 transmits the corresponding Web application 25 to the terminal device 20 (step S102).

また、Webアプリケーション25を取得した端末装置20は、該端末装置20を利用したユーザのジェスチャを検知し(ステップS103)、検知したジェスチャに対応する操作を画像表示装置30に対して送信する(ステップS104)。また、操作を受信した画像表示装置30は、操作に応じた表示画像を生成して、生成した表示画像を表示する(ステップS105)。   Further, the terminal device 20 that has acquired the Web application 25 detects a user gesture using the terminal device 20 (step S103), and transmits an operation corresponding to the detected gesture to the image display device 30 (step S103). S104). The image display device 30 that has received the operation generates a display image corresponding to the operation and displays the generated display image (step S105).

[実施の形態1に係る操作指示処理フロー]
次に、図9を用いて、実施の形態1に係る操作指示処理の流れについて説明する。図9は、実施の形態1に係る操作指示処理の流れの例を示すフローチャートである。なお、操作指示処理とは、主に端末装置20による処理を指す。また、図9では、Webアプリケーション25が既に読み込まれているものとして説明する。
[Operation instruction processing flow according to Embodiment 1]
Next, the flow of the operation instruction process according to the first embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of the flow of the operation instruction process according to the first embodiment. The operation instruction process mainly refers to a process performed by the terminal device 20. In FIG. 9, description will be made assuming that the Web application 25 has already been read.

図9に示すように、特定動作検知部23によって、端末装置20のタッチパネルにユーザが接触したことを表す第1動作が検知された場合に(ステップS201肯定)、判定部25aは、ユーザのジェスチャが開始されると判定する。そして、判定部25aは、ユーザのジェスチャの記録を開始する指示を操作特定部25bに対して行なう。これにより、操作特定部25bは、検知部24によって検知されたジェスチャを所定のメモリに記録する(ステップS202)。また、特定動作検知部23は、第1動作が検知されていない場合に(ステップS201否定)、該第1動作を検知するまでステップS201の処理を実行する。なお、検知部24は、第1動作が検知されていなくても、ジェスチャの検知を継続している。但し、このときに検知されたジェスチャは、操作特定部25bによって記録されない。   As illustrated in FIG. 9, when the first action indicating that the user has touched the touch panel of the terminal device 20 is detected by the specific action detection unit 23 (Yes in step S201), the determination unit 25a performs the user gesture. Is determined to be started. Then, the determination unit 25a instructs the operation specifying unit 25b to start recording the user's gesture. Thereby, the operation specifying unit 25b records the gesture detected by the detecting unit 24 in a predetermined memory (step S202). In addition, when the first action is not detected (No at Step S201), the specific action detection unit 23 executes the process of Step S201 until the first action is detected. Note that the detection unit 24 continues to detect a gesture even if the first operation is not detected. However, the gesture detected at this time is not recorded by the operation specifying unit 25b.

また、特定動作検知部23によって、端末装置20のタッチパネルにユーザが接触した状態から非接触の状態になったことが検知された場合に(ステップS203肯定)、判定部25aは、ユーザのジェスチャが終了されると判定する。そして、判定部25aは、ユーザのジェスチャの記録を終了する指示を操作特定部25bに対して行なう。これにより、操作特定部25bは、検知部24によって検知されたジェスチャの記録を終了し、保持部25cを参照して、記録の開始から終了に至るまでのジェスチャに対応する操作を検索する(ステップS204)。一方、特定動作検知部23によって、非接触の状態になったことが検知されない場合に(ステップS203否定)、操作特定部25bは、検知部24によって検知されたジェスチャの記録を継続する(ステップS202)。   In addition, when the specific operation detection unit 23 detects that the user has touched the touch panel of the terminal device 20 from a non-contact state (Yes in step S203), the determination unit 25a determines that the user's gesture is It is determined that it will be terminated. Then, the determination unit 25a instructs the operation specifying unit 25b to end recording of the user's gesture. Thereby, the operation specifying unit 25b ends the recording of the gesture detected by the detecting unit 24, and refers to the holding unit 25c to search for an operation corresponding to the gesture from the start to the end of the recording (step) S204). On the other hand, when the specific action detection unit 23 does not detect that the non-contact state has been detected (No at Step S203), the operation specifying unit 25b continues to record the gesture detected by the detection unit 24 (Step S202). ).

そして、操作特定部25bによって、ジェスチャに対応する操作が特定できた場合に(ステップS205肯定)、送信部25dは、特定された操作を画像表示装置30に対して送信する(ステップS206)。その後、報知部25eは、操作特定部25bによってジェスチャに対応する操作が特定できたことを受けて、画像表示装置30に対するジェスチャ操作が成功した旨を、音や振動により報知する(ステップS207)。一方、操作特定部25bによって、ジェスチャに対応する操作が特定できなかった場合に(ステップS205否定)、報知部25eは、画像表示装置30に対するジェスチャ操作が失敗した旨を、音や振動により報知する(ステップS208)。   Then, when the operation corresponding to the gesture can be specified by the operation specifying unit 25b (Yes at Step S205), the transmitting unit 25d transmits the specified operation to the image display device 30 (Step S206). After that, the notification unit 25e notifies the user that the gesture operation on the image display device 30 has been successful in response to the fact that the operation corresponding to the gesture can be specified by the operation specifying unit 25b (step S207). On the other hand, if the operation corresponding to the gesture cannot be specified by the operation specifying unit 25b (No at Step S205), the notification unit 25e notifies the user that the gesture operation on the image display device 30 has failed by sound or vibration. (Step S208).

[実施の形態1に係る表示処理フロー]
次に、図10を用いて、実施の形態1に係る表示処理の流れについて説明する。図10は、実施の形態1に係る表示処理の流れの例を示すフローチャートである。なお、表示処理とは、主に画像表示装置30による処理を指す。
[Display processing flow according to Embodiment 1]
Next, the flow of display processing according to Embodiment 1 will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of the flow of display processing according to the first embodiment. Note that the display processing mainly refers to processing performed by the image display device 30.

図10に示すように、受信部31によって、端末装置20から操作が受信された場合に(ステップS301肯定)、画像取得部32は、操作に応じた画像を画像記憶部33から取得する(ステップS302)。また、受信部31によって、端末装置20から操作が受信されていない場合に(ステップS301否定)、該操作の受信待ちの状態となる。   As illustrated in FIG. 10, when an operation is received from the terminal device 20 by the receiving unit 31 (Yes in Step S301), the image acquisition unit 32 acquires an image corresponding to the operation from the image storage unit 33 (Step S301). S302). Further, when an operation is not received from the terminal device 20 by the receiving unit 31 (No at Step S301), the operation enters a state of waiting for reception of the operation.

また、生成部34は、画像取得部32によって取得された画像から、表示位置や拡大率・縮小率等を調整した表示画像を生成する(ステップS303)。また、表示部35は、生成部34によって生成された表示画像をスクリーン等の投影面に表示する(ステップS304)。   Further, the generation unit 34 generates a display image in which the display position, the enlargement / reduction ratio, and the like are adjusted from the image acquired by the image acquisition unit 32 (step S303). The display unit 35 displays the display image generated by the generation unit 34 on a projection surface such as a screen (step S304).

[実施の形態1による効果]
上述したように、端末装置20は、該端末装置20に搭載された加速度センサ等で検知される傾きや移動方向をユーザのジェスチャとして、Webアプリケーション25の実行によりジェスチャの認識を行ない、ジェスチャに対応する操作を画像表示装置30に対して送信する。また、画像表示装置30は、端末装置20によって送信された操作に応じて表示画像を表示する。これらの結果、端末装置20は、画像表示装置30を操作するための機器や部品を追加することなく、また、ユーザの位置及び動作を制限せずに画像表示装置30の操作を行なうことができる。
[Effects of Embodiment 1]
As described above, the terminal device 20 recognizes the gesture by executing the web application 25 using the inclination and the moving direction detected by the acceleration sensor or the like mounted on the terminal device 20 as the user's gesture, and supports the gesture. The operation to be performed is transmitted to the image display device 30. Further, the image display device 30 displays a display image according to the operation transmitted by the terminal device 20. As a result, the terminal device 20 can operate the image display device 30 without adding equipment and parts for operating the image display device 30 and without restricting the position and operation of the user. .

また、画像表示装置30においては、Httpリクエストによりアクセス及び操作可能なWebAPIを適用する場合を説明した。この結果、汎用的なプロトコルで提供することで、画像表示装置30を操作するためのアプリケーションの開発方法の幅を広げることができる。また、Webブラウザ21で実行可能な形式で構成することで、端末装置20に対して新たにソフトウェアをインストールする必要をなくすことができる。また、ジェスチャの開始及び終了を、ユーザの第1動作及び第2動作をトリガとするので、ジェスチャ認識のための処理負荷を軽減することができるとともに、ジェスチャの誤認識を削減することができる。また、画像表示装置30への操作の成功及び失敗を報知するので、画像表示装置30を使用したプレゼンテーション等の円滑な進行に寄与することができる。   In the image display device 30, the case where a Web API that can be accessed and operated by an HTTP request is applied has been described. As a result, by providing a general-purpose protocol, the range of application development methods for operating the image display device 30 can be expanded. In addition, by configuring in a format that can be executed by the Web browser 21, it is possible to eliminate the need to newly install software on the terminal device 20. In addition, since the start and end of the gesture are triggered by the first operation and the second operation of the user, it is possible to reduce the processing load for the gesture recognition and to reduce the erroneous recognition of the gesture. Further, since the success or failure of the operation on the image display device 30 is notified, it is possible to contribute to smooth progress such as a presentation using the image display device 30.

(実施の形態2)
さて、これまで本発明に係る端末装置20及び画像表示装置30の実施の形態について説明したが、上述した実施の形態以外にも種々の異なる形態にて実施されて良いものである。そこで、(1)アプリケーションの形態、(2)構成、(3)ハードウェア構成、について異なる実施の形態を説明する。
(Embodiment 2)
The embodiments of the terminal device 20 and the image display device 30 according to the present invention have been described so far. However, the present invention may be implemented in various different forms other than the above-described embodiments. Therefore, different embodiments of (1) application form, (2) configuration, and (3) hardware configuration will be described.

(1)アプリケーションの形態
上記実施の形態1では、Webブラウザ21で実行可能な形式で構成された所定アプリケーション(Webアプリケーション25)を読み込んで実行する形態を説明した。かかる所定アプリケーションは、Webアプリケーションに限られるわけではなく、一般的なアプリケーションの形態で実現されても良い。ここで、一般的なアプリケーションとは、アプリケーションのダウンロード後に、インストールを要するものを指す。
(1) Application Form In the first embodiment, the form in which a predetermined application (Web application 25) configured in a format that can be executed by the Web browser 21 is read and executed has been described. Such a predetermined application is not limited to a Web application, and may be realized in the form of a general application. Here, a general application refers to an application that requires installation after downloading the application.

図11は、実施の形態2に係る表示システムの構成例を示す図である。なお、図11では、実施の形態1と同様の構成については同一の符号を付している。   FIG. 11 is a diagram illustrating a configuration example of the display system according to the second embodiment. In FIG. 11, the same reference numerals are given to the same configurations as those in the first embodiment.

図11に示すように、表示システム1aでは、端末装置200と、画像表示装置30とがネットワーク2aに接続されている。また、端末装置200及び画像表示装置30は、WAN(Wide Area Network)等のネットワーク3を介して、サーバ装置10と接続されている。つまり、サーバ装置10は、端末装置200や画像表示装置30が接続されるLAN(Local Area Network)等のネットワーク2aとは異なる外部ネットワークに接続されている。なお、ネットワーク2aには、複数の端末装置20が接続されていても良い。   As shown in FIG. 11, in the display system 1a, the terminal device 200 and the image display device 30 are connected to the network 2a. The terminal device 200 and the image display device 30 are connected to the server device 10 via a network 3 such as a WAN (Wide Area Network). That is, the server device 10 is connected to an external network different from the network 2a such as a LAN (Local Area Network) to which the terminal device 200 and the image display device 30 are connected. A plurality of terminal devices 20 may be connected to the network 2a.

上述した構成において、端末装置200は、サーバ装置10からアプリケーションを取得する。取得されたアプリケーションは、ユーザ操作により端末装置200にインストールされることで実行可能となる。なお、かかる表示システム1aにおいては、Webブラウザを利用したネットワークへのアクセスとは異なり、クロスドメインの問題が発生しない。このため、端末装置200は、画像表示装置30との直接的なやり取りが可能である。   In the configuration described above, the terminal device 200 acquires an application from the server device 10. The acquired application can be executed by being installed in the terminal device 200 by a user operation. In the display system 1a, unlike a network access using a Web browser, a cross-domain problem does not occur. For this reason, the terminal device 200 can directly communicate with the image display device 30.

図12は、実施の形態2に係る端末装置200及び画像表示装置30の構成例を示す機能ブロック図である。なお、図12では、実施の形態1と同様の構成については同一の符号を付し、同様の構成については詳細な説明を省略する場合がある。実施の形態2では、以下に示すアプリケーション250以外の各部の機能及び構成、処理については実施の形態1と同様である。但し、実施の形態2では、実施の形態1とは異なり、Webブラウザ21を要さない。   FIG. 12 is a functional block diagram illustrating a configuration example of the terminal device 200 and the image display device 30 according to the second embodiment. In FIG. 12, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description of the same components may be omitted. In the second embodiment, the function, configuration, and processing of each unit other than the application 250 described below are the same as those in the first embodiment. However, unlike the first embodiment, the second embodiment does not require the web browser 21.

図12に示すように、端末装置200は、取得部22と、特定動作検知部23と、検知部24とを有する。また、取得部22によって取得されたアプリケーション250は、端末装置200にインストールされることで、判定部25a、操作特定部25b、保持部25c、送信部25d及び報知部25eとして機能する。上述したように、実施の形態2では、Webブラウザ21を利用せずに各処理が実行される点が実施の形態1とは異なるので、各部の処理について簡単に説明する。   As illustrated in FIG. 12, the terminal device 200 includes an acquisition unit 22, a specific operation detection unit 23, and a detection unit 24. Moreover, the application 250 acquired by the acquisition unit 22 functions as the determination unit 25a, the operation specifying unit 25b, the holding unit 25c, the transmission unit 25d, and the notification unit 25e by being installed in the terminal device 200. As described above, the second embodiment is different from the first embodiment in that each process is executed without using the Web browser 21. Therefore, the process of each unit will be briefly described.

取得部22は、アプリケーション250を記憶するサーバ装置10から、アプリケーション250を取得する。取得部22によって取得されたアプリケーション250は、端末装置200にインストールされることで実行可能となる。   The acquisition unit 22 acquires the application 250 from the server device 10 that stores the application 250. The application 250 acquired by the acquisition unit 22 can be executed by being installed in the terminal device 200.

特定動作検知部23は、画像表示装置30を操作するための端末装置200に対するユーザのジェスチャを開始するための、該端末装置200に対するユーザの特定動作を表す第1動作を検知する。また、特定動作検知部23は、画像表示装置30を操作するための端末装置200に対するユーザのジェスチャを終了するための、該端末装置200に対するユーザの特定動作を表す第2動作を検知する。特定動作検知部23によって検知された第1動作及び第2動作の検知結果は、判定部25aに通知される。   The specific action detection unit 23 detects a first action representing a specific action of the user with respect to the terminal device 200 for starting a user's gesture with respect to the terminal device 200 for operating the image display device 30. In addition, the specific action detection unit 23 detects a second action representing the specific action of the user with respect to the terminal device 200 for ending the user's gesture with respect to the terminal device 200 for operating the image display device 30. The detection results of the first action and the second action detected by the specific action detection unit 23 are notified to the determination unit 25a.

検知部24は、画像表示装置30を操作するための端末装置200に対するユーザのジェスチャとして、該端末装置200の傾き及び移動方向の少なくとも一つを、加速度センサ等により検知する。検知部24によって検知された端末装置200の傾きや移動方向の検知結果は、操作特定部25bに通知される。   The detection unit 24 detects at least one of the inclination and the moving direction of the terminal device 200 as an acceleration sensor or the like as a user gesture for the terminal device 200 for operating the image display device 30. The detection result of the inclination and movement direction of the terminal device 200 detected by the detection unit 24 is notified to the operation specifying unit 25b.

判定部25aは、特定動作検知部23から第1動作の検知結果を受け付けた場合に、画像表示装置30を操作するための端末装置200に対するユーザのジェスチャが開始されると判定する。そして、判定部25aは、検知部24によって通知されるユーザのジェスチャの記録を開始する指示、すなわち端末装置200の傾きや移動方向の検知結果の記録を開始する指示を、操作特定部25bに対して行なう。   The determination unit 25 a determines that the user's gesture for the terminal device 200 for operating the image display device 30 is started when the detection result of the first motion is received from the specific motion detection unit 23. Then, the determination unit 25a gives an instruction to start recording of the user's gesture notified by the detection unit 24, that is, an instruction to start recording of the detection result of the tilt or movement direction of the terminal device 200 to the operation specifying unit 25b. To do.

一方、判定部25aは、特定動作検知部23から第2動作の検知結果を受け付けた場合に、画像表示装置30を操作するための端末装置200に対するユーザのジェスチャが終了されると判定する。そして、判定部25aは、検知部24によって通知されるユーザのジェスチャの記録を終了する指示、すなわち端末装置200の傾きや移動方向の検知結果の記録を終了する指示を、操作特定部25bに対して行なう。   On the other hand, the determination part 25a determines with the user's gesture with respect to the terminal device 200 for operating the image display apparatus 30 being complete | finished, when the detection result of 2nd operation | movement is received from the specific operation | movement detection part 23. Then, the determination unit 25a gives an instruction to end the recording of the user's gesture notified by the detection unit 24, that is, an instruction to end the recording of the detection result of the inclination or movement direction of the terminal device 200 to the operation specifying unit 25b. To do.

操作特定部25bは、検知部24によって検知された端末装置200の傾きや移動方向の検知結果を、ユーザのジェスチャとして受け付ける。このとき、操作特定部25bは、判定部25aによってユーザのジェスチャの記録を開始する指示を受け付けた場合に、検知部24から受け付けているユーザのジェスチャの記録を開始する。また、操作特定部25bは、判定部25aによってユーザのジェスチャの記録を終了する指示を受け付けた場合に、検知部24から受け付けているユーザのジェスチャの記録を終了する。   The operation specifying unit 25b receives the detection result of the tilt and movement direction of the terminal device 200 detected by the detection unit 24 as a user gesture. At this time, when the determination unit 25a receives an instruction to start recording the user's gesture, the operation specifying unit 25b starts recording the user's gesture received from the detection unit 24. Further, when the determination unit 25a receives an instruction to end recording of the user's gesture, the operation specifying unit 25b ends the recording of the user's gesture received from the detection unit 24.

そして、操作特定部25bは、ジェスチャの記録を終了すると、保持部25cを参照して、記録したジェスチャに対応する画像表示装置30に対する操作を特定する。保持部25cは、ジェスチャと操作とを対応付けて保持する。続いて、操作特定部25bは、特定した操作を送信部25dに通知する。また、操作特定部25bは、ジェスチャに対応する操作を特定する場合に、対応する操作の有無に関する操作有無情報を報知部25eに通知する。   Then, when the gesture specifying unit 25b finishes recording the gesture, the operation specifying unit 25b refers to the holding unit 25c and specifies an operation on the image display device 30 corresponding to the recorded gesture. The holding unit 25c holds a gesture and an operation in association with each other. Subsequently, the operation specifying unit 25b notifies the specified operation to the transmitting unit 25d. Further, when specifying the operation corresponding to the gesture, the operation specifying unit 25b notifies the notification unit 25e of the operation presence / absence information regarding the presence / absence of the corresponding operation.

送信部25dは、操作特定部25bによって特定された操作を、画像表示装置30に対して送信する。なお、画像表示装置30はHttpリクエストによりプロジェクタの操作を可能にするWebAPIを提供しているため、送信部25dは、Httpによる通信規約に合わせたデータの形式により送信を行なう。   The transmitting unit 25d transmits the operation specified by the operation specifying unit 25b to the image display device 30. Since the image display device 30 provides a Web API that allows the projector to be operated by an HTTP request, the transmission unit 25d performs transmission in a data format that conforms to the communication protocol according to the HTTP.

報知部25eは、操作特定部25bによってジェスチャに対応する操作が特定できた場合に、画像表示装置30の操作が成功したこととして、操作成功の旨を報知する。一方、報知部25eは、操作特定部25bによってジェスチャに対応する操作が特定できない場合に、画像表示装置30の操作が失敗したこととして、操作失敗の旨を報知する。ジェスチャに対応する操作を取得出来たか否かについては、操作有無情報をもとに判定する。   When the operation specifying unit 25b can specify the operation corresponding to the gesture, the notification unit 25e notifies the user that the operation of the image display device 30 is successful and that the operation is successful. On the other hand, when the operation specifying unit 25b cannot specify the operation corresponding to the gesture, the notification unit 25e notifies the user that the operation has failed because the operation of the image display device 30 has failed. Whether or not the operation corresponding to the gesture has been acquired is determined based on the operation presence / absence information.

次に、画像表示装置30の構成について説明する。図12に示すように、画像表示装置30は、受信部31と、画像取得部32と、画像記憶部33と、生成部34と、表示部35とを有する。   Next, the configuration of the image display device 30 will be described. As illustrated in FIG. 12, the image display device 30 includes a reception unit 31, an image acquisition unit 32, an image storage unit 33, a generation unit 34, and a display unit 35.

受信部31は、端末装置200の送信部25dによって送信された、画像表示装置30に対する操作を受信する。送信部25dではHttpによる通信規約に合わせたデータ形式により送信されているため、受信部31では、実施の形態1と同一の処理が行なわれれば良い。画像取得部32は、受信部31によって受信された操作に応じた画像を画像記憶部33から取得する。画像記憶部33は、表示対象の画像を記憶する。生成部34は、画像取得部32によって取得された画像をもとに表示部35に表示させる表示画像を生成する。表示部35は、生成部34によって生成された表示画像を表示する。   The receiving unit 31 receives an operation on the image display device 30 transmitted by the transmitting unit 25d of the terminal device 200. Since the transmission unit 25d transmits the data in a data format conforming to the communication protocol according to Http, the reception unit 31 may perform the same processing as in the first embodiment. The image acquisition unit 32 acquires an image corresponding to the operation received by the reception unit 31 from the image storage unit 33. The image storage unit 33 stores an image to be displayed. The generation unit 34 generates a display image to be displayed on the display unit 35 based on the image acquired by the image acquisition unit 32. The display unit 35 displays the display image generated by the generation unit 34.

(2)構成
また、上記文書中や図面中等で示した処理手順、制御手順、具体的名称、各種のデータやパラメタ等を含む情報は、特記する場合を除いて任意に変更することができる。例えば、保持部25cによって保持される情報であるジェスチャ及び操作は、上記の例に限られるわけではなく、適宜変更することができる。また、報知部25eによる報知の手法については、上記の例に限られるわけではなく、音声によるものや光の出力パターンによるものでも良い。
(2) Configuration In addition, information including processing procedures, control procedures, specific names, various data, parameters, and the like shown in the documents and drawings can be arbitrarily changed unless otherwise specified. For example, the gesture and operation, which are information held by the holding unit 25c, are not limited to the above example, and can be changed as appropriate. In addition, the notification method by the notification unit 25e is not limited to the above example, and may be based on a sound or a light output pattern.

また、図示した各装置の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散又は統合の具体的形態は、図示のものに限られず、その全部又は一部を各種の負担や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合することができる。例えば、「特定動作検知部23」と「検知部24」とを、タッチセンサ等により第1動作及び第2動作を検知し、加速度センサ等によりジェスチャを検知する「動作検知部」として統合しても良い。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution or integration of each device is not limited to the illustrated one, and all or a part thereof is functionally or physically distributed or arbitrarily distributed in arbitrary units according to various burdens or usage conditions. Can be integrated. For example, the “specific motion detection unit 23” and the “detection unit 24” are integrated as an “motion detection unit” that detects the first motion and the second motion with a touch sensor or the like and detects a gesture with an acceleration sensor or the like. Also good.

また、ジェスチャの記録の開始及び終了について、特定動作検知部23及び判定部25aによる処理をトリガとする場合を説明したが、パターンマッチを利用したジェスチャの検知により実現するようにしても良い。すなわち、特定動作検知部23及び判定部25aによる処理は必ずしも行なわれなくても良い。また、画像表示装置30の操作の成功及び失敗については、表示するスライドの切り替わりや表示変化の有無で認識することができるため、報知部25eによる報知は必ずしも行なわれてなくても良い。   Moreover, although the case where the process of the specific action detection unit 23 and the determination unit 25a is used as a trigger for the start and end of the gesture recording has been described, it may be realized by detecting a gesture using pattern matching. That is, the processing by the specific motion detection unit 23 and the determination unit 25a may not be necessarily performed. Further, since the success or failure of the operation of the image display device 30 can be recognized by the switching of the slide to be displayed or the presence or absence of a display change, the notification by the notification unit 25e does not necessarily have to be performed.

(3)ハードウェア構成
図13は、端末装置のハードウェア構成例を示す図である。図13に示すように、端末装置1000では、CPU1001と、ROM1002と、RAM1003と、HDD1004と、加速度センサ1005と、タッチセンサ1006と、タッチパネル1007とが、バス1008で接続されている。
(3) Hardware Configuration FIG. 13 is a diagram illustrating a hardware configuration example of the terminal device. As illustrated in FIG. 13, in the terminal device 1000, a CPU 1001, a ROM 1002, a RAM 1003, an HDD 1004, an acceleration sensor 1005, a touch sensor 1006, and a touch panel 1007 are connected via a bus 1008.

CPU1001は、端末装置1000を全体制御する。ROM1002は、プログラムや各種データの格納用メモリとして利用される読み出し専用のメモリである。RAM1003は、プログラムや各種データの展開用のメモリとして利用される書き込み及び読み出し可能なメモリである。HDD1004は、各種データや各種プログラムの蓄積が可能なストレージであり、各種アプリケーションも記憶する。ここで、アプリケーションとは、上述したWebアプリケーション25やアプリケーション250を指す。なお、HDD1004については、HDDの他に、光ディスクやフラッシュメモリ等の記憶媒体により構成されても良い。加速度センサ1005は、端末装置1000に対するユーザの動作を検知する検知部24に相当する。タッチセンサ1006は、タッチパネル1007へのユーザの接触を検知する特定動作検知部23に相当する。   The CPU 1001 controls the terminal device 1000 as a whole. The ROM 1002 is a read-only memory used as a memory for storing programs and various data. The RAM 1003 is a writable and readable memory used as a memory for developing programs and various data. The HDD 1004 is a storage capable of storing various data and various programs, and also stores various applications. Here, the application refers to the Web application 25 and the application 250 described above. The HDD 1004 may be configured by a storage medium such as an optical disk or a flash memory in addition to the HDD. The acceleration sensor 1005 corresponds to the detection unit 24 that detects a user operation on the terminal device 1000. The touch sensor 1006 corresponds to the specific operation detection unit 23 that detects a user's contact with the touch panel 1007.

かかる端末装置1000で実行される操作プログラムは、一つの様態として、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。また、端末装置1000で実行される操作プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、端末装置1000で実行される操作プログラムをインターネット等のネットワーク経由で提供又は配布するように構成しても良い。また、操作プログラムを、ROM等に予め組み込んで提供するように構成しても良い。   The operation program executed by the terminal device 1000 is, as one form, a file in an installable or executable format, such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), or the like. And recorded on a computer-readable recording medium. The operation program executed in the terminal device 1000 may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. The operation program executed on the terminal device 1000 may be provided or distributed via a network such as the Internet. Further, the operation program may be provided by being incorporated in advance in a ROM or the like.

端末装置1000で実行される操作プログラムは、上述した各部(取得部22、検知部24)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が記憶媒体から操作プログラムを読み出して実行することにより、上記各部が主記憶装置上にロードされ、取得部22、検知部24が主記憶装置上に生成されるようになっている。これに応じて、操作特定部25b、保持部25c、送信部25dとして機能するアプリケーションが実行される。   The operation program executed by the terminal device 1000 has a module configuration including the above-described units (acquisition unit 22 and detection unit 24). As actual hardware, a CPU (processor) reads the operation program from a storage medium. As a result, the above-described units are loaded on the main storage device, and the acquisition unit 22 and the detection unit 24 are generated on the main storage device. In response to this, an application functioning as the operation specifying unit 25b, the holding unit 25c, and the transmitting unit 25d is executed.

1 表示システム
10 サーバ装置
20 端末装置
21 Webブラウザ
22 取得部
23 特定動作検知部
24 検知部
25 Webアプリケーション
25a 判定部
25b 操作特定部
25c 保持部
25d 送信部
25e 報知部
30 画像表示装置
31 受信部
32 画像取得部
33 画像記憶部
34 生成部
35 表示部
DESCRIPTION OF SYMBOLS 1 Display system 10 Server apparatus 20 Terminal apparatus 21 Web browser 22 Acquisition part 23 Specific operation | movement detection part 24 Detection part 25 Web application 25a Determination part 25b Operation specific part 25c Holding | maintenance part 25d Transmission part 25e Notification part 30 Image display apparatus 31 Reception part 32 Image acquisition unit 33 Image storage unit 34 Generation unit 35 Display unit

特開2010−231736号公報JP 2010-231736 A

Claims (10)

端末装置であって、
ネットワークを介して所定アプリケーションを取得する取得部と、
画像を表示する画像表示装置を操作するための前記端末装置に対するユーザの動作を検知する検知部と
を有し、
前記所定アプリケーションは、
前記動作と、前記画像表示装置に対する前記操作とを対応付けて保持する保持部と、
前記保持部に基づいて、前記検知部によって検知された動作に対応する操作を特定する操作特定部と、
前記操作特定部によって特定された操作を前記画像表示装置に対して送信する送信部として機能する
ことを特徴とする端末装置。
A terminal device,
An acquisition unit for acquiring a predetermined application via a network;
A detection unit that detects an operation of the user with respect to the terminal device for operating an image display device that displays an image;
The predetermined application is:
A holding unit that holds the operation in association with the operation on the image display device;
An operation specifying unit for specifying an operation corresponding to the operation detected by the detection unit based on the holding unit;
A terminal device that functions as a transmission unit that transmits the operation specified by the operation specifying unit to the image display device.
前記取得部は、前記端末装置に搭載されたブラウザを利用して、前記所定アプリケーションを取得することを特徴とする請求項1に記載の端末装置。   The terminal device according to claim 1, wherein the acquisition unit acquires the predetermined application by using a browser installed in the terminal device. 前記所定アプリケーションは、前記端末装置に搭載されたブラウザで実行可能な形式で構成されたアプリケーションであることを特徴とする請求項1又は2に記載の端末装置。   The terminal device according to claim 1, wherein the predetermined application is an application configured in a format that can be executed by a browser installed in the terminal device. 前記検知部は、前記端末装置に対するユーザの動作として、前記端末装置の傾き及び移動方向の少なくとも一つを、加速度センサを利用して検知し、
前記操作特定部は、検知された前記端末装置の傾き及び移動方向の少なくとも一つに対応する操作を特定することを特徴とする請求項1に記載の端末装置。
The detection unit detects at least one of an inclination and a moving direction of the terminal device as an operation of the user with respect to the terminal device using an acceleration sensor,
The terminal device according to claim 1, wherein the operation specifying unit specifies an operation corresponding to at least one of the detected tilt and movement direction of the terminal device.
前記端末装置に対するユーザの動作を開始するための、前記端末装置に対する前記ユーザの特定動作を表す第1動作と、前記端末装置に対するユーザの動作を終了するための、前記端末装置に対する前記ユーザの特定動作を表す第2動作を検知する特定動作検知部をさらに有し、
前記所定アプリケーションは、
検知された前記第1動作又は前記第2動作から、前記端末装置に対するユーザの動作の開始又は終了の何れであるかを判定する判定部としてさらに機能し、
前記操作特定部は、前記端末装置に対するユーザの動作の開始又は終了の判定結果に応じて、検知された動作に対応する操作を特定することを特徴とする請求項1に記載の端末装置。
A first operation representing a user's specific operation for the terminal device for starting a user's operation for the terminal device, and a user specification for the terminal device for ending the user's operation for the terminal device A specific action detecting unit for detecting a second action representing the action;
The predetermined application is:
From the detected first action or the second action, it further functions as a determination unit that determines whether a user action on the terminal device is started or ended,
The terminal device according to claim 1, wherein the operation specifying unit specifies an operation corresponding to the detected operation according to a determination result of a start or end of a user operation on the terminal device.
前記特定動作検知部は、前記端末装置の画面に前記ユーザが接触したことを前記第1動作として検知し、検知された前記第1動作の接触状態から非接触になったことを前記第2動作として検知し、
前記判定部は、前記第1動作が検知された場合に、前記端末装置に対するユーザの動作が開始されることを判定し、前記第2動作が検知された場合に、前記端末装置に対するユーザの動作が終了されることを判定することを特徴とする請求項5に記載の端末装置。
The specific action detection unit detects that the user has touched the screen of the terminal device as the first action, and detects that the contact state of the detected first action is not in contact with the second action. Detect as
The determination unit determines that a user operation on the terminal device is started when the first operation is detected, and a user operation on the terminal device when the second operation is detected. The terminal device according to claim 5, wherein the terminal device is determined to be terminated.
前記所定アプリケーションは、
前記動作に対応する前記操作を特定できた場合に、前記画像表示装置の操作が成功したことを報知し、前記動作に対応する前記操作を特定できない場合に、前記画像表示装置の操作が失敗したことを報知する報知部としてさらに機能することを特徴とする請求項1に記載の端末装置。
The predetermined application is:
When the operation corresponding to the operation can be specified, the operation of the image display device is notified, and when the operation corresponding to the operation cannot be specified, the operation of the image display device has failed. The terminal device according to claim 1, further functioning as a notification unit that notifies the user.
前記報知部は、音の出力及び振動の発生の少なくとも一つにより報知することを特徴とする請求項7に記載の端末装置。   The terminal device according to claim 7, wherein the notification unit notifies by at least one of sound output and generation of vibration. 端末装置と画像を表示する画像表示装置とを有する表示システムであって、
前記端末装置は、
ネットワークを介して所定アプリケーションを取得する取得部と、
前記画像表示装置を操作するための前記端末装置に対するユーザの動作を検知する検知部と
を有し、
前記所定アプリケーションは、
前記動作と、前記画像表示装置に対する前記操作とを対応付けて保持する保持部と、
前記保持部に基づいて、前記検知部によって検知された動作に対応する操作を特定する操作特定部と、
前記操作特定部によって特定された操作を前記画像表示装置に対して送信する送信部として機能し、
前記画像表示装置は、
表示対象の前記画像を記憶する画像記憶部と、
前記送信部によって送信された操作を受信する受信部と、
受信された操作に応じた前記画像を前記画像記憶部から取得する画像取得部と、
取得された前記画像をもとに表示画像を生成する生成部と、
生成された前記表示画像を表示する表示部と
を有することを特徴とする表示システム。
A display system having a terminal device and an image display device for displaying an image,
The terminal device
An acquisition unit for acquiring a predetermined application via a network;
A detection unit that detects a user action on the terminal device for operating the image display device,
The predetermined application is:
A holding unit that holds the operation in association with the operation on the image display device;
An operation specifying unit for specifying an operation corresponding to the operation detected by the detection unit based on the holding unit;
Functions as a transmission unit for transmitting the operation specified by the operation specifying unit to the image display device;
The image display device includes:
An image storage unit for storing the image to be displayed;
A receiving unit for receiving an operation transmitted by the transmitting unit;
An image acquisition unit that acquires the image according to the received operation from the image storage unit;
A generating unit that generates a display image based on the acquired image;
And a display unit that displays the generated display image.
コンピュータを、
ネットワークを介して所定アプリケーションを取得する取得部と、
画像を表示する画像表示装置を操作するための端末装置に対するユーザの動作を検知する検知部
として機能させ、
前記所定アプリケーションは、
前記動作と、前記画像表示装置に対する前記操作とを対応付けて保持する保持部と、
前記保持部に基づいて、前記検知部によって検知された動作に対応する操作を特定する操作特定部と、
前記操作特定部によって特定された操作を前記画像表示装置に対して送信する送信部として機能する
ことを特徴とする操作プログラム。
Computer
An acquisition unit for acquiring a predetermined application via a network;
It functions as a detection unit that detects the user's action on the terminal device for operating the image display device that displays the image,
The predetermined application is:
A holding unit that holds the operation in association with the operation on the image display device;
An operation specifying unit for specifying an operation corresponding to the operation detected by the detection unit based on the holding unit;
An operation program that functions as a transmission unit that transmits an operation specified by the operation specifying unit to the image display device.
JP2012180284A 2012-08-15 2012-08-15 Terminal equipment, display system and operation program Pending JP2014038474A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012180284A JP2014038474A (en) 2012-08-15 2012-08-15 Terminal equipment, display system and operation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012180284A JP2014038474A (en) 2012-08-15 2012-08-15 Terminal equipment, display system and operation program

Publications (1)

Publication Number Publication Date
JP2014038474A true JP2014038474A (en) 2014-02-27

Family

ID=50286572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012180284A Pending JP2014038474A (en) 2012-08-15 2012-08-15 Terminal equipment, display system and operation program

Country Status (1)

Country Link
JP (1) JP2014038474A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143100A (en) * 2015-01-30 2016-08-08 東芝ライテック株式会社 Communication system, home electric appliance, and control device
JP2016177499A (en) * 2015-03-19 2016-10-06 セイコーエプソン株式会社 Control device, control method for electronic equipment, and program
JP2021068085A (en) * 2019-10-21 2021-04-30 株式会社東海理化電機製作所 Controller, computer program, and authentication system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143100A (en) * 2015-01-30 2016-08-08 東芝ライテック株式会社 Communication system, home electric appliance, and control device
JP2016177499A (en) * 2015-03-19 2016-10-06 セイコーエプソン株式会社 Control device, control method for electronic equipment, and program
JP2021068085A (en) * 2019-10-21 2021-04-30 株式会社東海理化電機製作所 Controller, computer program, and authentication system

Similar Documents

Publication Publication Date Title
JP6241766B2 (en) Mobile terminal and device linkage method
RU2617384C2 (en) Method and device for content management using graphical object
US10061385B2 (en) Haptic feedback for a touch input device
KR20130097594A (en) Method and apparatus for moving contents on screen in terminal
KR101855141B1 (en) Method and apparatus for setting option in a user device
KR20130133980A (en) Method and apparatus for moving object in terminal having touchscreen
US20130293486A1 (en) Touch-based remote control
JP5982917B2 (en) Information processing apparatus, operation authority grant program, and projection system
WO2014036974A1 (en) Terminal device, and method and system for display in one screen
JP2014038474A (en) Terminal equipment, display system and operation program
JP2017117108A (en) Electronic apparatus and method for controlling the electronic apparatus
JP6492571B2 (en) Information processing system, information processing apparatus, screen display method, and program
JP5637003B2 (en) Image forming apparatus, screen control method, screen control program, and recording medium
JP2015046182A (en) Image formation device, image formation system, screen control method, and program
US20170243565A1 (en) Information processing apparatus, method of controlling the same and non-transitory computer-readable storage medium
JP2014178791A (en) Projector, projection system, image generation program, and image generation method
US9536526B2 (en) Electronic device with speaker identification, method and storage medium
CN104423950B (en) Information processing method and electronic equipment
JP6285974B2 (en) Server system, client device, and program
JP6047021B2 (en) Imaging apparatus, control method therefor, and program
KR102109618B1 (en) Apparatus and method for managing mobile device
JP2014035573A (en) Information processor and program
JP7315750B2 (en) Server system, client device and program
JP2009003296A (en) Client device, server-based computing system, and program
KR20150108591A (en) Method for controlling wearable device and apparatus thereof