WO2013108470A1 - 操作端末 - Google Patents

操作端末 Download PDF

Info

Publication number
WO2013108470A1
WO2013108470A1 PCT/JP2012/079252 JP2012079252W WO2013108470A1 WO 2013108470 A1 WO2013108470 A1 WO 2013108470A1 JP 2012079252 W JP2012079252 W JP 2012079252W WO 2013108470 A1 WO2013108470 A1 WO 2013108470A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
communication unit
data
operation terminal
touch
Prior art date
Application number
PCT/JP2012/079252
Other languages
English (en)
French (fr)
Inventor
安西 伸介
山田 晃久
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2013108470A1 publication Critical patent/WO2013108470A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the present invention relates to an operation terminal for remotely operating a server including an electronic device such as a mobile phone or a personal computer.
  • Smartphones have a wide variety of functions, but because the base is a mobile phone, portability is important and the overall size is getting smaller. Specifically, for example, the screen size is about 4 inches, and the operation keys (physical keys, keys displayed on the touch panel, etc.) are narrow and few. Therefore, even when used in an environment where a large work space such as a home or a conference room can be used, it is necessary to operate using inconvenient operation keys while viewing a small screen.
  • the operation keys physical keys, keys displayed on the touch panel, etc.
  • Patent Literature 1 and Non-Patent Literature 1 an operation terminal that operates as an external display device and an external input terminal of the smartphone by connecting to the smartphone in a wired or wireless manner in a shape like a laptop personal computer.
  • this conventional operation terminal by causing the smartphone to execute the application, the function of the OS (Operating System) is kept to the minimum necessary level, and the operating frequency of the CPU (Central Processing Unit) is lowered, thereby reducing the power consumption. This makes it possible to drive for a long time.
  • OS Operating System
  • CPU Central Processing Unit
  • the above conventional operation terminal has a simple configuration in that it does not include a device for executing an application.
  • a keyboard, a touch pad, various input / output (I / O) terminals, a CPU, a video engine, a memory, and the like In order to exchange various data via the bus, it is necessary to manage data by the OS. As a result, processing of data is delayed and costs increase, which is a problem.
  • a touch panel is often adopted as an input device, but in this operation terminal, a keyboard and a touch pad are adopted as input devices. Therefore, when the user operates the smartphone using the operation terminal, there is a possibility that the user feels uncomfortable and feels that the operability is bad.
  • an object of the present invention is to provide an operation terminal having an extremely simple configuration and excellent operability.
  • the present invention provides a display device for displaying an image on a display surface, A touch panel for detecting an indicator that is in contact with or close to the display surface of the display device; An input processing system for displaying an image corresponding to input image data on the display surface of the display device; An output processing system for generating touch data according to the detection result of the indicator by the touch panel; A communication unit that receives the image data from an external communication device and transmits the touch data to the communication device; and Provided is an operation terminal in which the input processing system and the output processing system perform processing independent from each other when the communication unit and the communication device communicate the image data and the touch data.
  • each of the image data and touch data is processed independently by the input processing system and the output processing system. . Therefore, an OS for managing image data and touch data can be eliminated. Therefore, it becomes possible to process image data and touch data quickly at low cost.
  • this operation terminal employs a touch panel as an input device. Therefore, when operating the communication apparatus (for example, smart phone) which employ
  • the communication apparatus for example, smart phone
  • the input processing system is An image data converter that converts the image data input from the communication unit into a predetermined format and outputs the data;
  • An image controller that displays an image corresponding to the image data input from the image data converter on the display surface of the display device;
  • the output processing system is A touch panel controller that generates and outputs the touch data according to the detection result of the indicator input from the touch panel; It is preferable to include a touch data conversion unit that converts the touch data input from the touch panel controller into a predetermined format and outputs the converted data to the communication unit.
  • the operation terminal having the above characteristics is preferably provided with no I / O (Input / Output) terminal on the outer surface, and the communication unit only performs wireless communication.
  • an I / O terminal that is likely to receive moisture is not provided on the outer surface, so that the operation terminal is easily waterproofed at low cost. Is possible.
  • the communication unit includes: An image data communication unit for receiving the image data from the communication device; A touch data communication unit that transmits the touch data to the communication device; Is preferable.
  • this operation terminal it is possible to simultaneously receive image data and transmit touch data. Therefore, for example, it is possible to receive image data and transmit touch data at a higher speed than when image data is received and touch data is transmitted in a time division manner.
  • the operation terminal having the above characteristics is different in a communication method of the image data by the image data communication unit and a communication method of the touch data by the touch data communication unit.
  • this operation terminal it is possible to perform communication using an appropriate communication method according to the characteristics of the image data and touch data, and it is possible to suppress interference.
  • the communication method of the image data by the image data communication unit is WHDI (Wireless Home Digital Interface), WiHD (Wireless High Definition), or wireless LAN (Local Area Network). .
  • This operation terminal enables high-speed communication even for image data whose data capacity can increase.
  • WHDI or WiHD it is possible to communicate image data without compression.
  • a communication method of the touch data by the touch data communication unit is a wireless LAN, WUSB (Wireless Universal Serial Bus) or Bluetooth (registered trademark).
  • this operation terminal it is possible to communicate touch data that can reduce the data capacity by a simple communication method.
  • the operation terminal having the above characteristics selects the communication device to be communicated by the communication unit from the plurality of communication devices, and controls the communication unit to perform communication with the communication device. It is preferable to further include a part.
  • this operation terminal when there are a plurality of communication devices, it is possible to selectively operate a desired communication device or switch a communication device to be operated.
  • the communication device receives the touch data transmitted by the communication unit, generates the image data according to the touch data, and transmits the image data to the communication unit.
  • a server for transmission is preferable.
  • This operation terminal enables direct communication with a server that can execute applications and the like.
  • the communication device receives the touch data transmitted from the communication unit and transmits the touch data to a server, and the server generates the touch data according to the touch data.
  • the router receives the transmitted image data and transmits the image data to the communication unit.
  • the server can be operated through the router.
  • the input processing system and the output processing system perform processing independently to realize an extremely simple configuration, and it is possible to obtain excellent operability by adopting the touch panel.
  • FIG. 1 is a block diagram showing a schematic configuration example of an operation terminal according to the first embodiment of the present invention.
  • an operation terminal 1A includes a display device 10 that displays an image on a display surface 11 and an indicator that touches or approaches the display surface 11 of the display device 10 (for example, , A finger, a stylus, etc. (the same applies hereinafter)), an input processing system 30 for displaying an image corresponding to input image data on the display surface 11 of the display device 10, and detection of an indicator by the touch panel 20
  • the output processing system 40 which produces
  • the input processing system 30 includes an image data conversion unit 31 that converts image data input from the communication unit 50 into a predetermined format and outputs the image data, and an image corresponding to the image data input from the image data conversion unit 31. And an image controller 32 to be displayed on the ten display surfaces 11.
  • the output processing system 40 generates touch data according to the detection result of the indicator input from the touch panel 20 and outputs the touch data, and converts the touch data input from the touch panel controller 41 into a predetermined format.
  • a touch data conversion unit 42 that outputs to the communication unit 50.
  • the display device 10 includes, for example, a liquid crystal display, an organic EL (Electro Luminescence) display, a plasma display, and the like, and displays an image on the display surface 11 thereof. Note that the image displayed on the display surface 11 of the display device 10 may be a moving image or a still image.
  • a liquid crystal display for example, a liquid crystal display, an organic EL (Electro Luminescence) display, a plasma display, and the like.
  • the image displayed on the display surface 11 of the display device 10 may be a moving image or a still image.
  • the touch panel 20 detects an indicator that is in contact with or close to the display surface 11 of the display device 10 by an arbitrary detection method such as a capacitance method or an optical method.
  • 1 to 5 schematically illustrate the touch panel 20 as if it is formed on the display surface 11 of the display device 10 (on-cell type). It may be formed inside the display surface 11 (may be an in-cell type).
  • a light receiving sensor, a light source, or the like may be provided at the end of the display surface 11 of the display device 10.
  • the image data conversion unit 31 converts the image data input from the communication unit 50 into a format that can be processed by the image controller 32. Specifically, for example, when the image data received by the communication unit 50 from the server S is compressed or encrypted, the image data conversion unit 31 decompresses or decrypts the image data.
  • the image controller 32 generates a drive signal for driving the display device 10 according to the image data input from the image data converter 31 and outputs the drive signal to the display device 10. Specifically, for example, when the display device 10 is a general liquid crystal display, the image controller 32 generates a drive signal that conforms to an input format of a source driver and a gate driver included in the display device 10 (liquid crystal display) and displays the drive signal. Output to the device 10.
  • the image controller 32 can also be interpreted as a part of the display device 10.
  • the touch panel controller 41 generates touch data based on the detection signal input from the touch panel 20. Specifically, for example, the touch panel controller 41 stores a detection signal when the indicator is not in contact with or close to the display surface 11 and sequentially compares the stored detection signal with a detection signal input from the touch panel 20. Thus, the presence / absence of an indicator that is in contact with or close to the display surface 11 is determined. Then, the touch panel controller 41 outputs the obtained result as touch data. Note that the touch panel controller 41 may generate and output touch data not only when there is an indicator that contacts or approaches the display surface 11 but also when such an indicator does not exist.
  • the touch data conversion unit 42 converts the touch data input from the touch panel controller 41 into a format that the communication unit 50 can communicate with. Specifically, for example, when the touch data converted by the communication unit 50 is transmitted to the server S, the touch data conversion unit 42 compresses the touch data input from the touch panel controller 41. Or encrypt.
  • the communication unit 50 transmits touch data to the server S and receives image data from the server S. Specifically, for example, the communication unit 50 communicates with the server S using a known communication method such as WHDI, WiHD, wireless LAN, WUSB, Bluetooth (registered trademark), or the like. Note that the communication unit 50 may employ a wired communication in addition to (or instead of) the wireless communication as described above. There may be a plurality of communication methods that can be adopted by the communication unit 50.
  • the server S is composed of an electronic device such as a smartphone or a personal computer, and has a communication function for communicating with other electronic devices. Further, the server S includes, for example, a CPU, a memory, a storage, and the like, and its operation is controlled by the OS, so that various applications can be executed. Note that the server S is not limited to electronic devices with a wide variety of uses (in other words, types of executable applications) such as smartphones and personal computers, but is electronic devices with limited uses such as tuners and recorders. May be.
  • the server S may be configured to employ wired communication in addition to (or instead of) the wireless communication as described above. There may also be a plurality of communication methods that can be adopted by the server S.
  • the communication unit 50 searches for the server S by a predetermined communication method. If the server S can communicate by the communication method, the communication unit 50 finds the server S, communicates with the server S, and performs an authentication process.
  • the communication unit 50 When the authentication process is successful, the communication unit 50 establishes a connection with the server S, receives the image data transmitted by the server S, and transmits touch data to the server S. If the authentication process fails, the communication unit 50 cannot establish communication with the server S. For example, at this time, the communication unit 50 may output a signal notifying the failure of connection, and the image controller 14 may display an error message or the like on the display surface 11 of the display device 10 according to the signal.
  • the server S receives the touch data transmitted by the communication unit 50 and performs an operation such as executing an application in accordance with the touch data.
  • the server S is an image that is the operation result (specifically, for example, an image that is displayed on the screen of the smartphone when the server S that is a smartphone is directly operated by the touch data). Is generated and transmitted to the communication unit 50.
  • the communication unit 50 receives image data from the server S and outputs it to the image data conversion unit 31.
  • the image data converter 31 converts the input image data into a predetermined format and outputs it to the image data controller 13.
  • the image data controller 13 displays an image corresponding to the input image data on the display surface 11 of the display device 10.
  • the user confirms the image displayed on the display surface 11 of the display device 10 and operates the touch panel 20 (the indicator is brought into contact with or close to the display surface 11 of the display device 10).
  • the touch panel 20 detects an indicator that is in contact with or close to the display surface 11 of the display device 10, and outputs the detection result to the touch panel controller 41.
  • the touch panel controller 41 generates touch data indicating the detection result of the input indicator and outputs the generated touch data to the touch data conversion unit 42.
  • the touch data conversion unit 42 converts the input touch data into a predetermined format and outputs it to the communication unit 50. Then, the communication unit 50 transmits input touch data to the server S.
  • the operation terminal 1A displays images and generates touch data according to the image data, and image data and touch associated with communication. Each transformation of data can be performed independently of each other.
  • the communication unit 50 transmits a signal requesting the server S to retransmit.
  • the server S receives a signal to request retransmission
  • the server S retransmits the image data to the communication unit 50.
  • the server S cannot correctly receive the touch data transmitted by the communication unit 50
  • the server S transmits a signal requesting retransmission to the communication unit 50.
  • the communication unit 50 receives a signal requesting retransmission
  • the communication unit 50 retransmits the touch data to the server S.
  • the communication unit 50 and the server S communicate the image data and the touch data
  • the image data and the touch data are mutually exchanged by the input processing system 30 and the output processing system 40. Processed independently. Therefore, an OS for managing image data and touch data can be eliminated. Therefore, it becomes possible to process image data and touch data quickly at low cost.
  • the operation terminal 1A employs a touch panel 20 as an input device. Therefore, when operating the server S (for example, smart phone) which employs the touch panel using the operation terminal 1A, the user can obtain excellent operability as if the server S is directly operated. it can.
  • the server S for example, smart phone
  • the operation terminal 1A can achieve an extremely simple configuration by the input processing system 30 and the output processing system 40 performing processing independently, and can obtain excellent operability by adopting the touch panel 20. .
  • FIG. 2 is a block diagram showing a schematic configuration example of the operation terminal according to the second embodiment of the present invention.
  • FIG. 2 corresponds to FIG. 1 shown for the operation terminal 1A according to the first embodiment of the present invention, and in the operation terminal 1B according to the second embodiment of the present invention shown in FIG. Portions that are the same as those of the operation terminal 1A according to the first embodiment of the present invention shown in FIG.
  • the operation terminal 1B includes a display device 10, a touch panel 20, an input processing system 30 (an image data conversion unit 31, an image controller 32), and an output processing system.
  • 40 touch panel controller 41, touch data conversion unit 42
  • an image data communication unit 51 that receives the image data from the server S and outputs the image data to the input processing system 30 (particularly the image data conversion unit 31).
  • a touch data communication unit 52 that transmits touch data input from the output processing system 40 (particularly, the touch data conversion unit 42) to the server S.
  • the operation terminal 1B is different from the operation terminal 1A shown in FIG. 1 in that the operation terminal 1B includes an image data communication unit 51 and a touch data communication unit 52.
  • the operation terminal 1B and the operation terminal 1A about another structure since it is the same in the operation terminal 1B and the operation terminal 1A about another structure, operation
  • the operation terminal 1B includes the image data communication unit 51 and the touch data communication unit 52, so that it is possible to simultaneously receive image data and transmit touch data. Therefore, for example, image data reception and touch data transmission can be performed at a higher speed than in the case where image data reception and touch data transmission are performed in a time division manner as described above.
  • the image data communication method by the image data communication unit 51 is different from the touch data communication method by the touch data communication unit 52.
  • communication can be performed using an appropriate communication method according to the characteristics of the image data and touch data, and interference can be suppressed.
  • the server S needs to support at least the communication methods of the image data communication unit 51 and the touch data communication unit 52.
  • the image data communication method by the image data communication unit 51 is preferably WHDI, WiHD, or wireless LAN.
  • WHDI WiHD
  • WiHD wireless LAN
  • FIG. 3 is a block diagram showing a schematic configuration example of the operation terminal according to the third embodiment of the present invention.
  • FIG. 3 corresponds to FIG. 1 shown for the operation terminal 1A according to the first embodiment of the present invention.
  • the operation terminal 1C according to the third embodiment of the present invention shown in FIG. The same reference numerals are given to the same parts as those of the operation terminal 1A according to the first embodiment of the present invention shown in FIG. 1, and the detailed description thereof is omitted.
  • the operation terminal 1 ⁇ / b> C includes a display device 10, a touch panel 20, an input processing system 30 (an image data conversion unit 31 and an image controller 32), and an output processing system. 40 (touch panel controller 41, touch data conversion unit 42), communication unit 50, and server S1 to which communication unit 50 should communicate from among a plurality of servers S1 to Sn (n is a natural number of 2 or more)
  • a communication device selection control unit 60 for controlling the communication unit 50 to communicate with the server S1.
  • the operation terminal 1C is different from the operation terminal 1A shown in FIG. 1 in that the communication terminal selection control unit 60 is provided.
  • the communication terminal selection control unit 60 is provided.
  • the communication device selection control unit 60 controls the image controller 32 to display a selection screen or the like on the display surface 11 of the display device 10, thereby selecting the server S1 to be connected from among the plurality of servers S1 to Sn. Let the user choose.
  • touch data indicating the operation content is generated by the touch panel controller 41 and input to the communication device selection control unit 60.
  • the communication device selection control unit 60 recognizes the server S1 to be selected based on the input touch data, and controls the communication unit 50 so that the communication unit 50 communicates with the server S1.
  • the control method demonstrated here is only an example, and the communication apparatus selection control part 60 may control the communication part 50 by what kind of method.
  • the operation terminal 1C can selectively operate a desired server S1 or switch the operation target server S1 when there are a plurality of servers S1 to Sn. It becomes possible to do.
  • FIG. 4 is a block diagram showing a schematic configuration example of the operation terminal according to the fourth embodiment of the present invention.
  • FIG. 4 corresponds to FIG. 1 shown for the operation terminal 1A according to the first embodiment of the present invention.
  • the operation terminal 1D according to the fourth embodiment of the present invention shown in FIG. The same reference numerals are given to the same parts as those of the operation terminal 1A according to the first embodiment of the present invention shown in FIG. 1, and the detailed description thereof is omitted.
  • the operation terminal 1D includes a display device 10, a touch panel 20, a common controller 70 that realizes functions of an image controller 32 and a touch panel controller 41, and image data conversion.
  • a common data conversion unit 80 that realizes the functions of the unit 31 and the touch data conversion unit 42, and a communication unit 50.
  • the operation terminal 1D is shown in FIG. 1 in that it includes a common controller 70 corresponding to the image controller 32 and the touch panel controller 41, and a common data conversion unit 80 corresponding to the image data conversion unit 31 and the touch data conversion unit 42. This is different from the operation terminal 1A.
  • movement, and the effect obtained, description is abbreviate
  • the image controller 32 and the touch panel controller 41 and the image data conversion unit 31 and the touch data conversion unit 42 are shared in hardware as in the operation terminal 1D, the input processing system 30 and the output processing that are independent from each other. As long as the image data and the touch data are processed by the system 40, the same effect as that of the operation terminal 1A according to the first embodiment of the present invention can be obtained.
  • FIG. 5 is a block diagram showing a schematic configuration example of the operation terminal according to the fifth embodiment of the present invention.
  • FIG. 5 corresponds to FIG. 1 shown for the operation terminal 1A according to the first embodiment of the present invention.
  • the operation terminal 1E according to the fifth embodiment of the present invention shown in FIG. The same reference numerals are given to the same parts as those of the operation terminal 1A according to the first embodiment of the present invention shown in FIG. 1, and the detailed description thereof is omitted.
  • an operation terminal 1E includes a display device 10, a touch panel 20, an input processing system 30 (an image data conversion unit 31, an image controller 32), and an output processing system. 40 (touch panel controller 41, touch data conversion unit 42) and a communication unit 50.
  • the communication unit 50 communicates with the router R (communication device).
  • the operation terminal 1E is different from the operation terminal 1A shown in FIG. 1 in that the communication unit 50 communicates with the router R instead of the server S.
  • the communication unit 50 communicates with the router R instead of the server S.
  • the operation terminal 1E and the operation terminal 1A about another structure since it is the same in the operation terminal 1E and the operation terminal 1A about another structure, operation
  • the router R receives the touch data transmitted by the communication unit 50 and transmits the touch data to the server S.
  • the server S generates image data according to the received touch data and transmits it to the router R.
  • the router R transmits the received image data to the communication unit 50.
  • the operation terminal 1E operates the server S through the router R even when the operation target server S does not exist within the direct communicable range. It becomes possible to do.
  • the communication unit 50, the image data communication unit 51, and the touch data communication unit 52 perform only wireless communication and the I / O terminals are not provided on the outer surfaces of the operation terminals 1A to 1E.
  • the communication function with the communication device server S, router R, etc.
  • an I / O terminal that is likely to receive moisture is not provided on the outer surface.
  • the operation terminals 1A to 1E can be made waterproof.
  • the operation terminal of the present invention can be suitably used as an operation terminal for remotely operating a smartphone or a personal computer.
  • Operation terminal 10 Display device 11: Display surface 20: Touch panel 30: Input processing system 31: Image data conversion unit 32: Image controller 40: Output processing system 41: Touch data controller 42: Touch data conversion unit 50: Communication Unit 51: Image data communication unit 52: Touch data communication unit 60: Communication device selection control unit 70: Common controller 80: Common data conversion unit S, S1 to Sn: Server (communication device) R: Router (communication equipment)

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 極めて簡素な構成であるとともに優れた操作性の操作端末を提供する。操作端末1Aは、表示面11に画像を表示する表示装置10と、表示装置10の表示面11に接触または近接する指示体を検出するタッチパネル20と、入力される画像データに応じた画像を表示装置10の表示面11に表示させる入力処理系統30と、タッチパネル20による指示体の検出結果に応じたタッチデータを生成する出力処理系統40と、外部の通信機器Sから画像データを受信するとともに通信機器Sに対してタッチデータを送信する通信部50と、を備える。さらに、通信端末1Aでは、通信部50と通信機器Sとが画像データ及びタッチデータを通信する際に、入力処理系統30及び出力処理系統40が、相互に独立した処理を行う。

Description

操作端末
 本発明は、携帯電話やパソコンなどの電子機器から成るサーバを遠隔操作する操作端末に関する。
 近年、通話機能を有するだけでなく、メール機能やブラウザ機能、ワープロソフトや表計算ソフト等の各種アプリケーションソフトの実行機能等を有する多機能携帯電話(いわゆる、スマートフォン)が、急速に普及している。
 スマートフォンは、有する機能は多岐にわたるが、ベースが携帯電話であるために携帯性が重視され、全体的なサイズが小さくなっている。具体的に例えば、画面のサイズは4インチ程度であり、操作キー(物理キーやタッチパネルに表示されるキーなど)は狭小かつ少数である。そのため、家庭や会議室などの作業スペースを広くとることができる環境下で使用する場合であっても、小さい画面を見ながら、不便な操作キーを使用して操作する必要がある。
 この問題に対して、特許文献1及び非特許文献1では、ラップトップパソコンのような形状で、スマートフォンと有線または無線で接続することで当該スマートフォンの外部表示装置及び外部入力端末として動作する操作端末が提案されている。さらに、この従来の操作端末では、アプリケーションをスマートフォンに実行させることで、OS(Operating System)の機能を必要最小限度に留めるとともに、CPU(Central Processing Unit)の動作周波数を低くすることで、消費電力を抑制し長時間の駆動を可能にしている。
米国特許出願公開2010-0063994号公報
アイ・ビー・エス・ジャパン株式会社、"REDFLY Mobile Companion"、[online]、[2011年12月26日検索]、インターネット<URL:http://www.ibsjapan.co.jp/products/C8N.html>
 上記従来の操作端末は、アプリケーションを実行するための装置を備えない点では簡素な構成であると言えるが、キーボード、タッチパッド、各種I/O(Input/Output)端子、CPU、ビデオエンジン、メモリ等を備え、これらがバスを介して各種データのやり取りをするために、OSによってデータを管理する必要がある。そのため、データの処理が遅れたり、コストが高くなったりするため、問題となる。
 また、例えば近年のスマートフォンでは、入力装置としてタッチパネルが採用されることが多いが、この操作端末では入力装置としてキーボード及びタッチパッドが採用されている。そのため、ユーザが当該操作端末を用いてスマートフォンを操作する際に、違和感を覚えて操作性が悪いと感じる可能性がある。
 そこで、本発明は、極めて簡素な構成であるとともに優れた操作性の操作端末を提供することを目的とする。
 上記目的を達成するため、本発明は、表示面に画像を表示する表示装置と、
 前記表示装置の前記表示面に接触または近接する指示体を検出するタッチパネルと、
 入力される画像データに応じた画像を前記表示装置の前記表示面に表示させる入力処理系統と、
 前記タッチパネルによる前記指示体の検出結果に応じたタッチデータを生成する出力処理系統と、
 外部の通信機器から前記画像データを受信するとともに、当該通信機器に対して前記タッチデータを送信する通信部と、を備え、
 前記通信部と前記通信機器とが前記画像データ及び前記タッチデータを通信する際に、前記入力処理系統及び前記出力処理系統が、相互に独立した処理を行うことを特徴とする操作端末を提供する。
 この操作端末によれば、通信部と通信機器とが画像データ及びタッチデータを通信する際に、画像データ及びタッチデータのそれぞれが、入力処理系統及び出力処理系統で相互に独立して処理される。そのため、画像データやタッチデータを管理するためのOSを、不要にすることができる。したがって、低コストで迅速に画像データ及びタッチデータを処理することが可能になる。
 また、この操作端末は、入力装置としてタッチパネルを採用している。そのため、ユーザは、当該操作端末を用いてタッチパネルを採用している通信機器(例えば、スマートフォン)を操作する場合に、当該通信機器を直接操作しているかのような優れた操作性を得ることができる。
 さらに、上記特徴の操作端末は、前記入力処理系統が、
 前記通信部から入力される前記画像データを所定の形式に変換して出力する画像データ変換部と、
 前記画像データ変換部から入力される前記画像データに応じた画像を前記表示装置の前記表示面に表示させる画像コントローラと、を備え、
 前記出力処理系統が、
 前記タッチパネルから入力される前記指示体の前記検出結果に応じて前記タッチデータを生成し出力するタッチパネルコントローラと、
 前記タッチパネルコントローラから入力される前記タッチデータを所定の形式に変換して前記通信部に対して出力するタッチデータ変換部と、を備えると、好ましい。
 この操作端末によれば、通信部と通信機器とが画像データ及びタッチデータを通信する際に、画像データに応じた画像の表示及びタッチデータの生成と、通信に伴う画像データ及びタッチデータのそれぞれの変換と、のそれぞれを相互に独立して行うことが可能になる。
 さらに、上記特徴の操作端末は、外面にI/O(Input/Output)端子が設けられず、前記通信部は無線通信のみを行うこととすると、好ましい。
 この操作端末によれば、通信機器との通信機能は確保しつつ、水分の進入が懸念されるI/O端子を外面に設けないため、容易かつ低コストで当該操作端末を防水仕様にすることが可能になる。
 さらに、上記特徴の操作端末は、前記通信部が、
 前記通信機器から前記画像データを受信する画像データ通信部と、
 前記通信機器に対して前記タッチデータを送信するタッチデータ通信部と、
 から成ると、好ましい。
 この操作端末によれば、画像データの受信及びタッチデータの送信を、同時に行うことが可能になる。そのため、例えば画像データの受信及びタッチデータの送信を時分割で行う場合と比較して、高速で画像データの受信及びタッチデータの送信を行うことが可能になる。
 さらに、上記特徴の操作端末は、前記画像データ通信部による前記画像データの通信方式と、前記タッチデータ通信部による前記タッチデータの通信方式と、が異なると、好ましい。
 この操作端末によれば、画像データ及びタッチデータのそれぞれの特性に応じて、適切な通信方式を用いて通信を行うことが可能になるとともに、混信を抑制することが可能になる。
 さらに、上記特徴の操作端末は、前記画像データ通信部による前記画像データの通信方式が、WHDI(Wireless Home Digital Interface)、WiHD(Wireless High Definition)または無線LAN(Local Area Network)であると、好ましい。
 この操作端末によれば、データ容量が大きくなり得る画像データであっても、高速で通信することが可能になる。特に、WHDIやWiHDを採用すれば、画像データを非圧縮で通信することが可能になる。
 さらに、上記特徴の操作端末は、前記タッチデータ通信部による前記タッチデータの通信方式が、無線LAN、WUSB(Wireless Universal Serial Bus)またはBluetooth(登録商標)であると、好ましい。
 この操作端末によれば、データ容量が小さくなり得るタッチデータを、簡易的な通信方式で通信することが可能になる。
 さらに、上記特徴の操作端末は、複数の前記通信機器の中から前記通信部が通信すべき前記通信機器を選択し、当該通信機器と通信を行うように前記通信部を制御する通信機器選択制御部を、さらに備えると、好ましい。
 この操作端末によれば、複数の通信機器が存在している場合において、所望の通信機器を選択的に操作したり、操作対象の通信機器を切り替えたりすることが可能になる。
 さらに、上記特徴の操作端末は、前記通信機器が、前記通信部が送信した前記タッチデータを受信し、当該タッチデータに応じて前記画像データを生成し、当該画像データを前記通信部に対して送信するサーバであると、好ましい。
 この操作端末によれば、アプリケーション等を実行し得るサーバに対して、直接的に通信することが可能になる。
 さらに、上記特徴の操作端末は、前記通信機器が、前記通信部が送信した前記タッチデータを受信するとともに当該タッチデータをサーバに対して送信し、当該サーバが前記タッチデータに応じて生成して送信した前記画像データを受信するとともに当該画像データを前記通信部に対して送信するルータであると、好ましい。
 この操作端末によれば、直接的な通信可能範囲内に操作対象のサーバが存在しない場合であっても、ルータを介することで当該サーバを操作することが可能になる。
 上記特徴の操作端末によれば、入力処理系統及び出力処理系統が独立して処理を行うことで極めて簡素な構成を実現するとともに、タッチパネルを採用することで優れた操作性を得ることができる。
本発明の第1実施形態に係る操作端末の概略構成例について示すブロック図。 本発明の第2実施形態に係る操作端末の概略構成例について示すブロック図。 本発明の第3実施形態に係る操作端末の概略構成例について示すブロック図。 本発明の第4実施形態に係る操作端末の概略構成例について示すブロック図。 本発明の第5実施形態に係る操作端末の概略構成例について示すブロック図。
 以下、本発明の第1~第5実施形態に係る操作端末について、図面を参照して説明する。なお、それぞれの実施形態に係る操作端末は、矛盾がない限り部分的に組み合わせて実施することが可能である。
<第1実施形態>
 最初に、本発明の第1実施形態に係る操作端末の構成について、図1を参照して説明する。図1は、本発明の第1実施形態に係る操作端末の概略構成例について示すブロック図である。
 図1に示すように、本発明の第1実施形態に係る操作端末1Aは、表示面11に画像を表示する表示装置10と、表示装置10の表示面11に接触または近接する指示体(例えば、指やスタイラスなど。以下同じ。)を検出するタッチパネル20と、入力される画像データに応じた画像を表示装置10の表示面11に表示させる入力処理系統30と、タッチパネル20による指示体の検出結果に応じたタッチデータを生成する出力処理系統40と、外部のサーバS(通信機器)から画像データを受信するとともに当該サーバSに対してタッチデータを送信する通信部50と、を備える。
 入力処理系統30は、通信部50から入力される画像データを所定の形式に変換して出力する画像データ変換部31と、画像データ変換部31から入力される画像データに応じた画像を表示装置10の表示面11に表示させる画像コントローラ32と、を備える。一方、出力処理系統40は、タッチパネル20から入力される指示体の検出結果に応じてタッチデータを生成し出力するタッチパネルコントローラ41と、タッチパネルコントローラ41から入力されるタッチデータを所定の形式に変換して通信部50に対して出力するタッチデータ変換部42と、を備える。
 表示装置10は、例えば液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイなどから成り、その表示面11に画像を表示する。なお、表示装置10の表示面11に表示される画像は、動画像であってもよいし静止画像であってもよい。
 タッチパネル20は、例えば静電容量方式や光学式などの任意の検出方式で、表示装置10の表示面11に接触または近接する指示体を検出する。なお、図1~図5では、模式的にタッチパネル20が表示装置10の表示面11上に形成されている(オンセル型である)かのように図示しているが、タッチパネル20は表示装置10の表示面11の内部に形成されてもよい(インセル型であってもよい)。また、例えば光学式のタッチパネル20の場合、受光センサや光源などを、表示装置10の表示面11の端部に設けてもよい。
 画像データ変換部31は、通信部50から入力される画像データを、画像コントローラ32が処理可能な形式に変換する。具体的に例えば、画像データ変換部31は、通信部50がサーバSから受信する画像データが圧縮されたり暗号化されたりしている場合、当該画像データを伸張したり復号化したりする。
 画像コントローラ32は、画像データ変換部31から入力される画像データに応じて、表示装置10を駆動する駆動信号を生成して、表示装置10に対して出力する。具体的に例えば、表示装置10が一般的な液晶ディスプレイである場合、画像コントローラ32は、表示装置10(液晶ディスプレイ)が備えるソースドライバ及びゲートドライバの入力フォーマットに準拠した駆動信号を生成し、表示装置10に対して出力する。なお、画像コントローラ32は、表示装置10の一部として解釈することもできる。
 タッチパネルコントローラ41は、タッチパネル20から入力される検出信号に基づいて、タッチデータを生成する。具体的に例えば、タッチパネルコントローラ41は、表示面11に指示体が接触及び近接していない状態における検出信号を記憶し、記憶した当該検出信号とタッチパネル20から入力される検出信号とを順次比較することで、表示面11に接触または近接する指示体の有無を判定し、表示面11に接触または近接する指示体が存在する場合はその位置や数などを得る。そして、タッチパネルコントローラ41は、得られた結果をタッチデータとして出力する。なお、タッチパネルコントローラ41は、表示面11に接触または近接する指示体が存在する場合だけでなく、このような指示体が存在しない場合にもタッチデータを生成し出力してもよい。
 タッチデータ変換部42は、タッチパネルコントローラ41から入力されるタッチデータを、通信部50が通信可能な形式に変換する。具体的に例えば、タッチデータ変換部42は、通信部50が圧縮されたり暗号化されたりしているタッチデータをサーバSに対して送信する場合、タッチパネルコントローラ41から入力されるタッチデータを圧縮したり暗号化したりする。
 通信部50は、サーバSに対してタッチデータを送信するとともに、サーバSから画像データを受信する。具体的に例えば、通信部50は、WHDI、WiHD、無線LAN、WUSB、Bluetooth(登録商標)などの公知の通信方式を採用して、サーバSと通信を行う。なお、通信部50が、上記のような無線通信に加えて(または代えて)、有線通信を採用し得る構成であってもよい。また、通信部50が採用し得る通信方式が、複数存在してもよい。
 サーバSは、例えばスマートフォンやパソコンなどの電子機器から成り、他の電子機器と通信するための通信機能を備える。また、サーバSは、例えばCPUやメモリ、ストレージなどを備えるとともにOSによって動作が制御され、様々なアプリケーションを実行し得る。なお、サーバSは、スマートフォンやパソコンなどの用途(換言すると、実行可能なアプリケーションの種類)が多岐にわたる電子機器に限られるものではなく、チューナやレコーダなど、用途が限定的である電子機器であってもよい。また、サーバSが、上記のような無線通信に加えて(または代えて)、有線通信を採用し得る構成であってもよい。また、サーバSが採用し得る通信方式が、複数存在してもよい。
 次に、操作端末1A及びサーバSの一連の動作について、引き続き図1を参照して説明する。
 操作端末1Aが動作を開始すると、最初に、通信部50が所定の通信方式でサーバSを探索する。サーバSが、当該通信方式による通信が可能であれば、通信部50はサーバSを発見して、当該サーバSと通信して認証処理を行う。
 認証処理が成功すると、通信部50は、サーバSとの接続を確立して、サーバSが送信した画像データを受信するとともに、サーバSに対してタッチデータを送信する。なお、認証処理が失敗すると、通信部50は、サーバSとの通信を確立することができなくなる。例えばこのとき、通信部50が接続の失敗を通知する信号を出力して、画像コントローラ14が当該信号に応じて表示装置10の表示面11にエラーメッセージ等を表示させてもよい。
 認証処理の成功後、サーバSは、通信部50が送信するタッチデータを受信するとともに、当該タッチデータに応じてアプリケーションを実行するなどの動作を行う。そして、サーバSは、その動作結果である画像(具体的に例えば、スマートフォンであるサーバSが、当該タッチデータが示す操作を直接的にされた場合に、当該スマートフォンの画面に表示される画像)の画像データを生成し、通信部50に対して送信する。
 通信部50は、サーバSから画像データを受信して、画像データ変換部31に対して出力する。画像データ変換部31は、入力される画像データを所定の形式に変換して、画像データコントローラ13に対して出力する。画像データコントローラ13は、入力された画像データに応じた画像を、表示装置10の表示面11に表示させる。
 ユーザは、表示装置10の表示面11に表示される画像を確認して、タッチパネル20を操作する(表示装置10の表示面11に対して指示体を接触または近接させる)。これにより、タッチパネル20が、表示装置10の表示面11に対して接触または近接する指示体を検出し、その検出結果をタッチパネルコントローラ41に対して出力する。タッチパネルコントローラ41は、入力される指示体の検出結果を示すタッチデータを生成して、タッチデータ変換部42に対して出力する。タッチデータ変換部42は、入力されるタッチデータを所定の形式に変換して、通信部50に対して出力する。そして、通信部50は、入力されるタッチデータをサーバSに対して送信する。
 このように、操作端末1Aは、通信部50とサーバSとが画像データ及びタッチデータを通信する際に、画像データに応じた画像の表示及びタッチデータの生成と、通信に伴う画像データ及びタッチデータのそれぞれの変換と、のそれぞれを相互に独立して行うことができる。
 また、通信部50は、サーバSが送信する画像データを正しく受信できなかった場合、サーバSに対して再送信を要求する旨の信号を送信する。サーバSは、再送信を要求する旨の信号を受信すると、通信部50に対して画像データを再送信する。反対に、サーバSは、通信部50が送信するタッチデータを正しく受信できなかった場合、通信部50に対して再送信を要求する旨の信号を送信する。通信部50は、再送信を要求する旨の信号を受信すると、サーバSに対してタッチデータを再送信する。
 以上のように、操作端末1Aでは、通信部50とサーバSとが画像データ及びタッチデータを通信する際に、画像データ及びタッチデータのそれぞれが、入力処理系統30及び出力処理系統40で相互に独立して処理される。そのため、画像データやタッチデータを管理するためのOSを、不要にすることができる。したがって、低コストで迅速に画像データ及びタッチデータを処理することが可能になる。
 さらに、操作端末1Aでは、入力装置としてタッチパネル20を採用している。そのため、ユーザは、操作端末1Aを用いてタッチパネルを採用しているサーバS(例えば、スマートフォン)を操作する場合に、当該サーバSを直接操作しているかのような優れた操作性を得ることができる。
 したがって、操作端末1Aは、入力処理系統30及び出力処理系統40が独立して処理を行うことで極めて簡素な構成を実現するとともに、タッチパネル20を採用することで優れた操作性を得ることができる。
 なお、通信部50及びサーバSが、画像データ及びタッチデータを時分割で通信すると、混信を抑制しつつ同一通信路を使用して通信を行うことができるため、好ましい。また、このように同一通信路を使用してデータを時分割で通信する場合に適した通信方式として、例えば無線LANが挙げられる。
<第2実施形態>
 次に、本発明の第2実施形態に係る操作端末について、図2を参照して説明する。図2は、本発明の第2実施形態に係る操作端末の概略構成例について示すブロック図である。なお、図2は、本発明の第1実施形態に係る操作端末1Aについて示した図1と対応するものであり、図2に示す本発明の第2実施形態に係る操作端末1Bおいて、図1に示した本発明の第1実施形態に係る操作端末1Aと同様である部分については、同じ符号を付している。
 図2に示すように、本発明の第2実施形態に係る操作端末1Bは、表示装置10と、タッチパネル20と、入力処理系統30(画像データ変換部31、画像コントローラ32)と、出力処理系統40(タッチパネルコントローラ41、タッチデータ変換部42)と、サーバSから画像データを受信するとともに当該画像データを入力処理系統30(特に、画像データ変換部31)に対して出力する画像データ通信部51と、出力処理系統40(特に、タッチデータ変換部42)から入力されるタッチデータをサーバSに対して送信するタッチデータ通信部52と、を備える
 操作端末1Bは、画像データ通信部51及びタッチデータ通信部52を備える点において、図1に示した操作端末1Aと相違する。なお、これ以外の構成や動作、得られる効果については、操作端末1B及び操作端末1Aにおいて同様であるため、以下では説明を省略する。
 操作端末1Bは、画像データ通信部51及びタッチデータ通信部52を備えることにより、画像データの受信及びタッチデータの送信を、同時に行うことが可能になる。そのため、例えば上述のように画像データの受信及びタッチデータの送信を時分割で行う場合と比較して、高速で画像データの受信及びタッチデータの送信を行うことが可能になる。
 なお、操作端末1Bにおいて、画像データ通信部51による画像データの通信方式と、タッチデータ通信部52によるタッチデータの通信方式と、が異なると、好ましい。この場合、画像データ及びタッチデータのそれぞれの特性に応じて、適切な通信方式を用いて通信を行うことが可能になるとともに、混信を抑制することが可能になる。ただし、サーバSが、少なくとも画像データ通信部51及びタッチデータ通信部52のそれぞれの通信方式に対応している必要がある。
 具体的に例えば、画像データ通信部51による画像データの通信方式は、WHDI、WiHDまたは無線LANであると、好ましい。これらの通信方式を採用することで、データ容量が大きくなり得る画像データであっても、高速で通信することが可能になる。特に、WHDIやWiHDを採用すれば、画像データを非圧縮で通信することが可能になる。
 また例えば、タッチデータ通信部52によるタッチデータの通信方式は、無線LAN、WUSBまたはBluetooth(登録商標)であると、好ましい。これらの通信方式を採用することで、データ容量が小さくなり得るタッチデータを、簡易的な通信方式で通信することが可能になる。
<第3実施形態>
 次に、本発明の第3実施形態に係る操作端末について、図3を参照して説明する。図3は、本発明の第3実施形態に係る操作端末の概略構成例について示すブロック図である。なお、図3は、本発明の第1実施形態に係る操作端末1Aについて示した図1と対応するものであり、図3に示す本発明の第3実施形態に係る操作端末1Cおいて、図1に示した本発明の第1実施形態に係る操作端末1Aと同様となる部分については、同じ符号を付すとともにその詳細な説明については省略する。
 図3に示すように、本発明の第3実施形態に係る操作端末1Cは、表示装置10と、タッチパネル20と、入力処理系統30(画像データ変換部31、画像コントローラ32)と、出力処理系統40(タッチパネルコントローラ41、タッチデータ変換部42)と、通信部50と、複数のサーバS1~Sn(nは2以上の自然数)の中から通信部50が通信すべきサーバS1を選択して当該サーバS1と通信を行うように通信部50を制御する通信機器選択制御部60と、を備える
 操作端末1Cは、通信機器選択制御部60を備える点において、図1に示した操作端末1Aと相違する。なお、これ以外の構成や動作、得られる効果については、操作端末1C及び操作端末1Aにおいて同様であるため、以下では説明を省略する。
 例えば、通信機器選択制御部60は、画像コントローラ32を制御して、表示装置10の表示面11に選択画面等を表示させることにより、複数のサーバS1~Snの中から接続すべきサーバS1をユーザに選択させる。ユーザが、接続すべきサーバS1を選択すべくタッチパネル20を操作すると、その操作内容を示したタッチデータがタッチパネルコントローラ41によって生成されて通信機器選択制御部60に入力される。通信機器選択制御部60は、入力される当該タッチデータに基づいて選択すべきサーバS1を認識し、通信部50が当該サーバS1と通信するように、通信部50を制御する。なお、ここで説明した制御方法は一例に過ぎず、通信機器選択制御部60はどのような方法で通信部50を制御してもよい。
 操作端末1Cは、通信機器選択制御部60を備えることにより、複数のサーバS1~Snが存在している場合において、所望のサーバS1を選択的に操作したり、操作対象のサーバS1を切り替えたりすることが可能になる。
<第4実施形態>
 次に、本発明の第4実施形態に係る操作端末について、図4を参照して説明する。図4は、本発明の第4実施形態に係る操作端末の概略構成例について示すブロック図である。なお、図4は、本発明の第1実施形態に係る操作端末1Aについて示した図1と対応するものであり、図4に示す本発明の第4実施形態に係る操作端末1Dおいて、図1に示した本発明の第1実施形態に係る操作端末1Aと同様となる部分については、同じ符号を付すとともにその詳細な説明については省略する。
 図4に示すように、本発明の第4実施形態に係る操作端末1Dは、表示装置10と、タッチパネル20と、画像コントローラ32及びタッチパネルコントローラ41の機能を実現する共通コントローラ70と、画像データ変換部31及びタッチデータ変換部42の機能を実現する共通データ変換部80と、通信部50と、を備える
 操作端末1Dは、画像コントローラ32及びタッチパネルコントローラ41に相当する共通コントローラ70と、画像データ変換部31及びタッチデータ変換部42に相当する共通データ変換部80と、を備える点において、図1に示した操作端末1Aと相違する。なお、これ以外の構成や動作、得られる効果については、操作端末1D及び操作端末1Aにおいて同様であるため、以下では説明を省略する。
 この操作端末1Dのように、画像コントローラ32及びタッチパネルコントローラ41や、画像データ変換部31及びタッチデータ変換部42をハードウェア的に共通化したとしても、相互に独立した入力処理系統30及び出力処理系統40によって画像データ及びタッチデータを処理する限り、本発明の第1実施形態に係る操作端末1Aと同様の効果を得ることができる。
<第5実施形態>
 次に、本発明の第5実施形態に係る操作端末について、図5を参照して説明する。図5は、本発明の第5実施形態に係る操作端末の概略構成例について示すブロック図である。なお、図5は、本発明の第1実施形態に係る操作端末1Aについて示した図1と対応するものであり、図5に示す本発明の第5実施形態に係る操作端末1Eおいて、図1に示した本発明の第1実施形態に係る操作端末1Aと同様となる部分については、同じ符号を付すとともにその詳細な説明については省略する。
 図5に示すように、本発明の第5実施形態に係る操作端末1Eは、表示装置10と、タッチパネル20と、入力処理系統30(画像データ変換部31、画像コントローラ32)と、出力処理系統40(タッチパネルコントローラ41、タッチデータ変換部42)と、通信部50と、を備える。ただし、通信部50はルータR(通信機器)と通信する。
 操作端末1Eは、通信部50がサーバSではなくルータRと通信する点において、図1に示した操作端末1Aと相違する。なお、これ以外の構成や動作、得られる効果については、操作端末1E及び操作端末1Aにおいて同様であるため、以下では説明を省略する。
 ルータRは、通信部50が送信したタッチデータを受信して、当該タッチデータをサーバSに対して送信する。サーバSは、受信した当該タッチデータに応じて画像データを生成して、ルータRに対して送信する。ルータRは、受信した当該画像データを通信部50に対して送信する。
 操作端末1Eは、通信部50がルータRと通信することにより、直接的な通信可能範囲内に操作対象のサーバSが存在しない場合であっても、ルータRを介することで当該サーバSを操作することが可能になる。
<変形等>
 通信部50や画像データ通信部51、タッチデータ通信部52が無線通信のみを行い、操作端末1A~1Eの外面にI/O端子が設けられない構成にすると、好ましい。このように構成すると、通信機器(サーバSやルータRなど)との通信機能は確保しつつ、水分の進入が懸念されるI/O端子を外面に設けないことになるため、容易かつ低コストで操作端末1A~1Eを防水仕様にすることが可能になる。
 本発明の操作端末は、スマートフォンやパソコンなどを遠隔操作する操作端末に、好適に利用され得る。
 1A~1E   : 操作端末
 10  : 表示装置
 11  : 表示面
 20  : タッチパネル
 30  : 入力処理系統
 31  : 画像データ変換部
 32  : 画像コントローラ
 40  : 出力処理系統
 41  : タッチパネルコントローラ
 42  : タッチデータ変換部
 50  : 通信部
 51 : 画像データ通信部
 52 : タッチデータ通信部
 60  : 通信機器選択制御部
 70  : 共通コントローラ
 80  : 共通データ変換部
 S,S1~Sn : サーバ(通信機器)
 R   : ルータ(通信機器)

Claims (10)

  1.  表示面に画像を表示する表示装置と、
     前記表示装置の前記表示面に接触または近接する指示体を検出するタッチパネルと、
     入力される画像データに応じた画像を前記表示装置の前記表示面に表示させる入力処理系統と、
     前記タッチパネルによる前記指示体の検出結果に応じたタッチデータを生成する出力処理系統と、
     外部の通信機器から前記画像データを受信するとともに、当該通信機器に対して前記タッチデータを送信する通信部と、を備え、
     前記通信部と前記通信機器とが前記画像データ及び前記タッチデータを通信する際に、前記入力処理系統及び前記出力処理系統が、相互に独立した処理を行うことを特徴とする操作端末。
  2.  前記入力処理系統が、
     前記通信部から入力される前記画像データを所定の形式に変換して出力する画像データ変換部と、
     前記画像データ変換部から入力される前記画像データに応じた画像を前記表示装置の前記表示面に表示させる画像コントローラと、を備え、
     前記出力処理系統が、
     前記タッチパネルから入力される前記指示体の前記検出結果に応じて前記タッチデータを生成し出力するタッチパネルコントローラと、
     前記タッチパネルコントローラから入力される前記タッチデータを所定の形式に変換して前記通信部に対して出力するタッチデータ変換部と、を備えることを特徴とする請求項1に記載の操作端末。
  3.  外面にI/O(Input/Output)端子が設けられず、前記通信部は無線通信のみを行うことを特徴とする請求項1または2に記載の操作端末。
  4.  前記通信部が、
     前記通信機器から前記画像データを受信する画像データ通信部と、
     前記通信機器に対して前記タッチデータを送信するタッチデータ通信部と、
     から成ることを特徴とする請求項1~3のいずれか1項に記載の操作端末。
  5.  前記画像データ通信部による前記画像データの通信方式と、前記タッチデータ通信部による前記タッチデータの通信方式と、が異なることを特徴とする請求項4に記載の操作端末。
  6.  前記画像データ通信部による前記画像データの通信方式が、WHDI(Wireless Home Digital Interface)、WiHD(Wireless High Definition)または無線LAN(Local Area Network)であることを特徴とする請求項4または5に記載の操作端末。
  7.  前記タッチデータ通信部による前記タッチデータの通信方式が、無線LAN、WUSB(Wireless Universal Serial Bus)またはBluetooth(登録商標)であることを特徴とする請求項4~6のいずれか1項に記載の操作端末。
  8.  複数の前記通信機器の中から前記通信部が通信すべき前記通信機器を選択し、当該通信機器と通信を行うように前記通信部を制御する通信機器選択制御部を、さらに備えることを特徴とする請求項1~7のいずれか1項に記載の操作端末。
  9.  前記通信機器が、前記通信部が送信した前記タッチデータを受信し、当該タッチデータに応じて前記画像データを生成し、当該画像データを前記通信部に対して送信するサーバであることを特徴とする請求項1~8のいずれか1項に記載の操作端末。
  10.  前記通信機器が、前記通信部が送信した前記タッチデータを受信するとともに当該タッチデータをサーバに対して送信し、当該サーバが前記タッチデータに応じて生成して送信した前記画像データを受信するとともに当該画像データを前記通信部に対して送信するルータであることを特徴とする請求項1~8のいずれか1項に記載の操作端末。
PCT/JP2012/079252 2012-01-17 2012-11-12 操作端末 WO2013108470A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012006671 2012-01-17
JP2012-006671 2012-01-17

Publications (1)

Publication Number Publication Date
WO2013108470A1 true WO2013108470A1 (ja) 2013-07-25

Family

ID=48798907

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/079252 WO2013108470A1 (ja) 2012-01-17 2012-11-12 操作端末

Country Status (1)

Country Link
WO (1) WO2013108470A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015111444A1 (ja) * 2014-01-23 2015-07-30 アプリックスIpホールディングス株式会社 無線通信システム、通信端末、セキュリティ管理サーバ、機器管理サーバおよびそれらにおける無線通信方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008312153A (ja) * 2007-06-18 2008-12-25 Pioneer Electronic Corp Av機器の操作制御システム
JP2010237816A (ja) * 2009-03-30 2010-10-21 Nec Personal Products Co Ltd サーバ装置、クライアント装置、クライアントサーバシステム、画像出力方法及びプログラム
JP2011176591A (ja) * 2010-02-24 2011-09-08 Nec Corp 携帯端末を用いた無線通信システム
JP2011244438A (ja) * 2010-04-19 2011-12-01 Dap Realize Co Ltd タッチパネル手段を備える携帯情報処理装置及び該携帯情報処理装置用プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008312153A (ja) * 2007-06-18 2008-12-25 Pioneer Electronic Corp Av機器の操作制御システム
JP2010237816A (ja) * 2009-03-30 2010-10-21 Nec Personal Products Co Ltd サーバ装置、クライアント装置、クライアントサーバシステム、画像出力方法及びプログラム
JP2011176591A (ja) * 2010-02-24 2011-09-08 Nec Corp 携帯端末を用いた無線通信システム
JP2011244438A (ja) * 2010-04-19 2011-12-01 Dap Realize Co Ltd タッチパネル手段を備える携帯情報処理装置及び該携帯情報処理装置用プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015111444A1 (ja) * 2014-01-23 2015-07-30 アプリックスIpホールディングス株式会社 無線通信システム、通信端末、セキュリティ管理サーバ、機器管理サーバおよびそれらにおける無線通信方法
CN105900373A (zh) * 2014-01-23 2016-08-24 亚普知识产权控股有限公司 无线通信系统、通信终端、安全管理服务器、设备管理服务器

Similar Documents

Publication Publication Date Title
US10798544B2 (en) Method for exchanging data with in-vehicle infotainment, server, mobile terminal, and apparatus
US10298997B2 (en) Methods for uploading file to television set and playing file, television set and user equipment
WO2018006841A1 (zh) 二维码信息传输方法、装置以及设备
US9401969B2 (en) Information processing system, information processing apparatus, and administration server
WO2015043361A1 (en) Methods, devices, and systems for completing communication between terminals
WO2015024391A1 (zh) 一种对网络电视终端进行无线控制的方法以及设备
WO2015143900A1 (zh) 网络会议中进行数据共享的方法、装置及系统
US20150304336A1 (en) Multi-screen interaction method of multimedia resource and terminal device
WO2022252882A1 (zh) 浏览器网页防劫持的方法、装置、电子设备及存储介质
WO2013149530A1 (zh) 显示信息的方法、移动终端和计算机可读存储介质
WO2014206138A1 (zh) 一种更新网页数据的方法、装置和终端设备
US20210127279A1 (en) Method of controlling radio resource management measurement of neighboring cell, mobile communication terminal, and network side device
CN107071035A (zh) 移动终端远程控制方法、装置及相应的移动终端
JP2013157969A (ja) 携帯端末装置及びデータ送受信システム
EP3704861B1 (en) Networked user interface back channel discovery via wired video connection
JP5696563B2 (ja) 情報処理装置、画面更新方法、画面更新プログラム、および情報処理システム
CN105631059B (zh) 数据处理方法、数据处理装置及数据处理系统
US20140104183A1 (en) Method and device for controlling at least one apparatus by at least one other apparatus, system implementing such a device
JP2015102742A (ja) 画像処理装置及び画像処理方法
CN105703808A (zh) 一种传输数据的方法和装置
WO2013108470A1 (ja) 操作端末
JP6034709B2 (ja) 端末装置、外部表示装置及び端末装置と外部表示装置とからなる情報システム
WO2015067206A1 (zh) 一种文件查找的方法及终端
JP6333434B1 (ja) 画面データ中継サーバ、画面データ中継プログラム、及び画面データ中継方法
US10073611B2 (en) Display apparatus to display a mirroring screen and controlling method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12865817

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12865817

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP