WO2016059737A1 - 画面生成装置、画面生成システム、及び、画面生成方法 - Google Patents

画面生成装置、画面生成システム、及び、画面生成方法 Download PDF

Info

Publication number
WO2016059737A1
WO2016059737A1 PCT/JP2015/003350 JP2015003350W WO2016059737A1 WO 2016059737 A1 WO2016059737 A1 WO 2016059737A1 JP 2015003350 W JP2015003350 W JP 2015003350W WO 2016059737 A1 WO2016059737 A1 WO 2016059737A1
Authority
WO
WIPO (PCT)
Prior art keywords
operation signal
screen generation
terminals
touch
determination unit
Prior art date
Application number
PCT/JP2015/003350
Other languages
English (en)
French (fr)
Inventor
伊藤 智祥
影山 光宏
力 福田
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2016553950A priority Critical patent/JPWO2016059737A1/ja
Priority to EP15851388.7A priority patent/EP3208694A4/en
Publication of WO2016059737A1 publication Critical patent/WO2016059737A1/ja
Priority to US15/251,412 priority patent/US20160370885A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/38Creation or generation of source code for implementing user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/452Remote windowing, e.g. X-Window System, desktop virtualisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/75Indicating network or usage conditions on the user display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0382Plural input, i.e. interface arrangements in which a plurality of input device of the same type are in communication with a PC

Definitions

  • This disclosure makes it possible to receive operations by a plurality of client terminals at the server and to operate one desktop of the server at each client terminal in desktop virtualization formed by the screen generation server and the client terminal.
  • FIG. 1 is a schematic diagram of a screen generation system using a screen generation server and a client terminal.
  • FIG. 2 is a block diagram illustrating a configuration of a screen generation system including a screen generation server and a client terminal according to the first embodiment.
  • FIG. 3 is a diagram illustrating a list of touch operation signals used in the screen generation system.
  • FIG. 4 is a diagram showing a list of mouse operation signals used in the screen generation system.
  • FIG. 5 is a diagram illustrating a conversion table between touch operation signals and mouse operation signals.
  • FIG. 6A is a diagram illustrating a touch operation signal transfer method.
  • FIG. 6B is a diagram illustrating a touch operation signal transfer method.
  • FIG. 7 is a diagram illustrating advantages and disadvantages of each method of touch operation signal transfer.
  • FIG. 1 is a schematic diagram of a screen generation system using a screen generation server and a client terminal.
  • FIG. 2 is a block diagram illustrating a configuration of a screen generation system including a screen
  • FIG. 1 is a schematic diagram of a screen generation system using a screen generation server and a client terminal that performs desktop virtualization.
  • the screen generation system shown in FIG. 1 displays HTML content obtained by combining a large number of videos on the desktop screen of the screen generation server 10 using a browser, and integrates it into a single video stream to display a large display 200.
  • it is configured to distribute to various client terminals 20 such as the smartphone 300 and the tablet 400. In this way, by integrating a large number of videos into a single video stream and delivering them, the client terminal 20 can display HTML content combining a number of videos that cannot be reproduced and displayed.
  • the client terminal 20 reproduces / displays the rendered video of the HTML content 110 transmitted from the screen generation server 10.
  • the client terminal 20 includes an encoded data receiving unit 21, a video decoding unit 22, a display unit 23, a touch panel 24, and an operation signal transmission unit 25.
  • an encoded data receiving unit 21 a video decoding unit 22
  • a display unit 23 a touch panel 24
  • an operation signal transmission unit 25 an operation signal transmission unit 25.
  • the operation signal conversion unit 17 converts the touch operation signal received from the operation type determination unit 16 into a mouse operation signal, and transmits the converted mouse operation signal to the browser 11. Details of the mouse operation signal and details of the conversion process will be described later.
  • the browser 11 (11a, 11b, 11c) draws a screen of content to be transmitted to each corresponding client terminal 20 (20a, 20b, 20c).
  • the browser 11 displays / reproduces the HTML content 110 existing on the network or accumulated in the screen generation server 10.
  • the browser 11 receives a mouse operation signal from the operation signal conversion unit 17 and performs an event issuance processing unit 18 that performs an event issuance process on the HTML content 110, and an operation type determination unit via a communication unit such as WebSocket.
  • a touch operation signal receiving unit 19 that directly receives a touch operation signal from 16 is provided.
  • the method 1 since the method 1 does not receive touch operation signals from other client terminals 20b and 20c while processing the touch operation of a certain client terminal 20a, the processing time such as swipe and pinch in / out is several seconds. It cannot be applied to operations that may extend.
  • one desktop screen of the screen generation server 10 is shared by four client terminals, but may be shared by two or more client terminals.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

 複数の端末からタッチ操作の第1操作信号を受信し、複数の端末の各々に対応したコンテンツを送信する画面生成装置であって、第1操作信号を受信する操作信号受信部と、第1操作信号の種別を判定する操作種別判定部と、第1操作信号をマウス操作の第2操作信号に変換する操作信号変換部と、操作種別判定部の判定結果に基づいて、第1操作信号、又は、第2操作信号で複数の端末に対応したコンテンツの画面を生成する複数のブラウザとを備える。これにより、複数のクライアント端末による操作をサーバで受信し、サーバの1つのデスクトップを各々のクライアント端末で操作することを可能とする。

Description

画面生成装置、画面生成システム、及び、画面生成方法
 本開示は、複数の端末からのタッチ操作信号を受信し、複数の端末の各々に対応したコンテンツを生成・送信する画面生成装置、画面生成システム、及び、画面生成方法に関する。
 運用の柔軟性や可用性、コストメリットの観点から、仮想化技術の急速な普及が進んでいる。仮想化技術とは、サーバなどのハードウェア内のリソース(CPU、メモリ、ディスク)を、物理的な構成にとらわれずに、論理的に統合・分割して利用可能とする技術である。このような仮想化技術の一つとして、特許文献1に開示されるように、従来クライアント端末で行っていたデスクトップ上の描画処理をサーバで実行し、その処理結果をクライアント端末に映像コンテンツとして送信するというデスクトップの仮想化技術がある。
国際特許公開第2012/133300号
 本開示は、画面生成サーバ及びクライアント端末により形成されるデスクトップ仮想化において、複数のクライアント端末による操作をサーバで受信し、サーバの1つのデスクトップを各々のクライアント端末で操作することを目的とする。
 本開示の画面生成装置は、複数の端末からタッチ操作の第1操作信号を受信し、複数の端末の各々に対応したコンテンツを送信する画面生成装置であって、第1操作信号を受信する操作信号受信部と、第1操作信号の種別を判定する操作種別判定部と、第1操作信号をマウス操作の第2操作信号に変換する操作信号変換部と、操作種別判定部の判定結果に基づいて、第1操作信号、又は、第2操作信号で複数の端末に対応したコンテンツの画面を生成する複数のブラウザとを備えるものである。
 本開示の画面生成システムは、複数の端末と、複数の端末からタッチ操作の第1操作信号を受信し、複数の端末の各々に対応したコンテンツを送信する画面生成装置を備える画面生成システムであって、複数の端末は、タッチパネルにより入力された第1操作信号の種別を判定する操作種別判定部と、第1操作信号と操作種別判定部の判定結果を画面生成装置に送信する操作信号送信部を備え、画面生成装置は、第1操作信号を受信する操作信号受信部と、第1操作信号をマウス操作の第2操作信号に変換する操作信号変換部と、操作種別判定部の判定結果に基づいて、第1操作信号、又は、第2操作信号で複数の端末に対応したコンテンツの画面を生成する複数のブラウザとを備えるものである。
 本開示の画面生成方法は、複数の端末からタッチ操作の第1操作信号を受信し、複数の端末の各々に対応したコンテンツを送信する画面生成方法であって、第1操作信号を受信し、第1操作信号の種別を判定し、判定結果に基づいて、第1操作信号、又は、第1操作信号を変換したマウス操作の第2操作信号で複数の端末に対応したコンテンツの画面を生成するものである。
 本開示は、画面生成サーバ及びクライアント端末により形成されるデスクトップ仮想化において、複数のクライアント端末による操作をサーバで受信し、サーバの1つのデスクトップを各々のクライアント端末で操作することを可能とする。
図1は、画面生成サーバ及びクライアント端末による画面生成システムの概略図である。 図2は、実施の形態1にかかる画面生成サーバ及びクライアント端末による画面生成システムの構成を示すブロック図である。 図3は、画面生成システムで使用するタッチ操作信号の一覧を示す図である。 図4は、画面生成システムで使用するマウス操作信号の一覧を示す図である。 図5は、タッチ操作信号とマウス操作信号の変換テーブルを示す図である。 図6Aは、タッチ操作信号の転送方式を示す図である。 図6Bは、タッチ操作信号の転送方式を示す図である。 図7は、タッチ操作信号転送の各方式の長所・短所を示す図である。 図8は、タッチ操作の種別の分類を表す図である。 図9は、操作種別判定部の処理フローを表すフローチャートである。 図10は、操作信号変換部の処理フローを表すフローチャートである。 図11は、実施の形態2にかかる画面生成サーバ及びクライアント端末による画面生成システムの構成を示すブロック図である。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
 (実施の形態1)
 [1.概略]
 図1は、デスクトップ仮想化を行う画面生成サーバ及びクライアント端末による画面生成システムの概略図である。図1に示す画面生成システムは、多数の映像を組合せたHTMLコンテンツを、ブラウザを用いて画面生成サーバ10のデスクトップ画面上に表示し、これを1本の映像ストリームに統合して、大型ディスプレイ200、スマートフォン300、タブレット400などの各種のクライアント端末20へ配信する構成としている。このように、多数の映像を1本の映像ストリームに統合して配信することで、クライアント端末20は再生表示できないほど多数の映像を組合せたHTMLコンテンツの表示が可能となる。
 また、画面生成システムは、クライアント端末20から画面生成サーバ10のデスクトップを操作可能とする。このとき、画面生成システムは、クライアント端末20でユーザのタッチ操作に基づいて受信したタッチ操作信号を画面生成サーバ10に送信し、画面生成サーバ10でそのタッチ操作信号を画面生成サーバ10のデスクトップに反映する。クライアント端末20が、スマートフォン300、タブレット400などのタッチパネルを有するデバイスであった場合、クライアント端末20は、画面生成サーバ10へタッチ操作に関するタッチ操作信号を送信する。このとき、画面生成サーバ10は、タッチ操作信号をデスクトップ上のマウス操作に関するマウス操作信号に変換することで、クライアント端末20から受信したタッチ操作信号をデスクトップに反映させることができる。
 画面生成サーバ10は、デスクトップ画面にスマートフォン300、タブレット400の画面よりも広い面積を確保することできる。そのため、画面生成サーバ10は、複数のクライアント端末向けのブラウザを同時に表示することができる。例えば、画面生成サーバ10のデスクトップ画面の解像度が3840×2160(4K解像度)で、クライアント端末20の画面の解像度が1920×1080(Full HD解像度)であったとする。このとき、画面生成サーバ10は、デスクトップ上に1920×1080の描画領域のブラウザを4つ重ならないように配置し、このデスクトップ画面をキャプチャした後にブラウザの描画領域をクリッピングする。そして、画面生成サーバ10は、クリッピングした各々のブラウザの描画領域の画像をエンコードした結果を、4つのブラウザの各々に対応する4つのクライアント端末に送信する。これにより、画面生成サーバ10の1つのデスクトップ画面を、4台のクライアント端末で共用することができる。
 画面生成サーバ10は、所定のオペレーティングシステムを動作させることにより、各種のアプリケーションを実行する。例えば、画面生成サーバ10は、オペレーティングシステムを動作させることにより、ブラウザ上でマウス操作を実行する。複数のクライアント端末20が同時に1つのオペレーティングシステムにより動作する画面生成サーバ10に接続される場合、従来はいずれか1台のクライアント端末がマウス操作を占有することになる。従って、画面生成サーバ10は、マウス操作を占有するクライアント端末20以外のクライアント端末20からのタッチ操作をマウス操作に変換することができない。
 そのため、画面生成サーバ10は、1つのデスクトップを利用して複数のクライアント端末20の画面イメージを生成する能力があるにもかかわらず、操作系の制約により1つのデスクトップに対して1台のクライアント端末20しか収容できないという課題がある。発明者らは、デスクトップ仮想化の開発の過程において本課題を認識し、その課題を解決する画面生成装置、画面生成システム、及び、画面生成方法を発案するに至った。以下では、本開示にかかる画面生成装置、画面生成、及び、画面生成方法システムの技術的思想を具現化した一例として、実施の形態1の詳細を説明する。
 [2.システム構成]
 図2は、実施の形態1にかかる画面生成サーバ10及び、クライアント端末20の構成を示すブロック図である。画面生成サーバ10は、複数のクライアント端末20と同時に接続することができる。以下の説明では、複数のクライアント端末20として、3台のクライアント端末20a、20b、20cが存在しているとする。
 まず、クライアント端末20の構成について説明する。クライアント端末20は、画面生成サーバ10から送信されるHTMLコンテンツ110の描画映像を再生・表示する。クライアント端末20は符号化データ受信部21、映像復号化部22、表示部23、タッチパネル24、操作信号送信部25を備える。以下、クライアント端末20の構成について説明する。
 符号化データ受信部21は、画面生成サーバ10とのネットワーク通信を行う通信モジュールである。符号化データ受信部21は、画面生成サーバ10より送信される映像符号化データを受信し、映像復号化部22へ映像データを送信する。
 映像復号化部22は、符号化データ受信部21より受信した映像符号化データを復号化し、映像データを復号化する復号化モジュールである。そして、映像復号化部22は、生成した映像データを表示部23に送信する。
 表示部23は、映像復号化部22から受信した映像データをクライアント端末20の利用者に対して表示する液晶ディスプレイなどの表示デバイスである。
 タッチパネル24は、クライアント端末20の利用者からのタッチ操作を入力し、操作信号送信部25へタッチ操作信号を送信する。タッチ操作信号の詳細については後述する。
 操作信号送信部25は、タッチパネル24から受信したタッチ操作信号を画面生成サーバ10に送信する通信モジュールである。
 続いて、画面生成サーバ10の構成について説明する。画面生成サーバ10は、複数のクライアント端末20a、20b、20cからの映像配信リクエストに応じて、複数のクライアント端末20a、20b、20cに各々の映像を配信する。また、画面生成サーバ10は、各クライアント端末20a、20b、20cのタッチ操作信号を受信し、各ブラウザ11a、11b、11cに反映する。ブラウザ11(11a、11b、11c)は、各々のクライアント端末20(20a、20b、20c)に対応する。
 画面生成サーバ10は、ブラウザ11(11a、11b、11c)、画面キャプチャ部12、映像符号化部13、符号化データ送信部14、操作信号受信部15、操作種別判定部16、操作信号変換部17の各ブロックを有する。以下、これらの構成について説明する。
 操作信号受信部15は、クライアント端末20から第1操作信号としてのタッチ操作信号を受信する通信モジュールである。操作信号受信部15は、受信したタッチ操作信号を操作種別判定部16に送信する。
 操作種別判定部16は、操作信号受信部15から受信したタッチ操作信号に基づいて、タッチ操作の種別(タップ、フリック、スワイプなど)を判定し、操作種別によってタッチ操作信号を操作信号変換部17又はブラウザ11に送信する。操作種別に基づいてタッチ操作信号の送信経路を選択する理由については後述する。
 操作信号変換部17は、操作種別判定部16から受信したタッチ操作信号をマウス操作信号へ変換し、ブラウザ11に変換後のマウス操作信号を送信する。マウス操作信号の詳細および変換処理の詳細は後述する。
 ブラウザ11(11a、11b、11c)は、対応する各クライアント端末20(20a、20b、20c)に送信するコンテンツの画面を描画する。そして、ブラウザ11は、ネットワーク上に存在する、或いは、画面生成サーバ10内に蓄積されたHTMLコンテンツ110を表示・再生する。また、ブラウザ11は、操作信号変換部17からマウス操作信号を受信してHTMLコンテンツ110に対してイベント発行処理を行うイベント発行処理部18と、WebSocketなどの通信手段を介して、操作種別判定部16からタッチ操作信号を直接受信するタッチ操作信号受信部19を有している。イベント発行処理は、ブラウザに表示されたHTMLコンテンツをマウスで操作(例えば、リンクのクリックなど)した際に、マウスで操作された座標(X,Y)の情報から、HTMLコンテンツ内のどの要素に対して操作イベント情報を送信するべきかを決定する、「座標⇒要素変換」処理である。また、ブラウザ11が操作信号の受信経路を2種類具備している理由については後述する。
 画面キャプチャ部12は、デスクトップをキャプチャし、キャプチャされた画面から各ブラウザ11a、11b、11cの表示領域をクリッピングする。そして、画面キャプチャ部12は、各クリッピング画像を映像符号化部13へ送信する。
 映像符号化部13は、画面キャプチャ部12から受信したクリッピング画像を映像として符号化し、符号化データ送信部14へ送信する符号化モジュールである。映像符号化部13は、各クライアント端末20a、20b、20c向けの映像符号化データを並行して生成する。
 符号化データ送信部14は、各クライアント端末20a、20b、20cへ符号化データを送信するネットワーク通信モジュールである。
 [3.タッチ操作信号]
 タッチ操作信号は、クライアント端末20の利用者のタッチ操作の内容をイベントと補足情報の組合せで表現したものである。図3に本開示の画面生成システムで使用するタッチ操作信号の一覧を示す。イベント「DOWN」は、タッチパネル24に接触物、例えば、指が接触した場合に発生する。イベント「DOWN」が発生したとき、指の接触位置の座標情報が補足情報として与えられる。イベント「MOVE」は、イベント「DOWN」発生後にタッチパネル24上を指が移動した場合に発生する。イベント「MOVE」が発生したとき、指の移動先の座標情報が補足情報として与えられる。イベント「UP」は、指がタッチパネル24から離脱した場合に発生する。イベント「UP」が発生したとき、指の離脱位置を表す座標情報が補足情報として与えられる。イベント「SCALE」は、イベント「DOWN」発生後に、指がタッチパネル24上をピンチイン/ピンチアウトした場合に発生する。イベント「SCALE」が発生したとき、拡大/縮小率を示す情報が補足情報として与えられる。イベント「ROTATE」は、イベント「DOWN」発生後に、指がタッチパネル24上を回転した場合に発生する。イベント「ROTATE」が発生したとき、回転角度を示す情報が補足情報として与えられる。
 [4.マウス操作信号]
 マウス操作信号は、マウス操作の内容をイベントと補足情報の組合せで表現したものである。図4に本開示の画面生成システムで使用するマウス操作信号の一覧を示す。イベント「LEFT_BUTTON_DOWN」は、マウスの左ボタンが押されたことを示す。イベント「LEFT_BUTTON_DOWN」が発生したとき、左ボタンが押されたときのマウスポインタの座標情報が補足情報として与えられる。イベント「MOVE」は、マウスが移動した際に発生する。イベント「MOVE」が発生したとき、マウスポインタの移動先の座標情報が補足情報として与えられる。イベント「LEFT_BUTTON_UP」は、マウスボタンが離される際に発生する。イベント「LEFT_BUTTON_UP」が発生したとき、マウスボタンが離された時点のマウスポインタの位置を表す座標情報が補足情報として与えられる。
 [5.タッチ操作信号とマウス操作信号の対応テーブル]
 図5は、操作信号変換部17が参照するタッチ操作信号とマウス操作信号の対応テーブルである。まず、操作信号変換部17は、図5のテーブルのタッチ操作信号のイベント欄を参照し、現在処理中のタッチ操作信号のイベントの行を選択する。次に、操作信号変換部17は、選択した行のマウス操作のイベントを参照し、送信するマウス操作信号のイベントを決定する。これにより、操作信号変換部17は、タッチ操作信号をマウス操作信号へと変換することができる。
 [6.タッチ操作信号の送信経路について]
 上述したように、1つのオペレーティングシステムにより動作する画面生成サーバ10に、複数のクライアント端末20が同時に接続される場合、従来はいずれか1台のクライアント端末20がマウス操作を占有することになる。従って、画面生成サーバ10は、マウス操作を占有するクライアント端末20以外のクライアント端末20からのタッチ操作をマウス操作に変換することができない。そこで、1つのデスクトップで複数のクライアント端末20のタッチ操作を受信可能にするために、図6A、図6Bに示す2つの方式のどちらかを使用することが考えられる。図6A、図6Bは、タッチ操作信号の転送方式を示す図である。
 図6Aは、指がタッチパネルに触れてから離れるまでをタッチ操作の1処理単位として、例えば、処理単位毎にマウス操作をクライアント端末20aが占有し、他のクライアント端末20b、20cからのタッチ操作入力を排他する方式1を示している。マウス操作を占有するクライアント端末20aからのタッチ操作信号は、マウス操作信号へと変換された後に、対応するブラウザ11aへと第1経路で送信される。
 一方、図6Bは、WebSocketなどを使用して、マウス操作を経由せずに、各クライアント端末20a、20b、20cからのタッチ操作信号を、対応するブラウザ11a、11b、11cへと第2経路で直接送信する方式2を示している。
 図7は、方式1及び方式2の長所・短所を比較した結果を示す。図7に記載している「座標⇒要素変換処理」は、タッチ操作の補足情報として送信される座標から、イベント発行対象のHTML要素を決定する処理である。方式1では、タッチ操作はブラウザをマウス操作した場合と同様に処理される。すなわち、この処理はブラウザにより行われる。一方、方式2では、ブラウザ上で動作しているJavaScript(登録商標)がタッチ操作のイベントを直接受信するため、「座標⇒要素変換処理」をJavaScript(登録商標)で実装しなければならない。この処理は、操作イベントが発生する都度、操作対象となる各要素に対して、イベント発行対象であるかを判定する処理を行うこととなる。そのため、操作対象要素が増えるほど処理負荷が大きくなる。従って、方式2は、処理対象の要素数が多い場合には適用が困難である。
 一方、方式1は、あるクライアント端末20aのタッチ操作を処理している最中には、他のクライアント端末20b、20cからのタッチ操作信号を受信しないため、スワイプ、ピンチイン/アウトといった処理時間が数秒にわたる可能性がある操作に対しては適用できない。
 このように、方式1、方式2ともに適用が困難なケースが存在するため、どちらか一方の方式で全てのタッチ操作を扱うことは難しい。そこで本開示の画面生成装置、画面生成システム、及び、画面生成方法では、タッチ操作を特性に応じて分類した上で、タッチ操作の種別に応じて、方式1、方式2の好適な方式を適用するハイブリッド方式を採用することとした。すなわち、操作種別判定部16は、クライアント端末20から受信したタッチ操作信号の種別に応じて、マウス操作経由でブラウザに送信する経路と、ブラウザ11に直接送信する経路の2種類を使い分ける。
 図8は、主なタッチ操作の種別の分類結果を示す。図8が示す分類結果の分類軸は、1)操作時間の長い/短い、及び、2)HTMLコンテンツにおいて操作対象要素の要素数が多い/少ないである。この分類によると、タッチ操作は、グループA、B、Cの3つのグループに分かれる。
 グループAに属するタッチ操作は、操作時間が短く、操作対象要素が画面上に多数存在するという特性を有する。グループAには、タップ操作、フリック操作が属する。例えば、タップ操作はタッチパネル24に接触してから離脱するまでの時間が100ミリ秒未満であり、操作時間が非常に短い。また、タップ操作の操作対象要素はリンクやリスト内のアイテムであり、画面内に多数の処理対象要素をもつケースがある。そのため、グループAに属するタッチ操作については、「座標⇒要素変換処理」を行うJavaScript(登録商標)の実装が困難である。従って、グループAに属するタッチ操作に対しては、方式2は不適であり、方式1が好適となる。
 グループBに属するタッチ操作は、操作時間が長く、画面内に操作対象となる要素の数が少ないという特性を有する。グループBには、スワイプ操作、ピンチ操作、ローテート操作が属する。例えば、スワイプ操作は、画面に接触してから離脱するまでの操作が数秒以上となる場合もあり、操作時間が長くなるケースがある。そのため、方式1による排他制御を行うと、タッチ操作信号が受理されないクライアント端末20が発生する可能性が高い。また、グループBに属するタッチ操作は、リストや画面全体をスクロールするなど、ある程度の広さの領域を持つ要素に対する操作であるため、操作対象を画面内に多数配置するケースはあまりない。そのため、グループBに属するタッチ操作については、「座標⇒要素変換処理」を行うJavaScript(登録商標)の実装が比較的容易である。従って、グループBに属するタッチ操作については、方式1は不適であり、方式2が好適となる。
 グループCに属するタッチ操作は、操作時間が長く、操作対象要素が多数存在するという特性を有する。グループCには、ロングタップが属する。ロングタップは、操作時間が長いケースがあるともに、操作対象要素が画面内に多数の処理対象要素をもつケースがある。従って、このグループCに属する操作は、方式1、方式2ともに不適である。このグループCに属するタッチ操作は、実施の形態1にかかるシステムでは利用できないが、このグループCに属する操作はロングタップのみである。この操作が使用不能であってもコンテンツ制作やユーザインタフェース設計への影響はほとんどないものと考える。なお、本開示は、グループCに属するタッチ操作を、排除するものではない。すなわち、グループCに属するタッチ操作については、設計思想に応じて、方式1或いは方式2を採用することとしてもよい。
 以上より、操作種別判定部16は、タッチ操作信号の操作種別を判定する。そして、操作種別判定部16は、グループAのタッチ操作であると判定した場合は、タッチ操作信号の送信を方式1(マウス操作信号に変換して送信)とし、グループBのタッチ操作であると判定した場合は、タッチ操作信号の送信を方式2(タッチ操作信号を直接送信)とする。これにより、各々の方式の短所を補って実用可能な操作処理を行うことができる。
 [7.操作種別判定部16の処理フロー]
 図9は、操作種別判定部16の動作を示すフローチャートである。まず、操作種別判定部16は、クライアント端末20からタッチ操作信号を受信する(ステップS101)。次に、操作種別判定部16は、受信したタッチ操作信号のイベントが「SCALE」又は「ROTATE」であるかを判定する(ステップS102)。タッチ操作信号が「SCALE」又は「ROTATE」であった場合(ステップS102におけるYes)、操作種別判定部16は、タッチ操作信号がピンチ又はローテートであると判定する(ステップS103)。ピンチ及びローテートは、グループBに属するタッチ操作であるので、操作種別判定部16は、方式2を採用しタッチ操作信号をブラウザ11へ送信し(ステップS104)、ステップS101へ戻る。
 ステップS102においてタッチ操作信号のイベントが「SCALE」又は「ROTATE」でない場合(ステップS102におけるNo)、操作種別判定部16は、タッチ操作信号が「DOWN」であるかを判定する(ステップS105)。タッチ操作信号が「DOWN」である場合(ステップS105におけるYes)、操作種別判定部16は、タッチ操作信号の送信経路が未確定である場合にタッチ操作信号を一旦保存しておくためのメモリのキュー内のタッチ操作信号を全削除する(ステップS106)。そして、操作種別判定部16は、ステップS101において受信したタッチ操作信号をメモリのキュー内に保存する(ステップS107)。続いて、操作種別判定部16は、イベント「DOWN」を受信したタイミングを管理するため、メモリに現在時刻を保存し(ステップS108)、ステップS101へ戻る。
 ステップS105においてタッチ操作信号が「DOWN」でない場合(ステップS105におけるNo)、操作種別判定部16は、ステップS108で記録された時刻情報と、現在時刻とに基づいて、イベント「DOWN」を受信してから所定時間(数十ミリ秒~数百ミリ秒を想定)が過ぎているかどうかを判定する(ステップS109)。所定時間を過ぎている場合(ステップS109におけるYes)、操作種別判定部16は、タッチ操作の種別はスワイプであると判定する(ステップS110)。スワイプは、グループBに属するタッチ操作であるので、操作種別判定部16は、方式2を採用する。そして、操作種別判定部16は、メモリのキュー内に存在するタッチ操作信号と、最新のタッチ操作信号をブラウザに直接送信し(ステップS111)、ステップS101へ戻る。
 ステップS109において所定時間を経過していない場合(ステップS109におけるNo)、操作種別判定部16は、タッチ操作信号のイベントが「UP」であるかを判定する(ステップS112)。タッチ操作信号が「UP」である場合(ステップS112におけるYes)、タッチ操作がタップ又はフリップであると判定する(ステップS113)。タップ及び、フリップは、グループAに属するタッチ操作であるので、操作種別判定部16は、方式1を採用する。そして、操作種別判定部16は、メモリのキュー内に存在するタッチ操作信号と、最新のタッチ操作信号を操作信号変換部17に送信する(ステップS114)。操作種別判定部16は、ステップS114においてタッチ操作信号を操作信号変換部17に送信した後、ステップS108においてメモリ内に保存していた時刻情報をクリアし(ステップS115)、ステップS101へ戻る。
 ステップS112においてタッチ操作信号が「UP」でない場合(ステップS112におけるNo)、操作種別判定部16は、タッチ操作信号をメモリのキューに保存し(ステップS116)、ステップS101へ戻る。
 図10は操作信号変換部17の動作を示すフローチャートである。まず、操作信号変換部17は、タッチ操作信号を操作種別判定部16より受信する(ステップS201)。次に、操作信号変換部17は、図5に示したタッチ操作信号とマウス操作信号の対応関係を記述したテーブルを参照し、タッチ操作信号をマウス操作信号に変換する(ステップS202)。そして、操作信号変換部17は、対応するマウス操作信号をブラウザ11に送信する(ステップS203)。ステップS203が終わると、ステップS201に戻り、ステップS201~ステップS203の処理を繰り返す。
 以上のように、操作種別判定部16は、各クライアント端末20から受信したタッチ操作信号に基づいて、タッチ操作の種別(タップ、フリック、スワイプなど)を判定し、その判定結果に応じて、タッチ操作信号を操作信号変換部17へ送ってマウス操作に変換してからブラウザ11へ送るか、マウス操作には変換せずにブラウザ11へ直接送信するかを判定する。そして、ブラウザ11が操作種別判定部16の判定結果に基づいて、タッチ操作信号、又は、マウス操作信号でコンテンツを生成する。これにより、複数のクライアント端末による操作を、サーバの1つのデスクトップで操作することが可能となる。
 なお、本実施の形態において、画面生成サーバ10の1つのデスクトップ画面を、4台のクライアント端末で共用するとしたが、2台以上のクライアント端末で共用するとしてもよい。
 なお、本実施の形態において、画面生成サーバ10のデスクトップ画面(解像度が3840×2160)をクライアント端末20の画面(解像度が1920×1080)を複数台分描画できる1つの画面としたが、クライアント端末20の画面(解像度が1920×1080)を複数台分描画できる複数のシートを有するブック形式としてもよい。
 (実施の形態2)
 上記の実施の形態1においては、操作種別判定部16は、画面生成サーバ10に配置されている場合を示したが、本実施の形態はこれに限定されない。図11は、実施の形態2にかかる画面生成サーバ及びクライアント端末の構成を示すブロック図である。図11に示すように、画面生成システムは、操作種別判定部26がクライアント端末20に設置されていてもよい。
 実施の形態2では、操作種別判定部26が各クライアント端末20に設置されており、タッチ操作信号を操作信号送信部25、操作信号受信部15を介して送信するとき判定したグループAとグループBをポート分けして送信する。これらの点以外の構成は、図2に示す実施の形態1の構成と同様であるため説明を省略する。操作種別判定部26を各クライアント端末20に設置する構成とすることで、操作種別判定を各クライアント端末20が実施することとなり、処理負荷が分散される利点がある。
 なお、本実施の形態において、操作種別判定部26からタッチ操作信号をポート分けして送信するとしたが、操作種別判定部26がタッチ操作信号とタッチ操作信号の判定結果を操作信号受信部15に送信し、操作信号受信部15がタッチ操作信号の判定結果に基づいて、タッチ操作信号のグループAとグループBを操作信号変換部17又はタッチ操作信号受信部19に分けて送信するとしてもよい。これにより、操作信号送信部25のポートの数を低減することができる。
 本開示にかかる画面生成装置、画面生成システム、及び、画面生成方法は、画面生成サーバ、或いは、画面生成サーバに接続されるクライアント端末に適用することができる。
10 画面生成サーバ
11,11a,11b,11c ブラウザ
12 画面キャプチャ部
13 映像符号化部
14 符号化データ送信部
15 操作信号受信部
16 操作種別判定部
17 操作信号変換部
18 イベント発行処理部
19,19a,19b,19c タッチ操作信号受信部
20,20a,20b,20c クライアント端末
21 符号化データ受信部
22 映像復号化部
23 表示部
24 タッチパネル
25 操作信号送信部
26 操作種別判定部
110 HTMLコンテンツ
200 大型ディスプレイ
300 スマートフォン
400 タブレット

Claims (7)

  1.  複数の端末からタッチ操作の第1操作信号を受信し、前記複数の端末の各々に対応したコンテンツを送信する画面生成装置であって、
     前記第1操作信号を受信する操作信号受信部と、
     前記第1操作信号の種別を判定する操作種別判定部と、
     前記第1操作信号をマウス操作の第2操作信号に変換する操作信号変換部と、
     前記操作種別判定部の判定結果に基づいて、前記第1操作信号、又は、前記第2操作信号で前記複数の端末に対応したコンテンツの画面を生成する複数のブラウザとを備える画面生成装置。
  2.  前記操作種別判定部は、前記第1操作信号を操作時間および操作対象要素数によって判定する請求項1に記載の画面生成装置。
  3.  前記タッチ操作がスワイプ、ピンチ、ローテートのいずれかのとき、前記ブラウザは前記第1操作信号で前記コンテンツを生成する請求項1に記載の画面生成装置。
  4.  前記タッチ操作がタップ、又は、フリックのとき、前記ブラウザは前記第2操作信号で前記コンテンツを生成する請求項1に記載の画面生成装置。
  5.  複数の端末と、複数の端末からタッチ操作の第1操作信号を受信し、前記複数の端末の各々に対応したコンテンツを送信する画面生成装置を備える画面生成システムであって、
     前記複数の端末は、
       タッチパネルにより入力されたタッチ操作を前記第1操作信号として前記画面生成装置に送信する操作信号送信部を備え、
     前記画面生成装置は、
       前記第1操作信号を受信する操作信号受信部と、
       前記第1操作信号の種別を判定する操作種別判定部と、
       前記第1操作信号をマウス操作の第2操作信号に変換する操作信号変換部と、
       前記操作種別判定部の判定結果に基づいて、前記第1操作信号、又は、前記第2操作信号で前記複数の端末に対応したコンテンツの画面を生成する複数のブラウザとを備える画面生成システム。
  6.  複数の端末と、前記複数の端末からタッチ操作の第1操作信号を受信し、前記複数の端末の各々に対応したコンテンツを送信する画面生成装置を備える画面生成システムであって、
     前記複数の端末は、
       タッチパネルにより入力された前記第1操作信号の種別を判定する操作種別判定部と、
       前記第1操作信号と前記操作種別判定部の判定結果を前記画面生成装置に送信する操作信号送信部を備え、
     前記画面生成装置は、
       前記第1操作信号を受信する操作信号受信部と、
       前記第1操作信号をマウス操作の第2操作信号に変換する操作信号変換部と、
       前記操作種別判定部の判定結果に基づいて、前記第1操作信号、又は、前記第2操作信号で前記複数の端末に対応したコンテンツの画面を生成する複数のブラウザとを備える画面生成システム。
  7.  複数の端末からタッチ操作の第1操作信号を受信し、前記複数の端末の各々に対応したコンテンツを送信する画面生成方法であって、
     前記第1操作信号を受信し、
     前記第1操作信号の種別を判定し、
     前記判定結果に基づいて、前記第1操作信号、又は、前記第1操作信号を変換したマウス操作の第2操作信号で前記複数の端末に対応したコンテンツの画面を生成する画面生成方法。
PCT/JP2015/003350 2014-10-14 2015-07-03 画面生成装置、画面生成システム、及び、画面生成方法 WO2016059737A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016553950A JPWO2016059737A1 (ja) 2014-10-14 2015-07-03 画面生成装置、画面生成システム、及び、画面生成方法
EP15851388.7A EP3208694A4 (en) 2014-10-14 2015-07-03 Screen generation device, screen generation system, and screen generation method
US15/251,412 US20160370885A1 (en) 2014-10-14 2016-08-30 Screen generating device, screen generating system, and screen generating method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-209578 2014-10-14
JP2014209578 2014-10-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/251,412 Continuation US20160370885A1 (en) 2014-10-14 2016-08-30 Screen generating device, screen generating system, and screen generating method

Publications (1)

Publication Number Publication Date
WO2016059737A1 true WO2016059737A1 (ja) 2016-04-21

Family

ID=55746303

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/003350 WO2016059737A1 (ja) 2014-10-14 2015-07-03 画面生成装置、画面生成システム、及び、画面生成方法

Country Status (4)

Country Link
US (1) US20160370885A1 (ja)
EP (1) EP3208694A4 (ja)
JP (1) JPWO2016059737A1 (ja)
WO (1) WO2016059737A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187379A (ja) * 2008-02-07 2009-08-20 Toshiba Corp 仮想計算機サーバ装置、更新画像検出方法およびプログラム
JP2010256972A (ja) * 2009-04-21 2010-11-11 Digital Electronics Corp サーバ装置、サーバ・クライアントシステム、サーバプログラムおよびそれを記録した記録媒体
JP2012079084A (ja) * 2010-10-01 2012-04-19 Nomura Research Institute Ltd リモートデスクトップシステムおよび業務アプリケーション移行システム
JP2013143103A (ja) * 2012-01-12 2013-07-22 Ricoh Co Ltd 情報処理システム、情報処理装置、及び情報処理プログラム
JP2014137671A (ja) * 2013-01-16 2014-07-28 Japan Digital Laboratory Co Ltd リモートアクセス制御システム、方法、およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6292181B1 (en) * 1994-09-02 2001-09-18 Nec Corporation Structure and method for controlling a host computer using a remote hand-held interface device
US6137473A (en) * 1994-09-02 2000-10-24 Nec Corporation System and method for switching control between a host computer and a remote interface device
US6289320B1 (en) * 1998-07-07 2001-09-11 Diebold, Incorporated Automated banking machine apparatus and system
US6727889B2 (en) * 2001-09-14 2004-04-27 Stephen W. Shaw Computer mouse input device with multi-axis palm control
US20040015551A1 (en) * 2002-07-18 2004-01-22 Thornton Barry W. System of co-located computers with content and/or communications distribution
US7325033B2 (en) * 2002-07-18 2008-01-29 Clearcube Technology, Inc. Video conferencing system using video manager to provide picture-in-picture image to display devices located remotely from co-located computing systems
JP4421517B2 (ja) * 2005-06-07 2010-02-24 株式会社東芝 情報処理サーバ、遠隔操作システムおよび遠隔操作方法
KR101573212B1 (ko) * 2008-03-04 2015-12-02 삼성전자주식회사 바이오 마우스 및 바이오 키보드를 포함하는 원격 의료 진단 장치 및 이를 이용하는 방법
WO2012048007A2 (en) * 2010-10-05 2012-04-12 Citrix Systems, Inc. Touch support for remoted applications
US9128548B2 (en) * 2012-10-17 2015-09-08 Perceptive Pixel, Inc. Selective reporting of touch data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187379A (ja) * 2008-02-07 2009-08-20 Toshiba Corp 仮想計算機サーバ装置、更新画像検出方法およびプログラム
JP2010256972A (ja) * 2009-04-21 2010-11-11 Digital Electronics Corp サーバ装置、サーバ・クライアントシステム、サーバプログラムおよびそれを記録した記録媒体
JP2012079084A (ja) * 2010-10-01 2012-04-19 Nomura Research Institute Ltd リモートデスクトップシステムおよび業務アプリケーション移行システム
JP2013143103A (ja) * 2012-01-12 2013-07-22 Ricoh Co Ltd 情報処理システム、情報処理装置、及び情報処理プログラム
JP2014137671A (ja) * 2013-01-16 2014-07-28 Japan Digital Laboratory Co Ltd リモートアクセス制御システム、方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3208694A4 *

Also Published As

Publication number Publication date
EP3208694A1 (en) 2017-08-23
US20160370885A1 (en) 2016-12-22
JPWO2016059737A1 (ja) 2017-08-03
EP3208694A4 (en) 2017-10-04

Similar Documents

Publication Publication Date Title
AU2006216079B2 (en) Systems and methods for transferring data between computing devices
JP5451397B2 (ja) リモートインターラクションに応答してビデオコンテンツを配信するためのアーキテクチャー
CN108733771B (zh) 共享应用,包括允许检索、展示和遍历信息资源的共享应用
CN102664937B (zh) 云端运算图形服务器及云端运算图形服务方法
CN105637886B (zh) 用于向客户端提供图形用户界面的服务器,以及客户端
US20180113663A1 (en) Browser based display system for displaying image data
JP6272331B2 (ja) ネットワークを介して接続された少なくとも2台の端末装置間でリモートプレゼンテーションをするための方法
CN102802068A (zh) 智能电视遥控方法及系统
US20120235924A1 (en) Display systems, methods, and apparatus
EP3076647B1 (en) Techniques for sharing real-time content between multiple endpoints
WO2020253453A1 (zh) 图像切换方法、装置、电子设备及存储介质
US20140215358A1 (en) Screen sharing system and central apparatus
WO2017045283A1 (zh) 终端间屏幕控制的方法、装置和存储介质
WO2020135776A1 (zh) 交互数据的传输方法、装置、终端及服务器
JP6453345B2 (ja) テレビ装置上でウェブ・コンテンツをリモート・レンダリングするための方法、システムおよび媒体
CN102664924A (zh) 远程协助过程中的信息处理方法及装置
CN103959208A (zh) 基于互联网浏览器远程用户界面虚拟鼠标光标定位的方法
US20130124614A1 (en) Thin client system and server apparatus
US20120268650A1 (en) System and method for a thin-client terminal system using a serial bus
WO2016059737A1 (ja) 画面生成装置、画面生成システム、及び、画面生成方法
US9411760B2 (en) System and method for a thin-client terminal system with a local screen buffer using a serial bus
TWI427531B (zh) 遠端管理系統及其方法
JP2017033397A (ja) 操作情報共有装置、アプリ実行装置、操作情報共有システム、情報処理装置、およびプログラム
CN112714272A (zh) 设备间控制方法、终端和计算机可读存储介质
CN111694442B (zh) 一种降低分布式kvm系统鼠标延时的方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15851388

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016553950

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015851388

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015851388

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE