JP7412801B1 - プログラム及び端末 - Google Patents

プログラム及び端末 Download PDF

Info

Publication number
JP7412801B1
JP7412801B1 JP2022188374A JP2022188374A JP7412801B1 JP 7412801 B1 JP7412801 B1 JP 7412801B1 JP 2022188374 A JP2022188374 A JP 2022188374A JP 2022188374 A JP2022188374 A JP 2022188374A JP 7412801 B1 JP7412801 B1 JP 7412801B1
Authority
JP
Japan
Prior art keywords
image
information processing
display
processing terminal
remote terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022188374A
Other languages
English (en)
Other versions
JP2024076691A (ja
Inventor
良治 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TEAM S CO., LTD.
Original Assignee
TEAM S CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TEAM S CO., LTD. filed Critical TEAM S CO., LTD.
Priority to JP2022188374A priority Critical patent/JP7412801B1/ja
Priority to PCT/JP2023/040404 priority patent/WO2024111424A1/ja
Priority to JP2023214794A priority patent/JP2024077014A/ja
Application granted granted Critical
Publication of JP7412801B1 publication Critical patent/JP7412801B1/ja
Publication of JP2024076691A publication Critical patent/JP2024076691A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/2869Terminals specially adapted for communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)

Abstract

【課題】ミラーリング表示機能及び遠隔入力機能を有する遠隔端末において、通信遅延に起因するユーザの違和感を低減する。【解決手段】遠隔端末10は、表示部102と、制御部110と、通信部101と、を備える。通信部101は、遠隔端末10から受信した画面内の位置を示す位置情報に基づいて画像を表示するとともに表示中の画像を示す画像データを遠隔端末10へ送信する情報処理端末と通信する。制御部110は、情報処理端末20から画像データを受信するステップ、該受信した画像データに基づく第1画像を表示部102に表示するステップ、表示部102における位置の指定を受け付けるステップと、該指定された位置を示す情報を情報処理端末に送信するステップ、及び該指定された位置に第2画像を暫定的に表示するステップ、を実行する。【選択図】図2

Description

本発明は描画処理に関する。
パーソナルコンピュータ等の情報処理端末における処理内容を物理的に離れた場所から確認しつつ当該情報処理端末を遠隔操作する技術が種々提案されている。情報処理端末の遠隔操作を実現する技術の一例としては、特許文献1~5の各文献に開示の技術のように、情報処理端末と通信する遠隔端末にミラーリング表示機能及び遠隔入力機能を設けることが挙げられる。ミラーリング表示機能とは、情報処理端末における表示画面と同じ画面を表示する機能である。遠隔入力機能とは、ユーザの操作を受け付けて情報処理端末に当該操作の内容を伝達する機能である。
特許第6335738号 国際公開第2017/187706号 特許第5831412号 特許第5770782号 特許第6464692号
ミラーリング表示機能及び遠隔入力機能を備えた遠隔端末に対してユーザの操作が為されてから、遠隔端末の表示画面にその操作の内容が反映されるまでには、遠隔端末と情報処理端末との間の通信の遅延に応じたラグが発生する。特に、遠隔端末に対して操作がリアルタイム性を要求される操作(例えば、情報処理端末において実行中の描画ソフトウェアに線を描画させる操作)である場合、上記ラグに起因するユーザの違和感は大きくなる。
これを図11および12を用いて説明する。このような遠隔端末において、ユーザは線や図形等の描画アプリケーションを実行して、図11に示すように、画面へのタッチ操作スタイラスペン等の入力デバイスを用いて点PSから点PEまでの曲線Lxを描く操作を行うとする。
図12は、この際に遠隔端末の画面に表示される内容を示す。時刻T0にて描画操作を開始し、自国T5において描画操作を終了したとする。この一連の操作において、各時点T1、T2、T3、T4における画面の表示内容はそれぞれG01、G02、G03、G04である。なお、オブジェクトPNは各時点においてユーザの操作している位置を示すために便宜上図示してものであって、実際の表示画面に表示される必要はない。
遠隔端末と情報処理端末との通信遅延が全くなければ、描画位置PPと表示される線の終端の位置PTとは一致するはずであるが、図12に示すように、通信遅延があるために、位置PPと位置PTにズレが生じている。このように、ユーザの指定した位置PPに対して操作結果が反映されるまでにタイムラグがあるために、ユーザは違和感を覚える可能性がある。
本発明は、ミラーリング表示機能及び遠隔入力機能を有する遠隔端末において、情報処理端末との通信の遅延に起因するユーザの違和感を低減することを目的の一つとする。
本発明は、一の態様において、コンピュータに、前記コンピュータから受信した画面内の位置を示す位置情報に基づいて画像を表示するとともに表示されている画像を示す画像データを前記コンピュータに送信する情報処理端末から、画像データを受信するステップと、該受信した画像データに基づく第1画像を表示部に表示するステップと、前記表示部における位置の指定を受け付けるステップと、該指定された位置を示す情報を前記情報処理端末に送信するステップと、該指定された位置に第2画像を暫定的に表示するステップと、を実行させるためのプログラムを提供する。
このプログラムによれば、ミラーリング表示機能及び遠隔入力機能を有するコンピュータと情報処理端末との間の通信の遅延に起因するユーザの違和感を低減することができる。
好ましい態様において、前記プログラムは、前記第2画像が表示されてから所定期間を経過すると、当該第2画像を消去するステップを前記コンピュータに更に実行させるステップを有する。
この態様によれば、ミラーリング表示機能及び遠隔入力機能を有するコンピュータと情報処理端末との間の通信の遅延に起因するユーザの違和感を低減しつつ、第2画像の表示から所定期間が経過した時点で当該第2画像を消去することができる。
好ましい態様において、前記第1画像、及び前記第2画像は点又は線であり、前記第1画像と前記第2画像とは、視覚的に区別される態様で表示される。
この態様によれば、ミラーリング表示機能及び遠隔入力機能を有するコンピュータと情報処理端末との間の通信の遅延に起因するユーザの違和感を低減しつつ、第2画像の表示から所定期間が経過した時点で当該第2画像を消去することができ、更に各々点又は線である第1画像及び第2画像を視覚的に区別できる態様で表示することができる。
好ましい態様において、前記第1画像と前記第2画像とでは、線の種類、線の太さ、及び線の色のうちの少なくとも一つが異なる。
このプログラムによれば、ミラーリング表示機能及び遠隔入力機能を有するコンピュータと情報処理端末との間の通信の遅延に起因するユーザの違和感を低減しつつ、第2画像の表示から所定期間が経過した時点で当該第2画像を消去することができ、更に各々点又は線である第1画像及び第2画像を、線の種類、線の太さ、及び線の色のうちの少なくとも一つを異ならせることで視覚的に区別できる態様で表示することができる。
好ましい態様において、前記所定期間は、前記コンピュータと前記情報処理端末との間の通信の遅延量に基づいて決定される。
この態様によれば、ミラーリング表示機能及び遠隔入力機能を有するコンピュータと情報処理端末との間の通信の遅延に起因するユーザの違和感を低減しつつ、第2画像の表示から、当該通信の遅延量に基づいて決定される所定期間が経過した時点で第2画像を消去することができる。
好ましい態様において、第1の態様、第2の態様、第3の態様、第4態様、及び第5の態様のうちの何れか1の態様のプログラムにおいて、前記第2画像は、時間の経過とともに前記第1画像に近づくように連続的に変化する。第6の態様のプログラムよれば、第1の態様、第2の態様、第3の態様、第4態様、及び第5の態様のうちの何れか1の態様のうちの何れか1の態様と同一の効果に加えて、時間の経過とともに第2画像を第1画像に連続的に近づけることができる、といった効果が奏される。
本発明は、他の観点において、表示部と、制御部と、前記表示部の画面内の位置を示す位置情報の入力を受け付ける入力部と、情報処理端末と通信する通信部とを備え、前記制御部は、前記情報処理端末から画像データを受信すると、該受信した画像データに基づく第1画像を前記表示部に表示し、前記表示部における位置の指定を受け付けると、該指定された位置を示す情報を前記情報処理端末に送信するとともに、前記表示部における該指定された位置に第2画像を暫定的に表示する、端末を提供する。
この端末によれば、ミラーリング表示機能及び遠隔入力機能を有し、情報処理端末との間の通信の遅延に起因するユーザの違和感を低減することができる。
本発明の一実施形態による遠隔端末10を含む情報処理システム1の構成例を示す図である。 遠隔端末10の構成例を示す図である。 遠隔端末10の制御部110がプログラムPRに従って実行する表示方法の流れを示すフローチャートである。 遠隔端末10の動作例を説明するための図である。 遠隔端末10の動作例を説明するための図である。 遠隔端末10の動作例を説明するための図である。 遠隔端末10の動作例を説明するための図である。 遠隔端末10の動作例を説明するための図である。 遠隔端末10の画面に表示される画像の時間変化の例を示す図である。 遠隔端末10の画面に表示される画像の時間変化の他の例を示す図である。 従来例の課題を説明するための図(その1)である。 従来例の課題を説明するための図(その2)である。
<A.実施形態>
図1は、情報処理システム1の全体構成の例を示す図である。図1に示されるように、情報処理システム1は、遠隔端末10と、通信網を介して遠隔端末10と通信する情報処理端末20と、を有する。図1では、遠隔端末10と情報処理端末20との間の通信を仲介する通信網の図示は省略されている。遠隔端末10は、通信網を介して情報処理端末20を遠隔操作するための端末である。情報処理端末20は、遠隔端末10による遠隔操作の対象となる情報資源(ソース)としての画像を表示するソース端末である。情報処理端末20は、遠隔端末10から受信した画面内の位置を示す位置情報に基づいて画像を表示するとともに表示されている画像を示す画像データを遠隔端末10へ送信する。本実施形態において遠隔端末10による遠隔操作の対象となる画像の一例としては、情報処理端末20において描画ソフトウェアを実行することにより表示される画面の画像、即ち線又は点等を描画するユーザの操作を受け付け、当該操作に応じた描画結果をユーザに確認させるためのユーザインタフェース画面の画像が挙げられる。
情報処理端末20は、例えばサイズが27インチのパーソナルコンピュー タ用モニタを備えたパーソナルコンピュータであり、当該モニタの画像解像度は1920×1080で、当該モニタに表示される画像のアスペクト比(縦横比)は16:9である。情報処理端末20は、スマートフォン又はテレビ等であってもよい。また、情報処理端末20は、複数の機器の組合せで構成されてもよい。例えば、情報処理端末20は、液晶テレビのマルチメディアインタフェースに画像処理プロセッサを搭載したドングルを装着したものであってもよい。図1には、情報処理端末20が1つ図示されているが、情報処理システム1には2以上の情報処理端末20が含まれてもよい。
遠隔端末10は、通信網を介した無線通信により情報処理端末20に接続し、接続先の情報処理端末20を遠隔操作する。遠隔端末10は、情報処理端末20から受信した画像データの示す画像を表示するミラーリング表示機能、及びユーザの操作を受け付け、ユーザの操作により指定された位置を示す位置情報を情報処理端末20へ供給する遠隔入力機能を有する。遠隔端末10は、例えば、モニタサイズ12インチのタブレットPCが挙げられる。本実施形態における遠隔端末10の画像解像度は1920× 1200であり、遠隔端末10に表示される画像のアスペクト比は16:10である。
本実施形態における遠隔端末10は、ユーザによる操作が行われてから自装置の表示画面にその操作の内容が反映されるまでに情報処理端末20との間の通信の遅延に応じたラグが発生する場合であっても、ユーザの違和感が軽減されるように構成されており、この点に本実施形態の特徴が表れている。以下、本実施形態の特徴を顕著に示す遠隔端末10を中心に説明する。
図2は、遠隔端末10の構成の例を示す図である。図2に示す遠隔端末10は、通信部101、表示部102、放音部103、記憶部104、音声制御部105、表示制御部106、入力部107、及び制御部110を有する。
制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を有し、CPUがROM及び記憶部104に記憶されているプログラムPRを読み出して実行することにより遠隔端末10の制御中枢として機能する。また、制御部110は、音声制御部105を介して放音部103を制御するとともに、表示制御部106を介して表示部102を制御する。放音部103は、音声制御部105の制御の下で音を放出する装置であり、例えば、スピーカ、ヘッドホン等である。音声制御部105は、放音部103を制御する装置であり、例えばサウンドコントローラである。
表示部102は、液晶ディスプレイ等の表示面を有しており、表示制御部106による制御の下、画像を表示する。表示制御部106は、制御部110の指示に応じて表示部102を制御する装置である。表示制御部106は、例えば、ディスプレイコントローラ、グラフィックコントローラである。表示制御部106は、GPU(Graphics Processing Unit)を有してもよいし、描画処理機能を有する1以上のCPUとして実装されてもよい。
記憶部104は、半導体メモリ(ソリッドステートドライブ)やハードディスクドライブ等の記憶手段であり、制御部110のCPUに読み込まれる各種のプログラム、データ等を記憶する。記憶部104に記憶されている各種のプログラムの一例としては、プログラムPRの他に、制御部110にOS(Operating System)を実現させるカーネルプログラムが挙げられる。なお、記憶部104に記憶されている各種のプログラムのうち、プログラムPR以外のプログラムの図示は省略されている。
入力部107は、各種の指示をするための操作ボタン、キーボード、タッチパネル等の操作子(図示せず)を備えており、ユーザによる操作を受け付けてその操作内容に応じた信号を制御部110に送る。また、入力部107は、操作内容特定部108、及び位置情報検出部109を有する。
位置情報検出部109は、ユーザの操作で指示される画面上、又は画像上の位置を示す位置情報を検出する。位置情報検出部109は、例えば、上述したタッチパネルである。このタッチパネルは、透明な材質で形成され、表示部102の表示面の上に重ねて配置される。位置情報検出部109は、検出した位置情報を操作内容特定部108に送る。操作内容特定部108は、上述した操作子によって受け付けられたユーザの操作を特定する。操作内容特定部108は、ユーザの操作に応じて操作子が発した信号を受信し、例えば、記憶部104に記憶された対応表を参照して、受信した信号のパターンから、ユーザが行った操作の内容を特定する。なお、操作内容特定部108は、上述した位置情報検出部109から受取った位置情報を、ユーザの操作を示す信号として用いる。なお、入力部107の機能の一部又は全部は、制御部110によって実現されてもよい。
通信部101は、無線により通信網に接続する通信回路である。遠隔端末10は、通信部101により、通信網に接続された他の装置(すなわち、情報処理端末20を含む外部装置)と情報をやり取りする。通信部101は、いわゆる無線LANの規格、例えばIEEE802.11に準拠した方式により、遠隔端末10と通信網とを接続する機能を提供する。なお、遠隔端末10は、通信網を介さずに直接、情報処理端末20と接続してもよい。例えば、遠隔端末10と情報処理端末20とは、近距離無線通信(Near Field Communication、NFC)の規格、例えばISO/IEC18092(NFCIP-1)、ISO/IEC14443、ISO/IEC15693、又はIEEE802.15に準拠した方式で互いに接続する機能を有していてもよい。例えば、遠隔端末10と情報処理端末20とは、Miracast(登録商標)、AirPlay(登録商標)等の1対1の無線通信によるディスプレイ伝送技術を用いて接続されてもよい。
また、遠隔端末10と情報処理端末20とは、IEEE802.3に準拠した方式等の有線で直接、通信可能に接続されてもよい。この場合、通信部101は、有線通信のインタフェースである。
入力部107に対してプログラムPRの実行を指示する操作が為されると、制御部110はプログラムPRの実行を開始する。プログラムPRに従って動作している制御部110は、情報処理端末20との通信を開始するとともに、図3に示される表示方法を実行する。図3に示されるように、この表示方法には、第1判定処理SA100、第1表示処理SA110、第2判定処理SA120、送信処理SA130、第2表示処理SA140、及び第3判定処理SA150が含まれる。第1判定処理SA100、第1表示処理SA110、第2判定処理SA120、送信処理SA130、第2表示処理SA140、及び第3判定処理SA150の各処理の処理内容は、次の通りである。
第1判定処理SA100では、制御部110は、情報処理端末20から画像データを受信したか否かを判定し、第1判定処理SA100の判定結果が“No”である間、第1判定処理SA100の実行を繰り返す。情報処理端末20から画像データを受信して第1判定処理SA100の判定結果が“Yes”になると、制御部110は、第1表示処理SA110を実行する。つまり、本実施形態における第1判定処理SA100は、情報処理端末20から画像データを受信するステップの一例である。
第1表示処理SA110では、制御部110は、情報処理端末20から受信した画像データに基づく画像を表示部102に表示する。前述したように、本実施形態では、情報処理端末20では描画ソフトウェアが実行されており、情報処理端末20から遠隔端末10へ送信される画像データは、描画ソフトウェアにおけるユーザインタフェース画面の画像を表す。従って、制御部110がプログラムPRに従って作動し、遠隔端末10と情報処理端末20とが通信している状態では、表示部102には、情報処理端末20において実行中の描画ソフトウェアのユーザインタフェース画面の画像が表示される。
図4に示される画像G1は、情報処理端末20において実行中の描画ソフトウェアのユーザインタフェース画面の画像の一例である。画像G1は、領域A1及び領域A2の2つの領域を有する。領域A2は、線等の描画先となる仮想キャンバスに対応する。領域A1には、仮想キャンバスに線等を描画するための仮想ペンのアイコンB1、仮想ペンにより描画された線を消すための仮想消しゴムのアイコンB2、及び仮想キャンバスに色彩を付与するための仮想絵具のアイコンB3等の各種描画ツールをユーザに選択させるためのアイコンが配置される。ユーザは、領域A1に配置されたアイコンを選択することによって所望の描画ツールを選択し、選択した描画ツールを用いて領域A2に対する描画操作を行うことができる。以下、本動作例では、仮想ペンのアイコンB1が選択され、当該仮想ペンを用いて領域A2に線が描画される場合について説明する。
第1表示処理SA110に後続する第2判定処理SA120では、制御部110は、表示部102における位置の指定を受け付ける入力操作が為されたか否かを、操作内容特定部108の出力信号に基づいて判定する。換言すれば、第2判定処理SA120は、表示部102における位置の指定を受け付けるステップである。表示部102における位置の指定を受け付ける入力操作が為された場合、第2判定処理SA120の判定結果は“Yes”となる。これに対して、表示部102における位置の指定を受け付ける入力操作とは異なる入力操作が為された場合には、第2判定処理SA120の判定結果は“No”となる。表示部102における位置の指定を受け付ける入力操作の一例としては、仮想ペンを用いて領域A2に対して、図5に示されるように、点PSから点PEに至る線L1を描画する操作が挙げられる。この場合、制御部110は、線L1の各点の位置を、ユーザにより指定された位置として受け付ける。表示部102における位置の指定を受け付ける入力操作とは異なる入力操作の一例としては、プログラムPRの実行を終了する終了操作が挙げられる。
第2判定処理SA120の判定結果が“Yes”である場合に実行される送信処理SA130では、制御部110は、入力操作により指定された位置を示す位置情報を情報処理端末20へ送信する。本動作例では、図5に示されるように領域A2に線L1を描画する入力操作が為された場合、送信処理SA130では、線L1上の各点の位置を示す位置情報、即ち当該線L1を表す情報が情報処理端末20へ送信される。情報処理端末20は、当該情報に応じた画像(即ち、図5における線L2の画像)を領域A2に描画したユーザインタフェース画面の画像(図6に示されるように、領域A2に線L1に対応する線L2が実線で描かれたユーザインタフェース画面の画像)G2を表す画像データを生成して遠隔端末10へ送信する。線L2を実線で描画した画像は本発明における第1画像の一例である。
送信処理SA130に後続する第2表示処理SA140では、制御部110は、入力操作により指定された位置に、当該入力操作による描画内容に応じた画像を第1画像とは異なる態様で描画した第2画像を、第1表示処理SA110にて表示した画像に重ねて表示する。本動作例では、第2画像も第1画像と同様に線の画像であるが、第2画像は、視覚的に第1画像と区別される態様で線L1を描画した画像である。具体的には、本動作例における画像G3は、図7に示されるように、線L1を一点鎖線で描画した画像(線L3)である。線L1を一点鎖線で描画した画像は本発明における第2画像の一例である。
なお、本動作例では、第1画像と第2画像とで線の種類(実線と鎖線)を異ならせているが、線種に替えてまたは線種とともに、線の太さおよび/または線の色を異ならせてもよい。要するに、第1画像と第2画像とが視覚的に区別できるように、線種、線の太さ、及び線の色のうちの少なくとも一つが異なればよい。
第2表示処理SA140が実行される結果、遠隔端末10の表示部102には、画像G1に画像G3を重ねた画像、即ち図8に示される画像G4が表示される。第2表示処理SA140の実行後、制御部110は、第1判定処理SA100以降の処理を再度実行し、第2表示処理SA140にて表示部102に表示された画像は、再度第1表示処理SA110が実行されることにより更新される。つまり、第2表示処理SA140は、第2画像を暫定的に表示するステップである。なお、本実施形態では、第2判定処理SA120の判定結果が“Yes”である場合、まず、送信処理SA130が実行され、その後、第2表示処理SA140が実行されたが、送信処理SA130及び第2表示処理SA140の実行順序が入れ替えられてもよい。
第2判定処理SA120の判定結果が“No”である場合に実行される第3判定処理SA150では、制御部110は、入力部107に対して為された入力操作が終了操作であるか否かを判定する。第3判定処理SA150の判定結果が“No”である場合、制御部110は第1判定処理SA100以降の処理を再度実行する。第3判定処理SA150の判定結果が“Yes”である場合、制御部110はプログラムPRの実行を終了し、本表示方法を終了する。
本実施形態の特徴は、第2表示処理SA140を設けた点にある。遠隔端末10において線L1を描画する入力操作が受け付けられてから即座に画像G2が表示部102に表示されるのであれば、第2表示処理SA140が実行されなくても特段の問題は生じない。しかし、遠隔端末10において線L1を描画する入力操作が受け付けられてから遠隔端末10が画像G2を表す画像データを受信するまでには、遠隔端末10と情報処理端末20との間のデータ通信に応じた待ち時間、即ち遅延が発生する。このため、第2表示処理SA140が実行されないとしたならば、上記待ち時間に間、遠隔端末10には画像G1が表示され続け、線L1を描画する入力操作が視覚的に反映されることはない。この入力操作が視覚的に反映されることがないことがユーザの違和感につながる。本実施形態では、線L1を描画する入力操作に応じて第2表示処理SA140が実行されることによって画像G3が遠隔端末10に表示されるため、ユーザの違和感が低減される。
図9を用いてさらに具体的に説明する。
図9は、上述した線L1を描画する動作をユーザが行った際に遠隔端末10の表示部102に表示される画像を時系列で示した図である。具体的には、時間T=T0で描画動作を開始し、T=T5で描画動作を終了した場合において、T=T1、T2、T3、T4、T5の各時点における表示内容(G11、G12、G13、G14、G15)が示されている。なお、同図に描かれているオブジェクトPNは、各時点においてユーザが指定した位置(ペンデバイスを使って操作情報を入力する場合は、ペンデバイスがタッチパネルに接触している位置、指で操作情報を入力する場合は指が接触するタッチパネル上の位置)を説明するために便宜上描いたものであって、実際の画面には必ずしも表示される必要はない。
同図に示すように、線L1を描画するための一連の操作において、通信遅延に関係なく(すなわち、入力操作に表示内容が瞬時に追随する)ように線L3が表示され、通信遅延の影響の分だけ遅れて線L2が遅れて重ね表示されていく。ユーザは、入力操作に即座に反応して描画処理が行われていると認識するため、操作レスポンスという観点において違和感を覚えにくい。描画操作においては、本来表示されるべき線L2がL3に重ねて表示されていき、描画操作が終わると、線L2が視認できなくなるまたは目立たなくなる。すなわち、描画操作の途中で意図しない描画が暫定的に行われたといえるとしても、操作の結果、最終的に表示される画像はユーザが意図したものと同一である。すなわち、ユーザの意図した通りの画像が最終的には描画されているから、線L3によって新たな違和感がユーザに与えられることはない。
以上説明したように、本実施形態によれば、ミラーリング表示機能及び遠隔入力機能を有する遠隔端末10と情報処理端末20との間の通信の遅延に起因するユーザの違和感を低減することができる。
<B.変形>
以上、本発明の一実施形態について説明したが、この実施形態は以下のように変形されてもよい。
第1画像と第2画像とでは、線の種類、線の太さ、及び線の色の各々が一致してもよい。即ち第1画像と第2画像とが同一の画像であり、両者を完全にオーバーラップさせて表示部102に表示させてもよい。この場合、上述の例では、線L3は線L2が表示された後は完全に視認されなくなる。この場合、あたかも通信遅延が全く存在しないような感覚をユーザに与えることができる。
上記実施形態において、所定の条件を満たした場合に、第2画像を消去するステップを有してよい。具体的には、第2表示処理SA140の実行から所定期間を経過した時点で第2画像を消去するステップを含んでもよい。この所定時間は、例えば0.1秒等の固定値であってもよいし、遠隔端末10と情報処理端末20との間の通信の遅延量に基づいて決定される可変値であってもよい。具体的には、遠隔端末10と情報処理端末20との間の通信の遅延量が大きいほど、所定時間が長く設定されればよい。
図10を用いて具体的に説明する。図10は、図9に示したものと同様の操作をユーザが行った場合に、各時点における画面の表示内容(すなわち、画像G2(線L2)と画像G3(線L3)とが重ね表示された結果の画像;G21A~G25A)、仮に画像G3(線L3)のみが表示された場合の表示内容(G21B~G25B;したがって実際にユーザによって視認する表示画面ではない)とを対応付けて示したものである。
同図に示すように、線L3は、図9に示した場合とは異なり、描画された時点を基準として所定時間が経過すると消去される。よって、線L3と線L2とを明確に区別できるような態様で描画した場合であっても、ユーザが描画を意図していないという意味において本来不要である線L3の存在によって、ユーザが描画を意図している線L2の視認性が低下することを防止することができる。
あるいは、本発明の表示方法は、第2表示処理SA140の実行からの経過時間に応じて、第2画像を変化させるステップを含んでもよい。具体的には、第2表示処理SA140の実行から時間が経過するにつれて、第2画像が第1画像に近づくように連続的に第2画像を変化させるステップ、具体的には、第2画像が第1画像よりも薄い色で表現される場合に、時間経過とともに徐々にと第2画像の色を濃くするステップが上記表示方法に含まれてもよい。このように、線L3の存在が自然に薄れていくような感覚をユーザに与えることで、線L3の存在によるユーザの違和感がさらに軽減される。
上記実施形態では、プログラムPRが遠隔端末10の記憶部104に記憶されていたが、プログラムPRは単体で製造されてもよく、また、プログラムPRは単体で、販売等、譲渡されてもよい。プログラムPRを譲渡先へ提供する際の具体的な提供態様としては、インターネット等の電気通信回線経由のダウンロード、又はフラッシュROM等のコンピュータ読み取り可能な記録媒体にプログラムPRを書き込んで配布する態様が挙げられる。
要するに、本発明においては、遠隔端末と、当該遠隔端末から受信した画面内の位置を示す位置情報に基づいて画像を表示するとともに表示されている画像を示す画像データを当該遠隔端末に送信する情報処理端末とからなる情報処理システムにおいて、前記遠隔端末が前記情報処理端末から画像データを受信するステップと、前記遠隔端末にて該受信した画像データに基づく第1画像を前記遠隔端末の表示部に表示するステップと、前記遠隔端末において前記表示部における位置の指定を受け付けるステップと、該指定された位置を示す情報を前記遠隔端末から前記情報処理端末に送信するステップと、前記遠隔端末において該指定された位置に第2画像を暫定的に表示するステップとが実行されればよい。
1…情報処理システム、10…遠隔端末、20…情報処理端末、101…通信部、102…表示部、103…放音部、104…記憶部、105…音声制御部、106…表示制御部、107…入力部、108…操作内容特定部、109…位置情報検出部、110…制御部、PR…プログラム。

Claims (4)

  1. コンピュータに、
    前記コンピュータから受信した画面内の位置を示す位置情報に基づいて画像を表示するとともに表示されている画像を示す画像データを前記コンピュータに送信する情報処理端末から、画像データを受信するステップと、
    該受信した画像データに基づく第1画像を表示部に表示するステップと、
    前記表示部における位置の指定を受け付けるステップと、
    該指定された位置を示す情報を前記情報処理端末に送信するステップと、
    該指定された位置に、時間の経過とともに前記第1画像に近づくように連続的に変化する第2画像を表示するステップと
    を実行させるためのプログラム。
  2. 前記第2画像は、時間の経過とともに色が濃くなる画像である
    請求項1に記載のプログラム
  3. 表示部と、
    受信した画面内の位置を示す位置情報に基づく画像を表示する情報処理端末から、当該情報処理端末の表示画面にて表示されている画像を示す画像データを受信する手段と、
    該受信した画像データに基づく第1画像を前記表示部に表示する手段と、
    前記表示部における位置の指定を受け付ける手段と、
    該指定された位置を示す情報を前記情報処理端末に送信する手段と、
    該指定された位置に、時間の経過とともに前記第1画像に近づくように連続的に変化する第2画像を表示する手段と
    を有する情報処理装置
  4. 前記第2画像は、時間の経過とともに色が濃くなる画像である
    請求項3に記載の情報処理装置
JP2022188374A 2022-11-25 2022-11-25 プログラム及び端末 Active JP7412801B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022188374A JP7412801B1 (ja) 2022-11-25 2022-11-25 プログラム及び端末
PCT/JP2023/040404 WO2024111424A1 (ja) 2022-11-25 2023-11-09 プログラム及び端末
JP2023214794A JP2024077014A (ja) 2022-11-25 2023-12-20 プログラム及び端末

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022188374A JP7412801B1 (ja) 2022-11-25 2022-11-25 プログラム及び端末

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023214794A Division JP2024077014A (ja) 2022-11-25 2023-12-20 プログラム及び端末

Publications (2)

Publication Number Publication Date
JP7412801B1 true JP7412801B1 (ja) 2024-01-15
JP2024076691A JP2024076691A (ja) 2024-06-06

Family

ID=89534216

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022188374A Active JP7412801B1 (ja) 2022-11-25 2022-11-25 プログラム及び端末
JP2023214794A Pending JP2024077014A (ja) 2022-11-25 2023-12-20 プログラム及び端末

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023214794A Pending JP2024077014A (ja) 2022-11-25 2023-12-20 プログラム及び端末

Country Status (2)

Country Link
JP (2) JP7412801B1 (ja)
WO (1) WO2024111424A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031359A (ja) 2004-07-15 2006-02-02 Ricoh Co Ltd 画面共有方法、及び会議支援システム
WO2013121455A1 (ja) 2012-02-13 2013-08-22 日立コンシューマエレクトロニクス株式会社 プロジェクタ、図形入力・表示装置、携帯端末およびプログラム。
JP2016110603A (ja) 2014-11-26 2016-06-20 株式会社リコー 電子情報端末、画像処理装置、及び画像処理システム
WO2022131325A1 (ja) 2020-12-16 2022-06-23 株式会社ワコム 画像描画方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031359A (ja) 2004-07-15 2006-02-02 Ricoh Co Ltd 画面共有方法、及び会議支援システム
WO2013121455A1 (ja) 2012-02-13 2013-08-22 日立コンシューマエレクトロニクス株式会社 プロジェクタ、図形入力・表示装置、携帯端末およびプログラム。
JP2016110603A (ja) 2014-11-26 2016-06-20 株式会社リコー 電子情報端末、画像処理装置、及び画像処理システム
WO2022131325A1 (ja) 2020-12-16 2022-06-23 株式会社ワコム 画像描画方法

Also Published As

Publication number Publication date
JP2024076691A (ja) 2024-06-06
JP2024077014A (ja) 2024-06-06
WO2024111424A1 (ja) 2024-05-30

Similar Documents

Publication Publication Date Title
US10656895B2 (en) System for linking and controlling terminals and user terminal used in the same
JP5174372B2 (ja) 機能アイコンの表示システム及び方法
JP3847641B2 (ja) 情報処理装置、情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び情報処理方法
US8610678B2 (en) Information processing apparatus and method for moving a displayed object between multiple displays
US7533352B2 (en) Method and apparatus for providing context menus on a hand-held device
US7451408B2 (en) Selecting moving objects on a system
JP6364893B2 (ja) 端末装置、電子ホワイトボードシステム、電子ホワイトボードの入力支援方法、及びプログラム
US20220382505A1 (en) Method, apparatus, and computer-readable medium for desktop sharing over a web socket connection in a networked collaboration workspace
KR20130017241A (ko) 터치 스크린 단말기에서 입출력 방법 및 장치
US6961907B1 (en) “Append” extension to cut and copy commands for a clipboard function in a computer system
US20090271722A1 (en) Method of providing graphical user interface (gui), and multimedia apparatus to apply the same
JP2005229594A (ja) リモコンでオブジェクト選択可能なディスプレイ装置及びその方法
US20110050610A1 (en) Dynamic switching of interactive whiteboard data
WO2023226422A1 (zh) 内容编辑的控制方法、装置、电子设备及存储介质
JP7412801B1 (ja) プログラム及び端末
CN104335190A (zh) 内容分配系统、内容分配装置以及内容分配方法
JP4267186B2 (ja) クライアントとホスト間での情報内容の伝達
JP2000089892A (ja) 表示制御装置、表示制御方法及び記憶媒体
JP2000066649A (ja) 携帯情報処理装置、及び外部表示出力の制御方法
TW202437096A (zh) 程式及終端
JPH1195931A (ja) 操作対象マシン自動切替装置及び方法
JP3970906B2 (ja) 情報処理装置、情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び情報処理方法
AU2002320736B2 (en) Selecting Moving Objects on a System
JP6695530B1 (ja) 情報処理システム及び情報処理方法
JP7085311B2 (ja) 情報処理装置、情報処理システム、情報処理方法、情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230605

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231220

R150 Certificate of patent or registration of utility model

Ref document number: 7412801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150