JP2016162273A - 表示装置および表示制御方法 - Google Patents

表示装置および表示制御方法 Download PDF

Info

Publication number
JP2016162273A
JP2016162273A JP2015041280A JP2015041280A JP2016162273A JP 2016162273 A JP2016162273 A JP 2016162273A JP 2015041280 A JP2015041280 A JP 2015041280A JP 2015041280 A JP2015041280 A JP 2015041280A JP 2016162273 A JP2016162273 A JP 2016162273A
Authority
JP
Japan
Prior art keywords
mode
display device
operation mode
display
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015041280A
Other languages
English (en)
Other versions
JP2016162273A5 (ja
JP6492775B2 (ja
Inventor
俊樹 藤森
Toshiki Fujimori
俊樹 藤森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015041280A priority Critical patent/JP6492775B2/ja
Priority to US15/054,293 priority patent/US9898996B2/en
Priority to CN201610115504.7A priority patent/CN105938413B/zh
Publication of JP2016162273A publication Critical patent/JP2016162273A/ja
Publication of JP2016162273A5 publication Critical patent/JP2016162273A5/ja
Application granted granted Critical
Publication of JP6492775B2 publication Critical patent/JP6492775B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】動作モードの切り替えの際、ユーザーの意図に反して描かれてしまった線を自動的に消去する。【解決手段】表示装置は、情報処理装置上で動作しているアプリケーションプログラムの画面を表示面に表示する表示手段と、表示面上における指示体の位置を検知する検知手段と、自装置の動作モードが第1モードである場合、検知手段により検知された位置の軌跡に応じた線を表示面に描画する描画手段と、動作モードが第2モードである場合、検知手段により検知された位置を示す情報を情報処理装置に送信する第2送信手段と、動作モードが第1モードであったときに検知手段により検知された指示体の第1位置が画面においてアプリケーションプログラムに対して入力を行うための第1画像オブジェクトを含む所定範囲内にあり、かつ、当該動作モードを第2モードに切り替えるユーザーからの指示が受け付けられた場合、線を消去する消去手段とを有する。【選択図】図1

Description

本発明は、指示体の位置に応じて、第1モードと第2モードで異なる処理を行う表示装置に関する。
表示面上において指示体で指示された位置に応じた画像を表示する表示装置が知られている。例えば特許文献1には、指示体(ポインター)により指示された位置に応じた画像を、映像供給装置(PC)から供給される画像に重ねて投写するプロジェクターが記載されている。このプロジェクターの動作モードには、指示体の座標に応じてプロジェクターが画像を描画する動作モード、および指示体の座標をポインティングデバイスの座標としてPCが画像を描画する動作モードがある。特許文献1において、これら2つの動作モードは、表示されるメニューバーに対する操作に応じて切り替えられる。また、特許文献2には、タッチパネルを有する表示装置において、ドラッグ長(画面をタッチしてから離すまでに移動した長さ)に応じて動作モードを切り替えることが記載されている。
特開2013−134409号公報 特開2005−92538号公報
特許文献1に記載の技術においては、プロジェクターにメニューを表示させ、その中から動作モードの切り替えに相当する項目を選択する操作を行う必要があった。また、ユーザーが動作モードの切り替えを行う意図を有しているかどうかは、指示体により指示された位置において映像供給装置により表示されている画像オブジェクトに依存する場合があるところ、特許文献2に記載の技術においてはこの点が考慮されていなかった。また、特許文献1および2においては、動作モードの切り替えがユーザーの意図どおりにいかず、意図に反した線が描かれてしまった場合、ユーザーがその線を消去するための操作を行う必要があった。
本発明は、動作モードの切り替えの際、ユーザーの意図に反して描かれてしまった線を自動的に消去する技術を提供する。
本発明は、表示装置であって、情報処理装置上で動作しているアプリケーションプログラムの画面を表示面に表示する表示手段と、前記表示面上における指示体の位置を検知する検知手段と、前記表示装置の動作モードが第1モードである場合、前記検知手段により検知された位置の軌跡に応じた線を前記表示面に描画する描画手段と、前記動作モードが第2モードである場合、前記検知手段により検知された位置を示す情報を前記情報処理装置に送信する送信手段と、前記動作モードが前記第1モードであったときに前記検知手段により検知された前記指示体の第1位置が前記画面において前記アプリケーションプログラムに対して入力を行うための第1画像オブジェクトを含む所定範囲内にあり、かつ、当該動作モードを前記第2モードに切り替えるユーザーからの指示が受け付けられた場合、前記線を消去する消去手段とを有する表示装置を提供する。
この表示装置によれば、動作モードの切り替えの際、ユーザーの意図に反して描かれてしまった線を自動的に消去することができる。
前記第1位置が前記第1画像オブジェクトを含む所定範囲内にあり、かつ、当該動作モードを前記第2モードに切り替えるユーザーからの指示が受け付けられた場合において、当該動作モードが前記第2モードに切り替わった後に前記検知手段により検知された前記指示体の位置が前記第1位置を含む所定範囲にあったとき、前記消去手段は、前記線を消去してもよい。
この表示装置によれば、ユーザーの意図に反して描かれた線をより正確に特定することができる。
前記動作モードが第3モードである場合、前記表示手段は、前記動作モードを前記第2モードに切り替える指示を入力するための第2画像オブジェクトを前記表示面に表示してもよい。
この表示装置によれば、動作モードを第2モードに切り替えるためのユーザーの負荷を低減することができる。
前記第1位置が前記第1画像オブジェクトを含む所定範囲内にあり、かつ、当該動作モードを前記第2モードに切り替えるユーザーからの指示が前記第2画像オブジェクトを介して受け付けられた場合、前記消去手段は、前記線を消去してもよい。
この表示装置によれば、ユーザーの意図に反して描かれた線をより正確に特定することができる。
前記表示手段は、前記第1位置を含む所定範囲内に前記第2画像オブジェクトを表示してもよい。
この表示装置によれば、動作モードを第2モードに切り替えるためのユーザーの負荷を低減することができる。
また、本発明は、情報処理装置上で動作しているアプリケーションプログラムの画面を、表示装置が表示面に表示するステップと、前記表示面上における指示体の位置を検知するステップと、前記表示装置の動作モードが第1モードである場合、前記検知された位置の軌跡に応じた線を前記表示面に描画するステップと、前記動作モードが第2モードである場合、前記検知された位置を示す情報を前記表示装置から前記情報処理装置に送信するステップと、前記動作モードが前記第1モードであったときに前記検知された前記指示体の第1位置が前記画面において前記アプリケーションプログラムに対して入力を行うための第1画像オブジェクトを含む所定範囲内にあり、かつ、当該動作モードを前記第2モードに切り替えるユーザーからの指示が受け付けられた場合、前記線を消去するステップとを有する表示制御方法を提供する。
この表示制御方法によれば、動作モードの切り替えの際、ユーザーの意図に反して描かれてしまった線を自動的に消去することができる。
一実施形態に係る表示システム1の機能構成を示す図。 表示装置10のハードウェア構成を例示する図。 インタラクティブモードの概要を示す図。 PCモードの概要を示す図。 表示システム1の一実施形態に係る動作を示すフローチャート。 待機モードにおける動作を示すフローチャート。 表示システム1の動作例1に係る画面遷移を例示する図。 動作例2に係る待機モードにおける動作を示すフローチャート。 表示システム1の動作例2に係る画面遷移を例示する図。
1.構成
図1は、一実施形態に係る表示システム1の機能構成を示す図である。表示システム1は、表示装置10、指示体20、および情報処理装置30を有する。表示装置10は、情報処理装置30から供給される映像を表示面に表示する装置である。情報処理装置30は、表示装置10に映像を供給する映像供給装置の一例である。この例で、情報処理装置30は汎用のパーソナルコンピューターであり、アプリケーションプログラムを動作させる機能を有する。
指示体20は、表示面上の位置を指示する装置である。表示装置10は、指示体20により指示された位置に応じた処理を行う。この例で、指示された位置に応じた処理は、表示装置10の動作モードによって異なる。表示システム1は、この動作モードを自動的に切り替える機能を有する。
表示装置10は、表示手段11、検知手段12、描画手段13、送信手段14、切り替え手段15、送信手段16、受信手段17、消去手段18、および通知手段19を有する。
表示手段11は、情報処理装置30上で動作しているアプリケーションプログラムの画面を表示面に表示する。アプリケーションプログラムの画面とは、アプリケーションプログラムの実行に伴って情報処理装置30において生成される画面をいい、例えばマルチウインドウのGUI(Graphical User Interface)の場合にはアクティブなアプリケーションプログラムのウインドウを含むデスクトップ画面全体をいう。表示面とは画像が表示される面であり、例えば表示装置10がプロジェクターの場合はスクリーンまたは壁面、表示装置10が液晶ディスプレイの場合は液晶パネルである。
検知手段12は、表示面上における指示体20の位置(以下単に「指示体20の位置」という)を検知する。この例で、検知手段12は、指示体20の位置を含むイベントを検知する。指示体20は、ユーザーが表示面11上の位置を指定するのに用いるものであり、例えば電子ペンまたはユーザー自身の指である。検知手段12は、例えば、表示面を撮像するカメラを有し、指示体20の形状または色、もしくは指示体20に設けられた発光体(例えば赤外線発光ダイオード)の発光によって指示体20の位置を検知する。検知手段12は、表示面に設けられた圧力センサーや静電センサーにより指示体20の位置を検知してもよい。検知手段12は、例えば発光体の発酵パターンによりイベントの種別を認識する。
指示体20に関するイベントには、例えばペンダウンイベントおよびペンアップイベントがある。ペンダウンイベントは、指示体20が表示面に接触していることを示すイベントである。ペンダウンイベントは、指示体20が表示面に接触している位置を示す情報(例えば座標)を含む。ペンアップイベントは、それまで表示面に接触していた指示体20が表示面から離れたことを示す。ペンアップイベントは、それまで表示面に接触していた指示体20が表示面から離れる前に最後に接触が検知された位置を示す情報を含む。
描画手段13は、表示装置10の動作モードが第1モードである場合に有効になる機能であり、指示体20の位置の軌跡に応じた線(すなわち手書き画像)を表示面に描画する。この例で、描画手段13は、ペンダウンイベントが連続して検知されている間の指示体20の位置の軌跡に応じて線を描く。より詳細には、描画手段13は、ペンダウンイベントが検知されていない状態から初めてペンダウンイベントが検知された位置から、その後ペンアップイベントが検知されるまでの位置に応じて線を描く。
送信手段14は、表示装置10の動作モードが第2モードである場合に有効になる機能であり、指示体20の位置を示す情報を情報処理装置30に送信する。すなわち第2モードは、指示体20を情報処理装置30のポインティングデバイスとして用いるための動作モードである。
切り替え手段15は、表示装置10の動作モードを切り替える。切り替え手段15は、例えば、ユーザーから入力された指示に応じて動作モードを切り替える。
送信手段16は、情報処理装置30に対して問い合わせを送信する。この問い合わせは、検知手段12により検知された指示体20の位置がUI(User Interface)オブジェクトに相当する位置であるか否かの問い合わせである。UIオブジェクトとは、情報処理装置30上で動作しているアプリケーションプログラムの画面において、そのアプリケーションプログラムに対して入力を行うための画像オブジェクト、例えば、アイコン、ボタン、およびメニュー項目である。UIオブジェクトに相当する位置とは、UIオブジェクトを含む所定範囲(例えばUIオブジェクトの外形に所定のマージンを加えた範囲)をいう。なお、この問い合わせは、指示体20の位置を示す情報を含む。
受信手段17は、上記の問い合わせに対する回答を受信する。この回答は、指示体20の位置がUIオブジェクトに相当する位置であるか否かの判定結果を含んでいる。
消去手段18は、特定の条件が満たされたときに、その直前に描画手段13により描かれた線を消去する。特定の条件とは、例えば、動作モードが第1モードであったときに検知手段12により検知された指示体20の第1位置が、表示面に表示されている画面においてアプリケーションプログラムに対して入力を行うための第1画像オブジェクトを含む所定範囲内にあり、かつ、動作モードを第2モードに切り替えるユーザーからの指示が受け付けられた、という条件である。
通知手段19は、動作モードが切り替わったことをユーザーに通知する。ユーザーへの通知は、例えば画像、音、または振動を介して行われる。
情報処理装置30は、実行手段31、映像供給手段32、および判定手段33を有する。実行手段31は、プログラムを実行する。映像供給手段32は、表示装置10に映像を供給する。この例で、映像供給手段32は、実行手段31が実行しているプログラムの画面を供給する。判定手段33は、表示装置10からの問い合わせに応じて、その問い合わせに係る位置が実行手段31により実行されているプログラムのUIオブジェクトに相当する位置であるか判定する。さらに、判定手段31は、判定結果を表示装置10に送信する。
図2は、表示装置10のハードウェア構成を例示する図である。表示装置10は、CPU(Central Processing Unit)100、ROM(Read Only Memory)101、RAM(Random Access Memory)102、記憶部103、IF部104、画像処理回路105、投写ユニット106、操作パネル107、およびカメラ108を有する。
CPU100は、表示装置10の各部を制御する制御装置である。ROM101は、各種プログラムおよびデータを記憶した不揮発性の記憶装置である。RAM102は、データを記憶する揮発性の記憶装置であり、CPU100が処理を実行する際のワークエリアとして機能する。記憶部103は、データやプログラムなどを記憶する不揮発性の記憶装置であり、例えば、フラッシュROM、SSD(Solid State Drive)、またはHDD(Hard Disk Drive)を含む。なお、記憶部103は、ROM101に含まれていてもよい。あるいは、記憶部103は、ネットワーク上の記憶装置であってもよい。
IF部104は、外部装置(例えば情報処理装置30)と信号またはデータのやりとりを仲介するインターフェースである。IF部104は、外部装置と信号またはデータのやりとりをするための端子(例えば、VGA端子、USB端子、有線LANインターフェース、S端子、RCA端子、HDMI(High-Definition Multimedia Interface:登録商標)端子、マイクロフォン端子など)および無線LANインターフェースを含む。これらの端子は、映像入力端子に加え、映像出力端子を含んでもよい。
画像処理回路105は、入力された映像信号(以下「入力映像信号」という)に所定の画像処理(例えばサイズ変更、台形補正等)を施す。
投写ユニット106は、画像処理が施された映像信号に従って、スクリーンまたは壁面等の投写面に画像を投写する。投写ユニット106は、光源、光変調器、および光学系(いずれも図示略)を有する。光源は、高圧水銀ランプ、ハロゲンランプ、もしくはメタルハライドランプなどのランプ、またはLED(Light Emitting Diode)もしくはレーザーダイオードなどの固体光源、およびこれらの駆動回路を含む。光変調器は、光源から照射された光を映像信号に応じて変調する装置であり、例えば液晶パネルまたはDMD(Digital Mirror Device)、およびこれらの駆動回路を有する。なお、液晶パネルは、透過型および反射型のいずれの方式であってもよい。光学系は、光変調器により変調された光をスクリーンに投写する素子などで構成されており、例えばミラー、レンズ、およびプリズムを有する。光源および光変調器は色成分毎に設けられていてもよい。
操作パネル107は、ユーザーが表示装置10に対し指示を入力するための入力装置であり、例えば、キーパッド、ボタン、またはタッチパネルを含む。
カメラ108は、指示体20の位置を特定するためのカメラである。この例で、指示体20は、ペン先に発光体(例えば赤外線発光ダイオード)、圧力センサー、および制御回路(いずれも図示略)を有する。圧力センサーによりペン先が物体(投写面等)に触れたことが検知されると、制御回路は、所定の発光パターンで発光体を発光させる。カメラ108は赤外線カメラであり、投写面の画像を撮影する。CPU100は、カメラ108が撮影した画像から指示体20の位置および対応するイベントを特定する。
この例で、投写ユニット106は表示手段11の一例である。投写面が表示面である。カメラ108およびCPU100は検知手段12の一例である。IF部104は送信手段14、送信手段16、および受信手段17の一例である。CPU100は、描画手段13、切り替え手段15、消去手段18、および通知手段19の一例である。
情報処理装置30は例えば汎用のパーソナルコンピューターであり、CPU、ROM、RAM、記憶部、IF部等のハードウェア要素(いずれも図示略)を有する。記憶部は、オペレーティングシステム(Operating System、OS)およびアプリケーションプログラム(例えばプレゼンテーションのスライドを順次表示するプログラム)に加え、表示装置10からの問い合わせに対し回答するためのプログラム(以下「位置判定プログラム」という)を記憶している。位置判定プログラムはアプリケーションプログラムのバックグラウンドで動作する。情報処理装置30においてCPUは実行手段31および判定手段33の一例であり、IF部は映像供給手段32の一例である。
2.動作モードの概要
ここで、表示装置10の動作モードについて説明する。この例で、表示装置10の動作モードには、インタラクティブモード(第1モードの一例)およびPCモード(第2モードの一例)がある。
図3は、インタラクティブモードの概要を示す図である。インタラクティブモードは、指示体20の軌跡に応じた線(以下「手書き画像」という)を表示装置10が描画する動作モードである。インタラクティブモードにおいては、表示装置10をホワイトボードや電子黒板のように使用することができる。さらに、表示装置10は、映像供給装置から供給される映像に手書き画像を重ねて合成した画像を表示することができる。例えば、表示装置10は、情報処理装置30で実行されているアプリケーションプログラムの画面の上に、手書き画像(この場合はアノテーションやメモ書き)を重ねて表示することができる。図3の例では、ユーザーが指示体20を投写面にタッチ(接触)させながら移動した軌跡に伴って、スクリーンSC上に手書き画像IM1が表示されている。
図4は、PCモードの概要を示す図である。PCモードは、指示体20が情報処理装置30のポインティングデバイスとして用いられる動作モードである。表示装置10は、指示体20の投写面における位置(座標)を含むイベントを示す情報を情報処理装置30に送信する。情報処理装置30のデバイスドライバーは、表示装置10から送信される情報をマウス操作の情報に変換し、OSに引き渡す。
表示装置10は、情報処理装置30で実行されているアプリケーションプログラムの画面を表示する。この例で、この画面は、マウスカーソルCおよびアプリケーションプログラムのウインドウWを含んでいる。ウインドウWは、ボタンBを含んでいる。ボタンBは、アプリケーションプログラムに対して入力を行うUIオブジェクトの一例であり、ここではウインドウWを閉じるためのボタンである。ユーザーが指示体20で投写面にタッチすると、マウスカーソルCはタッチされた位置に移動する。ユーザーがタッチした位置がボタンBである場合、ボタンBがクリックされたと解釈され、ウインドウWは閉じる。
背景にアプリケーションプログラムの画面(例えばプレゼンテーションのスライド)を表示させた状態でインタラクティブモードにおいて手書き画像を描いているときに、ユーザーがアプリケーションプログラムのUIオブジェクトに入力を行おうとする場合は、動作モードをPCモードに切り替えてから、そのUIオブジェクト近傍を指示体20でタッチする必要がある。しかし、例えば動作モードの切り替えがユーザーの指示に応じて行われる場合において、ユーザーが動作モード切り替えの操作をするのを忘れてインタラクティブモードのままUIオブジェクト近傍を指示体20でタッチすると、そのUIオブジェクトの近傍にユーザーの意図に反する線(または点)が描かれてしまう。
インタラクティブモードにおいてユーザーが誤ってUIオブジェクト近傍をタッチしてしまった場合、ユーザーは例えば以下の操作を行うことが想定される。
(1)誤タッチに応じてUIオブジェクト近傍に線(または点)が描かれる。
(2)コントロールメニューから「消去」機能を選択する。
(3)(1)で誤描画された線の近傍をタッチし、この線を消去する。
(4)コントロールメニューから「モード切り替え」機能を選択する。
(5)UIオブジェクト近傍をタッチし、UIオブジェクトに対する操作を行う。
このように、誤操作を行ってしまうと、それをリカバーするにはユーザーは多くの操作を行わなければならず、ユーザーにとって負担である。本実施形態は、誤操作時のユーザーの負担を低減する。
3.動作
以下、表示システム1の動作例をいくつか説明する。以下の動作例は単独で用いられてもよいし、2つ以上が組み合わせて用いられてもよい。
3−1.動作例1
図5は、表示システム1の一実施形態に係る動作を示すフローチャートである。図5のフローは、例えば表示装置10の電源が投入されたことを契機として開始される。なお、以下の説明において、ソフトフェアを処理の主体として記載する場合があるが、これは、このソフトウェアを実行しているハードウェア資源(CPU等)が他のハードウェア資源(メモリーや通信インターフェース等)と共働して処理を行うことを意味する。
なお、この例では、インタラクティブモードからPCモードへの切り替えは、例えば表示装置10の機能により画面に表示されるコントロールメニューを介してユーザーの指示により行われる。
ステップS100において、表示装置10のCPU100は、ペンイベントを検知する。詳細には以下のとおりである。CPU100は、カメラ108により撮影された画像を定期的に取得する。CPU100は、この画像に含まれている発光点の位置および発光強度の変化から、ペンイベントおよびそのペンイベントが発生した位置を特定する。この位置は、スクリーンを基準とした座標系上の座標に変換される。CPU100は、検知したペンイベント(座標を含む)をRAM102に記憶する。
ステップS110において、CPU100は、現在の動作モードがインタラクティブモードであるか判断する。動作モードがPCモードであると判断された場合(S110:NO)、CPU100は、処理をステップS120に移行する。動作モードがインタラクティブモードであると判断された場合(S110:YES)、CPU100は、処理をステップS130に移行する。
ステップS120において、CPU100は、PCモードにおける処理を実行、すなわち、検知されたペンイベント(座標を含む)を情報処理装置30に送信する。ステップS120の処理を終了すると、CPU100は、処理を再びステップS100に移行する。
ステップS130において、CPU100は、検知されたイベントがペンアップイベントであるか判断する。検知されたイベントがペンアップイベントであった場合(S130:YES)、CPU100は、処理をステップS140に移行する。検知されたイベントがペンアップイベントでなかった場合(S130:NO)、CPU100は、処理をステップS180に移行する。
ステップS140において、CPU100は、直近のペンイベントに関するストローク長を測定する。ストローク長とは、指示体20の位置の軌跡に応じた線の長さをいう。指示体20の位置の軌跡に応じた線とは、連続して検知されたペンダウンイベントに含まれる座標を用いて描かれる線、要するに指示体20が投写面に触れながら移動した軌跡をいう。ここではCPU100は、描き終わったばかりの線(ペンアップイベントが検知されたばかりの線)について、ストローク長を測定する。
ステップS150において、CPU100は、測定されたストローク長がしきい値以下であるか判断する。このしきい値は、動作モードの切り替えの判断基準となるしきい値である。換言すると、このしきい値は、ユーザーによる指示体20の操作が、画面上のUIオブジェクト(アイコンやボタン等)に対する操作であるか、線を描画する操作であるかの判断基準となるしきい値である。ストローク長がUIオブジェクトのサイズ(高さや幅)よりも短い場合、指示体20の操作は、UIオブジェクトへの指示入力(クリック等)である可能性がある。したがって、このしきい値は、UIオブジェクトのサイズ程度の大きさに設定される。
ストローク長がしきい値以下であると判断された場合(S150:YES)、CPU100は、処理をステップS160に移行する。ストローク長がしきい値を超えていると判断された場合(S150:NO)、CPU100は、処理をステップS180に移行する。
ステップS160において、CPU100は、ペンアップイベントが検知された座標に、情報処理装置30によって表示されているUIオブジェクトが存在するか判断する。この例では、表示装置10は、この座標にUIオブジェクトが存在するか自分自身だけでは判断することができないので、映像供給装置である情報処理装置30に問い合わせを行う。詳細には以下のとおりである。
CPU100は、情報処理装置30に対し問い合わせを送信する。この問い合わせは、映像信号と同じ経路で送られてもよいし、映像信号と異なる経路で送られてもよい。この問い合わせは、ペンアップイベントが検知された座標を示す情報を含んでいる。
表示装置10から問い合わせを受信すると、情報処理装置30の位置判定プログラムは、問い合わせに含まれる座標を、情報処理装置30のデスクトップ(画面)上の座標に変換する。位置判定プログラムは、その座標にUIオブジェクトが存在するか否か判定する。位置判定プログラムは、例えば、OSに対し、その座標に、クリックにより反応するオブジェクトが存在するか問い合わせることにより、この判定を行う。OSは、座標が指定されると、その座標にクリック可能なオブジェクトが存在するか判定する機能を有している。位置判定プログラムは、この判定の結果を用いて、表示装置10からの問い合わせに対する回答を生成する。この回答は、その座標にUIオブジェクトが存在するか否かの判定結果を含む。位置判定プログラムは、生成された回答を表示装置10に送信する。
情報処理装置30から回答を受信すると、表示装置10のCPU100は、その回答に従って、この座標にUIオブジェクトが存在するか判断する。UIオブジェクトが存在すると判断された場合(S160:YES)、CPU100は、処理をステップS170に移行する。UIオブジェクトが存在しないと判断された場合(S160:NO)、CPU100は、処理をステップS180に移行する。
ステップS170において、CPU100は、待機モード(第3モードの一例)を有効にする。待機モードとは、直近に描かれた線(ペンアップイベントが検知されたばかりの線)の消去を待機している状態をいう。以下、消去される候補となっている線であるという意味において、この線を「候補線」という。また、CPU100は、候補線の代表点の座標をRAM102に記憶する。代表点は、例えば、線の終点、始点、中点、または重心である。待機モード中の動作の詳細は後述する。
なお、待機モードは、他の動作モード(インタラクティブモードまたはPCモード)と同時に設定することが可能である。そこで、待機モードが有効であることを待機モードが「オン」になっているといい、待機モードが無効である(解除されている)ことを待機モードが「オフ」になっているという。待機モードがオンである場合、併せて有効である他の動作モードに応じた処理が行われる。例えば動作モードがインタラクティブモードである場合において待機モードがオンであるときは、指示体20の軌跡に応じた線が描画される。あるいは動作モードがPCモードである場合において待機モードがオンであるときは、ペンイベントの座標が情報処理装置30に送信される。
ステップS180において、CPU100は、インタラクティブモードにおける処理を実行、すなわち、直近のペンアップイベントに関する線を描画する。直近のペンアップイベントに関する線とは、ステップS130においてストローク長が測定された線をいう。ここでは、待機モードがオンになっている場合でも、指示体20の軌跡に応じた線が描画される。ステップS170の処理を終了すると、CPU100は、処理をステップS100に移行する。
図6は、待機モードにおける動作を示すフローチャートである。なおこのフローは、待機モードがオンでありかつ動作モードがPCモードである場合の例を示している。すなわち、待機モードがオンになった後、ユーザーの指示により動作モードがPCモードに切り替えられている。なお、インタラクティブモードとPCモードとの間の動作モードの切り替えに係る処理は、図5のフローには示していない。
ステップS200において、CPU100は、ペンイベントを検知する。CPU100は、検知されたペンイベント(座標を含む)をRAM102に記憶する。何らかのペンイベントが検知された場合(S200:YES)、CPU100は、処理をステップS230に移行する。ペンイベントが検知されない場合(S200:NO)、CPU100は、処理をステップS210に移行する。
ステップS210において、CPU100は、ペンイベントが検知されない状態がしきい値時間継続したか、すなわち、しきい値時間(所定時間)ペン操作が行われなかったか判断する。ペンイベントが検知されない状態がしきい値時間継続した場合(S210:YES)、CPU100は、処理をステップS220に移行する。ペンイベントが検知されない状態がしきい値時間継続していない場合(S210:NO)、CPU100は、処理をステップS200に移行する。
ステップS220において、CPU100は、待機モードを解除する(オフ状態に切り替える)。待機モードがオフ状態になると、処理は図6のフローから抜ける。
ステップS230において、CPU100は、ペンイベントが検知された座標が、候補線の近くであるか判断する。この判断は、例えば(1)ペンイベントが検知された座標と候補線の代表点の座標とを対比する、または(2)ペンイベントが検知された座標とUIオブジェクトの位置とを対比することによって行われる。(1)の方法が用いられる場合、CPU100は、RAM102に記憶されている代表点の座標とペンイベントが検知された座標とを対比し、両者の距離がしきい値以下である場合、ペンイベントが検知された座標が、候補線の近くであると判断する。(2)の方法が用いられる場合、CPU100は、情報処理装置30に対し、ペンイベントが検知された座標がUIオブジェクトの近傍であるか問い合わせを行う。
ペンイベントが検知された座標が候補線の近くであると判断された場合(S230:YES)、CPU100は、処理をステップS240に移行する。ペンイベントが検知された座標が候補線の近くでないと判断された場合(S230:NO)、CPU100は、処理をステップS220に移行する。
ステップS240において、CPU100は、候補線を画面から消去する。なおインタラクティブモードにおいて描画される線は、例えばペンアップイベントと次のペンダウンイベントとの時間間隔がしきい値時間以下であるものを一群の手書き画像として扱う、といったような規則に従って、手書き画像をグループ化して記憶している。したがって、CPU100は、このグループ毎に、画像の属性を変えることができる。なおここで、候補線は画面から消去されていればよく、RAM102には候補線のデータは残されていてもよい。ステップS240の処理を終了すると、CPU100は、処理をステップS220に移行する。
図7は、表示システム1の動作例1に係る画面遷移を例示する図である。この例で、ユーザーは、指示体20を用いて手書き画像IM2を描画した後、情報処理装置30により表示されているUIオブジェクトB1を操作しようとするが、動作モードをPCモードに切り替えるのを忘れたまま、UIオブジェクトB1の近傍をタッチしてしまう。表示装置10は、ペンイベントが検知された位置にUIオブジェクトがあるか情報処理装置30に問い合わせを行う。この座標にUIオブジェクトB1が有るので、情報処理装置30は、UIオブジェクトが有る旨の回答を表示装置10に送信する。この回答を受信すると、表示装置10は、線IM3(この線が候補線である)を描画する(図7(A))。さらに、表示装置10は、待機モードをオンにする。なお、候補線の代表点は終点である。
その後、ユーザーが、コントロールメニューを介して動作モードをPCモードに設定する。ユーザーは、UIオブジェクトの近傍をタッチする(図7(B))。この位置は、候補線の代表点の近傍、すなわち候補点の代表点との距離がしきい値以下である。したがって、表示装置10は、候補線である線IM3を消去する(図7(C))。
3−2.動作例2
図8は、動作例2に係る待機モードにおける動作を示すフローチャートである。この例では、待機モードに移行したことを契機として、動作モードをPCモードに切り替えるためのUIオブジェクト(例えばボタン)が画面上に表示される。待機モードが有効になるまでの処理は動作例1と同じである。
ステップS300において、CPU100は、動作モードをPCモードに切り替えるためのUIオブジェクトを画面上に表示させる。このUIオブジェクトは、表示装置10により表示されるものであり、候補線の近傍(候補線の代表点から所定範囲内)に表示される。
ステップS310において、CPU100は、このUIオブジェクトが操作されたか判断する。すなわち、CPU100は、このUIオブジェクトを含む所定範囲内でペンイベントが検知されたか判断する。このUIオブジェクトが操作されたと判断された場合(S310:YES)、CPU100は、処理をステップS320に移行する。このUIオブジェクトが操作されていないと判断された場合(S310:NO)、CPU100は、処理をステップS330に移行する。
ステップS320において、CPU100は、候補線を消去する。UIオブジェクトが操作されたということであり、これはすなわち、直近に描かれた線がユーザーの意図に反していたことを意味する。候補線を消去すると、CPU100は、処理をステップS340に移行する。
ステップS330において、CPU100は、ペンイベントが検知されない状態がしきい値時間継続したか、すなわち、しきい値時間(所定時間)ペン操作が行われなかったか判断する。ペンイベントが検知されない状態がしきい値時間継続した場合(S330:YES)、CPU100は、処理をステップS340に移行する。ペンイベントが検知されない状態がしきい値時間継続していない場合(S330:NO)、CPU100は、処理をステップS310に移行する。
ステップS340において、CPU100は、ステップS300において表示されたUIオブジェクトを消去する。さらに、CPU100は、待機モードを解除する(ステップS350)。
図9は、表示システム1の動作例2に係る画面遷移を例示する図である。この例で、ユーザーは、指示体20を用いて手書き画像IM2を描画した後、情報処理装置30により表示されているUIオブジェクトB1を操作しようとするが、動作モードをPCモードに切り替えるのを忘れたまま、UIオブジェクトB1の近傍をタッチしてしまう。表示装置10は、ペンイベントが検知された位置にUIオブジェクトがあるか情報処理装置30に問い合わせを行う。この座標にUIオブジェクトB1が有るので、情報処理装置30は、UIオブジェクトが有る旨の回答を表示装置10に送信する。この回答を受信すると、表示装置10は、線IM3(この線が候補線である)を描画する。さらに、表示装置10は、待機モードをオンにする。待機モードがオンになると、表示装置10は、動作モードをPCモードに切り替えるためのUIオブジェクトB2を表示する(図9(A))。ここで、UIオブジェクトB1は情報処理装置30により表示されている(情報処理装置30から供給される映像信号により表示される)画像オブジェクトであり、UIオブジェクトB2は表示装置10により表示されている画像オブジェクトである。
ユーザーは、動作モードをPCモードに切り替えるため、UIオブジェクトB2が表示されている位置を指示体20でタッチする(図9(B))。UIオブジェクトB2が操作されたので、表示装置10は、候補線である線IM3を消去する。さらに、表示装置10は、UIオブジェクトB2を消去し、動作モードをPCモードに移行する。
4.変形例
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
ステップS130においてストローク長の測定に進む契機となるイベントはペンアップイベントに限定されない。線の描画が完了したことを示すイベントであれば、ペンアップイベント以外のイベントが発生したときに、ストローク長の測定に進んでもよい。
ステップS200において検知されるペンイベントは実施形態で説明したものに限定されない。例えば、CPU100は、ペンアップイベントが検知されたときに、処理をステップS230に移行してもよい。
表示装置10はプロジェクターに限定されず、そのハードウェア構成は図2で例示したものに限定されない。液晶ディスプレイや有機ELディスプレイなど、直視の表示装置であってもよい。この場合において、表示装置はタッチスクリーンを有し、表示面上で指示された位置をタッチスクリーンにより検知する。
検知手段12が表示面上の位置を検知する方法および指示体20に係るイベントを検知する方法は実施形態で説明したものに限定されない。表示装置10は、指示体20の形状または色によって指示体20の位置を特定してもよい。また、指示体20は筐体のグリップ部にボタンを有しており、ユーザーがこのボタンを押したときにペンダウンイベントを示す信号を出力してもよい(この場合、指示体20はペン先に圧力センサーを有していなくてもよい)。あるいは、ビームがスクリーンを覆うように、スクリーンの周囲に発光素子(レーザーダイオード等)および受光素子(フォトダイオード等)を設け、受光素子からの信号を用いて指示体20の位置およびペンイベントを検知してもよい。
指示体20は電子ペンに限定されない。特定の形状または色の筐体を有するスタイラスペンであってもよいし、ユーザーの指であってもよい。
実施形態においては動作モードが待機モードに切り替わったときにユーザーに通知が行われる例を説明したが、インタラクティブモードまたはPCモードに切り替わったときに通知が行われてもよい。この場合において、切り替え後の動作モードに応じて通知の方法が異なっていてもよい。
表示システム1において、表示装置10と情報処理装置30との間の機能の分担は図1で例示したものに限定されない。実施形態において表示装置10の機能として説明したものの少なくとも一部を、情報処理装置30に実装してもよい。また、図1の機能の一部は省略されてもよい。
1…表示システム、10…表示装置、11…表示手段、12…検知手段、13…描画手段、14…送信手段、15…切り替え手段、16…送信手段、17…受信手段、18…消去手段、19…通知手段、20…指示体、30…情報処理装置、31…実行手段、32…映像供給手段、33…判定手段、100…CPU、101…ROM、102…RAM、103…記憶部、104…IF部、105…画像処理回路、106…投写ユニット、107…操作パネル、108…カメラ

Claims (6)

  1. 表示装置であって、
    情報処理装置上で動作しているアプリケーションプログラムの画面を表示面に表示する表示手段と、
    前記表示面上における指示体の位置を検知する検知手段と、
    前記表示装置の動作モードが第1モードである場合、前記検知手段により検知された位置の軌跡に応じた線を前記表示面に描画する描画手段と、
    前記動作モードが第2モードである場合、前記検知手段により検知された位置を示す情報を前記情報処理装置に送信する送信手段と、
    前記動作モードが前記第1モードであったときに前記検知手段により検知された前記指示体の第1位置が前記画面において前記アプリケーションプログラムに対して入力を行うための第1画像オブジェクトを含む所定範囲内にあり、かつ、当該動作モードを前記第2モードに切り替えるユーザーからの指示が受け付けられた場合、前記線を消去する消去手段と
    を有する表示装置。
  2. 前記第1位置が前記第1画像オブジェクトを含む所定範囲内にあり、かつ、当該動作モードを前記第2モードに切り替えるユーザーからの指示が受け付けられた場合において、当該動作モードが前記第2モードに切り替わった後に前記検知手段により検知された前記指示体の位置が前記第1位置を含む所定範囲にあったとき、前記消去手段は、前記線を消去する
    ことを特徴とする請求項1に記載の表示装置。
  3. 前記動作モードが第3モードである場合、前記表示手段は、前記動作モードを前記第2モードに切り替える指示を入力するための第2画像オブジェクトを前記表示面に表示する
    ことを特徴とする請求項1または2に記載の表示装置。
  4. 前記第1位置が前記第1画像オブジェクトを含む所定範囲内にあり、かつ、当該動作モードを前記第2モードに切り替えるユーザーからの指示が前記第2画像オブジェクトを介して受け付けられた場合、前記消去手段は、前記線を消去する
    ことを特徴とする請求項3に記載の表示装置。
  5. 前記表示手段は、前記第1位置を含む所定範囲内に前記第2画像オブジェクトを表示する
    ことを特徴とする請求項3または4に記載の表示装置。
  6. 情報処理装置上で動作しているアプリケーションプログラムの画面を、表示装置が表示面に表示するステップと、
    前記表示面上における指示体の位置を検知するステップと、
    前記表示装置の動作モードが第1モードである場合、前記検知された位置の軌跡に応じた線を前記表示面に描画するステップと、
    前記動作モードが第2モードである場合、前記検知された位置を示す情報を前記表示装置から前記情報処理装置に送信するステップと、
    前記動作モードが前記第1モードであったときに前記検知された前記指示体の第1位置が前記画面において前記アプリケーションプログラムに対して入力を行うための第1画像オブジェクトを含む所定範囲内にあり、かつ、当該動作モードを前記第2モードに切り替えるユーザーからの指示が受け付けられた場合、前記線を消去するステップと
    を有する表示制御方法。
JP2015041280A 2015-03-03 2015-03-03 表示装置および表示制御方法 Expired - Fee Related JP6492775B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015041280A JP6492775B2 (ja) 2015-03-03 2015-03-03 表示装置および表示制御方法
US15/054,293 US9898996B2 (en) 2015-03-03 2016-02-26 Display apparatus and display control method
CN201610115504.7A CN105938413B (zh) 2015-03-03 2016-03-01 显示装置以及显示控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015041280A JP6492775B2 (ja) 2015-03-03 2015-03-03 表示装置および表示制御方法

Publications (3)

Publication Number Publication Date
JP2016162273A true JP2016162273A (ja) 2016-09-05
JP2016162273A5 JP2016162273A5 (ja) 2018-04-12
JP6492775B2 JP6492775B2 (ja) 2019-04-03

Family

ID=56847049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015041280A Expired - Fee Related JP6492775B2 (ja) 2015-03-03 2015-03-03 表示装置および表示制御方法

Country Status (3)

Country Link
US (1) US9898996B2 (ja)
JP (1) JP6492775B2 (ja)
CN (1) CN105938413B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121207A (ja) * 2018-01-09 2019-07-22 セイコーエプソン株式会社 画像提供装置、画像提供装置の制御方法、およびプログラム
JP2019169037A (ja) * 2018-03-26 2019-10-03 セイコーエプソン株式会社 表示装置、表示システムおよび表示装置の制御方法
CN111427528A (zh) * 2020-03-20 2020-07-17 北京字节跳动网络技术有限公司 显示方法、装置和电子设备

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108733285B (zh) * 2018-04-24 2020-04-07 维沃移动通信有限公司 一种提示方法和终端设备
JP7393359B2 (ja) * 2019-02-01 2023-12-06 株式会社ワコム 描画システム
JP7238594B2 (ja) * 2019-05-21 2023-03-14 セイコーエプソン株式会社 表示システムの制御方法、及び表示システム
JP2021153219A (ja) * 2020-03-24 2021-09-30 セイコーエプソン株式会社 表示装置の制御方法、情報処理装置および表示システム
CN115525201A (zh) * 2021-06-09 2022-12-27 精工爱普生株式会社 图像处理方法和图像处理装置
CN116450000A (zh) * 2022-01-07 2023-07-18 荣耀终端有限公司 触控屏显示方法、装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007248710A (ja) * 2006-03-15 2007-09-27 Funai Electric Co Ltd プロジェクタ
JP2012168619A (ja) * 2011-02-10 2012-09-06 Sharp Corp タッチ描画表示装置及びその操作方法
JP2012198858A (ja) * 2011-03-23 2012-10-18 Sony Corp 光信号出力装置、信号処理装置、信号処理方法、撮像装置、プロジェクタ、およびプログラム
US20130162607A1 (en) * 2011-12-27 2013-06-27 Seiko Epson Corporation Projector and method of controlling projector

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4208681B2 (ja) 2003-09-17 2009-01-14 株式会社リコー タッチパネル付きディスプレイ装置の表示制御方法、その方法をコンピュータに実行させるためのプログラム、タッチパネル付きディスプレイ装置
JP2008116874A (ja) 2006-11-08 2008-05-22 Seiko Epson Corp マルチディスプレイシステム、及びこのシステム上で実行されるプログラム
JP2012084122A (ja) * 2010-09-15 2012-04-26 Ricoh Co Ltd 画像表示装置、画像表示システム、画像表示方法、プログラムおよび記録媒体
US20120218203A1 (en) * 2011-02-10 2012-08-30 Kanki Noriyoshi Touch drawing display apparatus and operation method thereof, image display apparatus allowing touch-input, and controller for the display apparatus
CN104106037B (zh) * 2012-02-13 2017-10-03 日立麦克赛尔株式会社 投影仪,图形输入·显示装置,便携终端和程序
JP2013239147A (ja) * 2012-04-20 2013-11-28 Ricoh Co Ltd 表示制御装置
CN103345389B (zh) * 2013-06-06 2016-12-28 百度在线网络技术(北京)有限公司 一种应用于网页的矢量图形的操作方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007248710A (ja) * 2006-03-15 2007-09-27 Funai Electric Co Ltd プロジェクタ
JP2012168619A (ja) * 2011-02-10 2012-09-06 Sharp Corp タッチ描画表示装置及びその操作方法
JP2012198858A (ja) * 2011-03-23 2012-10-18 Sony Corp 光信号出力装置、信号処理装置、信号処理方法、撮像装置、プロジェクタ、およびプログラム
US20130162607A1 (en) * 2011-12-27 2013-06-27 Seiko Epson Corporation Projector and method of controlling projector
JP2013134409A (ja) * 2011-12-27 2013-07-08 Seiko Epson Corp プロジェクター、及び、プロジェクターの制御方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121207A (ja) * 2018-01-09 2019-07-22 セイコーエプソン株式会社 画像提供装置、画像提供装置の制御方法、およびプログラム
JP2019169037A (ja) * 2018-03-26 2019-10-03 セイコーエプソン株式会社 表示装置、表示システムおよび表示装置の制御方法
JP7069922B2 (ja) 2018-03-26 2022-05-18 セイコーエプソン株式会社 表示装置、表示システムおよび表示装置の制御方法
CN111427528A (zh) * 2020-03-20 2020-07-17 北京字节跳动网络技术有限公司 显示方法、装置和电子设备

Also Published As

Publication number Publication date
US9898996B2 (en) 2018-02-20
CN105938413A (zh) 2016-09-14
CN105938413B (zh) 2020-11-13
JP6492775B2 (ja) 2019-04-03
US20160260410A1 (en) 2016-09-08

Similar Documents

Publication Publication Date Title
JP6492775B2 (ja) 表示装置および表示制御方法
JP6543960B2 (ja) 表示装置、表示制御方法およびプログラム
US7489307B2 (en) Handwritten information input apparatus
CN110058782B (zh) 基于交互式电子白板的触摸操作方法及其系统
US10276133B2 (en) Projector and display control method for displaying split images
JP5915143B2 (ja) 電子情報ボード装置
CN106257923B (zh) 图像显示系统以及图像显示方法
JP2011203830A (ja) 投写システム及びその制御方法
JP6488653B2 (ja) 表示装置、表示制御方法および表示システム
JP2016162032A5 (ja)
US10274816B2 (en) Display device, projector, and display control method
WO2018109876A1 (ja) 表示装置、電子黒板システム及びユーザーインターフェース設定方法
JP5642425B2 (ja) 情報処理装置、情報処理装置の制御方法、制御プログラム、及び記録媒体
JP2021117766A (ja) 表示制御プログラム、表示制御方法、及び表示制御装置
WO2018159414A1 (ja) 端末装置及び操作制御プログラム
JP6682768B2 (ja) 表示システム、表示装置、情報処理装置及び制御方法
JP6540275B2 (ja) 表示装置および画像表示方法
US20220397977A1 (en) Image processing method and image processing device
JP6520227B2 (ja) 表示装置および表示制御方法
JP5819477B2 (ja) 情報処理装置、情報処理装置の制御方法、制御プログラム、及び記録媒体
JP2022188719A (ja) 画像処理方法および画像処理装置
WO2016163117A1 (en) Information processing apparatus, information input system, information processing method, and computer program product
JP2017117239A (ja) プログラムおよび情報処理装置
JP2015041295A (ja) 描画システム及び画像削除方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190218

R150 Certificate of patent or registration of utility model

Ref document number: 6492775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees