JP2018124735A - 表示装置、表示方法及びプログラム - Google Patents

表示装置、表示方法及びプログラム Download PDF

Info

Publication number
JP2018124735A
JP2018124735A JP2017015661A JP2017015661A JP2018124735A JP 2018124735 A JP2018124735 A JP 2018124735A JP 2017015661 A JP2017015661 A JP 2017015661A JP 2017015661 A JP2017015661 A JP 2017015661A JP 2018124735 A JP2018124735 A JP 2018124735A
Authority
JP
Japan
Prior art keywords
menu
touch
display
displayed
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017015661A
Other languages
English (en)
Other versions
JP6832725B2 (ja
Inventor
季穂 坂本
Kiho Sakamoto
季穂 坂本
寺田 智
Satoshi Terada
智 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017015661A priority Critical patent/JP6832725B2/ja
Priority to CN201810089717.6A priority patent/CN108376045B/zh
Priority to US15/883,197 priority patent/US10949078B2/en
Publication of JP2018124735A publication Critical patent/JP2018124735A/ja
Application granted granted Critical
Publication of JP6832725B2 publication Critical patent/JP6832725B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】利用者の操作に応じて、適切にメニューの表示態様を制御することにより、利用者にとって使い勝手の良い表示装置等を提供すること。
【解決手段】タッチパネルにコンテンツを表示する表示装置において、タッチパネルへのタッチ操作として、タッチパネルにタッチされたことを示すタッチダウンと、タッチパネルのタッチが解除されたことを示すタッチアップとを検出可能な検出手段と、コンテンツの表示領域内においてタッチダウンが検出された後、タッチアップが検出された場合に、メニューを表示する制御を行うメニュー表示制御手段と、を備える。
【選択図】図4

Description

本発明は、表示装置等に関する。
従来から、文章ファイルや画像ファイルといったコンテンツを一又は複数表示する制御が可能な表示装置が知られている。そして、このコンテンツ上に、例えば操作ペンでストロークを手書き入力できる表示装置が知られている。このような表示装置を利用し、例えば電子ホワイトボードのような使用方法がよく行われている。
このようなコンテンツに対して各種操作を行うために、メニューを表示することが一般的に行われている。ここでメニューを表示する場合、コンテンツと別表示とする場合と、コンテンツに重畳表示する場合がある。
このうち、メニューをコンテンツに重畳表示する場合は、メニューの表示の下にあるコンテンツが表示できないといった問題が生じてしまう。そこで、メニューを透過表示することで、下のコンテンツを表示したり、描画操作をしたりできるようにする発明が開示されている(例えば、特許文献1参照)。
特開2006−343856号公報
しかし、利用者がコンテンツに描画操作等を行う場合には、必ずしもメニュー表示は必要では無く、不要なメニュー表示が行われているという問題が生じていた。とくに、メニューを表示するタイミングとしては、従来はコンテンツ選択時であることから、メニューをあまり利用しない操作の場合でもメニューが表示されてしまい、必ずしも利便性が高いとは言えなかった。
また、上述した特許文献1においても、透過表示されたとしても、メニューが表示されているに過ぎない。近年、電子黒板や、電子テーブル等のように、コンテンツを利用したシステムが提案されているが、これらのシステムでは、コンテンツを表示することが主で有り、極力不要なメニュー表示は抑制したいという要望があったが、従前の技術では解決できていなかった。
上述した課題を解決するために、本発明は、利用者の操作に応じて、適切にメニューの表示態様を制御することにより、利用者にとって使い勝手の良い表示装置等を提供することである。
上述した課題を解決するために、本発明の表示装置は、
タッチパネルにコンテンツを表示する表示装置において、
前記タッチパネルへのタッチ操作として、前記タッチパネルにタッチされたことを示すタッチダウンと、前記タッチパネルのタッチが解除されたことを示すタッチアップとを検出可能な検出手段と、
前記コンテンツの表示領域内において前記タッチダウンが検出された後、前記タッチアップが検出された場合に、メニューを表示する制御を行うメニュー表示制御手段と、
を備えることを特徴とする。
本発明の表示装置における表示方法は、
タッチパネルにコンテンツを表示する表示装置における表示方法であって、
前記タッチパネルへのタッチ操作として、前記タッチパネルにタッチされたことを示すタッチダウンと、前記タッチパネルのタッチが解除されたことを示すタッチアップとを検出可能な検出ステップと、
前記コンテンツの表示領域内において前記タッチダウンが検出された後、前記タッチアップが検出された場合に、メニューを表示する制御を行うメニュー表示制御ステップと、
を含むことを特徴とする。
本発明の表示装置等によれば、タッチパネルへのタッチ操作として、タッチパネルにタッチされたことを示すタッチダウンと、タッチパネルのタッチが解除されたことを示すタッチアップとを検出可能であって、コンテンツの表示領域内においてタッチダウンが検出された後、タッチアップが検出された場合に、メニューを表示する制御を行うことができる。したがって、タッチアップ時にメニューが表示されることから、利用者が意図していないときに、メニューが表示されるということを抑制し、必要なときにメニュー表示を行うことが可能となる。
本明細書における表示装置の外観を説明するための図である。 第1実施形態における機能構成を説明するための図である。 第1実施形態における設定テーブルのデータ構成の一例を説明するための図である。 第1実施形態におけるメインの動作を説明するための動作フローである。 第1実施形態におけるメインの動作を説明するための動作フローである。 第1実施形態における動作(コンテンツの表示)を説明するための図である。 第1実施形態における動作タイミングを説明するための図である。 第2実施形態におけるメインの動作を説明するための動作フローである。 第3実施形態におけるメインの動作を説明するための動作フローである。 第4実施形態におけるメインの動作を説明するための動作フローである。 第5実施形態におけるメインの動作を説明するための動作フローである。 第6実施形態におけるメインの動作を説明するための動作フローである。 第7実施形態におけるメインの動作を説明するための動作フローである。 第8実施形態における設定テーブルのデータ構成の一例を説明するための図である。 第9実施形態におけるメインの動作を説明するための動作フローである。 第9実施形態における動作(コンテンツの表示)を説明するための図である。
以下、図面を参照して本発明を実施するための一実施形態について説明する。なお、説明の都合上、実施形態としては、本発明の表示装置をタッチパネルと一体となった表示装置に適用した場合を例に説明するが、利用者の操作入力により、オブジェクトが描画・配置可能な表示装置であれば、何れの装置であっても適用可能なことは勿論である。
[1.第1実施形態]
第1実施形態について説明する。第1実施形態は、利用者によるタッチアップ時にメニューが表示され、所定時間経過後にメニューの表示態様が変化する場合の実施形態について説明する。
本実施形態では、メニューの表示態様が変化する方法としては、メニューを表示した後、所定時間として非表示待機時間経過後に、メニューを非表示とする場合について説明する。
[1.1 全体構成]
まず、本発明の表示装置を適用した表示装置10の外観を図1に示す。表示装置10は、例えば液晶ディスプレイといった表示装置であり、タッチ入力が可能なタッチパネルで構成されている。
ここで、タッチパネルにより、タッチや、フリック、スライドといった利用者からの操作入力を受け付けることができる。この、タッチ等の検出方式としては、静電容量方式のようなタッチパネルであっても良いし、感圧式のタッチパネルであってもよい。すなわち、タッチ等、利用者の操作入力を適宜受け付けることが可能な装置であればよい。
また、タッチする方法としては、利用者による指であっても良いし、操作ペン15であっても良い。操作ペン15は、タッチペン、スタイラスペン等であり、単なる樹脂で構成されたものであっても良いし、操作検知可能な電子ペンであっても良い。
更に、操作ペン15を識別できる一意の識別情報(例えば、シリアル番号や、MACアドレス等)を利用して、操作ペン15の利用者を識別しても良い。
また、表示装置10としては種々の装置が考えられるが、大型の据置き型の表示装置であれば、例えば、電子黒板といった利用が考えられる。また、小型の可搬型の表示装置であれば、例えば、タブレット等の端末装置が考えられる。これ以外にも、例えばスマートフォン等の利用を考えても良い。それ以外にも、コンピュータや、カーナビゲーション、電子辞書といった種々の表示装置、情報処理装置に適用可能である。
[1.2 機能構成]
つづいて、本実施形態における表示装置10の機能構成について図2を用いて説明する。図2に示すように、表示装置10は、制御部110と、操作検出部120と、表示部130と、記憶部140と、操作ペン通信部150とを備えて構成されている。
制御部110は、表示装置10の全体を制御するための機能部である。制御部110は、記憶部140に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU(Central Processing Unit)等により構成されている。
また、制御部110としては、例えば、タッチパネルとして構成されている場合は表示画面(操作検出部120)を介して描画・入力された画像等のオブジェクトの表示や、他の画像入力装置から入力された画像の表示を制御したりする。
操作検出部120は、利用者からの操作を検出するための機能部である。例えば、表示部130と一体に構成されるタッチパネル等により構成されている。操作の検出方式としては、静電容量方式であったり、抵抗膜方式等の感圧式や、赤外線方式、電磁誘導方式であったりと何れの方法であっても良い。
また、操作検出部120は、タッチダウンと、タッチアップとを検出可能である。例えば、利用者によりタッチパネルにタッチされたとき(タッチパネルと接触したとき、操作が検知されたとき)を示すタッチダウンと、タッチパネルのタッチが解除されたとき(タッチパネルと接触状態が解除されたとき、操作が検出されなくなったとき)を示すタッチアップとの検出が可能である。
表示部130は、利用者に対して各種情報を表示したり、オブジェクトが描画・配置されたシートを表示したりするための機能部である。例えば、液晶ディスプレイ(LCD:liquid crystal display)や、有機ELディスプレイ等により構成されている。
記憶部140は、表示装置10の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部140は、例えば、SSD(Solid State Drive)等の半導体メモリや、HDD(Hard Disk Drive)等の磁気ディスクにより構成されている。
ここで、記憶部140には、各種設定値を記憶するための設定テーブル142が記憶され、コンテンツを記憶するコンテンツ記憶領域144が確保されている。
設定テーブル142のデータ構成の一例を図3に示す。設定テーブル142は、設定値として、表示待機時間(例えば、「1秒」)と、非表示待機時間(例えば、「5秒」)とを記憶している。表示待機時間は、最初のメニュー表示(第1メニュー)が表示されるまでの第1の待機時間であり、非表示待機時間は、第1メニューの表示態様を変化させて第2メニューに表示態様を変化させるための第2の待機時間である。
ここで、第2メニューとは、例えば本実施形態で説明しているようにメニュー自体を非表示としても良いし、小さい表示としても良い。小さい表示としては、例えばコンテンツ上に、第1メニューより高さが低いメニューに切り替えたり、一部表示に切り替えたり、アイコン表示(ここで、アイコンとは、絵、文字、図形、記号等を含むものである)に切り替えたりする場合が考えられる。
なお、設定テーブル142に記憶されている値は、予め記憶される値であっても良いし、サービスマンがサービスモードで設定したり、利用者が任意の値に設定したりしても良い。また、プログラムによって算出された値によって書き換えられても良い。また、本実施形態では、設定テーブル142として記憶部140に記憶されている実施形態について説明するが、実行されるプログラムの中に変数として記憶されたりしても良いし、外部記憶装置に記憶したり、サーバに記憶してその都度読み出したりする構成としても良い。
コンテンツ記憶領域144は、表示部130において表示するコンテンツが記憶されている領域である。コンテンツは、例えば利用者によって作成されるものであってもよいし、外部記憶装置から読み込まれたり、外部装置から受信されたりするものであってもよい。
ここで、コンテンツとは、静止画ファイル(JPEGや、GIF,PNG等)や、ドキュメントファイル(例えば、テキストファイルや、ワープロ・表計算・プレゼンテーションソフトといったドキュメントファイル、PDFファイル等)、動画ファイル(例えば、avi形式や、MPG形式の動画ファイル)を含むものである。
操作ペン通信部150は、操作ペン15と通信を行うための機能部である。ここで、操作ペン15と通信する方法としては、種々の方法が考えられ、具体的には、電磁誘導方式、アクティブ/パッシブ静電結合方式等により通信して、各種操作検知をしても良いし、無線通信等により通信して、各種操作検知をしても良い。
なお、記憶部140に記憶される内容は、表示装置10に記憶される内容として説明するが、例えば外部記憶装置に記憶されても良いし、クラウドサーバに記憶されても良い。これらの装置、サーバに記憶されたデータを適宜読み出して実行すれば良い。また、プログラムをサーバに記憶することにより、サーバ側でプログラムが実行されても良い。
[1.3 処理の流れ]
つづいて、第1実施形態における処理の流れについて、図4から図6を用いて説明する。図4及び図5は、第1実施形態におけるメイン処理について記載した動作フローである。図6は、表示部に表示されるコンテンツの表示例である。
本実施形態は、コンテンツが表示画面に表示されている場合に、利用者から操作入力があった場合に実行される処理である。すなわち、操作検出部120において、利用者からのタッチダウンが検出された場合に(ステップS102;Yes)、それ以降の処理を実行する。
ここで、タッチダウンの検出とは、利用者によりタッチが行われたときに発生するイベントにより検出可能である。例えば、ダウンイベントの発生や、タッチ状態がスタートしたことを判定することにより、検出可能である。また、ここでタッチされるのは、操作ペン15や、利用者の指(手)等である。
このタッチダウンを検出した位置(例えば、表示画面における座標位置)が、表示されているコンテンツ上である場合には、ステップS106から本実施形態の処理を実行する(ステップS104;Yes)。なお、コンテンツ上で無い場合には、対応する操作(例えば、音量調整や、新規コンテンツ作成のメニュー操作等)が実行されるが、当該操作の処理の説明については省略する。
つづいて、コンテンツ上においてタッチダウンが検出されている場合に、コンテンツ上に重畳表示されているメニューを非表示とする(ステップS106)。なお、コンテンツを非表示とするとしているが、例えば現在コンテンツ上にメニューが表示されていない場合には、処理を実行しない。
ここで、コンテンツとメニューの表示との対応について、図6を用いて説明する。図6(a)は、コンテンツW100上に、メニューM100が重畳表示されている状態である。本実施形態では、コンテンツW100の下側にメニューM100(メニュー表示領域に操作用のメニュー)を表示しているが、例えば上側に表示されても良いし、左右に表示されても良い。また、コンテンツW100と同じ幅で表示されているが、異なる幅で表示されても良い。
また、メニューM100は、コンテンツ上に透過して表示しても良い。例えば、透過率が50%で表示される場合には、メニューM100の下側のコンテンツについて、利用者は一部視認することが可能となる。
メニューM100には、各種操作ボタン(領域)が含まれている。例えば、図6(a)では、一例としてメニューボタンB102、描画ボタンB104、ピン止めボタンB106、大きさ変更ボタンB108が表示されている。
ここで、利用者がメニューM100上をタッチした場合には、メニューM100に対しての操作となる。例えば、描画ボタンB104をタッチすることにより、手書きペンの太さや色を変更することが可能となる。
各ボタンには、種々の機能が割り当て可能であることから、本実施形態においてはその動作説明については省略する。
ここで、図6(b)は、コンテンツW100において、メニューが非表示となった場合を示す一例である。このように、メニューM100は、表示/非表示といった表示態様を切り替えることが可能である。
図4に戻って処理を引き続き説明する。ステップS102においてタッチダウンが検出された後であることから、現在タッチ状態(タッチパネルに指/操作ペン15がタッチしている状態)となっている。タッチ状態ということで、現在種々の操作が実行可能である。例えば、操作ペン15による描画や、コンテンツを拡大/縮小、回転といった画像処理、移動処理といった種々の操作が行われる。
ここで、操作検出部120により、タッチアップが検出される(ステップS108)。タッチアップとは、タッチパネルから、指/操作ペン15が離れる状態(タッチパネルに接しない状態)のことをいうが、結果としてタッチが検出できなくなる状態のこという。
ここで、タッチアップが検出されてから、表示待機時間が経過したか否かを判定する(ステップS110)。本実施形態では、表示待機時間は、図3に示すように「1秒」である。したがって、1行経過するまでは、ステップS108から処理を繰り返し実行する。すなわち、待機状態となる。
ここで、表示待機時間を経過すると(ステップS110;Yes)、第1の表示態様である通常のメニューの表示が行われる(ステップS112)。すなわち、コンテンツ上に確保されるメニュー表示領域に、コンテンツに重畳するようにメニューが表示される。また、通常のメニュー表示とは、利用者が操作しやすいように、必要な操作用ボタン、アイコン等が適切な大きさで表示されていたり、文字により機能が表示されていたりする状態である。
つづいて、タッチダウンが検出されたか否かを判定する(図5のステップS150)。ここで、タッチダウンが検出されない場合には(ステップS150;No)、非表示待機時間が経過したか否かを判定する(ステップS158)。そして、非表示待機時間を経過するまではステップS150から処理を繰り返し実行することにより待機し(ステップS158;No→ステップS150)、非表示待機時間を経過した場合には、第2の表示態様としてメニューを非表示とする(ステップS158;Yes→ステップS160)。
ここで、本実施形態における非表示待機時間は、図3に示すように「5秒」である。ここで、メニューが表示されてから5秒経過したタイミングで、メニューを再び非表示にする。
すなわち、利用者により、タッチアップすることで、メニューが表示され、5秒間表示された後に、メニューが第2の表示態様として非表示に切り替わる。なお、この非表示待機時間のスタートは、タッチアップ検出時からであっても良い。この場合は、タッチアップしてから1秒後にメニューが表示され、その4秒後にメニューが非表示となる。
なお、第2の表示態様として、メニューを非表示とする場合に、例えばフェードアウト処理や、スライドアウト処理といった表示効果を付け加えてもよい。
また、メニューが表示されているときに、タッチダウンが改めて検出された場合(ステップS150;Yes)、当該タッチダウンの位置(利用者がタッチした位置)が、メニュー上であるか否かを判定する。すなわち、タッチダウン座標の検出位置が、メニュー領域上にあるか否かを判定する。
ここで、メニュー上の場合には、当該タッチされた位置に応じてメニュー操作が実行される(ステップS152;Yes→ステップS154)。メニュー操作は、上述したようにメニューに表示されている各種操作ボタンに応じた処理が実行されるが、各操作については説明を省略する。
そして、操作が終了した後、メニューを非表示に切り替える(ステップS156;Yes→ステップS160)。なお、操作終了後は、ステップS158に処理を遷移し、同様に非表示待機時間経過後にメニューを非表示としても良い。
また、ステップS152において、検出位置がメニュー上でない場合には、図4のステップS104から処理を実行することにより、同様の処理を繰り返し実行する(ステップS152;No→ステップS104)。
このタッチ検出の関係と、メニュー表示との関係とについて、図7のタイミングチャートを用いて説明する。まず、タッチがされていない場合は、通常メニュー表示はされていない(時間t10前)。ここで、タッチダウンが検出される、すなわちタッチの検出が「ON」になった場合、メニュー表示は「OFF」のままとなっている。
ここで、タッチアップが検出される、すなわちタッチ検出が「OFF」となる(時間t12)と、そこから表示待機時間経過した時間t14において、メニューが表示される(メニュー表示「ON」)。
つづいて、非表示待機時間経過した時間t16において、メニューが非表示となる(メニュー表示「OFF」)。
この後、時間t18においてタッチ検出が「ON」となり、時間t20においてタッチ検出が「OFF」となる。時間t20から、表示待機時間経過前の時間t22において、タッチ検出が「ON」となるため、メニュー表示は「OFF」のままとなる。
このように、タッチ検出ON(タッチダウン)と、タッチ検出OFF(タッチアップ)との間隔が短い場合には、メニューはその都度「ON」とはならない。これにより、メニューの表示/非表示が細かく切り替わってしまい、利用者にとって見にくくなるといった挙動を防ぐことが可能となる。
また、時間t24においてタッチ検出が「OFF」となり、表示待機時間経過後の時間t26においてメニューが表示される(メニュー表示「ON」)。ここで、本来は非表示待機時間メニューの表示がされるが、途中の時間t28において、タッチ検出が「ON」となったことから、メニューが非表示となる(メニュー表示「OFF」)。
このように、本実施形態によれば、必要に応じてメニューの表示態様が自動的に切り替わる、換言すれば、表示/非表示の状態が自動的に切り替わることとなる。また、表示待機時間経過後にメニューが表示されることから、例えば操作途中にメニューが表示されてしまうといったことを防ぐことが可能となる。また、細かく表示/非表示が切り替わることにより、いわゆるちらつき表示となることを防止することも可能となる。
なお、メニュー表示を優先的に行う場合には、例えば表示待機時間を「0秒」とすることで、タッチアップしたときにメニュー表示をするといったことも可能である。
また、上述した実施形態では、メニューの表示態様として、第2の表示態様は非表示の場合を説明したが、例えば図6(c)に示すように、第1の表示態様より小さい(高さが小さい)簡易メニューM110に切り替えたり、図6(d)に示すように、アイコンメニューM120に切り替えたりしてもよい。
[2.第2実施形態]
第2実施形態について説明する。第2実施形態は、タッチしたのが操作ペン15かそれ以外(例えば指)であるかを判定して、メニュー表示のタイミングを変える実施形態である。なお、本実施形態では、第1実施形態と機能構成は同一であり、第1実施形態と本実施形態との異なる点を中心に説明する。
すなわち、第1実施形態の図4を、図8に置き換えたものである。なお、第1実施形態と同一の処理については、同一の符号を付し、説明を省略する。
タッチダウンが検出された後(ステップS102;Yes)、コンテンツ上においてタッチしたものが操作ペン15か、それ以外(例えば、「指」)であるかを判定し、記憶部140に記憶する(ステップS202)。一例としては、タッチした物と通信可能であれば操作ペン15と判定し、それ以外のものであれが指と判定する。
そして、タッチアップが検出された場合に(ステップS108;Yes)、タッチしていたものが操作ペン15であれば、第1実施形態と同様に表示待機時間経過後にメニュー表示を行う(ステップS204;Yes→ステップS110;Yes→ステップS112)。
一方、タッチしていた物が操作ペン15以外、例えば指の場合には、タッチアップされたタイミングでメニューを表示する(ステップS240;No→ステップS112)。
このように、本実施形態によれば、タッチした物により、メニューを表示する時間を変更することができる。これは、例えば操作ペンの場合は、連続して描画操作を行うことが多いために、メニューを細かく表示しないといった制御を行う場合に有効である。
なお、タッチが操作ペン15で行われたか否かを判定すればよいため、例えば他のタイミングで判定してもよい。例えば、タッチダウンが検出された後にその都度判定して記憶しても良いし、タッチアップ検出時に判定しても良い。
また、ここでいうタッチが操作ペン15か、指かを記憶するのは、一時記憶を含む者である。したがって、ステップS108及びステップS204において、連続して処理を行っても良い。具体的には、タッチアップ検出時に、現在タッチアップされていた物が操作ペン15であれば表示待機時間経過後にメニューを表示し、それ以外の場合はメニューを直ぐに表示しても良い。
また、表示待機時間を操作ペン15と、それ以外とで切り替えていることから、例えばステップS204で操作ペン15以外と判定された場合でも、第2の表示待機時間経過後にメニューを表示しても良い。
[3.第3実施形態]
第3実施形態について説明する。第3実施形態は、ピン状態を判定し、メニューの表示/非表示を切り替える実施形態である。なお、本実施形態では、第1実施形態と機能構成は同一であり、第1実施形態と本実施形態との異なる点を中心に説明する。
すなわち、第1実施形態の図5を、図9に置き換えたものである。なお、第1実施形態と同一の処理については、同一の符号を付し、説明を省略する。
図6(a)のメニューにおいて、ピン止めボタンB106を利用者が選択することにより、ピン止め状態のON/OFFを切り替えることが可能とである。
そして、ピン止め状態が「OFF」の場合には、非表示待機時間経過後にはメニューが非表示となるが(ステップS158;Yes→ステップS302;Yes→ステップS160)、ピン止め状態が「ON」の場合には、メニューが表示されたままとなる(ステップS302;No)。
このように、本実施形態によれば、非表示待機時間を経過した場合であっても、利用者の設定により、メニューを表示したままとすることが可能となる。なお、図4のステップS106の前でも同様の判定を行うことで、ピン止め状態が「ON」の場合には、常にメニューを表示する状態としても良い。
なお、本実施形態において説明したピン止め状態とは、上述したように単にメニューを表示し続けるという機能で有っても良いし、他の機能に付随する機能であってもよい。例えば、ピン止め状態がONの場合、コンテンツが移動しないといった動作や、コンテンツの大きさを固定するといった動作が行われてもよい。なお、コンテンツの大きさが固定されている場合に、コンテンツ上で拡大/縮小操作(例えば、ピンチアウト/ピンチイン操作)が行われた場合には、コンテンツ内に表示されているコンテンツ部分だけが拡大/縮小される(すなわち、メニューの大きさは固定で表示される)としてもよい。
上述のように、コンテンツ自体もしくはコンテンツ内部のどちらの操作モードが選択されているかを示す状態表示として、操作モードの場合には常にメニューを表示するとしてもよい。他の例としては、シートに対するタッチの検出後の処理を判断するための属性として、常にメニュー上で状態の表示が必要な項目(例えば、ペンの色や種類)が選択されている場合には、常にメニューを表示するとしてもよい。例えば、描画ボタンB104からペン及び消しゴムが選択できる場合、どの描画モード(書くのか、消すのか、書く場合は何色か)で操作されるかを把握する必要があるために常に表示するものとする。
[4.第4実施形態]
第4実施形態について説明する。第4実施形態は、利用者のタッチ間隔の平均時間を算出し、非表示待機時間を自動的に調整する場合の実施形態である。なお、本実施形態では、第1実施形態と機能構成は同一であり、第1実施形態と本実施形態との異なる点を中心に説明する。
すなわち、第1実施形態の図4を、図10に置き換えたものである。なお、第1実施形態と同一の処理については、同一の符号を付し、説明を省略する。
すなわち、本実施形態では、タッチ間隔平均時間を算出する(ステップS402)。ここで、タッチ間隔平均時間とは、タッチアップから、次のタッチダウンまでの間隔の時間の平均である。当該間隔は、例えば同一の連続動作(描画動作→描画動作)であったり、所定の連続動作(描画動作→移動操作)であったりと、すなわちメニューを利用しなかった操作の間隔の時間を測定する。そして、これらの測定された時間の平均値を、タッチ間隔平均時間として算出する。
また、これらの操作は、メニューが表示されている間の操作のみを対象としても良いし、上限時間内の操作(例えば、3秒以上離れた間隔は除外し、3秒未満の間隔だけを対象とする等)を対象としても良い。このタッチ間隔時間は、本来メニューを表示しなかった方が良い時間として捉えることができる。
そして、現在の非表示待機時間と、タッチ間隔平均時間とを比較し、非表示待機時間の調整が必要か否かを判定する(ステップS404)。ここで、調整が必要な場合とは、非表示待機時間と、タッチ間隔平均時間とがどれだけ乖離しているかで判断される。
例えば、非表示待機時間と、タッチ間隔平均時間都の差が0.5秒以上がある場合や、2つの時間が20%以上離れている場合に、調整が必要と判定される。
そして、調整が必要と判定された場合には、非表示待機時間調整処理が実行される(ステップS404;Yes→ステップS406)。例えば、タッチ間隔平均時間に揃えても良いし、所定の調整時間を加算/減算してもよい。また、非表示待機時間を数段階持っており、タッチ間隔平均時間との差によって、段階を切り替えるようにしても良い。
このように、本実施形態によれば、非表示待機時間を利用者の操作タイミングに応じて調整する(可変させる)ことができる。
例えば、利用者によっては、タッチの操作間隔が長い場合がある、このような場合に、標準よりメニューの表示を抑制することにより、いわゆるちらつき表示をより効果的に抑えることが可能となる。
[5.第5実施形態]
第5実施形態について説明する。第5実施形態は、操作ペン15によって、操作ペン15に応じてメニューを切り替えて表示する場合の実施形態である。なお、本実施形態では、第1実施形態と機能構成は同一であり、第1実施形態と本実施形態との異なる点を中心に説明する。
すなわち、第1実施形態の図4を、図11に置き換えたものである。なお、第1実施形態と同一の処理については、同一の符号を付し、説明を省略する。
また、本実施形態においては、記憶部140に、操作ペン15の識別情報に対応づけて、個別メニューが記憶されている。例えば、利用者Aと、利用者Bとでは、異なる操作用のメニューが個別メニューとして記憶部140に記憶されている。
そして、ステップS502において、操作ペン15の識別情報を取得する(ステップS502)。タッチアップが検出された後、取得された識別情報に基づいて、個別メニューを読み出す(ステップS504)。
そして、表示待機時間経過後(ステップS110;Yes)、個別メニューが表示される(ステップS506)。
このように、本実施形態によれば、操作ペン15の識別情報に応じて、個別メニューの表示を切り替えて表示することが可能となる。この場合、例えば、利用者Aとして教師、利用者Bとして生徒が割り当てられている場合に、教師用のメニューと、生徒用のメニューとを必要に応じて切り替えて表示するといった利用方法が可能となる。
[6.第6実施形態]
第6実施形態について説明する。第6実施形態は、タッチ操作の種類に応じて、メニューを制御する場合の実施形態である。なお、本実施形態では、第1実施形態と機能構成は同一であり、第1実施形態と本実施形態との異なる点を中心に説明する。
すなわち、第1実施形態の図4を、図12に置き換えたものである。なお、第1実施形態と同一の処理については、同一の符号を付し、説明を省略する。
なお、本実施形態でいう特定操作は、コンテンツに対して行う操作のうち、シングルタッチ操作以外の操作をいう。例えば、拡大/縮小のためのスワイプ操作や、回転操作等をいう。また、特定操作として利用者が予め決めた操作(例えば、三本指でタッチする等)であっても良い。
タッチ操作により、タッチダウンが検出された場合、当該タッチ(操作)が特定操作であるか否かを判定する(ステップS602)。ここで、タッチ操作が特定操作ではない場合は、第1実施形態と同一の処理を実行するが、タッチ操作が特定操作の場合には、ステップS106〜ステップS110を実行しない。すなわち、メニュー表示を行う処理を実行する(ステップS602;Yes→ステップS112)。
このように、本実施形態によれば、特定操作の場合には、メニューを表示するといったことが可能となる。例えば、描画以外の操作の場合は、メニューの利用を優先する場合には、有効な手段である。
なお、特定操作の場合には、メニューを表示させないといった処理を実現することも可能である。この場合は、ステップS602において、特定操作であることが判定された場合には、ステップS160に処理を遷移させれば良い。
[7.第7実施形態]
第7実施形態について説明する。第7実施形態は、利用者がキャンセル操作をすることにより、メニューを非表示とする場合の実施形態である。なお、本実施形態では、第1実施形態と機能構成は同一であり、第1実施形態と本実施形態との異なる点を中心に説明する。
すなわち、第1実施形態の図4を、図13に置き換えたものである。なお、第1実施形態と同一の処理については、同一の符号を付し、説明を省略する。
本実施形態では、ステップS702において、表示キャンセル操作が検出されると(ステップS702;Yes)、ステップS160に処理が遷移する。すなわち、コンテンツにメニューが重畳表示されることなく、コンテンツが表示される。
キャンセル操作としては、例えば、操作ペン15でタッチしている状態で、更に指でタッチしたり、コンテンツ上でタッチしている以外に、タッチ操作をするといった、予め設定された又は利用者が設定したキャンセル操作が行われているか否かで判断される。
そして、キャンセル操作が行われている場合には、メニュー表示を行うことなく、コンテンツだけが表示されることとなる。
このように、本実施形態によれば、利用者の意図に応じて、操作用のメニューを強制的に非表示にするといった処理を実現することが可能となる。
[8.第8実施形態]
第8実施形態について説明する。第8実施形態は、タッチが検出されたコンテンツに応じて、表示待機時間や、非表示待機時間を変更する場合の実施形態である。なお、本実施形態では、第1実施形態と機能構成は同一であり、第1実施形態と本実施形態との異なる点を中心に説明する。
本実施形態では、設定テーブル142の内容が、図14の内容となっている。すなわち、コンテンツの種別(例えば、「静止画コンテンツ」)に対応づけて、表示待機時間と、非表示待機時間とがそれぞれ記憶されている。
そして、ステップS102及びS104において、検出位置となっている(現在操作対象となっている)コンテンツの種別を特定し、表示待機時間/非表示待機時間とを読み出す。これにより、ステップS110や、ステップS158において、メニューの表示/非表示の制御を、コンテンツ毎に時間を変えて行うことが可能となる。
なお、本実施形態では、コンテンツに応じて表示待機時間/非表示待機時間を対応づけて記憶しているが、その他にも操作ペンの識別情報、操作(スライド操作、回転操作)等に対応づけて記憶しても良い。
[9.第9実施形態]
第9実施形態について説明する。第9実施形態は、メニューを表示した後、経過時間によりメニューの大きさを段階的に変える場合の実施形態である。なお、本実施形態では、第1実施形態と機能構成は同一であり、第1実施形態と本実施形態との異なる点を中心に説明する。
すなわち、第1実施形態の図5を、図15に置き換えたものである。なお、第1実施形態と同一の処理については、同一の符号を付し、説明を省略する。
コンテンツ上にメニューが表示され、簡易表示待機時間が経過すると(ステップS904;Yes)、通常と異なる表示態様の簡易メニューが表示される(ステップS906)。
簡易メニューが表示されている状態で、非表示待機時間が表示されると(ステップS902;Yes→ステップS158;Yes)、メニューが非表示となる(ステップS160)。なお、ステップS902において、簡易メニュー表示中か否かを判定しているのは、簡易メニューが既に表示されている場合に、ステップS904及びステップS906を実行しないためである。
例えば、簡易メニュー表示の一例を図16に示す。図16に示すのは、コンテンツW200上に、重畳してメニューM200が表示されている。このメニューM200は、図6(a)で示したメニューM100より小型に表示されている。また、表示されている操作ボタンは、メニューボタンB202のみであり、メニューボタンB202が選択されることで、メニューを呼び出す構成としたり、再び図6(a)で示したメニューM100の表示を呼び出す構成としたりしてもよい。
また、簡易メニューの表示態様としては、例えばアイコン化しても良いし、透過表示に切り替えるにようしても良い。このように、本実施形態によれば、タッチアップ後にメニューが表示されるが、今度はメニューを非表示とする場合に、段階的に表示態様を変化させることが可能となる。
[10.変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
また、上述した実施形態では、操作検出部としてタッチパネルとし、タッチ操作(タップ操作)を例に説明したが、例えばマウス等の外部入力装置で、クリック操作等により操作が行われてもよい。
また、上述した実施形態では、表示部130と、操作検出部120とが一体となっているタッチパネルを例として説明したが、本実施形態に開示した発明を実施するためには、他の方式であっても良い事は勿論である。例えば、表示部130としてプロジェクタを利用し、操作検出部120として人感センサを利用しても良い。そして、操作検出部120、表示部130に制御用のコンピュータを接続することにより、表示システムとして実現されても良い。
また、上述した実施形態では、メニューがコンテンツ上に重畳して表示される例について説明したが、例えばメニューの外側に吹き出し表示されるように表示されても良い。
本実施形態を適用することにより、必要以外の場合に、メニュー表示を非表示とすることから、利用者にとって使い勝手の良い表示装置を提供することが可能となる。
また、上述した実施形態は、説明の都合上、それぞれ別に説明している部分があるが、技術的に可能な範囲で組み合わせて実行しても良いことは勿論である。例えば、第4実施形態の操作を、他の実施形態と組み合わせて実行しても良い。具体的には、第4実施形態と、第2実施形態とを組み合わせることにより、操作ペンと、指とのタッチ操作の違いにより、非表示待機時間を調整しても良い。
このように、本明細書に記載した各実施形態は、矛盾の無い範囲で組み合わせて実行することができる。
また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDD、SSDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。
また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本発明に含まれるのは勿論である。
10 表示装置
110 制御部
120 操作検出部
130 表示部
140 記憶部
142 設定テーブル
144 コンテンツ記憶領域
150 操作ペン通信部
15 操作ペン

Claims (10)

  1. タッチパネルにコンテンツを表示する表示装置において、
    前記タッチパネルへのタッチ操作として、前記タッチパネルにタッチされたことを示すタッチダウンと、前記タッチパネルのタッチが解除されたことを示すタッチアップとを検出可能な検出手段と、
    前記コンテンツの表示領域内において前記タッチダウンが検出された後、前記タッチアップが検出された場合に、メニューを表示する制御を行うメニュー表示制御手段と、
    を備えることを特徴とする表示装置。
  2. 前記メニュー表示制御手段は、前記タッチアップを検出した後に、第1の待機時間を経過後に、前記メニューの表示をすることを特徴とする請求項1に記載の表示装置。
  3. 前記タッチ操作が操作ペンで行われているか否かを判定するタッチ操作判定手段を更に有し、
    前記メニュー表示制御手段は、
    前記タッチ操作が前記操作ペンで行われている場合には、第1の待機時間を経過後に前記メニューの表示をし、
    前記タッチ操作が前記操作ペン以外で行われている場合には、前記第1の待機時間を待たずに前記メニューの表示をする、
    ことを特徴とする請求項1に記載の表示装置。
  4. 前記メニュー表示制御手段は、前記メニューを表示してから、第2の待機時間を経過後に、表示されている前記メニューの表示態様を切り替えることを特徴とする請求項1から3の何れか一項に記載の表示装置。
  5. 前記メニュー表示制御手段は、前記メニューの表示態様として、第2の待機時間を経過後に、前記メニューを非表示とする制御を行うことを特徴とする請求項4に記載の表示装置。
  6. 前記タッチダウンが検出されてから、前記タッチアップが検出されるまでの間の時間の平均値として、タッチ間隔平均時間を算出する算出手段と、
    前記第2の待機時間と、前記タッチ間隔平均時間とを比較することにより、前記第2の待機時間の調整を行う調整手段と、
    を更に備えることを特徴とする請求項4又は5に記載の表示装置。
  7. 前記メニュー表示制御手段は、前記メニューが表示されている状態において、前記コンテンツ上で前記タッチダウンが検出された場合には、前記メニューの表示態様を切り替える制御を行うことを特徴とする請求項1から6の何れか一項に記載の表示装置。
  8. 前記メニュー表示制御手段は、前記メニューを前記コンテンツに重畳して表示することを特徴とする請求項1から7の何れか一項に記載の表示装置。
  9. タッチパネルにコンテンツを表示する表示装置における表示方法であって、
    前記タッチパネルへのタッチ操作として、前記タッチパネルにタッチされたことを示すタッチダウンと、前記タッチパネルのタッチが解除されたことを示すタッチアップとを検出可能な検出ステップと、
    前記コンテンツの表示領域内において前記タッチダウンが検出された後、前記タッチアップが検出された場合に、メニューを表示する制御を行うメニュー表示制御ステップと、
    を含むことを特徴とする表示装置における表示方法。
  10. 請求項9に記載の表示装置における表示方法をコンピュータに実行させることを特徴とするプログラム。
JP2017015661A 2017-01-31 2017-01-31 表示装置、表示方法及びプログラム Active JP6832725B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017015661A JP6832725B2 (ja) 2017-01-31 2017-01-31 表示装置、表示方法及びプログラム
CN201810089717.6A CN108376045B (zh) 2017-01-31 2018-01-30 显示装置、显示方法以及非暂时性的记录介质
US15/883,197 US10949078B2 (en) 2017-01-31 2018-01-30 Display apparatus, display method, and non-transitory computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017015661A JP6832725B2 (ja) 2017-01-31 2017-01-31 表示装置、表示方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018124735A true JP2018124735A (ja) 2018-08-09
JP6832725B2 JP6832725B2 (ja) 2021-02-24

Family

ID=63017010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017015661A Active JP6832725B2 (ja) 2017-01-31 2017-01-31 表示装置、表示方法及びプログラム

Country Status (3)

Country Link
US (1) US10949078B2 (ja)
JP (1) JP6832725B2 (ja)
CN (1) CN108376045B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021006979A (ja) * 2019-06-27 2021-01-21 深▲せん▼市▲潁▼▲創▼科技有限公司Shenzhen Yingchuang Technology Co., Ltd. 制御方法、表示装置及び記憶媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003195996A (ja) * 2002-10-22 2003-07-11 Hitachi Ltd ガイダンス制御方法
JP2008191799A (ja) * 2007-02-02 2008-08-21 Hoya Corp 携帯機器
JP2015052982A (ja) * 2013-09-09 2015-03-19 パイオニア株式会社 表示制御装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03137686A (ja) * 1989-10-24 1991-06-12 Mazda Motor Corp タッチパネル装置
JPH0736142B2 (ja) * 1991-10-10 1995-04-19 インターナショナル・ビジネス・マシーンズ・コーポレイション 移動指示手段の運動停止を認識する方法および情報処理装置
JPH09146708A (ja) * 1995-11-09 1997-06-06 Internatl Business Mach Corp <Ibm> タッチパネルの駆動方法及びタッチ入力方法
JP4161814B2 (ja) * 2003-06-16 2008-10-08 ソニー株式会社 入力方法および入力装置
US20050071761A1 (en) * 2003-09-25 2005-03-31 Nokia Corporation User interface on a portable electronic device
US6856259B1 (en) * 2004-02-06 2005-02-15 Elo Touchsystems, Inc. Touch sensor system to detect multiple touch events
JP4280776B2 (ja) * 2004-05-11 2009-06-17 パイオニア株式会社 情報再生装置及び方法、並びにコンピュータプログラム
JP4628178B2 (ja) * 2005-05-16 2011-02-09 任天堂株式会社 情報処理装置および項目選択処理プログラム
JP4602166B2 (ja) 2005-06-07 2010-12-22 富士通株式会社 手書き情報入力装置。
US7644372B2 (en) * 2006-01-27 2010-01-05 Microsoft Corporation Area frequency radial menus
JP2008033739A (ja) * 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
US9715543B2 (en) * 2007-02-28 2017-07-25 Aol Inc. Personalization techniques using image clouds
US20090322686A1 (en) * 2008-06-25 2009-12-31 Parakrama Jayasinghe Control And Navigation For A Device Implementing a Touch Screen
US8482539B2 (en) * 2010-01-12 2013-07-09 Panasonic Corporation Electronic pen system
US20110181780A1 (en) * 2010-01-25 2011-07-28 Barton James M Displaying Content on Detected Devices
JP5777446B2 (ja) * 2010-11-30 2015-09-09 キヤノン株式会社 表示制御装置及びその制御方法
JP5875262B2 (ja) * 2011-06-29 2016-03-02 キヤノン株式会社 表示制御装置
JP5406333B2 (ja) * 2012-05-29 2014-02-05 京セラ株式会社 携帯端末、制御方法及びプログラム
US9268424B2 (en) * 2012-07-18 2016-02-23 Sony Corporation Mobile client device, operation method, recording medium, and operation system
CN103136181B (zh) * 2013-03-06 2017-04-12 惠州Tcl移动通信有限公司 电子阅读设备及其文本提取与保存的方法
KR102157270B1 (ko) * 2013-04-26 2020-10-23 삼성전자주식회사 펜을 이용하는 사용자 단말 장치 및 그 제어 방법
JP6271881B2 (ja) * 2013-06-26 2018-01-31 キヤノン株式会社 情報処理装置およびその制御方法、プログラム、記録媒体
US9317183B2 (en) * 2013-08-20 2016-04-19 Google Inc. Presenting a menu at a mobile device
CN103513871B (zh) 2013-09-30 2017-03-15 北界创想(北京)软件有限公司 控制移动终端的方法和装置
JP5977768B2 (ja) * 2014-01-14 2016-08-24 シャープ株式会社 画像表示装置及びその操作方法
US9645732B2 (en) * 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
JP6532372B2 (ja) * 2015-10-06 2019-06-19 キヤノン株式会社 表示制御装置、その制御方法およびプログラム
CN105912163B (zh) * 2016-04-11 2019-06-14 北京小米移动软件有限公司 实体按键组件、终端、触控响应方法及装置
DK179411B1 (en) * 2016-09-06 2018-06-06 Apple Inc Devices and methods for processing and rendering touch inputs unambiguous using intensity thresholds based on a prior input intensity

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003195996A (ja) * 2002-10-22 2003-07-11 Hitachi Ltd ガイダンス制御方法
JP2008191799A (ja) * 2007-02-02 2008-08-21 Hoya Corp 携帯機器
JP2015052982A (ja) * 2013-09-09 2015-03-19 パイオニア株式会社 表示制御装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021006979A (ja) * 2019-06-27 2021-01-21 深▲せん▼市▲潁▼▲創▼科技有限公司Shenzhen Yingchuang Technology Co., Ltd. 制御方法、表示装置及び記憶媒体

Also Published As

Publication number Publication date
CN108376045A (zh) 2018-08-07
US20190056846A1 (en) 2019-02-21
JP6832725B2 (ja) 2021-02-24
US10949078B2 (en) 2021-03-16
CN108376045B (zh) 2022-02-15

Similar Documents

Publication Publication Date Title
US20220100368A1 (en) User interfaces for improving single-handed operation of devices
US8976140B2 (en) Touch input processor, information processor, and touch input control method
JP5970086B2 (ja) タッチスクリーンホバリング入力処理
US10437360B2 (en) Method and apparatus for moving contents in terminal
US9367238B2 (en) Terminal apparatus and input correction method
EP2815299B1 (en) Thumbnail-image selection of applications
US20150338940A1 (en) Pen Input Modes for Digital Ink
US10928948B2 (en) User terminal apparatus and control method thereof
US20110283212A1 (en) User Interface
US20180329589A1 (en) Contextual Object Manipulation
EP2829967A2 (en) Method of processing input and electronic device thereof
EP3278203A1 (en) Enhancement to text selection controls
JP5628991B2 (ja) 表示装置、表示方法、及び表示プログラム
US20170285899A1 (en) Display device and computer-readable non-transitory recording medium with display control program recorded thereon
US11914857B1 (en) Methods and graphical user interfaces for pointing and editing on computing devices with touch-sensitive displays
JP6832725B2 (ja) 表示装置、表示方法及びプログラム
US20130234953A1 (en) Electronic device and method for displaying software input interface
US20140085340A1 (en) Method and electronic device for manipulating scale or rotation of graphic on display
JP6872883B2 (ja) 表示制御装置、表示システム、表示方法及びプログラム
US20180329610A1 (en) Object Selection Mode
US20180329583A1 (en) Object Insertion
US8823665B2 (en) Handheld electronic device and frame control method of digital information thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210202

R150 Certificate of patent or registration of utility model

Ref document number: 6832725

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150