JP2013130979A - 情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体 - Google Patents

情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP2013130979A
JP2013130979A JP2011279047A JP2011279047A JP2013130979A JP 2013130979 A JP2013130979 A JP 2013130979A JP 2011279047 A JP2011279047 A JP 2011279047A JP 2011279047 A JP2011279047 A JP 2011279047A JP 2013130979 A JP2013130979 A JP 2013130979A
Authority
JP
Japan
Prior art keywords
display
information
displayed
information processing
object information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011279047A
Other languages
English (en)
Other versions
JP5836105B2 (ja
Inventor
Koji Akasaka
宏二 赤坂
Hiroshi Fukutomi
浩 福富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011279047A priority Critical patent/JP5836105B2/ja
Priority to IN3741CHN2014 priority patent/IN2014CN03741A/en
Priority to US14/359,622 priority patent/US9170719B2/en
Priority to PCT/JP2012/081530 priority patent/WO2013094413A1/ja
Publication of JP2013130979A publication Critical patent/JP2013130979A/ja
Application granted granted Critical
Publication of JP5836105B2 publication Critical patent/JP5836105B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Abstract

【課題】所望のオブジェクトを容易かつ確実に選択する。
【解決手段】表示装置1は、ホバー状態を検出するセンサ部11と、ホバー状態の位置を特定する位置検出部33と、特定位置から所定範囲内のオブジェクトを検出する選択ガイド作成部34と、検出したオブジェクトの情報を表示する選択ガイド表示処理部35と、オブジェクト情報が選択されるとオブジェクトの場合と同じ処理を実行するオブジェクト処理部36とを備えている。
【選択図】図1

Description

本発明は、表示面が操作受付面となり、該操作受付面に対する接触により操作を受け付ける情報処理装置、特に、操作面近傍の対象物を検出できる情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体に関するものである。
近年、スマートフォンやタブレットのように、表示面にタッチスクリーンを搭載し、表示面をタッチされることにより操作を受け付ける情報処理装置が多数、製品化されてきている。タッチスクリーンは、直感的で分かりやすい操作を実現することができることから、これからもますます搭載される情報処理装置が増えていくことが予想される。
タッチスクリーンには抵抗膜方式、静電容量方式、赤外線方式等が存在する。この中でも静電容量方式は、「ジェスチャー」のような複雑な入力が可能なことからマルチタッチ可能な静電容量方式を搭載した情報機器が普及している。
また、タッチスクリーンにおける表示について、様々な方法が開示されている。例えば特許文献1には、タッチされている位置に基づいてポップアップ表示を行う情報処理装置が記載されている。
また、特許文献2には、タッチした手の大きさに基づいたメニュー表示を行うメニュー表示装置が記載されている。
また、特許文献3、4には、タッチされた位置を拡大表示する表示装置が記載されている。
また、特許文献5には、タッチされたままドラッグされることにより表示内容を移動させる入力装置が記載されている。
また、特許文献6には、タッチされたオブジェクトを強調表示する命令実行装置が記載されている。
また、特許文献7には、タッチされた位置をズームイン表示するタッチスクリーンが記載されている。
特開2011−192173号公報(2011年9月29日公開) 特開2010−108080号公報(2010年5月13日公開) 特開2011−028451号公報(2011年2月10日公開) 特開2008−077272号公報(2008年4月3日公開) 特開2007−293511号公報(2007年11月8日公開) 特開2005−044026号公報(2005年2月17日公開) 特表2002−505783号公報(2002年2月19日公表)
しかしながら、タッチスクリーンでは、指先等でタッチして操作するため、操作対象のオブジェクトが細かいと所望のオブジェクトを選択することが困難となり易い。特に、携帯可能な情報機器では、表示画面のサイズを大きくできないため、オブジェクトが細かくなり易い。
そして、オブジェクトが細かく表示されていると、所望のオブジェクトとは異なるオブジェクトを選択してしまい、操作をやり直さなければならなくなる等の弊害も生じる。
また、指先等でタッチする場合、所望のオブジェクトを含む領域が指に隠れて見えなくなり、所望のオブジェクトを選択することが困難になる場合がある。この点について、図12、13を参照して説明する。図12は、表示部にいくつかのオブジェクトが表示されている例を示す図である。図12に示す表示例1201において、例えばオブジェクト「デジタルチューナー」を選択する場合、図13の表示例1301に示すように指をタッチすることが考えられる。この場合、所望のオブジェクトである「デジタルチューナー」を含む複数のオブジェクトが指に隠れてしまう。これでは、「デジタルチューナー」を容易かつ確実に選択することが難くなってしまう。
そして、上述した特許文献1〜7に記載の発明でも、オブジェクトが細かく表示された場合に、所望のオブジェクトを選択することが困難であることは変わらない。
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、タッチスクリーン等の接触を検知することにより操作を行う情報処理装置等において、所望のオブジェクトを容易かつ確実に選択できる情報処理装置等を実現することにある。
上記課題を解決するために、本発明に係る情報処理装置は、表示している複数のオブジェクトの中から選択されたオブジェクトに対する処理を実行するものであり、表示しているオブジェクトに対する、操作主体の接触を検出することによって、該オブジェクトに対する処理を実行する情報処理装置において、上記操作主体が表示面に接触せず、かつ該表示面から所定の距離以内に存在しているホバー状態を検出する検出部と、上記検出部がホバー状態を検出したとき、検出した操作主体によって示された上記表示面における位置を特定する位置特定手段と、上記位置特定手段が特定した位置から所定範囲内に表示されている複数のオブジェクトを検出するオブジェクト検出手段と、上記オブジェクト検出手段が検出した複数のオブジェクトそれぞれに対応するオブジェクト情報を、上記複数のオブジェクトの配置よりも拡散された配置となるように表示するオブジェクト情報表示手段と、上記オブジェクト情報表示手段が表示したオブジェクト情報に対する接触を検出すると、該オブジェクト情報と対応するオブジェクトが選択された場合と同様の処理を実行するオブジェクト処理手段と、を備えていることを特徴としている。
また、本発明に係る情報処理装置の制御方法は、表示している複数のオブジェクトの中から選択されたオブジェクトに対する処理を実行するものであり、表示しているオブジェクトに対する、操作主体の接触を検出することによって、該オブジェクトに対する処理を実行する情報処理装置の制御方法において、上記情報処理装置は、上記操作主体が表示面に接触せず、かつ該表示面から所定の距離以内に存在しているホバー状態を検出する検出部を備え、上記検出部がホバー状態を検出したとき、検出した操作主体によって示された上記表示面における位置を特定する位置特定ステップと、上記位置特定ステップで特定した位置から所定範囲内に表示されている複数のオブジェクトを検出するオブジェクト検出ステップと、上記オブジェクト検出ステップで検出した複数のオブジェクトそれぞれに対応するオブジェクト情報を、上記複数のオブジェクトの配置よりも拡散された配置となるように表示するオブジェクト情報表示ステップと、上記オブジェクト情報表示ステップで表示したオブジェクト情報に対する接触を検出すると、該オブジェクト情報と対応するオブジェクトが選択された場合と同様の処理を実行するオブジェクト処理ステップと、を含むことを特徴としている。
上記の構成または方法によれば、検出部が操作主体のホバー状態を検出したとき、操作主体によって示された表示面の位置から所定範囲内に表示されているオブジェクトのオブジェクト情報が表示される。
そして、オブジェクト情報は、対応するオブジェクトの配置よりも拡散された配置で表示され、オブジェクト情報に対する接触を検出すると、該オブジェクト情報に対応するオブジェクトに対する処理と同様の処理が実行される。
これにより、操作主体をホバー状態とすれば、ホバー位置近辺に存在するオブジェクトのオブジェクト情報が、オブジェクトの配置よりも拡散された配置で表示されるので、ユーザに対し、所望のオブジェクトのオブジェクト情報を容易かつ確実に選択できるように提示することができる。換言すれば、ユーザは、オブジェクト情報の選択を容易かつ確実に行うことができる。
したがって、オブジェクトの表示が細かく隣接している状態であっても、ユーザに対し、所望のオブジェクトの選択を容易かつ確実に行わせることができる。
ここで、所定範囲としては、例えば、指で表示面に接触したときに、隠れてしまう範囲等を挙げることができる。また、操作主体としては、ユーザの指やタッチペン等を挙げることができる。
本発明に係る情報処理装置では、上記オブジェクト検出手段は、上記検出部がホバー状態を検出したまま、上記位置特定手段が特定した位置が変更されたとき、変更後の位置から所定範囲内に表示されている複数のオブジェクトを検出し、上記オブジェクト情報表示手段は、上記変更後に上記オブジェクト検出手段が検出したオブジェクトに対応するオブジェクト情報を表示するものであってもよい。
上記の構成によれば、操作主体がホバー状態のまま、位置が移動すると、移動後の位置に基づいてオブジェクト情報が表示される。これにより、所望のオブジェクトが変更された場合であっても、容易にユーザに対し所望のオブジェクトのオブジェクト情報を提示することができる。
本発明に係る情報処理装置では、上記オブジェクト情報表示手段は、オブジェクト情報を表示後、上記検出部がホバー状態を検出しなくなっても、上記オブジェクト情報の表示を継続するものであってもよい。
上記の構成のよれば、オブジェクト情報表示後、検出部がホバー状態を検出しなくなっても、オブジェクト情報の表示を継続する。これにより、オブジェクト情報を選択するために、一旦、操作主体が表示面から離れてもオブジェクト情報を選択できるようにすることができる。
本発明に係る情報処理装置では、上記オブジェクト情報表示手段は、上記オブジェクト検出手段が検出した複数のオブジェクトそれぞれの表示間隔が所定値以下のとき、オブジェクト情報を表示するものであってもよい。
オブジェクトの表示間隔が、ある程度離れていれば、そのままでオブジェクトを選択することは容易である。上記の構成によれば、オブジェクトの表示間隔が所定値以下の場合にオブジェクト情報を表示するので、オブジェクトの選択が困難な場合のみオブジェクト情報の表示を行うことができる。
ここで、所定値としては、例えば指の大きさ程度を挙げることができる。
本発明に係る情報処理装置では、上記オブジェクト情報表示手段は、上記オブジェクト検出手段がオブジェクトを検出する範囲である上記所定範囲を示す範囲情報を、オブジェクト情報とともに表示するものであってもよい。
上記の構成によれば、オブジェクト情報が表示されるオブジェクトの範囲が表示されるので、ユーザに対し、どの範囲のオブジェクトのオブジェクト情報が表示されるかを明確に提示することができる。
本発明に係る情報処理装置では、上記オブジェクトに対する処理とは、オブジェクトが選択されると該オブジェクトに対応付けられたリンク先の表示データを表示するものであり、上記オブジェクト情報表示手段は、上記オブジェクト情報として当該オブジェクトに対応付けられたリンク先の名称および格納場所を表示するものであってもよい。
上記の構成によれば、オブジェクト情報として当該オブジェクトに対応付けられたリンク先の名称および格納場所を表示されるので、ユーザに対し、当該オブジェクトを選択した場合に表示されるリンク先の名称および格納場所を認識させることができる。
本発明に係る情報処理装置では、上記オブジェクトに対する処理とは、オブジェクトが選択されると該オブジェクトに対応付けられたリンク先の表示データを表示するものであり、上記オブジェクト情報表示手段は、上記オブジェクト情報として当該オブジェクトに対応付けられたリンク先の表示データの概要を示すサムネイル画像を表示するものであってもよい。
上記の構成によれば、オブジェクト情報として当該オブジェクトに対応付けられたリンク先の表示データの概要を示すサムネイル画像が表示されるので、ユーザに対し、当該オブジェクトを選択した場合に表示される表示データの概要を認識させることができる。
なお、上記情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記情報処理装置をコンピュータにて実現させる情報処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
以上のように、本発明に係る情報処理装置は、操作主体が表示面に接触せず、かつ該表示面から所定の距離以内に存在しているホバー状態を検出する検出部と、上記検出部がホバー状態を検出したとき、検出した操作主体から最も近い、上記表示面における位置を特定する位置特定手段と、上記位置特定手段が特定した位置から所定範囲内に表示されている複数のオブジェクトを検出するオブジェクト検出手段と、上記オブジェクト検出手段が検出した複数のオブジェクトそれぞれについて、対応するオブジェクトを示すオブジェクト情報を、オブジェクト情報が互いに重ならず、かつ対応するオブジェクトの表示と重ならないように表示するオブジェクト情報表示手段と、上記オブジェクト情報表示手段が表示したオブジェクト情報に対する接触を検出すると、該オブジェクト情報と対応するオブジェクトが選択された場合と同様の処理を実行するオブジェクト処理手段と、を備えている構成である。
また、本発明に係る情報処理装置の制御方法は、情報処理装置が、操作主体が表示面に接触せず、かつ該表示面から所定の距離以内に存在しているホバー状態を検出する検出部を備え、上記検出部がホバー状態を検出したとき、検出した操作主体から最も近い、上記表示面における位置を特定する位置特定ステップと、上記位置特定ステップで特定した位置から所定範囲内に表示されている複数のオブジェクトを検出するオブジェクト検出ステップと、上記オブジェクト検出ステップで検出した複数のオブジェクトそれぞれについて、対応するオブジェクトを示すオブジェクト情報を、オブジェクト情報が互いに重ならず、かつ対応するオブジェクトの表示と重ならないように表示するオブジェクト情報表示ステップと、上記オブジェクト情報表示ステップで表示したオブジェクト情報に対する接触を検出すると、該オブジェクト情報と対応するオブジェクトが選択された場合と同様の処理を実行するオブジェクト処理ステップと、を含む方法である。
これにより、操作主体をホバー状態とすれば、ホバー位置近辺に存在するオブジェクトのオブジェクト情報が表示されるので、ユーザに対し、所望のオブジェクトのオブジェクト情報を容易に提示することができるという効果を奏する。そして、オブジェクト情報は、互いに重ならず、かつ対応するオブジェクトと重ならずに表示されるので、ユーザに対し、オブジェクト情報を選択を容易かつ確実に行わせることができるという効果を奏する。
したがって、オブジェクトの表示が細かく隣接している状態であっても、オブジェクト選択情報を表示することにより、ユーザに対し、所望のオブジェクトに対する処理を容易かつ確実に行わせることができるという効果を奏する。
本発明の実施の形態を示すものであり、表示装置の要部構成を示すブロック図である。 上記表示装置の表示部に、選択ガイドが表示された状態を示す図である。 ホバー状態を説明するための図である。 上記表示装置における選択ガイド表示・実行処理の流れを示すフローチャートである。 上記表示装置における表示画面例を示す図である。 上記表示装置における表示画面例を示す図である。 上記表示装置における別の表示画面例を示す図である。 上記表示装置における別の表示画面例を示す図であり、(a)はオブジェクトの間隔が狭い場合を示す図であり、(b)はオブジェクト間隔が広い場合を示す図である。 上記表示装置における別の表示画面例を示す図である。 地図を表示する場合の表示例を示す図である。 テキストを表示する場合の表示例を示す図である。 従来技術を説明するための図であり、表示部にリンクを含むオブジェクトが表示されている状態を示す図である。 従来技術を説明するための図であり、表示部に表示されたオブジェクトを選択する様子を示す図である。
(本発明の概要)
本発明の一実施の形態について図1から図11に基づいて説明すれば、以下のとおりである。本実施の形態に係る表示装置(情報処理装置)1は、タッチスクリーンのように、指等が表示面に接触することにより操作を受け付けるとともに、指等(操作主体)が表示面に接触はしていないが近接している状態(ホバー状態)、およびホバー状態において指等に示された表示面における位置(ホバー位置)を検出するものである。そして、ホバー状態を検出すると、ホバー位置近傍のオブジェクトの選択ガイド(オブジェクト情報)を表示し、該選択ガイドが選択されると対応するオブジェクトが選択された場合と同じ処理を実行することで、オブジェクトの選択を容易かつ確実にするものである。
選択ガイドが表示された表示例を図2に示す。図2に示す表示例201では、指202の位置近傍に存在するオブジェクトである、「デジタルチューナー」、「MDオーディオ」、「ワイヤレスフォトアダプター」の選択ガイドが表示されている。ここでは、選択ガイドとして文字とURL(uniform resource locator)とが表示されている。
これにより、指により「デジタルチューナー」、「MDオーディオ」、「ワイヤレスフォトアダプター」のオブジェクトが隠れ、所望のオブジェクトの選択が困難となったり、所望のオブジェクトとは異なるオブジェクトを選択してしまうことを防止することができる。
ここで、ホバー状態とは、対象物が表示面(操作面)と所定の距離以下にあり、かつ、対象物と表示面とが接触していない状態をいう。具体的に図3を参照して説明する。図3の(a)、(b)は、ホバー状態を示す図である。図3の(a)に示す例では、表示部12と距離dだけ離れた位置に指が存在している。このように、対象物(ここでは指)が、表示部12から所定の距離以下で、かつ表示部12に接触していない状態がホバー状態である。また、タッチスクリーンが静電容量方式であれば、図3(b)に示す例もホバー状態となる。図3の(b)に示す例では、指と表示部12とが距離dだけ離れるとともに、爪が表示部12に接触している状態を示している。なお、図3の(b)に示すように、爪だけが表示部12に接触している状態であれば、ホバー状態のまま位置の移動をさせることが容易となる。
なお、以下の実施の形態では、リンクを含むオブジェクトを表示する場合について説明するが、本発明はこれに限られるものではない。また、リンクを含むオブジェクトとは、当該オブジェクトを選択する操作を受け付けると、当該オブジェクトと対応付けられているリンク先の情報を取得・表示するようなオブジェクトのことを言う。
(表示装置1の構成)
まず、本実施の形態に係る表示装置1の構成について、図1を参照して説明する。図1は、表示装置1の要部構成を示すブロック図である。
図1に示すように、表示装置1は、主制御部10、センサ部(検出部)11、表示部12、送受信部13、および表示データ記憶部14を含む構成である。
センサ部11は、表示部12と一体で構成されており、操作受付面(表示部12)に対する接触の有無、操作受付面に近接している(ホバー状態にある)対象物の有無、およびこれらの位置を検出し、検出した結果を検出処理部21に通知するものである。センサ部11および表示部12は、タッチスクリーンで構成されている。タッチスクリーンは静電容量方式であってもよいし、光センサ液晶とタッチパネルとを組み合わせた構成であってもよい。
ホバー状態にある対象物の有無は、例えば、静電容量方式のタッチスクリーンであれば、検出値を、接触している場合ほど高くなく、かつ、全く対象物を検出していないほど低くない範囲に設定することで検出できる。また、光センサ液晶とタッチパネルとの組み合わせであれば、接触の有無をタッチパネルで検出するとともに、光センサ液晶により対象物を検出しているがタッチパネルより接触が検出されていない場合をホバー状態とすることができる。
表示部12は、センサ部11と一体で構成され、表示データ等の各種情報を表示するものである。送受信部13は、外部のネットワーク5とデータの送受信を行うものである。
表示データ記憶部14は、表示部12で表示する表示データを記憶している。
主制御部10は、対象物の検出処理、接触検出処理、選択ガイド表示処理等を行うものであり、検出処理部21、選択ガイド処理部22、および表示制御部23を含む構成である。また、検出処理部21には、ホバー検出部31、接触検出部32、および位置検出部33が含まれている。また、選択ガイド処理部22には、選択ガイド作成部(オブジェクト検出手段)34、選択ガイド表示処理部(オブジェクト情報表示手段)35、およびオブジェクト処理部(オブジェクト処理手段)36が含まれている。
検出処理部21は、センサ部11から通知された検出結果を処理するものである。ホバー検出部31は、センサ部11が検出した対象物がホバー状態にあるか否かを判定し、ホバー状態にあれば、ホバー情報#21aを選択ガイド処理部22に通知する。
接触検出部32は、センサ部11が検出した対象物が操作受付面に接触しているか否かを判定し、接触状態にあれば接触情報#21bを選択ガイド処理部22に通知する。
位置検出部33は、ホバー検出部31が検出したホバー状態における操作主体が示す表示部12における位置、および接触検出部32が検出した接触状態の表示部12における位置を検出し、検出した位置を示す位置情報#21cを選択ガイド処理部22に通知する。
選択ガイド処理部22は、選択ガイドの作成、表示、消去等の処理を行うものである。選択ガイド作成部34は、ホバー検出部31からホバー情報#21aを受け取ると、位置検出部33から受け取った位置情報#21cと、表示制御部23が受け取った表示データ#14とを参照して、ホバー位置の近傍に存在するオブジェクトを検出する。そして、検出したオブジェクトに対応する選択ガイドを作成し、作成した選択ガイドを示す選択ガイド情報#34を選択ガイド表示処理部35に送信する。
選択ガイド表示処理部35は、選択ガイド作成部34から受け取った選択ガイド情報#34が示す選択ガイドを表示する位置を、表示データ#14を参照して決定し、選択ガイド情報およびその表示位置を示す選択ガイド表示情報#22aを表示制御部23に送信する。
また、選択ガイド表示処理部35は、選択ガイドを複数表示する場合、互いに離れた位置とするとともに対応するオブジェクトと重ならない位置にそれぞれの選択ガイドの表示位置を決定するとともに、対応するオブジェクトの配置よりも拡散された配置で表示する。また、対応するオブジェクトよりも大きいサイズで選択ガイドを表示してもよい。
オブジェクト処理部36は、接触情報#21bおよび位置情報#21cから接触位置が選択ガイド情報表示位置と同じが否かを判定し、同じであれば、当該選択ガイドと対応するオブジェクトが選択された場合と同様の処理を実行する。そして、オブジェクトの処理がオブジェクトが示すリンクを表示する処理であれば、リンク先を示すオブジェクト情報#22bを送受信部13に送信し、ネットワーク5を介してリンク先の表示データを取得して、表示データ記憶部14に格納する。
表示制御部23は、表示データ記憶部14に格納されている表示データ#14、選択ガイド表示処理部35から受け取った選択ガイド表示情報#22aを、表示部12に表示させる。
(表示装置1における処理の流れ)
次に、表示装置1における選択ガイドの表示、実行処理の流れについて、図4を参照して説明する。図4は、選択ガイドの表示、実行処理の流れを示すフローチャートである。
図4に示すように、表示装置1は、まず、検出処理部21のホバー検出部31がホバー状態を検出するとともに、位置検出部33がホバー位置を特定し(S1、位置特定ステップ)、ホバー状態が所定時間を超えると(S2でYES)、選択ガイド作成部34がホバー位置から所定の範囲内に存在するオブジェクトを検出する(S3、オブジェクト検出ステップ)。そして、選択ガイド作成部34は検出したオブジェクトに対応する選択ガイドを作成し(S4)、選択ガイド表示処理部35は選択ガイド作成部34が作成した選択ガイドの表示位置を決定する(S5)。
そして、表示制御部23は、選択ガイド表示処理部35が決定した表示位置に選択ガイドを表示させる(S6、オブジェクト情報表示ステップ)。
その後、位置検出部33がホバー位置の変更を検出すると(S7でYES)、ステップS3に戻り、選択ガイド作成部34は変更後の位置から所定の範囲内に存在するオブジェクトに対応する選択ガイドを作成する。
一方、位置検出部33がホバー位置の変更を検出することなく(S7でNO)、ホバー検出部31がホバーの検出をせず、かつ接触検出部32が接触の検出をしなければ(S8YES)、表示制御部23は、選択ガイドの表示位置を固定して、表示し続ける(S10)。
そして、接触検出部32が表示部12に対する接触を検出すると(S11でYES)、選択ガイド処理部22は、接触位置が選択ガイドの表示位置と同じ位置か否かを判定する(S14)。そして、接触位置が選択ガイドの表示位置と同じ位置であれば(S14)、選択ガイド表示処理部35は当該選択ガイドを選択状態表示にする。その後、接触位置が選択ガイドの表示位置と同じ位置のまま(S15でYES)、接触検出部32が接触を検出しなくなると(S19でYES)、オブジェクト処理部36は、接触されていた選択ガイドに対応するオブジェクトの処理を実行する(S20、オブジェクト処理ステップ)。
また、ステップS8で、ホバー検出部31がホバー状態を検出している状態のまま、接触検出部32が接触を検出すると(S8でNO)、接触位置に存在するオブジェクトの処理を実行する(S9)。接触位置に存在するオブジェクトの処理は、公知の技術で可能であるので、ここでの説明は省略する。
また、ステップS11で、接触を検出することなく(ステップS11でNO)、所定時間が経過すると(S12でYES)、選択ガイド表示処理部35は選択ガイドの表示を消去する(S13)。
また、ステップS14で、接触検出部32が検出した接触の位置が、選択ガイドが表示されている位置と異なる場合(S14でNO)、選択ガイド表示処理部35は選択ガイドの表示を消去する(S13)。
また、ステップS15で、接触位置が選択ガイドの表示位置から移動したことを検出すると(S15でYES)、選択ガイド表示処理部35は接触位置に存在していた選択ガイドの表示を非選択状態とする(S16)。その後、接触位置が選択ガイド位置に戻ったことを検出すると(S17でYES)、ステップS19に進む。一方、接触位置が選択ガイド位置に戻ることなく(S17でNO)、接触検出部32が接触を検出しなくなると(S18でYES)、選択ガイド表示処理部35は表示している選択ガイドを消去する(S12)。
以上が、表示装置1における選択ガイドの表示、実行処理の流れである。
上記の構成により、表示データが細かく、オブジェクト同士の間隔が短い場合でも、指をホバーさせることにより、選択ガイドを選択容易な位置に表示させることができる。そして、表示させて選択ガイドを選択することにより、所望のオブジェクトを容易かつ確実に選択することができる。また、オブジェクトを拡大表示するのではなく、選択ガイドを表示するので、表示されているオブジェクトの一覧性を損なうことがない。
また、ホバー状態でホバー位置を移動させると、移動後のホバー位置から所定範囲に存在するオブジェクトの選択ガイドを表示するので、所望のオブジェクトが変更になった場合でも容易に選択ガイドを表示させることができる。例えば、ダブルタップ等により選択ガイドを表示させた場合であれば、ダブルタップをやり直さなければならなくなり手間がかかってしまうが、上記の構成であればこのような手間をかける必要がなくなる。
(画面表示例)
次に、表示部12における画面表示例を図5、6を参照して説明する。図5、6は、表示装置1の各処理過程における画面表示の例を示す図である。
図5の画面例501は、ホバー検出部31が指202がホバー状態にあることを検出し、表示部12に選択ガイドが表示されている状態を示す図である。これは、図4のステップS6に対応する。この画面例501の状態で、ホバー状態を維持したまま指202の位置が移動されたことを検出すると、選択ガイド表示処理部35は画面例502に示すように、移動後のホバーの位置に近接するオブジェクトに対応する選択ガイドを表示させる。画面例502では、移動前の指202を破線、移動後の指202の位置および選択ガイドを実線で示す。
また、画面例501の状態から、ホバー検出部31がホバーを検出せず、かつ接触検出部32が検出状態を検出しない状態、すなわち、指202が表示部12から離れた状態になり、その後、いずれかの選択ガイド(ここでは、「デジタルチューナー」)に接触があったことを検出すると、選択ガイド表示処理部35は画面例503に示すように、接触された選択ガイドを選択状態表示とし、接触されていない選択ガイドを消去する。画面例503では、オブジェクト「デジタルチューナー」に対応する選択ガイドがタッチされている。この画面例503の状態で、そのまま接触検出部32が接触を検出しなくなる、すなわち指が離れると、オブジェクト処理部36は、オブジェクト「デジタルチューナー」に対するタッチがあったときと同じ処理を行う。ここでは、「デジタルチューナー」の画面(画面例504)を表示する処理を行う。
また、図6に示すように画面例503の状態から、接触検出部32が接触を検出したまま、位置検出部33が接触位置が移動したことを検出、すなわち指が表示部12に接触しまま移動したことを検出すると、選択ガイド表示処理部35は、選択表示状態にある選択ガイドを非選択表示状態にする(画面例601)。
(画面表示の他の例)
なお、表示部12に表示される画面例は、次のようなものであってもよい。例えば、図7の画面例701に示すように、選択ガイドを表示する(画面例501)ときに、どの範囲に含まれているオブジェクトの選択ガイドが表示されているのかを示す範囲表示を行ってもよい。画面例701では範囲表示702に含まれる3つのオブジェクトの選択ガイドが表示されていることが示されている。また、範囲表示702は、ホバー状態で指が移動した場合は、指の移動に追随して移動してもよい。
また、オブジェクト同士の表示間隔が所定の値よりも小さい場合のみ、選択ガイドを表示するものであってもよい。例えば、図8(a)の画面例801に示すように、オブジェクト同士の表示間隔が所定の値よりも小さい場合は選択ガイドを表示し、図8(b)の画面例802に示すように、オブジェクト同士の表示間隔が所定の値以上の場合は選択ガイドを表示しないものであってもよい。
また、選択ガイドの表示は、リンク先のアドレスではなく、リンク先の表示データのサムネイルであってもよい。図9の画面例901は、選択ガイドにサムネイル画像を表示した例を示している。サムネイル表示は、リンク先の表示データを取得してサムネイル画像を生成・表示するものであってもよいし、リンク先の適当な画像をそのままサムネイル画像として取得・表示するものであってもよい。
また、選択ガイドの表示形式は、ユーザが選択できるものであってもよい。
(付記事項1)
上述した実施の形態では、表示データがリンクを含むオブジェクトの場合を説明したが、本発明はこれに限られない。例えば、表示データが地図であり、指等をホバー状態にさせると、ホバー位置近傍の地図にレストランやガソリンスタンド等の情報が表示されるものであってもよい。図10を参照して説明する。図10の画面例1001は、表示部12に地図が表示されている例である。この画面例1001で、ホバー状態を検出すると、検出したホバー位置から所定範囲の領域に含まれているレストラン(画面例1002のR)やガソリンスタンド(画面例1002のGs)が表示される(画面例1002)。
なお、表示するのはレストランやガソリンスタンドに限られるものではなく、コンビニエンスストア、銀行、交番等、特に限定されない。また、表示する対象をユーザが設定できる構成であってもよい。
また、ホバー位置から所定範囲の領域のみ地図を航空写真に変更して表示するものであってもよいし、ホバー位置から所定範囲の領域を拡大表示するものであってもよい。
(付記事項2)
また、表示部12にテキストが表示されている場合に、ホバー位置から所定範囲に含まれるテキストを別の言語に翻訳して表示するものであってもよい。図11を参照して説明する。図11の画面例1101に示すように、日本語のテキストが表示されているときに、ホバー状態を検出すると、検出したホバー位置が所定の範囲に含まれる日本語のテキストが英語に翻訳されて表示される(画面例1102)。
なお、翻訳言語は、日本語→英語に限られるものではなく、どのような言語であってよい。また、翻訳だけでなく、ホバー位置に含まれる単語の意味や解説を表示するものであってもよい。
本発明は上述した実施の形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
最後に、表示装置1の各ブロック、特に主制御部10(検出処理部21のホバー検出部31、接触検出部32、位置検出部33、選択ガイド処理部22の選択ガイド作成部34、選択ガイド表示処理部35、オブジェクト処理部36、表示制御部23)は、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現していてもよいし、CPU(central processing unit)を用いてソフトウェア的に実現してもよい。
後者の場合、表示装置1は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである表示装置1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記表示装置1に供給し、そのコンピュータ(またはCPUやMPU(micro processing unit))が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM(compact disc read-only memory)/MO(magneto-optical)/MD(Mini Disc)/DVD(digital versatile disk)/CD−R(CD Recordable)等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM(erasable programmable read-only memory)/EEPROM(electrically erasable and programmable read-only memory)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。
また、表示装置1を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN(local area network)、ISDN(integrated services digital network)、VAN(value-added network)、CATV(community antenna television)通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE(institute of electrical and electronic engineers)1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(asynchronous digital subscriber loop)回線等の有線でも、IrDA(infrared data association)やリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(high data rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
画面にタッチすることにより処理を実行する表示装置において、表示データの表示を選択しやすくすることができるので、表示画面が小さい表示装置、例えば携帯用の表示装置に好適である。
1 表示装置(情報処理装置)
11 センサ部(検出部)
33 位置検出部(位置特定手段)
34 選択ガイド作成部(オブジェクト検出手段)
35 選択ガイド表示処理部(オブジェクト情報表示手段)
36 オブジェクト処理部(オブジェクト処理手段)
202 指(操作主体)

Claims (10)

  1. 表示している複数のオブジェクトの中から選択されたオブジェクトに対する処理を実行するものであり、表示しているオブジェクトに対する、操作主体の接触を検出することによって、該オブジェクトに対する処理を実行する情報処理装置において、
    上記操作主体が表示面に接触せず、かつ該表示面から所定の距離以内に存在しているホバー状態を検出する検出部と、
    上記検出部がホバー状態を検出したとき、検出した操作主体によって示された上記表示面における位置を特定する位置特定手段と、
    上記位置特定手段が特定した位置から所定範囲内に表示されている複数のオブジェクトを検出するオブジェクト検出手段と、
    上記オブジェクト検出手段が検出した複数のオブジェクトそれぞれに対応するオブジェクト情報を、上記複数のオブジェクトの配置よりも拡散された配置となるように表示するオブジェクト情報表示手段と、
    上記オブジェクト情報表示手段が表示したオブジェクト情報に対する接触を検出すると、該オブジェクト情報と対応するオブジェクトが選択された場合と同様の処理を実行するオブジェクト処理手段と、を備えていることを特徴とする情報処理装置。
  2. 上記オブジェクト検出手段は、上記検出部がホバー状態を検出したまま、上記位置特定手段が特定した位置が変更されたとき、変更後の位置から所定範囲内に表示されている複数のオブジェクトを検出し、
    上記オブジェクト情報表示手段は、上記変更後に上記オブジェクト検出手段が検出したオブジェクトに対応するオブジェクト情報を表示することを特徴とする請求項1に記載の情報処理装置。
  3. 上記オブジェクト情報表示手段は、オブジェクト情報を表示後、上記検出部がホバー状態を検出しなくなっても、上記オブジェクト情報の表示を継続することを特徴とする請求項1または2に記載の情報処理装置。
  4. 上記オブジェクト情報表示手段は、上記オブジェクト検出手段が検出した複数のオブジェクトそれぞれの表示間隔が所定値以下のとき、オブジェクト情報を表示することを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 上記オブジェクト情報表示手段は、上記オブジェクト検出手段がオブジェクトを検出する範囲である上記所定範囲を示す範囲情報を、オブジェクト情報とともに表示することを特徴とする請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 上記オブジェクトに対する処理とは、オブジェクトが選択されると該オブジェクトに対応付けられたリンク先の表示データを表示するものであり、
    上記オブジェクト情報表示手段は、上記オブジェクト情報として当該オブジェクトに対応付けられたリンク先の名称および格納場所を表示するものであることを特徴とする請求項1〜5のいずれか1項に記載の情報処理装置。
  7. 上記オブジェクトに対する処理とは、オブジェクトが選択されると該オブジェクトに対応付けられたリンク先の表示データを表示するものであり、
    上記オブジェクト情報表示手段は、上記オブジェクト情報として当該オブジェクトに対応付けられたリンク先の表示データの概要を示すサムネイル画像を表示するものであることを特徴とする請求項1〜5のいずれか1項に記載の情報処理装置。
  8. 請求項1〜7のいずれか1項に記載の情報処理装置を動作させる情報処理装置制御プログラムであって、コンピュータを上記の各手段として機能させるための情報処理装置制御プログラム。
  9. 請求項8に記載の情報処理装置制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
  10. 表示している複数のオブジェクトの中から選択されたオブジェクトに対する処理を実行するものであり、表示しているオブジェクトに対する、操作主体の接触を検出することによって、該オブジェクトに対する処理を実行する情報処理装置の制御方法において、
    上記情報処理装置は、上記操作主体が表示面に接触せず、かつ該表示面から所定の距離以内に存在しているホバー状態を検出する検出部を備え、
    上記検出部がホバー状態を検出したとき、検出した操作主体によって示された上記表示面における位置を特定する位置特定ステップと、
    上記位置特定ステップで特定した位置から所定範囲内に表示されている複数のオブジェクトを検出するオブジェクト検出ステップと、
    上記オブジェクト検出ステップで検出した複数のオブジェクトそれぞれに対応するオブジェクト情報を、上記複数のオブジェクトの配置よりも拡散された配置となるように表示するオブジェクト情報表示ステップと、
    上記オブジェクト情報表示ステップで表示したオブジェクト情報に対する接触を検出すると、該オブジェクト情報と対応するオブジェクトが選択された場合と同様の処理を実行するオブジェクト処理ステップと、を含むことを特徴とする情報処理装置。
JP2011279047A 2011-12-20 2011-12-20 情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体 Active JP5836105B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011279047A JP5836105B2 (ja) 2011-12-20 2011-12-20 情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体
IN3741CHN2014 IN2014CN03741A (ja) 2011-12-20 2012-12-05
US14/359,622 US9170719B2 (en) 2011-12-20 2012-12-05 Information processing device, method for controlling information processing device, and recording medium on which information processing device control program is recorded
PCT/JP2012/081530 WO2013094413A1 (ja) 2011-12-20 2012-12-05 情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011279047A JP5836105B2 (ja) 2011-12-20 2011-12-20 情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JP2013130979A true JP2013130979A (ja) 2013-07-04
JP5836105B2 JP5836105B2 (ja) 2015-12-24

Family

ID=48668311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011279047A Active JP5836105B2 (ja) 2011-12-20 2011-12-20 情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体

Country Status (4)

Country Link
US (1) US9170719B2 (ja)
JP (1) JP5836105B2 (ja)
IN (1) IN2014CN03741A (ja)
WO (1) WO2013094413A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015106418A (ja) * 2013-11-29 2015-06-08 株式会社 ハイヂィープ 仮想タッチパッド操作方法及びこれを行う端末機
JP2015225553A (ja) * 2014-05-28 2015-12-14 京セラ株式会社 携帯電子機器、携帯電子機器の制御方法およびプログラム
JP2016024657A (ja) * 2014-07-22 2016-02-08 日本電信電話株式会社 マルチタッチスクリーン付き携帯端末およびその動作方法
KR20170041219A (ko) * 2014-08-12 2017-04-14 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 렌더링된 콘텐츠와의 호버 기반 상호작용
WO2017154119A1 (ja) * 2016-03-08 2017-09-14 富士通株式会社 表示制御装置、表示制御方法および表示制御プログラム
JP2017220256A (ja) * 2017-09-06 2017-12-14 京セラ株式会社 携帯電子機器、携帯電子機器の制御方法およびプログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102135092B1 (ko) * 2013-06-03 2020-07-17 엘지전자 주식회사 영상표시장치의 동작 방법
JP6336252B2 (ja) * 2013-07-17 2018-06-06 キヤノン株式会社 レポート作成支援装置、その制御方法、及びプログラム
US9645651B2 (en) 2013-09-24 2017-05-09 Microsoft Technology Licensing, Llc Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
US9875019B2 (en) * 2013-12-26 2018-01-23 Visteon Global Technologies, Inc. Indicating a transition from gesture based inputs to touch surfaces
JP6494926B2 (ja) * 2014-05-28 2019-04-03 京セラ株式会社 携帯端末、ジェスチャ制御プログラムおよびジェスチャ制御方法
US10719132B2 (en) * 2014-06-19 2020-07-21 Samsung Electronics Co., Ltd. Device and method of controlling device
CN104317520B (zh) * 2014-10-23 2017-08-01 小米科技有限责任公司 显示区域内容处理方法及装置
US10324599B2 (en) * 2016-03-30 2019-06-18 Microsoft Technology Licensing, Llc Assistive move handle for object interaction
US11635883B2 (en) * 2020-02-18 2023-04-25 Micah Development LLC Indication of content linked to text

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269022A (ja) * 1997-03-25 1998-10-09 Hitachi Ltd 通信機能付き携帯型情報処理装置
JP2006309631A (ja) * 2005-05-02 2006-11-09 Seiko Epson Corp ウェブページデータの検索
EP1847915A2 (en) * 2006-04-19 2007-10-24 LG Electronics Inc. Touch screen device and method of displaying and selecting menus thereof
JP2008250948A (ja) * 2007-03-30 2008-10-16 Sharp Corp 情報処理装置、情報処理方法、情報処理プログラム、情報処理プログラムを記録した記憶媒体、並びに情報表示装置
JP2009026155A (ja) * 2007-07-20 2009-02-05 Toshiba Corp 入力表示装置および移動無線端末装置
JP2009129449A (ja) * 2007-11-19 2009-06-11 Palo Alto Research Center Inc レイアウト調整によるタッチ・スクリーン移動体装置におけるリンク・ターゲット精度の改善
JP2010152827A (ja) * 2008-12-26 2010-07-08 Brother Ind Ltd 入力装置
WO2011027665A1 (ja) * 2009-09-02 2011-03-10 日本電気株式会社 表示装置
JP2011070380A (ja) * 2009-09-25 2011-04-07 Yahoo Japan Corp Webページの閲覧支援プログラム、装置及び方法
JP2011192173A (ja) * 2010-03-16 2011-09-29 Ntt Docomo Inc 情報処理装置およびタッチパネル操作方法
JP2011526709A (ja) * 2008-06-24 2011-10-13 グーグル インコーポレイテッド ユーザー操作に基づく情報の表示方法及びシステム
JP2012133523A (ja) * 2010-12-21 2012-07-12 Sony Corp 表示制御装置、表示制御方法、及び、プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5995101A (en) * 1997-10-29 1999-11-30 Adobe Systems Incorporated Multi-level tool tip
US6211856B1 (en) 1998-04-17 2001-04-03 Sung M. Choi Graphical user interface touch screen with an auto zoom feature
JP2005044026A (ja) 2003-07-24 2005-02-17 Fujitsu Ltd 命令実行方法、命令実行プログラムおよび命令実行装置
US8205172B2 (en) * 2005-03-31 2012-06-19 Microsoft Corporation Graphical web browser history toolbar
US7814425B1 (en) * 2005-12-30 2010-10-12 Aol Inc. Thumbnail image previews
JP2007293511A (ja) 2006-04-24 2007-11-08 Murata Mach Ltd 入力装置及び画像形成装置
JP4818036B2 (ja) 2006-09-20 2011-11-16 三洋電機株式会社 タッチパネル制御装置およびタッチパネル制御方法
US8121902B1 (en) * 2007-07-24 2012-02-21 Amazon Technologies, Inc. Customer-annotated catalog pages
JP5367339B2 (ja) 2008-10-28 2013-12-11 シャープ株式会社 メニュー表示装置、メニュー表示装置の制御方法、およびメニュー表示プログラム
WO2010085773A1 (en) * 2009-01-24 2010-07-29 Kontera Technologies, Inc. Hybrid contextual advertising and related content analysis and display techniques
JP5564848B2 (ja) 2009-07-23 2014-08-06 富士通株式会社 表示装置、表示制御方法および表示制御プログラム
GB201007191D0 (en) * 2010-04-29 2010-06-09 British Broadcasting Corp Content provision system

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269022A (ja) * 1997-03-25 1998-10-09 Hitachi Ltd 通信機能付き携帯型情報処理装置
JP2006309631A (ja) * 2005-05-02 2006-11-09 Seiko Epson Corp ウェブページデータの検索
EP1847915A2 (en) * 2006-04-19 2007-10-24 LG Electronics Inc. Touch screen device and method of displaying and selecting menus thereof
JP2008250948A (ja) * 2007-03-30 2008-10-16 Sharp Corp 情報処理装置、情報処理方法、情報処理プログラム、情報処理プログラムを記録した記憶媒体、並びに情報表示装置
JP2009026155A (ja) * 2007-07-20 2009-02-05 Toshiba Corp 入力表示装置および移動無線端末装置
JP2009129449A (ja) * 2007-11-19 2009-06-11 Palo Alto Research Center Inc レイアウト調整によるタッチ・スクリーン移動体装置におけるリンク・ターゲット精度の改善
JP2011526709A (ja) * 2008-06-24 2011-10-13 グーグル インコーポレイテッド ユーザー操作に基づく情報の表示方法及びシステム
JP2010152827A (ja) * 2008-12-26 2010-07-08 Brother Ind Ltd 入力装置
WO2011027665A1 (ja) * 2009-09-02 2011-03-10 日本電気株式会社 表示装置
JP2011070380A (ja) * 2009-09-25 2011-04-07 Yahoo Japan Corp Webページの閲覧支援プログラム、装置及び方法
JP2011192173A (ja) * 2010-03-16 2011-09-29 Ntt Docomo Inc 情報処理装置およびタッチパネル操作方法
JP2012133523A (ja) * 2010-12-21 2012-07-12 Sony Corp 表示制御装置、表示制御方法、及び、プログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015106418A (ja) * 2013-11-29 2015-06-08 株式会社 ハイヂィープ 仮想タッチパッド操作方法及びこれを行う端末機
US10031604B2 (en) 2013-11-29 2018-07-24 Hideep Inc. Control method of virtual touchpad and terminal performing the same
JP2015225553A (ja) * 2014-05-28 2015-12-14 京セラ株式会社 携帯電子機器、携帯電子機器の制御方法およびプログラム
JP2016024657A (ja) * 2014-07-22 2016-02-08 日本電信電話株式会社 マルチタッチスクリーン付き携帯端末およびその動作方法
KR20170041219A (ko) * 2014-08-12 2017-04-14 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 렌더링된 콘텐츠와의 호버 기반 상호작용
KR102384130B1 (ko) 2014-08-12 2022-04-06 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 렌더링된 콘텐츠와의 호버 기반 상호작용
WO2017154119A1 (ja) * 2016-03-08 2017-09-14 富士通株式会社 表示制御装置、表示制御方法および表示制御プログラム
JP2017220256A (ja) * 2017-09-06 2017-12-14 京セラ株式会社 携帯電子機器、携帯電子機器の制御方法およびプログラム

Also Published As

Publication number Publication date
US20140344753A1 (en) 2014-11-20
US9170719B2 (en) 2015-10-27
JP5836105B2 (ja) 2015-12-24
IN2014CN03741A (ja) 2015-09-04
WO2013094413A1 (ja) 2013-06-27

Similar Documents

Publication Publication Date Title
JP5836105B2 (ja) 情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体
US10825456B2 (en) Method and apparatus for performing preset operation mode using voice recognition
KR102397602B1 (ko) 그래픽 사용자 인터페이스를 제공하는 방법 및 전자 장치
CN103677627B (zh) 在触摸装置中提供多窗口的方法和设备
KR102311221B1 (ko) 오브젝트 운용 방법 및 이를 지원하는 전자 장치
US9928028B2 (en) Mobile terminal with voice recognition mode for multitasking and control method thereof
JP5956725B2 (ja) コンテキスト認識型ヘルプ・コンテンツを提供する方法、デバイス、及びコンピュータ・プログラム製品
US20170205894A1 (en) Method and device for switching tasks
US10222963B2 (en) Display apparatus and control method capable of performing an initial setting
WO2019000438A1 (zh) 显示图形用户界面的方法及电子设备
KR101911804B1 (ko) 터치 디바이스에서 검색 기능 제공 방법 및 장치
US11188192B2 (en) Information processing device, information processing method, and computer program for side menus
US10705702B2 (en) Information processing device, information processing method, and computer program
US20140359493A1 (en) Method, storage medium, and electronic device for mirroring screen data
US10303328B2 (en) Mobile terminal and method for controlling the same
US20100138782A1 (en) Item and view specific options
US20150143291A1 (en) System and method for controlling data items displayed on a user interface
KR102368044B1 (ko) 사용자 단말 장치 및 이의 제어 방법
AU2014287956A1 (en) Method for displaying and electronic device thereof
US20140104178A1 (en) Electronic device for performing mode coversion in performing memo function and method thereof
US10545633B2 (en) Image output method and apparatus for providing graphical user interface for providing service
US20100138781A1 (en) Phonebook arrangement
US20190065030A1 (en) Display apparatus and control method thereof
KR20160004590A (ko) 전자 장치의 화면 표시 방법 및 전자 장치
KR101631101B1 (ko) 휴대단말의 폰북 제공 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151102

R150 Certificate of patent or registration of utility model

Ref document number: 5836105

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250