JP2012242847A - 表示装置、ユーザインタフェース方法及びプログラム - Google Patents

表示装置、ユーザインタフェース方法及びプログラム Download PDF

Info

Publication number
JP2012242847A
JP2012242847A JP2011108669A JP2011108669A JP2012242847A JP 2012242847 A JP2012242847 A JP 2012242847A JP 2011108669 A JP2011108669 A JP 2011108669A JP 2011108669 A JP2011108669 A JP 2011108669A JP 2012242847 A JP2012242847 A JP 2012242847A
Authority
JP
Japan
Prior art keywords
category
display
pinch
image
icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011108669A
Other languages
English (en)
Other versions
JP5485220B2 (ja
Inventor
Naoki Hashida
直樹 橋田
Yuki Tsuge
結旗 柘植
Natsuko Kawano
奈津子 川野
Kosei Shimoo
晃誠 下尾
Fukiko Takayama
ふき子 高山
Yuko Sasahara
優子 笹原
Keiichi Murakami
圭一 村上
Makoto Hamatsu
誠 濱津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2011108669A priority Critical patent/JP5485220B2/ja
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to EP12786353.8A priority patent/EP2708996A4/en
Priority to RU2013127503/08A priority patent/RU2013127503A/ru
Priority to KR1020137016808A priority patent/KR20130099186A/ko
Priority to CN2012800048476A priority patent/CN103299263A/zh
Priority to US13/946,403 priority patent/US20140059492A1/en
Priority to PCT/JP2012/062148 priority patent/WO2012157562A1/ja
Priority to BR112013018113A priority patent/BR112013018113A2/pt
Publication of JP2012242847A publication Critical patent/JP2012242847A/ja
Application granted granted Critical
Publication of JP5485220B2 publication Critical patent/JP5485220B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】関連を有する複数のアイコン画像の表示状態を従来と異なる直感的な操作で切り替えられるようにする。
【解決手段】図(a)は、カテゴリA〜Eのカテゴリ画像がそれぞれ表示された状態の図であり、図(b)は、カテゴリBのアイコン画像b1〜b8が表示された状態の図である。また、図(c)は、カテゴリA〜Eのすべてのアイコン画像a1、b1〜b8、c1〜c3、d1〜d4、e1〜e2が表示された状態の図である。表示装置は、図(a)の画面において、ユーザがカテゴリBのカテゴリ画像を選択する選択操作を行うと図(a)の画面を表示させる一方、ユーザがピンチアウト操作を行うと図(c)の画面を表示させる。
【選択図】図6

Description

本発明は、GUI(Graphical User Interface)に関する。
タッチスクリーンを備える電子機器において、アイコン画像を複数並べて表示するとともに、ユーザのタッチ操作に応じて表示を変化させるGUIが存在する。特許文献1には、ユーザが頻繁に使用する機能のアイコンを保持するトレイ216と、ユーザがあまり頻繁に使用しない機能のアイコンを保持するトレイ214とを表示し、ユーザの操作によってアイコンをトレイ216からトレイ214に移動させることができる携帯用電子装置が記載されている。また、このようなアイコン画像は、一般に、追加や削除も可能である。
特開2009−151821号公報
アイコン画像を一覧表示する場合において、表示可能なアイコン画像の数が多くなると、ユーザが所望するアイコン画像を見つけにくくなる、という問題がある。例えば、フォルダ(ディレクトリともいう。)のような仕組みを用いてアイコン画像をグループ化し、そのグループ単位でアイコン画像の表示を制御する場合には、所望のアイコン画像を見つけるためにフォルダを一つ一つ開かなければならない。
そこで、本発明は、関連を有する複数のアイコン画像の表示状態を従来と異なる直感的な操作で切り替えられるようにすることを目的とする。
本発明の一態様に係る表示装置は、画像を表示する表示面を有する表示部と、操作者の接触による操作を受け付ける操作面を有する操作部と、複数のアイコン画像と、前記アイコン画像に関連付けられたカテゴリを表すカテゴリ画像とを前記表示部に表示させる表示制御部と、前記操作部により受け付けられた操作に基づき、前記操作面の2点に接触しつつ当該2点間の距離を広げるピンチアウト操作を認識する操作認識部とを備え、前記表示制御部は、前記操作認識部によりピンチアウト操作が認識された場合に、前記カテゴリに関連付けられた前記アイコン画像が非表示にされた収納状態から当該アイコン画像が表示された展開状態に切り替える構成を有する。
好ましい態様において、前記表示制御部は、前記展開状態において前記アイコン画像を表示させる前記カテゴリの数を、前記操作認識部により認識されたピンチアウト操作における前記2点の移動量又は移動速度に応じて変化させる。
別の好ましい態様において、前記表示制御部は、前記展開状態において前記アイコン画像を表示させる前記カテゴリを、前記操作認識部により認識されたピンチアウト操作の前記2点の位置に応じて変化させる。
さらに別の好ましい態様において、前記表示制御部は、前記展開状態において前記アイコン画像を表示させる前記カテゴリを、前記操作認識部により認識されたピンチアウト操作の前記2点の一方と他方の移動量の相違に応じて変化させる。
さらに別の好ましい態様において、前記操作認識部は、前記操作部により受け付けられた操作に基づき、前記操作面の2点に接触しつつ当該2点間の距離を狭めるピンチイン操作を認識し、前記表示制御部は、前記操作認識部によりピンチイン操作が認識された場合に、前記展開状態から前記収納状態に切り替える。
この場合において、前記表示制御部は、前記収納状態において前記アイコン画像を非表示にさせる前記カテゴリの数を、前記操作認識部により認識されたピンチイン操作における前記2点の移動量又は移動速度に応じて変化させてもよい。
あるいは、前記表示制御部は、前記収納状態において前記アイコン画像を非表示にさせる前記カテゴリを、前記操作認識部により認識されたピンチイン操作の前記2点の位置に応じて変化させてもよい。
あるいは、前記表示制御部は、前記収納状態において前記アイコン画像を非表示にさせる前記カテゴリを、前記操作認識部により認識されたピンチイン操作の前記2点の一方と他方の移動量の相違に応じて変化させてもよい。
本発明の他の態様に係るユーザインタフェース方法は、複数のアイコン画像と、前記アイコン画像が関連付けられたカテゴリを表すカテゴリ画像とを表示面に表示する表示部と、ユーザの接触による操作を受け付ける操作面において、当該操作面の2点に接触しつつ当該2点間の距離を広げるピンチアウト操作を受け付ける操作部とを備える表示装置において、前記カテゴリ画像が前記表示面に表示された状態で前記ピンチアウト操作を受け付ける第1のステップと、前記ピンチアウト操作が受け付けられた場合に、前記カテゴリに関連付けられた前記アイコン画像が非表示にされた収納状態から当該アイコン画像が表示された展開状態に切り替える第2のステップと有する。
本発明の他の態様に係るプログラムは、複数のアイコン画像と、前記アイコン画像が関連付けられたカテゴリを表すカテゴリ画像とを表示面に表示する表示部と、ユーザの接触による操作を受け付ける操作面において、当該操作面の2点に接触しつつ当該2点間の距離を広げるピンチアウト操作を受け付ける操作部とを備える表示装置のコンピュータに、前記カテゴリ画像が前記表示面に表示された状態で前記ピンチアウト操作が受け付けられたことを認識する第1のステップと、前記ピンチアウト操作を認識した場合に、前記カテゴリに関連付けられた前記アイコン画像が非表示にされた収納状態から当該アイコン画像が表示された展開状態に切り替える第2のステップと実行させるためのものである。
本発明によれば、関連を有する複数のアイコン画像の表示状態を従来と異なる直感的な操作で切り替えられるようにすることが可能である。
表示装置の外観上の構成を示す図 表示装置のハードウェア構成を示すブロック図 アイコン表示画面を例示する図 制御部の機能的構成を示す機能ブロック図 表示装置が実行する表示制御処理を示すフローチャート 第1実施形態の画面遷移を例示する図 第2実施形態のマルチ展開処理を示すフローチャート 第2実施形態のマルチ収納処理を示すフローチャート 移動量dと展開(又は収納)するカテゴリの数mとの関係を記述したテーブルを例示する図 第3実施形態のマルチ展開処理を示すフローチャート 第3実施形態のマルチ収納処理を示すフローチャート 移動量d1とd2の具体例を示す図
[第1実施形態]
図1は、本発明の一実施形態である表示装置100の外観上の構成を示す図である。表示装置100は、表示面101を備える電子機器である。表示面101は、画像を表示する面であり、かつ、ユーザの指による操作を受け付けることができる面である。表示面101は、ここでは縦長の長方形であるとする。なお、表示面101は、裸眼立体視などの方法により画像を立体的に知覚させるものであってもよい。
表示装置100は、ユーザが表示面101に対して指で操作を行える程度のサイズであり、例えば、携帯電話機(スマートフォンを含む。)、タブレットPC(Personal Computer)又はスレートPC、PDA(Personal Digital Assistant)である。表示装置100は、ユーザがこれを手に持って操作できる程度のサイズであってもよいが、机の上に置いたりホルダに取り付けたりして操作するものであってもよい。なお、表示装置100は、必ずしも平板状でなくてもよい。
図2は、表示装置100のハードウェア構成を示すブロック図である。表示装置100は、制御部110と、記憶部120と、タッチスクリーン部130と、通信部140とを少なくとも備える。なお、表示装置100は、図2に示した構成のほかに、スピーカやマイクロホン(又はその入出力部)、カメラ(ビデオカメラを含む。)、バイブレータなどを備えてもよい。
制御部110は、表示装置100の各部の動作を制御する手段である。制御部110は、CPU(Central Processing Unit)などの演算処理装置や、ROM(Read Only Memory)、RAM(Random Access Memory)などの記憶装置を備え、ROM又は記憶部120に記憶されたプログラムを実行することによって本発明に係るGUIを実現する。また、制御部110は、複数のアプリケーションソフトウェア(以下単に「アプリケーション」ともいう。)を実行し、各々のアプリケーションに応じた機能を実現することが可能である。制御部110は、複数のタスク(プロセス)を同時に実行できるマルチタスクシステムであってもよく、また、マルチコア構成によってマルチタスク処理を実現してもよい。
記憶部120は、データを記憶する手段である。記憶部120は、例えば、ハードディスク、フラッシュメモリなどの記録媒体を備え、制御部110が使用するデータを記憶する。記憶部120は、いわゆるリムーバブルディスク、すなわち着脱可能な記録媒体を含んでもよい。記憶部120は、制御部110が実行するプログラムや、表示面101に表示される画像データを記憶することができる。また、記憶部120は、同一のユーザが複数の表示装置100を利用したり、あるいは複数のユーザが同一の表示装置100を利用したりする場合には、各ユーザを識別するための識別情報を記憶していてもよい。
タッチスクリーン部130は、画像を表示する手段であり、かつ、ユーザの操作を受け付ける手段である。タッチスクリーン部130は、より詳細には、表示面101に画像を表示する表示部131と、表示面101に対するユーザの操作を受け付ける操作部132とを含んで構成される。
表示部131は、液晶素子や有機EL(electroluminescence)素子により画像を表示する表示パネルと、この表示パネルを駆動する駆動回路などを備え、制御部110から供給される表示データに応じた画像を表示面101に表示させる。操作部132は、表示面101を覆うように重ねて設けられ、表示面101に対する指の接触を検出する面状のセンサを備え、指の接触を検出した位置(以下「接触点」という。)を示す操作情報を制御部110に供給する。操作部132は、いわゆるマルチタッチに対応しており、複数の接触点を同時に検出することが可能である。
通信部140は、データを送受信する手段である。通信部140は、移動体通信網、インターネットなどのネットワークに接続するネットワークインタフェースであってもよいが、NFC(Near Field Communication)による無線通信のように、他の電子機器とネットワークを介さずに接続するものであってもよい。また、通信部140は、電子マネーや電子チケット(電子クーポン)のような、金銭的な価値を有する情報のやりとりに用いられてもよい。
表示装置100のハードウェア構成は、以上のとおりである。表示装置100は、この構成のもと、さまざまなアプリケーションを実行する。表示装置100が実行するアプリケーションは、例えば、ニュースや天気予報の通知、映像(静止画又は動画)や音楽の再生、ゲーム、電子書籍の閲覧などを実行するためのもののほか、いわゆるメーラやWebブラウザに相当するものを含んでもよい。これらのアプリケーションは、他のアプリケーションと同時に実行可能なものや、バックグラウンドで実行可能なものを含む。また、これらのアプリケーションは、表示装置100にあらかじめインストールされていてもよいし、コンテンツプロバイダなどの事業者からユーザが購入し、通信部140を介して取得するようにしてもよい。
また、表示装置100は、これらのアプリケーションをアイコン画像として表示するためのアプリケーションを実行する。以下においては、このアプリケーションのことを特に「アイコン表示アプリケーション」といい、この一覧表示アプリケーションによってアイコン表示されるアプリケーションのことを単に「アプリ」という。ここでいうアプリは、表示装置100が実行可能なアプリケーションからアイコン表示アプリケーションを除いたものであるが、その一部であっても全部であってもよい。すなわち、アイコン表示アプリケーションは、表示装置100が実行可能なアプリケーションの一部のみをアイコン表示の対象としてもよい。
アイコン表示アプリケーションは、ユーザがアプリを管理したり起動したりするために用いられるアプリケーションである。ここでいう管理とは、あらかじめ決められたカテゴリに従ってアプリを分類したり、アプリに対してカテゴリを新たに定義したりすることをいう。アプリのカテゴリは、「ゲーム」や「音楽」といったような、ユーザがアプリの種類を認識しやすいように割り振られた属性を有する。なお、カテゴリは、例えば、「最近よく使っているアプリ」のような、ユーザによるアプリの使用の頻度や実績に応じて分類されるものであってもよい。すなわち、アイコン表示アプリケーションは、カテゴリをアプリケーション自体が判断してアプリを分類してもよいし、ユーザの判断(指示)に従ってアプリを分類してもよい。
図3は、アイコン表示アプリケーションが表示する画面(以下「アイコン表示画面」という。)を例示する図である。アイコン表示画面は、アイコン画像とカテゴリ画像とを含むことができる。同図において、Im10、Im20、Im30、Im40、Im50は、カテゴリ画像であり、Im21、Im22、…、Im27、Im28は、アイコン画像である。アイコン画像Im21〜Im28は、カテゴリ画像Im20が表すカテゴリ「B」に属する画像である。なお、ここに示すカテゴリ「A」〜「E」は、各カテゴリに便宜的に付した名称である。
アイコン画像は、アプリに割り当てられた画像である。アイコン画像は、アプリ毎にあらかじめ決められた画像であってもよいが、ユーザが作成したり、あらかじめ決められた選択肢の中からユーザが選択したりしたものであってもよい。アイコン画像は、同一のカテゴリに属する画像同士が近くにまとめて表示されるように、その配置が決められている。本実施形態の例では、アイコン画像が1行あたり4個まで表示可能であり、同一カテゴリのアイコン画像が増える毎に行数が増えるようになっている。
カテゴリ画像は、カテゴリを表す画像であり、1又は複数のアイコン画像が関連付けられている。すなわち、あるカテゴリ画像に関連付けられているアイコン画像は、当該アイコン画像に割り当てられたアプリが当該カテゴリ画像によって表されるカテゴリに属していることを意味する。本実施形態のカテゴリ画像は、関連付けられたアイコン画像が表示される場合に、当該アイコン画像の上部に表示されるようになっている。
アイコン画像は、カテゴリ単位で表示・非表示が制御可能である。図3の例は、カテゴリ「B」に属するアイコン画像のみが表示され、他のカテゴリ「A」、「C」、「D」、「E」に属するアイコン画像が非表示となっている状態を示したものである。以下においては、説明の便宜上、カテゴリ画像(又はカテゴリ)に関連付けられたアイコン画像が表示されている状態のことを「展開状態」といい、カテゴリ画像(又はカテゴリ)に関連付けられたアイコン画像が非表示にされている状態のことを「収納状態」という。同様に、関連付けられたアイコン画像を表示させることを「展開する」といい、関連付けられたアイコン画像を非表示にさせることを「収納する」という。図3の例は、カテゴリ「B」に属するアイコン画像が展開されている状態であり、他のカテゴリ「A」、「C」、「D」、「E」に属するアイコン画像が収納されている状態を示している。
なお、アイコン表示画面は、その全部が表示面101に同時に表示されなくてもよい。すなわち、アイコン表示画面は、いわゆるスクロール表示によって全面が表示されるようになっていてもよい。なぜならば、アイコン表示画面は、展開されるアイコン画像の数によって上下方向の長さが変わり得るからである。
図4は、制御部110の機能的構成のうち、特にアイコン表示に関連するものを示す機能ブロック図である。制御部110は、所定のプログラムを実行することにより、同図に示す操作情報取得部111、操作認識部112及び表示制御部113の各部に相当する機能を実現する。なお、これらの機能は、複数のプログラムの協働によって実現されてもよい。例えば、操作情報取得部111や操作認識部112は、アプリケーションではなく、OS(Operating System)などのシステムソフトウェアによって実現され、表示制御部113がアイコン表示アプリケーションによって実現されてもよい。
操作情報取得部111は、操作情報を取得する手段である。操作情報取得部111は、より詳細には、タッチスクリーン部130の操作部132から操作情報を取得する。操作情報は、ここでは、表示面101の所定の位置(例えば、中心や四隅のいずれか)を原点とした2次元直交座標系によって表示面101の各位置を表すものとする。操作情報は、ユーザが接触点を移動させながら表示面101に触れる場合には、時々刻々と変化する。
操作認識部112は、操作情報取得部111により取得された操作情報に基づいて、ユーザの操作の種別を認識する手段である。本実施形態において、操作認識部112は、「タップ操作」、「ピンチイン操作」及び「ピンチアウト操作」の3種類の操作を少なくとも認識する。また、操作認識部112は、ここでは詳細な説明は省略するが、1本の指を表示面101に接触させたまま移動させる「ドラッグ操作」又は「フリック操作」や、タップ操作を連続的に2回繰り返す「ダブルタップ操作」など、周知の他の操作をも認識してもよい。
タップ操作は、表示面101の1点に触れる操作である。一方、ピンチイン操作及びピンチアウト操作は、表示面101の2点に同時に触れる操作である。ピンチイン操作は、表示面101の2点に触れた後に、その2点間の距離を狭めるように接触点を移動させる操作であり、ピンチクローズ操作とも呼ばれる。また、ピンチアウト操作は、表示面101の2点に触れた後に、その2点間の距離を広げるように接触点を移動させる操作であり、ピンチオープン操作とも呼ばれる。ピンチイン操作及びピンチアウト操作は、指を表示面101に接触させてから離すまでの一連の動作が1回の操作に相当する。なお、ピンチイン操作及びピンチアウト操作は、指を表示面101に対して上下方向と左右方向のいずれに移動させる操作であってもよい。
表示制御部113は、表示部131に表示させる画像を制御する手段である。表示制御部113は、操作認識部112により認識された操作がタップ操作、ピンチイン操作又はピンチアウト操作である場合に、その操作に応じてアイコン画像の展開及び収納を制御する機能を少なくとも有する。また、表示制御部113は、ユーザがタップ操作によって特定のアイコン画像に接触した場合には、そのアイコン画像に割り当てられたアプリに応じた画像を表示させる。
以上の構成のもと、表示装置100は、アイコン表示アプリケーションを実行することによってアイコン画像の表示制御を実行する。なお、アイコン表示アプリケーションが実行された場合、表示面101には、少なくともカテゴリ画像が必ず表示されるが、アイコン画像は必ずしも表示されない。例えば、表示装置100は、アイコン表示アプリケーションを過去に実行したことがあれば、前回終了時の表示状態でアイコン画像を表示するようにしてもよい。
本実施形態において、表示装置100は、ユーザの操作がタップ操作である場合とピンチイン操作又はピンチアウト操作である場合とでアイコン画像の展開及び収納の態様を異ならせるGUIをユーザに提供する。具体的には、表示装置100は、タップ操作が受け付けられた場合には、特定のカテゴリ画像に関連付けられたアイコン画像のみを展開又は収納し、ピンチイン操作又はピンチアウト操作が受け付けられた場合には、アイコン表示画面に表示されている全部のカテゴリ画像にそれぞれ関連付けられたアイコン画像を全部まとめて展開又は収納する。このとき表示装置100が実行する表示制御処理は、以下のとおりである。
図5は、表示装置100の制御部110が実行する表示制御処理を示すフローチャートである。同図に示すように、制御部110は、操作情報の取得(ステップS1)を契機としてこの表示制御処理を実行する。すなわち、制御部110は、アイコン表示画面を表示している状態においては、操作情報を取得する毎に図5に示す処理を実行する。
ステップS1において、制御部110は、操作情報を取得する。制御部110は、取得した操作情報に基づいて、1又は複数の接触点の座標やその変位を認識することができる。続いて、制御部110は、操作情報に基づいてユーザの操作を認識する(ステップS2)。ステップS2において、制御部110は、ユーザの操作の種別だけでなく、その操作が行われた位置も認識する。また、制御部110は、後述するように、操作の移動量や移動速度を認識することも可能である。
次に、制御部110は、ステップS2の認識結果に基づき、ユーザの操作が特定のカテゴリ画像を選択する操作であるか否かを判断する(ステップS3)。ここにおいて、特定のカテゴリ画像を選択する操作とは、表示面101の特定のカテゴリ画像が表示されている部分の上で行うタップ操作をいう。すなわち、制御部110は、ステップS3において、ユーザの操作がタップ操作であり、かつ、その接触点がカテゴリ画像上にあるか否かを判断する。かかる操作は、本発明に係る選択操作の一例に相当するものである。
特定のカテゴリ画像に対する選択操作が受け付けられたと判断した場合、制御部110は、当該カテゴリ画像に関連付けられたアイコン画像が収納された状態であるか否かを判断する(ステップS4)。そして、制御部110は、アイコン画像が収納された状態である場合には、当該アイコン画像を展開させ(ステップS5)、アイコン画像が収納された状態でない場合(すなわち、展開された状態である場合)には、当該アイコン画像を収納させる(ステップS6)。つまり、制御部110は、特定のカテゴリ画像に対する選択操作に応じて、当該カテゴリ画像に関連付けられたアイコン画像の状態を展開状態又は収納状態の一方から他方へと切り替える。
一方、特定のカテゴリ画像に対する選択操作と異なる操作が受け付けられたと判断した場合、制御部110は、当該操作がピンチアウト操作又はピンチイン操作のいずれであるかを判断する(ステップS7、S9)。そして、制御部110は、ピンチアウト操作が受け付けられた場合には、アイコン表示画面に表示されているすべてのカテゴリ画像に関連付けられているアイコン画像を全部まとめて展開し(ステップS8)、ピンチイン操作が受け付けられた場合には、アイコン表示画面に表示されているすべてのカテゴリ画像に関連付けられているアイコン画像を全部まとめて収納する(ステップS10)。以下においては、ステップS8、S10の処理のそれぞれのことを、「マルチ展開処理」、「マルチ収納処理」という。なお、ステップS7及びS9の処理の順序は、逆であってもよい。
なお、ステップS8において、制御部110は、既にアイコン画像が展開されているカテゴリがあれば、そのカテゴリ画像に関連付けられたアイコン画像の表示状態はそのまま維持すればよい。同様に、制御部110は、ステップS10においても、既にアイコン画像が収納されているカテゴリがあれば、そのカテゴリ画像に関連付けられたアイコン画像の表示状態はそのまま維持すればよい。
また、制御部110は、ピンチアウト操作又はピンチイン操作のいずれでもないとステップS7、S9において判断した場合、ユーザの操作に応じたその他の処理を実行する(ステップS11)。例えば、制御部110は、アイコン画像に対するタップ操作が受け付けられた場合であれば、当該アイコン画像に割り当てられたアプリを起動するなどして、当該アプリに対応する画面を表示させる。また、ここでいう「その他の処理」は、特別な処理を行わないこと、すなわちユーザの操作に応答しないことであってもよい。
図6は、本実施形態の表示制御処理によるアイコン表示画面の画面遷移を例示する図である。図6(a)は、すべてのアイコン画像が収納された状態を示しており、ステップS10の処理の実行直後の表示例である。一方、図6(b)は、カテゴリ「B」のアイコン画像のみが展開された状態を示しており、例えば、すべてのアイコン画像が収納された状態において、カテゴリ「B」のカテゴリ画像(図3のIm20)に対する選択操作が行われた場合の表示例である。また、図6(c)は、すべてのアイコン画像が展開された状態を示しており、ステップS8の処理の実行直後の表示例である。なお、図6(c)において破線で示した部分は、表示面101の表示領域外の画像を示している。また、ここにおいて、a1、b1〜b8、c1〜c3、d1〜d4、e1〜e2は、それぞれカテゴリ「A」、「B」、「C」、「D」、「E」に関連付けられたアプリのアイコン画像を示している。
以上のように、本実施形態の表示制御処理によれば、ユーザは、特定のカテゴリのアイコン画像のみの展開又は収納と全カテゴリのアイコン画像の展開又は収納とを1回の操作で使い分けることが可能である。したがって、ユーザは、実行可能なアプリの全容を知りたい場合にはピンチアウト操作を行い、起動したいアプリにある程度の目星がついている場合にはタップ操作(選択操作)を行う、といったように、そのときどきの状況に応じた操作によってアイコン画像の表示数を制御することが可能になる。
また、本実施形態の表示制御処理によれば、ピンチアウト操作、すなわち2本の指を開く(間隔を広げる)動作によって表示状態を収納状態から展開状態に切り替え、ピンチイン操作、すなわち2本の指を閉じる(間隔を狭める)動作によって表示状態を展開状態から収納状態に切り替えることが可能である。ここにおいて、展開状態は、それまで非表示であったアイコン画像を表示するものであるため、“指を開く”という動作との間に概念的な類似性を有する。同様に、収納状態も、“指を閉じる”という動作との間に概念的な共通性を有する。それゆえ、このような表示制御処理によれば、ユーザは、直感的な操作によってアイコン画像の表示状態を切り替えることが可能である。
[第2実施形態]
本実施形態は、表示装置のハードウェア構成を第1実施形態と共通にし、表示制御処理を第1実施形態と異にするものである。具体的には、本実施形態の表示制御処理は、ピンチイン操作やピンチアウト操作における接触点の移動量や位置に応じて、展開又は収納させるカテゴリの数(すなわちアイコン画像の表示数)を変化させることを特徴とするものである。なお、本実施形態の表示装置の構成については、第1実施形態の表示装置100と同様であるため、第1実施形態と同一の符号を用いて説明することとし、その詳細な説明を省略する。
本実施形態の表示制御処理は、特に、上述したマルチ展開処理(ステップS8)とマルチ収納処理(ステップS10)が第1実施形態と異なる。なお、本実施形態の表示制御処理は、ステップS8、S10を除くそれ以外の処理については、第1実施形態と同様であるとする。すなわち、本実施形態のマルチ展開処理及びマルチ収納処理は、それぞれ、図5に示すステップS7、S9の処理の後に、それぞれの判断が肯定的(YES)である場合に実行される。
図7は、本実施形態のマルチ展開処理を示すフローチャートである。本実施形態のマルチ展開処理において、制御部110は、ピンチアウト操作における2つの接触点の移動量dを特定し、これが所定の閾値Th1を超えるか否かを判断する(ステップSa1)。移動量dは、例えば、2つの接触点の軌跡の長さの平均値であるが、これらのうちの長い方(又は短い方)であってもよい。また、各々の接触点の移動量は、軌跡の長さに代えて、接触点の軌跡の始点と終点の距離としてもよい。なお、閾値Th1は、表示面101のサイズなどに基づいて適当に定められればよい。
制御部110は、移動量dが閾値Th1を超える場合には、アイコン表示画面に表示されているすべてのカテゴリ画像に関連付けられているアイコン画像を全部まとめて展開する(ステップSa2)。なお、ステップSa2の処理自体は、第1実施形態のステップS8の処理と同様のものである。
一方、制御部110は、移動量dが閾値Th1以下である場合には、アイコン画像を展開するカテゴリの数をm個に制限する。ここにおいて、mの値は、2以上であり、かつ、展開可能なカテゴリの総数(図6(a)の例では「5」)未満である整数である。また、制御部110は、ピンチアウト操作における2つの接触点の位置に応じて、アイコン画像を展開するカテゴリを変化させる。具体的には以下のとおりである。
制御部110は、ピンチアウト操作における2つの接触点の位置を特定し、その位置が上寄りであるか否かを判断する(ステップSa3)。ここにおいて、「上寄り」とは、2つの接触点の位置が相対的にみて表示面101の上側にある状態のことをいう。接触点の位置が上寄りであるか否かは、例えば、2つの接触点を結んだ線分の中点が表示面101の上半分に位置するか否かによって判断することができるが、その他の方法で判断されてもよい。例えば、この判断は、上述した中点の位置ではなく、2つの接触点のうちの一方の位置に基づいて行われてもよい。
制御部110は、ピンチアウト操作が上寄りの位置で認識された場合には、表示面101の上側のm個のカテゴリ画像に関連付けられたアイコン画像を展開する(ステップSa4)。一方、制御部110は、ピンチアウト操作が上寄りの位置で認識されなかった場合(すなわち下寄りの位置で認識された場合)には、表示面101の下側のm個のカテゴリ画像に関連付けられたアイコン画像を展開する(ステップSa5)。例えば、アイコン表示画面に表示されるカテゴリ画像の数が図6(a)の例のように「5」であり、上述したmの値が「3」である場合であれば、制御部110は、ステップSa4においてはカテゴリ「A」、「B」、「C」のアイコン画像を展開し、ステップSa5においてはカテゴリ「C」、「D」、「E」のアイコン画像を展開する。
また、図8は、本実施形態のマルチ収納処理を示すフローチャートである。この処理については、「展開」を「収納」に置き換えた点を除き、図7のマルチ展開処理と同様のものであるため、その説明を省略する。ただし、mの値は、マルチ展開処理とマルチ収納処理とで必ずしも同一でなくてもよい。
以上のように、本実施形態の表示制御処理によれば、ユーザは、ピンチアウト操作又はピンチイン操作の具体的な態様(移動量又は位置)に応じて展開又は収納するカテゴリを変化させることが可能である。このとき、ユーザは、指をより多く動かせばより多くのカテゴリを一括して展開したり、操作を表示面101の上側で行えば上側のカテゴリを一括して展開したり、といったように、展開(又は収納)するカテゴリとユーザ自身の操作との間に体感的な共通性を得ることができるため、操作を直感的に行うことが可能である。
なお、表示装置100は、展開(又は収納)するカテゴリとユーザ自身の操作との間により強い共通性を与えるようにしてもよい。例えば、ユーザがピンチイン操作を表示面に対して上下方向に行う場合において、上側の接触点の始点と下側の接触点の始点との間に複数のカテゴリ画像が表示されているときには、表示装置100は、当該複数のカテゴリ画像に関連付けられたアイコン画像を収納するようにし、それ以外のカテゴリ画像(上側の接触点よりも上にあるカテゴリ画像や、下側の接触点よりも下にあるカテゴリ画像)を収納しないようにしてもよい。この場合、アイコン画像を展開するカテゴリの数は、上述したmの値によらずに、ユーザの指の位置に応じて変化する。
また、移動量dに対する閾値は、複数の段階に分けて設定されてもよい。
図9は、移動量dと展開(又は収納)するカテゴリの数mとの関係を記述したテーブルを例示する図である。この例において、Th1a、Th1b、Th1cは、それぞれ、Th1a<Th1b<Th1cを満たす閾値である。また、Nは、アイコン表示画面に表示可能なカテゴリの総数である。ここにおいて、記号「[]」は、ガウス記号であり、例えば「[N/2]」は、「N/2を超えない最大の整数」を意味する。
この例に従った場合、制御部110は、移動量dが大きくなるにつれて、mの値を段階的に増やす。例えば、N=5の場合、制御部110は、移動量dがd≦Th1aを満たす場合には2個、Th1a<d≦Th1bを満たす場合には3個、Th1b<d≦Th1cを満たす場合には4個、Th1c<dを満たす場合には5個のカテゴリを、それぞれ一括して展開(又は収納)する。
なお、この例において、閾値やmの値は、ユーザが設定するようにしてもよい。
[第3実施形態]
本実施形態は、表示装置の構成を第1実施形態及び第2実施形態と共通にし、表示制御処理のマルチ展開処理及びマルチ収納処理を第1実施形態及び第2実施形態と異にするものである。具体的には、本実施形態の表示制御処理は、ピンチイン操作やピンチアウト操作における2つの接触点の移動量の相違に応じて、展開又は収納させるカテゴリを変化させることを特徴とするものである。なお、本実施形態の表示装置の構成については、第1実施形態の表示装置100と同様であるため、第1実施形態と同一の符号を用いて説明することとし、その詳細な説明を省略する。
本実施形態において、ピンチイン操作及びピンチアウト操作は、表示面101に対して上下方向に行われるものとする。以下においては、これらの操作の2つの接触点のうち、情報にあるものを「第1の接触点」といい、下方にあるものを「第2の接触点」という。ピンチイン操作及びピンチアウト操作を親指(第一指)と人差し指(第二指)とで行う場合、一般的には、人差し指の位置が第1の接触点に相当し、親指の位置が第2の接触点に相当する。
図10は、本実施形態のマルチ展開処理を示すフローチャートである。本実施形態のマルチ展開処理において、制御部110は、ピンチアウト操作における第1の接触点の移動量d1と第2の接触点の移動量d2とを特定し、その差(の絶対値)が所定の閾値Th2を超えるか否かを判断する(ステップSc1)。なお、閾値Th2は、表示面101のサイズなどに基づいて適当に定められればよい。
ステップSc1の判断が肯定的(YES)である場合、制御部110は、さらに移動量d1とd2の大小を判断する(ステップSc2)。そして、制御部110は、移動量d1の方が大きい場合には、表示面101の上側のn個のカテゴリ画像に関連付けられたアイコン画像を展開し(ステップSc3)、移動量d2の方が大きい場合には、表示面101の下側のn個のカテゴリ画像に関連付けられたアイコン画像を展開する(ステップSc4)。ここにおいて、nの値は、上述したmの値と同様に、2以上であり、かつ、展開可能なカテゴリの総数未満である整数である。
一方、ステップSc1の判断が否定的(NO)である場合、制御部110は、その後に第2実施形態のマルチ展開処理を続けて実行する(ステップSc5)。すなわち、ステップSc5の処理は、上述したステップSa1〜Sa5の処理(図7参照)に相当する処理である。
また、図11は、本実施形態のマルチ収納処理を示すフローチャートである。この処理については、「展開」を「収納」に置き換えた点を除き、図10のマルチ展開処理と同様のものであるため、その説明を省略する。ただし、nの値は、マルチ展開処理とマルチ収納処理とで必ずしも同一でなくてもよい。
図12は、移動量d1とd2の具体例を示す図である。ここにおいて、P1、P2は、それぞれ第1の接触点、第2の接触点の始点を表し、図中の破線の矢印は、接触点の軌跡を表している。図12(a)の例は、第1の接触点(人差し指)のみを上方に移動させて第2の接触点(親指)の位置を移動させなかった場合のピンチアウト操作を例示したものであり、d1>d2を満たす場合を例示したものである。これに対し、図12(b)の例は、第1の接触点の位置を移動させずに第2の接触点(親指)のみを下方に移動させた場合のピンチアウト操作を例示したものであり、d2>d1を満たす場合を例示したものである。ただし、移動量d1とd2には、閾値Th2を超える有意な差があればよく、一方が0である(すなわち移動しない)必要があるわけではない。
なお、本実施形態においても、第2実施形態と同様に、関連付けられたアイコン画像を展開するカテゴリ画像が接触点の位置に応じて変化してもよい。例えば、制御部110は、図12(a)の例のように第2の接触点の位置を固定し、第1の接触点のみを移動させたピンチアウト操作を認識した場合に、第2の接触点の位置よりも下方にあるカテゴリ画像のアイコン画像を展開せずに、第1の接触点の位置よりも情報にあるカテゴリ画像のアイコン画像を展開するようにしてもよい。このような表示制御を行うと、ユーザは、一方の指を移動させずにカテゴリ画像を押さえ付けるようにすることで、その指の位置にあるカテゴリ画像の展開又は収納を抑制することができているような感覚を得ることができる。
[変形例]
本発明は、上述した各実施形態の態様に限らず、他の態様でも実施することができる。本発明は、例えば、以下の変形例に示す態様によっても実施可能である。なお、本発明は、これら複数の変形例を組み合わせた態様で実施されてもよいし、上述した各実施形態の特徴を選択的に組み合わせた態様(例えば、アイコン画像の展開に関しては第2実施形態を採用し、アイコン画像の収納に関しては第3実施形態を採用した態様)で実施されてもよい。
(1)上述した実施形態は、画像を表示する面(表示面)と操作を受け付ける面(操作面)とが重なっている場合を例示したものである。しかし、本発明の操作部は、必ずしも表示面に重ねて設けられたセンサを備える必要はなく、例えば、操作面としてタッチパッド(トラックパッド、スライドパッドともいう。)を備える構成であってもよい。
(2)本発明のアイコン画像は、アプリケーション(すなわち当該アプリケーションに対応する機能)を表すものでなくてもよい。例えば、本発明は、アイコン画像が画像データや楽曲データを表す画像(サムネイルなど)であり、カテゴリ画像がこれを分類するための画像(いわゆるフォルダを模した画像など)であってもよい。また、本発明のアイコン画像は、それぞれが上述した電子チケットを表すものであってもよい。これらのアイコン画像は、データを識別するために当該データに割り当てられた画像の一例である。
また、本発明のカテゴリ画像は、上述した特許文献1における「トレイ」のように、アイコン画像の後面に重なって表示される画像であってもよい。また、本発明のカテゴリ画像は、関連付けられたアイコン画像が展開された後に非表示になり、当該アイコン画像が収納された後に再び表示されるものであってもよい。要するに、本発明のカテゴリ画像は、アイコン画像を分類して示すことができるものであれば、その具体的な表示態様を問わないものである。
(3)アイコン表示画面は、上述した実施形態においては、表示するアイコン画像が増加した場合に、縮小されることなく一部のみが表示されるものであった。しかし、本発明のアイコン表示画面は、アイコン画像やカテゴリ画像のサイズを変更することによって、表示面にその全体が表示されるように構成されたものであってもよい。
(4)本発明において、ユーザは、自身の指に限らず、スタイラスなどのユーザが手に持って(あるいは手に装着して)動かす指示用の器具(以下「指示体」という。)を用いて操作を行ってもよい。このような指示体を用いる場合の操作部は、指示体の位置を赤外線や超音波によって検出するものであってもよい。また、先端に磁性体を備える指示体を用いた場合には、指示体の位置を磁気的に検出することも可能である。すなわち、本発明の表示装置は、タッチスクリーンを備えるものである必要はない。さらに、ピンチイン操作やピンチアウト操作は、片手での操作に限らず、右手(の指)と左手(の指)とを用いて行われてもよい。
また、ユーザの操作は、必ずしも表示面に接触する操作でなくてもよい。例えば、上述した表示装置100のタッチスクリーン部130を静電容量方式で構成した場合であれば、ユーザが表示面101に触れる前の近接した状態であっても、その指の位置を検出することが可能である。
(5)本発明の選択操作は、ピンチアウト操作やピンチイン操作と区別可能な操作であって、複数のカテゴリ画像の中から特定のカテゴリ画像を選択することができる操作であればよく、必ずしもタップ操作である必要はない。例えば、本発明の選択操作は、ダブルタップ操作であってもよい。
(6)本発明は、ゲーム機、音楽プレーヤ、電子書籍リーダなど、さまざまな電子機器に対しても適用可能である。また、本発明は、表示装置単体ではなく、少なくとも表示部を備える表示装置と、表示装置とは独立に設けられた他の装置(表示装置の表示を制御するための装置)との協働によって実現されてもよい。この場合において、当該他の装置は、図4に示した機能的構成を備えれば十分であり、表示部や操作部を備えていなくてもよい。この場合、本発明は、図4に示した機能的構成を実現するためのプログラムや、これを記録した記録媒体の形態でも実施され得る。また、かかるプログラムは、サーバ装置からネットワークを介してダウンロードされて電子機器にインストールされてもよい。
100…表示装置、101…表示面、110…制御部、111…操作情報取得部、112…操作認識部、113…表示制御部、120…記憶部、130…タッチスクリーン部、131…表示部、132…操作部、140…通信部

Claims (10)

  1. 画像を表示する表示面を有する表示部と、
    操作者の接触による操作を受け付ける操作面を有する操作部と、
    複数のアイコン画像と、前記アイコン画像に関連付けられたカテゴリを表すカテゴリ画像とを前記表示部に表示させる表示制御部と、
    前記操作部により受け付けられた操作に基づき、前記操作面の2点に接触しつつ当該2点間の距離を広げるピンチアウト操作を認識する操作認識部とを備え、
    前記表示制御部は、
    前記操作認識部によりピンチアウト操作が認識された場合に、前記カテゴリに関連付けられた前記アイコン画像が非表示にされた収納状態から当該アイコン画像が表示された展開状態に切り替える
    ことを特徴とする表示装置。
  2. 前記表示制御部は、
    前記展開状態において前記アイコン画像を表示させる前記カテゴリの数を、前記操作認識部により認識されたピンチアウト操作における前記2点の移動量又は移動速度に応じて変化させる
    ことを特徴とする請求項1に記載の表示装置。
  3. 前記表示制御部は、
    前記展開状態において前記アイコン画像を表示させる前記カテゴリを、前記操作認識部により認識されたピンチアウト操作の前記2点の位置に応じて変化させる
    ことを特徴とする請求項1又は2に記載の表示装置。
  4. 前記表示制御部は、
    前記展開状態において前記アイコン画像を表示させる前記カテゴリを、前記操作認識部により認識されたピンチアウト操作の前記2点の一方と他方の移動量の相違に応じて変化させる
    ことを特徴とする請求項1ないし3のいずれかに記載の表示装置。
  5. 前記操作認識部は、
    前記操作部により受け付けられた操作に基づき、前記操作面の2点に接触しつつ当該2点間の距離を狭めるピンチイン操作を認識し、
    前記表示制御部は、
    前記操作認識部によりピンチイン操作が認識された場合に、前記展開状態から前記収納状態に切り替える
    ことを特徴とする請求項1ないし4のいずれかに記載の表示装置。
  6. 前記表示制御部は、
    前記収納状態において前記アイコン画像を非表示にさせる前記カテゴリの数を、前記操作認識部により認識されたピンチイン操作における前記2点の移動量又は移動速度に応じて変化させる
    ことを特徴とする請求項5に記載の表示装置。
  7. 前記表示制御部は、
    前記収納状態において前記アイコン画像を非表示にさせる前記カテゴリを、前記操作認識部により認識されたピンチイン操作の前記2点の位置に応じて変化させる
    ことを特徴とする請求項5又は6に記載の表示装置。
  8. 前記表示制御部は、
    前記収納状態において前記アイコン画像を非表示にさせる前記カテゴリを、前記操作認識部により認識されたピンチイン操作の前記2点の一方と他方の移動量の相違に応じて変化させる
    ことを特徴とする請求項5ないし7のいずれかに記載の表示装置。
  9. 複数のアイコン画像と、前記アイコン画像が関連付けられたカテゴリを表すカテゴリ画像とを表示面に表示する表示部と、ユーザの接触による操作を受け付ける操作面において、当該操作面の2点に接触しつつ当該2点間の距離を広げるピンチアウト操作を受け付ける操作部とを備える表示装置において、
    前記カテゴリ画像が前記表示面に表示された状態で前記ピンチアウト操作を受け付ける第1のステップと、
    前記ピンチアウト操作が受け付けられた場合に、前記カテゴリに関連付けられた前記アイコン画像が非表示にされた収納状態から当該アイコン画像が表示された展開状態に切り替える第2のステップと
    を有することを特徴とするユーザインタフェース方法。
  10. 複数のアイコン画像と、前記アイコン画像が関連付けられたカテゴリを表すカテゴリ画像とを表示面に表示する表示部と、ユーザの接触による操作を受け付ける操作面において、当該操作面の2点に接触しつつ当該2点間の距離を広げるピンチアウト操作を受け付ける操作部とを備える表示装置のコンピュータに、
    前記カテゴリ画像が前記表示面に表示された状態で前記ピンチアウト操作が受け付けられたことを認識する第1のステップと、
    前記ピンチアウト操作を認識した場合に、前記カテゴリに関連付けられた前記アイコン画像が非表示にされた収納状態から当該アイコン画像が表示された展開状態に切り替える第2のステップと
    を実行させるためのプログラム。
JP2011108669A 2011-05-13 2011-05-13 表示装置、ユーザインタフェース方法及びプログラム Active JP5485220B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2011108669A JP5485220B2 (ja) 2011-05-13 2011-05-13 表示装置、ユーザインタフェース方法及びプログラム
RU2013127503/08A RU2013127503A (ru) 2011-05-13 2012-05-11 Устройство отображения, способ пользовательского интерфейса и программа
KR1020137016808A KR20130099186A (ko) 2011-05-13 2012-05-11 표시 장치, 유저 인터페이스 방법, 및 프로그램
CN2012800048476A CN103299263A (zh) 2011-05-13 2012-05-11 显示装置、用户接口方法以及程序
EP12786353.8A EP2708996A4 (en) 2011-05-13 2012-05-11 DISPLAY DEVICE, USER INTERFACE METHOD, AND PROGRAM
US13/946,403 US20140059492A1 (en) 2011-05-13 2012-05-11 Display device, user interface method, and program
PCT/JP2012/062148 WO2012157562A1 (ja) 2011-05-13 2012-05-11 表示装置、ユーザインタフェース方法及びプログラム
BR112013018113A BR112013018113A2 (pt) 2011-05-13 2012-05-11 dispositivo de exibição, método para interface de usuário e programa

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011108669A JP5485220B2 (ja) 2011-05-13 2011-05-13 表示装置、ユーザインタフェース方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2012242847A true JP2012242847A (ja) 2012-12-10
JP5485220B2 JP5485220B2 (ja) 2014-05-07

Family

ID=47176882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011108669A Active JP5485220B2 (ja) 2011-05-13 2011-05-13 表示装置、ユーザインタフェース方法及びプログラム

Country Status (8)

Country Link
US (1) US20140059492A1 (ja)
EP (1) EP2708996A4 (ja)
JP (1) JP5485220B2 (ja)
KR (1) KR20130099186A (ja)
CN (1) CN103299263A (ja)
BR (1) BR112013018113A2 (ja)
RU (1) RU2013127503A (ja)
WO (1) WO2012157562A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014010649A (ja) * 2012-06-29 2014-01-20 Rakuten Inc 情報処理装置、認証装置、情報処理方法及び情報処理プログラム
WO2014083868A1 (en) * 2012-11-30 2014-06-05 Kabushiki Kaisha Toshiba Electronic device and computer program
JP2015087995A (ja) * 2013-10-31 2015-05-07 株式会社ソリマチ技研 表示システム及び表示システムの表示方法
WO2015141091A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2017538207A (ja) * 2015-05-18 2017-12-21 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド カードの追加方法、装置、デバイス及びコンピュータ記憶媒体
KR20210114320A (ko) * 2020-03-10 2021-09-23 애플 인크. 애플리케이션들에 대응하는 사용자 인터페이스 객체들과 상호작용하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들
US11567654B2 (en) 2017-05-16 2023-01-31 Apple Inc. Devices, methods, and graphical user interfaces for accessing notifications
CN116048327A (zh) * 2022-07-07 2023-05-02 荣耀终端有限公司 任务显示区的显示方法、窗口的显示方法及电子设备
US11747969B1 (en) 2022-05-06 2023-09-05 Apple Inc. Devices, methods, and graphical user interfaces for updating a session region
US11842028B2 (en) 2022-05-06 2023-12-12 Apple Inc. Devices, methods, and graphical user interfaces for updating a session region

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2395440A3 (en) * 2010-06-14 2012-01-11 Lg Electronics Inc. Mobile terminal and conrolling method thereof
US9552376B2 (en) 2011-06-09 2017-01-24 MemoryWeb, LLC Method and apparatus for managing digital files
TWI566134B (zh) * 2013-02-05 2017-01-11 財團法人工業技術研究院 摺疊式顯示器、可撓式顯示器及電腦圖像之控制方法
JP2014238725A (ja) * 2013-06-07 2014-12-18 シャープ株式会社 情報処理装置および制御プログラム
US9395837B2 (en) * 2013-09-30 2016-07-19 Your Voice S.P.A. Management of data in an electronic device
CN105637466A (zh) * 2014-01-15 2016-06-01 宇龙计算机通信科技(深圳)有限公司 终端操控方法和终端操控装置
WO2015159498A1 (en) * 2014-04-14 2015-10-22 Sony Corporation Method and apparatus for displaying additional objects on a graphical user interface based on pinch gesture
KR102418119B1 (ko) * 2014-08-25 2022-07-07 삼성전자 주식회사 시계 화면 구성 방법 및 이를 구현한 웨어러블 전자장치
CN105786352B (zh) * 2014-12-26 2019-08-06 阿里巴巴集团控股有限公司 快速定位页面内容的方法、装置及移动终端
CN105426107A (zh) * 2015-11-30 2016-03-23 北京拉酷网络科技有限公司 基于触控板的手势识别方法
CN105446601B (zh) * 2015-12-10 2019-02-12 Oppo广东移动通信有限公司 一种播放列表管理方法及移动终端
CN106648372A (zh) * 2016-12-29 2017-05-10 北京小米移动软件有限公司 图像管理方法及装置
USD852814S1 (en) * 2017-03-23 2019-07-02 Facebook, Inc. Display screen with a graphical user interface for an advertisement management application
CN109032734B (zh) * 2018-07-13 2020-09-01 维沃移动通信有限公司 一种后台应用程序显示方法和移动终端
US10936178B2 (en) 2019-01-07 2021-03-02 MemoryWeb, LLC Systems and methods for analyzing and organizing digital photos and videos
KR102332361B1 (ko) 2020-11-03 2021-12-01 주식회사 해성 블록용 거푸집
CN115079891B (zh) * 2021-03-01 2024-03-15 北京字跳网络技术有限公司 文档内容展示方法、装置和电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010097473A (ja) * 2008-10-17 2010-04-30 Sony Corp 表示装置、表示方法及びプログラム
WO2010144201A2 (en) * 2009-06-07 2010-12-16 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) * 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8681104B2 (en) * 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
KR101586627B1 (ko) * 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
US8669945B2 (en) * 2009-05-07 2014-03-11 Microsoft Corporation Changing of list views on mobile device
EP2480957B1 (en) * 2009-09-22 2017-08-09 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8766928B2 (en) * 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8619100B2 (en) * 2009-09-25 2013-12-31 Apple Inc. Device, method, and graphical user interface for touch-based gestural input on an electronic canvas
US8786559B2 (en) * 2010-01-06 2014-07-22 Apple Inc. Device, method, and graphical user interface for manipulating tables using multi-contact gestures
US8698762B2 (en) * 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
CN101819500A (zh) * 2010-03-08 2010-09-01 广东欧珀移动通信有限公司 一种手持设备列表行显浏览调整方法
US9081494B2 (en) * 2010-07-30 2015-07-14 Apple Inc. Device, method, and graphical user interface for copying formatting attributes
US9098182B2 (en) * 2010-07-30 2015-08-04 Apple Inc. Device, method, and graphical user interface for copying user interface objects between content regions

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010097473A (ja) * 2008-10-17 2010-04-30 Sony Corp 表示装置、表示方法及びプログラム
WO2010144201A2 (en) * 2009-06-07 2010-12-16 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014010649A (ja) * 2012-06-29 2014-01-20 Rakuten Inc 情報処理装置、認証装置、情報処理方法及び情報処理プログラム
WO2014083868A1 (en) * 2012-11-30 2014-06-05 Kabushiki Kaisha Toshiba Electronic device and computer program
JP2015087995A (ja) * 2013-10-31 2015-05-07 株式会社ソリマチ技研 表示システム及び表示システムの表示方法
WO2015141091A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2017538207A (ja) * 2015-05-18 2017-12-21 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド カードの追加方法、装置、デバイス及びコンピュータ記憶媒体
US11567654B2 (en) 2017-05-16 2023-01-31 Apple Inc. Devices, methods, and graphical user interfaces for accessing notifications
US11966577B2 (en) 2017-05-16 2024-04-23 Apple Inc. Devices, methods, and graphical user interfaces for accessing notifications
US11960714B2 (en) 2017-05-16 2024-04-16 Apple Inc. Devices, methods, and graphical user interfaces for accessing notifications
KR20210114320A (ko) * 2020-03-10 2021-09-23 애플 인크. 애플리케이션들에 대응하는 사용자 인터페이스 객체들과 상호작용하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들
JP7212656B2 (ja) 2020-03-10 2023-01-25 アップル インコーポレイテッド アプリケーションに対応するユーザインタフェースオブジェクトと対話するためのデバイス、方法、及びグラフィカルユーザインタフェース
US11474674B2 (en) 2020-03-10 2022-10-18 Apple Inc. Devices, methods, and graphical user interfaces for interacting with user interface objects corresponding to applications
US11762538B2 (en) 2020-03-10 2023-09-19 Apple Inc. Devices, methods, and graphical user interfaces for interacting with user interface objects corresponding to applications
KR102628385B1 (ko) * 2020-03-10 2024-01-24 애플 인크. 애플리케이션들에 대응하는 사용자 인터페이스 객체들과 상호작용하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들
US11921993B2 (en) 2020-03-10 2024-03-05 Apple Inc. Devices, methods, and graphical user interfaces for interacting with user interface objects corresponding to applications
US11455085B2 (en) 2020-03-10 2022-09-27 Apple Inc. Devices, methods, and graphical user interfaces for interacting with user interface objects corresponding to applications
JP2021144684A (ja) * 2020-03-10 2021-09-24 アップル インコーポレイテッドApple Inc. アプリケーションに対応するユーザインタフェースオブジェクトと対話するためのデバイス、方法、及びグラフィカルユーザインタフェース
US12056334B2 (en) 2020-03-10 2024-08-06 Apple Inc. Devices, methods, and graphical user interfaces for interacting with user interface objects corresponding to applications
US11747969B1 (en) 2022-05-06 2023-09-05 Apple Inc. Devices, methods, and graphical user interfaces for updating a session region
US11775128B1 (en) 2022-05-06 2023-10-03 Apple Inc. Devices, methods, and graphical user interfaces for updating a session region
US11842028B2 (en) 2022-05-06 2023-12-12 Apple Inc. Devices, methods, and graphical user interfaces for updating a session region
CN116048327A (zh) * 2022-07-07 2023-05-02 荣耀终端有限公司 任务显示区的显示方法、窗口的显示方法及电子设备

Also Published As

Publication number Publication date
EP2708996A4 (en) 2014-12-24
WO2012157562A1 (ja) 2012-11-22
RU2013127503A (ru) 2015-06-20
CN103299263A (zh) 2013-09-11
US20140059492A1 (en) 2014-02-27
EP2708996A1 (en) 2014-03-19
JP5485220B2 (ja) 2014-05-07
KR20130099186A (ko) 2013-09-05
BR112013018113A2 (pt) 2016-11-08

Similar Documents

Publication Publication Date Title
JP5485220B2 (ja) 表示装置、ユーザインタフェース方法及びプログラム
US11169698B2 (en) Information processing device, operation input method and operation input program
KR101224588B1 (ko) 멀티포인트 스트록을 감지하기 위한 ui 제공방법 및 이를적용한 멀티미디어 기기
CA2841195C (en) Method and apparatus for multitasking
US10013098B2 (en) Operating method of portable terminal based on touch and movement inputs and portable terminal supporting the same
RU2654145C2 (ru) Способ и устройство поиска информации и компьютерно-читаемый носитель записи для этого
CN104205098B (zh) 使用阵列模式在浏览器中的内容项之间进行导航
EP2619647B1 (en) Apparatus and method for proximity based input
US8799806B2 (en) Tabbed content view on a touch-screen device
US20190205004A1 (en) Mobile terminal and method of operating the same
US20110283212A1 (en) User Interface
US20110202880A1 (en) Information processing device, information processing method, and program
KR20160004590A (ko) 전자 장치의 화면 표시 방법 및 전자 장치
KR102255087B1 (ko) 객체를 디스플레이하는 전자 장치 및 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140219

R150 Certificate of patent or registration of utility model

Ref document number: 5485220

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250