JP5584372B2 - 表示装置、ユーザインタフェース方法及びプログラム - Google Patents

表示装置、ユーザインタフェース方法及びプログラム Download PDF

Info

Publication number
JP5584372B2
JP5584372B2 JP2013549227A JP2013549227A JP5584372B2 JP 5584372 B2 JP5584372 B2 JP 5584372B2 JP 2013549227 A JP2013549227 A JP 2013549227A JP 2013549227 A JP2013549227 A JP 2013549227A JP 5584372 B2 JP5584372 B2 JP 5584372B2
Authority
JP
Japan
Prior art keywords
impeller
image
display
unit
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013549227A
Other languages
English (en)
Other versions
JPWO2013089013A1 (ja
Inventor
賢一 前田
大輔 対比地
哲郎 上原
通洋 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2013549227A priority Critical patent/JP5584372B2/ja
Application granted granted Critical
Publication of JP5584372B2 publication Critical patent/JP5584372B2/ja
Publication of JPWO2013089013A1 publication Critical patent/JPWO2013089013A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、GUI(Graphical User Interface)に関する。
携帯電話機等の電子機器において、一つの画面上で複数のコンテンツを閲覧し、且つ、選択することが可能なGUIが開発されている。例えば、特許文献1では、複数のコンテンツを各子画面に配置したマルチ画面を表示する携帯端末装置が提案されている。この携帯端末装置では、タッチパネル方式により、子画面を選択することが可能となっている。
特開2009−135728号公報
しかし、特許文献1に開示の技術では、各コンテンツは各子画面に対して固定的に割り当てられており、ユーザによる簡単な操作により、一の子画面に表示されるコンテンツを他のコンテンツと切り替えることができない。まして、ユーザによる直感的な操作によりコンテンツを切り替えることができない。
本発明は、以上のような背景に鑑みてなされたものであり、一覧性及び操作性に優れたユーザインタフェースを提供することを目的とする。
本発明は、画像を表示する表示面を有する表示部と、操作者による指示体の接触による操作を受け付ける操作面を有する操作部と、前記表示部に、複数の羽根が設けられる羽根車を模した羽根車画像を表示させ、前記操作部により所定の操作が受け付けられた場合に、前記羽根車が回転する画像を表示させる表示制御部とを備え、前記表示制御部は、当該羽根車の回転軸が前記表示面に対して平行となるように前記羽根車画像を表示させ、前記羽根車は、前記複数の羽根のうちの少なくとも一の羽根の一の面に、コンテンツが記述されるコンテンツ記述領域を有することを特徴とする表示装置を提供する。
好ましい態様において、前記羽根車は、その複数の羽根の各一辺が前記回転軸に対して平行かつ固定的に設けられる。
別の好ましい態様において、前記羽根車は、前記回転軸の一の面に、前記コンテンツ記述領域に記述されるコンテンツに関する情報が記述されるコンテンツ関連情報記述領域を有する。
別の好ましい態様において、前記羽根車は、前記複数の羽根のうち少なくとも一の羽根の両面に、コンテンツが記述されるコンテンツ記述領域を有する。
別の好ましい態様において、前記表示制御部は、前記羽根車が回転する画像を表示させる際、コンテンツが記述されているコンテンツ記述領域が多いほど、前記羽根車が回転する速度を増加させるように制御する。
別の好ましい態様において、前記コンテンツ記述領域は、スクロールバーを備え、前記表示制御部は、前記操作部により受け付けられた操作が、前記操作面に前記指示体が接触させられた状態で移動させられるスワイプ操作であって、当該スワイプ操作の結果、前記指示体と接触した前記操作面の接触点の軌跡が、前記羽根車の回転軸と交差する場合は、前記羽根車が回転する画像を表示させる一方で、当該軌跡が、前記羽根車の回転軸と交差しない場合は、前記コンテンツ記述領域に記述されるコンテンツをスクロールする画像を表示させる。
別の好ましい態様において、前記表示装置は、当該装置の傾斜角を検出する傾斜角検出部をさらに備え、前記表示制御部は、前記傾斜角検出部により検出される傾斜角に応じて回転する前記羽根車の画像を表示させる。
また、本発明は、画像を表示する表示面を有する表示部と、操作者による指示体の接触による操作を受け付ける操作面を有する操作部とを備える表示装置において、前記表示部に、複数の羽根が設けられる羽根車を模した羽根車画像を表示させ、前記操作部により所定の操作が受け付けられた場合に、前記羽根車が回転する画像を表示させるユーザインタフェース方法であって、前記羽根車画像は、当該羽根車の回転軸が前記表示面に対して平行となるように表示され、前記羽根車は、前記複数の羽根のうちの少なくとも一の羽根の一の面に、コンテンツが記述されるコンテンツ記述領域を有することを特徴とするユーザインタフェース方法を提供する。
また、本発明は、画像を表示する表示面を有する表示部と、操作者による指示体の接触による操作を受け付ける操作面を有する操作部とを備える表示装置のコンピュータに、前記表示部に、複数の羽根が設けられる羽根車を模した羽根車画像を表示させ、前記操作部により所定の操作が受け付けられた場合に、前記羽根車が回転する画像を表示させるためのプログラムであって、前記羽根車画像は、当該羽根車の回転軸が前記表示面に対して平行となるようにを表示され、前記羽根車は、前記複数の羽根のうちの少なくとも一の羽根の一の面に、コンテンツが記述されるコンテンツ記述領域を有することを特徴とするプログラムを提供する。
本発明によれば、一覧性及び操作性に優れたユーザインタフェースを提供することができる。
表示装置の外観上の構成を示す図 表示装置のハードウェア構成を示すブロック図 コンテンツ一覧表示画面を例示する図 羽根車を例示する図 羽根車が回転する様子を示す図 制御部の機能的構成を示す機能ブロック図 制御部の機能的構成を示す機能ブロック図 表示装置が実行する表示制御処理を示すフローチャート 表示装置が実行する表示制御処理を示すフローチャート 変形例に係る表示装置のハードウェア構成を示すブロック図 表示装置の傾きと羽根車の回転の関係を例示する図 変形例に係るコンテンツ一覧表示画面を例示する図
(1)実施形態
(1−1)構成
図1は、本発明の一実施形態である表示装置100の外観上の構成を示す図である。表示装置100は、表示面101を備える電子機器である。表示面101は、画像を表示する面であり、かつ、ユーザの指による操作を受け付けることができる面である。表示面101は、ここでは縦長の長方形であるとする。なお、表示面101は、裸眼立体視などの方法により画像を立体的に知覚させるものであってもよい。
表示装置100は、ユーザが表示面101に対して指で操作を行える程度のサイズであり、例えば、携帯電話機(スマートフォンを含む。)、タブレットPC(Personal Computer)又はスレートPC、PDA(Personal Digital Assistant)である。表示装置100は、ユーザがこれを手に持って操作できる程度のサイズであってもよいが、机の上に置いたりホルダに取り付けたりして操作するものであってもよい。なお、表示装置100は、必ずしも平板状でなくてもよい。
図2は、表示装置100のハードウェア構成を示すブロック図である。表示装置100は、制御部110と、記憶部120と、タッチスクリーン部130と、通信部140とを少なくとも備える。なお、表示装置100は、図2に示した構成のほかに、スピーカやマイクロホン(又はその入出力部)、カメラ(ビデオカメラを含む。)、バイブレータなどを備えてもよい。
制御部110は、表示装置100の各部の動作を制御する手段である。制御部110は、CPU(Central Processing Unit)などの演算処理装置や、ROM(Read Only Memory)、RAM(Random Access Memory)などの記憶装置を備え、ROM又は記憶部120に記憶されたプログラムを実行することによって本発明に係るGUIを実現する。また、制御部110は、複数のアプリケーションソフトウェア(以下単に「アプリケーション」ともいう。)を実行し、各々のアプリケーションに応じた機能を実現することが可能である。制御部110は、複数のタスク(プロセス)を同時に実行できるマルチタスクシステムであってもよく、また、マルチコア構成によってマルチタスク処理を実現してもよい。
記憶部120は、データを記憶する手段である。記憶部120は、例えば、ハードディスク、フラッシュメモリなどの記録媒体を備え、制御部110が使用するデータを記憶する。記憶部120は、いわゆるリムーバブルディスク、すなわち着脱可能な記録媒体を含んでもよい。記憶部120は、制御部110が実行するプログラムや、表示面101に表示される画像データを記憶することができる。また、記憶部120は、同一のユーザが複数の表示装置100を利用したり、あるいは複数のユーザが同一の表示装置100を利用したりする場合には、各ユーザを識別するための識別情報を記憶していてもよい。
タッチスクリーン部130は、画像を表示する手段であり、かつ、ユーザの操作を受け付ける手段である。タッチスクリーン部130は、より詳細には、表示面101に画像を表示する表示部131と、表示面101に対するユーザの操作を受け付ける操作部132とを含んで構成される。
表示部131は、液晶素子や有機EL(electroluminescence)素子により画像を表示する表示パネルと、この表示パネルを駆動する駆動回路などを備え、制御部110から供給される表示データに応じた画像を表示面101に表示させる。操作部132は、表示面101を覆うように重ねて設けられ、表示面101に対する指の接触を検出する面状のセンサ(操作面)を備え、指の接触を検出した位置(以下「接触点」という。)を示す操作情報を制御部110に供給する。指は、本発明に係る「指示体」の一例である。操作部132は、いわゆるマルチタッチに対応しており、複数の接触点を同時に検出することが可能である。
通信部140は、データを送受信する手段である。通信部140は、移動体通信網、インターネットなどのネットワークに接続するネットワークインタフェースであってもよいが、NFC(Near Field Communication)による無線通信のように、他の電子機器とネットワークを介さずに接続するものであってもよい。また、通信部140は、電子マネーや電子チケット(電子クーポン)のような、金銭的な価値を有する情報のやりとりに用いられてもよい。
表示装置100のハードウェア構成は、以上のとおりである。
表示装置100は、この構成のもと、さまざまなアプリケーションを実行する。表示装置100が実行するアプリケーションは、例えば、ニュースや天気予報の通知、映像(静止画又は動画)や音楽の再生、ゲーム、電子書籍の閲覧などを実行するためのもののほか、いわゆるメーラやWebブラウザに相当するものを含んでもよい。これらのアプリケーションは、他のアプリケーションと同時に実行可能なものや、バックグラウンドで実行可能なものを含む。また、これらのアプリケーションは、表示装置100に予めインストールされていてもよいし、コンテンツプロバイダなどの事業者からユーザが購入し、通信部140を介して取得するようにしてもよい。
表示装置100はまた、上記のようなアプリケーションを実行することにより提供される複数のコンテンツを一覧表示し、ユーザによる選択を受け付けるアプリケーションを実行する。以下、このアプリケーションを「コンテンツ一覧表示アプリケーション」という。このコンテンツ一覧表示アプリケーションは、表示装置100の起動時に実行されてもよいし、ユーザによる所定の操作を受け付けることを契機として実行されてもよい。
図3は、コンテンツ一覧表示アプリケーションが表示する画面(以下、「コンテンツ一覧表示画面」という。)を例示する図である。同図に示されるように当該画面は、コンテンツ画像Im10,Im20,Im30,Im40,Im50及びIm60と、属性画像Im11,Im21,Im31,Im41,Im51及びIm61とにより構成される。以下、特に区別する必要がない場合には、それぞれ単に「コンテンツ画像」、「属性画像」と呼ぶ。
コンテンツ画像は、アプリケーションを実行することにより提供されるコンテンツの縮小画像である。ここでコンテンツとは、例えば文書や画像(静止画又は動画)のことである。図3に示される例では、「A」〜「F」を示す画像が表示されている。属性画像は、アプリケーションを実行することにより提供されるコンテンツの属性を示す画像である。ここで属性とは、例えばコンテンツの名称や、コンテンツを提供するアプリケーションの名称等のコンテンツに関する情報である。図3に示される例では、「a1」〜「f1」を示す画像が表示されている。なお、「a1」〜「f1」という名称は、コンテンツ画像との対応関係を明確にするために便宜的に付けた名称である。例えば、図3の例では、「a1」は「A」の属性を示しており、「b1」は「B」の属性を示している。
なお、コンテンツ画像は、その全体が表示面101に同時に表示されなくてもよい。例えば、コンテンツ画像は、図3に示されるスクロールバーIm32(後述するコンテンツ記述領域に設けられる。)を操作することによって全面が表示されるようにしてもよい。また、コンテンツ画像は、コンテンツの縮小画像ではなく、コンテンツを提供するアプリケーションを示すアイコン画像であってもよい。アイコン画像は、アプリケーションごとに予め決められた画像であってもよいし、ユーザによって生成又は選択された画像であってもよい。また、コンテンツ画像は、通信部140を介して他の電子機器から受信される広告画像であってもよい。また、図3の例では、コンテンツ画像と属性画像とがそれぞれ6つ表示されているが、この数は偶数であれば6未満であっても6より大きくてもよい。
図4は、図3に示される線L1により囲まれる部分を仮想三次元空間内において定義した場合に構成される立体を例示する図である。図4(a)は、当該立体の斜視図であり、図4(b)は、当該立体の側面図である。以下、当該立体を「羽根車200」という。なお、図4(b)において、白い円の中に黒い点が打たれた座標記号は、紙面奥側から手前側に向かう矢印を示している。すなわち、X軸は、手前側が正方向であり、奥側が負方向である。
羽根車200は、同図に示されるように、回転軸210と4枚の羽根220A〜220Dとにより構成される。以下、特に区別する必要がない場合には、羽根220A〜220Dを単に「羽根220」と呼ぶ。また、羽根車200を示す画像を、「羽根車画像」という。回転軸210は、直方体の形状を有し、2つの対向する面の各重心を結ぶ線(回転中心線)を中心として回転する。羽根車画像は、この回転軸210が表示面101に対して平行になるように表示される。羽根220は、矩形の板状の形状を有し、その一辺が回転軸210の一の面上に固定される。その際、羽根220は、その一辺が回転軸210の回転中心線と平行となり、且つ、その一の面が、固定される回転軸210の面との間で直角を成すように配置される。各羽根220は、回転軸210の各面(回転中心線が通る面を除く。)に固定される。
回転軸210は、各面(回転中心線が通る面を除く。)に、コンテンツの属性を記述するための領域(以下、「コンテンツ属性記述領域」という。)を有し、各領域には属性画像が割り当てられる。このコンテンツ属性記述領域は、本発明に係る「コンテンツ関連情報記述領域」の一例である。例えば、図4の例では、回転軸210のZ軸負方向側の面に「a1」を示す属性画像Im11と「b1」を示す属性画像Im21とが割り当てられる。なお、図4の例では、回転軸210のZ軸負方向側の面に羽根220Bが固定されているが、表示面101に対して垂直の位置にある羽根220はその表示が省略され、属性画像の表示が妨げられることはない。
羽根220は、各面に、コンテンツを記述するためのコンテンツ記述領域を有し、当該領域にはコンテンツ画像が割り当てられる。例えば、図4の例では、羽根220AのZ軸負方向側の面には、「A」を示すコンテンツ画像Im10が割り当てられる。また、羽根220CのZ軸負方向側の面には、「B」を示すコンテンツ画像Im20が割り当てられる。なお、もちろん羽根220AのZ軸正方向側の面や羽根220CのZ軸正方向側の面にもコンテンツ画像が割り当てられてもよい。すなわち、羽根220の両面にコンテンツ画像が割り当てられてもよい。また、どの面にどのコンテンツ画像を割り当てるかは、ユーザによって設定されてもよいし、所定のアルゴリズムに従って設定されるようにしてもよい。
なお、図4に示される例では、回転軸210は直方体の形状を有しているが、回転軸210の形状は直方体以外であってもよい。例えば、円柱や、直方体以外の角柱であってもよい。また、羽根220は矩形の板状の形状を有しているが、羽根220の形状は矩形の板状以外であってもよい。例えば、半円形や、矩形以外の多角形の板状であってもよい。また、羽根220の枚数は4枚に限られず、1〜3枚であってもよい。
図5は、羽根車200が回転する様子を例示する図である。同図においては、羽根車200が回転する様子を分かり易くするために、コンテンツ画像が割り当てられている羽根車200の例を示している。同図の例では、図5(a)の状態において、羽根220AのZ軸負方向側の面に「A」を示すコンテンツ画像が割り当てられ、羽根220BのY軸正方向側の面に「H」を示すコンテンツ画像が割り当てられ、羽根220CのZ軸負方向側の面に「B」を示すコンテンツ画像が割り当てられ、羽根220DのY軸正方向側の面に「I」を示すコンテンツ画像が割り当てられている。なお、同図において、白い円の中に交差する2本の線分を描いた座標記号は、紙面手前側から奥側に向かう矢印を示している。すなわち、Z軸は、奥側が正方向であり、手前側が負方向である。
図5(a)に示される状態において、回転軸210が回転中心線を中心として、X軸負方向から見て時計回りに回転すると、羽根220AはZ軸負方向に倒れ込みを開始する(図5(b)参照)。同様に、羽根220BはY軸負方向に倒れ込みを開始し、羽根220CはX軸正方向に倒れ込みを開始し、羽根220DはY軸正方向に倒れ込みを開始する。回転が進むにつれて、各羽根220の倒れ込みも継続する(図5(c)及び図5(d)参照)。そして、回転角が90°に達すると、図5(e)に示されるように、羽根220Aが元あった位置に羽根220Dが移動し、羽根220Cが元あった位置に羽根220Bが移動する。
図6は、制御部110の機能的構成のうち、特にコンテンツ一覧表示に関連するものを示す機能ブロック図である。制御部110は、コンテンツ一覧表示アプリケーションを実行することにより、同図に示す操作情報取得部111、操作認識部112、画像生成部113及び表示制御部114の各部に相当する機能を実現する。なお、これらの機能は、複数のプログラムの協働によって実現されてもよい。例えば、操作情報取得部111や操作認識部112は、アプリケーションではなく、OS(Operating System)などのシステムソフトウェアによって実現され、画像生成部113及び表示制御部114はコンテンツ一覧表示アプリケーションによって実現されてもよい。
操作情報取得部111は、操作情報を取得する手段である。より具体的には、操作情報取得部111は、タッチスクリーン部130の操作部132から操作情報を取得する。操作情報は、ここでは、表示面101の所定の位置(例えば、中心や四隅のいずれか)を原点とした2次元直交座標系によって表示面101の各位置を表すものとする。操作情報は、ユーザが接触点を移動させながら表示面101に触れる場合には、時々刻々と変化する。
操作認識部112は、操作情報取得部111により取得される操作情報に基づいて、ユーザの操作の種別を認識する手段である。本実施形態において、操作認識部112は、「タップ操作」、「ダブルタップ操作」及び「スワイプ操作」の少なくとも3種類の操作を認識する。「タップ操作」とは、所定時間内に1回、表示面101の一点を叩く操作である。「ダブルタップ操作」とは、所定時間内に2回、表示面101の一点を叩く操作である。「スワイプ操作」とは、例えば1本の指を表示面101に接触させたまま移動させる操作である。
画像生成部113は、操作認識部112により認識される操作に応じて、表示部131に表示させる画像を生成する手段である。具体的には、画像生成部113は、操作認識部112によりタップ操作が認識された場合には、タップ操作の対象となったコンテンツ画像にフォーカスが与えられている画像(コンテンツ画像が選択されている画像)を生成する。
また、画像生成部113は、操作認識部112によりダブルタップ操作が認識された場合には、ダブルタップ操作の対象となったコンテンツ画像の情報元に遷移する画像を生成する。具体的には、画像生成部113は、ダブルタップ操作の対象となったコンテンツ画像が拡大されてゆき、当該コンテンツ画像が表示面101全体を占めるに至るまでの過程の画像を生成する。
また、画像生成部113は、操作認識部112によりスワイプ操作が認識された場合であって、当該スワイプ操作の軌跡(具体的には、当該操作の結果、指と接触した操作面の接触点の軌跡)が羽根車画像の回転軸210と交差するときは、当該スワイプ操作の対象となった羽根車画像について、当該羽根車200が回転する画像を生成する。詳細な処理内容については後述する。一方、画像生成部113は、操作認識部112によりスワイプ操作が認識された場合であっても、当該スワイプ操作の軌跡が羽根車画像の回転軸210と交差しないときは、当該スワイプ操作の対象となったコンテンツ画像について、スクロール表示する画像を生成する。
表示制御部114は、画像生成部113により生成される画像を表示部131に表示させる。
図7は、画像生成部113により実行される処理のうち、特に羽根車200が回転する画像の生成に関連するものを示す機能ブロック図である。同図に示される機能群のうち、移動量特定部115は、スワイプ操作の際の指の移動量を特定する手段である。具体的には、移動量特定部115は、操作情報取得部111により取得される操作情報に基づいて、スワイプ操作の際の指と表示面101との接触点の軌跡の長さを特定する。運指速度特定部116は、スワイプ操作の際の指の移動速度(運指速度)を特定する手段である。具体的には、運指速度特定部116は、移動量特定部115により特定される移動量を、その移動に要した時間で除することによって運指速度を特定する。
回転角特定部117は、移動量特定部115と運指速度特定部116の出力結果に基づいて、羽根車200を回転させる角度(回転角)を特定する手段である。例えば、回転角特定部117は、移動量特定部115により特定される移動量と、運指速度特定部116により特定される運指速度の値と、所定の係数とを乗算して、その回転角を特定する。運指方向特定部118は、スワイプ操作の際に指が移動した方向(運指方向)を特定する手段である。具体的には、運指方向特定部118は、操作情報取得部111により取得される操作情報に基づいて、スワイプ操作のベクトルをX軸方向の成分とY軸方向の成分とに分解し、当該スワイプ操作がY軸正方向のスワイプ操作であるか又はY軸負方向のスワイプ操作であるかについて判断する。
回転画像生成部119は、回転角特定部117と運指方向特定部118の出力結果に基づいて、羽根車200が回転する画像を生成する手段である。具体的には、回転画像生成部119は、運指方向特定部118により特定される方向に、回転角特定部117により特定される回転角の分だけ回転する羽根車200の画像を生成する。羽根車200が回転する際、その羽根車200の羽根220に割り当てられたコンテンツ画像は、そのサイズ、形状及び視点等が、回転角に応じて変化する。
本実施形態の構成は、以上のとおりである。
(1−2)動作
図8は、表示装置100の制御部110が実行する表示制御処理を示すフローチャートである。当該処理は、図3に示されるようなコンテンツ一覧表示画面が表示されている時に実行される処理である。同処理のステップSa1において制御部110は、操作情報が取得されたか否かについて判断する。この判断結果が否定的であった場合には(ステップSa1;NO)、制御部110は待機する。一方、その判断結果が肯定的であった場合には(ステップSa1;YES)、取得された操作情報により表される操作がタップ操作であるか否かを判断する(ステップSa2)。
具体的には、制御部110は、取得された操作情報に基づいて、所定時間内に1回以上、表示面101の一点を叩く操作が行われたか否かを判断する。この判断結果が肯定的であった場合には(ステップSa2;YES)、制御部110は、取得された操作情報により表される操作がダブルタップ操作であるか否かを判断する(ステップSa3)。具体的には、制御部110は、取得された操作情報に基づいて、所定時間内に2回、表示面101の一点を叩く操作が行われたか否かを判断する。
この判断結果が肯定的であった場合には(ステップSa3;YES)、制御部110は、当該操作が特定のコンテンツ画像に対するものであるか否かを判断する(ステップSa4)。具体的には、制御部110は、取得された操作情報(接触点の位置)と、表示部131に表示されている各コンテンツ画像の表示領域とを比較して、当該接触点が特定のコンテンツ画像の表示領域に含まれるか否かを判断する。
この判断結果が肯定的であった場合には(ステップSa4;YES)、制御部110は、当該操作の対象となったコンテンツ画像の情報元に遷移する画像を表示部131に表示させる(ステップSa5)。一方、その判断結果が否定的であった場合には(ステップSa4;NO)、制御部110は、表示の変更を行わない。
ステップSa3の判断において、ダブルタップ操作でないと判断された場合には(すなわち、タップ操作である場合には)(ステップSa3;NO)、制御部110は、当該操作が特定のコンテンツ画像に対するものであるか否かを判断する(ステップSa6)。具体的には、制御部110は、取得された操作情報(接触点の位置)と、表示部131に表示されている各コンテンツ画像の表示領域とを比較して、当該接触点が特定のコンテンツ画像の表示領域に含まれるか否かを判断する。
この判断結果が肯定的であった場合には(ステップSa6;YES)、制御部110は、当該操作の対象となったコンテンツ画像にフォーカスが与えられている画像(コンテンツ画像が選択されている画像)を表示部131に表示させる(ステップSa7)。一方、その判断結果が否定的であった場合には(ステップSa6;NO)、制御部110は、表示の変更を行わない。
ステップSa2の判断において、タップ操作でないと判断された場合には(すなわち、スワイプ操作である場合には)(ステップSa2;NO)、制御部110は、当該操作が特定のコンテンツ画像に対するものであるか否かを判断する(ステップSa8)。具体的には、制御部110は、取得された操作情報(接触点の位置)と、表示部131に表示されている各コンテンツ画像の表示領域とを比較して、当該接触点が特定のコンテンツ画像の表示領域に含まれるか否かを判断する。
この判断結果が肯定的であった場合には(ステップSa8;YES)、制御部110は、当該操作がY軸方向(図3参照)のスワイプ操作であるか否かを判断する(ステップSa9)。より具体的には、制御部110は、当該操作のベクトルをX軸方向の成分とY軸方向の成分とに分解し、Y軸方向の成分の方が大きい場合には、Y軸方向のスワイプ操作であると判断する。この判断結果が肯定的であった場合には(ステップSa9;YES)、制御部110は、当該スワイプ操作の軌跡が羽根車画像の回転軸210と交差するか否かについて判断する(ステップSa10)。
この判断結果が肯定的であった場合には(ステップSa10;YES)、制御部110は、当該スワイプ操作の対象となった羽根車画像について、当該羽根車200が回転する画像を表示部131に表示させる(ステップSa11)。詳細な処理内容については後述する。一方、その判断結果が否定的であった場合には(ステップSa10;NO)、制御部110は、当該スワイプ操作の対象となったコンテンツ画像について、スクロール表示する画像を表示部131に表示させる(ステップSa12)。
なお、ステップSa8又はステップSa9の判断において否定的な判断がなされた場合には、制御部110は、表示の変更を行わない。
図9は、羽根車200が回転する画像を表示する処理を示すフローチャートである。同図のステップSb1において、制御部110は、スワイプ操作の際の指の移動量を特定する。具体的には、制御部110は、図8のステップSa1において取得された操作情報に基づいて、スワイプ操作の際の指と表示面101との接触点の軌跡の長さを特定する。次に、制御部110は、スワイプ操作の際の指の移動速度を特定する(ステップSb2)。具体的には、制御部110は、ステップSb1において特定された移動量を、その移動に要した時間で除することによって移動速度を特定する。
次に、制御部110は、羽根車200を回転させる角度(回転角)を特定する(ステップSb3)。具体的には、制御部110は、例えば、ステップSb1において特定された移動量と、ステップSb2において特定された速度の値と、所定の係数とを乗算して、回転角を特定する。次に、制御部110は、スワイプ操作の際に指が移動した方向を特定する(ステップSb4)。具体的には、制御部110は、図8のステップSa1において取得された操作情報に基づいて、スワイプ操作のベクトルをX軸方向の成分とY軸方向の成分とに分解し、当該スワイプ操作がY軸正方向のスワイプ操作であるか又はY軸負方向のスワイプ操作であるかについて判断する。
次に、制御部110は、羽根車200が回転する画像を生成する(ステップSb5)。具体的には、制御部110は、ステップSb4において特定された方向に、ステップSb3において特定された回転角の分だけ回転する羽根車200の画像を生成する。そして、制御部110は、生成した画像を表示部131に表示させる(ステップSb6)。
以上が、本実施形態に係る表示制御処理についての説明である。
なお、この表示制御処理において、上記のステップSa12において画像をスクロールする量は、スワイプ操作の際の指の移動量とその移動速度に基づいて決定してもよい。具体的には、上記のステップSb1のように特定される移動量と、上記のステップSb2のように特定される速度の値と、所定の係数とを乗算して、スクロール量を決定するようにしてもよい。また、上記のステップSa12において画像をスクロールする方向は、スワイプ操作の際に指が移動した方向に基づいて決定してもよい。指の移動方向は、上記のステップSb4のように特定してもよい。
以上説明した本実施形態に係る表示装置100によれば、ユーザは羽根車画像上をスワイプ操作することにより、当該羽根車を回転させ、画面に表示されるコンテンツ画像を切り替えることができる。また、同じスワイプ操作であっても、その操作の方向を変えることにより、画面に表示されるコンテンツ画像を異ならせることができる。また、図3に示される例では、合計で24のコンテンツ画像をスワイプ操作だけで切り替えて閲覧することができる。すなわち、本実施形態に係る表示装置100によれば、一覧性及び操作性に優れたユーザインタフェースが提供される。
(2)変形例
上記の実施形態は、以下のように変形してもよい。なお、以下の変形は互いに組み合わせてもよい。
(2−1)変形例1
上記の実施形態に係る表示装置100において、当該装置の傾斜角を検出する傾斜角検出部150をさらに設け、この傾斜角検出部150により検出される傾斜角に基づいて上記の羽根車200を回転させるようにしてもよい。図10は、本変形例に係る表示装置100Aのハードウェア構成を示すブロック図である。ここで、傾斜角検出部150とは、具体的には加速度センサである。
この傾斜角検出部150を備える表示装置100Aが、例えば図11(a)に示されるように20°傾けられた場合には、図11(b)に示されるように羽根車200を20°回転させるようにしてもよい。ここで、同図に示される線L2は、重力方向に対して垂直な線を表すものとし、線L3は、表示面101に対して垂直な線を表すものとする。この場合、表示部131に表示される画面は、図12に示されるようなものとなる。表示装置100Aのユーザは、当該装置を傾けることにより、図12の例では羽根220BのY軸負方向側の面に割り当てられたコンテンツ画像を見ることができる。なお、表示装置100Aの傾斜角と羽根車200の回転角とは必ずしも同値である必要はなく、何らかの相関関係があればよい。
(2−2)変形例2
上記の実施形態において、羽根車200の回転速度を、コンテンツが記述されるコンテンツ記述領域の数に応じて設定するようにしてもよい。例えば、1つの羽根車200につき6枚のコンテンツ画像が割り当てられている場合には、1つの羽根車200につき2枚のコンテンツ画像が割り当てられている場合よりも、羽根車200の回転速度を速くするようにしてもよい。この場合、制御部110は、例えば、羽根車200が回転する画像を生成する際に、当該羽根車200に割り当てられているコンテンツ画像数を特定し、そのコンテンツ画像数に対応する回転速度を記憶部120から読み出し、その回転速度で回転する羽根車200の画像を生成するようにしてもよい。
(2−3)変形例3
上記の実施形態では、コンテンツ記述領域にスクロールバーが設けられ、ユーザによるスワイプ操作の軌跡が羽根車200の回転軸210と交差しない場合には、コンテンツをスクロールする画像が表示されている(図8、ステップSa12参照)。しかし、上記の実施形態において、コンテンツ記述領域にスクロールバーを設けず、ユーザによるY軸方向のスワイプ操作が行われた場合には、そのスワイプ操作の軌跡が羽根車200の回転軸210と交差するしないにかかわらず、羽根車200が回転する画像を表示するようにしてもよい。すなわち、上記の実施形態において、ステップSa10の処理を省略し、ステップSa9の判断結果が肯定的だった場合には、ステップSa11の処理を実行するようにしてもよい。
(2−4)変形例4
上記の実施形態では、表示面101の上に操作部132が重ねて設けられている。しかし、操作部132は必ずしも表示面101に重ねて設けられる必要はなく、タッチパッド(トラックパッド、スライドパッドともいう。)として設けられてもよい。
(2−5)変形例5
上記の実施形態では、ユーザは自身の指により表示装置100に対する操作を行っているが、自身の指に代えてスタイラス等の指示体を用いて表示装置100に対する操作を行ってもよい。この場合、操作部132は、指示体の位置を赤外線や超音波によって検出するものであってもよい。また、指示体の先端に磁性体が備えられている場合には、操作部132は、指示体の位置を磁気的に検出するものであってもよい。また、上記の実施形態に係るタッチスクリーン部130を静電容量方式で構成し、ユーザが表示面101に触れる前の近接した状態であっても、その指の位置を検出することができるようにしてもよい。
(2−6)変形例6
上記の実施形態は、本発明を表示装置に適用した例であるが、本発明は表示装置以外にも、例えばゲーム機、音楽プレーヤ、電子書籍リーダ等の電子機器に適用してもよい。また、本発明は、表示装置単体ではなく、少なくとも表示部を備える表示装置と、表示装置とは独立に設けられた他の装置(表示装置の表示を制御するための装置)との協働によって実現されてもよい。この場合、当該他の装置は、図6及び7に示した機能的構成を備えていれば足り、表示部や操作部を備えていなくてもよい。図6及び7に示した機能的構成を実現するプログラムは、サーバ装置からネットワークを介してダウンロードされて電子機器にインストールされてもよい。
(2−7)変形例7
上記の実施形態では、羽根車200の羽根220は、その一辺が回転軸210の一の面上に固定されている。しかし、羽根220の一辺を回転軸210の一の面上に固定せずに、羽根220のみを回転軸210の回転中心線を中心として回転させるようにしてもよい。また、上記の実施形態では、羽根220は、その一辺が回転軸210の回転中心線と平行となるように回転軸210の一の面上に固定されているが、必ずしも平行である必要はなく、回転中心線に対して傾けて羽根220を回転軸210に固定するようにしてもよい。
100…表示装置、101…表示面、110…制御部、111…操作情報取得部、112…操作認識部、113…画像生成部、114…表示制御部、115…移動量特定部、116…運指速度特定部、117…回転角特定部、118…運指方向特定部、119…回転画像生成部、120…記憶部、130…タッチスクリーン部、131…表示部、132…操作部、140…通信部、150…傾斜角検出部

Claims (9)

  1. 画像を表示する表示面を有する表示部と、
    操作者による指示体の接触による操作を受け付ける操作面を有する操作部と、
    前記表示部に、複数の羽根が設けられる羽根車を模した羽根車画像を表示させ、前記操作部により所定の操作が受け付けられた場合に、前記羽根車が回転する画像を表示させる表示制御部と
    を備え、
    前記表示制御部は、当該羽根車の回転軸が前記表示面に対して平行となるように前記羽根車画像を表示させ、
    前記羽根車は、前記複数の羽根のうちの少なくとも一の羽根の一の面に、コンテンツが記述されるコンテンツ記述領域を有する
    ことを特徴とする表示装置。
  2. 前記羽根車は、その複数の羽根の各一辺が前記回転軸に対して平行かつ固定的に設けられることを特徴とする請求項1記載の表示装置。
  3. 前記羽根車は、前記回転軸の一の面に、前記コンテンツ記述領域に記述されるコンテンツに関する情報が記述されるコンテンツ関連情報記述領域を有することを特徴とする請求項1又は2記載の表示装置。
  4. 前記羽根車は、前記複数の羽根のうち少なくとも一の羽根の両面に、コンテンツが記述されるコンテンツ記述領域を有することを特徴とする請求項3記載の表示装置。
  5. 前記表示制御部は、前記羽根車が回転する画像を表示させる際、コンテンツが記述されているコンテンツ記述領域が多いほど、前記羽根車が回転する速度を増加させるように制御することを特徴とする請求項4記載の表示装置。
  6. 前記コンテンツ記述領域は、スクロールバーを備え、
    前記表示制御部は、前記操作部により受け付けられた操作が、前記操作面に前記指示体が接触させられた状態で移動させられるスワイプ操作であって、当該スワイプ操作の結果、前記指示体と接触した前記操作面の接触点の軌跡が、前記羽根車の回転軸と交差する場合は、前記羽根車が回転する画像を表示させる一方で、当該軌跡が、前記羽根車の回転軸と交差しない場合は、前記コンテンツ記述領域に記述されるコンテンツをスクロールする画像を表示させる
    ことを特徴とする請求項5記載の表示装置。
  7. 前記表示装置の傾斜角を検出する傾斜角検出部をさらに備え、
    前記表示制御部は、前記傾斜角検出部により検出される傾斜角に応じて回転する前記羽根車の画像を表示させる
    ことを特徴とする請求項6記載の表示装置。
  8. 画像を表示する表示面を有する表示部と、操作者による指示体の接触による操作を受け付ける操作面を有する操作部とを備える表示装置において、
    前記表示部に、複数の羽根が設けられる羽根車を模した羽根車画像を表示させ、前記操作部により所定の操作が受け付けられた場合に、前記羽根車が回転する画像を表示させるユーザインタフェース方法であって、
    前記羽根車画像は、当該羽根車の回転軸が前記表示面に対して平行となるように表示され、
    前記羽根車は、前記複数の羽根のうちの少なくとも一の羽根の一の面に、コンテンツが記述されるコンテンツ記述領域を有する
    ことを特徴とするユーザインタフェース方法。
  9. 画像を表示する表示面を有する表示部と、操作者による指示体の接触による操作を受け付ける操作面を有する操作部とを備える表示装置のコンピュータに、
    前記表示部に、複数の羽根が設けられる羽根車を模した羽根車画像を表示させ、前記操作部により所定の操作が受け付けられた場合に、前記羽根車が回転する画像を表示させるためのプログラムであって、
    前記羽根車画像は、当該羽根車の回転軸が前記表示面に対して平行となるようにを表示され、
    前記羽根車は、前記複数の羽根のうちの少なくとも一の羽根の一の面に、コンテンツが記述されるコンテンツ記述領域を有する
    ことを特徴とするプログラム。
JP2013549227A 2011-12-15 2012-12-06 表示装置、ユーザインタフェース方法及びプログラム Active JP5584372B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013549227A JP5584372B2 (ja) 2011-12-15 2012-12-06 表示装置、ユーザインタフェース方法及びプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011274315 2011-12-15
JP2011274315 2011-12-15
JP2013549227A JP5584372B2 (ja) 2011-12-15 2012-12-06 表示装置、ユーザインタフェース方法及びプログラム
PCT/JP2012/081671 WO2013089013A1 (ja) 2011-12-15 2012-12-06 表示装置、ユーザインタフェース方法及びプログラム

Publications (2)

Publication Number Publication Date
JP5584372B2 true JP5584372B2 (ja) 2014-09-03
JPWO2013089013A1 JPWO2013089013A1 (ja) 2015-04-27

Family

ID=48612466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013549227A Active JP5584372B2 (ja) 2011-12-15 2012-12-06 表示装置、ユーザインタフェース方法及びプログラム

Country Status (8)

Country Link
US (1) US20140298263A1 (ja)
EP (1) EP2793113A4 (ja)
JP (1) JP5584372B2 (ja)
KR (1) KR101493643B1 (ja)
CN (1) CN103492995A (ja)
BR (1) BR112013025787A2 (ja)
RU (1) RU2013149803A (ja)
WO (1) WO2013089013A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD817979S1 (en) * 2011-04-25 2018-05-15 Sony Corporation Display panel or screen with graphical user interface
JP6098435B2 (ja) * 2013-08-22 2017-03-22 ソニー株式会社 情報処理装置、記憶媒体、および制御方法
WO2015063901A1 (ja) * 2013-10-30 2015-05-07 株式会社東芝 電子機器、操作制御方法及びプログラム
KR101591780B1 (ko) 2013-11-08 2016-02-04 김시영 터치입력 단말에서의 광고 표시방법
KR101522468B1 (ko) * 2013-12-05 2015-05-28 네이버 주식회사 동영상 간 전환 방법 및 그 시스템
USD801354S1 (en) * 2015-02-12 2017-10-31 Lg Electronics Inc. Display panel with animated graphical user interface
RU2632131C2 (ru) 2015-08-28 2017-10-02 Общество С Ограниченной Ответственностью "Яндекс" Способ и устройство для создания рекомендуемого списка содержимого
RU2632100C2 (ru) 2015-09-28 2017-10-02 Общество С Ограниченной Ответственностью "Яндекс" Способ и сервер создания рекомендованного набора элементов
RU2629638C2 (ru) 2015-09-28 2017-08-30 Общество С Ограниченной Ответственностью "Яндекс" Способ и сервер создания рекомендуемого набора элементов для пользователя
RU2635065C2 (ru) * 2015-09-29 2017-11-08 Общество С Ограниченной Ответственностью "Яндекс" Способ (варианты) и электронное устройство (варианты) взаимодействия с элементом потока содержимого
RU2632144C1 (ru) 2016-05-12 2017-10-02 Общество С Ограниченной Ответственностью "Яндекс" Компьютерный способ создания интерфейса рекомендации контента
JP6553547B2 (ja) * 2016-05-31 2019-07-31 日本電信電話株式会社 データ表示装置、データ表示方法、及びプログラム
RU2636702C1 (ru) 2016-07-07 2017-11-27 Общество С Ограниченной Ответственностью "Яндекс" Способ и устройство для выбора сетевого ресурса в качестве источника содержимого для системы рекомендаций
RU2632132C1 (ru) 2016-07-07 2017-10-02 Общество С Ограниченной Ответственностью "Яндекс" Способ и устройство для создания рекомендаций содержимого в системе рекомендаций
USD882600S1 (en) 2017-01-13 2020-04-28 Yandex Europe Ag Display screen with graphical user interface
JP6821536B2 (ja) * 2017-10-03 2021-01-27 キヤノン株式会社 画像処理装置、制御方法及びプログラム
RU2720952C2 (ru) 2018-09-14 2020-05-15 Общество С Ограниченной Ответственностью "Яндекс" Способ и система для создания рекомендации цифрового содержимого
RU2720899C2 (ru) 2018-09-14 2020-05-14 Общество С Ограниченной Ответственностью "Яндекс" Способ и система для определения зависящих от пользователя пропорций содержимого для рекомендации
RU2714594C1 (ru) 2018-09-14 2020-02-18 Общество С Ограниченной Ответственностью "Яндекс" Способ и система определения параметра релевантность для элементов содержимого
RU2725659C2 (ru) 2018-10-08 2020-07-03 Общество С Ограниченной Ответственностью "Яндекс" Способ и система для оценивания данных о взаимодействиях пользователь-элемент
RU2731335C2 (ru) 2018-10-09 2020-09-01 Общество С Ограниченной Ответственностью "Яндекс" Способ и система для формирования рекомендаций цифрового контента
US12093518B2 (en) * 2018-11-15 2024-09-17 Spintura, Inc. Electronic picture carousel
RU2757406C1 (ru) 2019-09-09 2021-10-15 Общество С Ограниченной Ответственностью «Яндекс» Способ и система для обеспечения уровня сервиса при рекламе элемента контента

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10232757A (ja) * 1997-02-19 1998-09-02 Sharp Corp メディア選択装置
JP2001265481A (ja) * 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
JP2001312346A (ja) * 2000-04-27 2001-11-09 Kenwood Corp 表示装置
JP4398465B2 (ja) * 2004-07-28 2010-01-13 パナソニック株式会社 電子表示装置、電子表示方法、電子表示プログラム及び記録媒体

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5452240A (en) * 1993-11-23 1995-09-19 Roca Productions, Inc. Electronically simulated rotary-type cardfile
US5880733A (en) * 1996-04-30 1999-03-09 Microsoft Corporation Display system and method for displaying windows of an operating system to provide a three-dimensional workspace for a computer system
US5909207A (en) * 1996-08-26 1999-06-01 E-Book Systems Pte Ltd Browsing system and method for computer information
US5903271A (en) * 1997-05-23 1999-05-11 International Business Machines Corporation Facilitating viewer interaction with three-dimensional objects and two-dimensional images in virtual three-dimensional workspace by drag and drop technique
US6989815B2 (en) * 2001-09-13 2006-01-24 E-Book Systems Pte Ltd. Method for flipping pages via electromechanical information browsing device
US20040076935A1 (en) * 2002-05-30 2004-04-22 Mattel, Inc. Method for teaching linguistics
US7581186B2 (en) * 2006-09-11 2009-08-25 Apple Inc. Media manager with integrated browsers
KR101119115B1 (ko) * 2006-10-18 2012-03-16 엘지전자 주식회사 스크롤 장치를 가진 이동통신 단말기 및 이를 이용한 입력신호 처리방법
WO2009062124A1 (en) * 2007-11-09 2009-05-14 Wms Gaming, Inc. Interface for wagering game environments
JP4945017B2 (ja) 2007-11-30 2012-06-06 シャープ株式会社 マルチ画面表示端末
US20090267909A1 (en) * 2008-04-27 2009-10-29 Htc Corporation Electronic device and user interface display method thereof
JP5446624B2 (ja) * 2009-09-07 2014-03-19 ソニー株式会社 情報表示装置、情報表示方法及びプログラム
US20110167350A1 (en) * 2010-01-06 2011-07-07 Apple Inc. Assist Features For Content Display Device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10232757A (ja) * 1997-02-19 1998-09-02 Sharp Corp メディア選択装置
JP2001265481A (ja) * 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
JP2001312346A (ja) * 2000-04-27 2001-11-09 Kenwood Corp 表示装置
JP4398465B2 (ja) * 2004-07-28 2010-01-13 パナソニック株式会社 電子表示装置、電子表示方法、電子表示プログラム及び記録媒体

Also Published As

Publication number Publication date
EP2793113A4 (en) 2015-07-22
WO2013089013A1 (ja) 2013-06-20
BR112013025787A2 (pt) 2017-02-14
RU2013149803A (ru) 2016-02-10
KR20140024017A (ko) 2014-02-27
CN103492995A (zh) 2014-01-01
KR101493643B1 (ko) 2015-02-13
JPWO2013089013A1 (ja) 2015-04-27
EP2793113A1 (en) 2014-10-22
US20140298263A1 (en) 2014-10-02

Similar Documents

Publication Publication Date Title
JP5584372B2 (ja) 表示装置、ユーザインタフェース方法及びプログラム
JP6463795B2 (ja) グラフィカルユーザインターフェース装置においてテクスチャを用いるためのシステム及び方法
US10871893B2 (en) Using gestures to deliver content to predefined destinations
EP2815299B1 (en) Thumbnail-image selection of applications
US8749497B2 (en) Multi-touch shape drawing
US10083617B2 (en) Portable apparatus and screen displaying method thereof
JP5694204B2 (ja) グラフィカルユーザインターフェース装置においてテクスチャを用いるためのシステム及び方法
JP5684291B2 (ja) オンおよびオフスクリーン・ジェスチャーの組み合わせ
US9423932B2 (en) Zoom view mode for digital content including multiple regions of interest
US20110201388A1 (en) Prominent selection cues for icons
JP5460679B2 (ja) 情報処理装置、情報処理方法、およびコンテンツファイルのデータ構造
WO2012157562A1 (ja) 表示装置、ユーザインタフェース方法及びプログラム
JP5792499B2 (ja) 電子機器、表示方法、および表示プログラム
JP5846857B2 (ja) 携帯情報端末および電子コンテンツ表示方法
EP2664986A2 (en) Method and electronic device thereof for processing function corresponding to multi-touch
JP2012058857A (ja) 情報処理装置、操作方法及び情報処理プログラム
US20120284671A1 (en) Systems and methods for interface mangement
EP2708997A1 (en) Display device, user interface method, and program
JP2018506803A (ja) 湾曲ディスプレイとのユーザ相互作用のためのシステム及び方法
JP5654932B2 (ja) ユーザインタフェース装置、表示装置による操作受付方法及びプログラム
JP2004271671A (ja) 画像表示装置及びそれを備えた端末装置
KR20130124139A (ko) 공간상의 상호 작용을 이용한 단말의 제어 방법 및 그 단말
JP5943856B2 (ja) 多面的なグラフィック・オブジェクトを有する携帯端末及び表示切替方法
JP6327834B2 (ja) 操作表示装置、操作表示方法及びプログラム
US10114540B2 (en) Interactive user interface including layered sub-pages

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140717

R150 Certificate of patent or registration of utility model

Ref document number: 5584372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250