JP2017117435A - 情報処理装置およびその制御方法およびプログラム - Google Patents

情報処理装置およびその制御方法およびプログラム Download PDF

Info

Publication number
JP2017117435A
JP2017117435A JP2016197269A JP2016197269A JP2017117435A JP 2017117435 A JP2017117435 A JP 2017117435A JP 2016197269 A JP2016197269 A JP 2016197269A JP 2016197269 A JP2016197269 A JP 2016197269A JP 2017117435 A JP2017117435 A JP 2017117435A
Authority
JP
Japan
Prior art keywords
touch
information processing
display device
processing apparatus
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016197269A
Other languages
English (en)
Other versions
JP6859061B2 (ja
JP2017117435A5 (ja
Inventor
貴博 松下
Takahiro Matsushita
貴博 松下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to GB1811917.2A priority Critical patent/GB2562931B/en
Priority to PCT/JP2016/087156 priority patent/WO2017110606A1/ja
Priority to DE112016005891.8T priority patent/DE112016005891T5/de
Priority to CN201680075865.1A priority patent/CN108475166B/zh
Publication of JP2017117435A publication Critical patent/JP2017117435A/ja
Priority to US16/001,132 priority patent/US20180284980A1/en
Publication of JP2017117435A5 publication Critical patent/JP2017117435A5/ja
Application granted granted Critical
Publication of JP6859061B2 publication Critical patent/JP6859061B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16HGEARING
    • F16H3/00Toothed gearings for conveying rotary motion with variable gear ratio or for reversing rotary motion
    • F16H3/44Toothed gearings for conveying rotary motion with variable gear ratio or for reversing rotary motion using gears having orbital motion
    • F16H3/46Gearings having only two central gears, connected by orbital gears
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16HGEARING
    • F16H57/00General details of gearing
    • F16H57/02Gearboxes; Mounting gearing therein
    • F16H57/021Shaft support structures, e.g. partition walls, bearing eyes, casing walls or covers with bearings
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16HGEARING
    • F16H57/00General details of gearing
    • F16H57/02Gearboxes; Mounting gearing therein
    • F16H57/023Mounting or installation of gears or shafts in the gearboxes, e.g. methods or means for assembly
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】移動操作が可能なユーザインタフェースの使用性(ユーザビリティー)を向上させる。
【解決手段】情報処理装置は、移動可能なユーザインタフェース要素(UI要素)を表示装置に表示させ、表示装置に対してユーザー操作が検知された第1の位置に基づいてUI要素が表示装置上で表示される第2の位置を決定する。ユーザー操作の検知が終了したときの第2の位置を記憶しておき、ユーザー操作の検知が開始した場合、そのときの第1の位置と記憶されている第2の位置との距離を算出し、UI要素を第1の位置と第2の位置のうちいずれか一方に、算出結果に応じて選択的に表示するよう制御する。
【選択図】図4

Description

本発明は、ユーザー操作に応答して位置を指定可能なユーザインタフェース機能を持つ情報処理装置およびその制御方法およびプログラムに関する。
位置を指定するためのユーザインタフェース(UI)の一つとして、シークバーが知られている。シークバーは、例えば、連続撮影された画像群の中から表示画像を選択するために用いることができる。このようなGUIの他の例として、スライダーバーやスクロールバーなども挙げられる。
特許文献1は、連続撮影が可能な撮像装置であって、スライド操作可能なGUIを用いてユーザが連続撮影画像群の中から1つの画像を選択可能な撮像装置を開示する。特許文献1では、ユーザが指を使い、スライドバーに沿ってノブを左右方向にドラッグ操作することで、当該スライド量に応じた時間に撮影された撮影画像を表示エリアに表示することが行われている。
また、スマートフォンやタブレット等のモバイル機器において、タッチした位置の画素に基づいてホワイトバランスなどの調整値を変更できる機能がある。例えば、ユーザは操作コントロール(カーソルなどのインジケータ)で画像中の画素を指定し、指定された画素に基づいて表示される画像のホワイトバランスを変更するという方法がある。その際に、ユーザが画像の所望位置を容易に選択可能なUIが求められている。
特開2014−183564号公報
特許文献1のようにタッチパネル上でユーザが指を使ってノブを操作する場合、細かな位置を正確に指定することは難しい。特に、スライドバー全体の長さが短い場合に、大量の撮影画像を割り当てると、各画像はスライドバー中の極めて狭い範囲に対応する。したがって、ユーザが所望の画像の位置をタッチ操作で指定するのは非常に難しく、以前に指定したものと同じ画像を再び指定することも困難であった。
上記の問題は、シークバーに限らず、任意のユーザインタフェース要素、特に表示面積が小さなユーザインタフェース要素を移動させる際に生じる。また、上記の問題は、タッチ操作によって入力を行う場合だけでなく、任意のポインティングデバイス(ポインティング入力装置)を用いて入力を行う場合にも生じる。
上記実情を鑑みて、本発明は、ユーザー操作に応答して位置を指定可能なユーザインタフェースの使用性(ユーザビリティー)を向上させることを目的とする。
本発明の一態様に係る情報処理装置は、移動可能なユーザインタフェース要素(UI要素)を表示装置に表示させる表示制御手段と、前記表示装置に対するユーザー操作を検知する検知手段と、前記ユーザー操作が前記表示装置上で検知された第1の位置を取得する取得手段と、前記取得された第1の位置に基づいて前記UI要素が前記表示装置上で表示
される第2の位置を決定する決定手段と、前記検知手段による前記ユーザー操作の検知が終了したときの前記第2の位置を記憶する記憶手段と、ユーザー操作の検知が新たに開始されたときの第3の位置と前記記憶手段に記憶されている第2の位置との距離を算出する算出手段とを備え、前記表示制御手段は、前記ユーザー操作の検知が新たに開始された場合、前記UI要素を、前記第3の位置に基づき決定される第4の位置および前記記憶手段に記憶されている第2の位置のうちいずれか一方に、前記算出された距離に応じて選択的に表示するよう制御することを特徴とする。
本発明の一態様に係る情報処理装置は、表示装置へのタッチ操作を検知する検知手段と、前記タッチ操作に対応する位置に基づく処理を実行する処理手段と、前記処理の実行に用いられた前記位置を記憶する記憶手段と、前記表示装置へのタッチ操作に対応する位置に基づいて距離を算出する算出手段と、を備え、前記検知手段は、前記表示装置への第1のタッチ操作と第2のタッチ操作を検知し、前記記憶手段は、前記第1のタッチ操作に対応する第1の位置を記憶し、前記算出手段は、前記表示装置への第2のタッチ操作が検出されたとき、前記記憶されている第1の位置と前記第2のタッチ操作に対応する第2の位置との距離を算出し、前記処理手段は、前記第1のタッチ操作に応答して、前記第1のタッチ操作に対応する前記第1の位置に基づく処理を実行し、前記距離が所定値より小さければ、前記第2のタッチ操作に応答して、前記第1の位置に基づく処理を実行し、前記距離が前記所定値より大きければ、前記第2のタッチ操作に応答して、前記第2の位置に基づく処理を実行することを特徴とする。
本発明の一態様に係る情報処理装置の制御方法は、移動可能なユーザインタフェース要素(UI要素)を表示装置に表示させるステップと、前記表示装置に対するユーザー操作を検知するステップと、前記ユーザー操作が前記表示装置上で検知された第1の位置を取得するステップと、前記取得された第1の位置に基づいて前記UI要素が前記表示装置上で表示される第2の位置を決定するステップと、前記ユーザー操作の検知が終了したときの前記第2の位置を記憶するステップと、ユーザー操作の検知が新たに開始されたときの第3の位置と前記記憶されている第2の位置との距離を算出するステップと、前記ユーザー操作の検知が新たに開始された場合、前記UI要素を、前記第3の位置に基づき決定される第4の位置および前記第2の位置のうちいずれか一方に、前記算出された距離に応じて選択的に表示するよう制御するステップを有することを特徴とする。
ことを特徴とする。
本発明の一態様に係る情報処理装置の制御方法は、表示装置への第1のタッチ操作を検知するステップと、前記第1のタッチ操作に応答して、前記第1のタッチ操作に対応する第1の位置に基づく処理を実行するステップと、前記処理の実行に用いられた前記第1の位置を記憶するステップと、前記表示装置への第2のタッチ操作が検知された時、前記記憶されている第1の位置と前記第2のタッチ操作に対応する第2の位置との距離を算出するステップと、前記距離が所定値より小さければ、前記第2のタッチ操作に応答して、前記第1の位置に基づく処理を実行し、前記距離が前記所定値より大きければ、前記第2のタッチ操作に応答して、前記第2の位置に基づく処理を実行するステップを有することを特徴とする。
本発明によれば、ユーザー操作に応答して位置を指定可能なユーザインタフェースの使用性が向上し、ユーザーは所望の位置を指定することが容易になる。
実施例に係る情報処理装置の構成を示すブロック図。 実施例に係る情報処理装置の機能を示すブロック図。 実施例に係るシークバーUIの例を示す図。 実施例1に係るシークバーUIの制御方法を示すフローチャート。 実施例1に係るシークバーUIの動作例を説明する図。 実施例2に係るシークバーUIの制御方法を示すフローチャート。 実施例3に係るシークバーUIの制御方法を示すフローチャート。 実施例4に係るシークバーUIの例を示す図。 実施例4に係るシークバーUIの制御方法を示すフローチャート。 実施例6に係る閾値設定UIの例を示す図。 実施例7に係る操作コントロールの制御方法を示すフローチャート。 実施例7に係るモバイル機器100の表示画面の一例を示す図。 実施例7に係る操作コントロールの制御方法の一例を示す図。 実施例8に係る操作コントロールの制御方法を示すフローチャート。 実施例9に係る操作コントロールの制御方法を示すフローチャート。 実施例9に係る操作コントロールの制御方法の一例を示す図。 実施例10に係る操作コントロールの制御方法を示すフローチャート。 実施例11に係る各設定の設定UIの一例を示す図。
以下、図面を参照して、本発明の実施例を詳細に説明する。なお、以下に説明する実施例は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施例に限定されるものではない。
また、本発明はプログラムコードを記録した記憶媒体をシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体からプログラムコードを読出し実行することによっても実現できる。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、プログラムコード自体及びそのプログラムコードを非一時的に記憶した記憶媒体は本発明を構成することになる。プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリーカード、ROM等を用いることができる。
また、記憶媒体から読み出されたプログラムコードの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部又は全部を行い、その処理によって上記実施例の機能が実現される態様も本発明に含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれるようにしてもよい。そして、その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって前述した実施例の機能が実現される態様も本発明に含まれることは言うまでもない。
以下では、ポインティングデバイスとして主にタッチパネルを例に用いる。ポインティングデバイスは、ポイント開始、ドラッグ、ポイント終了などの入力が可能な入力装置である。ポインティングデバイスの例は、タッチパネル、タッチパッド、マウス、ポインティングスティック、トラックボール、ジョイスティック、ペンタブレットなどが挙げられる。タッチパネルを用いる場合には、ポイント操作はタッチ操作と呼ばれる。また、ポイント操作開始およびポイント操作終了のことを、以下ではそれぞれタッチオンおよびタッチオフと称する。
<装置構成>
図1は、本発明の一実施例に係るスマートフォンやタブレットなどのモバイル機器100の内部構成図である。モバイル機器100は、CPU101と、DRAM102と、通信部106と、表示部107と、入力部108と、SSD109とから構成されている。
CPU(Central Processing Unit・中央処理装置)101は、入力された信号やプロ
グラムに従って、各種の演算や、モバイル機器100を構成する各部分の制御を行う。CPU101は、DRAM102に読み込まれた制御プログラム103を実行することにより、図2に示すようなシークバーUI制御機能200を提供する。すなわち、CPU101は、入力取得部201、位置決定部202、位置記憶部203、UI表示制御部204、処理実行部205として機能する。入力取得部201は、入力部108からの入力を取得する。位置決定部202は、シークバーUIのノブ位置を決定する。位置記憶部203は、ノブの参照位置を記憶する。UI表示制御部204は、シークバーUIを表示部107に表示するためのデータを表示部107に出力する。処理実行部205は、ユーザによるシークバーUIへの入力に応じて、表示画像の変更などの所定の処理を実行する。これらの機能部の詳細は後述する。
DRAM(Dynamic Random Access Memory)102は、一次記憶装置である。DRAM102には、プログラム記憶部110から読み込まれた制御プログラム103およびオペレーティングシステム105が格納される。制御プログラム103は、モバイル機器100が画像管理を行うためのプログラムが含まれる。オペレーティングシステム105は、モバイル機器の基本的な動作を行うためのプログラムが含まれる。DRAM102の一部は、CPU101が各プログラムを実行する際の作業用メモリ(ワーキングメモリ)104として使用される。
SSD(Solid State Drive)109は、不揮発性のフラッシュメモリを用いた二次(
補助)記憶装置である。モバイル機器のように携帯するユースケースが多い機器においては、これまでPCで一般的であったHDD(Hard Disk Drive)では無く、消費電力が少なく衝撃にも強いSSDが使用されるのが一般的である。
プログラム記憶部110には、本モバイル機器100が各種機能を実行するためのプログラムおよび基本オペレーティングシステムプログラムが格納されている。これらのプログラムは、一次メモリとしてより高速に読み書き可能なDRAM102に読み込まれ、CPU101に逐次読み込まれ実行される。SSD109、DRAM102、CPU101によりプログラムが実行されモバイル機器としての機能が実行される動作は、現在一般的なモバイル機器と同様である。
SSD109には、複数の画像データ111、112、113、114が格納されている。これらの画像データは、撮像装置において撮影されたJPEGファイルである。図では撮像装置内の画像IMG_0001.JPG〜IMG_0100.JPGの100枚の画像ファイルの内、IMG_0001.JPG〜IMG_0004.JPGの4枚の画像ファイルが転送済であることを示している。動画、連写画像、音声についても同様である。
表示部107は、液晶ディスプレイなどの画像表示装置である。モバイル機器では表示部107が本体と一体に設けられることが一般的であるが、モバイル機器本体とは異なる表示装置がモバイル機器に接続されても良い。表示部107は、画像データを含む様々な情報と、ユーザー操作のためのコントロール(UI要素あるいはUIオブジェクトとも称する)を表示する。入力部108は、ユーザがモバイル機器100に対して入力を行うための構成である。入力部108は、本実施例においては、モバイル機器で一般的に使用さ
れているタッチパネルから構成されるものとする。タッチパネルは、画像表示装置上でのユーザのタッチ操作を検知する。タッチパネルの方式は特に限定されず、静電容量方式、抵抗膜方式、表面弾性波方式など既存の任意の方式を採用可能である。
通信部106は、無線通信あるいは有線通信により他の機器とのデータの送受信を行う。通信部106は、例えば、無線LANなどの無線接続による通信や、USB(Universal Serial Bus)ケーブルなどの有線接続による通信を提供する。通信部106は、外部装置と直接接続してもよいし、サーバを経由したり、インターネットなどのネットワークを介して外部装置と接続したりしてもよい。
<シークバーUI>
図3A〜3Cを参照して、本実施例において利用するシークバー・ユーザインタフェースについて説明する。ここでは、コンテンツとして連続撮影された複数の静止画像を例にあげ、これらの中から表示される静止画像を切り替えるためにシークバーUIを用いるユースケースを例に説明する。図3Aは表示画面の例を示し、表示画面は画像表示エリア301とシークバーUI300とを含む。
図3BはシークバーUI300の詳細構成を示す図である。シークバーUI300は、横長の矩形の操作領域であるトラック310と、トラック310に沿って左右の方向に移動可能なノブ320とを備える。なお、「ノブ」は、「サム」、「インジケータ」、「タブ」などとも称される。ノブは現在、連続撮影された複数の画像全体における表示中の画像の位置を示し、ユーザは、ノブ320を移動させることで、画像表示エリア301に表示される画像を切り替えることができる。画像表示エリア301には、ノブ320の位置に対応する画像が表示される。例えば、連続撮影画像が140枚の場合、ノブ320がトラック310の左端にあれば1枚目の画像が表示され、ノブ320がトラック310の右端にあれば140枚目の画像が表示され、左から24/140の位置にあれば24枚目の画像が表示される。
シークバーUI300のトラック310には、連続撮影画像の内容が分かりやすいように、連続撮影画像の一部の画像のサムネイル330が表示される。図3Bの例では7枚のサムネイルが一列に表示されており、それぞれは連続撮影画像の0/6,1/6,・・・,6/6の位置の画像のサムネイルである。シークバーUI300のノブ320は、サムネイル330の列に沿って移動する。
ノブ320の基本的な移動方法は以下の通りである。なお、ここではシークバーUIの基本的な動作を説明し、本実施例におけるシークバーUIの動作の詳細は後述する。ユーザがトラック310上の任意の位置をタッチオン(ポイント開始)すると、その位置にノブ320が移動する。ユーザがノブ320をドラッグすると、それに応じてノブ320が移動する。より具体的には、まず、ドラッグの開始位置(タッチオン位置)にノブ320が移動し、その後ドラッグの移動量に応じてノブ320が移動する。
また、画像表示エリア301に表示される画像を切り替えることでも、ノブ320の位置を移動することができる。ユーザが、例えば画像表示エリア301でスワイプ操作を行うと、画像表示エリア301に表示される画像が切り替えられ、それに応じてノブ320も切り替え後の画像と対応する位置に移動する。
なお、シークバーUI300の具体的な表示の態様は図3Bに限られない。シークバーUIは、トラック310に沿ってノブ320を移動可能であれば良く、例えば、トラック310にサムネイルを表示しなくても良い。図3Cは、シークバーUI300の他の例を示す。
シークバーUI300は、コンピュータ内部では、シークバーUIオブジェクトとして管理される。シークバーUIオブジェクトは、ノブ320の位置などの内部状態(変数)と、各種イベント発生時の処理(関数)を含む。ユーザが表示部107上でシークバーUIに対する操作を行う場合の、コンピュータ内部の動作を簡単に説明する。入力部108からの入力はOSにイベントとして渡され、このイベントがOSからシークバーUIオブジェクトに渡される。当該イベントに応じて、シークバーUIの内部状態が変更され、この変更に応じて予め定義された動作が行われる。より具体的には、トラック310上でのタッチオンやドラッグ入力のイベントに応じて、ノブ320の位置を表す内部変数が更新され、当該更新に伴って、ノブ320の表示位置の更新処理および画像表示エリア301に表示する画像の切り替え処理が行われる。
このようなシークバーUIにおいては、特に表示対象の連続撮影画像の枚数が多い場合に、ユーザがノブ320の位置を正確にタッチすることが難しい。したがって、ユーザが以前に指定したものと同じ画像を再び指定することが困難である。
<実施例1>
図2〜4を参照して、本発明の一実施例に係るシークバーUIの制御方法について説明する。図4に示す制御では、シークバー内での直近のタッチオフ時(ポイント終了時)のノブ位置と、タッチオン時(ポイント開始時)のタッチオンイベントが取得された位置(タッチオン位置、ポイント開始位置)との間の距離に基づいて、ノブの位置を決定する。なお、以下では簡単のために、シークバーUIにおけるノブの位置のことを、シークバー位置とも称する。
ステップS401において、入力取得部201が、シークバーUI300内でのタッチオンイベントを取得したかどうかを判定する。シークバーUI300内でのタッチオンイベントが取得されない場合(S401−NO)には、タッチオンイベントが取得されるまで待機する。タッチオンイベントが取得された場合(S401−YES)には、処理はステップS402に進む。
ステップS402において、位置決定部202は、位置記憶部203内にシークバー内でのタッチオフ時のノブ位置(xOFF, yOFF)が保持されているかを判定する。タッチオフ時のノブ位置を保持していない場合(S402−NO)には、処理はステップS405に進む。ステップS405では、位置決定部202は、ノブ位置をタッチオン位置(xON, yON)に設定する。
一方、位置記憶部203がタッチオフ時のノブ位置を保持している場合(S402−YES)は、処理はステップS403に進む。ステップS403では、位置決定部202が、タッチオフ時のノブ位置(xOFF, yOFF)とシークバーUI300内でタッチオン位置(xON, yON)の距離rを算出する。距離rはr=[(xON-xOFF)2+ (yON-yOFF)2]1/2により算出できる
。なお、(xON, yON)はタッチオン時のタッチ位置であるが、(xOFF, yOFF)はタッチオフ時のタッチ位置ではなくノブ位置である点に留意されたい。
ステップS404において、位置決定部202は、距離rが所定の閾値αより大きい(
距離r > 閾値α)かどうかを判定する。距離rが閾値αより大きい(距離r > 閾値α)場
合は、処理はステップS405に進み、位置決定部202は、ノブ位置をタッチオン位置(xON, yON)に設定する。一方、距離rが閾値α以下(距離r≦閾値α)の場合は、処理はステップS406に進み、位置決定部202がノブ位置を、保持されていたタッチオフ時のノブ位置(xOFF, yOFF)に設定する。
ステップS403において、距離rはノブの移動方向に沿った距離として求められても
よい。本例では、ノブはx方向に移動するので、距離r = |xON - xOFF|としてもよい。ま
た、位置記憶部203に記憶されるノブ位置を、ノブの描画領域としても良い。この場合、タッチオン位置とノブ位置との間の距離は、タッチオン位置がノブ描画領域内であればゼロ、タッチオン位置がノブ描画外であればタッチオン位置とノブ描画領域との間の最短距離とすればよい。
閾値αの大きさは、予め定められた値であっても良いし、ノブ320の幅に応じて動的に決定される値であっても良い(ノブ320の幅が変化する場合)。閾値αは、例えば、ユーザがタッチ操作を行う際の、指とタッチパネルの接触領域の大きさと同程度(例えば、1〜1.5倍程度)とすることができる。また、閾値αは、ノブ320の幅の半分の1〜10倍程度とすることができる。また、閾値αとして、上記のように求められる複数の値から所定の基準で選択される値、例えば、これら複数の値のうちの最小値や最大値を採用することもできる。
ステップS407において、入力取得部201がタッチオフイベントを取得したかどうかを判定する。タッチオフイベントが取得されていない場合は、ドラッグなどの操作が続いていて、指がタッチパネルから離れていないことを意味する。ドラッグ操作が行われている間は、位置決定部202は、タッチオン位置(xON, yON)と現在のタッチ位置(x, y)に応じてノブ位置を決定する(S409)。例えば、位置決定部202は、ステップS405またはS406において決定されたノブ位置に対して、移動量(x-xON, y-yON)あるいはx方向移動量(x-xON, 0)を足し合わせた位置を、新しいノブ位置として決定する。
ステップS407においてタッチオフイベントが取得されている場合は、処理はステップS408に進み、タッチオフイベントが取得された時のノブ位置を位置記憶部203に格納する。位置記憶部203にすでにノブ位置(xOFF, yOFF)が保持されている場合には、新しい値で上書き更新される。
なお、前回のタッチオフ時からほとんど時間が経過していない場合、前回のタッチオフ時のノブ位置の近傍がタッチオンされたときは、ユーザが同じノブ位置を指定したい可能性が高い。一方、前回のタッチオフ時から長時間が経過している場合、前回のタッチオフ時のノブ位置の近傍がタッチオンされたとしても、ユーザが同じノブ位置を指定したい可能性が低下していると考えられる。そこで、ステップS408において、タッチオフイベントが取得された時間をノブ位置と関連付けて位置記憶部203に記憶する。そして、ステップS402では、現在時刻が、ノブ位置に関連付けて記憶された時間から所定時間以上経過していれば、タッチオフ時のノブ位置を保持していない(S402でNo)と判定するようにしてもよい。あるいは、ノブ位置と関連づけて記憶された時間が所定時間を経過すると、ノブ位置とともに位置記憶部203から消去するようにしてもよい。これらのような構成によって、前回のタッチオフ時のノブ位置からの距離だけでなく、前回のタッチオフ時からの経過時間にも応じて、選択的に前回のタッチオフ時のノブ位置を利用するので、よりユーザの意図に合った正確なノブ位置を指定することができる。
上記のフローチャートでは明示しなかったが、ノブ位置の更新に伴い、UI表示制御部204がシークバーUI300の表示を更新するとともに、処理実行部205が所定の処理を行う。処理実行部205が行う処理の例は、画像表示エリア301に表示する画像を変更する処理である。ステップS405,S406,S409においてノブ位置が更新された場合には、これらの処理が実行される。
図5A〜5Fは、上述したシークバーUI制御方法の例における、シークバーUIを含む画面表示の例である。以下、図5A〜5Fを参照して、上述のシークバーUI制御方法
の動作例を説明する。
図5Aは、モバイル機器100が連写画像からベストショット画像を選択するプログラムを実行する際に、表示部107に表示されるユーザインタフェース501を示す。ここでは、連写画像として140枚の画像が撮影され、SSD109に格納されているものとして説明する。ただし、カメラ(不図示)が撮影した連写画像やその他の外部装置が保持している連写画像をモバイル機器100に転送しながら、モバイル機器100において表示しても良い。複数の連写画像の具体的なフォーマットは任意であり、複数の連写画像が1つのファイルに格納されていても良いし、それぞれが異なるファイルに格納されていても良い。
表示502の左側の数値は、現在表示中の画像番号を指す。画像番号は、連写画像の先頭から何番目に撮影されたものであるかを示す。表示502の右側の数値は、連写画像の全枚数を示している。チェックボックス503は、連写画像のうちベストショットをユーザが選択(指定)するために用いられる。ユーザは、現在表示されている画像をベストショットとして選択する場合は、チェックボックス503をオンにする。ユーザがプレビュー画像504をタッチオンすることによって、チェックボックス503にチェックが入るように構成してもよい。チェックボックス503にチェックを入れた後に所定の操作を行うことにより(あるいは何もしなくても)、チェックされたプレビュー画像に対応する画像がベストショット画像として保存またはマーキングされる。
プレビュー画像504は、連写画像のうち、シークバー位置(シークバーUIにおけるノブの位置)に対応する画像を拡大して表示したものである。シークバーUIは、トラック507と、トラック507に沿って移動可能なノブ505から構成される。ノブ505は、タッチオンやドラッグなどの操作によって、サムネイルが並んだトラック507を左右に移動する。シークバーUIのトラック507には、連写画像のサムネイル画像が表示される。可能であれば(連写画像の全枚数が少なければ)、連写画像の全てのサムネイル画像がトラック507に重畳して表示される。しかしながら、連写画像の全てのサムネイル画像が表示できない場合(サムネイル画像が所定の基準よりも小さくなる場合も含む)は、連写画像のうちの一部の画像のサムネイル画像がトラック507に重畳して表示される。
図5Aにおいて、位置506(xOFF, yOFF)は、ユーザーがシークバーUIからタッチオフした時のノブ位置である。この位置506が、位置記憶部203に保持される。図5Bは、図5Aでのタッチオフの後、ユーザが再びシークバーUIをタッチオンした位置508(xON, yON)を示す。シークバーUI上でタッチオンイベントが取得されると、前回のタッチオフ時のノブ位置506と、タッチオン位置508との間の距離rが算出される
。図5Bにおいて斜線で示される領域514は、タッチオフ時のノブ位置506から閾値α以内の距離にある領域を示す。なお、説明のために領域514を図面に描いているが、本実施例では、領域514は実際は画面上には表示されない。もっとも、領域514は画面上で明示的に表示されても良い。
本例では、タッチオン位置508とタッチオフ時のノブ位置506との間の距離rは閾
値α以下である。すると、図5Cに示すように、位置決定部202は、タッチオンイベントが取得された際のノブ位置509を前回のタッチオフ時のノブ位置506と同一とし、位置506を開始位置としてノブの移動を有効にする。すなわち、タッチオン位置(xON, yON)がタッチオン前のタッチオフ時のノブ位置(xOFF, yOFF)と近い場合、ノブ位置を変更しない。そして、ユーザがタッチオンに続けてドラッグ操作を行うと、ドラッグ量に応じた量だけノブが位置506から移動する。
図5Dにおいて、位置510は、ユーザが再びシークバーUIからタッチオフした時のノブ位置である。上述のように、タッチオフ位置511とノブ位置510は異なる。位置記憶部203に保持されるノブ位置は、位置506から位置510に更新される。図5Eは、図5Dでのタッチオフの後、ユーザが再びシークバーUIをタッチオンした位置512を示す。上記と同様に、前回のタッチオフ時のノブ位置510とタッチオン位置512との間の距離rが算出される。今回は距離rが閾値αより大きい。すると、図5Eに示すように、位置決定部202は、タッチオンイベントが取得された際の位置512をノブ位置513とし、位置513を開始位置としてノブの移動を有効にする。すなわち、タッチオン位置がタッチオン前のタッチオフ時のノブ位置から遠い場合、ノブ位置をタッチオン位置に変更する。そして、ユーザがタッチオンに続けてドラッグ操作を行うと、ドラッグ量に応じた量だけノブがタッチオン位置512(513)から移動する。
なお、条件によって、上記で説明したような本実施例を選択的に実施するようにしてもよい。例えば、ユーザにより予め実施することが設定されていたり、特定のモードで動作していたり、特定のUI要素を操作されていたりするなどの条件を満たす場合に上述の本実施例を実施する。条件を満たさない場合は、前回のタッチオフ時のノブ位置と新たなタッチオン位置の距離が閾値より短くても新たなタッチオン位置に応じてノブ位置を決定する。
本実施例によれば、ユーザのタッチオン操作によりシークバーUI上の位置を指定する場合に、前回のタッチオフ位置と今回のタッチオン位置との間の距離に応じて、シークバー(ノブ)位置を決定する。具体的には、上記距離が小さければ前回のタッチオフ時のノブ位置を再度、ノブ位置として決定し、上記距離が大きければ今回のタッチオン位置をノブ位置として決定する。そのため、ユーザがタッチオフした後、再び同じ位置を指定したいと思い、前回のタッチオフ時のノブ位置の近傍をタッチオンした場合、前回のタッチオフ時のノブ位置が指定される。ユーザは前回のタッチオフ時のノブ位置を正確にタッチオンする必要はないので、ユーザは以前と同じノブ位置を再び指定することが容易になる。一方、ユーザが前回のタッチオフ時のノブ位置から離れた位置をタッチオンした場合、ユーザは全く新しい位置を指定したい可能性が高いので、今回のタッチオン位置と対応する位置にノブ位置を移動する。よって、ユーザは特別な操作をすることなく、容易に、意図に合った正確なノブ位置を指定することが可能になる。
<実施例2>
図6を参照して、本発明の一実施例に係るシークバーUIの制御方法について説明する。本実施例の制御は基本的に上記実施例と同様であるが、ユーザの誤操作によるシークバーの移動を防止する機能が付加される。以下では、実施例1との相違点を主に説明する。
本実施例では、誤操作を防止するためにタッチオンイベントの検知後に所定時間経過してから、シークバー(ノブ)の移動を開始させる。そのために実施例1の処理(図4)に対してステップS601〜S602の処理が追加されている。
タッチオンイベントの検知後のステップS601において、位置決定部202は、タッチオン継続時間tを算出する。ステップS602において、位置決定部202は、タッチ
オン継続時間tが閾値時間βよりも大きいかどうかを判定する。タッチオン継続時間tが閾値βよりも大きければ、実施例1と同様にステップS402以降の処理が実行される。タッチオン継続時間tが閾値β以下であれば、処理を終了する。
タッチオン継続時間tは、タッチオンイベントが検知されてから、タッチ位置を所定量
以上動かさずにタッチし続けている時間である。フローチャートでは、説明の簡略化のために、タッチオン継続時間tを求めてから閾値時間βとの比較を行うように描いている。
しかしながら、実質的に同じ位置のタッチが継続している時間が、閾値時間βを超えたら
ステップS402以降の処理を実行し、閾値時間βの経過前にタッチオフあるいは所定量以上のドラッグが発生したら処理を終了するように構成してもよい。
本実施例によれば、閾値時間β以下のタッチ入力を無効し、閾値時間β以上のタッチ入力(いわゆるロングタップ)が行われる場合に処理を有効とすることができる。すなわち、ユーザーが誤って画面を触れた場合にシークバーを移動させないという効果が得られる。
なお、上記の説明では、タッチオンの継続時間だけに基づいて処理の開始を判断しているが、その他の要素を考慮に入れても良い。例えば、タッチオンされてから閾値β時間経過するまでの間に、タッチ位置が閾値距離以上移動した場合には、入力を無効としても良い。
また、本実施例でのステップS402以降における「タッチオン位置」は、タッチオンイベントが発生したときのタッチ位置としても良いし、タッチオン発生から閾値時間βが経過した時点におけるタッチ位置としても良い。
<実施例3>
図7を参照して、本発明の一実施例に係るシークバーUIの制御方法について説明する。本実施例では、ユーザがロングタップしたときには、シークバーのノブをタッチ位置に移動させることを意図したと判断して、タッチオフ時のノブ位置とタッチオン位置の比較を行わない。
ステップS701のタッチオン継続時間tの算出処理は、実施例2のステップS601
と同様である。ステップS702では、タッチオン継続時間tと閾値γとの比較を行い、
タッチオン継続時間tが閾値時間γ以下である場合(S702−NO)、すなわちロング
タップがされていないときは、処理はステップS402に進み、実施例1と同様の処理が行われる。一方、タッチオン継続時間tが閾値時間γよりも大きい場合(S702−YE
S)、すなわちロングタップがされたときは、ステップS405に進み、ノブ位置をタップオン位置に設定する。
閾値時間γは、実施例2における閾値時間βと同じであっても良いし、異なっても良い。実施例2と3を組み合わせる場合にはγをβよりも大きくする(β<γ)。
本実施例によれば、ユーザーが意図的にロングタップ操作を行った場合は、タッチオフ時のノブ位置とタッチオン位置の距離に関わらず、ノブ位置をタッチオンした位置へ移動できる。
なお、上記処理の代わりに以下に示す処理を行ってもよい。タッチオンイベントが取得されたら、即座にステップS402以降の処理を行い、ノブ位置を変更させる。そして、その後にロングタップイベントが検出されたら、ロングタップ位置(タッチオン位置)にノブを移動させる。このようにしても、同様の効果が得られる。
<実施例4>
実施例1〜3では、タッチオフ時のノブ位置とタッチオン位置の距離に応じて処理を切り替えている。しかしながら、シークバーUIのノブの位置は、シークバーに対するタッチ操作以外でも変化する。例えば、動画像や音声ファイルを再生している場合は、再生箇所に応じてノブ位置が切り替えられる。本実施例では、動画ファイルの再生・編集にシークバーUIを用いる。
図8Aは、モバイル機器100が動画像を構成する画像からベストショット画像を選択するプログラムを実行する際に、表示部107に表示されるユーザインタフェース801を示す。表示802は、動画像を構成する総フレーム数と、現在のフレーム位置を表す。チェックボタン803は、ベストショット画像を選択するために用いられる。プレビュー画像804は現在指定されているフレーム画像を表示したものである。画面下部のシークバーUIは、ノブ805と、動画像の所定枚数(ここでは7枚)のサムネイル画像が一列に表示されたトラック807とから構成される。音声コントロール808は、動画の再生、一時停止、コマ送り、コマ戻しなどの操作を行うために用いられる。再生と一時停止は、交互に切り替えて表示される。
図8Bは、モバイル機器100が音声ファイルを編集するプログラムを実行する際に、表示部107に表示されるユーザインタフェース811を示す。ユーザインタフェース811の基本的な構成は、図8Aのユーザインタフェース801と同様である。相違点は、現在位置の音声波形814が画面中央に表示される点と、トラック817にサムネイル等が表示されない点である。
本実施例の基本的な構成は実施例1と同様であるため処理を繰り返さない。図9は本実施例におけるシークバーUIの制御方法を示すフローチャートである。
図9を参照して、本実施例におけるシークバーUIの制御方法を説明する。ステップS901において、入力取得部201が、シークバーUI内でのタッチオンイベントを取得したかどうかを判定する。シークバーUI内でのタッチオンイベントが取得されない場合(S901−NO)には、タッチオンイベントが取得されるまで待機する。タッチオンイベントが取得された場合(S401−YES)には、処理はステップS902に進む。
ステップS902では、動画ファイルが再生中であるか否かが判定される。動画再生中ではない場合(S902−NO)は、実施例1(図4)のステップS402以降と同じ処理が実行される。一方、動画再生中の場合(S902−YES)は、処理はステップS903に進む。
ステップS903〜S909は、実施例1(図4)におけるステップS403〜S409の処理と基本的に同様である。異なる点は、タッチオフ時のノブ位置(xOFF, yOFF)の代わりに、現在のノブ位置(xCUR, yCUR)が用いられる点である。したがって、ステップS903,S906の処理内容が異なる。
なお、本実施例においては、動画が再生中であるか一時停止中であるかにかかわらずステップS903以降の処理を実施しても良い。こうすることで、現在のノブ位置の付近をタッチすると、現在のノブ位置から移動を開始させることができる。また、本実施例は、動画や音声などを再生・編集する場合だけでなく、実施例1〜3のような連続撮影画像を表示する際にも適用できる。
<実施例5>
実施例1〜4では、タッチオン位置と、ある一つの参照位置(直近のタッチオフ時のノブ位置または現在のノブ位置)との間の距離にしたがって、処理を切り替えている。本実施例では、複数の参照位置との比較により、ノブ位置を決定する。したがって、位置記憶部203には複数の参照位置が記憶される。複数の参照位置は、過去におけるシークバーUI内での複数のタッチオフ操作時(ポイント終了操作時)のノブ位置や、現在のノブ位置を含む。また、過去のタッチオフ操作時のノブ位置は、より具体的には、直近の所定回のタッチオフ時のノブ位置や、直近の所定時間以内のタッチオフ時のノブ位置とすることができる。そして、位置決定部202は、タッチオン位置とこれら全ての参照位置との間
の距離を算出し、いずれかの参照位置との間の距離が閾値以下であれば当該参照位置がタッチされたものとみなす。2つ以上の参照位置について距離が閾値以下となる場合には、タッチオン位置と最も近い参照位置がタッチされたものとみなせばよい。
また、ノブ位置が参照位置となるために、さらに次のような条件を加えることもできる。例えば、タッチオフした後のノブ位置が所定時間以上の間、例えば画像等のコンテンツの表示切り替えが行われなかったために、その位置に停止しているという条件を満たす場合に、このノブ位置を参照位置として記憶する。ある程度の時間、固定される位置は、例えばその位置と対応して表示される画像等のコンテンツが重要と考えられる一方、すぐに変更されるノブ位置は、それと対応するコンテンツが重要でないと考えられるためである。また、タッチオフした後にユーザが所定の操作を行った場合に、このタッチオフ時のノブ位置を参照位置とし保持するようにしても良い。所定の操作は、例えば、ユーザがこのタッチオフ時のノブ位置を参照位置として記憶することを明示的あるいは黙示的に指示する操作である。
<実施例6>
実施例1〜5における閾値距離αや、実施例2,3におけるタッチオン継続時間の閾値β,γはユーザが設定可能とすることができる。図10は、閾値αおよびβを設定するためのユーザインタフェースの例である。なお、ユーザインタフェースでは、距離の閾値αを「タッチの有効範囲」、時間の閾値βを「タッチの有効時間」という用語で表している。
環境設定UI1001は、タッチの有効範囲を変更するためのスライダーコントロール1002を含む。環境設定UI1001においては、タッチの有効範囲1005は、シークバーのノブ1004の両側に表示される。ユーザがスライダーコントロール1002を操作して値を変更すると、それに応じてノブ1004の両側のタッチの有効範囲1005も左右に伸び縮みして表示される。また、環境設定UI1001は、タッチの有効時間を変更するためのスライダーコントロール1003を含む。タッチの有効時間は、ユーザが誤ってタッチした場合にシークバーを移動しないようにするための閾値βとして使用される。ここでは、述べていないが、長押しした場合にシークバーの位置を移動するための有効時間(閾値γ)を設定するためのコントロールが別途あっても良いものとする。また、これらタッチの有効範囲や有効時間を用いた制御を実行する/しないを設定可能としても良い。
この例では、スライダーコントロールを用いて有効範囲や有効時間を指定する例を示したが、数値入力や、スピンコントロールなどを用いてこれらの値を入力するようにしてもよい。また、画面下部のシークバーUIの表示領域で、タッチの有効範囲を指定するようにしても良い。
<実施例7>
図2、図11、図12を用いて、本発明の一実施例に係る操作コントロールの制御方法について説明する。操作コントロールとは、例えば図12の符号1202で示されるような、表示装置の画像表示エリア1201上に表示される矢印のカーソルなどである。図11に示す制御では、操作画面上の直近のタッチオフ時の操作コントロール位置と、タッチオン時のタッチオンイベントが取得された位置(タッチオン位置、ポイント開始位置)との間の距離に応じて、操作コントロールの位置を決定する。以下、図11の各ステップを詳述する。
ステップS1101において、入力取得部201が、画像表示エリア1201上でタッチオンイベントを取得したかどうかを判定する。画像表示エリア1201上でタッチオン
イベントが取得されない場合(S1101−NO)には、タッチオンイベントが取得されるまで待機する。タッチオンイベントが取得された場合(S1101−YES)には、処理はステップS1102に進む。
ステップS1102において、位置決定部202は、位置記憶部203内に操作画面上でのタッチオフ時の操作コントロール位置(xOFF, yOFF)を保持しているかを判定する。タッチオフ時の操作コントロール位置(xOFF, yOFF)が保持されていない場合(S1102−NO)には、処理はステップS1105に進む。ステップS1105では、位置決定部202は、操作コントロール位置をタッチオン位置(xON, yON)に設定する。
一方、位置記憶部203がタッチオフ時の操作コントロール位置を保持している場合(S1102−YES)は、処理はステップS1103に進む。ステップS1103では、位置決定部202が、タッチオフ時の操作コントロール位置(xOFF, yOFF)とタッチオン位置(xON, yON)の距離rを算出する。距離rはr=[(xON-xOFF)2+ (yON-yOFF)2]1/2により算出
できる。なお、(xON, yON)はタッチオン時のタッチ位置であるが、(xOFF, yOFF)はタッチオフ時のタッチ位置ではなく操作コントロール位置である点に留意されたい。
ステップS1104において、位置決定部202は、距離rが所定の閾値αより大きい
(距離r > 閾値α)かどうかを判定する。距離rが閾値αより大きい(距離r > 閾値α)
場合は、処理はステップS1105に進み、位置決定部202は、操作コントロール位置をタッチオン位置(xON, yON)に設定する。一方、距離rが閾値α以下である(距離r≦閾値α)場合は、処理はステップS1106に進み、位置決定部202が操作コントロール位置を、保持されていたタッチオフ時の操作コントロール位置(xOFF, yOFF)に設定する。
閾値αの大きさは、予め定められた所定値であっても良いし、操作コントロール1202の幅に応じて動的に決定される値であっても良い(操作コントロール1202の大きさが変化する場合)。閾値αは、例えば、ユーザがタッチ操作を行う際の、指とタッチパネルの接触領域の大きさと同程度(例えば、1〜1.5倍程度)とすることができる。また、閾値αは、ノブ320の幅の半分の1〜10倍程度とすることができる。また、閾値αとして、上記のように求められる複数の値から所定の基準で選択される値、例えば、これら複数の値のうちの最小値や最大値を採用することもできる。
ステップS1107において、入力取得部201がタッチオフイベントを取得したかどうかを判定する。タッチオフイベントが取得されていない場合は、ドラッグなどの操作が続いていて、指がタッチパネルから離れていないことを意味する。ドラッグ操作が行われている間は、位置決定部202は、タッチオン位置(xON, yON)と現在のタッチ位置(x, y)に応じて操作コントロール位置を決定する(S1109)。例えば、位置決定部202は、ステップS1105またはS1106において決定された操作コントロール位置に対して、移動量(x-xON, y-yON)を足し合わせた位置を、新しい操作コントロール位置として決定する。
ステップS1107においてタッチオフイベントが取得されている場合は、処理はステップS1108に進み、タッチオフイベントが取得された時の操作コントロール位置を位置記憶部203に格納する。位置記憶部203にすでに操作コントロール位置(xOFF, yOFF)が保持されている場合には、新しい値で上書き更新される。
なお、前回のタッチオフ時からほとんど時間が経過していないタイミングで、前回のタッチオフ時の操作コントロール位置の近傍がタッチオンされた場合は、ユーザが同じ操作コントロール位置を指定したい可能性が高い。一方、前回のタッチオフ時から長時間が経過している場合、前回のタッチオフ時の操作コントロール位置の近傍がタッチオンされた
としても、ユーザが同じ操作コントロール位置を指定したい可能性が低下していると考えられる。そこで、ステップS1108において、タッチオフイベントが取得された時間を操作コントロール位置と関連付けて位置記憶部203に記憶する。そして、ステップS1102では、現在時刻が、操作コントロール位置に関連付けて記憶された時間から所定時間以上経過していれば、タッチオフ時の操作コントロール位置を保持していない(S1102でNO)と判定するようにしてもよい。あるいは、操作コントロール位置と関連づけて記憶された時間が所定時間を経過すると、操作コントロール位置とともに位置記憶部203から消去されるようにしてもよい。このような構成によって、前回のタッチオフ時の操作コントロール位置からの距離だけでなく、前回のタッチオフ時からの経過時間にも応じて、選択的に前回のタッチオフ時の操作コントロール位置を利用できる。このため、ユーザの意図に合った正確な操作コントロール位置を指定することができる。
上記のフローチャートでは明示しなかったが、操作コントロール位置の更新に伴い、UI表示制御部204が図12の操作コントロール1202の表示を更新するとともに、処理実行部205が所定の処理を行う。例えば、処理実行部205は、タッチオフ操作に応答して、タッチオフ操作に対応する位置に基づく処理を実行する。また、処理実行部205は、タッチオン操作に対応する位置と前回のタッチオフ操作に対応する位置との距離が所定値より小さければ、タッチオン操作に応答して、前回のタッチオフ操作に対応する位置に基づく処理を実行する。当該距離が所定値より大きければ、処理実行部205は、タッチオン操作に応答して、タッチオン操作に対応する位置に基づく処理を実行する。処理実行部205が行う処理の例は、画像表示エリア1201に表示する画像を変更する処理である。他にも例えば、操作コントロールがスライダーバー上のスライダーの位置を指定するような場合、操作コントロールの位置に応答してスライダーの位置が移動して表示される。また操作コントロールの位置によって動画に含まれる複数のフレームのうちいずれかが選択され、画像表示エリア1202に表示される画像が更新されてもよい。あるいは、操作コントロールの位置に基づいて、モバイル機器100が有するコンテンツを調整するのに用いられるパラメータが指定されてもよい。たとえば、操作コントロールの位置によって、画像表示エリア1201に表示される画像に含まれる画素が指定され、指定された画素に応じて表示される画像の色温度などの表示特性が変更されてもよい。また、ステップS1105,S1106,S1109において操作コントロール位置が更新された場合には、これらの処理が実行される。
図13A〜図13Fは、本発明の一実施例に係るUI制御動作の例である。図13A〜図13Fの例では、連写画像においてタッチオフ時の操作コントロール位置とタッチオン時の距離に応じて、タッチオン時の操作コントロールの位置が制御される。
まず、タッチオフ時の操作コントロール位置とその後のタッチオン位置との距離が閾値以内の場合について、図13A〜図13Cを用いて説明する。符号1301で示される表示画面は、スマートフォンやタブレットなどのモバイル機器100にインストールされたアプリの画像である。このアプリは、表示されている画像中の選択された画素に基づいてホワイトバランスを算出し、表示画像に適用するという機能を有する。表示される画像のファイル形式は特に限定されない。例えば、JPEGファイル、RAWファイル、動画ファイルなどが表示されてもよい。また、表示される画像は、モバイル機器100が保存するものであってもよいし、撮像機器に保存された連写画像をモバイル機器100に転送しながら表示されてもよい。
図13Aの操作コントロール1310は、ドラッグなどの操作によって画像上を上下左右に移動し、所定位置の画素を指定するためのインジケータである。図13A〜図13Fの例では、操作コントロールにはカーソルが用いられる。また、符号1311は、モバイル機器100を操作するユーザーの手を示す。符号1302は、ユーザーが操作コントロ
ールをタッチオフした場合の操作コントロール位置(xOFF, yOFF)を示す。図13Bの符号1303は、タッチオフの後、ユーザーが端末をタッチオンした位置(xON1, yON1)を示す。そして、位置決定部202が、タッチオフした場合の操作コントロール位置(xOFF, yOFF)とタッチオンした位置(xON1, yON1)との距離を算出する。算出された距離が閾値を超えない場合、図13Cの符号1304のように、操作コントロール位置をタッチオフしたときの操作コントロール位置(xOFF, yOFF)に設定する。
次に、タッチオフ時の操作コントロール位置とタッチオン位置との距離が閾値を超えている場合について、図13D〜図13Fを用いて説明する。図13Dの符号1305は、ユーザーが操作コントロールをタッチオフした場合の操作コントロール位置(xOFF, yOFF)である。符号1306は、タッチオフの後、ユーザーが端末をタッチオンした位置(xON2,
yON2)である。そして、位置決定部202が、タッチオフした場合の操作コントロール位置(xOFF, yOFF)とタッチオンした位置(xON2, yON2)との距離を算出する。算出された距離が閾値を超えた場合、図13Fの符号1307のように、操作コントロールの位置がタッチオンした位置(xON2, yON2)に基づいて設定される。この例では、新たなタッチ位置1307の画素に基づいてホワイトバランスが算出され、図13Fの表示画像に適用される。
<実施例8>
図14は、本発明の一実施例に係る操作コントロールの制御の手順を示すフローチャートである。図14の例では、タッチオフ時の操作コントロール位置とタッチオン時の距離が閾値を超えた場合も操作コントロールの移動が無効にされる。以下、図14のフローチャートの各ステップを説明する。
ステップS1401において、入力取得部201が、画像表示エリア1201上でタッチオンイベントを取得したかを判定する。画像表示エリア1201上でタッチオンイベントが取得されない場合(S1401−NO)には、タッチオンイベントが取得されるまで待機する。タッチオンイベントが取得された場合(S1401−YES)には、処理はステップS1402に進む。
ステップS1402において、入力取得部201がタッチオンイベントからのタッチオン継続時間tを算出し、処理はステップS1403に進む。ステップS1403において、入力取得部201は、タッチオン継続時間tと所定の閾値βを比較し、タッチオン継続時間tが閾値βよりも大きいかどうかを判定する。タッチオン継続時間tが閾値β以下である場合(タッチオン継続時間t ≦ 閾値β)、操作コントロールの位置の操作は無効にされ、処理は終了する。タッチオン継続時間が短い場合、ユーザーが誤って操作画面に触れた可能性が高く、この制御によって意図しない操作コントロールの移動が防止されるという効果がある。タッチオン時間tが閾値βよりも大きい場合(タッチオン継続時間t >
閾値β)は、ユーザーが意図してタッチオンしたものと判断され、処理はステップS1
404に進む。
ステップS1404において、位置決定部202は、位置記憶部203内にタッチオフ時の操作コントロール位置(xOFF, yOFF)を保持しているかどうかを判定する。位置記憶部203がタッチオフ時の操作コントロール位置(xOFF, yOFF)を保持していない場合、ステップS1407において、操作コントロールの位置がタッチオン位置(xON, yON)に設定される。位置記憶部203が、タッチオフ時の操作コントロール位置を保持している場合、ステップS1405において、位置決定部202がタッチオフ時の操作コントロール位置(xOFF, yOFF)とタッチオン位置(xON, yON)の距離rを算出する。
ステップS1406において、位置決定部202は距離rが閾値αより大きい(距離r >閾値α)かどうかを判定する。距離rが閾値αより大きい(距離r > 閾値α)場合、ステ
ップS1407において、操作コントロールの位置がタッチオン位置(xON, yON)に設定される。距離rが閾値α以下(距離r ≦閾値α)の場合、ステップS1408において、操
作コントロールの位置がタッチオフ時の操作コントロール位置(xOFF, yOFF)に設定される。
ステップS1409において、入力取得部201がタッチオフイベントを取得したかを判定する。タッチオフイベントが取得されていない場合は、ドラッグなどの操作が続いていて、指がタッチパネルから離れていないことを意味する。ドラッグ操作が行われている間は、位置決定部202は、タッチオン位置(xON, yON)と現在のタッチ位置(x, y)に応じて操作コントロール位置を決定する(S1410)。例えば、位置決定部202は、ステップS1407またはS1408において決定された操作コントロール位置に対して、移動量(x-xON, y-yON)を足し合わせた位置を、新しい操作コントロール位置として決定する。
ステップS1409においてタッチオフイベントが取得されている場合は、処理はステップS1411に進み、タッチオフイベントが取得された時の操作コントロール位置を位置記憶部203に格納する。位置記憶部203にすでに操作コントロール位置(xOFF, yOFF)が保持されている場合には、新しい値で上書き更新される。
<実施例9>
図15は、本発明の一実施例に係る操作コントロールの制御の手順を示すフローチャートである。図15の例では、表示画面においてタッチオフ時の操作コントロール位置が画面の端であった場合、再度タッチオンするときの操作コントロール位置を、タッチオフ時の操作コントロール位置から操作を再開しやすくする。以下、図15に示すフローチャートの各ステップを説明する。
ステップS1501において、入力取得部201が、タッチオンイベントを取得したかどうかを判定する。画像表示エリア1201上でタッチオンイベントが取得されない場合(S1501−NO)には、タッチオンイベントが取得されるまで待機する。画像表示エリア1201上でタッチオンイベントが取得されない場合、処理はステップS1502に進む。
ステップS1502において、位置決定部202は、位置記憶部203内にタッチオフ時の操作コントロール位置(xOFF, yOFF)を保持しているかどうかを判定する。タッチオフ時の操作コントロール位置が保持されていない場合(S1502−NO)には、処理はステップS1505に進む。ステップS1505では、位置決定部202は、操作コントロール位置をタッチオン位置(xON, yON)に設定する。
一方、位置記憶部203がタッチオフ時の操作コントロール位置を保持している場合、ステップS1503において、入力取得部201はタッチオフ位置(xOFF, yOFF)が端末の端であるかを判定する。後述するが、操作コントロールはタッチする指と重ならないように表示される。これは、操作コントロールがユーザーの指で隠れることを防止し、ユーザーがどこを指しているかが分かるようにするためである。例えば、右手の指でタッチ操作する場合、指で指した位置の左上に操作コントロールが位置し、指と重ならないように表示される。そして、ステップS1503で述べている端末の端とは、画面の右端ならびに下端を指す。指で指した位置の左上に操作コントロールが表示されている状態で、指を画面の右端ならびに下端へ移動した場合、操作コントロールよりも先に指が画面の外(タッチセンサの領域外)に出てしまう。この状態では、操作コントロールの操作ができない。そのため、再度、タッチオンして操作コントロールが画面の右端ならびに下端へ移動しやすくなるように、閾値の大きさが変更される。タッチオフ位置(xOFF, yOFF)が端末の端で
ある場合(S1503−YES)、ステップS1504で閾値αがδ(αよりも大きな値)に変更され、処理はステップS1506に進む。
ステップS1506では、位置決定部202が、タッチオフ時の操作コントロール位置(xOFF, yOFF)とタッチオン位置(xON, yON)との距離rを算出する。ステップS1507に
おいて、位置決定部202は、距離rが所定の閾値α(またはδ)より大きい(距離r >
閾値α(δ))かどうかを判定する。距離rが閾値α(δ)より大きい(距離r > 閾値α
(δ))場合は、処理はステップS1505に進み、位置決定部202は操作コントロール位置をタッチオン位置(xON, yON)に設定する。一方、距離rが閾値α(δ)以下である
(距離r≦閾値α(δ))場合、処理はステップS1508に進み、操作コントロール位
置をタッチオフ時の操作コントロール位置(xOFF, yOFF)に設定する。
ステップS1509において、入力取得部201がタッチオフイベントを取得したかを判定する。タッチオフイベントが取得されていない場合は、ドラッグなどの操作が続いていて、指がタッチパネルから離れていないことを意味する。ドラッグ操作が行われている間は、位置決定部202は、タッチオン位置(xON, yON)と現在のタッチ位置(x, y)に応じて操作コントロール位置を決定する(S1510)。タッチオフイベントが取得された場合、処理はステップS1511に進み、タッチオフイベントが取得された時の操作コントロール位置を位置記憶部203に格納する。位置記憶部203にすでに操作コントロール位置(xOFF, yOFF)が保持されている場合には、新しい値で上書き更新される。
図16A、図16Bは、本発明の一実施例に係る操作画面の例である。図16A、図16Bの例では、タッチオン時のタッチ位置が画面の端であった場合、閾値を大きくしタッチオフ時の操作コントロール位置から操作を再開しやすくするという制御が実現される。操作コントロール1601は、ドラッグなどの操作によって操作画面上を上下左右に移動し、所定位置の画素を指定するためのインジケータであり、本実施例では矢印のカーソルが用いられている。図16Aの例では、操作コントロール1601は、タッチする指1606と重ならないように表示される。これは、ユーザーがどこを指しているかが分かるようにするためである。図16A、図16Bの例では、右手の指で操作画面をタッチして、指で指した位置の左上に、指と重ならないように操作コントロールが表示されている。
符号1602は、再度タッチオンした場合、操作コントロールの移動をどの位置から開始させるか決めるための閾値であり、タッチオフ時の操作コントロール位置からの距離に対して設定される。図16Aでは、閾値1602が、タッチオフ時の操作コントロール位置1601を中心として、半径が閾値rinである円で示されている。閾値1602の領域
内でタッチオンされた場合は、タッチオフ時の操作コントロール位置から操作コントロールの移動が開始される。
また、閾値1602の値は、操作画面上のタッチオンイベントが取得される位置によって変更されてもよい。例えば、本実施例では、符号1603で示される領域内でタッチオンイベントが取得される場合は、閾値はrinであるとする。右手の指の左上に操作コント
ロールが表示される場合、領域1603内では、タッチオンを維持し続けることで一度の操作で操作コントロールを移動可能である。
一方、図16Bに示す符号1604の領域を操作コントロールで選択しようとすると、操作コントロールよりも先に指が画面の外に出てしまう。このため、再度、タッチオンして前回のタッチオフ位置から操作コントロールの移動を有効にしてから、画面の右下ならびに下端へ移動する必要がある。この操作を容易にするため、タッチオフ位置が領域1604内であった場合、符号1605で示される閾値routを、符号1602で示される閾値rinよりも大きな値に変更する。これによって、再度タッチオンした場合、操作コントロ
ール位置が前回のタッチオフ位置に設定され易くなる。ここでは、右手の指でタッチオンした場合に左上に操作コントロールを表示した場合の例を示したが、左手の指でタッチオンした場合は右上に操作コントロールが表示され、領域1604が左端ならびに下端に変わることは言うまでもない。操作コントロールの表示をタッチ位置の左上または右上に切り換える手段については、後述する。
<実施例10>
図17は、本発明の一実施例に係る画像処理の手順を示すフローチャートである。本実施例では、タッチオフ時に選択される画素に基づいて画像処理が実行されるものとする。図17に示す例では、画像処理を実行中に、操作コントロールをタッチオフした後にタッチオンする場合、画像処理が中断され、新たなタッチオフ位置に基づいて画像処理が実行される。ステップS1701において、入力取得部201が、タッチオンイベントを取得したかを判定する。タッチオンイベントが取得されない場合(S1701−NO)には、タッチオンイベントが取得されるまで待機する。
ステップS1702において、処理実行部205によって前回のタッチオフ位置の画素を用いて画像処理を実行されているかどうかが判定される。前回のタッチオフ位置に基づく処理が実行中の場合(S1702−YES)、処理はステップS1703に進む。前回のタッチオフ位置に基づく処理が実行されていない場合(S1702−NO)、処理はステップS1704に進む。ステップS1703では画像処理が中断され、処理はステップS1704に進む。
ステップS1704において、位置決定部202が、前回のタッチオフ位置に基づいて操作コントロールの開始位置を決定する。この処理の説明は前述したので省略する。ステップS1705において、今回のタッチオフ位置による画素を用いて画像処理が実行される。本実施例では、ステップS1704の処理の前に前回のタッチオフ位置の画素を用いた画像処理を中断しているが、ステップS1704の処理の結果、操作コントロールの位置が変わる場合のみ画像処理を中断してもよいものとする。
<実施例11>
図18は、本発明の一実施例に係るタッチの有効範囲、有効時間、操作コントロールの表示位置を設定するための設定画面の例である。符号1801は、タッチの有効範囲を変更するためのスライダーコントロールである。ここでは、この値を変更すると、画面下に表示された有効範囲を示す円1804の大きさが変わって表示される。符号1802は、タッチの有効時間を変更するためのスライダーコントロールである。この有効時間は、誤ってタッチした場合にシークバーや操作コントロールを移動しないようにするための閾値として使用される。符号1803は、操作コントロールの表示位置をタッチ位置の左上に表示するか、右上に表示するかを切り換えるためのタブである。ユーザーの利き手(右利き、左利き)に合わせてどちらに操作コントロールを表示するかを選択できる。また、この設定は、図16A、図16Bで説明した閾値rin、routに対応する領域の設定の切り替
えにも使用される。このように操作コントロールの動作制御をユーザーの選択に合わせてカスタマイズすることができる。
<その他の実施例>
上記の説明では、シークバーUIを用いて、連続撮影画像、動画、あるいは音声の1つの表示・再生位置を指定する動作を例に説明した。しかしながら、シークバーUIは、始点と終点の2つの位置を指定して、範囲を指定するために用いることができる。本発明はシークバーUIを用いてこのような複数の位置を指定する場合にも適用可能である。
上記の説明では、シークバーUIを例に説明したが、シークバーUIと同様にスライド
操作可能なユーザインタフェースとして、スクロールバー、スライダーコントロールなどがある。このようなスライド操作が可能なユーザインタフェースに対しても、本発明が同様に適用できる。また、スライド操作(一方向の移動)だけでなく、任意の方向に移動操作可能なユーザインタフェース要素(UI要素)の位置を指定するためにも、本発明を適用可能である。
上記の説明では、タッチオフ時のUI要素の位置とタッチオン位置の距離に基づいて制御を行っているが、必ずしも2点間の距離に基づいて制御を行う必要は無い。例えば、タッチオフ時のUI要素の描画領域を記憶しておき、当該描画領域とその周辺領域とを含む所定領域内がタッチオンされた場合は、タッチオフ時のUI要素の位置がタッチオンされたとみなしても良い。所定領域(周辺領域)の形状は任意形状であって良い。所定領域は、例えば、UI要素との最短距離が所定距離以内の領域とすることができる。なお、実施例1では、UI要素の位置が点で表され、所定領域が当該位置から所定距離以内の領域として定義されている。これらの所定距離(閾値)は、予め定められていても良いし、実施例6のようにユーザが設定可能であっても良い。
上記の説明では、本発明をモバイル機器に適用しているが、本発明の適用先はこれに限られない。例えば、パーソナルコンピュータ(PC)や、デジタルスチルカメラ、デジタルビデオカメラなど、任意の情報処理装置に対して適用することができる。
また、実施例3のように、タッチオン継続時間を利用して操作コントロールの位置を決定する実施例を、実施例7〜11に適用してもよい。
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
201:入力取得部 202:位置決定部 203:位置記憶部

Claims (23)

  1. 移動可能なユーザインタフェース要素(UI要素)を表示装置に表示させる表示制御手段と、
    前記表示装置に対するユーザー操作を検知する検知手段と、
    前記ユーザー操作が前記表示装置上で検知された第1の位置を取得する取得手段と、
    前記取得された第1の位置に基づいて前記UI要素が前記表示装置上で表示される第2の位置を決定する決定手段と、
    前記検知手段による前記ユーザー操作の検知が終了したときの前記第2の位置を記憶する記憶手段と、
    ユーザー操作の検知が新たに開始されたときの第3の位置と前記記憶手段に記憶されている第2の位置との距離を算出する算出手段とを備え、
    前記表示制御手段は、前記ユーザー操作の検知が新たに開始された場合、前記UI要素を、前記第3の位置に基づき決定される第4の位置および前記記憶手段に記憶されている第2の位置のうちいずれか一方に、前記算出された距離に応じて選択的に表示するよう制御する
    ことを特徴とする情報処理装置。
  2. 前記表示制御手段は、前記検知手段により前記ユーザー操作の検知が開始した後に継続してドラッグ操作が検知された場合は、前記ドラッグ操作に応じて、前記UI要素を前記算出された距離に応じて選択された位置から移動して表示させる
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記表示制御手段は、前記ユーザー操作の継続時間が閾値より短い場合は、前記UI要素が前記表示装置上で表示される位置を変更しないで表示させる
    ことを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記表示制御手段は、前記ユーザー操作の継続時間が閾値より長い場合は、前記算出された距離にかかわらず、前記UI要素を前記第4の位置に表示させる
    ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記記憶手段は過去の複数の第2の位置を記憶し、前記算出された距離は前記第3の位置と前記複数の第2の位置に基づく
    ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
  6. 前記算出された距離は、前記複数の第2の位置のうち、前記UI要素が表示されていた時間に基づき選択された前記第2の位置に基づく
    ことを特徴とする請求項5に記載の情報処理装置。
  7. 前記算出された距離は、前記複数の第2の位置のうち、ユーザーによって選択された位置に基づく
    ことを特徴とする請求項5に記載の情報処理装置。
  8. 前記UI要素は、前記表示装置上に表示される操作領域で所定の方向にスライド操作可能であり、前記表示装置に表示されるコンテンツの再生箇所を示すものである
    ことを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。
  9. 前記コンテンツは、連続撮影画像および動画像および複数の静止画像および音声のうち少なくとも1つを含む
    ことを特徴とする請求項8に記載の情報処理装置。
  10. 前記表示制御手段は、前記UI要素の前記第2の位置または前記第4の位置に対応するコンテンツを前記表示装置に表示させる
    ことを特徴とする請求項8または9に記載の情報処理装置。
  11. 前記UI要素は、前記表示装置上に表示される画像上で移動可能であり、前記画像の画素を指定するものである
    ことを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。
  12. 前記UI要素は、前記表示装置上に表示される操作領域で移動可能であり、コンテンツの調整値を示すものである
    ことを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。
  13. 前記記憶手段は、さらに前記ユーザー操作の検知が終了したときの時間を前記第2の位置に関連付けて記憶し、
    前記表示制御手段は、前記ユーザー操作の検知が終了したときの時間からの経過時間に応じて、選択された位置に前記UI要素を表示するよう制御する
    ことを特徴とする請求項1から12のいずれか1項に記載の情報処理装置。
  14. 表示装置へのタッチ操作を検知する検知手段と、
    前記表示装置への第1のタッチ操作に応答して、前記第1のタッチ操作に対応する第1の位置に基づく処理を実行する第1の処理手段と、
    前記処理の実行に用いられた前記第1の位置を記憶する記憶手段と、
    前記表示装置への第2のタッチ操作が検知されたとき、前記記憶されている第1の位置と前記第2のタッチ操作に対応する第2の位置との距離を算出する算出手段と、
    前記距離が所定値より小さければ、前記第2のタッチ操作に応答して、前記第1の位置に基づく処理を実行し、前記距離が前記所定値より大きければ、前記第2のタッチ操作に応答して、前記第2の位置に基づく処理を実行する第2の処理手段と、
    を備えることを特徴とする情報処理装置。
  15. 前記処理は、前記位置に基づき、スライダーをスライダーバー上に表示する処理であることを特徴とする請求項14に記載の情報処理装置。
  16. 前記処理は、前記位置に基づき、動画に含まれる複数のフレームのうちいずれかを選択する処理である
    ことを特徴とする請求項14に記載の情報処理装置。
  17. 画像が前記表示装置に表示され、
    前記処理は、前記位置に基づき、前記画像に含まれる画素を指定する処理である
    ことを特徴とする請求項14に記載の情報処理装置。
  18. 操作領域が前記表示装置に表示され、
    前記処理は、前記位置に基づき、コンテンツを調整するのに用いられるパラメータを指定する
    ことを特徴とする請求項14に記載の情報処理装置。
  19. 前記処理手段は、前記第2のタッチ操作の継続時間が所定値より長い場合は、前記算出された距離に関わらず、前記第2のタッチ操作に応答して、前記第2の位置に基づく処理を実行する
    ことを特徴とする請求項14から18のいずれか1項に記載の情報処理装置。
  20. 前記記憶手段は、さらに、前記第1の位置が取得された時間を前記処理の実行に用いられた前記第1の位置と関連付けて記憶し、
    前記処理手段は、前記記憶されている時間から第2の位置が取得されるまでの経過時間が所定値より長い場合は、前記算出された距離に関わらず、前記第2のタッチ操作に応答して、前記第2の位置に基づく処理を実行する
    ことを特徴とする請求項14から18のいずれか1項に記載の情報処理装置。
  21. 移動可能なユーザインタフェース要素(UI要素)を表示装置に表示させるステップと、
    前記表示装置に対するユーザー操作を検知するステップと、
    前記ユーザー操作が前記表示装置上で検知された第1の位置を取得するステップと、
    前記取得された第1の位置に基づいて前記UI要素が前記表示装置上で表示される第2の位置を決定するステップと、
    前記ユーザー操作の検知が終了したときの前記第2の位置を記憶するステップと、
    ユーザー操作の検知が新たに開始されたときの第3の位置と前記記憶されている第2の位置との距離を算出するステップと、
    前記ユーザー操作の検知が新たに開始された場合、前記UI要素を、前記第3の位置に基づき決定される第4の位置および前記第2の位置のうちいずれか一方に、前記算出された距離に応じて選択的に表示するよう制御するステップを有する
    ことを特徴とする情報処理装置の制御方法。
  22. 表示装置への第1のタッチ操作を検知するステップと、
    前記第1のタッチ操作に応答して、前記第1のタッチ操作に対応する第1の位置に基づく処理を実行するステップと、
    前記処理の実行に用いられた前記第1の位置を記憶するステップと、
    前記表示装置への第2のタッチ操作が検知されたとき、前記記憶されている第1の位置と前記第2のタッチ操作に対応する第2の位置との距離を算出するステップと、
    前記距離が所定値より小さければ、前記第2のタッチ操作に応答して、前記第1の位置に基づく処理を実行し、前記距離が前記所定値より大きければ、前記第2のタッチ操作に応答して、前記第2の位置に基づく処理を実行するステップを有する
    ことを特徴とする情報処理装置の制御方法。
  23. コンピュータを請求項1から20のいずれか1項に記載の情報処理装置の各手段として機能させるプログラム。
JP2016197269A 2015-12-22 2016-10-05 情報処理装置およびその制御方法およびプログラム Active JP6859061B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
GB1811917.2A GB2562931B (en) 2015-12-22 2016-12-14 Information-processing device, control method therefor, and program
PCT/JP2016/087156 WO2017110606A1 (ja) 2015-12-22 2016-12-14 情報処理装置およびその制御方法およびプログラム
DE112016005891.8T DE112016005891T5 (de) 2015-12-22 2016-12-14 Informationsverarbeitungsvorrichtung, Steuerverfahren dafür und Programm
CN201680075865.1A CN108475166B (zh) 2015-12-22 2016-12-14 信息处理装置及其控制方法和程序
US16/001,132 US20180284980A1 (en) 2015-12-22 2018-06-06 Information-processing device and control method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015249392 2015-12-22
JP2015249392 2015-12-22

Publications (3)

Publication Number Publication Date
JP2017117435A true JP2017117435A (ja) 2017-06-29
JP2017117435A5 JP2017117435A5 (ja) 2019-11-21
JP6859061B2 JP6859061B2 (ja) 2021-04-14

Family

ID=59234297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016197269A Active JP6859061B2 (ja) 2015-12-22 2016-10-05 情報処理装置およびその制御方法およびプログラム

Country Status (4)

Country Link
US (1) US20180284980A1 (ja)
JP (1) JP6859061B2 (ja)
DE (1) DE112016005891T5 (ja)
GB (1) GB2562931B (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013088891A (ja) * 2011-10-14 2013-05-13 Konica Minolta Business Technologies Inc 情報端末及び描画制御プログラム並びに描画制御方法
JP2013218495A (ja) * 2012-04-06 2013-10-24 Canon Inc 表示制御装置、表示制御方法、およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8020100B2 (en) * 2006-12-22 2011-09-13 Apple Inc. Fast creation of video segments
JP5371798B2 (ja) * 2010-01-12 2013-12-18 キヤノン株式会社 情報処理装置、その情報処理方法及びプログラム
US20130014057A1 (en) * 2011-07-07 2013-01-10 Thermal Matrix USA, Inc. Composite control for a graphical user interface
TWI528253B (zh) * 2013-07-03 2016-04-01 原相科技股份有限公司 觸控面板的物件定位方法
KR20150061484A (ko) * 2013-11-27 2015-06-04 노틸러스효성 주식회사 금액 선택 사용자 인터페이스를 제공하는 금융 자동화 기기 및 이를 위한 방법
JP5924555B2 (ja) * 2014-01-06 2016-05-25 コニカミノルタ株式会社 オブジェクトの停止位置制御方法、操作表示装置およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013088891A (ja) * 2011-10-14 2013-05-13 Konica Minolta Business Technologies Inc 情報端末及び描画制御プログラム並びに描画制御方法
JP2013218495A (ja) * 2012-04-06 2013-10-24 Canon Inc 表示制御装置、表示制御方法、およびプログラム

Also Published As

Publication number Publication date
GB2562931B (en) 2021-10-06
GB2562931A (en) 2018-11-28
JP6859061B2 (ja) 2021-04-14
US20180284980A1 (en) 2018-10-04
DE112016005891T5 (de) 2018-09-13
GB201811917D0 (en) 2018-09-05

Similar Documents

Publication Publication Date Title
KR101532963B1 (ko) 정보 처리장치 및 그 제어방법
JP6103807B2 (ja) 表示制御装置、その制御方法及びプログラム
US9122388B2 (en) Method and apparatus for controlling touch screen using timeline bar, recording medium with program for the same recorded therein, and user terminal having the same
JP5885517B2 (ja) 表示制御装置、表示制御装置の表示制御方法およびプログラム
US8947464B2 (en) Display control apparatus, display control method, and non-transitory computer readable storage medium
JP6226721B2 (ja) 再生制御装置、再生制御方法、プログラム及び記憶媒体
CN106664452A (zh) 用于通过使用触摸屏来控制视频的回放的方法、系统和介质
US8847929B2 (en) Information processing apparatus, information processing method, and computer readable medium storing program
JP2011154455A (ja) 表示制御装置、表示制御方法、及び表示制御プログラム、並びに記録媒体
KR101658770B1 (ko) 정보 처리장치, 정보 처리장치의 제어방법, 및 기록매체
KR20160065020A (ko) 화상 표시 장치 및 화상 표시 방법
JP2017123126A (ja) 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
JP5441748B2 (ja) 表示制御装置及びその制御方法、プログラム並びに記憶媒体
WO2017110606A1 (ja) 情報処理装置およびその制御方法およびプログラム
US9632697B2 (en) Information processing apparatus and control method thereof, and non-transitory computer-readable medium
JP2013012063A (ja) 表示制御装置
JP6494358B2 (ja) 再生制御装置、再生制御方法
US10258891B2 (en) Storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP6859061B2 (ja) 情報処理装置およびその制御方法およびプログラム
US20170351423A1 (en) Information processing apparatus, information processing method and computer-readable storage medium storing program
JP6501665B2 (ja) 情報処理装置およびその制御方法およびプログラム
US9818444B2 (en) Information processing apparatus, control method thereof, and program
JP2018200385A (ja) コンテンツ表示装置及びその制御方法、並びにプログラム
JP2017033179A (ja) 情報処理装置およびその制御方法およびプログラム
JP6661295B2 (ja) 情報処理装置およびその制御方法およびプログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210325

R151 Written notification of patent or utility model registration

Ref document number: 6859061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151