JP2012217101A - 情報処理装置及びその制御方法、プログラム、並びに記憶媒体 - Google Patents

情報処理装置及びその制御方法、プログラム、並びに記憶媒体 Download PDF

Info

Publication number
JP2012217101A
JP2012217101A JP2011082187A JP2011082187A JP2012217101A JP 2012217101 A JP2012217101 A JP 2012217101A JP 2011082187 A JP2011082187 A JP 2011082187A JP 2011082187 A JP2011082187 A JP 2011082187A JP 2012217101 A JP2012217101 A JP 2012217101A
Authority
JP
Japan
Prior art keywords
display
display object
reaction area
input
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011082187A
Other languages
English (en)
Other versions
JP5220157B2 (ja
Inventor
Tomohiro Ota
知宏 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011082187A priority Critical patent/JP5220157B2/ja
Publication of JP2012217101A publication Critical patent/JP2012217101A/ja
Application granted granted Critical
Publication of JP5220157B2 publication Critical patent/JP5220157B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】画面表示を煩雑にせずに、また、誤った操作の可能性をできるだけ増すことなく、動くオブジェクトを選択しやすくなる表示制御技術を実現する。
【解決手段】情報処理装置は、表示手段に表示オブジェクトを表示するように制御する表示制御手段と、前記表示手段の画面上の座標を入力するための入力手段と、前記表示制御手段によって画面上に表示された表示オブジェクトごとに、前記画面上での表示オブジェクトの移動速度に応じて、前記入力手段による座標の入力を受け付ける反応領域を当該表示オブジェクトの表示範囲より広く設定する設定手段と、前記入力手段によって入力された座標が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択手段と、を有する。
【選択図】図2

Description

本発明は、入力された座標の位置に応じた表示オブジェクトを選択可能に表示する表示制御技術に関するものである。
タッチパネルを備えた表示装置にボタンを表示させ、当該ボタンに対する操作をタッチパネルで検出して制御する機器が広く使われている。また、特許文献1においては、撮像した人物の顔に枠を表示し、この枠をタッチパネルで選択すると、非選択の枠と異なる態様で表示させることが記載されている。
特開2008−085737号公報
上記特許文献1では、撮像した顔の枠内を正確にタッチしなければ顔を選択することができないため、特に人物が画面内を移動している場合などでは、その顔を狙ってタッチするときに注意が必要である。顔の枠を大きく表示することで選択は容易になるが、画面表示が煩雑になるだけでなく、顔から離れた位置のタッチを受け付けることにより誤ったタッチ操作の可能性が増すことも想定される。
本発明は、上記課題に鑑みてなされ、その目的は、画面表示を煩雑にせずに、また、誤った操作の可能性をできるだけ増すことなく、動くオブジェクトを選択しやすくなる表示制御技術を実現することである。
上記課題を解決し、目的を達成するために、本発明の情報処理装置は、表示手段に表示オブジェクトを表示するように制御する表示制御手段と、前記表示手段の画面上の座標を入力するための入力手段と、前記表示制御手段によって画面上に表示された表示オブジェクトごとに、前記画面上での表示オブジェクトの移動速度に応じて、前記入力手段による座標の入力を受け付ける反応領域を当該表示オブジェクトの表示範囲より広く設定する設定手段と、前記入力手段によって入力された座標が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択手段と、を有する。
本発明によれば、画面表示を煩雑にせずに、また、誤った操作の可能性をできるだけ増すことなく、動くオブジェクトを選択しやすくなる。
本発明に係る実施形態の情報処理装置のブロック図。 実施形態1に係る画面表示例。 実施形態1に係る表示制御処理のフローチャートおよび反応領域のアフィン変換式。 実施形態2に係る画面表示例。 実施形態2に係る表示制御処理のフローチャート。
以下に、本発明を実施するための最良の形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成しても良い。
[実施形態1]
本実施形態では、本発明の情報処理装置をタッチパネル式のディスプレイを備えるデジタルビデオカメラ(以下、カメラ)に適用した実施形態について説明する。
<カメラの構成>図1を参照して、本実施形態のカメラの構成について説明する。
図1において、光学系101は、ズームレンズやフォーカスレンズなどの撮影レンズを含む。撮像部102は、CCDやCMOSなどのイメージセンサを備え、光学系101を通して撮像面に結像された被写体像を光電変換してアナログ映像信号を生成する。
映像処理部103は、撮像部102から出力されるアナログ信号をデジタル映像信号に変換し、所定の信号処理を施して映像データを生成する。また、映像処理部103は、映像データの生成過程において映像に含まれる人物の顔を検出する顔検出処理を実行する。
CPU104は、カメラ全体の動作を統括して制御する中央演算処理装置である。CPU104は、タッチパネル111や録画ボタン112などのユーザ操作を受け付け、映像処理部103の顔検出処理により検出された顔情報とタッチパネル111の座標情報とを比較し、表示制御部109への画面表示を指示する。
エンコーダ・デコーダ部105は、映像処理部103からの映像データを符号化する。エンコーダ・デコーダ部105によって符号化された映像データは、一時記憶部107に一旦記憶されたのち、付随する管理データと共に動画記憶部106に記憶される。動画記憶部106は、ハードディスクやフラッシュメモリなどの内蔵メモリや、メモリーカードなどの着脱可能な記録媒体からなる。
動画再生時は、動画記憶部106から読み出された符号化された映像データが一時記憶部107を介してエンコーダ・デコーダ部105で復号化され、再び一時記憶部107の動画用フレームバッファに展開される。
一時記憶部107は、映像処理部103やCPU104、表示制御部109のワーク領域として利用される。
プログラム・データ記憶部108は、CPU104の扱うプログラムやデータが記憶される。
表示制御部109は、映像処理部103もしくはエンコーダ・デコーダ部105からの出力映像に顔枠やその他のオブジェクトを合成して、LCDパネル110に表示する映像信号を生成する。
LCDパネル110は、表示制御部109から出力された映像信号を表示する。
タッチパネル111は、LCDパネル110に貼り付けられ、CPU104からの問い合わせに対してタッチされた座標を返すドライバ部を含んでいる。
CPU104は上記ドライバ部を介してタッチパネル111への以下の操作を検出できる。タッチパネル111を指やペンで触れたこと(以下、タッチダウン)。タッチパネル111を指やペンで触れている状態であること(以下、タッチオン)。タッチパネル111を指やペンで触れたまま移動していること(以下、ムーブ)。タッチパネル111へ触れていた指やペンを離したこと(以下、タッチアップ)。タッチパネル111に何も触れていない状態(以下、タッチオフ)。これらの操作や、タッチパネル111上に指やペンが触れている位置座標は内部バスを通じてCPU104に通知され、CPU104は通知された情報に基づいてタッチパネル111上にどのような操作が行なわれたかを判定する。ムーブについてはタッチパネル111上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル111上の垂直成分・水平成分毎に判定できる。またタッチパネル111上をタッチダウンから一定のムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル111上に指を触れたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル111上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。
<表示制御処理>次に、図2を参照して、本実施形態のカメラによる撮影モードでの表示制御処理について説明する。
図2において、破線205a、205b、206は説明の便宜のために示したもので、実際にはLCDパネル110に表示されなくてもよい。
被写体201、202は映像処理部103での顔検出処理により検出された人物の顔である。被写体201は画面上の右方向に移動しており、被写体202は静止している。
顔枠203、204は、表示制御部109により顔201、202のそれぞれに対して合成(重畳)された枠(表示オブジェクト)である。顔枠203はやや太く表示されており、顔201が選択された状態を表している。顔枠204はやや細く表示されており、顔202が選択されていない状態を表している。
破線205a、206は、顔201、202に対応するタッチパネル111上のタッチダウンまたはタッチオン(以下、タッチ操作)を受け付ける反応領域を示している。顔201が画面上の右方向に移動しているため、反応領域205aは顔枠203の動きベクトルの反対方向、すなわち左方向に領域が拡大している。一方、顔202は静止しているため、反応領域206は顔枠204とほぼ同じ大きさとなっている。
このように、動くオブジェクトの後方に反応領域を拡大することで、ユーザのタッチ操作がオブジェクトの動きにうまく合わせられずに遅れてしまった場合でも、所望のオブジェクトを選択できることになる。また、反応領域はオブジェクトの内容にかかわらずに設定できるため、画面表示が煩雑になることがない。さらに、動くオブジェクトに対してのみ反応領域の面積を拡大するので、誤ったタッチ操作の可能性が不必要に増すこともない。
領域207はタッチパネル111を操作しているユーザの指を表している。図2ではタッチ操作が顔201の動きに対して遅れているが、反応領域205が顔201の動きベクトルの後方に拡大されるため、遅れたタッチ操作であっても顔201を選択できるようになる。
208、209は顔に関連しない表示要素を表しており、それぞれタイムコード、バッテリー残量表示である。これら以外にもカメラの設定や動作状態を表す様々なアイコンや数値が表示されることがある。
なお、反応領域205aは、図2(b)に示すように動きベクトルの方向、すなわち右方向に拡大してもよい。この場合、指207が顔201の動きの前方をタッチしたとしても、このタッチで顔201を選択することができる。
図2(b)の破線205bは、動く顔201の反応領域を反応領域205aとは異なる形態で拡張した例である。このように、顔の動きベクトルを計算せず、単純に顔の移動速度に応じて反応領域の面積を拡大するだけでも、顔のタッチしやすさを改善することができる。このように、動くオブジェクトに対して広い面積の反応領域を設定することができるため、オブジェクトがよりタッチしやすくなる。例えば、動いているオブジェクトの移動方向から移動位置を予測して早めにタッチした場合などにも所望のオブジェクトを選択することができる。
また、反応領域はオブジェクトの表示内容(表示範囲)とは独立して設定できるため、画面表示が煩雑になることがない。さらに、反応領域を変更するのは動いているオブジェクトだけであるので、反応領域の面積を拡大したとしても誤ったタッチ操作の可能性が不必要に増すことはない。ただし、反応領域205bは顔201をタッチしようとするときには触れないと想定される領域まで拡大している分、誤ったタッチ操作の可能性は反応領域205bよりも反応領域205aの方が若干低いと考えられる。
次に図3を参照して、図2の画面表示を実現するCPU104による表示制御処理について説明する。
なお、図3の処理を行うためのプログラムはプログラム・データ記憶部108に収められており、CPU104が適宜読み出して実行する。プログラムの実行時は一時記憶部107はワークメモリとして利用される。
図3(a)において、ステップ301では、CPU104は表示制御部109を通じて、タイムコード208およびバッテリー残量209の表示を更新する。
ステップS302では、CPU104は、映像処理部103から顔検出処理結果を取得し、映像中に顔が存在するか判定する。顔が存在しないときはステップS301に戻る。顔検出方法については、例えば特開2005−318554号公報に詳述されているが、本発明は顔検出方法には依存しない。
ステップS302にて、顔が存在しないと判定された場合にはステップS301に戻り、顔が存在すると判定された場合には、ステップS303に移行する。
ステップS303では、CPU104は、映像処理部103により検出された顔ごとに移動速度または動きベクトルを算出する。移動速度または動きベクトルのいずれも、現在の顔の位置座標と直前の顔の位置座標との差、すなわち変化方向と距離の時間変化から計算することができる。
ステップS304では、CPU104は、ステップS303で算出した顔の移動速度または動きベクトルに応じて、それぞれの顔の反応領域を設定する。ここで反応領域の拡大・移動はアフィン変換によって実現することができる。図2の例では、反応領域は矩形であるので、対角の2点の座標によって表すことができる。ある2つの頂点(x1,y1)(x2,y2)のアフィン写像(x1a,y1a)(x2a,y2a)は、図3(c)の式で表される。ただし、本発明は矩形の反応領域に限定されるものではなく、多角形や円形の反応領域であってもよい。
ステップS305では、CPU104は、タッチパネル111に対するユーザのタッチ操作による顔の選択を受け付ける処理を行う。この顔選択処理の詳細は図3(b)で後述する。
ステップS306では、CPU104は、ステップS305もしくはそれ以前の処理によって顔が選択されているか判定する。ステップS306で顔が選択されていた場合には、ステップS307に移行し、CPU104は、表示制御部109を通じて、選択された顔に線の太い主顔枠を、その他の選択されていない顔に線の細い非主顔枠をそれぞれ表示する。
ステップS308では、CPU104は映像処理部103を通じて、選択された顔が最適な撮影結果になるように、フォーカス、露出、ホワイトバランス、およびズームなどを制御する。
一方、ステップS306で顔が選択されていない場合には、ステップS309に移行し、CPU104は表示制御部109を通じて、すべての顔に線の細い非主顔枠をそれそれ表示する。
<顔選択処理(S305)>続いて、図3(b)を参照して、図3(a)のステップS305における顔選択処理について説明する。
図3(b)において、ステップS311では、CPU104は、タッチパネル111への入力を判定し、タッチされていない場合には本処理を終了し、タッチされた場合には、ステップS312に移行し、タッチ位置の座標情報を取得する。
ステップS313では、CPU104は、ステップS312で取得したタッチ位置が顔の反応領域内であるか判定し、反応領域外の場合には本処理を終了し、顔の反応領域内である場合には、ステップS314に移行する。
ステップS314では、CPU104は表示制御部109を通じて、タッチされた顔を選択状態に設定し、その他の顔を非選択状態に設定する。
なお、タッチ位置が複数の顔の反応領域に合致する場合には、予め決められた所定の規則にしたがって優先的に選択する顔を設定する。例えば、顔の移動によって拡大した反応領域と、別の静止した顔の反応領域とが重なっている領域がタッチされた場合は、本来の反応領域である後者の顔を選択状態に設定する。相対的に速い速度で移動している顔と遅い速度で移動している顔の、本来の反応領域同士が重なっている場合は、速度の速い顔を優先して選択状態に設定する。ただし、本発明は上記所定の規則の例に限られず、別の規則にしたがって反応領域の優先順位を決定してもよい。
[実施形態2]次に、実施形態2について説明する。
実施形態1は、カメラが撮影モードのときの動作であったのに対して、実施形態2は、カメラが再生モードのときの動作について説明する。ただし、本実施形態では撮影機能は使用しないため、携帯電話やPC、あるいはポータブルメディアプレーヤなどの画像再生機器にも同様に本発明を適用可能である。
なお、本実施形態のカメラの構成は、図1と同様であるので説明は省略する。
以下、本実施形態のカメラによる再生モードでの表示制御処理について説明する。
図4(a)は、カメラの再生モード時にLCDパネル110に表示される画面を例示している。なお、破線404、405、406および矢印407は説明の便宜のために示したもので、実際にはLCDパネル110に表示されなくてもよい。
図4(a)において、画像401、402、403はいずれも動画記憶部106に記憶されているシーンのサムネイル画像データである。これらは画面上の横方向に並べて表示されており、ユーザが画面上で右から左あるいは左から右へフリック操作することにより、サムネイル画像を滑らかにスクロールさせて順次切り替えることができる。本実施形態ではサムネイル画像は動画シーンを表しているが、静止画を表すものであったり、動画もしくは静止画を表すサムネイル画像が混在している状態であってもよい。
破線404、405、406はそれぞれサムネイル画像401、402、403に対してタッチパネル111のタッチによる選択を受け付ける反応領域を示している。反応領域内がタッチされると、該当するサムネイル画像のシーンが再生される。
図4(b)は、図4(a)の状態から矢印407の方向へフリックしたときの画面を例示している。サムネイル画像401、402、403はそれぞれ指の移動方向に合わせて画面が左から右へスクロール表示される。
このとき、反応領域404、405、406はそれぞれの対応するサムネイル画像の動きにぴったり追従した状態で移動するのではなく、サムネイル画像の動きに対して少し遅れて移動する。このようにすることで、スクロール表示中にユーザが再生しようとするサムネイル画像をタッチする際に、タッチ操作がサムネイル画像のスクロールの動きに遅れていたとしても、所望のシーンのサムネイル画像を選択して再生を行うことができる。
次に図5を参照して、図4の画面表示を実現するCPU104による表示制御処理について説明する。
なお、図5の処理を行うためのプログラムはプログラム・データ記憶部108に収められており、CPU104が適宜読み出して実行する。プログラムの実行時は一時記憶部107はワークメモリとして利用される。
図5において、ステップS501では、CPU104は映像処理部103を通じて、ユーザのフリック操作に応じて画面上に表示されるサムネイル画像を更新する。サムネイル画像データは動画記憶部106から直接読み出しできる形式でもよいし、動画記憶部106から読み出し、エンコーダ・デコーダ部105でデコードした映像データから生成したものであってもよい。サムネイル画像は更新ごとに生成してもよいが、生成したサムネイル画像を一時記憶部107にバッファリングして利用する方が処理負荷を軽減できる。
ステップS502では、CPU104は、サムネイル画像の動きベクトルを算出する。動きベクトルは、現在のサムネイル画像の位置座標と直前のサムネイル画像の位置座標との差、すなわち変化方向と距離の時間変化から計算することができる。ところで、図4の画面ではサムネイル画像が横方向にのみスクロールすることは自明なので、単純に移動速度のみを計算して動きベクトルに代えることも可能である。
ステップS503では、CPU104は、ステップS502で算出したサムネイル画像の動きベクトルに応じて、サムネイル画像ごとの反応領域を設定する。反応領域の移動は実施形態1と同様のアフィン変換で実現できる。
ステップ304では、CPU104は、ユーザのタッチ操作によってシーンを選択する処理を行う。ここでの処理は実施形態1のステップS305および図3(b)の顔選択処理と同様である。
ステップS505では、CPU104は、ステップS504にてシーンが選択されたか判定し、シーンが選択された場合には、ステップS506に移行する。
ステップS506では、CPU104は、選択されたシーンの再生処理を開始する。この再生処理では、動画記憶部106から読み出した映像データをエンコーダ・デコーダ部105でデコードし、必要に応じて映像処理部103で加工した上で表示制御部109に順次出力することによって、LCDパネル110に動画として表示される。
一方、ステップS505でシーンが選択されない場合には、ステップS507に移行し、CPU104はフリック判定を行い、次のサムネイル画像の位置座標が計算される。フリック判定方法については、例えば特開2006−85703号公報に記載されている。
なお、CPU104の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
また、上述した各実施形態においては、本発明をデジタルビデオカメラに適用した例を説明したが、これは一例にすぎず、オブジェクトに対応する位置座標を指定することにより選択可能な情報処理装置であれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。例えば、ゲーム機において表示されたキャラクタ(オブジェクト)が移動している場合に、これをタッチ操作や他のポインティング操作(マウスによるクリックや、ポインタによるポインタ操作)によって選択する場合にも、本発明を適用できる。
[他の実施形態]本発明は、以下の処理を実行することによっても実現される。即ち、上記実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
上記課題を解決し、目的を達成するために、本発明の情報処理装置は、表示手段に表示オブジェクトを表示するように制御する表示制御手段と、前記表示手段に対するタッチ入力を検出するタッチ検出手段と、前記表示制御手段によって画面上に表示された表示オブジェクトに、前記画面上での表示オブジェクトの移動速度が速い場合のほうが遅い場合よりも、当該表示オブジェクトに対する選択を受け付けるためのタッチ入力反応領域を広く設定する設定手段と、前記タッチ検出手段によって検出されたタッチ入力の位置が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択手段とを有する。

Claims (13)

  1. 表示手段に表示オブジェクトを表示するように制御する表示制御手段と、
    前記表示手段の画面上の座標を入力するための入力手段と、
    前記表示制御手段によって画面上に表示された表示オブジェクトごとに、前記画面上での表示オブジェクトの移動速度に応じて、前記入力手段による座標の入力を受け付ける反応領域を当該表示オブジェクトの表示範囲より広く設定する設定手段と、
    前記入力手段によって入力された座標が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択手段と、を有することを特徴とする情報処理装置。
  2. 前記設定手段は、前記表示オブジェクトの移動速度の変化に応じて当該表示オブジェクトの反応領域の面積を変更することを特徴とする請求項1に記載の情報処理装置。
  3. 表示手段に表示オブジェクトを表示するように制御する表示制御手段と、
    前記表示手段の画面上の座標を入力するための入力手段と、
    前記表示制御手段によって画面上に表示された表示オブジェクトごとに、前記画面上での表示オブジェクトの動きベクトルに応じて、前記入力手段による座標の入力を受け付ける反応領域を当該表示オブジェクトの表示範囲より広く設定する設定手段と、
    前記入力手段によって入力された座標が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択手段と、を有することを特徴とする情報処理装置。
  4. 前記設定手段は、前記表示オブジェクトの動きベクトルの変化に応じて当該表示オブジェクトの反応領域を当該動きベクトルの前方もしくは後方に向かって拡大することを特徴とする請求項3に記載の情報処理装置。
  5. 前記設定手段は、前記表示オブジェクトの動きベクトルの変化に応じて当該表示オブジェクトの反応領域を当該動きベクトルの前方もしくは後方に向かって相対的に移動することを特徴とする請求項3に記載の情報処理装置。
  6. 被写体像を撮像する撮像手段と、
    前記撮像手段により撮像された映像から人物の顔を検出する顔検出手段と、を更に備え、
    前記表示オブジェクトは、前記撮像手段により撮像された映像に含まれる人物であり、
    前記設定手段は、前記顔の枠に前記反応領域を設定することを特徴とする請求項1ないし5のいずれか1項に記載の情報処理装置。
  7. 前記選択手段は、選択された顔の枠を、選択されていない顔の枠に比べて太くして選択状態とすることを特徴とする請求項6に記載の情報処理装置。
  8. 複数のシーンの映像データを記憶する記憶手段と、
    前記記憶手段に記憶された映像データを再生する再生手段と、を更に備え、
    前記表示オブジェクトは、前記記憶手段に記憶された各シーンの映像データに対応するサムネイルであり、
    前記設定手段は、前記サムネイルに反応領域を設定し、
    前記再生手段は、前記選択手段により選択状態とされたサムネイルに対応するシーンの映像データを再生することを特徴とする請求項1ないし5のいずれか1項に記載の情報処理装置。
  9. 前記入力手段は、前記表示手段に設けられたタッチパネルであり、
    前記選択手段は、前記タッチパネルによって入力された座標が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択状態とすることを特徴とする請求項1ないし7のいずれか1項に記載の情報処理装置。
  10. 表示手段に表示オブジェクトを表示するように制御する表示制御手段と、前記表示手段の画面上の座標を入力するための入力手段と、を有する情報処理装置の制御方法であって、
    前記表示制御手段によって画面上に表示された表示オブジェクトごとに、前記画面上での表示オブジェクトの移動速度に応じて、前記入力手段による座標の入力を受け付ける反応領域を当該表示オブジェクトの表示範囲より広く設定する設定工程と、
    前記入力手段によって入力された座標が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択工程と、を有することを特徴とする制御方法。
  11. 表示手段に表示オブジェクトを表示するように制御する表示制御手段と、前記表示手段の画面上の座標を入力するための入力手段と、を有する情報処理装置の制御方法であって、
    前記表示制御手段によって画面上に表示された表示オブジェクトごとに、前記画面上での表示オブジェクトの動きベクトルに応じて、前記入力手段による座標の入力を受け付ける反応領域を当該表示オブジェクトの表示範囲より広く設定する設定工程と、
    前記入力手段によって入力された座標が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択工程と、を有することを特徴とする制御方法。
  12. コンピュータを、請求項1乃至9のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
  13. コンピュータを、請求項1乃至9のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラムを記憶したコンピュータによる読み取りが可能な記憶媒体。
JP2011082187A 2011-04-01 2011-04-01 情報処理装置及びその制御方法、プログラム、並びに記憶媒体 Active JP5220157B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011082187A JP5220157B2 (ja) 2011-04-01 2011-04-01 情報処理装置及びその制御方法、プログラム、並びに記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011082187A JP5220157B2 (ja) 2011-04-01 2011-04-01 情報処理装置及びその制御方法、プログラム、並びに記憶媒体

Publications (2)

Publication Number Publication Date
JP2012217101A true JP2012217101A (ja) 2012-11-08
JP5220157B2 JP5220157B2 (ja) 2013-06-26

Family

ID=47269443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011082187A Active JP5220157B2 (ja) 2011-04-01 2011-04-01 情報処理装置及びその制御方法、プログラム、並びに記憶媒体

Country Status (1)

Country Link
JP (1) JP5220157B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015022730A (ja) * 2013-07-23 2015-02-02 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2016126383A (ja) * 2014-12-26 2016-07-11 三菱電機株式会社 タッチ領域設定方法およびタッチ領域設定装置
JP2017518658A (ja) * 2014-04-03 2017-07-06 クゥアルコム・インコーポレイテッドQualcomm Incorporated 多焦点イメージングのためのシステムおよび方法
JPWO2017169158A1 (ja) * 2016-03-29 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2017187708A1 (ja) * 2016-04-26 2019-02-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US11301087B2 (en) 2018-03-14 2022-04-12 Maxell, Ltd. Personal digital assistant

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009014026A1 (ja) 2007-07-26 2009-01-29 Kyoto University 吸引器具、吸引システムおよび吸引方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257004A (ja) * 2007-04-06 2008-10-23 Canon Inc 光学機器
JP2008311817A (ja) * 2007-06-13 2008-12-25 Sony Corp 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
WO2010064095A1 (en) * 2008-12-05 2010-06-10 Sony Ericsson Mobile Communications Ab Camera system with touch focus and method
JP2011035842A (ja) * 2009-08-05 2011-02-17 Sony Corp 表示装置、表示方法及び表示プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257004A (ja) * 2007-04-06 2008-10-23 Canon Inc 光学機器
JP2008311817A (ja) * 2007-06-13 2008-12-25 Sony Corp 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
WO2010064095A1 (en) * 2008-12-05 2010-06-10 Sony Ericsson Mobile Communications Ab Camera system with touch focus and method
JP2012511171A (ja) * 2008-12-05 2012-05-17 ソニー エリクソン モバイル コミュニケーションズ, エービー タッチ合焦を備えたカメラシステム及び方法
JP2011035842A (ja) * 2009-08-05 2011-02-17 Sony Corp 表示装置、表示方法及び表示プログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015022730A (ja) * 2013-07-23 2015-02-02 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2017518658A (ja) * 2014-04-03 2017-07-06 クゥアルコム・インコーポレイテッドQualcomm Incorporated 多焦点イメージングのためのシステムおよび方法
JP2016126383A (ja) * 2014-12-26 2016-07-11 三菱電機株式会社 タッチ領域設定方法およびタッチ領域設定装置
JPWO2017169158A1 (ja) * 2016-03-29 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2017187708A1 (ja) * 2016-04-26 2019-02-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US11017257B2 (en) 2016-04-26 2021-05-25 Sony Corporation Information processing device, information processing method, and program
JP7092028B2 (ja) 2016-04-26 2022-06-28 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
US11301087B2 (en) 2018-03-14 2022-04-12 Maxell, Ltd. Personal digital assistant
US11947757B2 (en) 2018-03-14 2024-04-02 Maxell, Ltd. Personal digital assistant

Also Published As

Publication number Publication date
JP5220157B2 (ja) 2013-06-26

Similar Documents

Publication Publication Date Title
US10788967B2 (en) Gesture mapping for image filter input parameters
JP5220157B2 (ja) 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
US10222903B2 (en) Display control apparatus and control method thereof
US9307153B2 (en) Method and apparatus for previewing a dual-shot image
US9438789B2 (en) Display control apparatus and display control method
US20110019239A1 (en) Image Reproducing Apparatus And Image Sensing Apparatus
KR102146858B1 (ko) 촬영 장치 및 촬영 장치의 비디오 생성방법
JP2009294850A (ja) 画像処理装置および画像処理方法
JP6647103B2 (ja) 表示制御装置およびその制御方法
TWI714513B (zh) 書籍顯示程式產品及書籍顯示裝置
JP5441748B2 (ja) 表示制御装置及びその制御方法、プログラム並びに記憶媒体
EP3547098B1 (en) Display control apparatus and control method
WO2022121875A1 (zh) 预览图像显示控制方法、装置、电子设备及介质
JP5825921B2 (ja) 表示装置及びその制御方法
US11099728B2 (en) Electronic apparatus, control method, and non-transitory computer readable medium for displaying a display target
JP2011034512A (ja) 表示制御装置及び表示制御方法
JP5335474B2 (ja) 画像処理装置および画像処理方法
JP6198459B2 (ja) 表示制御装置、表示制御装置の制御方法、プログラム及び記憶媒体
US11442613B2 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
JP6779778B2 (ja) 表示制御装置およびその制御方法
JP2019096305A (ja) 電子機器およびその制御方法およびプログラムおよび記録媒体
JP6362110B2 (ja) 表示制御装置、その制御方法、プログラム、及び記録媒体
US20230254555A1 (en) Electronic apparatus, control method therefor, and computer-readable storage medium storing program
JP2017084278A (ja) 携帯端末、制御方法およびプログラム
JP6120541B2 (ja) 表示制御装置及びその制御方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130305

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5220157

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3