JP5371798B2 - 情報処理装置、その情報処理方法及びプログラム - Google Patents

情報処理装置、その情報処理方法及びプログラム Download PDF

Info

Publication number
JP5371798B2
JP5371798B2 JP2010004442A JP2010004442A JP5371798B2 JP 5371798 B2 JP5371798 B2 JP 5371798B2 JP 2010004442 A JP2010004442 A JP 2010004442A JP 2010004442 A JP2010004442 A JP 2010004442A JP 5371798 B2 JP5371798 B2 JP 5371798B2
Authority
JP
Japan
Prior art keywords
input
information processing
distance
drag operation
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010004442A
Other languages
English (en)
Other versions
JP2011145779A (ja
JP2011145779A5 (ja
Inventor
由之 嶋村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010004442A priority Critical patent/JP5371798B2/ja
Priority to US12/980,673 priority patent/US8510670B2/en
Publication of JP2011145779A publication Critical patent/JP2011145779A/ja
Publication of JP2011145779A5 publication Critical patent/JP2011145779A5/ja
Application granted granted Critical
Publication of JP5371798B2 publication Critical patent/JP5371798B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、情報処理装置、その情報処理方法及びプログラムに関する。
従来、座標入力装置(タッチパネル等)からの入力を受ける情報処理装置が知られている。このような情報処理装置では、ユーザが、ディスプレイ画面において、対象物(オブジェクト)に指又は指示体(例えば、ペン)で触れると、当該オブジェクトが選択され、指等の移動に追従してオブジェクトが移動する。ところが、この場合、オブジェクトが小さければ、指で隠れてしまう場合がある。
そこで、例えば、特許文献1には、オブジェクトが指で隠れないように、タッチした位置から所定間隔ずらしてカーソルを表示させ、そのカーソルの位置に表示されているオブジェクトを選択して、移動させる技術が開示される。
特開平06−051908号公報
上述した特許文献1の技術では、指の位置とずれた位置にカーソルが表示されるため、ユーザは、カーソルの位置をオブジェクトに合わせた後、オブジェクトの移動操作を行なう必要がある。つまり、オブジェクトをドラッグ操作により移動させる場合、ユーザは、まず、カーソルをオブジェクトの表示された位置に移動させた後、当該オブジェクトの選択を決定しなければならない。そのため、オブジェクト自体にタッチしてオブジェクトを選択する方法に比べて、操作が煩雑になる。
そこで、本発明は、上記課題に鑑みてなされたものであり、座標入力を用いて小さなオブジェクトを移動させる際の操作性を向上させるようにした技術を提供することを目的とする。
上記課題を解決するため、本発明の一態様は、表示画面に表示されたオブジェクトを該表示画面上で移動させる情報処理装置であって、前記表示画面に対して指示された座標を入力する入力手段と、前記入力手段により入力された入力座標に対応する前記表示画面上の座標位置に表示されたオブジェクトを選択する選択手段と、前記入力座標に基づいて、前記選択手段により選択されたオブジェクトに対するドラッグ操作を検出する検出手段と、前記検出手段により前記ドラッグ操作が検出された場合、前記選択手段により選択された前記オブジェクトの座標位置と前記ドラッグ操作が検出された後の入力座標との距離が、所定の距離を越えているか判定する判定手段と、前記判定手段により前記距離が所定の距離を越えると判定された場合に、前記選択手段により選択されたオブジェクトを前記ドラッグ操作に追従させて移動させ、前記判定手段により当該距離が当該所定の距離を越えると判定されない場合には、当該オブジェクトの移動量が前記ドラッグ操作の移動量よりも小さくなるように当該オブジェクトを移動させるか、又は当該オブジェクトを移動させないように制御する移動制御手段と、を有することを特徴とする。
本発明によれば、座標入力を用いて小さなオブジェクトを移動させる際の操作性を向上させられる。
本発明の一実施の形態に係わる情報処理装置の構成の一例を示す図。 図1に示す情報処理装置10における機能的な構成の一例を示す図。 オブジェクトの一例を示す図。 図1及び図2に示す情報処理装置10における処理の概要の一例を示す図。 図1及び図2に示す情報処理装置における処理の流れの一例を示すフローチャート。 図1及び図2に示す情報処理装置10における処理の概要の一例を示す図。 実施形態2に係わるオブジェクトの一例を示す図。 実施形態2に係わる情報処理装置10における処理の流れの一例を示すフローチャート。 変形実施形態の一例を示す図。 変形実施形態の一例を示す図。 変形実施形態の一例を示す図。
以下、本発明の一実施の形態について添付図面を参照して詳細に説明する。
(実施形態1)
図1は、本発明の一実施の形態に係わる情報処理装置における構成の一例を示す図である。図1(a)は、外観斜視図であり、図1(b)は、断面図である。
情報処理装置10には、表示装置3とタッチパネル1とが一体で構成されるユーザインターフェースが設けられる。表示装置3は、表示パネルを有し、各種画面を表示する。タッチパネル1は、座標入力装置として機能する。タッチパネル1は、表示装置3の画面上に設けられており、座標入力面に対して押圧された指又は指示体の領域の座標を装置内に入力する。
図2は、図1に示す情報処理装置10における機能的な構成の一例を示す図である。
ここで、情報処理装置10は、タッチパネル1と、タッチパネル制御部2と、表示装置3と、表示制御部4と、操作部5と、操作制御部6と、CPU7と、RAM8と、ROM9とを具備して構成される。
タッチパネル制御部2は、タッチパネル1を制御し、タッチパネル1上の押圧された位置(以下、入力座標と称す)を検出する。すなわち、表示画面上を指し示す指の座標位置を検出する座標検出手段として機能する。
表示制御部4は、各種画面を表示装置3上に表示させる。例えば、移動するオブジェクト等を含む画面を表示画面上に表示制御する。操作部5は、例えば、テンキーや機能ボタン等のハードキーであり、操作制御部6は、操作部5を介したユーザ指示を装置内に入力する。
ROM(Read Only Memory)9は、プログラムや各種データを記憶する。RAM(Random Access Memory)8は、CPU7によるプログラムの実行にワークエリアとして使用され、各種演算結果や座標データ等を一時的に記憶する。
ここで、ROM9には、図3(a)に示すようなオブジェクト(データ)が格納される。オブジェクトは、例えば、表示画面上を移動するビットマップデータであり、図3(b)の点線枠(矩形状)で示した領域に対応するデータを持つ。なお、ビットマップデータの1画素は、表示装置3の1画素に相当するものとする。
ここで、オブジェクトの大きさの計算方法について説明する。ここでは、説明の便宜上、表示装置3の大きさが横80mm、縦60mmであり、その表示画素数が横320画素、縦240画素であるものとする。すなわち、1画素当たり0.25mmの大きさとなる。ここで、例えば、オブジェクトの横方向が80画素、縦方向が40画素のデータであれば、当該縦方向及び横方向の画素に対してそれぞれに0.25を掛けた値がオブジェクトの大きさとなる。すなわち、この場合におけるオブジェクトの大きさは、横20mm、縦10mmの大きさとなる。
次に、CPU7により実現される機能的な構成の一例について説明する。CPU7により実現される機能は、例えば、CPU7がROM9等に格納されたプログラムを実行することにより実現される。なお、サイズ判定部25については、実施形態1では触れず、実施形態2において説明する。
CPU7には、オブジェクト選択部21と、ドラッグ操作検出部22と、移動可否判定部23と、移動制御部24と、サイズ判定部25とが具備される。
オブジェクト選択部21は、移動対象となるオブジェクトを選択する。具体的には、ユーザの指により指示された入力座標に対応する表示画面上の座標位置に表示されたオブジェクトを移動対象オブジェクトとして選択する。
ドラッグ操作検出部22は、オブジェクト選択部21により選択されたオブジェクトに対するドラッグ操作を検出する。この検出は、タッチパネル1及びタッチパネル制御部2により検出された入力座標に基づいて行なわれる。
移動可否判定部23は、ドラッグ操作検出部22によりオブジェクトに対するドラッグ操作が検出された場合に、当該ドラッグ操作に追従したオブジェクトの移動を許可するか否かの判定を行なう。この判定は、追従移動フラグに基づいて行なわれる(許可の場合、フラグ=1、禁止の場合、フラグ=0)。
移動制御部24は、ドラッグ操作が検出されている間、オブジェクト選択部21により選択されたオブジェクトの移動を制御する。なお、移動制御部24によるオブジェクトの移動制御については後述する。上述した表示制御部4においては、この移動制御部24からの指示に基づいて表示画面上におけるオブジェクトを移動等させて表示する。以上が、情報処理装置10の構成についての説明であるが、図1及び図2に示した構成はあくまで一例であり、適宜変更できる。
次に、図4を用いて、図1及び図2に示す情報処理装置10における動作の概要の一例について説明する。
S101は、移動対象となるオブジェクトを示している。ここで、オブジェクトの大きさは、横10mm、縦5mmとする。この大きさは、一般的に、指に隠れる大きさを想定している。なお、Xは、縦方向におけるオブジェクトの中心位置を示しており、Zは、指により指示された位置(すなわち、入力座標)を示している。
S102は、指によってオブジェクトが選択された状態を示している。オブジェクトの表示画面上における座標位置は、CPU7により管理されており、S102においては、当該オブジェクトの領域内を指でタッチされた状態を示している。ここでは、説明を簡単にするため、オブジェクトの位置Xと指による入力座標Zとが等しいものとする。なお、入力座標がオブジェクトの領域内であれば、オブジェクトを選択できるため、オブジェクトの中心Xと入力座標Zとは多少ずれている場合が多い。このずれは、本実施形態の要部ではないため、その説明については省略する。
S103は、S102の状態においてユーザが指を下方向にドラッグした後のオブジェクト及び指の状態を示している。このときの指の位置(入力座標)とオブジェクトの位置との距離の差は「Z−X」である。この差「Z−X」が、距離a(第1の値)よりも小さければ、オブジェクトがドラッグ操作されても、オブジェクトはそれに追従して移動しない。距離aは、オブジェクトの中心位置と入力座標との間の距離を示す。距離aには、指を用いた座標入力によるオブジェクトのドラッグ操作時に、指に隠れず(すなわち、指に重ならない)オブジェクトの動きが視認可能となるような値を経験則等から求め予め設定しておく。距離aとしては、例えば、20mm程度を想定している。
S104は、S103の状態からユーザが指を更に下方向にドラッグした状態を示している。S104では、S103よりもユーザの指が下方向に移動しているため、オブジェクトが徐々に視認可能な状態となっている。この時点においても、指の位置(入力座標)とオブジェクトの位置との差「Z−X」は、距離aに達していないため、依然、オブジェクトは移動しない。
S105は、S104の状態からユーザが指を更に下方向にドラッグした状態を示している。S105では、指の位置(入力座標)とオブジェクトの位置との差「Z−X」が、距離aに達している。この後、差「Z−X」が距離aを越えると、指の動きに追従してオブジェクトは移動を始める。すなわち、指がどの方向に移動しようと、指が動いた分だけオブジェクトも移動する。S106及びS107には、指の位置(入力座標)とオブジェクトの位置との距離の差が距離aを維持したまま、オブジェクトが指の位置(入力座標)に追従して移動している状態が示される。
ここで、図5を用いて、図1及び図2に示す情報処理装置における処理の流れの一例について説明する。ここでは、図4のS102以降の処理(オブジェクトが選択される処理以降)について説明する。
この処理が開始すると、情報処理装置10は、オブジェクト選択部21において、ユーザによる指により指示された入力座標に対応するオブジェクトを選択するとともに(S201)、初期処理を行なう(S202)。初期処理では、追従移動フラグが「0(追従移動禁止)」に初期化されるとともに、RAM8に保持された前回の入力座標(X,Y)が入力座標(X,Y)で初期化される。また、情報処理装置10は、これと同様に、オブジェクトの座標位置(x、y)を入力座標(X,Y)で初期化する。なお、オブジェクトは、矩形状の領域を持っているが、ここでは、その中心をオブジェクトの位置とする。
ここで、情報処理装置10は、ドラッグ操作検出部22において、オブジェクト選択部21により選択されたオブジェクトに対してドラッグ操作が行なわれているか否かを検出する。この処理ではまず、入力座標が継続して検出されているか否かを判定する。なお、この判定は、タッチパネル1及びタッチパネル制御部2により検出される入力座標の検出ピッチに依存して行なわれる。すなわち、ドラッグ操作検出部22による検出並びに判定処理は、所定時間間隔毎に行なわれる。
判定の結果、入力座標を継続して検出していれば(S203でYES)、当該入力座標の値が変化しているか否かを検出する。この検出は、タッチパネル1及びタッチパネル制御部2により検出された入力座標に基づいて行なわれる。座標の入力が継続して検出されない、すなわち、指が非接触となっていれば(S203でNO)、この処理は終了する。
一方、入力座標が継続して検出されているが(S203でYES)、入力座標の値が変化していない場合(S204でNO)、ドラッグ操作が行なわれていないため、情報処理装置10は、再度、S203の処理に戻り、上記同様の検出を継続して行なう。
また、入力座標が継続して検出されており(S203でYES)、更に入力座標の値が変化した場合(S204でYES)、すなわち、ドラッグ操作が行なわれている場合、情報処理装置10は、移動可否判定部23において、追従移動フラグを確認する。すなわち、ドラッグ操作に追従したオブジェクトの移動を許可するか否かを判定する。
確認の結果、追従移動フラグが「0(追従移動禁止)」であれば(S205でNO)、情報処理装置10は、移動可否判定部23において、入力座標とオブジェクトの位置との距離の差dを求める(S205)。なお、距離の差dの求め方は、2次元座標系のベクトル演算と同様であるので、その説明についてはここでは省略する。
距離の差dの算出が済むと、情報処理装置10は、移動可否判定部23において、当該算出した距離の差dと上述した距離aとを比較する。比較の結果、距離の差dが距離aを越えていれば(S207でYES)、情報処理装置10は、CPU7において、追従移動フラグに「1(追従移動許可)」を設定する(S208)。このとき、情報処理装置10は、移動制御部24において、距離aを越した移動量分、オブジェクトを移動させるべく表示制御部4に指示する。これにより、表示制御部4は、当該指示に基づいてオブジェクトを移動して表示する(S209)。なお、オブジェクトの移動量は、前回の入力座標から現在の入力座標へのベクトルと、オブジェクトを中心とした半径(距離aに相当する大きさの半径)の円との交点(L、M)を求めれば、算出できる。これにより、新たなオブジェクトの中心は(x+X−L、y+Y−M)となる。その後、情報処理装置10は、CPU7において、前回の入力座標を現在の入力座標で更新するとともに、S209における移動量に対応して、オブジェクトの座標位置(x、y)を更新する(S212)。その後、情報処理装置10は、再度、S203の処理に戻り、上記同様の検出を継続して行なう。
一方、S207の判定において、距離の差dが距離aを越えていなければ(S207でNO)、情報処理装置10は、CPU7において、前回の入力座標を現在の入力座標で更新した後(S210)、再度、S203の処理に戻る。
また、S205の判定において、追従移動フラグが「1(追従移動許可)」であれば(S205でYES)、情報処理装置10は、移動制御部24において、前回と現在の入力座標の差に対応した移動量分、オブジェクトを移動させるべく表示制御部4に指示する。これにより、表示制御部4は、当該指示に基づいてオブジェクトを移動して表示する(S211)すなわち、指の移動量分だけオブジェクトが移動して表示される。この処理では、まず、前回の入力座標と現在の入力座標の差(X−X、Y−Y)を算出し、オブジェクトの新たな位置(x+X−X、y+Y−Y)を求める。当該求めた値によりオブジェクトを移動させる。
その後、情報処理装置10は、CPU7において、前回の入力座標を現在の入力座標で更新するとともに、S211における移動量に対応して、オブジェクトの座標位置(x、y)を更新する(S212)。その後、情報処理装置10は、再度、S203の処理に戻り、上記同様の検出を継続して行なう。
なお、上述した処理では、指の位置(入力座標)とオブジェクトの位置との差が距離aになるまで、オブジェクトの動きを禁止していたが、必ずしもこのように制御する必要はない。例えば、図6に示すように、前回の入力座標と現在の入力座標との差に基づいて、当該差を越えない範囲内(この場合、3分の1)でオブジェクトを移動させるようにしてもよい。なお、ここでは、当該差を越えない範囲内が、当該差の3分の1である場合を例に挙げているが、これに限られない。指の移動量よりも少なく且つある一定割合であればよく、例えば、2分の1あっても、4分の1であってもよい。
ここで、S302においては、ユーザの指によってオブジェクトが選択された最初の状態が示されており、この場合、X(オブジェクトの最初の中心位置)、Y(オブジェクトの中心位置)、Z(入力座標)が同じ位置にある。ここで、S303〜S305においては、指の位置(入力座標)とオブジェクトの位置との差が距離aを越えていないが、ユーザの指の位置(入力座標)に追従してオブジェクトも下方向に移動している。但し、オブジェクトは、指の移動量よりも小さい範囲で移動している。S306においては、入力座標とオブジェクトの位置との差Z−Yが、距離aに達している。これ以降の処理は、上述した図4同様の処理となる。
これにより、指の位置とオブジェクトの位置との距離を距離aに保ったままオブジェクトが移動するとともに、操作の初期段階(距離aを越えていない段階)であっても、オブジェクトは移動する。そのため、ユーザは、オブジェクトを移動させる操作の初期段階であっても、オブジェクトが移動対象として選択され移動されるため、オブジェクト移動処理が行なわれていることを認識できる。
以上説明したように実施形態1によれば、オブジェクトと指(入力座標)との距離がある距離(第1の値)を越えるまで、オブジェクトの移動を禁止したり、オブジェクトの移動量を指の移動量に対して小さくする。そのため、移動すべきオブジェクトの大きさが小さく指で隠れてしまうような場合であっても、オブジェクトを移動させる時の操作性が向上する。これにより、例えば、オブジェクトが指の下に隠れたまま移動されることがなくなるので、オブジェクトのサイズが小さくても、ユーザは、所望の位置に細かくオブジェクトを移動させることができる。
(実施形態2)
次に、実施形態2について説明する。実施形態1においては、移動対象となるオブジェクトが指に隠れる大きさを想定していたのに対して、実施形態2においては、比較的な大きなオブジェクトを移動させる場合について説明する。
図7には、実施形態2に係わるオブジェクトの一例が示される。ここでは、オブジェクトの大きさが横25mm、縦12mmであるものとする。すなわち、ユーザの指に隠れない程度の大きさを想定したオブジェクトである。図7に示すオブジェクトの大きさは、一般に、指の大きさよりも大きいので、図4のS103〜S106で行った制御は行わず、最初から指の位置に追従させて指が動いた分だけオブジェクトも移動させるようにする。
ここで、図2に示すように、実施形態2に係わるCPU7の構成には、サイズ判定部25が設けられる。サイズ判定部25では、オブジェクト選択部21により選択されたオブジェクトのサイズを判定する。この判定は、タッチパネル1への指の接触面の横幅に相当する大きさを示す第2の値と、縦幅に相当する大きさを示す第3の値とに基づいて行なわれる。
次に、図8を用いて、実施形態2に係わる情報処理装置10における処理の流れの一例について説明する。なお、実施形態1を説明した図5と同様の処理には、同じ符号を付しており、その説明については省略する。ここでは、処理が相違する点を重点的に説明する。相違点としては、S202において、初期処理を実施した後、S203において、入力座標の継続検出を判定するまでの間に、S401〜S403に示す処理を実施する点にある。
オブジェクトの選択及び初期処理が済むと(S201及びS202)、情報処理装置10は、サイズ判定部25において、S201で選択されたオブジェクトの大きさを判定する。判定の結果、オブジェクトの横幅が第2の値(例えば、10mm)を越えていれば(S401でYES)、情報処理装置10は、CPU7において、追従移動フラグに「1(追従移動許可)」を設定する(S403)。これにより、入力座標が変化した場合には、それに追従してオブジェクトが移動して表示される。
一方、オブジェクトの横幅が第2の値を越えていなければ(S401でNO)、情報処理装置10は、サイズ判定部25において、オブジェクトの縦幅が第3の値(例えば、10mm)を越えているか否かを判定する。当該第3の値を越えていれば(S402でYES)、情報処理装置10は、CPU7において、追従移動フラグに「1(追従移動許可)」を設定する(S403)。これにより、入力座標が変化した場合には、それに追従してオブジェクトが移動して表示される。なお、オブジェクトの縦幅が第3の値を越えていなければ(S402でNO)、実施形態1同様の処理を行なうことになる。
以上説明したように実施形態2によれば、オブジェクトの大きさを判定し、オブジェクトが指に隠れるか否かを判断する。そして、オブジェクトの大きさが指に隠れと予想される場合には、実施形態1同様の処理を行なうが、そうでない場合には、指の移動に追従してオブジェクトを移動させる。これにより、実施形態1よりも更に操作性が向上する。
なお、上述した説明では、指に隠れると予想されるオブジェクトの大きさとして、固定値(第2の値、第3の値)を用いてオブジェクトのサイズを判定していたが、これに限られない。例えば、指の大きさとオブジェクトの大きさとを比較して、第2の値及び第3の値を決めるようにしてもよい。ここで、指の大きさの検出方法について簡単に説明する。例えば、タッチパネルが抵抗値検出方式により構成されていれば、そのタッチパネルは、図9に示すように、XY方向に抵抗体がマトリクス状に一定間隔で配置されて構成されている。そして、オペレータがタッチパネル1上をタッチすると、そのタッチした位置に該当する抵抗体の交差点(例えば、X1とY2)をスキャンニングする。これにより、入力座標を見いだすことが可能になる。この場合、指の大きさより小さい間隔でマトリクスを構成すれば、疑似的に指の大きさを判定することができる。
以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。
例えば、オブジェクトの横幅及び縦幅が第2の値及び第3の値をいずれも越えていない場合に、オブジェクトの領域が入力座標に指示されたときには、図10(a)に示すように、オブジェクトの周りに円周の図形を表示するようにしてもよい。この円の中心はオブジェクトの中心であり、その半径は、実施形態1で説明した距離a、すなわち、指の動きに対してオブジェクトの動きが追従し始める距離とする。この円周の表示により、ユーザは、指がオブジェクトからどの程度離れたら指に追従してオブジェクトが移動するかが視認可能になる。なお、図10(c)に示すように、指とオブジェクトとが距離a分、離れた後は、円周の表示を続けても、また消去してもよい。
また、例えば、図11に示すように、表示画面上において、オブジェクトの移動可能領域41と、指の移動可能領域42とを表示するようにしてもよい。オブジェクトと指の移動可能領域が同じであると、図中の右上隅のオブジェクトを左下隅に移動する場合、オブジェクト及び指の距離を所定の距離aを維持して移動させると、一度のドラッグ操作では移動させることができない。
そこで、指の移動可能領域42(座標入力面)をオブジェクトの移動可能領域41に対して、上下左右に少なくとも距離aよりも大きくする。これは、図1の側面図に示すように、表示装置3に対しタッチパネル1を上下左右に距離a以上大きくすることにより実現してもよい。また、表示装置3とタッチパネル1とが同じ大きさのものを使用した場合には、表示装置内で枠等を表示しオブジェクトの移動可能領域を制限し、指の移動領域とオブジェクトの移動領域とを変えるようにしてもよい。すなわち、オブジェクトの移動可能領域41は、指の移動可能領域42に比べ上下左右に少なくとも距離a分、小さい(所定の距離小さい)のが望ましい。
また、上述した実施形態においては、指を用いて座標を入力する場合について説明したが、必ずしも指を用いて座標を入力しなくてもよい。例えば、指同様に所定の横幅及び縦幅を有する指示体(例えば、ペン等)を用いた座標の入力時であってもよい。例えば、ペンの先が太く、オブジェクトが隠れてしまう場合などには、上記同様の効果が得られる。
また、上述した実施形態においては、タッチパネルに接触することで座標を入力する場合について説明したが、座標を入力する方法は、これに限られない。例えば、マウス等のポインティングデバイスで座標を入力し、またドラッグ操作する方法で座標が入力されてもよい。例えば、マウスにより指定される座標を示すカーソルにオブジェクトが隠れてしまう場合であっても、上記同様の効果が得られる。
また、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施態様を採ることもできる。具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。例えば、コンピュータを内蔵した情報処理装置を用いて、上述した処理を行なうようにしてもよい。
更に、上述した実施形態においては、1つのCPUがプログラムを実行して処理を行なう場合について説明したが、本発明は、複数のプロセッサが分担して処理を行なう場合であっても実現されるものである。

Claims (9)

  1. 表示画面に表示されたオブジェクトを該表示画面上で移動させる情報処理装置であって、
    前記表示画面に対して指示された座標を入力する入力手段と、
    前記入力手段により入力された入力座標に対応する前記表示画面上の座標位置に表示されたオブジェクトを選択する選択手段と、
    前記入力座標に基づいて、前記選択手段により選択されたオブジェクトに対するドラッグ操作を検出する検出手段と、
    前記検出手段により前記ドラッグ操作が検出された場合、前記選択手段により選択された前記オブジェクトの座標位置と前記ドラッグ操作が検出された後の入力座標との距離が、所定の距離を越えているか判定する判定手段と、
    前記判定手段により前記距離が所定の距離を越えると判定された場合に、前記選択手段により選択されたオブジェクトを前記ドラッグ操作に追従させて移動させ、前記判定手段により当該距離が当該所定の距離を越えると判定されない場合には、当該オブジェクトの移動量が前記ドラッグ操作の移動量よりも小さくなるように当該オブジェクトを移動させるか、又は当該オブジェクトを移動させないように制御する移動制御手段と
    を有することを特徴とする情報処理装置。
  2. 前記移動制御手段は、
    前記判定手段により前記距離が前記所定の距離を越えていると判定された場合に、前記選択手段により選択されたオブジェクトの座標位置と前記入力座標との距離を前記所定の距離に維持した状態で前記ドラッグ操作に追従して前記選択手段により選択されたオブジェクトを移動させる
    ことを特徴とする請求項1記載の情報処理装置。
  3. 前記判定手段は、更に、前記入力手段による座標の入力に基づきユーザによるドラッグ操作が完了したか判定し、前記判定手段により当該完了が判定された場合、前記移動制御手段により移動されたオブジェクトを、前記表示画面における前記ドラッグ操作が完了したときに表示されていた位置に継続して表示させる
    ことを特徴とする請求項1記載の情報処理装置。
  4. 前記選択手段により選択されたオブジェクトのサイズが、所定の大きさを越えているか判定するサイズ判定手段
    を更に具備し、
    前記移動制御手段は、
    前記オブジェクトが前記所定の大きさを越えていると判定された場合、前記距離が前記所定の距離を越えていない場合であっても、前記ドラッグ操作に追従して前記選択手段により選択されたオブジェクトを移動させる
    ことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記選択手段により選択されたオブジェクトからの前記所定の距離を示すように前記表示画面に表示させる
    ことを特徴とする請求項4記載の情報処理装置。
  6. 前記表示画面において前記オブジェクトの移動可能な領域は、前記表示画面において前記入力手段により座標が入力される領域に比べ上下左右に少なくとも前記所定の距離小さい
    ことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記表示画面はタッチパネルが備える表示画面であり、前記入力手段は当該タッチパネル上において指示された座標を入力する
    ことを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 表示画面に表示されたオブジェクトを該表示画面上で移動させる情報処理方法であって、
    前記表示画面に対して指示された座標を入力する入力工程と、
    前記入力工程において入力された入力座標に対応する前記表示画面上の座標位置に表示されたオブジェクトを選択する選択工程と、
    前記入力座標に基づいて、前記選択工程において選択されたオブジェクトに対するドラッグ操作を検出する検出工程と、
    前記検出工程において前記ドラッグ操作が検出された場合、前記選択工程において選択された前記オブジェクトの座標位置と前記ドラッグ操作が検出された後の入力座標との距離が、所定の距離を越えているかを判定する判定工程と、
    前記判定工程により前記距離が所定の距離を越えると判定された場合に、前記選択工程により選択されたオブジェクトを前記ドラッグ操作に追従させて移動させ、前記判定工程により当該距離が当該所定の距離を越えると判定されない場合には、当該オブジェクトの移動量が前記ドラッグ操作の移動量よりも小さくなるように当該オブジェクトを移動させるか、又は当該オブジェクトを移動させないように制御する移動制御工程と
    を含ことを特徴とする情報処理方法。
  9. コンピュータに請求項記載の情報処理方法を実行させるためのプログラム。
JP2010004442A 2010-01-12 2010-01-12 情報処理装置、その情報処理方法及びプログラム Active JP5371798B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010004442A JP5371798B2 (ja) 2010-01-12 2010-01-12 情報処理装置、その情報処理方法及びプログラム
US12/980,673 US8510670B2 (en) 2010-01-12 2010-12-29 Information processing apparatus, information processing method thereof, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010004442A JP5371798B2 (ja) 2010-01-12 2010-01-12 情報処理装置、その情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2011145779A JP2011145779A (ja) 2011-07-28
JP2011145779A5 JP2011145779A5 (ja) 2013-02-28
JP5371798B2 true JP5371798B2 (ja) 2013-12-18

Family

ID=44258165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010004442A Active JP5371798B2 (ja) 2010-01-12 2010-01-12 情報処理装置、その情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US8510670B2 (ja)
JP (1) JP5371798B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10628026B2 (en) 2017-06-02 2020-04-21 Konica Minolta, Inc. Medical image display device, touch operation control program, and touch operation control method

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5494337B2 (ja) * 2010-07-30 2014-05-14 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US9372612B2 (en) * 2011-10-31 2016-06-21 Microsoft Technology Licensing, Llc Exposing inertial snap points
GB2498508A (en) * 2011-10-31 2013-07-24 Promethean Ltd Positional manipulation of an object in a GUI beyond that permitted by an associated application
US8698772B2 (en) * 2012-08-24 2014-04-15 Google Inc. Visual object manipulation
JP2014044605A (ja) * 2012-08-28 2014-03-13 Fujifilm Corp タッチ検知ディスプレイにおける入力制御装置および方法並びにプログラム
US20140108982A1 (en) * 2012-10-11 2014-04-17 Microsoft Corporation Object placement within interface
US9715282B2 (en) * 2013-03-29 2017-07-25 Microsoft Technology Licensing, Llc Closing, starting, and restarting applications
JP6303314B2 (ja) * 2013-07-31 2018-04-04 ブラザー工業株式会社 プログラムおよび情報処理装置
CN108475166B (zh) * 2015-12-22 2022-03-25 佳能株式会社 信息处理装置及其控制方法和程序
JP6859061B2 (ja) * 2015-12-22 2021-04-14 キヤノン株式会社 情報処理装置およびその制御方法およびプログラム
US10324599B2 (en) * 2016-03-30 2019-06-18 Microsoft Technology Licensing, Llc Assistive move handle for object interaction
JP6857154B2 (ja) * 2018-04-10 2021-04-14 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US20220137787A1 (en) * 2020-10-29 2022-05-05 XRSpace CO., LTD. Method and system for showing a cursor for user interaction on a display device

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3744116B2 (ja) * 1997-04-08 2006-02-08 松下電器産業株式会社 表示入力装置
JPH1124841A (ja) * 1997-07-07 1999-01-29 Canon Inc 情報処理装置、処理方法、及び記憶媒体
US7383517B2 (en) * 2004-04-21 2008-06-03 Microsoft Corporation System and method for acquiring a target with intelligent pointer movement
JP4045550B2 (ja) * 2004-06-28 2008-02-13 富士フイルム株式会社 画像表示制御装置及び画像表示制御プログラム
US7605804B2 (en) * 2005-04-29 2009-10-20 Microsoft Corporation System and method for fine cursor positioning using a low resolution imaging touch screen
JP4916145B2 (ja) * 2005-08-08 2012-04-11 キヤノン株式会社 情報処理装置及び情報処理方法並びにプログラム
US7770126B2 (en) * 2006-02-10 2010-08-03 Microsoft Corporation Assisting user interface element use
US20070198953A1 (en) * 2006-02-22 2007-08-23 Microsoft Corporation Target acquisition
US8139514B2 (en) * 2006-02-24 2012-03-20 Yahoo! Inc. Method and system for communicating with multiple users via a map over the internet
US7640518B2 (en) * 2006-06-14 2009-12-29 Mitsubishi Electric Research Laboratories, Inc. Method and system for switching between absolute and relative pointing with direct input devices
JP2008097175A (ja) * 2006-10-10 2008-04-24 Fuji Xerox Co Ltd 電子ファイル検索装置
US7856605B2 (en) * 2006-10-26 2010-12-21 Apple Inc. Method, system, and graphical user interface for positioning an insertion marker in a touch screen display
KR101372753B1 (ko) * 2007-06-26 2014-03-10 삼성전자주식회사 터치스크린을 구비한 단말기에서의 입력 방법 및 장치
US8009146B2 (en) * 2007-06-28 2011-08-30 Nokia Corporation Method, apparatus and computer program product for facilitating data entry via a touchscreen
JP4814191B2 (ja) * 2007-09-25 2011-11-16 シャープ株式会社 印刷システム
KR20090065919A (ko) * 2007-12-18 2009-06-23 삼성전자주식회사 메뉴 조작 시스템 및 방법
JP4605279B2 (ja) * 2008-09-12 2011-01-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US8284170B2 (en) * 2008-09-30 2012-10-09 Apple Inc. Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor
US20100088632A1 (en) * 2008-10-08 2010-04-08 Research In Motion Limited Method and handheld electronic device having dual mode touchscreen-based navigation
US8347238B2 (en) * 2009-12-16 2013-01-01 Apple Inc. Device, method, and graphical user interface for managing user interface content and user interface elements by dynamic snapping of user interface elements to alignment guides

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10628026B2 (en) 2017-06-02 2020-04-21 Konica Minolta, Inc. Medical image display device, touch operation control program, and touch operation control method

Also Published As

Publication number Publication date
JP2011145779A (ja) 2011-07-28
US20110169753A1 (en) 2011-07-14
US8510670B2 (en) 2013-08-13

Similar Documents

Publication Publication Date Title
JP5371798B2 (ja) 情報処理装置、その情報処理方法及びプログラム
JP5664147B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US8525854B2 (en) Display device and screen display method
US20130063384A1 (en) Electronic apparatus, display method, and program
JP2004078693A (ja) 視野移動操作方法
KR20100041006A (ko) 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
JP5472565B2 (ja) 情報処理装置、ポインタ指定方法、及びプログラム
US20140082559A1 (en) Control area for facilitating user input
JP2004192573A (ja) 情報処理装置及び情報表示方法
KR102205283B1 (ko) 적어도 하나의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법
JP4924164B2 (ja) タッチ式入力装置
US11693556B2 (en) Creating tables using gestures
US9304650B2 (en) Automatic cursor rotation
JP2011134273A (ja) 情報処理装置、情報処理方法およびプログラム
TWI354223B (ja)
JP2015138360A (ja) オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
JP5628991B2 (ja) 表示装置、表示方法、及び表示プログラム
JP6711632B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6863918B2 (ja) 制御プログラム、制御方法及び情報処理装置
JP6218451B2 (ja) プログラム実行装置
JP6197559B2 (ja) オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
WO2012120978A1 (ja) 表示方法、表示装置およびプログラム
WO2013044938A1 (en) Method and system for providing a three-dimensional graphical user interface for display on a handheld device
JP6622837B2 (ja) 入力表示装置および入力表示方法
US20180173362A1 (en) Display device, display method used in the same, and non-transitory computer readable recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130917

R151 Written notification of patent or utility model registration

Ref document number: 5371798

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151