JP2009276926A - 情報処理装置及び情報処理装置の表示情報編集方法 - Google Patents

情報処理装置及び情報処理装置の表示情報編集方法 Download PDF

Info

Publication number
JP2009276926A
JP2009276926A JP2008126304A JP2008126304A JP2009276926A JP 2009276926 A JP2009276926 A JP 2009276926A JP 2008126304 A JP2008126304 A JP 2008126304A JP 2008126304 A JP2008126304 A JP 2008126304A JP 2009276926 A JP2009276926 A JP 2009276926A
Authority
JP
Japan
Prior art keywords
display
contact
range
menu
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008126304A
Other languages
English (en)
Other versions
JP5203797B2 (ja
Inventor
Noriko Oi
紀子 大井
Keiichi Murakami
圭一 村上
Kentaro Endo
健太郎 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2008126304A priority Critical patent/JP5203797B2/ja
Priority to US12/463,693 priority patent/US8266529B2/en
Priority to EP09159997.7A priority patent/EP2120131B1/en
Priority to CN2009101391942A priority patent/CN101582008B/zh
Priority to KR1020090041764A priority patent/KR101150321B1/ko
Publication of JP2009276926A publication Critical patent/JP2009276926A/ja
Application granted granted Critical
Publication of JP5203797B2 publication Critical patent/JP5203797B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

【課題】複数の表示情報編集処理に対する操作性を向上することが可能な情報処理装置及び情報処理装置の表示情報編集方法を提供する。
【解決手段】本発明の一実施形態に係る情報処理装置1は、表示領域を有する表示手段10と、接触領域を有し、接触領域における接触操作の位置を示す位置信号を出力する操作手段20と、操作手段20からの2点の位置信号に基づいて、表示領域の対象範囲を決定する範囲決定手段31と、表示領域の対象範囲に対応した位置に処理メニューを表示手段に表示させる処理メニュー表示手段32と、操作手段20からの3点目の位置信号に基づいて、接触領域における接触操作の位置に対応する処理メニューの処理を決定する処理決定手段33と、表示領域の対象範囲に対して処理を実行する処理実行手段34とを備える。
【選択図】図2

Description

本発明は、情報処理装置、及び、この情報処理装置の表示情報編集方法に関するものである。
携帯電話端末やPDA(Personal Digital Assistants)などの情報処理装置は、キーボードやマウス、操作ボタンなどの操作部とディスプレイなどの表示部とを備え、操作部による情報入力に応じて文字情報を表示部に表示したり、操作部による操作に応じて予め記憶した文字情報や画像情報などを表示部に表示したりする文字/画像情報処理を行うことができる。
下記特許文献1には、この種の情報処理装置が記載されている。この情報処理装置は、例えば、マウスによって表示部上のカーソルが操作されることによって表示情報の範囲指定が行われ、その後、範囲指定内にカーソルがある状態でマウスがクリック操作されると表示情報のコピー編集を行う。この情報処理装置によれば、範囲指定操作と1回のクリック操作のみであり、これらの2つの操作の間にユーザはマウスを僅かに移動させるだけでよいので、表示情報のコピー編集の操作性を向上することができる。また、特許文献1には、情報処理装置の操作部としてタッチパネルが適用可能であることが記載されている。
特開2000−311040号公報
ところで、情報処理装置では、表示情報の編集処理として、コピー編集処理の他に、拡大/縮小編集処理や色変更編集処理など様々な編集処理を有することが要求されている。しかしながら、特許文献1に記載の情報処理装置では、コピー編集処理しか行うことができず、上記要求を満たすことができない。
そこで、本発明は、複数の表示情報編集処理に対する操作性を向上させることが可能な情報処理装置及び情報処理装置の表示情報編集方法を提供することを目的としている。
本発明の情報処理装置は、(a)情報を表示する表示手段と、(b)表示手段の表示領域に対応した接触領域を有し、接触領域に対する接触操作を検知して、接触領域における接触操作の位置を示す位置信号を出力する操作手段と、(c)操作手段からの2点の位置信号に基づいて、表示領域の対象範囲を決定する範囲決定手段と、(d)範囲決定手段によって決定された表示領域の対象範囲に対応した位置に、各種処理を選択するための処理メニューを表示手段に表示させる処理メニュー表示手段と、(e)操作手段からの3点目の位置信号に基づいて、接触領域における接触操作の位置に対応する処理メニューの処理を決定する処理決定手段と、(f)範囲決定手段によって決定された表示領域の対象範囲に対して、処理決定手段によって決定された処理を実行する処理実行手段とを備える。
本発明の情報処理装置の表示情報編集方法は、情報を表示する表示手段と、表示手段の表示領域に対応した接触領域を有する操作手段とを備える情報処理装置の表示情報編集方法において、(a)接触領域に対する接触操作を検知して、接触領域における接触操作の位置を示す位置信号を生成し、(b)2点の位置信号に基づいて、表示領域の対象範囲を決定し、(c)決定された表示領域の対象範囲に対応した位置に、各種処理を選択するための処理メニューを表示手段に表示させ、(d)3点目の位置信号に基づいて、接触領域における接触操作の位置に対応する処理メニューの処理を決定し、(e)決定された表示領域の対象範囲に対して、決定された処理を実行する。
この情報処理装置及び情報処理装置の表示情報編集方法によれば、処理メニュー表示手段が、範囲決定手段によって決定された表示領域の対象範囲に対応した位置に、各種処理を選択するための処理メニューを表示手段に表示させるので、ユーザは、2本の指による範囲指定操作と3本目の指による処理指定操作のみを行えばよい。したがって、複数の表示情報編集処理に対する操作性を向上させることができる。
上記した処理メニュー表示手段は、表示領域の対象範囲に対して予め設定された位置に、処理メニューを表示手段に表示させることが好ましい。
操作性は右手と左手とで異なる。また、範囲指定の2本の指及び処理指定の3本目の指の違いによっても操作性が異なる。例えば、左手の小指と人指し指とで範囲指定を行い、左手の親指で処理指定を行う場合、処理メニューは指定範囲の下部中央又はそれより右寄りに表示されることが好ましい。また、右手の小指と親指とで範囲指定を行い、右手の人指し指で処理指定を行う場合、処理メニューMは指定範囲の上部中央に表示されることが好ましい。これによれば、ユーザの好みにより、表示領域の対象範囲に対する処理メニューの表示位置を予め設定しておくことができるので、より操作性を向上することができる。また、ユーザは片手で操作を行うことが可能となり、より操作性を向上することができる。
上記した情報処理装置は、接触領域に対する接触操作の手が右手及び左手のいずれであるかを識別すると共に、接触操作の2本の指を識別する識別手段を更に備え、上記した処理メニュー表示手段は、識別手段によって識別された手及び2本の指に基づいて、当該手及び2本の指の組合せに対応付けされた表示領域の対象範囲に対する位置に、処理メニューを前記表示手段に表示させることが好ましい。
これによれば、識別手段によって範囲指定が右手及び左手のいずれで行われたのかを識別すると共に範囲指定の2本の指を識別し、例えば、範囲指定が左手の小指と人指し指とで行われた場合には、処理メニューを指定範囲の下部右側に表示することによって、右手の親指による操作性を向上することが可能である。また、例えば、範囲指定が右手の小指と親指とで行われた場合には、処理メニューを指定範囲の上部中央に表示することによって、右手の人指し指による操作性を向上することが可能である。したがって、接触操作の手指に依存することなく操作性を向上することができる。また、ユーザは片手で操作を行うことが可能となり、より操作性を向上することができる。
上記した範囲決定手段は、操作手段からの2点の位置信号によって示される前記接触操作の位置が変化した場合に、表示領域の対象範囲を再決定することが好ましい。
これによれば、範囲指定の2本の指をスライド移動することによって、指定範囲を調整することができ、より操作性を向上することができる。
上記した範囲決定手段は、操作手段から2点の位置信号を同時に受けた場合にのみ、表示領域の対象範囲を決定することが好ましい。
これによれば、例えば、1点接触による情報入力操作と2点同時接触による範囲指定操作とを区別することができるので、情報入力操作中であっても表示情報編集処理を行わせることができる。
本発明によれば、複数の表示情報編集処理に対する情報処理装置の操作性を向上することができる。
以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、各図面において同一又は相当の部分に対しては同一の符号を附すこととする。
[第1の実施形態]
図1は、本発明の第1の実施形態に係る情報処理装置の構成を示す斜視図であり、図2は、本発明の第1の実施形態に係る情報処理装置の構成を示すブロック図である。図1及び図2には、情報処理装置の一例として携帯電話端末が示されている。図1及び図2に示す情報処理装置1は、表示部10と、操作部20と、制御部30とを備えている。なお、図1において、制御部30は、表示部10を収容する筐体又は操作部20を収容する筐体の内部に収容されている。
表示部10は、例えば液晶ディスプレイである。表示部10には、行列方向に複数の画素が配列されており、これらの画素が配列された領域が表示領域10aである。表示部10は、制御部30から文字データや画像データなどの情報を受け、これらの情報を表示領域10aに表示する。例えば、表示部10は、制御部30からの情報に基づいて、これらの情報が示す行列座標(アドレス)に対応する画素を、これらの情報が示す色で発光させる。
操作部20は、例えば静電パッドであり、列電極層、行電極層、及び、これらの列電極層と行電極層との間に配置された誘電体層を有している。列電極層には、列方向に延びる複数の列電極が行方向に並置されており、行電極層には行方向に延びる複数の行電極が列方向に並置されている。これらの列電極及び行電極が配列された領域が接触領域20aである。操作部20は、ユーザによる接触領域20aに対する接触操作を検知して、接触領域20aにおける接触操作の位置を示す位置信号を制御部30へ出力する。
具体的には、操作部20では、列電極と行電極とが交差する部分がそれぞれコンデンサを構成しており、コンデンサの静電容量がそれぞれユーザの接触操作により変化することによって、そのコンデンサを構成する列電極と行電極との電位が変化する。このように、操作部20は、コンデンサの静電容量の変化、すなわち列電極と行電極との電位の変化を検知して、ユーザによる接触領域20aに対する接触操作を検知する。そして、操作部20は、電位が変化した列電極と行電極とが交差する部分の行列座標を位置信号として制御部30へ出力する。
操作部20の接触領域20aにおける列電極と行電極との交差位置は、表示部10の表示領域10aにおける画素位置と対応付けされている。なお、列電極と行電極との交差位置と画素位置とは、必ずしも1対1に対応付けされていなくともよい。
制御部30は、各種プログラムや各種情報(送受信メール履歴文字情報、画像情報、メールアドレス情報など)を記憶するROM(Read Only Memory)と、ROMに記憶された各種プログラムを実行するCPU(Central Processing Unit)と、情報を一時的に保存したり各種プログラムを実行する作業領域となったりするRAM(Random Access Memory)とを有している。このような構成により、制御部30は、範囲決定部31、処理メニュー表示部32、処理決定部33及び処理実行部34として機能する。
以下、図3〜図5を用いて、範囲決定部31、処理メニュー表示部32、処理決定部33及び処理実行部34について説明する。図3〜図5は、範囲決定部31による範囲決定処理及び範囲調整処理、処理メニュー表示部32による処理メニュー表示処理、処理決定部33による編集処理決定処理、並びに処理実行部34による編集処理実行処理の処理工程を順次に示す図である。
範囲決定部31は、操作部20からの2点の位置信号に基づいて、表示領域10aの対象範囲A1を決定する。本実施形態では、範囲決定部31は、接触領域20aにおける接触操作の2つの位置P2a,P2bにそれぞれ対応する表示領域10aの2つの位置P1a,P1bをそれぞれ始点及び終点とする表示領域10aの対象範囲A1を決定する。
例えば、ROMには、操作部20の接触領域20aにおける列電極と行電極との交差位置と表示部10の表示領域10aにおける画素とが対応付けされてテーブルとして予め記憶されている。範囲決定部31は、このテーブルに基づいて、接触領域20aにおける接触操作の2つの位置P2a,P2bにそれぞれ対応する表示領域10aの2つの位置P1a,P1bを求める。そして、範囲決定部31は、求めた表示領域10aの2点の位置P1a,P1bをそれぞれ始点及び終点とする範囲を表示領域10aの対象範囲A1として決定する。
また、範囲決定部31は、決定した対象範囲A1の調整を行う。例えば、範囲決定部31は、図4に示すように、対象範囲決定後に表示部10に対象範囲A1を示す枠線Bを表示させ、操作部20は、この枠線Bに対応する接触領域20aの部分への接触操作及びスライド動作を検知する。範囲決定部31は、スライド動作に対応した位置信号を受けて、対象範囲を求め直す。そして、範囲決定部31は、例えば、後述する処理指定操作が行われた場合に求め直した範囲を対象範囲A2として再決定する。具体的には、範囲決定部31は、後述するように、表示領域10aにおける処理メニューMの処理N1の位置に対応する接触領域20aの位置N2が選択させた場合に対象範囲A2を確定する。
処理メニュー表示部32は、各種処理を選択するための処理メニューMを表示部10に表示させる。例えば、ROMには、表示領域10aの対象範囲A1に対応した処理メニューMの表示位置が予め記憶されている。処理メニューMの表示位置は、例えば初期設定時などにユーザによって設定可能である。本実施形態では、左手の小指と人指し指とで範囲指定を行い、親指で処理指定を行うために、処理メニューMの表示位置は対象範囲A1の下部右側に設定されている。
処理決定部33は、操作部20からの3点目の位置信号に基づいて、接触領域20aにおける接触操作の位置P2cに対応する処理メニューM中の処理N1を決定する。
処理実行部34は、範囲決定部31によって決定された表示領域10aの対象範囲A2に対して、処理決定部33によって決定された処理N1を実行する。本実施形態では、処理実行部34は、図5に示すように、対象範囲A2内に表示された文字の拡大編集処理を行う。
次に、第1の実施形態の情報処理装置1の動作を説明すると共に、本発明の第1の実施形態に係る情報処理装置の表示情報編集方法を説明する。図6は、本発明の第1の実施形態に係る情報処理装置の表示情報編集方法を示すフローチャートである。
まず、ユーザによって、表示領域10aの対象範囲に対する処理メニューMの表示位置が設定される。本実施形態では、情報処理装置1は、ユーザによる入力指令に応じて、処理メニューMの表示位置を対象範囲の下部右側に設定し、設定した処理メニューMの表示位置を例えば座標データとしてROMに記憶する(ステップS01)。
その後、図3に示すように、ユーザが小指と人指し指とで2点P2a,P2bに触れると、操作部20が、接触領域20aに指が接触したことによる列電極と行電極との電位の変化を検知して、電位が変化した列電極と行電極との交差部分の行列座標を位置信号として制御部30へ出力する(ステップS02)。
次に、範囲決定部31は、ROMに予め記憶されたテーブルに基づいて、接触領域20aにおける接触操作の2つの位置P2a,P2bにそれぞれ対応する表示領域10aの2つの位置P1a,P1bを求める(ステップS03)。
次に、範囲決定部31は、求めた表示領域10aの2つの位置P1a,P1bをそれぞれ始点及び終点とする表示領域10aの対象範囲A1を決定する(ステップS04)。
次に、図4に示すように、処理メニュー表示部32は、ROMに予め記憶された表示領域10aの対象範囲A1に対応した処理メニューMの表示位置に処理メニューMを表示させる。本実施形態では、処理メニュー表示部32は、対象範囲A1の下部右側に処理メニューMを表示させる(ステップS03)。
次に、範囲決定部31は、表示部10に、表示領域10aの対象範囲A1を枠線Bで表示させる。ユーザが、表示部10の表示領域10aの枠線Bに対応する操作部20の接触領域20aの部分に触れると共に、その指をスライドすると、操作部20が指のスライド動作を検知する。範囲決定部31は、スライド動作に対応した位置信号を受けて、表示領域10aの対象範囲を求め直す。このようにして、範囲決定部31は、表示領域10aの対象範囲A1の調整を行う(ステップS06)。
その後、範囲決定部31は、操作部20からの3点目の位置信号を受けた場合に、調整後の表示領域10aの範囲を対象範囲A2として再決定する(ステップS07)。
また、処理決定部33は、操作部20からの3点目の位置信号に基づいて、接触領域20aにおける接触操作の位置P2cに対応する処理メニューM中の処理「大/小」N1を決定する(ステップS08)。
次に、処理実行部34が、範囲決定部31によって決定された表示領域10aの対象範囲A2に対して、処理決定部33によって決定された処理N1を実行する。本実施形態では、処理実行部34は、図5に示すように、対象範囲A2内に表示された文字の拡大編集処理を行う(ステップS09)。
このように、第1の実施形態の情報処理装置1及び第1の実施形態の情報処理装置の表示情報編集方法によれば、処理メニュー表示部32が、範囲決定部31によって決定された表示領域10aの対象範囲A1に対応した位置に、各種処理を選択するための処理メニューMを表示部10に表示させるので、ユーザは、2本の指による範囲指定操作と3本目の指による処理指定操作のみを行えばよい。したがって、複数の表示情報編集処理に対する操作性を向上させることができる。
ところで、操作性は右手と左手とで異なる。また、範囲指定の2本の指及び処理指定の3本目の指の違いによっても操作性が異なる。本実施形態のように、左手の小指と人指し指とで範囲指定を行い、左手の親指で処理指定を行う場合、処理メニューは指定範囲の下部中央又はそれより右寄りに表示されることが好ましい。
第1の実施形態の情報処理装置1及び第1の実施形態の情報処理装置の表示情報編集方法によれば、ユーザの好みにより、処理メニューMの表示位置を予め設定しておくことができるので、より操作性を向上することができる。また、ユーザは片手で操作を行うことが可能となり、より操作性を向上することができる。
また、第1の実施形態の情報処理装置1及び第1の実施形態の情報処理装置の表示情報編集方法によれば、範囲決定部31によって、操作部20からの2点の位置信号によって示される接触操作の位置が変化した場合に、表示領域10aの対象範囲A2を再決定することができるので、範囲指定の2本の指をスライド移動することによって、指定範囲を調整することができ、より操作性を向上することができる。
[第2の実施形態]
図7は、本発明の第2の実施形態に係る情報処理装置の構成を示すブロック図である。図7に示す情報処理装置1Aは、情報処理装置1において撮像部40を更に備え、制御部30に代えて制御部30Aを備えている構成で第1の実施形態と異なっている。情報処理装置1Aの他の構成は、情報処理装置1と同一である。
撮像部40は、例えばカメラであり、操作部20に対して接触操作を行うユーザの手指を撮像し、撮像した画像信号を制御部30Aへ出力する。
制御部30Aは、制御部30において手指識別部35を更に有しており、範囲決定部31及び処理メニュー表示部32に代えて範囲決定部31A、処理メニュー表示部32Aを有している構成で第1の実施形態と異なっている。制御部30Aの他の構成は、制御部30と同一である。
以下、図8〜図10を用いて、手指識別部35、範囲決定部31A及び処理メニュー表示部32Aについて説明する。図8〜図10は、範囲決定部31Aによる範囲決定処理及び範囲調整処理、処理メニュー表示部32Aによる処理メニュー表示処理、上記した処理決定部33による編集処理決定処理、並びに上記した処理実行部34による編集処理実行処理の処理工程を順次に示す図である。
手指識別部35は、接触領域20aに対する接触操作の手及び2本の指を識別する。例えば、手指識別部35は、撮像部40からの画像信号を画像処理することによって、接触操作の手が右手及び左手のいずれであるかを識別すると共に、接触操作の2本の指が親指、人指し指、中指、薬指、小指のいずれであるかを識別する。
範囲決定部31Aは、図8に示すように、操作部20からの2点の位置信号に基づいて、接触操作の2つの位置P2a,P2bをそれぞれ始点及び終点とする接触領域20aの接触操作範囲Dを決定し、その後、この接触領域20aの接触操作範囲Dに対応する表示領域10aの対象範囲A1を決定する点で範囲決定部31と異なっている。
例えば、ROMには、操作部20の接触領域20aにおいて考えられる複数パターンの接触操作範囲Dが予め記憶されており、それぞれの接触操作範囲Dに対応付けされた表示部10の表示領域10aにおける対象範囲A1が複数パターン予め記憶されている。すなわち、ROMには、複数パターンの接触操作範囲Dと複数パターンの対象範囲A1とが対応付けされてテーブルとして予め記憶されている。範囲決定部31Aは、このテーブルに基づいて、接触操作範囲Dに対応する対象範囲A1を決定する。
また、図9に示すように、範囲決定部31Aは、範囲決定部31と同様に、決定した対象範囲A1の調整を行い、調整後の対象範囲A2を再決定する。
処理メニュー表示部32Aは、手指識別部35によって識別された手及び2本の指に基づいて、手及び2本の指の組合せに対応付けされた対象範囲A1に対する位置に、処理メニューMを表示させる。例えば、ROMには、考えられる複数パターンの手及び2本の指の組合せが予め記憶されており、それぞれの手及び2本の指の組合せに対応付けされた処理メニューMの表示位置が複数パターン記憶されている。すなわち、ROMには、複数パターンの手及び2本の指の組合せと複数パターンの処理メニューMの表示位置とが対応付けされてテーブルとして記憶されている。処理メニュー表示部32Aは、このテーブルに基づいて、識別された手及び2本の指の組合せに対応する表示位置に処理メニューMを表示させる。
なお、処理決定部33及び処理実行部34は、第1の実施形態と同様であるので説明を省略する。
次に、第2の実施形態の情報処理装置1Aの動作を説明すると共に、本発明の第2の実施形態に係る情報処理装置の表示制御方法を説明する。図11は、本発明の第2の実施形態に係る情報処理装置の表示制御方法を示すフローチャートである。
まず、図8に示すように、ユーザが右手の親指と小指とで2点P2a,P2bに触れると、上記したステップS02の処理が行われる。また、撮像部40がユーザの手指を撮像して画像信号を制御部30Aへ出力する。そして、手指識別部35が、撮像部40からの画像信号を画像処理することによって、接触操作の手及び2本の指を識別する(ステップS10)。
次に、範囲決定部31Aは、操作部20からの2点の位置信号に基づいて、接触操作の2つの位置P2a,P2bをそれぞれ始点及び終点とする接触領域20aの接触操作範囲Dを決定する(ステップS03A)。
次に、範囲決定部31Aは、ROMに予め記憶されたテーブルに基づいて、接触領域20aの接触操作範囲Dに対応する表示領域10aの対象範囲A1を決定する(ステップS04A)。
次に、図9に示すように、処理メニュー表示部32Aは、手指識別部35によって識別された手及び2本の指の組合せに対応付けされた対象範囲A1に対する位置に、処理メニューMを表示させる。本実施形態では、処理メニュー表示部32Aは、右手の親指と小指との組合せに対応した対象範囲A1の上部中央に処理メニューMを表示させる(ステップS05A)。その後、上記したステップS06〜S09の処理が行われ、図10に示すように、表示画像の拡大編集処理が行われる。
この第2の実施形態の情報処理装置1A及び第2の実施形態の情報処理装置の表示制御方法でも、第1の実施形態の情報処理装置1及び第1の実施形態の情報処理装置の表示制御方法と同様の利点を得ることができる。
また、第2の実施形態の情報処理装置1A及び第2の実施形態の情報処理装置の表示制御方法よれば、手指識別部35によって範囲指定の手及び2本の指を識別し、例えば、範囲指定が右手の小指と親指とで行われた場合には、処理メニューを指定範囲の上部中央に表示することによって、右手の人指し指による操作性を向上することが可能である。したがって、接触操作の手指に依存することなく操作性を向上することができる。また、ユーザは片手で操作を行うことが可能となり、より操作性を向上することができる。
なお、本発明は上記した本実施形態に限定されることなく種々の変形が可能である。例えば、本実施形態では、情報処理装置として携帯電話端末を例示したが、情報処理装置には、PDAなどの情報処理可能な装置が広く適用される。
また、本実施形態では、接触操作の手及び2本の指を識別する識別手法として、カメラを用いた画像処理を例示したが、識別手法は本実施形態に限られるものではない。例えば、感圧センサや触覚センサなどを用いて接触面圧から識別する識別手法が適用されてもよい。
図12に、感圧センサとして圧力センサを用いた情報処理装置のブロック図を示し、図13に、図12に示す情報処理装置の構成を一部分解して示す斜視図を示す。図12及び図13に示す情報処理装置1Bは、情報処理装置1Aにおいて撮像部40及び制御部30Aに代えて感圧センサ40B、制御部30Bを備えている構成で情報処理装置1Aと異なっている。例えば、感圧センサ40Bはシート状の圧力センサであり、図13に示すように、操作部20、すなわち静電パッドの下に配置される。圧力センサは、静電パッドを介して、接触操作を行うユーザの手指の圧力強度を検知し、検知した圧力強度を制御部30Bへ出力する。
制御部30Bは、制御部30Aにおいて手指識別部35に代えて手指識別部35Bを備えている点で制御部30Aと異なっている。手指識別部35Bは、感圧センサ40Bからの圧力強度や、操作部20における静電センサからの接触面積によって、接触操作の手が右手及び左手のいずれであるかを識別すると共に、接触操作の2本の指が親指、人指し指、中指、薬指、小指のいずれであるかを識別する。
一般に、接触操作の手指の力の強さや接触面積は、左右における利き手の方が大きく、親指、人指し指、中指、薬指、小指の順で大きい。したがって、接触操作の手指の圧力強度及び接触面積とから、接触操作の手指を識別することができる。例えば、ROMには、図14に示すように、左右の手指の圧力強度及び接触面積と手指とが対応付けされたテーブルが予め記憶されている。手指識別部35Bは、このテーブルに基づいて、感圧センサ40Bからの圧力強度及び操作部20における静電センサからの接触面積に対応する手指を接触操作の手指として識別する。
このテーブルは、例えば、以下のように予め登録される。まず、右手及び左手の指を順次に1本ずつ操作部20に接触させる。次に、右手の指5本を同時に、及び、左手の指5本を同時に、それぞれ操作部20に接触させる。次に、右手の指5本及び手のひら全体を同時に、及び、左手の指5本及び手のひら全体を同時に、それぞれ操作部20に接触させる。例えば、各接触操作において、軽く触れた場合と、強く押し付けた場合との2通り行い、軽く触れた場合における各接触操作における圧力強度及び接触面積の平均値を最小値としてそれぞれの手指に対応付けてテーブルに登録すると共に、強く押し付けた場合における各接触操作における圧力強度及び接触面積の平均値を最大値としてそれぞれの手指に対応付けてテーブルに登録する。また、これらの最小値と最大値とから平均値を求めると共に、誤差補正値を求め、これらの平均値と誤差補正値とをそれぞれの手指に対応付けてテーブルに登録する。
なお、特定のユーザが特定の手指で接触操作を行う場合には、テーブルは、例えば、以下のように予め登録されてもよい。まず、登録したい手指のみを順次に1本ずつ操作部20に接触させる。次に、特定のユーザがよく行う接触操作の方法にて、登録したい手指を同時に操作部20に接触させる。例えば、各接触操作において、軽く触れた場合と、強く押し付けた場合との2通り行い、軽く触れた場合における各接触操作における圧力強度及び接触面積の平均値を最小値としてそれぞれの手指に対応付けてテーブルに登録すると共に、強く押し付けた場合における各接触操作における圧力強度及び接触面積の平均値を最大値としてそれぞれの手指に対応付けてテーブルに登録する。また、これらの最小値と最大値とから平均値を求めると共に、誤差補正値を求め、これらの平均値と誤差補正値とをそれぞれの手指に対応付けてテーブルに登録する。
図14によれば、例えば、接触面積が600mm以上であれば、手指識別部35Bは接触操作の手指を手のひらと識別し、接触面積が150mm以下であれば、手指識別部35Bは接触操作の手指を小指と識別する。そして、それ以外の手指については、手指識別部35Bは接触面積の平均値と圧力強度の平均値とから接触操作の手指を識別する。
また、左右で圧力強度の平均値が同じ場合には、手指識別部35Bは、指の構造を考慮して、操作部20からの接触操作の位置に基づいて、接触操作の位置関係から左右を識別してもよい。例えば、図15(a)に示すように、圧力強度55mmHgの接触操作の位置の左上に圧力強度48mmHgの接触操作がある場合、その位置関係から左手の親指と人指し指であると認識し、図15(b)に示すように、圧力強度55mmHgの接触操作の位置の右上に圧力強度48mmHgの接触操作がある場合、その位置関係から右手の人指し指と中指であると認識してもよい。また、手指識別部35Bは、信頼性を高めるために、更に接触面積の平均値に基づいて左右を識別してもよい。
なお、図16に示すように、静電パッド及び圧力センサを押している指の中心に近いほど、押す力が強くなるので、押す力が最も大きい位置を中心として、押す力がゼロ以上の範囲をプロットすることにより、接触面積及び圧力強度の分布を把握することができる。
その後、範囲決定部31Aは、操作部20からの2点の位置信号に基づいて、接触操作の2つの位置P2a,P2bをそれぞれ始点及び終点とする接触領域20aの接触操作範囲Dを決定し、その後、この接触領域20aの接触操作範囲Dに対応する表示領域10aの対象範囲A1を決定する。次いで、処理メニュー表示部32Aは、手指識別部35によって識別された手及び2本の指に基づいて、手及び2本の指の組合せに対応付けされた対象範囲A1に対する位置に、処理メニューMを表示させる。
本実施形態及び本変形例では、処理メニュー表示部32Aは、予めROMに記憶された複数パターンの手指の組合せと複数パターンの処理メニューMの表示位置とが対応付けされたテーブルに基づいて、識別された手指の組合せに対応する表示位置に処理メニューMを表示させたが、処理メニュー表示部32Aは、手指に優先度を定め、この優先度に基づいて処理メニュー選択を行う最適な手指を予測して、処理メニューMを表示させてもよい。例えば、処理メニュー表示部32Aは、親指、人指し指、中指、薬指、小指の順に定められた優先度に基づいて、接触操作の手指以外であって、接触領域20aの接触操作範囲Dと重ならない位置に存在する手指において、最も優先度の高い手指を処理メニュー選択を行う最適な手指と予測し、予測された手指の位置に対応する表示領域10aの位置に処理メニューMを表示させてもよい。
例えば、図17に示すように、接触操作の2つの位置P2a,P2bの手指がそれぞれ右手の親指、中指である場合、接触操作の2つの位置P2a,P2bによって定まる接触領域20aの接触操作範囲Dに人指し指が重なるので、処理メニュー表示部32Aは、処理メニュー選択を行う最適な手指は薬指と予測し、この薬指の位置に対応する表示領域10aの位置に処理メニューMを表示させる。また、例えば、図18に示すように、接触操作の3つの位置P2a,P2b,P2cの手指がそれぞれ右手の親指、人指し指、手のひらである場合、接触操作の3つの位置P2a,P2b,P2cによって定まる接触領域20aの接触操作範囲Dに重なる手指がないので、処理メニュー表示部32Aは、処理メニュー選択を行う最適な手指は中指と予測し、この中指の位置に対応する表示領域10aの位置に処理メニューMを表示させる。
ここで、接触操作の手指が両手である場合には、処理メニュー表示部32Aは、更に、利き手、非利き手の順の優先度に基づいて、処理メニュー選択を行う最適な手指を予測してもよい。例えば、図19に示すように、接触操作の2つの位置P2a,P2bの手指がそれぞれ左手の親指、右手の親指である場合、処理メニュー表示部32Aは、処理メニュー選択を行う最適な手指は利き手(例えば右手)の人差し指と予測し、この人差し指の位置に対応する表示領域10aの位置に処理メニューMを表示させる。このとき、処理メニュー表示部32Aは、接触領域20aの接触操作範囲Dに重ならない位置に対応する表示領域10aの位置に処理メニューMを表示させる。
なお、予測された最適な手指、すなわち接触操作の手指以外で利き手側の最も優先度の高い手指が接触操作範囲Dに重なる場合には、接触操作の手指以外で非利き手側の最も優先度の高い手指を、処理メニュー選択を行う最適な手指と予測してもよい。例えば、図20に示すように、接触操作の2つの位置P2a,P2bの手指がそれぞれ左手の人差し指、右手の人指し指であり、利き手(例えば右手)の親指が接触操作範囲Dに重なる場合、非利き手(例えば左手)の親指を、処理メニュー選択を行う最適な手指と予測してもよい。
また、処理メニュー表示部32Aは、接触操作の手指の位置関係、及び、接触領域20aの接触操作範囲Dの位置に基づいて処理メニュー選択を行う最適な手指を予測し、処理メニューMを表示させてもよい。例えば、図21に示すように、接触操作の2つの位置P2a,P2bの手指がそれぞれ右手の中指、親指であり、位置P2a,P2bがそれぞれ左側中央付近、右側中央付近である場合、処理メニュー表示部32Aは、処理メニュー選択を行う最適な手指は位置P2a(中指)と位置P2b(親指)との間に位置する人指し指と予測し、この人指し指の位置に対応する表示領域10aの位置に処理メニューMを表示させる。このとき、処理メニュー表示部32Aは、接触領域20aの接触操作範囲Dに重ならない位置に対応する表示領域10aの位置に処理メニューMを表示させる。また、例えば、図22に示すように、接触操作の2つの位置P2a,P2bの手指がそれぞれ右手の人差し指、薬指であり、位置P2a,P2bがそれぞれ左下、右下である場合、処理メニュー表示部32Aは、処理メニュー選択を行う最適な手指は位置P2a(人差し指)と位置P2b(薬指)との間に位置する中指と予測し、この中指の位置に対応する表示領域10aの位置に処理メニューMを表示させる。このとき、処理メニュー表示部32Aは、接触領域20aの接触操作範囲Dに重ならない位置に対応する表示領域10aの位置に処理メニューMを表示させる。
ここで、接触操作の手指が3本以上である場合、例えば、図23に示すように、接触操作の3つの位置P2a,P2b,P2cの手指がそれぞれ右手の親指、人差し指、薬指であり、位置P2a,P2b,P2cがそれぞれ左中央、左上、右上である場合、処理メニュー表示部32Aは、処理メニュー選択を行う最適な手指は位置P2b(人差し指)と位置P2c(薬指)との間に位置する中指と予測し、この中指の位置に対応する表示領域10aの位置に処理メニューMを表示させる。このとき、処理メニュー表示部32Aは、接触領域20aの接触操作範囲Dに重ならない位置に対応する表示領域10aの位置に処理メニューMを表示させる。
このように、本変形例では、操作部20としての静電センサでは接触面積を検知し、感圧センサ40Bとしての圧力センサでは圧力強度を検知することによって、処理メニュー選択を行う最適な手指を予測し、処理メニューMを最適な位置に表示することができるので、ユーザの操作性をより向上させることができる。
本変形例では、接触操作の手及び2本の指を識別する識別手法としては、指紋センサなどを用いて識別する識別手法が適用されてもよい。図24に、指紋センサを用いた情報処理装置のブロック図を示し、図25に、図24に示す情報処理装置の構成を示す斜視図を示す。図24及び図25に示すように、情報処理装置1Cは、情報処理装置1Bにおいて感圧センサ40B及び制御部30Bに代えて指紋センサ40C、制御部30Cを備えている。例えば、指紋センサ40Cはシート状の指紋センサであり、図25に示すように、操作部20、すなわち静電パッドの下に配置される。指紋センサは、静電パッドを介して、接触操作を行うユーザの手指の指紋を検知し、検知した指紋を制御部30Cへ出力する。
制御部30Cは、制御部30Bにおいて手指識別部35Bに代えて手指識別部35Cを備えている点で制御部30Bと異なっている。手指識別部35Cは、指紋センサ40Cからの指紋によって、接触操作の手が右手及び左手のいずれであるかを識別すると共に、接触操作の2本の指が親指、人指し指、中指、薬指、小指のいずれであるかを識別する。例えば、ROMには、左右の手指の指紋と手指とが対応付けされたテーブルが予め記憶されている。手指識別部35Cは、このテーブルに基づいて、指紋センサ40Cからの指紋に対応する手指を接触操作の手指として識別する。このテーブルは、例えば、指紋センサ41を用いて予め測定されて記憶されればよい。
また、本実施形態では、処理メニューの表示サイズ及び位置を固定としたが、例えば、ユーザの手指等のドラック操作によって、処理メニューの表示サイズを変更可能にしてもよいし、処理メニューを移動可能にしてもよい。
また、本実施形態では、範囲決定部31,31Aは、2点の接触操作のタイミングに依存することなく、対象範囲を決定する範囲決定処理を行ったが、範囲決定部31,31Aは、操作部20から2点の位置信号を同時に受けた場合にのみ、すなわち、2点の接触操作が同時に行なわれた場合にのみ、対象範囲を決定するようにしてもよい。これによれば、例えば、1点接触による情報入力操作と2点同時接触による範囲指定操作とを区別することができるので、情報入力操作中であっても表示情報編集処理を行わせることができる。
また、本実施形態では、操作部20として静電パッドを例示したが、操作部20には、タッチパネルや光センサなどの接触操作を検知可能な装置が広く適用される。
本発明の第1の実施形態に係る情報処理装置の構成を示す斜視図である。 本発明の第1の実施形態に係る情報処理装置の構成を示すブロック図である。 図2の範囲決定部による範囲決定処理を示す図である。 図2の処理メニュー表示部による処理メニュー表示処理と、範囲決定部による範囲調整処理と、処理決定部による編集処理決定処理とを示す図である。 図2の処理実行部による編集処理実行処理を示す図である。 本発明の第1の実施形態に係る情報処理装置の表示情報編集方法を示すフローチャートである。 本発明の第2の実施形態に係る情報処理装置の構成を示すブロック図である。 図2の範囲決定部による範囲決定処理を示す図である。 図2の処理メニュー表示部による処理メニュー表示処理と、範囲決定部による範囲調整処理と、処理決定部による編集処理決定処理とを示す図である。 図2の処理実行部による編集処理実行処理を示す図である。 本発明の第2の実施形態に係る情報処理装置の表示情報編集方法を示すフローチャートである。 本発明の変形例に係る情報処理装置の構成を示すブロック図である。 本発明の変形例に係る情報処理装置の構成を一部分解して示す斜視図である。 左右の手指の圧力強度及び接触面積と手指とが対応付けされたテーブルを示す図である。 接触操作の位置関係を示す図である。 接触操作の接触面積及び圧力強度の分布を示す図である。 本発明の変形例における手指識別処理及び処理メニュー表示処理の一例を示す図である。 本発明の変形例における手指識別処理及び処理メニュー表示処理の一例を示す図である。 本発明の変形例における手指識別処理及び処理メニュー表示処理の一例を示す図である。 本発明の変形例における手指識別処理及び処理メニュー表示処理の一例を示す図である。 本発明の変形例における手指識別処理及び処理メニュー表示処理の一例を示す図である。 本発明の変形例における手指識別処理及び処理メニュー表示処理の一例を示す図である。 本発明の変形例における手指識別処理及び処理メニュー表示処理の一例を示す図である。 本発明の変形例に係る情報処理装置の構成を示すブロック図である。 本発明の変形例に係る情報処理装置の構成を一部分解して示す斜視図である。
符号の説明
1…情報処理装置、10…表示部(表示手段)、10a…表示領域、20…操作部(操作手段)、20a…接触領域、30,30A…制御部、31,31A…範囲決定部(範囲決定手段)、32,32A…処理メニュー表示部(処理メニュー表示手段)、33…処理決定部(処理決定手段)、34…処理実行部(処理実行手段)、35…手指識別部(識別手段)、40…撮像部(識別手段)。

Claims (6)

  1. 情報を表示する表示手段と、
    前記表示手段の表示領域に対応した接触領域を有し、前記接触領域に対する接触操作を検知して、前記接触領域における前記接触操作の位置を示す位置信号を出力する操作手段と、
    前記操作手段からの2点の前記位置信号に基づいて、前記表示領域の対象範囲を決定する範囲決定手段と、
    前記範囲決定手段によって決定された前記表示領域の対象範囲に対応した位置に、各種処理を選択するための処理メニューを前記表示手段に表示させる処理メニュー表示手段と、
    前記操作手段からの3点目の前記位置信号に基づいて、前記接触領域における前記接触操作の位置に対応する前記処理メニューの処理を決定する処理決定手段と、
    前記範囲決定手段によって決定された前記表示領域の対象範囲に対して、前記処理決定手段によって決定された処理を実行する処理実行手段と、
    を備える、情報処理装置。
  2. 前記処理メニュー表示手段は、前記表示領域の対象範囲に対して予め設定された位置に、前記処理メニューを前記表示手段に表示させる、
    請求項1に記載の情報処理装置。
  3. 前記接触領域に対する前記接触操作の手が右手及び左手のいずれであるかを識別すると共に、前記接触操作の2本の指を識別する識別手段を更に備え、
    前記処理メニュー表示手段は、前記識別手段によって識別された手及び2本の指に基づいて、当該手及び2本の指の組合せに対応付けされた前記表示領域の対象範囲に対する位置に、前記処理メニューを前記表示手段に表示させる、
    請求項1に記載の情報処理装置。
  4. 前記範囲決定手段は、前記操作手段からの2点の前記位置信号によって示される前記接触操作の位置が変化した場合に、前記表示領域の対象範囲を再決定する、
    請求項1〜3の何れか1項に記載の情報処理装置。
  5. 前記範囲決定手段は、前記操作手段から2点の前記位置信号を同時に受けた場合にのみ、前記表示領域の対象範囲を決定する、
    請求項1〜4の何れか1項に記載の情報処理装置。
  6. 情報を表示する表示手段と、前記表示手段の表示領域に対応した接触領域を有する操作手段とを備える情報処理装置の表示情報編集方法において、
    前記接触領域に対する接触操作を検知して、前記接触領域における前記接触操作の位置を示す位置信号を生成し、
    2点の前記位置信号に基づいて、前記表示領域の対象範囲を決定し、
    決定された前記表示領域の対象範囲に対応した位置に、各種処理を選択するための処理メニューを前記表示手段に表示させ、
    3点目の前記位置信号に基づいて、前記接触領域における前記接触操作の位置に対応する前記処理メニューの処理を決定し、
    決定された前記表示領域の対象範囲に対して、決定された処理を実行する、
    情報処理装置の表示情報編集方法。
JP2008126304A 2008-05-13 2008-05-13 情報処理装置及び情報処理装置の表示情報編集方法 Expired - Fee Related JP5203797B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2008126304A JP5203797B2 (ja) 2008-05-13 2008-05-13 情報処理装置及び情報処理装置の表示情報編集方法
US12/463,693 US8266529B2 (en) 2008-05-13 2009-05-11 Information processing device and display information editing method of information processing device
EP09159997.7A EP2120131B1 (en) 2008-05-13 2009-05-12 Information processing device and display information editing method of information processing device
CN2009101391942A CN101582008B (zh) 2008-05-13 2009-05-13 信息处理装置和信息处理装置的显示信息编辑方法
KR1020090041764A KR101150321B1 (ko) 2008-05-13 2009-05-13 정보 처리 장치 및 정보 처리 장치의 표시 정보 편집 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008126304A JP5203797B2 (ja) 2008-05-13 2008-05-13 情報処理装置及び情報処理装置の表示情報編集方法

Publications (2)

Publication Number Publication Date
JP2009276926A true JP2009276926A (ja) 2009-11-26
JP5203797B2 JP5203797B2 (ja) 2013-06-05

Family

ID=40718871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008126304A Expired - Fee Related JP5203797B2 (ja) 2008-05-13 2008-05-13 情報処理装置及び情報処理装置の表示情報編集方法

Country Status (5)

Country Link
US (1) US8266529B2 (ja)
EP (1) EP2120131B1 (ja)
JP (1) JP5203797B2 (ja)
KR (1) KR101150321B1 (ja)
CN (1) CN101582008B (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011102406A1 (ja) * 2010-02-18 2011-08-25 ローム株式会社 タッチパネル入力装置
JP2011170598A (ja) * 2010-02-18 2011-09-01 Rohm Co Ltd タッチパネル入力装置
JP2011197848A (ja) * 2010-03-18 2011-10-06 Rohm Co Ltd タッチパネル入力装置
JP2011198000A (ja) * 2010-03-19 2011-10-06 Rohm Co Ltd タッチパネル入力装置
JP2011227703A (ja) * 2010-04-20 2011-11-10 Rohm Co Ltd 2点検知可能なタッチパネル入力装置
JP2011234008A (ja) * 2010-04-26 2011-11-17 Rohm Co Ltd デジタルカメラ
JP2011232881A (ja) * 2010-04-26 2011-11-17 Sharp Corp 画像処理装置、表示装置、画像処理方法、画像処理プログラム、記録媒体
JP2013041348A (ja) * 2011-08-12 2013-02-28 Kyocera Corp 携帯端末、補助情報表示プログラムおよび補助情報表示方法
KR20130047790A (ko) * 2011-10-27 2013-05-09 삼성전자주식회사 터치패널을 구비하는 휴대단말기의 입력 판정 장치 및 방법
JP2013232044A (ja) * 2012-04-27 2013-11-14 Toshiba Corp 電子機器、制御方法およびプログラム
JP2013543201A (ja) * 2010-11-18 2013-11-28 グーグル・インコーポレーテッド 画面外の目に見えるオブジェクトの表面化
KR20140011594A (ko) * 2012-07-17 2014-01-29 삼성전자주식회사 펜 인식 패널을 포함한 단말기의 기능 운용 방법 및 이를 지원하는 단말기
JP2015167012A (ja) * 2014-02-12 2015-09-24 ソフトバンク株式会社 文字入力装置、文字入力プログラム、表示制御装置、表示制御方法、及び表示制御プログラム
KR101901234B1 (ko) * 2018-01-18 2018-09-27 삼성전자 주식회사 휴대 단말기의 펜 입력 방법 및 장치
KR102257614B1 (ko) * 2020-03-31 2021-05-28 김은아 접촉감지식 입력장치로부터의 입력신호를 가변 촉각효과로 변환하는 시스템 및 방법

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2333651B1 (en) * 2009-12-11 2016-07-20 Dassault Systèmes Method and system for duplicating an object using a touch-sensitive display
JP4719296B1 (ja) * 2009-12-25 2011-07-06 株式会社東芝 情報処理装置及び情報処理方法
US20120030624A1 (en) * 2010-07-30 2012-02-02 Migos Charles J Device, Method, and Graphical User Interface for Displaying Menus
EP2603844B1 (en) * 2010-08-12 2020-05-20 Google LLC Finger identification on a touchscreen
CN102375652A (zh) * 2010-08-16 2012-03-14 中国移动通信集团公司 移动终端用户界面调整系统及其调整方法
KR101763263B1 (ko) * 2010-12-24 2017-07-31 삼성전자주식회사 3d 디스플레이 단말 장치 및 그 조작 방법
US8593421B2 (en) * 2011-03-22 2013-11-26 Adobe Systems Incorporated Local coordinate frame user interface for multitouch-enabled devices
JP5518009B2 (ja) 2011-08-03 2014-06-11 シャープ株式会社 画像形成装置、画像編集方法、コンピュータプログラム及び記録媒体
WO2013044467A1 (zh) * 2011-09-28 2013-04-04 宇龙计算机通信科技(深圳)有限公司 终端和菜单显示方法
EP2802975B1 (en) * 2012-01-09 2018-05-16 Google LLC Intelligent touchscreen keyboard with finger differentiation
US9563295B2 (en) * 2012-03-06 2017-02-07 Lenovo (Beijing) Co., Ltd. Method of identifying a to-be-identified object and an electronic device of the same
US9557846B2 (en) 2012-10-04 2017-01-31 Corning Incorporated Pressure-sensing touch system utilizing optical and capacitive systems
KR20140051719A (ko) * 2012-10-23 2014-05-02 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
USD753657S1 (en) * 2013-01-29 2016-04-12 Aquifi, Inc. Display device with cameras
USD752585S1 (en) * 2013-01-29 2016-03-29 Aquifi, Inc. Display device with cameras
USD753656S1 (en) * 2013-01-29 2016-04-12 Aquifi, Inc. Display device with cameras
USD752048S1 (en) * 2013-01-29 2016-03-22 Aquifi, Inc. Display device with cameras
USD753655S1 (en) * 2013-01-29 2016-04-12 Aquifi, Inc Display device with cameras
USD753658S1 (en) * 2013-01-29 2016-04-12 Aquifi, Inc. Display device with cameras
CN103984495B (zh) * 2013-02-07 2016-12-28 纬创资通股份有限公司 操作方法以及电子装置
CN103164160A (zh) * 2013-03-20 2013-06-19 华为技术有限公司 一种左右手交互装置及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289984A (ja) * 1993-03-31 1994-10-18 Toshiba Corp 文書作成編集装置
JP2000163031A (ja) * 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体
WO2006104132A1 (ja) * 2005-03-28 2006-10-05 Matsushita Electric Industrial Co., Ltd. ユーザインタフェイスシステム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0622722B1 (en) 1993-04-30 2002-07-17 Xerox Corporation Interactive copying system
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
JP4626783B2 (ja) 1998-10-19 2011-02-09 俊彦 岡部 情報検索装置、方法、記録媒体及び情報検索システム
JP2003296015A (ja) * 2002-01-30 2003-10-17 Casio Comput Co Ltd 電子機器
US7158123B2 (en) 2003-01-31 2007-01-02 Xerox Corporation Secondary touch contextual sub-menu navigation for touch screen interface
US7218313B2 (en) * 2003-10-31 2007-05-15 Zeetoo, Inc. Human interface system
WO2005094664A1 (ja) * 2004-04-02 2005-10-13 Olympus Corporation 内視鏡
US7255503B2 (en) * 2004-05-17 2007-08-14 Charlene H. Grafton Dual numerical keyboard based on dominance
JP2005346244A (ja) * 2004-06-01 2005-12-15 Nec Corp 情報表示装置及びその操作方法
JP5194374B2 (ja) * 2006-03-29 2013-05-08 ヤマハ株式会社 パラメータ編集装置及び信号処理装置
KR100672605B1 (ko) 2006-03-30 2007-01-24 엘지전자 주식회사 아이템 선택 방법 및 이를 위한 단말기
US8279180B2 (en) * 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
US7956847B2 (en) 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
KR100783553B1 (ko) 2007-01-22 2007-12-07 삼성전자주식회사 이동통신 단말기와, 그의 전화번호부의 그룹사진 생성 방법및 그를 이용한 통신 이벤트 수행 방법
US7770136B2 (en) * 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
US8681104B2 (en) * 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
US20090138800A1 (en) * 2007-11-23 2009-05-28 Mckesson Financial Holdings Limited Apparatus, method and computer-readable storage medium for directing operation of a software application via a touch-sensitive surface
US20110055703A1 (en) * 2009-09-03 2011-03-03 Niklas Lundback Spatial Apportioning of Audio in a Large Scale Multi-User, Multi-Touch System
KR101612283B1 (ko) * 2009-09-10 2016-04-15 삼성전자주식회사 휴대용 단말기에서 사용자의 입력 패턴을 판단하기 위한 장치 및 방법
TW201109994A (en) * 2009-09-10 2011-03-16 Acer Inc Method for controlling the display of a touch screen, user interface of the touch screen, and electronics using the same
EP2333651B1 (en) * 2009-12-11 2016-07-20 Dassault Systèmes Method and system for duplicating an object using a touch-sensitive display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289984A (ja) * 1993-03-31 1994-10-18 Toshiba Corp 文書作成編集装置
JP2000163031A (ja) * 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体
WO2006104132A1 (ja) * 2005-03-28 2006-10-05 Matsushita Electric Industrial Co., Ltd. ユーザインタフェイスシステム

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9250800B2 (en) 2010-02-18 2016-02-02 Rohm Co., Ltd. Touch-panel input device
JP2011170598A (ja) * 2010-02-18 2011-09-01 Rohm Co Ltd タッチパネル入力装置
WO2011102406A1 (ja) * 2010-02-18 2011-08-25 ローム株式会社 タッチパネル入力装置
US9760280B2 (en) 2010-02-18 2017-09-12 Rohm Co., Ltd. Touch-panel input device
JP2011197848A (ja) * 2010-03-18 2011-10-06 Rohm Co Ltd タッチパネル入力装置
JP2011198000A (ja) * 2010-03-19 2011-10-06 Rohm Co Ltd タッチパネル入力装置
JP2011227703A (ja) * 2010-04-20 2011-11-10 Rohm Co Ltd 2点検知可能なタッチパネル入力装置
JP2011234008A (ja) * 2010-04-26 2011-11-17 Rohm Co Ltd デジタルカメラ
JP2011232881A (ja) * 2010-04-26 2011-11-17 Sharp Corp 画像処理装置、表示装置、画像処理方法、画像処理プログラム、記録媒体
US9830067B1 (en) 2010-11-18 2017-11-28 Google Inc. Control of display of content with dragging inputs on a touch input surface
JP2017199420A (ja) * 2010-11-18 2017-11-02 グーグル インコーポレイテッド 画面外の目に見えるオブジェクトの表面化
JP2013543201A (ja) * 2010-11-18 2013-11-28 グーグル・インコーポレーテッド 画面外の目に見えるオブジェクトの表面化
US11036382B2 (en) 2010-11-18 2021-06-15 Google Llc Control of display of content with dragging inputs on a touch input surface
US10671268B2 (en) 2010-11-18 2020-06-02 Google Llc Orthogonal dragging on scroll bars
JP2013041348A (ja) * 2011-08-12 2013-02-28 Kyocera Corp 携帯端末、補助情報表示プログラムおよび補助情報表示方法
KR101880653B1 (ko) * 2011-10-27 2018-08-20 삼성전자 주식회사 터치패널을 구비하는 휴대단말기의 입력 판정 장치 및 방법
KR20130047790A (ko) * 2011-10-27 2013-05-09 삼성전자주식회사 터치패널을 구비하는 휴대단말기의 입력 판정 장치 및 방법
JP2013097798A (ja) * 2011-10-27 2013-05-20 Samsung Electronics Co Ltd タッチパネルを備える携帯端末機の入力判定装置及び方法
JP2013232044A (ja) * 2012-04-27 2013-11-14 Toshiba Corp 電子機器、制御方法およびプログラム
US9001063B2 (en) 2012-04-27 2015-04-07 Kabushiki Kaisha Toshiba Electronic apparatus, touch input control method, and storage medium
KR102040857B1 (ko) * 2012-07-17 2019-11-06 삼성전자주식회사 펜 인식 패널을 포함한 단말기의 기능 운용 방법 및 이를 지원하는 단말기
KR20140011594A (ko) * 2012-07-17 2014-01-29 삼성전자주식회사 펜 인식 패널을 포함한 단말기의 기능 운용 방법 및 이를 지원하는 단말기
JP2015167012A (ja) * 2014-02-12 2015-09-24 ソフトバンク株式会社 文字入力装置、文字入力プログラム、表示制御装置、表示制御方法、及び表示制御プログラム
KR101901234B1 (ko) * 2018-01-18 2018-09-27 삼성전자 주식회사 휴대 단말기의 펜 입력 방법 및 장치
KR102257614B1 (ko) * 2020-03-31 2021-05-28 김은아 접촉감지식 입력장치로부터의 입력신호를 가변 촉각효과로 변환하는 시스템 및 방법

Also Published As

Publication number Publication date
EP2120131A3 (en) 2012-07-04
KR20090118872A (ko) 2009-11-18
CN101582008A (zh) 2009-11-18
JP5203797B2 (ja) 2013-06-05
EP2120131A2 (en) 2009-11-18
CN101582008B (zh) 2012-06-13
EP2120131B1 (en) 2015-10-21
KR101150321B1 (ko) 2012-06-08
US8266529B2 (en) 2012-09-11
US20090287999A1 (en) 2009-11-19

Similar Documents

Publication Publication Date Title
JP5203797B2 (ja) 情報処理装置及び情報処理装置の表示情報編集方法
JP6000797B2 (ja) タッチパネル式入力装置、その制御方法、および、プログラム
JP2010033158A (ja) 情報処理装置及び情報処理方法
CN110874117B (zh) 手持装置的操作方法、手持装置以及计算机可读取记录介质
US20150253925A1 (en) Display control device, display control method and program
US20170192465A1 (en) Apparatus and method for disambiguating information input to a portable electronic device
US9582107B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JPWO2009031213A1 (ja) 携帯端末装置及び表示制御方法
JP2014157553A (ja) 情報表示装置および表示制御プログラム
US20180210597A1 (en) Information processing device, information processing method, and program
JP6183820B2 (ja) 端末、及び端末制御方法
JP5845585B2 (ja) 情報処理装置
JP6411067B2 (ja) 情報処理装置及び入力方法
US20010017617A1 (en) Coordinate detection device with improved operability and method of detecting coordinates
WO2013080425A1 (ja) 入力装置、情報端末、入力制御方法、および入力制御プログラム
WO2016208099A1 (ja) 情報処理装置、情報処理装置に対する入力を制御する入力制御方法及び入力制御方法を情報処理装置に実行させるためのプログラム
WO2014141799A1 (ja) 電子機器、情報処理方法、及び情報処理プログラム
JP2015146090A (ja) 手書き入力装置及び入力制御プログラム
JP2018156590A (ja) 入力装置、画像形成装置及びプログラム
JP2020201664A (ja) 表示装置
JP2018170048A (ja) 情報処理装置、入力方法及びプログラム
JP2013003601A (ja) 表示入力装置
US11822743B2 (en) Touch panel information terminal apparatus and information input processing method implemented with dual input devices arranged on two surfaces
JP6523509B1 (ja) ゲームプログラム、方法、および情報処理装置
JP2017138759A (ja) 電子機器、電子機器の制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130214

R150 Certificate of patent or registration of utility model

Ref document number: 5203797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees