JPWO2015029222A1 - 情報処理装置,表示制御プログラム及び表示制御方法 - Google Patents

情報処理装置,表示制御プログラム及び表示制御方法 Download PDF

Info

Publication number
JPWO2015029222A1
JPWO2015029222A1 JP2015533897A JP2015533897A JPWO2015029222A1 JP WO2015029222 A1 JPWO2015029222 A1 JP WO2015029222A1 JP 2015533897 A JP2015533897 A JP 2015533897A JP 2015533897 A JP2015533897 A JP 2015533897A JP WO2015029222 A1 JPWO2015029222 A1 JP WO2015029222A1
Authority
JP
Japan
Prior art keywords
input
input means
information
display form
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015533897A
Other languages
English (en)
Inventor
宏亮 白石
宏亮 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2015029222A1 publication Critical patent/JPWO2015029222A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

複数の入力手段(20,30,40)と、Graphical User Interface(GUI)オブジェクトに対して、複数種類の表示形態情報を関連付けたオブジェクト表示形態情報を格納する第1格納部(51)と、入力手段(20,30,40)の変更を検知する検知部(111)と、検知された変更後の前記入力手段(20,30,40)に応じて、前記GUIオブジェクトについての表示形態情報を選択し、選択した当該表示形態情報を用いて前記GUIオブジェクトを表示させる表示制御部(112)と、を備える。

Description

本発明は、情報処理装置,表示制御プログラム及び表示制御方法に関する。
タッチパネルを搭載したコンピュータで動作するOperating System(OS)においては、従来からのマウスによる入力操作に加えて、画面に指をタッチすることによって入力操作(タッチ入力操作)を行なうことが可能である。更に、モーションセンサを搭載したコンピュータで動作するOSにおいては、マウス等の入力デバイスを使わず、画面に触れない状態で、3次元空間上の物体の移動による入力操作(モーション入力操作)を行なうことが可能である。
これらのマウス,タッチパネル及びモーションセンサを使用する各入力操作においては、例えば以下の利点及び欠点が存在する。マウス入力操作では画面上のポインタを移動させてボタン等のGraphical User Interface(GUI)オブジェクト(以下、単にオブジェクトという)を操作するため、小さいオブジェクトを操作する際の精度は高いが、操作量が多くなる。また、タッチ入力操作では指でタッチパネル上のオブジェクトを直接操作するため、複数の指でのジェスチャ等の大きな操作を素早く行なえるが、小さなオブジェクトは操作しづらい。更に、モーション入力操作では手の移動や指のジェスチャによってオブジェクトを操作するため、タッチ入力操作と同様に大きな操作を素早く行なえるが、マウス入力操作におけるクリックやタッチ入力操作におけるタップのようなON/OFFの切り替えができない。
このように、入力手段の種類によって利点及び欠点が異なることから、それぞれの入力手段において最適なオブジェクトの種類や形状,位置は異なる。
そこで、コンピュータが搭載する入力手段のいずれかに適したGUIを設計する技術が知られている。
特開平11−95971号公報 特開平8−16353号公報 特開平11−282597号公報 特開2011−138185号公報 特開2010−257495号公報
しかしながら、複数の入力手段を利用可能な環境においては、ユーザは自身の好みや状況に応じて入力手段を使い分けることがある。例えば、同一のGUIアプリケーションにおいて、あるユーザはマウス入力操作しか利用しないが、別のユーザはマウス入力操作とタッチ入力操作とを併用することがある。また、外出先ではタッチ入力操作を利用するが、自宅ではマウス入力操作を利用するといったように、状況によって入力手段を使い分けることがある。更に、マウスを操作しながら画面をタッチする等、複数の入力操作を同時に行なう可能性もある。
そのため、GUIアプリケーションにおけるオブジェクトの種類や形状,位置を1つに固定してしまうと、使用する入力手段によっては効率的な入力操作を行なえないという課題がある。
1つの側面では、本発明は、入力手段の変更に関わらず効率的な入力操作を提供することを目的とする。
なお、前記目的に限らず、後述する発明を実施するための最良の形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本発明の他の目的の1つとして位置付けることができる。
上記の目的を達成するために、この情報処理装置は、複数の入力手段と、GUIオブジェクトに対して、複数種類の表示形態情報を関連付けたオブジェクト表示形態情報を格納する第1格納部と、入力手段の変更を検知する検知部と、検知された変更後の前記入力手段に応じて、前記GUIオブジェクトについての表示形態情報を選択し、選択した当該表示形態情報を用いて前記GUIオブジェクトを表示させる表示制御部と、を備える。
また、この表示制御プログラムは、複数の入力手段を有する情報処理装置に備えられるコンピュータに、入力手段の変更を検知し、検知された変更後の前記入力手段に応じて、第1格納部に格納された、GUIオブジェクトに対して、複数種類の表示形態情報を関連付けたオブジェクト表示形態情報から、前記GUIオブジェクトについての表示形態情報を選択し、選択した当該表示形態情報を用いて前記GUIオブジェクトを表示させる、処理を実行させる。
更に、この表示制御方法は、複数の入力手段を有する情報処理装置において、入力手段の変更を検知し、検知された変更後の前記入力手段に応じて、第1格納部に格納された、GUIオブジェクトに対して、複数種類の表示形態情報を関連付けたオブジェクト表示形態情報から、前記GUIオブジェクトについての表示形態情報を選択し、選択した当該表示形態情報を用いて前記GUIオブジェクトを表示させる。
開示の情報処理装置によれば、入力手段の変更に関わらず効率的な入力操作を提供することができる。
実施形態の一例としての情報処理システムの機能構成を模式的に示す図である。 実施形態の一例としての情報処理装置におけるオブジェクト表示形態情報が含む表示形態情報を例示する図である。 実施形態の一例としての情報処理装置におけるオブジェクト表示形態情報が含む遷移パターン表示形態情報を例示する図である。 実施形態の一例としての情報処理装置における入力履歴情報を例示する図である。 実施形態の一例としての情報処理装置におけるGUIオブジェクトの入力モード状態の遷移を説明する図である。 実施形態の一例としての情報処理装置におけるGUIオブジェクトの表示例を示す図である。 実施形態の一例としての情報処理装置におけるGUIアプリケーションの表示例を示す図である。 実施形態の一例としての情報処理装置におけるGUIアプリケーションのヒット領域を説明する図である。 実施形態の一例としての情報処理装置におけるGUIアプリケーションのマウスモード及びタッチモードでのモード変更領域を説明する図である。 実施形態の一例としての情報処理装置におけるGUIアプリケーションのモーションモードでのモード変更領域を説明する図である。 実施形態の一例としての情報処理装置における入力モード制御処理を示すフローチャートである。 実施形態の一例としての情報処理装置における入力モード切り替え処理を示すフローチャートである。
以下、図面を参照して情報処理装置,表示制御プログラム及び表示制御方法に係る一実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。
また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。
以下、図中において、同一の各符号は同様の部分を示しているので、その説明は省略する。
〔A〕システム構成
図1は、実施形態の一例としての情報処理システムの機能構成を模式的に示す図である。
本実施形態の一例としての情報処理システム1は、図1に示すように情報処理装置10,マウス(ポインティングデバイス)20,モーションセンサ30,ディスプレイ(タッチパネル)40,記憶装置50及び媒体読取装置60を備える。情報処理装置10とマウス20,モーションセンサ30,ディスプレイ40,記憶装置50及び媒体読取装置60とは、図示するように互いに通信可能に接続されている。
マウス20は、入力手段の一例であり、本実施形態の一例においてはポインティングデバイス入力手段として機能し、ディスプレイ40上に表示されるポインタ(図6のA1の符号P参照)を操作するために用いる。なお、マウス20はポインティングデバイスの一例に過ぎず、ノートパソコンにおけるタッチパッドやトラックボール等であっても良い。
モーションセンサ30は、入力手段の一例であり、本実施形態の一例においてはモーション入力手段として機能し、ユーザの動きを計測して入力操作として検知する。モーションセンサ30は、例えば光センサや赤外線センサ,カメラであり、物体の3次元空間上の位置情報が検出可能なセンサである。モーションセンサ30は、ディスプレイ40の解像度と同等もしくはそれ以上の解像度を持つことか望ましい。また、モーションセンサ30としては、ディスプレイ40の画面解像度前面の3次元空間上の座標を取得できるセンサを使用する。なお、モーションセンサ30としては、ユーザの手に加速度センサや発信器をつけたものを用いても良い。
タッチパネル40は、入力手段の一例であり、本実施形態の一例においてはタッチ入力手段として機能する。タッチパネル40は、入力装置と表示装置とを一体にした装置であり、ユーザによりタッチ入力されたタッチパネル40上での位置等の情報又は指示を情報処理装置10へ渡し、又、ユーザ等に対する各種情報を表示する。なお、タッチパネル40のセンシング方式としては、静電容量方式や感圧方式等の種々の方式を適用することができる。
ユーザは、複数の入力手段としてのマウス20,モーションセンサ30及びタッチパネル40の切り替えを、ユーザ自身の好みや状況に応じて任意に行なうことができる。そして、情報処理装置10が備えるCPU11の検知部111が図7〜図10を用いて後述するように入力手段の切り替えを検知する。
媒体読取装置60は、記録媒体RMが装着可能に構成される。媒体読取装置60は、記録媒体RMが装着された状態において、記録媒体RMに記録されている情報を読み取り可能に構成される。本例では、記録媒体RMは可搬性を有する。記録媒体RMは、コンピュータ読取可能な記録媒体であって、例えば、フレキシブルディスク,CD(CD−ROM,CD−R,CD−RW等),DVD(DVD−ROM,DVD−RAM,DVD−R,DVD+R,DVD−RW,DVD+RW,HD DVD等),ブルーレイディスク,磁気ディスク,光ディスク,光磁気ディスク又は、半導体メモリ等である。
記憶装置50は、データを読み書き可能に格納する既知の装置であり、例えば、Hard Disk Drive(HDD)やSolid State Drive(SSD)である。本実施形態の一例における記憶装置50は、図示するように第1格納部51及び第2格納部52として機能する。
第1格納部51は、オブジェクト表示形態情報510を格納する。
図2は、実施形態の一例としての情報処理装置におけるオブジェクト表示形態情報が含む表示形態情報を例示する図である。
オブジェクト表示形態情報510は、図2に示すように、オブジェクトに対して、当該オブジェクトの表示形態を規定する複数種類の表示形態情報511が関連付けられている。
本実施形態の一例における情報処理装置10上で動作するGUIアプリケーションは、複数のGUIオブジェクト(以下、単にオブジェクトという)で構成される。また、各オブジェクトは、ユーザの操作状況に応じて、例えばマウスモード,タッチモード又はモーションモードの3つの表示モードのうちいずれかのモードでの表示形態に切り替わる。マウスモードはオブジェクトがマウス20で操作されている際のモードであり、タッチモードはオブジェクトがタッチパネル40で操作されている際のモードである。また、モーションモードは、オブジェクトがタッチされようとして、ユーザの指がタッチパネル40の前面で動作している際のモードである。
各表示モードにおける各オブジェクトの表示形態は、表示形態情報511として定義されている。各表示モードにおいて、オブジェクトの種類や形状,位置を変えるなど、それぞれの表示モードに適したものになるように表示形態情報511が予め定義される。例えば、マウス操作の際(マウスモード)にはオブジェクトのサイズを通常の大きさになるように、表示形態情報511を定義する。また、指をタッチパネル40に近づけた際(モーションモード)にはタッチパネル40とユーザの指との距離に応じてタッチパネル40と指との距離が短くなるとオブジェクトが拡大表示されるように、表示形態情報511を定義する。更に、タッチパネル40をタッチした際(タッチモード)にはオブジェクトが拡大表示され続けるように、表示形態情報511を定義する。
図2に示す例においては、オブジェクトの1つである「ボタン1」が「マウスモード」である場合には、ディスプレイ40におけるオブジェトの表示位置(ディスプレイ40上での座標値)を示す属性1が(位置X,位置Y)=(30,20)である(単位は例えばピクセル)。また、オブジェクトの表示サイズを示す属性2が(高さ,幅)=(30,60)であり(単位は例えばピクセル)、ボタンの色を示す属性3がグレーである。このように、「ボタン1」のマウスモードに対して、表示形態として属性1〜3が定義されている。
また、この同じ「ボタン1」に対して、表示モードが「タッチモード」及び「モーションモード」の各場合についても、同様にオブジェクトの表示形態として属性1〜3がそれぞれ定義されている。更に、「ボタン2」が各表示モードの場合についても、オブジェクトの表示形態として属性1〜3がそれぞれ定義されている。
なお、図2に示すオブジェクト表示形態情報510の定義は、情報処理装置10や表示制御プログラムの工場出荷時に予め行なっても良いし、ユーザが任意に設定できるようにしても良い。また、図2に示す例では各表示形態情報511が含む属性の数を3つとしたが、これに限定されるものではなく、属性の数を2つ以下又は4つ以上としても良い。
図3は、実施形態の一例としての情報処理装置におけるオブジェクト表示形態情報が含む遷移パターン表示形態情報を例示する図である。
オブジェト表示形態情報510は、複数種類の遷移パターン表示形態情報512を含む。すなわち、オブジェクト表示形態情報510は、図2に示した表示形態情報511及び図3に示す遷移パターン表示形態情報512を含む。
遷移パターン表示形態情報512は、対象のオブジェトの表示モードに特定の遷移パターンが検知された場合に、当該遷移パターンに対して、図2に示した表示形態情報511の適用に優先して対象のオブジェクトに対して適用される表示形態を関連付けた情報である。
図3に示す例においては、遷移パターンが「タッチ→モーション」である場合に、追加動作1として全ボタンをハイライト(強調表示)させ、追加動作2として高さと幅の変更を抑止する。
図2に示した例においては、「ボタン1」が「モーションモード」の場合には、オブジェクトの表示サイズは、ディスプレイ40とユーザの指との距離によって拡縮され、例えばディスプレイ40から指を離していくとオブジェクトは縮小されていく。しかしながら、「タッチモード」で「ボタン1」をタッチ(選択)した直後に「モーションモード」に切り替わったことを後述する検知部111により検知した場合には、ボタンの表示サイズを小さくさせないようにすることでユーザに対する利便性が向上する。そこで、図3に例示するように遷移パターン表示形態情報512を定義することで、「タッチモード」で「ボタン1」がタッチされた直後に「モーションモード」に切り替わったことを後述する検知部111により検知した場合には、「ボタン1」をハイライト表示させ、且つ、「ボタン1」が縮小されるのを抑止する。
なお、遷移パターン表示形態情報512において、「マウス→モーション」と「マウス→モーション→タッチ」とのように、一部同一の遷移パターンが定義されている場合には、それぞれの遷移パターン表示形態情報512に定義されている追加動作をともに行なっても良い。また、いずれかの遷移パターンに優先度をつけて、優先度の高い遷移パターンにおける追加動作を行なっても良い。図2に示す例では各遷移パターン表示形態情報512が含む追加動作の数を2つとしたが、これに限定されるものではなく、追加動作の数を1つ又は3つ以上にしても良い。
第2格納部52は、入力履歴情報520を格納する。
図4は、実施形態の一例としての情報処理装置における入力履歴情報を例示する図である。
入力履歴情報520は、図4に示すように、入力手段と発生日時と入力座標とが対応づけられた情報である。
図4に示す例においては、3月27日12時13分51秒00に「マウス」で座標(90,28)に入力があったことを示し、52秒13に「モーション」で座標(26,13,185)に入力があったことを示している。また、53秒10に「タッチ」で座標(32,19)に入力があったことを示している。
このように、入力履歴情報520は、マウスモード及びタッチモードでは(X,Y)の2軸の入力座標を保持し、モーションモードでは(X,Y,Z)の3軸の入力座標を保持する。
また、入力履歴情報520は、入力モードの遷移に関する情報も示している。図4に示す例においては、入力の遷移は「マウス→モーション→タッチ→モーション」となる。
なお、入力履歴情報520の更新タイミングは、所定時間毎でも良いし、入力座標における所定の移動量毎であっても良い。
情報処理装置10は、例えばPersonal Computer(PC)や多機能携帯電話(スマートフォン),タブレット端末,Personal Digital Assistant(PDA)であり、図1に示すようにCentral Processing Unit(CPU;コンピュータ)11及びメモリ12を備える。
メモリ12は、Read Only Memory(ROM)及びRandom Access Memory(RAM)を含む記憶装置である。メモリ12のROMには、Basic Input/Output System(BIOS)等のプログラムが書き込まれている。メモリ12上のソフトウェアプログラムは、CPU11に適宜読み込まれて実行される。また、メモリ12のRAMは、一次記録メモリあるいはワーキングメモリとして利用される。
CPU11は、種々の制御や演算を行なう処理装置であり、メモリ12に格納されたOSやプログラムを実行することにより、種々の機能を実現する。すなわち、CPU11は、図1に示すように、検知部111及び表示制御部112として機能する。
なお、これらの検知部111及び表示制御部112としての機能を実現するためのプログラム(表示制御プログラム)は、例えば前述した記録媒体RMに記録された形態で提供される。そして、コンピュータは媒体読取装置60を介してその記録媒体RMからプログラムを読み取って内部記憶装置または外部記憶装置に転送し格納して用いる。又、そのプログラムを、例えば磁気ディスク,光ディスク,光磁気ディスク等の記憶装置(記録媒体)に記録しておき、その記憶装置から通信経路を介してコンピュータに提供してもよい。
検知部111及び表示制御部112としての機能を実現する際には、内部記憶装置(本実施形態ではメモリ12)に格納されたプログラムがコンピュータのマイクロプロセッサ(本実施形態ではCPU11)によって実行される。このとき、記録媒体に記録されたプログラムをコンピュータが読み取って実行してもよい。
検知部111は、入力手段の変更を検知する。すなわち、検知部111は、マウス20,モーションセンサ30又はタッチパネル40のうちいずれの入力手段をユーザが利用しているかを判定し、入力手段の変更を検知する。
検知部111は、マウス20によるポインタの移動やクリック等の入力が発生した場合に、入力手段としてポインティングデバイス入力手段が用いられていることを検知する。また、検知部111は、タッチパネル40へのタップ等のタッチ入力があった場合に、入力手段としてタッチ入力手段が用いられていることを検知する。更に、検知部111は、モーションセンサ30で物体が検知された場合に、入力手段としてモーション入力手段が用いられていることを検知する。
なお、検知部111は、各オブジェクトについて常にいずれかの表示モードを検知する。但し、検知部111は、GUIアプリケーション上のあるオブジェクトについてはマウスモードであることを検知し、別のオブジェトについてはタッチモードであることを検知する場合がある。すなわち、オブジェクトは、各々独立していずれかのモードとなる。
また、検知部111は、検知した入力手段に関する情報を入力履歴情報520として第2格納部52に格納させる。そして、検知部111は、入力履歴情報520に基づき、入力手段の遷移パターンを検知する。なお、検知部111による入力履歴情報520の更新タイミングは、所定時間毎でも良いし、入力座標における所定の移動量毎であっても良い。所定時間毎に入力履歴情報520を更新する場合には、マウス20やモーションセンサ30,タッチパネル40が操作されていなくても、検知部111は座標値を取得する。
表示制御部112は、ディスプレイ40にオブジェクトを表示させる。具体的には、表示制御部112は、検知部111によって検知された変更後の入力手段に応じて、オブジェクトについての表示形態情報511を選択し、選択した表示形態情報511を用いてオブジェクトを表示させる。すなわち、表示制御部112は、第2格納部52が格納する入力履歴情報520に基づき、オブジェクトについての表示形態情報511を選択する。
表示制御部112は、入力履歴情報520において所定の入力手段の遷移パターンを検知部111によって検知された場合に、入力履歴情報520に基づいたオブジェクトについての遷移パターン表示形態情報512を選択する。そして、表示制御部112は、遷移パターン表示形態情報512を表示形態情報511に対して優先して適用する。
図5は、実施形態の一例としての情報処理装置におけるGUIオブジェクトの入力モード状態の遷移を説明する図である。
上述した3つの入力モードは、図5に示すように互いに遷移可能になっている。
マウスモードB1において検知部111がモーション入力を検知すると、表示制御部112は、対象オブジェクトをモーションモードB2に変更する(符号B11参照)。
マウスモードB1において検知部111がタッチ入力を検知すると、表示制御部112は、対象オブジェクトをタッチモードB3に変更する(符号B12参照)。
モーションモードB2において検知部111がマウス入力を検知すると、表示制御部112は、対象オブジェクトをマウスモードB1に変更する(符号B21参照)。
モーションモードB2において検知部111がタッチ入力を検知すると、表示制御部112は、対象オブジェクトをタッチモードB3に変更する(符号B22参照)。
タッチモードB3において検知部111がマウス入力を検知すると、表示制御部112は、対象オブジェクトをマウスモードB1に変更する(符号B31参照)。
タッチモードB3において検知部111がモーション入力を検知すると、表示制御部112は、対象オブジェクトをモーションモードB2に変更する(符号B32参照)。
図6は、実施形態の一例としての情報処理装置におけるGUIオブジェクトの表示例を示す図である。
本実施形態の一例においては、ユーザがGUIアプリケーション上のあるオブジェクトを操作しようとしている際に、検知部111は、ユーザが操作対象のオブジェクトに対してマウス,タッチ又はモーションのうちいずれの入力手段を用いているかを検出する。そして、表示制御部112は、操作対象のオブジェクトをそれぞれの入力手段に対応した表示モードに切り替える。すなわち、オブジェクトがマウス20で操作されている場合にはマウスモードとなり、タッチパネル40で操作されている場合にはタッチモードとなり、又、オブジェクトをタッチしようとしてタッチパネル40に指が近づいている場合にはモーションモードとなる。
図6の符号A1〜A8に示す例においては、表示制御部112は、オブジェクトとして「OKボタン」及び「Cancelボタン」を含むウインドウ400をタッチパネル40上に表示させる。
始め、ウインドウ400上にオブジェクトとしての「OKボタン」及び「Cancelボタン」とポインタPとが表示されている(符号A1参照)。ここでは、ユーザはマウス20を用いてポインタPの操作を行なっている。すなわち、検知部111は、入力手段としてポインティングデバイス入力手段が用いられていることを検知し、入力手段と発生日時と入力座標とを対応づけて入力履歴情報520として、第2格納部52に格納させる。そして、表示制御部112は、オブジェクト表示形態情報510に基づき、対象オブジェクトである「OKボタン」をマウスモードで表示させる。なお、図6の符号A1に示す例においては、表示制御部112は、「Cancelボタン」もマウスモードで表示させる。
ここで、ユーザがマウス20から手を離してタッチパネル40に指を近づけると(符号A2参照)、モーションセンサ30は、ユーザの指Fとタッチパネル40との距離を計測し、指Fが「OKボタン」に近づいていることを検出する。検知部111は、入力手段として、モーション入力手段が用いられていることを検知し、入力手段と発生日時と入力座標とを対応づけて入力履歴情報520として、第2格納部52に格納させる。ここで、検知部111は、入力手段がポインティングデバイス入力手段からモーション入力手段に変更されたことも検知する。また、表示制御部112は、オブジェクト表示形態情報510に基づき、対象オブジェクトである「OKボタン」をモーションモードで表示させる。図2に示した表示形態情報511の一例においては、モーションモードにおけるオブジェクトのサイズはディスプレイ40と指Fとの距離によって拡縮するため、図6に示す例においても表示制御部112は「OKボタン」を拡大表示させる。なお、検知部111による対象オブジェクトの判定手法は、図9及び図10を参照しながら後述する。
ユーザが指Fを「OKボタン」に更に近づけると(符号A3参照)、モーションセンサ30は、ユーザの指Fとタッチパネル40との距離を計測し、指Fが「OKボタン」に更に近づいていることを検出する。検知部111は、入力手段として、モーション入力手段が用いられていることを検知し、入力手段と発生日時と入力座標とを対応づけて入力履歴情報520として、第2格納部52に格納させる。また、表示制御部112は、オブジェクト表示形態情報510に基づき、対象オブジェクトである「OKボタン」をモーションモードで表示させ続ける。ここでは、指Fが「OKボタン」に更に近づいているため、表示制御部112は、「OKボタン」を更に拡大表示させる。
ユーザが指Fで「OKボタン」をタップ(選択)すると(符号A4参照)、タッチパネル40は、「OKボタン」に対するタッチ入力を検出する。検知部111は、入力手段として、タッチ入力手段が用いられていることを検知し、入力手段と発生日時と入力座標とを対応づけて入力履歴情報520として、第2格納部52に格納させる。ここで、検知部111は、入力手段がモーション入力手段からタッチ入力手段に変更されたことも検知する。また、表示制御部112は、オブジェクト表示形態情報510に基づき、対象オブジェクトである「OKボタン」をタッチモードで表示させる。図6に示す例においては、表示制御部112は、「OKボタン」を強調表示させる(網掛部参照)。
ユーザが指Fを「OKボタン」から離すと(符号A5参照)、モーションセンサ30は、ユーザの指Fとタッチパネル40との距離を計測し、指Fが「OKボタン」から離れていることを検出する。検知部111は、入力手段として、モーション入力手段が用いられていることを検知し、入力手段と発生日時と入力座標とを対応づけて入力履歴情報520として、第2格納部52に格納させる。ここで、検知部111は、入力手段がタッチ入力手段からモーション入力手段に変更されたことも検知する。また、表示制御部112は、オブジェクト表示形態情報510に基づき、対象オブジェクトである「OKボタン」をモーションモードで表示させる。ただし、図3に示した遷移パターン表示形態情報512の一例においては、タッチモードからモーションモードに遷移した場合には対象オブジェクトをハイライト表示させ、高さと幅の変更を抑止するように定義されている。図6に示す例においても、表示制御部112は、「OKボタン」をハイライト表示させ(斜線部参照)、「OKボタン」のサイズを維持する。すなわち、「OKボタン」から指Fが離れても、表示制御部112は、「OKボタン」の表示サイズを小さくしない。
ユーザが指Fを「OKボタン」から更に離すと(符号A6参照)、モーションセンサ30は、ユーザの指Fとタッチパネル40との距離を計測し、指Fが「OKボタン」から更に離れていることを検出する。検知部111は、入力手段として、モーション入力手段が用いられていることを検知し、入力手段と発生日時と入力座標とを対応づけて入力履歴情報520として、第2格納部52に格納させる。また、表示制御部112は、オブジェクト表示形態情報510に基づき、遷移パターン表示形態情報512の追加動作1,2に従って、対象オブジェクトである「OKボタン」の高さと幅を維持した状態で表示させ続ける。更に、表示制御部112は、「OKボタン」をハイライト表示させ続け(斜線部参照)、「OKボタン」のサイズを維持し続ける。
ユーザが指Fを「OKボタン」から更に離すと(符号A7参照)、モーションセンサ30は、ユーザの指Fとタッチパネル40との距離を計測し、指Fが「OKボタン」から更に離れていることを検出する。検知部111は、入力手段として、モーション入力手段が用いられていることを検知し、入力手段と発生日時と入力座標とを対応づけて入力履歴情報520として、第2格納部52に格納させる。また、表示制御部112は、オブジェクト表示形態情報510に基づき、遷移パターン表示形態情報512の追加動作1,2に従って、対象オブジェクトである「OKボタン」の高さと幅を維持した状態で表示させ続ける。更に、表示制御部112は、例えばユーザの指Fとタッチパネル40との距離が閾値以上になったことを条件として、「OKボタン」のハイライト表示を解除する。
ユーザがマウス20を操作してポインタPを「OKボタン」に近づける(符号A8参照)。検知部111は、入力手段として、ポインティングデバイス入力手段が用いられていることを検知し、入力手段と発生日時と入力座標とを対応づけて入力履歴情報520として、第2格納部52に格納させる。ここで、検知部111は、入力手段がモーション入力手段からポインティングデバイス入力手段に変更されたことも検知する。また、表示制御部112は、オブジェクト表示形態情報510に基づき、対象オブジェクトである「OKボタン」をマウスモードで表示させる。図6に示す例においては、表示制御部112は、「OKボタン」を符号A1で示したサイズに戻す。
このように、本実施形態の一例における情報処理装置10においては、マウスの操作状況,タッチパネル40へのタッチ及び指Fのタッチパネル40(オブジェクト)への近接状況に従って、GUIアプリケーション上のオブジェクトの種類や形状,位置,動作をリアルタイムで切り替える。
図7は、実施形態の一例としての情報処理装置におけるGUIアプリケーションの表示例を示す図である。
表示制御部112は、例えば、図7に示すようにGUIアプリケーションとしてウインドウ400をタッチパネル40上に表示する。この図7に例示するウインドウ400には、オブジェクトとしての「RadioButton1」,「RadioButton2」,「OKボタン」及び「Cancelボタン」が備えられている。
以下で参照する図8〜図10におけるウインドウ400は、図7に示すウインドウ400と同様の構成となっている。
図8は、実施形態の一例としての情報処理装置におけるGUIアプリケーションのヒット領域を説明する図である。
図8においては、図7に示すウインドウ400の各オブジェクトについてのヒット領域410を網掛けで示す。
各オブジェクトは、不可視のヒット領域410が定義されている(網掛部参照)。いずれかのヒット領域410内でクリックやタップ等の選択操作を行なうことで、当該ヒット領域410に関連付けられたオブジェクトが選択されたとみなされる。例えば、ユーザが「RadioButton1」のヒット領域410内でマウス20を用いてクリックを行なうと、「RadioButton1」が選択される。
なお、図8に示す例においては、ヒット領域410を長方形としたが、これに限定されるものではなく、例えばオブジェクトの形状に従った様々な形状とすることができる。
図9は、実施形態の一例としての情報処理装置におけるGUIアプリケーションのマウスモード及びタッチモードでのモード変更領域を説明する図である。
マウスモード及びタッチモードにおいて、各オブジェクトには、ヒット領域410(網掛部参照)の外側にヒット領域410を環囲するように不可視のモード変更領域420が定義されている(斜線部参照)。「RadioButton1」以外の各オブジェクトにおけるヒット領域410及びモード変更領域420の図示は、簡単のため省略している。このモード変更領域420内にポインタが侵入し、又はタッチ入力が行なわれると、対象オブジェクトに対して当該入力手段が用いられているとみなされる。例えば、ユーザがマウス20を用いて「RadioButton1」のモード変更領域420の外側からモード変更領域420内へポインタを移動させると、検知部111は、「RadioButton1」についての入力手段としてポインティングデバイス入力手段を検知する。そして、表示制御部112は、オブジェクト表示形態情報510に基づき、「RadioButton1」をマウスモードで表示させる。
なお、図9に示す例においては、マウスモード及びタッチモードにおけるモード変更領域420を同一の領域としたが、これに限定されるものではなく、それぞれに別の領域を設定しても良い。また、ウインドウ400全体をモード変更領域420としても良く、この場合には、ポインタ又はタッチ入力の座標がウインドウ400内にあれば、表示制御部112は、表示モードを変更する。更に、図9に示す例においては、マウスモード及びタッチモードにおけるモード変更領域420を長方形としたが、これに限定されるものではなく、例えばオブジェクトの形状に従った様々な形状とすることができる。
図10は、実施形態の一例としての情報処理装置におけるGUIアプリケーションのモーションモードでのモード変更領域を説明する図である。
モーション入力は3次元空間における入力であるため、モード変更領域421も図10に示すような3次元空間上の領域として設定される(斜線部参照)。モード変更領域421は、例えば、図9に示したモード変更領域420をタッチパネル40の画面から所定の距離、鉛直に突出させた形状である。「RadioButton1」以外の各オブジェクトにおけるモード変更領域421の図示は、簡単のため省略している。例えば、ユーザの指が「RadioButton1」のモード変更領域421内へ侵入すると、検知部111は、「RadioButton1」についての入力手段としてモーション入力手段を検知する。そして、表示制御部112は、オブジェクト表示形態情報510に基づき、「RadioButton1」をモーションモードで表示させる。
なお、図10に示す例においては、モーションモードにおけるモード変更領域421を直方体としたが、これに限定されるものではなく、例えばオブジェクトの形状に従い曲面を持った立体としても良い。
図8〜図10に示したヒット領域410及びモード変更領域420,421に関する情報は、ウインドウ400やオブジェクトに関するデータとともに記憶装置50に格納される。
〔B〕動作
上述の如く構成された実施形態の一例としての情報処理装置10における入力モード制御処理を図11に示すフローチャート(ステップS10〜S40)に従って説明する。
GUIアプリケーションがユーザからの操作を受け付けるアクティブ状態になっている際に、マウス20,タッチパネル40又はモーションセンサ30に入力Iが発生すると、検知部111は、入力履歴情報520に入力Iを追加する(ステップS10)。具体的には、検知部111は、入力Iの入力手段と発生日時と入力座標とを対応づけて、入力履歴情報520として第2格納部52に格納させる。
検知部111は、入力履歴情報520に基づき、入力手段の遷移を求める(ステップS20)。言い換えれば、検知部111は、入力手段の変更を検知する。
検知部111は、入力Iの入力座標がいずれかのオブジェクトのモード変更領域420,421内であるかを判定する(ステップS30)。
入力Iの入力座標がいずれかのオブジェクトのモード変更領域420,421内でない場合には(ステップS30のNOルート参照)、入力モード制御処理を終了する。
入力Iの入力座標がいずれかのオブジェクトのモード変更領域420,421内である場合には(ステップS30のYESルート参照)、表示制御部112は、該当する全てのオブジェクトに対してモード切り替え判定を行ない(ステップS40)、入力モード制御処理を終了する。
次に、実施形態の一例としての情報処理装置10におけるモード切り替え判定処理を図12に示すフローチャート(ステップS41〜S45)に従って説明する。
すなわち、図11に示したステップS40におけるモード切り替え判定処理の詳細を示す。
表示制御部112は、オブジェクトのモード状態遷移に従って表示モードの変更が発生しているかを判定する(ステップS41)。
オブジェクトのモード状態遷移に従って表示モードの変更が発生していない場合には(ステップS41のNOルート参照)、表示制御部112は、オブジェクトの表示モードを変更せず(ステップS42)、入力モード切り替え処理を終了する。例えば、図11のステップS10において新たに行なわれた入力Iがマウス20によるものであり、入力履歴情報520において入力Iの直前の入力がマウス20によって行なわれた場合には、このステップS42に移行し、入力モード切り替え処理を終了する。
オブジェクトのモード状態遷移に従って表示モードの変更が発生している場合には(ステップS41のYESルート参照)、表示制御部112は、オブジェクトの表示モードを変更する(ステップS43)。例えば、図11のステップS10において新たに行なわれた入力Iがモーションセンサ30によるものであり、入力履歴情報520において入力Iの直前の入力がマウス20によって行なわれた場合には、このステップS43に移行し、入力モード切り替え処理を終了する。
表示制御部112は、オブジェクトの表示を現在の表示モードに応じて更新する(ステップS44)。
表示制御部112は、遷移パターンとオブジェクトの変更前の表示モードに基づき、動作を追加し(ステップS45)、入力モード切り替え処理を終了する。
〔C〕効果
このように、本実施形態の一例における情報処理装置10によれば、検知部111は入力手段の変更を検知し、表示制御部112は検知された変更後の入力手段に応じてGUIオブジェクトについての表示形態情報511を選択する。これにより、ユーザによるGUIアプリケーションの操作中においても、各GUIオブジェクトを各入力手段に適した表示モードに瞬時に切り替えることができ、ユーザは入力手段やGUIアプリケーションを利用する状況に依らない一定した操作を行なえる。また、入力手段の変更に関わらず効率的な入力操作を提供することができる。
表示制御部112は、入力履歴情報520において所定の入力手段の遷移パターンがある場合に、入力履歴情報520に基づいたGUIオブジェクトについての遷移パターン表示形態情報512を選択する。これにより、遷移パターンと対象オブジェクトの変更前のモードに基づき、オブジェクトに対して更に動作を追加することができ、入力手段の遷移パターンによって最適なGUIオブジェクトを表示させることができる。例えば、入力履歴情報520の遷移パターンに「タッチ→モーション」が含まれる場合には、表示制御部112は、対象オブジェクトの大きさを変えず、オブジェクトのきめ細かい制御ができる。
表示制御部112は、検知部111がモーション入力手段30への変更を検知した場合に、表示形態情報に基づき、タッチパネル40とユーザの指等との距離に従って、GUIオブジェクトを拡大表示又は縮小表示させる。これにより、ユーザがタッチ操作しようとする前に操作しようとしているGUIオブジェクトを判断し、対象のGUIオブジェクトを最適な表示にすることができる。
〔D〕その他
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成及び各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
なお、本発明の各実施形態が開示されていれば、本発明の情報処理装置,表示制御プログラム及び表示制御方法を当業者によって実施・製造することが可能である。
1 情報処理システム
10 情報処理装置
11 CPU(コンピュータ)
111 検知部
112 表示制御部
12 メモリ
20 マウス(ポインティングデバイス)
30 モーションセンサ
40 ディスプレイ(タッチパネル)
400 ウインドウ
410 ヒット領域
420 モード変更領域
421 モード変更領域
50 記憶装置
51 第1格納部
510 オブジェクト表示形態情報
511 表示形態情報
512 遷移パターン表示形態情報
52 第2格納部
520 入力履歴情報
60 媒体読取装置
F 指
P ポインタ
RM 記録媒体
図2に示す例においては、オブジェクトの1つである「ボタン1」が「マウスモード」である場合には、ディスプレイ40におけるオブジェトの表示位置(ディスプレイ40上での座標値)を示す属性1が(位置X,位置Y)=(30,20)である(単位は例えばピクセル)。また、オブジェクトの表示サイズを示す属性2が(高さ,幅)=(30,60)であり(単位は例えばピクセル)、ボタンの色を示す属性3がグレーである。このように、「ボタン1」のマウスモードに対して、表示形態として属性1〜3が定義されている。
図3は、実施形態の一例としての情報処理装置におけるオブジェクト表示形態情報が含む遷移パターン表示形態情報を例示する図である。
オブジェト表示形態情報510は、複数種類の遷移パターン表示形態情報512を含む。すなわち、オブジェクト表示形態情報510は、図2に示した表示形態情報511及び図3に示す遷移パターン表示形態情報512を含む。
遷移パターン表示形態情報512は、対象のオブジェトの表示モードに特定の遷移パターンが検知された場合に、当該遷移パターンに対して、図2に示した表示形態情報511の適用に優先して対象のオブジェクトに対して適用される表示形態を関連付けた情報である。
図3に示す例においては、遷移パターンが「タッチ→モーション」である場合に、追加動作1として全ボタンをハイライト(強調表示)させ、追加動作2として高さと幅の変更を抑止する。
なお、検知部111は、各オブジェクトについて常にいずれかの表示モードを検知する。但し、検知部111は、GUIアプリケーション上のあるオブジェクトについてはマウスモードであることを検知し、別のオブジェトについてはタッチモードであることを検知する場合がある。すなわち、オブジェクトは、各々独立していずれかのモードとなる。
また、検知部111は、検知した入力手段に関する情報を入力履歴情報520として第2格納部52に格納させる。そして、検知部111は、入力履歴情報520に基づき、入力手段の遷移パターンを検知する。なお、検知部111による入力履歴情報520の更新タイミングは、所定時間毎でも良いし、入力座標における所定の移動量毎であっても良い。所定時間毎に入力履歴情報520を更新する場合には、マウス20やモーションセンサ30,タッチパネル40が操作されていなくても、検知部111は座標値を取得する。
〔D〕その他
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成及び各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
なお、本発明の各実施形態が開示されていれば、本発明の情報処理装置,表示制御プログラム及び表示制御方法を当業者によって実施・製造することが可能である。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
複数の入力手段と、
Graphical User Interface(GUI)オブジェクトに対して、複数種類の表示形態情報を関連付けたオブジェクト表示形態情報を格納する第1格納部と、
入力手段の変更を検知する検知部と、
検知された変更後の前記入力手段に応じて、前記GUIオブジェクトについての表示形態情報を選択し、選択した当該表示形態情報を用いて前記GUIオブジェクトを表示させる表示制御部と、
を備えることを特徴とする、情報処理装置。
(付記2)
前記複数の入力手段による入力の履歴を示す入力履歴情報を格納する第2格納部をさらに備え、
前記検知部は、検知した入力手段に関する情報を前記入力履歴情報として前記第2格納部に格納させ、
前記表示制御部は、前記入力履歴情報に基づき、前記GUIオブジェクトについての表示形態情報を選択する、
ことを特徴とする、付記1に記載の情報処理装置。
(付記3)
前記オブジェクト表示形態情報は、複数種類の遷移パターン表示形態情報を含み、
前記表示制御部は、前記入力履歴情報において所定の入力手段の遷移パターンがある場合に、前記入力履歴情報に基づいた前記GUIオブジェクトについての遷移パターン表示形態情報を選択する、
ことを特徴とする、付記2に記載の情報処理装置。
(付記4)
前記複数の入力手段は、
前記GUIオブジェクトをポインティングデバイスにより操作するポインティングデバイス入力手段と、
前記GUIオブジェクトをタッチ入力により操作するタッチ入力手段と、
前記GUIオブジェクトをユーザの動作により操作するモーション入力手段と、
のうち少なくとも2つを有することを特徴とする、付記3に記載の情報処理装置。
(付記5)
前記表示制御部は、前記入力履歴情報において前記遷移パターンとして前記タッチ入力手段から前記モーション入力手段への遷移がある場合に、前記タッチ入力手段によって選択されたGUIオブジェクトを強調表示させる、
ことを特徴とする、付記4に記載の情報処理装置。
(付記6)
前記表示制御部は、前記検知部が前記モーション入力手段への変更を検知した場合に、前記表示形態情報に基づき、当該情報処理装置の画面と前記ユーザとの距離に従って、前記GUIオブジェクトを拡大表示又は縮小表示させる、
ことを特徴とする、付記4又は5に記載の情報処理装置。
(付記7)
前記表示制御部は、前記検知部が前記タッチ入力手段への変更を検知した場合に、前記表示形態情報に基づき、前記GUIオブジェクトを拡大表示させる、
ことを特徴とする、付記4〜6のいずれか1項に記載の情報処理装置。
(付記8)
複数の入力手段を有する情報処理装置に備えられるコンピュータに、
入力手段の変更を検知し、
検知された変更後の前記入力手段に応じて、第1格納部に格納された、Graphical User Interface(GUI)オブジェクトに対して、複数種類の表示形態情報を関連付けたオブジェクト表示形態情報から、前記GUIオブジェクトについての表示形態情報を選択し、選択した当該表示形態情報を用いて前記GUIオブジェクトを表示させる、
処理を実行させることを特徴とする、表示制御プログラム。
(付記9)
検知した入力手段に関する情報を前記複数の入力手段による入力の履歴を示す入力履歴情報として第2格納部に格納し、
前記入力履歴情報に基づき、前記GUIオブジェクトについての表示形態情報を選択する、
処理を前記コンピュータに実行させることを特徴とする、付記8に記載の表示制御プログラム。
(付記10)
前記オブジェクト表示形態情報は、複数種類の遷移パターン表示形態情報を含み、
前記入力履歴情報において所定の入力手段の遷移パターンがある場合に、前記入力履歴情報に基づいた前記GUIオブジェクトについての遷移パターン表示形態情報を選択する、
処理を前記コンピュータに実行させることを特徴とする、付記9に記載の表示制御プログラム。
(付記11)
前記複数の入力手段は、
前記GUIオブジェクトをポインティングデバイスにより操作するポインティングデバイス入力手段と、
前記GUIオブジェクトをタッチ入力により操作するタッチ入力手段と、
前記GUIオブジェクトをユーザの動作により操作するモーション入力手段と、
のうち少なくとも2つを有することを特徴とする、付記10に記載の表示制御プログラム。
(付記12)
前記入力履歴情報において前記遷移パターンとして前記タッチ入力手段から前記モーション入力手段への遷移がある場合に、前記タッチ入力手段によって選択されたGUIオブジェクトを強調表示させる、
処理を前記コンピュータに実行させることを特徴とする、付記11に記載の表示制御プログラム。
(付記13)
前記モーション入力手段への変更を検知した場合に、前記表示形態情報に基づき、前記情報処理装置の画面と前記ユーザとの距離に従って、前記GUIオブジェクトを拡大表示又は縮小表示させる、
処理を前記コンピュータに実行させることを特徴とする、付記11又は12に記載の表示制御プログラム。
(付記14)
前記タッチ入力手段への変更を検知した場合に、前記表示形態情報に基づき、前記GUIオブジェクトを拡大表示させる、
処理を前記コンピュータに実行させることを特徴とする、付記11〜13のいずれか1項に記載の表示制御プログラム。
(付記15)
複数の入力手段を有する情報処理装置において、
入力手段の変更を検知し、
検知された変更後の前記入力手段に応じて、第1格納部に格納された、Graphical User Interface(GUI)オブジェクトに対して、複数種類の表示形態情報を関連付けたオブジェクト表示形態情報から、前記GUIオブジェクトについての表示形態情報を選択し、選択した当該表示形態情報を用いて前記GUIオブジェクトを表示させる、
ことを特徴とする、表示制御方法。
(付記16)
検知した入力手段に関する情報を前記複数の入力手段による入力の履歴を示す入力履歴情報として第2格納部に格納し、
前記入力履歴情報に基づき、前記GUIオブジェクトについての表示形態情報を選択する、
ことを特徴とする、付記15に記載の表示制御方法。
(付記17)
前記オブジェクト表示形態情報は、複数種類の遷移パターン表示形態情報を含み、
前記入力履歴情報において所定の入力手段の遷移パターンがある場合に、前記入力履歴情報に基づいた前記GUIオブジェクトについての遷移パターン表示形態情報を選択する、
ことを特徴とする、付記16に記載の表示制御方法。
(付記18)
前記複数の入力手段は、
前記GUIオブジェクトをポインティングデバイスにより操作するポインティングデバイス入力手段と、
前記GUIオブジェクトをタッチ入力により操作するタッチ入力手段と、
前記GUIオブジェクトをユーザの動作により操作するモーション入力手段と、
のうち少なくとも2つを有することを特徴とする、付記17に記載の表示制御方法。
(付記19)
前記入力履歴情報において前記遷移パターンとして前記タッチ入力手段から前記モーション入力手段への遷移がある場合に、前記タッチ入力手段によって選択されたGUIオブジェクトを強調表示させる、
ことを特徴とする、付記18に記載の表示制御方法。
(付記20)
前記モーション入力手段への変更を検知した場合に、前記表示形態情報に基づき、前記情報処理装置の画面と前記ユーザとの距離に従って、前記GUIオブジェクトを拡大表示又は縮小表示させる、
ことを特徴とする、付記18又は19に記載の表示制御方法。
(付記21)
前記タッチ入力手段への変更を検知した場合に、前記表示形態情報に基づき、前記GUIオブジェクトを拡大表示させる、
ことを特徴とする、付記18〜20のいずれか1項に記載の表示制御方法。
上記の目的を達成するために、この情報処理装置は、複数の入力手段と、GUIオブジェクトに対して、複数種類の表示形態情報を関連付けたオブジェクト表示形態情報を格納する第1格納部と、前記複数の入力手段による入力の履歴を示す入力履歴情報を格納する第2格納部と、入力手段の変更を検知して、検知した入力手段に関する情報を前記入力履歴情報として前記第2格納部に格納させる検知部と、前記入力履歴情報に基づき、前記GUIオブジェクトについての表示形態情報を選択し、選択した当該表示形態情報を用いて前記GUIオブジェクトを表示させる表示制御部と、を備える。
また、この表示制御プログラムは、複数の入力手段を有する情報処理装置に備えられるコンピュータに、入力手段の変更を検知して、検知した入力手段に関する情報を前記複数の入力手段による入力の履歴を示す入力履歴情報として第2格納部に格納させ前記入力履歴情報に基づき、第1格納部に格納された、GUIオブジェクトに対して、複数種類の表示形態情報を関連付けたオブジェクト表示形態情報から、前記GUIオブジェクトについての表示形態情報を選択し、選択した当該表示形態情報を用いて前記GUIオブジェクトを表示させる、処理を実行させる。
更に、この表示制御方法は、複数の入力手段を有する情報処理装置において、入力手段の変更を検知して、検知した入力手段に関する情報を前記複数の入力手段による入力の履歴を示す入力履歴情報として第2格納部に格納させ前記入力履歴情報に基づき、第1格納部に格納された、GUIオブジェクトに対して、複数種類の表示形態情報を関連付けたオブジェクト表示形態情報から、前記GUIオブジェクトについての表示形態情報を選択し、選択した当該表示形態情報を用いて前記GUIオブジェクトを表示させる。

Claims (21)

  1. 複数の入力手段と、
    Graphical User Interface(GUI)オブジェクトに対して、複数種類の表示形態情報を関連付けたオブジェクト表示形態情報を格納する第1格納部と、
    入力手段の変更を検知する検知部と、
    検知された変更後の前記入力手段に応じて、前記GUIオブジェクトについての表示形態情報を選択し、選択した当該表示形態情報を用いて前記GUIオブジェクトを表示させる表示制御部と、
    を備えることを特徴とする、情報処理装置。
  2. 前記複数の入力手段による入力の履歴を示す入力履歴情報を格納する第2格納部をさらに備え、
    前記検知部は、検知した入力手段に関する情報を前記入力履歴情報として前記第2格納部に格納させ、
    前記表示制御部は、前記入力履歴情報に基づき、前記GUIオブジェクトについての表示形態情報を選択する、
    ことを特徴とする、請求項1に記載の情報処理装置。
  3. 前記オブジェト表示形態情報は、複数種類の遷移パターン表示形態情報を含み、
    前記表示制御部は、前記入力履歴情報において所定の入力手段の遷移パターンがある場合に、前記入力履歴情報に基づいた前記GUIオブジェクトについての遷移パターン表示形態情報を選択する、
    ことを特徴とする、請求項2に記載の情報処理装置。
  4. 前記複数の入力手段は、
    前記GUIオブジェクトをポインティングデバイスにより操作するポインティングデバイス入力手段と、
    前記GUIオブジェクトをタッチ入力により操作するタッチ入力手段と、
    前記GUIオブジェクトをユーザの動作により操作するモーション入力手段と、
    のうち少なくとも2つを有することを特徴とする、請求項3に記載の情報処理装置。
  5. 前記表示制御部は、前記入力履歴情報において前記遷移パターンとして前記タッチ入力手段から前記モーション入力手段への遷移がある場合に、前記タッチ入力手段によって選択されたGUIオブジェクトを強調表示させる、
    ことを特徴とする、請求項4に記載の情報処理装置。
  6. 前記表示制御部は、前記検知部が前記モーション入力手段への変更を検知した場合に、前記表示形態情報に基づき、当該情報処理装置の画面と前記ユーザとの距離に従って、前記GUIオブジェクトを拡大表示又は縮小表示させる、
    ことを特徴とする、請求項4又は5に記載の情報処理装置。
  7. 前記表示制御部は、前記検知部が前記タッチ入力手段への変更を検知した場合に、前記表示形態情報に基づき、前記GUIオブジェクトを拡大表示させる、
    ことを特徴とする、請求項4〜6のいずれか1項に記載の情報処理装置。
  8. 複数の入力手段を有する情報処理装置に備えられるコンピュータに、
    入力手段の変更を検知し、
    検知された変更後の前記入力手段に応じて、第1格納部に格納された、Graphical User Interface(GUI)オブジェクトに対して、複数種類の表示形態情報を関連付けたオブジェクト表示形態情報から、前記GUIオブジェクトについての表示形態情報を選択し、選択した当該表示形態情報を用いて前記GUIオブジェクトを表示させる、
    処理を実行させることを特徴とする、表示制御プログラム。
  9. 検知した入力手段に関する情報を前記複数の入力手段による入力の履歴を示す入力履歴情報として第2格納部に格納し、
    前記入力履歴情報に基づき、前記GUIオブジェクトについての表示形態情報を選択する、
    処理を前記コンピュータに実行させることを特徴とする、請求項8に記載の表示制御プログラム。
  10. 前記オブジェト表示形態情報は、複数種類の遷移パターン表示形態情報を含み、
    前記入力履歴情報において所定の入力手段の遷移パターンがある場合に、前記入力履歴情報に基づいた前記GUIオブジェクトについての遷移パターン表示形態情報を選択する、
    処理を前記コンピュータに実行させることを特徴とする、請求項9に記載の表示制御プログラム。
  11. 前記複数の入力手段は、
    前記GUIオブジェクトをポインティングデバイスにより操作するポインティングデバイス入力手段と、
    前記GUIオブジェクトをタッチ入力により操作するタッチ入力手段と、
    前記GUIオブジェクトをユーザの動作により操作するモーション入力手段と、
    のうち少なくとも2つを有することを特徴とする、請求項10に記載の表示制御プログラム。
  12. 前記入力履歴情報において前記遷移パターンとして前記タッチ入力手段から前記モーション入力手段への遷移がある場合に、前記タッチ入力手段によって選択されたGUIオブジェクトを強調表示させる、
    処理を前記コンピュータに実行させることを特徴とする、請求項11に記載の表示制御プログラム。
  13. 前記モーション入力手段への変更を検知した場合に、前記表示形態情報に基づき、前記情報処理装置の画面と前記ユーザとの距離に従って、前記GUIオブジェクトを拡大表示又は縮小表示させる、
    処理を前記コンピュータに実行させることを特徴とする、請求項11又は12に記載の表示制御プログラム。
  14. 前記タッチ入力手段への変更を検知した場合に、前記表示形態情報に基づき、前記GUIオブジェクトを拡大表示させる、
    処理を前記コンピュータに実行させることを特徴とする、請求項11〜13のいずれか1項に記載の表示制御プログラム。
  15. 複数の入力手段を有する情報処理装置において、
    入力手段の変更を検知し、
    検知された変更後の前記入力手段に応じて、第1格納部に格納された、Graphical User Interface(GUI)オブジェクトに対して、複数種類の表示形態情報を関連付けたオブジェクト表示形態情報から、前記GUIオブジェクトについての表示形態情報を選択し、選択した当該表示形態情報を用いて前記GUIオブジェクトを表示させる、
    ことを特徴とする、表示制御方法。
  16. 検知した入力手段に関する情報を前記複数の入力手段による入力の履歴を示す入力履歴情報として第2格納部に格納し、
    前記入力履歴情報に基づき、前記GUIオブジェクトについての表示形態情報を選択する、
    ことを特徴とする、請求項15に記載の表示制御方法。
  17. 前記オブジェト表示形態情報は、複数種類の遷移パターン表示形態情報を含み、
    前記入力履歴情報において所定の入力手段の遷移パターンがある場合に、前記入力履歴情報に基づいた前記GUIオブジェクトについての遷移パターン表示形態情報を選択する、
    ことを特徴とする、請求項16に記載の表示制御方法。
  18. 前記複数の入力手段は、
    前記GUIオブジェクトをポインティングデバイスにより操作するポインティングデバイス入力手段と、
    前記GUIオブジェクトをタッチ入力により操作するタッチ入力手段と、
    前記GUIオブジェクトをユーザの動作により操作するモーション入力手段と、
    のうち少なくとも2つを有することを特徴とする、請求項17に記載の表示制御方法。
  19. 前記入力履歴情報において前記遷移パターンとして前記タッチ入力手段から前記モーション入力手段への遷移がある場合に、前記タッチ入力手段によって選択されたGUIオブジェクトを強調表示させる、
    ことを特徴とする、請求項18に記載の表示制御方法。
  20. 前記モーション入力手段への変更を検知した場合に、前記表示形態情報に基づき、前記情報処理装置の画面と前記ユーザとの距離に従って、前記GUIオブジェクトを拡大表示又は縮小表示させる、
    ことを特徴とする、請求項18又は19に記載の表示制御方法。
  21. 前記タッチ入力手段への変更を検知した場合に、前記表示形態情報に基づき、前記GUIオブジェクトを拡大表示させる、
    ことを特徴とする、請求項18〜20のいずれか1項に記載の表示制御方法。
JP2015533897A 2013-08-30 2013-08-30 情報処理装置,表示制御プログラム及び表示制御方法 Pending JPWO2015029222A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/073345 WO2015029222A1 (ja) 2013-08-30 2013-08-30 情報処理装置,表示制御プログラム及び表示制御方法

Publications (1)

Publication Number Publication Date
JPWO2015029222A1 true JPWO2015029222A1 (ja) 2017-03-02

Family

ID=52585836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015533897A Pending JPWO2015029222A1 (ja) 2013-08-30 2013-08-30 情報処理装置,表示制御プログラム及び表示制御方法

Country Status (3)

Country Link
US (1) US20160179352A1 (ja)
JP (1) JPWO2015029222A1 (ja)
WO (1) WO2015029222A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6084142B2 (ja) * 2013-09-19 2017-02-22 シャープ株式会社 表示制御装置、および、制御プログラム
US10963044B2 (en) * 2016-09-30 2021-03-30 Intel Corporation Apparatus, system and method for dynamic modification of a graphical user interface
US20180104020A1 (en) * 2016-10-05 2018-04-19 Biolase, Inc. Dental system and method
DE102017201236B4 (de) * 2017-01-26 2023-09-07 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Bediensystems, Bediensystem und Fahrzeug mit einem Bediensystem

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63201812A (ja) * 1987-02-18 1988-08-19 Hitachi Ltd マンマシンインタフエ−ス装置
JPH07175587A (ja) * 1993-10-28 1995-07-14 Hitachi Ltd 情報処理装置
JPH08101759A (ja) * 1994-09-30 1996-04-16 Ricoh Co Ltd 複数種類の入力手段を有する電子機器
JP2001117686A (ja) * 1999-10-20 2001-04-27 Toshiba Corp ペン入力装置およびペン入力装置のポインティング処理方法
JP2007011459A (ja) * 2005-06-28 2007-01-18 Konica Minolta Business Technologies Inc 画像形成装置
JP2009020759A (ja) * 2007-07-12 2009-01-29 Sony Corp 入力装置、記憶媒体、情報入力方法及び電子機器
US20120262398A1 (en) * 2011-04-14 2012-10-18 Kim Jonghwan Mobile terminal and 3d image controlling method thereof
JP2013514590A (ja) * 2009-12-18 2013-04-25 シナプティクス インコーポレイテッド 動作モードを変更する方法および装置
JP2013125247A (ja) * 2011-12-16 2013-06-24 Sony Corp ヘッドマウントディスプレイ及び情報表示装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10031549B2 (en) * 2008-07-10 2018-07-24 Apple Inc. Transitioning between modes of input
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
US20110205178A1 (en) * 2008-10-28 2011-08-25 Toshihiko Yoshida Electronic device having two display devices, method of controlling the same, and recording medium
JP5719205B2 (ja) * 2010-11-22 2015-05-13 シャープ株式会社 電子機器および表示制御方法
US8645874B2 (en) * 2011-06-14 2014-02-04 Nintendo Co., Ltd. Multi-page sorting for menu items on a handheld
US9928562B2 (en) * 2012-01-20 2018-03-27 Microsoft Technology Licensing, Llc Touch mode and input type recognition
JP5240880B2 (ja) * 2012-06-27 2013-07-17 Necインフロンティア株式会社 端末およびソフトウェアキー入力方法ならびにそのためのプログラム
US9335922B2 (en) * 2013-01-16 2016-05-10 Research In Motion Limited Electronic device including three-dimensional gesture detecting display
US9026939B2 (en) * 2013-06-13 2015-05-05 Google Inc. Automatically switching between input modes for a user interface

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63201812A (ja) * 1987-02-18 1988-08-19 Hitachi Ltd マンマシンインタフエ−ス装置
JPH07175587A (ja) * 1993-10-28 1995-07-14 Hitachi Ltd 情報処理装置
JPH08101759A (ja) * 1994-09-30 1996-04-16 Ricoh Co Ltd 複数種類の入力手段を有する電子機器
JP2001117686A (ja) * 1999-10-20 2001-04-27 Toshiba Corp ペン入力装置およびペン入力装置のポインティング処理方法
JP2007011459A (ja) * 2005-06-28 2007-01-18 Konica Minolta Business Technologies Inc 画像形成装置
JP2009020759A (ja) * 2007-07-12 2009-01-29 Sony Corp 入力装置、記憶媒体、情報入力方法及び電子機器
JP2013514590A (ja) * 2009-12-18 2013-04-25 シナプティクス インコーポレイテッド 動作モードを変更する方法および装置
US20120262398A1 (en) * 2011-04-14 2012-10-18 Kim Jonghwan Mobile terminal and 3d image controlling method thereof
JP2013125247A (ja) * 2011-12-16 2013-06-24 Sony Corp ヘッドマウントディスプレイ及び情報表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
増井俊之ほか1名: ""操作の繰り返しを利用した予測インタフェースの統合"", インタラクティブシステムとソフトウェアI, vol. 初版, JPN6017013197, 30 September 1994 (1994-09-30), JP, pages 225 - 232, ISSN: 0003539626 *

Also Published As

Publication number Publication date
WO2015029222A1 (ja) 2015-03-05
US20160179352A1 (en) 2016-06-23

Similar Documents

Publication Publication Date Title
US10684768B2 (en) Enhanced target selection for a touch-based input enabled user interface
EP2917814B1 (en) Touch-sensitive bezel techniques
JP5625599B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5402322B2 (ja) 情報処理装置および情報処理方法
JP2010176332A (ja) 情報処理装置、情報処理方法およびプログラム
JP5664147B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5679977B2 (ja) 接触入力位置補正装置、入力装置、接触入力位置補正方法、プログラム、及び集積回路
US20140082559A1 (en) Control area for facilitating user input
KR102205283B1 (ko) 적어도 하나의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법
JP2010224663A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2010224663A5 (ja)
JP2012022632A (ja) 情報処理装置およびその制御方法
US20110225535A1 (en) Information processing apparatus
JP2010139686A (ja) プロジェクター、プログラムおよび情報記憶媒体
WO2015029222A1 (ja) 情報処理装置,表示制御プログラム及び表示制御方法
JP5835240B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20140253479A1 (en) Display device and display method
JP5414134B1 (ja) タッチ式入力システムおよび入力制御方法
JP2010211323A (ja) 入力システム、携帯端末、入出力装置、入力システム制御プログラム、コンピュータ読み取り可能な記録媒体、および、入力システムの制御方法
US20120151409A1 (en) Electronic Apparatus and Display Control Method
JP2012146017A (ja) 電子黒板システム、電子黒板システムの制御方法、プログラムおよびその記録媒体
TW201617793A (zh) 穿戴式裝置及其操作方法
JP2015038642A (ja) 表示処理装置及び表示処理方法
US10019141B2 (en) Information processing apparatus, information display program, and information display method for controlling a cursor position in a text region and a display region
JP5065838B2 (ja) 座標入力装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170418