JPWO2010143673A1 - 電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラム - Google Patents

電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラム Download PDF

Info

Publication number
JPWO2010143673A1
JPWO2010143673A1 JP2011518567A JP2011518567A JPWO2010143673A1 JP WO2010143673 A1 JPWO2010143673 A1 JP WO2010143673A1 JP 2011518567 A JP2011518567 A JP 2011518567A JP 2011518567 A JP2011518567 A JP 2011518567A JP WO2010143673 A1 JPWO2010143673 A1 JP WO2010143673A1
Authority
JP
Japan
Prior art keywords
data
trajectory
display
touch panel
panel display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011518567A
Other languages
English (en)
Other versions
JP5522167B2 (ja
Inventor
茂 芦川
茂 芦川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2011518567A priority Critical patent/JP5522167B2/ja
Publication of JPWO2010143673A1 publication Critical patent/JPWO2010143673A1/ja
Application granted granted Critical
Publication of JP5522167B2 publication Critical patent/JP5522167B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ジェスチャー入力をサポートすることができ、電子機器がジェスチャー入力を受け付ける状態であるか否かを利用者が判断できる電子機器を提供する。本発明の電子機器は、タッチパネルディスプレイと、複数の表示データと、各々の表示データに関連付けられた軌跡関連情報と、を記憶する記憶部と、制御部と、を備え、軌跡関連情報には、軌跡データと、軌跡データに関連付けられた機能情報とが含まれ、制御部は、タッチパネルディスプレイに表示する表示データに関連付けられた軌跡関連情報に基づいて、ジェスチャー入力を受け付けるか否かを判別し、ジェスチャー入力を受け付けると判別した場合は、表示データに関連付けられた軌跡関連情報に含まれる軌跡データを表示データに重ねてタッチパネルディスプレイにオーバレイ表示する。

Description

本発明は、タッチパネルディスプレイを利用してジェスチャー入力を行うことができる電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラムに関する。
携帯電話機やPDA(Personal Data Assistance、Personal Digital Assistants:個人向け携帯型情報通信機器)などの携帯端末装置が普及している。近年では、携帯端末装置の表示部は大型化され、表示部に表示される内容もクオリティの高いものとなってきている。このように、携帯端末装置の多機能化・高度化を図ることで、利用者が携帯端末装置を使いこなせるように、利用者に対して操作を分かりやすくすることが以前にも増して求められるようになっている。
そこで、クオリティの高い表示を生かしつつ操作の分かりやすさを実現するために、タッチパネルディスプレイが採用されている。タッチパネルディスプレイは、利用者がタッチしたものを入力データとして入力するタッチパネルの機能と、実行結果を表示するための表示部の機能とを有している。タッチパネルディスプレイに表示された表示データに対して、利用者がタッチパネルディスプレイを指やペンなどで指し示す(タッチする)ことによって、キー操作によるカーソルの移動と決定キーによる選択決定のプロセスを短縮することができる。これにより、入力回数の少ない操作が実現されるようになった。
更に、タッチパネルディスプレイを利用した技術として、ジェスチャー入力という手法が実現されている。ジェスチャー入力とは、利用者がタッチパネルディスプレイをタッチして所定の軌跡(入力軌跡)を入力することを指す。図14Aに示されるように、予め決められた軌跡213−1が携帯端末装置の記憶部に登録され、図14Bに示されるように、入力軌跡220と軌跡213−1とが一致する場合、携帯端末装置は、軌跡213−1に対応する機能を起動させて実行する。
しかし、現在のジェスチャー入力の方法には、以下のような問題点がある。
まず、第1の問題点について説明する。ジェスチャー入力では、利用者は、予め決められた軌跡データと同じ軌跡を入力軌跡として描く必要がある。このため、複数種類の軌跡データが存在する場合、利用者は、複数の軌跡データを記憶していなければならない。この場合、利用者は、記憶違いや、あいまいな軌跡の入力により、ジェスチャー入力を利用できないことが考えられる。この場合、図14Bに示されるように、入力軌跡221と軌跡213−1とが一致しないので、携帯端末装置は、利用者の所望の機能を起動・実行しない。このため、利用者に対して、ジェスチャー入力をサポートすることが望まれる。
次に、第2の問題点について説明する。携帯端末装置は、利用者によるタッチパネルディスプレイへのタッチ操作、又は、利用者による入力部の操作に基づいて処理を実行し、その処理に基づいて生成した表示データをタッチパネルディスプレイに表示する。このとき、携帯端末装置は、この表示データをタッチパネルディスプレイに表示した際に、常にジェスチャー入力を受け付けるとは限らない。これは、ソフトウェアの中には、ジェスチャー入力に対応しているものと対応していないものとが存在するためである。ここで例えば、ジェスチャー入力に対応していないソフトウェアを実行中に、このソフトウェアで用いる表示データがタッチパネルディスプレイに表示され、利用者がタッチパネルディスプレイをタッチして所定の軌跡を描いたとする。このとき、ソフトウェアは処理を行わない。しかしながら、利用者は、ソフトウェアが処理を行わない理由が、実行中のソフトウェアがジェスチャー入力に対応しておらず、携帯端末装置がジェスチャー入力を受け付ける状態でなかったためなのか、描いた軌跡が誤っていたためなのか、それともジェスチャー入力の入力ミスであるためなのかを判断することができない。このため、ジェスチャー入力を受け付けるか否かを利用者が判断できることが望まれる。
ジェスチャー入力に関する技術を紹介する。
特許文献1には、携帯端末が記載されている。携帯端末は、カメラから入力された判定対象物の移動軌跡に関連付けられた動作を実行するカメラ入力インタフェースを備えている。携帯端末は、更に、判定対象物の移動軌跡と移動軌跡に関連付けられた動作との対応関係を示す操作ガイダンス情報を出力する手段と、入力を受け付けた判定対象物の移動軌跡をディスプレイの表示内容に重ねるように描画する手段と、を備えたことを特徴としている。
特許文献2には、ユーザインタフェース装置が記載されている。ユーザインタフェース装置は、記憶手段と、軌跡解析手段と、ジェスチャー検索手段と、案内軌跡表示手段と、コマンド呼出手段とを備えている。記憶手段は、所定のコマンドが割り付けられているジェスチャーを記憶するとともに、そのジェスチャーを誘導する案内軌跡を記憶する。軌跡解析手段は、軌跡入力デバイスに対するユーザの操作軌跡を解析する。ジェスチャー検索手段は、軌跡解析手段がユーザの操作軌跡を解析する毎に、記憶手段に記憶されているジェスチャーの中から、その操作軌跡に合致する1以上のジェスチャーを検索する。案内軌跡表示手段は、記憶手段からジェスチャー検索手段により検索されたジェスチャーの案内軌跡を取得して、その案内軌跡を表示する一方、ジェスチャー検索手段により前回検索されたジェスチャーがユーザの操作軌跡と合致しなくなると、表示しているジェスチャーの案内軌跡を消去する。コマンド呼出手段は、ジェスチャー検索手段により検索されたジェスチャーが1つに絞られると、そのジェスチャーに割り付けられているコマンドを呼び出す。
特開2007−213245号公報 特開2006−331210号公報
特許文献1に記載された技術は、軌跡データの入力に関するものである。しかし、この技術では、操作ガイダンス情報(軌跡データ)を出力することにより、利用者に対してジェスチャー入力をサポートしている点で上述の第1の問題点が一部解決されているが、操作ガイダンス情報を出力するための補助ディスプレイを必要としている。また、上述の第2の問題点については全く考慮されていない。
特許文献2に記載された技術は、軌跡データを正確に覚えていないときに、軌跡データに割り付けられたコマンドを利用するものである。この技術では、利用者による入力軌跡(操作軌跡)に一致する1以上の軌跡データ(案内軌跡)をタッチパネルディスプレイに表示することにより、利用者に対してジェスチャー入力をサポートしている点で上述の第1の問題点が一部解決されているが、やはり、利用者は複数の軌跡データを記憶していなければならない。また、上述の第2の問題点については全く考慮されていない。
本発明の目的は、上述した課題である、ジェスチャー入力をサポートし、さらに、利用者が、電子機器がジェスチャー入力を受け付ける状態であるか否かを判断することができないという課題を解決する電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラムを提供することである。すなわち、本発明の目的は、ジェスチャー入力をサポートすることができ、電子機器がジェスチャー入力を受け付ける状態であるか否かを利用者が判断することができる電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラムを提供することにある。
本発明の電子機器は、タッチパネルディスプレイと、複数の表示データと、各々の表示データに関連付けられた軌跡関連情報と、を記憶する記憶部と、制御部と、を備え、軌跡関連情報には、軌跡データと、軌跡データに関連付けられた機能情報とが含まれ、制御部は、タッチパネルディスプレイに表示する表示データに関連付けられた軌跡関連情報に基づいて、ジェスチャー入力を受け付けるか否かを判別し、ジェスチャー入力を受け付けると判別した場合は、表示データに関連付けられた軌跡関連情報に含まれる軌跡データを表示データに重ねてタッチパネルディスプレイにオーバレイ表示する。
また、本発明のジェスチャー処理方法は、タッチパネルディスプレイに表示する表示データに関連付けられた軌跡関連情報に基づいてジェスチャー入力を受け付けるか否かを判別し、ジェスチャー入力を受け付けると判別した場合は、表示データに関連付けられた軌跡関連情報に含まれる軌跡データを表示データに重ねてタッチパネルディスプレイにオーバレイ表示する。
また、本発明のジェスチャー処理プログラムは、コンピュータに、タッチパネルディスプレイに表示する表示データに関連付けられた軌跡関連情報に基づいてジェスチャー入力を受け付けるか否かを判別させ、ジェスチャー入力を受け付けると判別した場合は、表示データに関連付けられた軌跡関連情報に含まれる軌跡データを表示データに重ねてタッチパネルディスプレイにオーバレイ表示させる。
本発明の電子機器によれば、ジェスチャー入力をサポートすることができ、電子機器がジェスチャー入力を受け付ける状態であるか否かを利用者が判断することができる。
図1は、本発明の第1の実施形態に係る電子機器の外観構成を示す図である。
図2は、本発明の第1の実施形態に係る電子機器の構成を示すブロック図である。
図3は、記憶部に記憶される情報を示す図である。
図4は、本発明の第1の実施形態に係るジェスチャー処理方法を示すフローチャートである。
図5Aは、軌跡データを示す図である。
図5Bは、別の軌跡データを示す図である。
図5Cは、表示データを示す図である。
図5Dは、軌跡データを表示データに重ねてタッチパネルディスプレイにオーバレイ表示した例を示す図である。
図6は、軌跡データを表示データに重ねてタッチパネルディスプレイにオーバレイ表示した別の例を示す図である。
図7は、機能情報を、軌跡データと表示データとに重ねてタッチパネルディスプレイにオーバレイ表示した例を示す図である。
図8は、本発明の第3の実施形態に係る携帯端末装置の外観構成を示している。
図9は、本発明の第3の実施形態に係る携帯端末装置の構成を示すブロック図である。
図10は、データベースの内容を示している。
図11は、本発明の第3の実施形態に係る携帯端末装置の動作の処理を示すフローチャートである。
図12は、本発明の第3の実施形態に係る携帯端末装置の動作の処理を示すフローチャートである。
図13Aは、軌跡データ13−iの例を示している。
図13Bは、軌跡データ13−iと画像データ11−1とがタッチパネルディスプレイ1にオーバレイ表示されているときに、利用者が、軌跡データ13−iを参考にしてタッチパネルディスプレイ1に入力軌跡20をジェスチャー入力した例である。
図14Aは、軌跡データの例を示している。
図14Bは、入力軌跡と軌跡データとが一致する例と入力軌跡と軌跡データとが一致しない例とを示している。
以下に図面を参照して、本発明について詳細に説明する。
〔第1の実施形態〕
図1は、本発明の第1の実施形態に係る電子機器100の外観構成を示す図である。電子機器100はジェスチャー入力を可能とするタッチパネルディスプレイ101を備える。
図2は、電子機器100の構成を示すブロック図である。電子機器100は、タッチパネルディスプレイ101と、記憶部104と、制御部103とを有する。記憶部104は、複数の表示データ111と、各々の表示データ111に関連付けられた軌跡関連情報115と、を記憶する。ここで、表示データ111は、図3に示すように、画像A(111−1)、画像B(111−2)などの画像データや、文字列H(111−3)などの文字データなどである。また、軌跡関連情報115−1、115−2には、図3に示すように、軌跡a1(113−1)や軌跡a2(113−2)などの軌跡データ113と、軌跡データ113に関連付けられた機能a1(114−1)や機能a2(114−2)などの機能情報114とが含まれる。
制御部103は、タッチパネルディスプレイ101に表示する表示データ111に関連付けられた軌跡関連情報115に基づいて、ジェスチャー入力を受け付けるか否かを判別する。そして、ジェスチャー入力を受け付けると判別した場合は、この表示データ111に関連付けられた軌跡関連情報115に含まれる軌跡データ113を表示データ111に重ねてタッチパネルディスプレイ101にオーバレイ表示する。なお、タッチパネルディスプレイ101に表示する表示データ111は、記憶部104に記憶された複数の表示データ111の中から、制御部103が適宜選択したものである。制御部103は、例えば、利用者の入力に基づいてタッチパネルディスプレイ101に表示する表示データ111を選択する。
本実施形態に係る電子機器100によれば、制御部103が、表示データ111に関連付けられた軌跡関連情報115に基づいて、ジェスチャー入力を受け付けるか否かを判別する。さらに、ジェスチャー入力を受け付けると判別した場合は、軌跡データ113を表示データ111に重ねてタッチパネルディスプレイ101にオーバレイ表示する。そのため、電子機器100により、ジェスチャー入力をサポートすることができ、利用者は軌跡を記憶せずとも、正しい軌跡を正確にジェスチャー入力することができる。
また、本実施形態に係る電子機器100によれば、ジェスチャー入力を受け付ける場合は軌跡データがタッチパネルディスプレイ101にオーバレイ表示されるため、利用者は、オーバレイ表示した状態の電子機器100がジェスチャー入力を受け付けることを判断することができる。また、軌跡データ113がオーバレイ表示されない場合は、利用者は、ジェスチャー入力を受け付けないことを判断することができる。
次に、本実施形態に係るジェスチャー処理方法について、図4を用いて説明する。
はじめに、表示データに関連付けられた軌跡関連情報に基づいて、ジェスチャー入力を受け付けるか否かを判別する(ステップS101)。
ここで、ジェスチャー入力を受け付けると判別した場合は、軌跡データを表示データに重ねてタッチパネルディスプレイにオーバレイ表示する(ステップS102)。
一方、ジェスチャー入力を受け付けないと判別した場合は、軌跡データを表示データに重ねてオーバレイ表示しない。このとき、例えば、制御部103は、表示データのみをタッチパネルディスプレイ101に表示することとしても良い。
軌跡データ113を表示データ111に重ねてオーバレイ表示することについて図5を用いて説明する。図5A、図5Bに、軌跡データとして、軌跡a1(113−1)、軌跡a2(113−2)を示す。また、図5Cに、表示データとして、画像A(111−1)を示す。画像A(111−1)は、メールを表す画像データである。軌跡a1(113−1)、軌跡a2(113−2)を画像A(111−1)に重ねてタッチパネルディスプレイ101にオーバレイ表示すると、図5Dのようになる。利用者は、オーバレイ表示されたディスプレイを確認することにより、軌跡データ113の表示の有無に基づいて、電子機器100がジェスチャー入力を受け付ける状態であるか否かを判別することができ、さらに、どのような軌跡のジェスチャー入力を受け付けるかを瞬時に把握することが可能となる。
記憶部104には、ジェスチャー入力を受け付けるか否かを表す可否情報が含まれることとしても良い。可否情報が含まれることにより、制御部103は、可否情報に基づいて、ジェスチャー入力を受け付けるか否かを判別することが可能となる。
図3に示すように、軌跡関連情報115が軌跡データ113と機能情報114とを含む場合、所定の表示データ111に関連付けられた軌跡データ113又は機能情報114の有無に基づいて、制御部103はジェスチャー入力を受け付けるか否かを判別する。例えば、画像A(111−1)には、これに関連付けられた軌跡a1(113−1)と機能a1(114−1)、軌跡a2(113−2)と機能a2(114−2)が存在するため、画像A(111−1)をディスプレイに表示する場合には、制御部103はジェスチャー入力を受け付けると判別することができる。一方、画像B(111−2)には、これに関連付けられた軌跡データ113及び機能情報114が存在しない。そのため、画像B(111−2)をディスプレイに表示する場合には、制御部103はジェスチャー入力を受け付けないと判別することができる。なお、画像B(111−2)の軌跡データ113欄と機能情報欄114には「0」が記載されているが、これは、各欄に該当するものがないことを意味している。
一つの表示データ111に、複数の軌跡関連情報115が関連付けられることとしても良い。この場合、制御部103は、複数の軌跡関連情報115に含まれる複数の軌跡データ113を表示データ111に重ねてタッチパネルディスプレイ101にオーバレイ表示するのが望ましい。これにより、利用者は、複数種類の軌跡を瞬時に把握することが可能となる。
軌跡データ113が複数ある場合は、各軌跡データ113を異なる表示形式にしてオーバレイ表示するのが望ましい。例えば、図6に示すように、軌跡163−1、163−2のそれぞれを異なる線種に設定することにより、利用者はそれぞれの軌跡163−1、163−2を正確に把握することができる。また、軌跡163−1、163−2のそれぞれを異なる色に設定しても、利用者は同様の効果を得ることができる。
制御部103は、軌跡データ113に関連付けられた機能情報114を、軌跡データ113と表示データ111とに重ねてタッチパネルディスプレイ101にオーバレイ表示することとしても良い。例えば、図7に示すように、軌跡a1(113−1)と併せて機能a1(114−1)を表示し、さらに、軌跡a1(113−2)と併せて機能b2(114−1)を表示する。これにより、利用者は、それぞれの軌跡a1(113−1)、軌跡a2(113−2)をジェスチャー入力すると、どのような機能が実行されるかを理解することができる。図7には、軌跡a1(113−1)がジェスチャー入力された場合はテキスト入力機能(text−entry)を実行し、軌跡a2(113−2)がジェスチャー入力された場合はメール送信機能(send)を実行する例を示す。
〔第2の実施形態〕
次に、本発明の第2の実施形態について説明する。第2の実施形態では、表示データと軌跡データとを重ねてタッチパネルディスプレイにオーバレイ表示した後の電子機器の制御に関して説明する。なお、表示データと軌跡データとを重ねてオーバレイ表示することについては第1の実施形態にて説明済みであるため、本実施形態では説明を省略する。
第2の実施形態に係る電子機器100の制御部103は、軌跡データ113と表示データ111とがタッチパネルディスプレイ101にオーバレイ表示されているときにジェスチャー入力が行われた場合、軌跡データ113の中から、ジェスチャー入力により入力された入力軌跡に一致する軌跡データ113を選択軌跡データとして確定する。そして、選択軌跡データに関連付けられた機能を実行する。例えば、入力軌跡が軌跡a1(113−1)と一致した場合は、機能a1(114−1)を実行する(図3)。これにより、利用者は、ジェスチャー入力を用いて所望の機能を電子機器100に実行させることが可能となる。
制御部103は、選択軌跡データを確定した後に、軌跡データ113をタッチパネルディスプレイ101に表示することを終了することとしても良い。これにより、利用者は選択軌跡データが確定されたことを把握することが可能となる。
制御部103は、タッチパネルディスプイレイ101に表示した軌跡データ113の中に入力軌跡に一致する軌跡データが存在しないと判別した場合、軌跡データ113をタッチパネルディスプレイ101に表示することを終了しても良い。これにより、利用者は選択軌跡データが確定されなかったことを把握することが可能となる。
また、制御部103は、軌跡データ113を表示データ111に重ねてオーバレイ表示した後に所定時間内にジェスチャー入力が行われなかった場合、軌跡データ113をタッチパネルディスプレイ101に表示することを終了することとしても良い。
〔第3の実施形態〕
次に、本発明の第3の実施形態について説明する。第3の実施形態に係る電子機器は携帯端末装置である。第3の実施形態に係る携帯端末装置の制御部は、可否情報に基づいて、ジェスチャー入力を受け付けるか否かを判別する。また、表示データとして、文字データを画像データとしたものを用いる。
図8は、本実施形態に係る携帯端末装置の外観構成を示している。
本実施形態に係る携帯端末装置は、タッチパネルディスプレイ1と、入力部2とを具備している。タッチパネルディスプレイ1は、利用者がタッチしたものを入力データとして入力するタッチパネルの機能と、実行結果を表示するための表示部の機能とを有している。
図9は、本実施形態に係る携帯端末装置の構成を示すブロック図である。
本実施形態に係る携帯端末装置は、更に、CPU(Central Processing Unit)である制御部3と、記録媒体である記憶部4とを具備している。記憶部4には、コンピュータに実行させるためのコンピュータプログラム5が記憶されている。制御部3は、起動時などに記憶部4からコンピュータプログラム5を読み取って実行する。
記憶部4は、機能6−1〜6−m(mは2以上の整数)を有している。具体的には、ソフトウェアである機能6−1〜6−mが更に記憶部4に記憶され、制御部3が、後述の動作により、記憶部4から機能6−1〜6−mのうちの1つの機能である機能6−i(iは1≦i≦mを満たす整数)を起動させて実行する。
記憶部4は、データベース7を備えている。図10は、データベース7の内容を示している。
データベース7は、複数パターンの画像データ11−1〜11−n(nは2以上の整数)を記憶する。制御部3は、後述の動作により、データベース7から複数パターンの画像データ11−1〜11−nのうちの1つの画像データを選択し、タッチパネルディスプイレイ1に表示する。
データベース7には、更に、複数パターンの画像データ11−1〜11−nの各々に対して、可否情報12が登録されている。可否情報12は、画像データ11を用いるソフトウェアがジェスチャー入力に対応するか否かを表す。ソフトウェアがジェスチャー入力に対応する場合は、画像データ11をタッチパネルディスプレイ1に表示した際に、携帯情報端末はジェスチャー入力を受け付ける状態になる。一方、ソフトウェアがジェスチャー入力に対応しない場合は、画像データ11をタッチパネルディスプレイ1に表示した際に、携帯情報端末はジェスチャー入力を受け付けない状態となる。
データベース7には、更に、画像データ11に関連付けられた軌跡関連情報15が登録されている。ここでは、画像データ11−1に関連付けられた軌跡関連情報15−1〜15−mが登録されている例を示す。軌跡関連情報15−1〜15−mは、それぞれ、軌跡データ13−1〜13−mと、軌跡データ13−1〜13−mに関連付けられた機能6−1〜6−mの名称である機能情報14−1〜14−mとを含んでいる。
図11は、携帯端末装置の動作として、可否情報と軌跡関連情報とをデータベースに7登録する処理を示すフローチャートである。
まず、複数パターンの画像データ11−1〜11−nの各々に対して、上述の可否情報12をデータベース7に登録する(ステップS1)。可否情報12の登録については、例えば設計者が予め行う。
次に、上述の軌跡関連情報15−1〜15−mを、画像データ11−1に関連付けて、データベース7に登録する(ステップS2)。軌跡関連情報15−1〜15−mの登録については、例えば設計者が予め行う。そして、さらに追加して登録する場合は、利用者が行ってもよい。
図12は、本実施形態に係るジェスチャー処理方法を示すフローチャートである。
利用者は、タッチパネルディスプレイ1へのタッチ操作、又は、入力部2の操作を行っていない(ステップS11−NO)。この場合、制御部3は、現在の画像データをタッチパネルディスプレイ1に表示する。即ち、待機状態である。
利用者は、タッチパネルディスプレイ1へのタッチ操作、又は、入力部2の操作を行ったものとする(ステップS11−YES)。この場合、制御部3は、複数パターンの画像データ11−1〜11−nのうちの、利用者によるタッチパネルディスプレイ1へのタッチ操作、又は、利用者による入力部2の操作に基づいて選択した画像データ11をタッチパネルディスプレイ1に表示する(ステップS12)。
制御部3は、データベース7を参照する(ステップS13)。
ここで、画像データ11に対する可否情報12は、ジェスチャー入力を受け付けることが可能であることを表しているものとする(ステップS13−YES)。この場合、制御部3は、データベース7に登録された軌跡データ13を画像データ11に重ねてタッチパネルディスプレイ1にオーバレイ表示する(ステップS14)。例えば、図13Aは、軌跡データ13−iの例を示し、図13Bは、画像データ11−1と軌跡データ13−iとがオーバレイ表示された例を示している。画像データ11−1には、「お世話になっております。ご質問について、」という文字列が含まれている。軌跡データ13−iには機能情報14−iが関連付けられている。
軌跡データ13と画像データ11とがタッチパネルディスプレイ1にオーバレイ表示されているときに、制御部3は、タッチパネルディスプレイ1に対して利用者によりジェスチャー入力が行われるか否かを所定時間が経過するまで監視する(ステップS15−NO、S19−NO)。
監視の結果、タッチパネルディスプレイ1に対して利用者によりジェスチャー入力が行われたものとする(ステップS15−YES)。この場合、制御部3は、軌跡関連情報15に含まれる軌跡データ13の中から、入力軌跡20(図13A参照)に一致する軌跡データ13、例えば13−i(図13B参照)を選択軌跡データとして選択(確定)する(ステップS16−YES)。例えば、図13Bは、軌跡データ13−iと画像データ11−1とがタッチパネルディスプレイ1にオーバレイ表示されているときに、利用者が、軌跡データ13−iを参考にしてタッチパネルディスプレイ1に入力軌跡20をジェスチャー入力した例である。
選択軌跡データ13が確定されたとき、制御部3は、タッチパネルディスプレイ1への軌跡データ13の表示を終了する(ステップS17)。そして、制御部3は、選択軌跡データに対応する機能6を起動させて実行する(ステップS18)。具体的には、制御部3は、データベース7に登録された軌跡関連情報15に含まれる機能情報14の中から、選択軌跡データに関連付けられた機能情報14を選択し、機能情報14が表す機能6を起動させて実行する。
又は、監視の結果、所定時間が経過するまでに、タッチパネルディスプレイ1に対して利用者によりジェスチャー入力が行われない(ステップS19−YES)。この場合、制御部3は、タッチパネルディスプレイ1への軌跡データ13の表示を終了する(ステップS20)。
又は、監視の結果、タッチパネルディスプレイ1に対して利用者によりジェスチャー入力が行われたが(ステップS15−YES)、軌跡関連情報15に含まれる軌跡データ13の中に、入力軌跡20に一致する軌跡を含む軌跡データ13が存在しない場合、奇跡データが確定しない(ステップS16−NO)。確定しない状態で所定時間が経過した場合(S19−YES)、制御部3は、タッチパネルディスプレイ1への軌跡データ13の表示を終了する(ステップS20)。
一方、画像データ11に関連付けられた可否情報12は、ジェスチャー入力の受け付けられないことを表しているものとする(ステップS13−NO)。この場合、制御部3は、画像データ11をタッチパネルディスプレイ1に表示する。そして、軌跡データ13をタッチパネルディスプレイ1にオーバレイ表示しない。
本実施形態による携帯端末装置によれば、第1、2の効果を実現する。
まず、第1の効果について説明する。
ジェスチャー入力を行うためには、利用者は、予め決められた軌跡データと同じ軌跡を入力軌跡20として描く必要がある。このため、軌跡データが複数種類も存在する場合、利用者は、例えば、軌跡データ13−1〜13−mを記憶していなければならない。即ち、利用者は、機能6−1〜6−mの中から所望の機能を携帯端末装置に起動・実行させるために、機能6−1〜6−mに対応する軌跡データ13−1〜13−mを記憶していなければならない。この場合、利用者は、記憶違いや、あいまいな軌跡の入力により、ジェスチャー入力を利用できないことが考えられる。そこで、本実施形態による携帯端末装置によれば、複数パターンの画像データ11−1〜11−nのうちの、利用者の操作に基づいて選択された画像データ11をタッチパネルディスプレイ1に表示するときに、ジェスチャー入力をサポートするために軌跡データ13を画像データ11に重ねてタッチパネルディスプレイ1にオーバレイ表示する。
このように、本実施形態による携帯端末装置によれば、第1の効果として、軌跡データ13をタッチパネルディスプレイ1にオーバレイ表示することにより、ジェスチャー入力をサポートすることができる。これにより、前述の第1の問題点が解決される。
次に、第2の効果について説明する。
本実施形態による携帯端末装置では、複数パターンの画像データ11のうちの、利用者によるタッチパネルディスプレイ1へのタッチ操作、又は、利用者による入力部の操作に基づいて選択された画像データ11をタッチパネルディスプレイ1に表示する。ここで、選択された画像データ11をディスプレイ1に表示したときに、必ずしも制御部がジェスチャー入力を受け付けるとは限らない。例えば、画像データ11が用いられるソフトウェアによっては、電子機器がジェスチャー入力を受け付ける状態になる場合もあれば、ジェスチャー入力を受け付けない状態になる場合もある。本実施形態による携帯端末装置によれば、ジェスチャー入力を受け付けることができる場合、軌跡データ13を画像データ11に重ねてタッチパネルディスプレイ1にオーバレイ表示する。
このように、本実施形態による携帯端末装置によれば、第2の効果として、軌跡データ13をタッチパネルディスプレイ1にオーバレイ表示することにより、利用者は、携帯端末がジェスチャー入力を受け付ける状態にあることを判断することができる。一方、軌跡データ13をタッチパネルディスプレイ1にオーバレイ表示しない場合、利用者は、携帯端末がジェスチャー入力を受け付けない状態にあることを判断することができる。これにより、前述の第2の問題点が解決される。
以上の説明により、本実施形態による携帯端末装置によれば、ジェスチャー入力をサポートすることができ、利用者は、携帯端末装置がジェスチャー入力を受け付ける状態にあるか否かを判断することができる。
〔第4の実施形態〕
次に、本発明の第3の実施形態に係る電子機器について以下に説明する。本実施形態に係る電子機器は携帯端末装置である。
本発明の携帯端末装置は、タッチパネルディスプレイと、記憶部と、制御部とを具備している。記憶部には、複数パターンの画像データの各々に対して、利用者がタッチパネルディスプレイにタッチすることによってジェスチャー入力を受け付けるか否かを表す可否情報が登録され、複数パターンの画像データのうちの、ジェスチャー入力を受け付ける画像データに対して登録軌跡データが登録されている。登録軌跡データは、それぞれ、ジェスチャー入力をサポートするための登録軌跡と、登録軌跡に関連付けられた機能の名称とを含んでいる。制御部は、複数パターンの画像データのうちの、利用者の操作に応じた画像データをタッチパネルディスプレイに表示する。このとき、制御部は、画像データに対する可否情報がジェスチャー入力の受け付けを表している場合、記憶部に登録された登録軌跡データを画像データに重ねてタッチパネルディスプレイにオーバレイ表示する。
本発明は上記実施形態に限定されることなく、特許請求の範囲に記載した発明の範囲内で、種々の変形が可能であり、それらも本発明の範囲内に含まれるものであることはいうまでもない。
この出願は、2009年6月10日に出願された日本出願特願2009−138828を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明は、タッチパネルディスプレイを備えた電子機器に適用される。
1、101 タッチパネルディスプレイ
2、101 入力部
3、103 制御部(CPU)
4、104 記憶部
5 コンピュータプログラム
6−1〜6−m 機能
6−i 機能
7 データベース
11−1〜11−n 画像データ
12 可否情報
13−1〜13−m 軌跡データ
13−i 軌跡データ
14−1〜14−m 機能情報
14−i 機能情報
15−1〜15−m 軌跡関連情報
20、220、221 入力軌跡
100 電子機器
111 表示データ
113、163 軌跡データ
114 機能情報
115 軌跡関連情報

Claims (23)

  1. タッチパネルディスプレイと、
    複数の表示データと、各々の前記表示データに関連付けられた軌跡関連情報と、を記憶する記憶部と、
    制御部と、を備え、
    前記軌跡関連情報には、軌跡データと、前記軌跡データに関連付けられた機能情報とが含まれ、
    前記制御部は、前記タッチパネルディスプレイに表示する前記表示データに関連付けられた前記軌跡関連情報に基づいて、ジェスチャー入力を受け付けるか否かを判別し、前記ジェスチャー入力を受け付けると判別した場合は、前記表示データに関連付けられた前記軌跡関連情報に含まれる前記軌跡データを前記表示データに重ねて前記タッチパネルディスプレイにオーバレイ表示する電子機器。
  2. 前記制御部は、前記軌跡データと前記表示データとが前記タッチパネルディスプレイにオーバレイ表示されているときに前記ジェスチャー入力が行われた場合、前記軌跡データの中から、前記ジェスチャー入力により入力された入力軌跡に一致する前記軌跡データを選択軌跡データとして確定し、前記選択軌跡データに関連付けられた機能を実行する請求項1に記載の電子機器。
  3. 前記制御部は、前記選択軌跡データを確定した後に、前記軌跡データを前記タッチパネルディスプレイに表示することを終了する請求項2に記載の電子機器。
  4. 前記制御部は、前記軌跡データと前記表示データとが前記タッチパネルディスプレイにオーバレイ表示されているときに前記ジェスチャー入力が行われ、前記ジェスチャー入力により入力された入力軌跡と前記軌跡データとが一致しないと判別した場合、前記軌跡データを前記タッチパネルディスプレイに表示することを終了する請求項1から3のいずれか一項に記載の電子機器。
  5. 前記制御部は、前記軌跡データを前記表示データに重ねて前記タッチパネルディスプレイにオーバレイ表示した後に所定時間内に前記ジェスチャー入力が行われなかった場合、前記軌跡データを前記タッチパネルディスプレイに表示することを終了する請求項1から4のいずれか一項に記載の電子機器。
  6. 前記制御部は、前記ジェスチャー入力を受け付けないと判別した場合は、前記表示データを前記タッチパネルディスプレイに表示する請求項1から5のいずれか一項に記載の電子機器。
  7. 前記記憶部には、前記表示データが前記ジェスチャー入力を受け付けるか否かを表す可否情報が記憶され、
    前記制御部は、前記可否情報に基づいて、前記ジェスチャー入力を受け付けるか否かを判別する請求項1から6のいずれか一項に記載の電子機器。
  8. 前記軌跡関連情報には、複数の軌跡データが含まれ、
    前記制御部は、複数の前記軌跡データを前記表示データに重ねて前記タッチパネルディスプレイにオーバレイ表示する請求項1から7のいずれか一項に記載の電子機器。
  9. 前記制御部は、それぞれの前記軌跡データを異なる表示形式で前記表示データに重ねて前記タッチパネルディスプレイにオーバレイ表示する請求項8に記載の電子機器。
  10. 前記制御部は、前記軌跡データに関連付けられた前記機能情報を、前記軌跡データと前記表示データとに重ねて前記タッチパネルディスプレイにオーバレイ表示する請求項1から9のいずれか一項に記載の電子機器。
  11. 前記表示データは、利用者による前記タッチパネルディスプレイへのタッチ操作により選択される請求項1から10のいずれか一項に記載の電子機器。
  12. 入力部を更に具備し、
    前記表示データは、利用者による前記タッチパネルディスプレイへのタッチ操作、又は、前記利用者による前記入力部の操作により選択される請求項1から10のいずれか一項に記載の電子機器。
  13. タッチパネルディスプレイに表示する表示データに関連付けられた軌跡関連情報に基づいてジェスチャー入力を受け付けるか否かを判別し、
    前記ジェスチャー入力を受け付けると判別した場合は、前記表示データに関連付けられた前記軌跡関連情報に含まれる軌跡データを前記表示データに重ねて前記タッチパネルディスプレイにオーバレイ表示するジェスチャー処理方法。
  14. 前記軌跡データと前記表示データとが前記タッチパネルディスプレイにオーバレイ表示されているときに前記ジェスチャー入力が行われた場合、前記軌跡データの中から、前記ジェスチャー入力により入力された入力軌跡に一致する前記軌跡データを選択軌跡データとして確定し、前記選択軌跡データに関連付けられた機能を実行する請求項13に記載のジェスチャー処理方法。
  15. 前記選択軌跡データを確定した後に、前記軌跡データを前記タッチパネルディスプレイに表示することを終了する請求項14に記載のジェスチャー処理方法。
  16. 前記軌跡データと前記表示データとが前記タッチパネルディスプレイにオーバレイ表示されているときに前記ジェスチャー入力が行われ、前記ジェスチャー入力により入力された入力軌跡と前記軌跡データとが一致しないと判別した場合、前記軌跡データを前記タッチパネルディスプレイに表示することを終了する請求項13から15のいずれか一項に記載のジェスチャー処理方法。
  17. 前記軌跡データを前記表示データに重ねて前記タッチパネルディスプレイにオーバレイ表示した後に所定時間内に前記ジェスチャー入力が行われなかった場合、前記軌跡データを前記タッチパネルディスプレイに表示することを終了する請求項13から16のいずれか一項に記載のジェスチャー処理方法。
  18. 前記ジェスチャー入力を受け付けないと判別した場合は、前記表示データを前記タッチパネルディスプレイに表示する請求項13から17のいずれか一項に記載のジェスチャー処理方法。
  19. 前記ジェスチャー入力を受け付けるか否かを表す可否情報を記憶部に記憶する請求項13から18のいずれか一項に記載のジェスチャー処理方法。
  20. 前記可否情報に基づいて、前記ジェスチャー入力を受け付けるか否かを判別する請求項19に記載のジェスチャー処理方法。
  21. 前記表示データを、利用者による操作に基づいて選択する請求項13から20のいずれかに記載のジェスチャー処理方法。
  22. 前記ジェスチャー入力を受け付けないと判別した場合は、
    前記表示データを前記タッチパネルディスプレイに表示する請求項13から21のいずれかに記載のジェスチャー処理方法。
  23. コンピュータに、
    タッチパネルディスプレイに表示する表示データに関連付けられた軌跡関連情報に基づいてジェスチャー入力を受け付けるか否かを判別させ、
    前記ジェスチャー入力を受け付けると判別した場合は、前記表示データに関連付けられた前記軌跡関連情報に含まれる軌跡データを前記表示データに重ねて前記タッチパネルディスプレイにオーバレイ表示させるジェスチャー処理プログラム。
JP2011518567A 2009-06-10 2010-06-03 電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラム Active JP5522167B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011518567A JP5522167B2 (ja) 2009-06-10 2010-06-03 電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009138828 2009-06-10
JP2009138828 2009-06-10
PCT/JP2010/059802 WO2010143673A1 (ja) 2009-06-10 2010-06-03 電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラム
JP2011518567A JP5522167B2 (ja) 2009-06-10 2010-06-03 電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2010143673A1 true JPWO2010143673A1 (ja) 2012-11-29
JP5522167B2 JP5522167B2 (ja) 2014-06-18

Family

ID=43308928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011518567A Active JP5522167B2 (ja) 2009-06-10 2010-06-03 電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラム

Country Status (6)

Country Link
US (1) US9176663B2 (ja)
EP (1) EP2442214A4 (ja)
JP (1) JP5522167B2 (ja)
KR (2) KR101517655B1 (ja)
CN (1) CN102460353B (ja)
WO (1) WO2010143673A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5729756B2 (ja) * 2011-02-18 2015-06-03 Necカシオモバイルコミュニケーションズ株式会社 携帯電子機器、その制御方法及びプログラム
KR101370830B1 (ko) * 2012-04-25 2014-03-25 한국과학기술연구원 사용자 인터페이스 구현 시스템 및 구현 방법
TWI456487B (zh) * 2012-04-26 2014-10-11 Acer Inc 行動裝置以及手勢判斷方法
JP5672262B2 (ja) * 2012-04-27 2015-02-18 コニカミノルタ株式会社 画像処理装置、その制御方法、および、その制御プログラム
EP2884376A4 (en) * 2012-08-08 2016-06-08 Nec Corp PORTABLE ELECTRONIC DEVICE AND CONTROL METHOD AND PROGRAM THEREFOR
JP5772773B2 (ja) 2012-09-19 2015-09-02 コニカミノルタ株式会社 画像処理装置、操作標準化方法および操作標準化プログラム
JP5999579B2 (ja) * 2012-09-19 2016-09-28 ブラザー工業株式会社 電子機器及び操作端末の操作表示方法
EP2752749B1 (en) 2012-10-08 2016-07-27 Huawei Device Co., Ltd. Processing method of touch screen device user interface and touch screen device
CN103809794B (zh) * 2012-11-13 2017-11-28 联想(北京)有限公司 一种信息处理方法以及电子设备
KR20140089238A (ko) * 2013-01-04 2014-07-14 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR101795204B1 (ko) * 2013-06-25 2017-11-07 후지쯔 가부시끼가이샤 정보 처리 장치 및 기록 매체
JP5917461B2 (ja) * 2013-08-08 2016-05-18 東芝テック株式会社 情報処理装置、プログラム
CN105474112B (zh) * 2013-08-21 2019-03-08 三菱电机株式会社 程序编辑方法
CN104199552B (zh) * 2014-09-11 2017-10-27 福州瑞芯微电子股份有限公司 多屏显示方法、设备及系统
US10671277B2 (en) 2014-12-17 2020-06-02 Datalogic Usa, Inc. Floating soft trigger for touch displays on an electronic device with a scanning module
US11567626B2 (en) * 2014-12-17 2023-01-31 Datalogic Usa, Inc. Gesture configurable floating soft trigger for touch displays on data-capture electronic devices
CN105786375A (zh) * 2014-12-25 2016-07-20 阿里巴巴集团控股有限公司 在移动终端操作表单的方法及装置
CN105363201B (zh) * 2015-08-27 2018-09-25 腾讯科技(深圳)有限公司 提示信息的显示方法及装置
KR101718070B1 (ko) * 2015-09-17 2017-03-20 주식회사 한컴플렉슬 제스처 조합 기반의 이벤트 실행이 가능한 터치스크린 장치 및 그 동작 방법
WO2017047930A1 (ko) * 2015-09-17 2017-03-23 주식회사 한컴플렉슬 선택적 자유선 입력이 가능한 터치스크린 장치 및 상기 터치스크린 장치의 선택적 자유선 입력 지원 방법
KR101718071B1 (ko) * 2015-09-17 2017-03-20 주식회사 한컴플렉슬 선택적 자유선 입력이 가능한 터치스크린 장치 및 상기 터치스크린 장치의 선택적 자유선 입력 지원 방법
WO2017047929A1 (ko) * 2015-09-17 2017-03-23 주식회사 한컴플렉슬 제스처 조합 기반의 이벤트 실행이 가능한 터치스크린 장치 및 그 동작 방법
JP6470356B2 (ja) * 2017-07-21 2019-02-13 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
EP3663908A4 (en) * 2017-08-02 2020-08-12 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING SYSTEM, PROGRAM GENERATION METHOD AND PROGRAM
US11093122B1 (en) * 2018-11-28 2021-08-17 Allscripts Software, Llc Graphical user interface for displaying contextually relevant data

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127819A (ja) * 1991-10-31 1993-05-25 Nec Corp ストロークコマンド支援方式
JP2006099468A (ja) * 2004-09-29 2006-04-13 Toshiba Corp ジェスチャ入力装置、ジェスチャ入力方法及びジェスチャ入力プログラム
JP2007065809A (ja) * 2005-08-30 2007-03-15 Sony Corp ヘルプガイダンス表示方法、ヘルプガイダンス表示装置、情報処理装置、プリントキオスク装置及びプログラム
JP2007213245A (ja) * 2006-02-08 2007-08-23 Nec Corp 携帯端末及びプログラム
JP2008282092A (ja) * 2007-05-08 2008-11-20 Canon Inc ジェスチャーコマンドを覚えながら操作できる情報処理装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7623119B2 (en) * 2004-04-21 2009-11-24 Nokia Corporation Graphical functions by gestures
JP4684745B2 (ja) 2005-05-27 2011-05-18 三菱電機株式会社 ユーザインタフェース装置及びユーザインタフェース方法
US7480870B2 (en) * 2005-12-23 2009-01-20 Apple Inc. Indication of progress towards satisfaction of a user input condition
US9395905B2 (en) * 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
KR101304461B1 (ko) * 2006-12-04 2013-09-04 삼성전자주식회사 제스처 기반 사용자 인터페이스 방법 및 장치
KR20080104858A (ko) * 2007-05-29 2008-12-03 삼성전자주식회사 터치 스크린 기반의 제스쳐 정보 제공 방법 및 장치, 그장치를 포함하는 정보 단말 기기
JP4378519B2 (ja) * 2007-06-29 2009-12-09 シャープ株式会社 情報表示装置
JP4897655B2 (ja) 2007-12-05 2012-03-14 本田技研工業株式会社 車両用自動変速機

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127819A (ja) * 1991-10-31 1993-05-25 Nec Corp ストロークコマンド支援方式
JP2006099468A (ja) * 2004-09-29 2006-04-13 Toshiba Corp ジェスチャ入力装置、ジェスチャ入力方法及びジェスチャ入力プログラム
JP2007065809A (ja) * 2005-08-30 2007-03-15 Sony Corp ヘルプガイダンス表示方法、ヘルプガイダンス表示装置、情報処理装置、プリントキオスク装置及びプログラム
JP2007213245A (ja) * 2006-02-08 2007-08-23 Nec Corp 携帯端末及びプログラム
JP2008282092A (ja) * 2007-05-08 2008-11-20 Canon Inc ジェスチャーコマンドを覚えながら操作できる情報処理装置

Also Published As

Publication number Publication date
KR20140069359A (ko) 2014-06-09
KR101517742B1 (ko) 2015-05-04
KR20120027504A (ko) 2012-03-21
EP2442214A4 (en) 2015-05-20
KR101517655B1 (ko) 2015-05-04
CN102460353A (zh) 2012-05-16
CN102460353B (zh) 2015-09-30
US9176663B2 (en) 2015-11-03
EP2442214A1 (en) 2012-04-18
WO2010143673A1 (ja) 2010-12-16
JP5522167B2 (ja) 2014-06-18
US20120086662A1 (en) 2012-04-12

Similar Documents

Publication Publication Date Title
JP5522167B2 (ja) 電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラム
KR101019039B1 (ko) 터치 스크린을 구비한 단말기 및 데이터 검색 방법.
JP2019220237A (ja) 文字入力インターフェース提供方法及び装置
CN105630327B (zh) 便携式电子设备和控制可选元素的显示的方法
KR101633842B1 (ko) 연속적인 제스쳐 입력을 위한 복수의 그래픽 키보드들
US9703418B2 (en) Mobile terminal and display control method
WO2014062358A1 (en) Multi-gesture text input prediction
US11379116B2 (en) Electronic apparatus and method for executing application thereof
CN102144206A (zh) 姿势输入操作设备、方法、程序和便携式设备
EP2909702B1 (en) Contextually-specific automatic separators
JP2014106625A (ja) 携帯端末、携帯端末の制御方法、プログラム、および記録媒体
US9965454B2 (en) Assisted punctuation of character strings
JP2014195202A (ja) シンボル入力装置及びプログラム
JP5752759B2 (ja) 電子機器、方法、およびプログラム
CN101539820A (zh) 触摸屏划线输入法
JP2016045875A (ja) 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
US10261675B2 (en) Method and apparatus for displaying screen in device having touch screen
JP7120450B2 (ja) 表示装置
JP5335870B2 (ja) 情報処理装置、方法及びコンピュータ・プログラム
JP6349705B2 (ja) 語学学習装置、表示方法、およびプログラム
JP2013162202A (ja) 情報処理装置、情報処理方法及びプログラム
JP2014116726A (ja) 携帯電子機器、携帯電子機器の文字入力方法およびプログラム
TW201520946A (zh) 快速顯示Skype聯絡人名單之方法及其電腦可程式產品及可攜式電子裝置
JP2014186613A (ja) 電子機器、表示制御方法、及びプログラム
JP2015022734A (ja) 電子機器、辞書検索プログラム、辞書検索システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130805

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140121

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140324

R150 Certificate of patent or registration of utility model

Ref document number: 5522167

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250