JP2016042394A - 情報処理装置および方法、プログラム、並びに記録媒体 - Google Patents

情報処理装置および方法、プログラム、並びに記録媒体 Download PDF

Info

Publication number
JP2016042394A
JP2016042394A JP2016000116A JP2016000116A JP2016042394A JP 2016042394 A JP2016042394 A JP 2016042394A JP 2016000116 A JP2016000116 A JP 2016000116A JP 2016000116 A JP2016000116 A JP 2016000116A JP 2016042394 A JP2016042394 A JP 2016042394A
Authority
JP
Japan
Prior art keywords
gesture
input
information processing
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016000116A
Other languages
English (en)
Inventor
宗一 小波
Soichi Konami
宗一 小波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016000116A priority Critical patent/JP2016042394A/ja
Publication of JP2016042394A publication Critical patent/JP2016042394A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】ジェスチャを確実に入力することができるようにする。
【解決手段】入力部が、ジェスチャ入力を受け付け、認識部が、入力部に入力されたジェスチャを認識し、表示部が、ジェスチャ入力不可能な領域で実行された場合、ジェスチャが入力された画面における、ジェスチャが入力可能な領域を表す入力可能領域情報を表示する。本技術は、タッチパネルを搭載するスマートフォンやタブレット端末に適用することができる。
【選択図】図3

Description

本技術は、情報処理装置および方法、プログラム、並びに記録媒体に関し、特に、ジェスチャを確実に入力することができるようにした情報処理装置および方法、プログラム、並びに記録媒体に関する。
タッチパネルを搭載するスマートフォンやタブレット端末等の情報処理端末の普及に伴い、ジェスチャによる操作が可能なインタフェースが増えている。ユーザがジェスチャ入力を行った場合、情報処理端末はジェスチャを認識し、認識したジェスチャに関連付けられた処理を実行する。
ジェスチャの入力には様々な種類があるため、ユーザに対して、入力可能なジェスチャを案内するメニューを表示する情報処理端末もある(例えば、特許文献1参照)。
特開2005-339420号公報
しかしながら、情報処理端末には様々な情報が同時に表示されている。このため、ユーザは、誤った位置でジェスチャを入力してしまうことがある。この場合、正しいジェスチャを入力しても、その入力が受け付けられないので、ユーザは装置が故障したと誤認してしまう恐れがある。
本技術はこのような状況に鑑みてなされたものであり、ジェスチャを確実に入力することができるようにするものである。
本技術の一側面の情報処理装置は、ジェスチャの入力を受け付ける入力部と、前記入力部に入力された前記ジェスチャを認識する認識部と、第一のジェスチャによる第一の入力処理が不可能な領域で、前記第一のジェスチャが所定の回数入力された場合、入力された画面における第二のジェスチャによる前記第一の入力処理が可能な領域と、前記第二のジェスチャを解説する情報とを関連付けて表示する表示制御部とを備える情報処理装置である。
前記第二のジェスチャは、前記第一のジェスチャとは異なるものとすることができる。
前記第一のジェスチャは、タップ操作とするようにすることができる。
前記第二のジェスチャは、画面上で任意の方向に指を動かす操作とすることができる。
前記第一のジェスチャは、タップ操作とすることができる。
前記第二のジェスチャは、画面上で任意の方向に指を動かす操作とすることができる。
前記第二のジェスチャを解説する情報には、テキスト情報を含ませるようにすることができる。
前記第二のジェスチャを解説する情報には、第二のジェスチャの種類と、前記第一の入力処理に関する情報とを含ませるようにすることができる。
前記第二のジェスチャによる第一の入力処理が可能な領域は、色付けされて表示されるようにすることができる。
表示情報を表示する表示部をさらに含ませるようにすることができる。
情報を通信する通信部をさらに含ませるようにすることができ、前記表示部には、前記通信部により受信されたwebページを表示させるようにすることができる。
前記表示部の上面にタッチパネルをさらに含ませるようにすることができる。
本技術の一側面の情報処理方法は、ジェスチャの入力を受け付ける入力ステップと、入力された前記ジェスチャを認識する認識ステップと、第一のジェスチャによる第一の入力処理が不可能な領域で、前記第一のジェスチャが所定の回数入力された場合、入力された画面における第二のジェスチャによる前記第一の入力処理が可能な領域と、前記第二のジェスチャを解説する情報とを関連付けて表示する表示制御ステップとを含む情報処理方法である。
本技術の一側面のプログラムは、コンピュータに、ジェスチャの入力を受け付ける入力ステップと、入力された前記ジェスチャを認識する認識ステップと、第一のジェスチャによる第一の入力処理が不可能な領域で、前記第一のジェスチャが所定の回数入力された場合、入力された画面における第二のジェスチャによる前記第一の入力処理が可能な領域と、前記第二のジェスチャを解説する情報とを関連付けて表示する表示制御ステップとを実行させるプログラムである。
本技術の一側面の記録媒体は、コンピュータに、ジェスチャの入力を受け付ける入力ステップと、入力された前記ジェスチャを認識する認識ステップと、第一のジェスチャによる第一の入力処理が不可能な領域で、前記第一のジェスチャが所定の回数入力された場合、入力された画面における第二のジェスチャによる前記第一の入力処理が可能な領域と、前記第二のジェスチャを解説する情報とを関連付けて表示する表示制御ステップとを実行させるプログラムが記録されているコンピュータが読み取り可能な記録媒体である。
本技術の一側面においては、ジェスチャの入力が受け付けられ、入力された前記ジェスチャが認識され、第一のジェスチャによる第一の入力処理が不可能な領域で、前記第一のジェスチャが所定の回数入力された場合、入力された画面における第二のジェスチャによる前記第一の入力処理が可能な領域と、前記第二のジェスチャを解説する情報とが関連付けられて表示される。
本技術によれば、ジェスチャを確実に入力することができるようにする。
本技術の一実施形態に係る情報処理端末の外観の例を示す図である。 情報処理端末の電気的構成例を示すブロック図である。 コントローラの機能的構成例を示すブロック図である。 表示部の表示例を示す図である。 ジェスチャ入力の一例を示す図である。 ジェスチャ入力処理について説明するフローチャートである。 ジェスチャ入力処理実行時の表示例を示す図である。 ジェスチャ入力処理実行時の表示例を示す図である。 ジェスチャ入力処理実行時の表示例を示す図である。 ジェスチャ入力処理実行時の表示例を示す図である。 入力可能領域表示処理について説明するフローチャートである。 入力可能領域表示処理実行時の表示例を示す図である。 入力可能領域表示処理実行時の表示例を示す図である。 入力可能領域表示処理実行時の表示例を示す図である。 入力可能領域表示処理実行時の表示例を示す図である。
以下、本技術の実施の形態について説明する。説明は以下の順序で行う。
1.第1の実施の形態(ジェスチャ入力補正機能)
2.第2の実施の形態(入力可能領域表示機能)
<第1の実施の形態>
ユーザが入力したジェスチャが認識可能でない場合に、選択肢を示してジェスチャを補正する機能である、ジェスチャ入力補正機能について説明する。
[情報処理端末の外観]
図1は、本技術の一実施形態に係る情報処理端末の外観の例を示す図である。
図1の情報処理端末1は、スマートフォン、携帯電話機、PDA(Personal Digital Assistants)、PND(Portable Navigation Device)などの携帯型の端末であり、ユーザが片手で持ち運ぶことが可能な大きさの筐体を有している。
情報処理端末1の筐体の前面にはLCD(Liquid Crystal Display)などよりなる表示部11が設けられる。表示部11の上面にはタッチパネル25が設けられており、ユーザは、表示部11に表示された情報に対応する位置のタッチパネル25を指などで直接操作することができるようになされている。表示部11の下には複数のボタンからなる操作部12が設けられる。
[情報処理端末の構成例]
図2は、情報処理端末1の電気的構成例を示すブロック図である。
情報処理端末1は、コントローラ21に対して、表示部11と操作部12の他に、センサ部22、カメラ23、通信部24、タッチパネル25、および記憶部26が接続されることによって構成される。
コントローラ21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)(図示せず)などより構成される。コントローラ21のCPUは、ROMからプログラムをロードしてRAMを用いて実行し、情報処理端末1の全体の動作を制御する。
センサ部22はジャイロセンサなどよりなり、情報処理端末1に生じた揺れを検出する。センサ部22は、検出した揺れの情報をコントローラ21に出力する。
カメラ23は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、情報処理端末1の筐体の正面側に設けられたレンズ(図示せず)により取り込まれた光の光電変換を行い、画像データを生成する。カメラ23により撮影された画像は、コントローラ21に供給される。
通信部24は、LAN(Local Area Network)やインターネットなどのネットワーク上の機器と通信を行う。例えば、通信部24により受信されたWebページなどの情報が表示部11に表示される。
表示部11の上面には透明なタッチパネル25が設けられており、ユーザの指等の操作を検出する。記憶部26は、不揮発性メモリ、ハードディスクなどにより構成され、コントローラ21が実行するプログラム、データ等を記憶する。
図3は、コントローラ21の機能的構成例を示すブロック図である。図3に示す機能部のうちの少なくとも一部は、図2のコントローラ21により所定のプログラムが実行されることによって実現される。
図3において、コントローラ21は、ジェスチャ認識部31、認識結果補正部32、補正情報保存部33、軌跡表示部34、および補正候補生成部35を含むように構成されている。
ジェスチャ認識部31は、ユーザが指でタッチパネル25をなぞる等して入力したジェスチャを検出する。ジェスチャには、上述したなぞる操作の他にも、複数の操作が存在する。例えば、ジェスチャには、ユーザが軽く1度、タッチパネル25に触れるタップ操作、ユーザが軽く2度、タッチパネル25に触れるダブルタップ操作がある。また例えば、ユーザがタッチパネル25を任意の方向に指41(後述する図4参照)ではらうフリック操作等がある。さらに、ジェスチャには、ユーザの指41がタッチパネル25上で円や三角形等の図形を描く操作等がある。
また、ジェスチャ認識部31は、検出したジェスチャが、情報処理端末1が実行する処理のうち、どの処理に関連付けられたジェスチャであるかを認識する。即ち、ジェスチャ認識部31は、検出したジェスチャに関連付けられた処理がない場合、そのジェスチャを、認識できないジェスチャと判定する。
さらに、ジェスチャ認識部31は、認識したジェスチャに関連付けられた処理を実行する。
認識結果補正部32は、ジェスチャ認識部31が認識できなかったジェスチャに対して、ユーザに補正を促す処理を行う。具体的には例えば、ユーザがジェスチャを入力した画面で認識可能なジェスチャや、ユーザが入力したジェスチャに近い他のジェスチャを、選択肢として表示部11に表示する。また例えば、認識結果補正部32は、表示部11の画像に対応してユーザがジェスチャを入力した領域が、そのジェスチャを認識できない領域であった場合、ジェスチャの入力が可能な領域を表示する。
補正情報保存部33は、認識できないジェスチャをユーザが入力した場合、認識できないジェスチャと、ユーザにより選択されたジェスチャとを関連付けて、補正情報として保存する。補正情報保存部33は、認識できないジェスチャが検出されるたびに、補正情報を繰り返し保存する。補正情報保存部33に蓄積された補正情報に基づき、ジェスチャ認識部31は、ユーザのジェスチャを学習する。また、補正情報保存部33は、表示部11に表示中のアプリケーションを特定するID(Identification)および画面を特定するIDを、ジェスチャに対応付けて保存する。
軌跡表示部34は、ジェスチャ認識部31により認識されたジェスチャの軌跡を、表示部11に表示する。また、軌跡表示部34は、ジェスチャの軌跡を所定のサイズに縮小するアニメーションを作成し、所定のサイズになったジェスチャを、縮小軌跡として、表示部11に表示する。縮小軌跡については、図7を参照して後述する。
補正候補生成部35は、補正情報保存部33に保存されている、表示部11に表示中のアプリケーションを特定するIDおよび画面を特定するIDを参照して、ユーザがジェスチャ入力した画面で認識可能なジェスチャや、認識できないジェスチャに近いジェスチャの候補を、選択肢として生成する。また、補正候補生成部35は、補正情報保存部33に保存されている、表示部11に表示中のアプリケーションを特定するIDおよび画面を特定するIDを参照して、表示部11に表示されている画像のうち、ジェスチャの入力が可能な領域を検出する。
図4は、表示部11の表示例を示す図である。上述したように、表示部11の上面には透明なタッチパネル25が設けられており、ユーザは、表示部11に表示された情報を、タッチパネル25を介して視認し、指41などで直接操作する。
ユーザの指41は、タッチパネル25にジェスチャを入力する。ユーザは、指41をタッチパネル25に接触させ、タッチパネル25上で各種の動作をすることにより、ジェスチャを入力する。なお、以下においては、説明を簡単にするため、必要に応じて、表示部11にジェスチャを入力するとも記述する。
表示領域51乃至54は、表示部11に表示されたウインドウである。表示領域51乃至54には、コンテンツやアプリケーションに対応した画像が表示される。
スクロールバー55は、表示部11に表示されている画像を、右または左に移動させることができる。即ち、ユーザはスクロールバー55上を、横方向にフリックすることで、表示部11に表示させている画像を左右に移動させることができる。
図5は、ジェスチャ入力の一例を示す図である。ユーザが、指41を表示部11上で星を描くようなジェスチャ(以下、ジェスチャ(星)と称する)の入力を行うと、ジェスチャ認識部31は、指41によるジェスチャを、ジェスチャ(星)であると認識する。また、ジェスチャ認識部31に認識された指41の軌跡が、軌跡表示部34によりジェスチャ軌跡61として、表示部11の指41でジェスチャを入力した位置に表示される。ジェスチャ認識部31は、入力されたジェスチャ(星)に関連付けられた処理(例えば、「オプションメニューを開く」など)を実行する。
[情報処理端末の動作]
図6は、ジェスチャ入力処理について説明するフローチャートである。ジェスチャ入力処理は、ユーザが表示部11にジェスチャを入力した場合に、コントローラ21が実行する処理である。
また、図7乃至図10は、ジェスチャ入力処理実行時の表示例を示す図である。以下、図7乃至図10を参照して、図6のフローチャートの処理について説明する。
ステップS1において、ジェスチャ認識部31は、ジェスチャを検出する。具体的には、図7において、ジェスチャ認識部31は、表示部11に対して、指41により入力されたジェスチャを検出する。つまり、ジェスチャの軌跡が検出される。
ステップS2において、軌跡表示部34は、ステップS1でジェスチャ認識部31により検出されたジェスチャ軌跡を表示部11に表示する。例えば、図7に示されるように、軌跡表示部34により、星の形状のジェスチャ軌跡62が表示部11に表示される。
ステップS3において、ジェスチャ認識部31は、検出された軌跡が認識可能なジェスチャであるか判定する。検出されたジェスチャが認識可能なジェスチャではない場合、ステップS3においてNOと判定され、処理はステップS5に進む。例えば、図7において、ジェスチャ軌跡62はジェスチャ(星)のように見える。しかしながら、図5に示されたジェスチャ軌跡61に比べると、ジェスチャ軌跡62は、左方向に傾いている。このため、ジェスチャ認識部31は、ジェスチャ軌跡62をジェスチャ(星)であると認識できない。
この場合、ステップS5において、軌跡表示部34は、縮小軌跡71を表示する。即ち、図7に示されるように、軌跡表示部34は、ジェスチャ軌跡62が左下方向に徐々に縮小されながら移動するアニメーションを表示する。そして、軌跡表示部34は、図8に示されるように、縮小軌跡71を左下にアイコンとして表示する。
このようにして、縮小軌跡71が表示されることにより、ユーザは自分が行ったジェスチャがジェスチャ認識部31により認識されなかった(リジェクトされた)ことを知ることができる。
次に、ステップS6において、認識結果補正部32は、縮小軌跡71がタップされたかを判定する。即ち、ユーザは縮小軌跡71が表示されたことから、入力したジェスチャが認識されなかったことを知った場合、入力支援を求めるのであれば、縮小軌跡71をタップする。そこで、図9に示されるように、ユーザが指41で縮小軌跡71をタップしたかが判定される。
指41により縮小軌跡71がタップされた場合、ステップS6においてYESであると判定されて、処理はステップS7に進む。ステップS7において、認識結果補正部32は、認識補正メニュー81を表示する。即ち、認識結果補正部32は、補正候補生成部35により生成された認識補正メニュー81を表示部11に表示する。認識補正メニュー81は、今ユーザがジェスチャを入力した画面(今の場合、図9の画面)で認識可能なジェスチャを、ユーザが入力したジェスチャに近いと思われる順に、選択肢としてユーザに提示するメニューである。補正候補生成部35は、ジェスチャ認識部31によりジェスチャが認識できなかったとき、入力可能なジェスチャの中から、入力された軌跡に近いジェスチャを選択し、認識補正メニュー81を生成する。
具体的には、図10に示されるように、指41により軌跡71がタップされると、認識補正メニュー81が表示部11に表示される。認識補正メニュー81には、ユーザが入力したジェスチャ軌跡62と、この画面において認識可能なジェスチャの候補として選択肢91乃至93のアイコンが表示されている。例えば、選択肢91にはジェスチャ(星)と、ジェスチャ(星)が関連付けられた処理の解説として、「オプションメニューを開く」の文章が表示されている。また、選択肢92には、指41で三角を描くようなジェスチャ(以下、ジェスチャ(三角)と称する)と、ジェスチャ(三角)が関連付けられた処理の解説として、「新しいウインドウを開く」の文章が表示されている。さらに、選択肢93には、指41でアルファベット文字Wを描くようなジェスチャ(以下、ジェスチャ(W)と称する)と、ジェスチャ(W)が関連付けられた処理の解説として、「ウインドウを閉じる」の文章が表示されている。
これらの選択肢91乃至93が表示されることにより、ユーザは、自分がどのジェスチャを入力したつもりであったのかを確認することができる。そして、ユーザは何れかの選択肢、つまり、実際に入力したかったジェスチャに対応する選択肢を選択する。
ステップS8において、認識結果補正部32は、選択された選択肢を検出する。即ち、図10に示された選択肢91乃至93のうち、指41によりタップされた選択肢が検出される。
ステップS9において、ジェスチャ認識部31は、ステップS8で選択されたジェスチャが関連付けられた処理を実行する。即ち、図10に示された選択肢91乃至93のうち、例えば選択肢91が指41によりタップされた場合、ジェスチャ認識部31は、「オプションメニューを開く」という処理を実行する。
ステップS10において、認識結果補正部32は、補正情報を保存する。即ち、補正情報保存部33は、検出されたジェスチャの軌跡であるジェスチャ軌跡62と、選択された選択肢91のジェスチャ(星)を関連付けて、補正情報として保存する。このようにして、ジェスチャ入力処理は終了される。補正情報は、認識できないジェスチャが検出されるたびに補正情報保存部33に繰り返し保存される。ジェスチャ認識部31は、蓄積された補正情報を参照することで、ユーザのジェスチャを学習する。これにより、以後、例えば左方向に傾斜しているジェスチャ(星)が検出された場合、そのジェスチャはジェスチャ(星)として認識されるようになる。
一方、ステップS6においてNOであると判定された場合、即ち、縮小軌跡71がタップされない場合、処理はステップS11に進む。
ステップS11において、認識結果補正部32は、一定時間が経過したかを判定する。まだ一定時間が経過していない場合、ステップS11においてNOであると判定されて、処理はステップS6に戻る。即ち、一定時間が経過するか、縮小軌跡がタップされるまで、ステップS6およびステップS11の処理が繰り返される。
それに対して、ステップS11において、一定時間が経過したと判定された場合、処理はステップS12に進む。
ステップS12において、認識結果補正部32は、縮小軌跡71を消去する。即ち、一定時間経過しても縮小軌跡71がタップされないので、縮小軌跡71はユーザにとって不要な情報であると判断して、認識結果補正部32は縮小軌跡71を消去する。
以上、ステップS3においてNOと判定された場合の処理について説明した。これに対して、ステップS3においてYESと判定された場合、即ち、検出したジェスチャが認識可能なジェスチャである場合には、処理はステップS4に進む。ステップS4において、ジェスチャ認識部31は、ジェスチャが関連付けられた処理を実行する。つまり、ステップS3においてYESと判定された場合には、ジェスチャを補正する必要がないので、ステップS5乃至S12の処理は実行されない。
このようにして、ジェスチャ入力処理を実行することで、ユーザは自分の行ったジェスチャがリジェクトされたことを知ることができる。また、ユーザは、ジェスチャの候補が選択肢として表示されることで、自分の行ったジェスチャを補正し、意図するジェスチャを正しく入力した場合と同じ処理を実行させることができる。
また、軌跡表示部34により入力したジェスチャの軌跡が表示されることで、ユーザは、例えば表示部11が汚れているのでジェスチャが認識されないなど、ジェスチャがリジェクトされる原因を推察することができる。具体的には例えば、指41でなぞった線が、ジェスチャ軌跡においては途中で途切れていた場合、ユーザは、ジェスチャ軌跡が途切れた部分は表示部11が汚れているため認識できないと推察することができる。これにより、ユーザは表示部11を清掃するなどして、正しいジェスチャ入力が認識されるようにすることができる。
なお、ジェスチャ認識部31がジェスチャを認識できなかった場合、軌跡表示部34が縮小軌跡71を表示すると同時に、コントローラ21は、音を鳴らしたり、情報処理端末1を振動させたりしてもよい。
縮小軌跡71は、一定時間ユーザによりタップされなければ消去するようにしたが、以下のような構成にすることもできる。即ち、異なる種類のジェスチャがリジェクトされるたびに、新たな縮小軌跡71が追加表示され、縮小軌跡71の表示数が上限(例えば、3個など)を超えたら、入力の古いものから順に消去するようにしてもよい。
さらに、縮小軌跡71は図7の表示例に限定されない。例えば、軌跡表示部34は、縮小軌跡71がふわふわと浮いているようなアニメーションを形成してもよい。元の表示とは明らかに違うような印象を出すことが好ましい。これにより、認識結果補正部32は、ユーザに対して、入力したジェスチャの補正を、より効果的に促すことができる。
また、アプリケーションにより入力するジェスチャが異なる場合でも、ジェスチャとジェスチャに対応付けられた処理が認識補正メニュー81に表示されるので、ユーザは入力したジェスチャの補正を容易に実行することができる。
さらに、認識補正メニュー81には、「新規設定」等の選択肢を設けてもよい。「新規設定」を選択することで、ユーザは入力したジェスチャ(例えば、ジェスチャ軌跡62)に対応する新たなメニューを設定することもできる。つまり、ユーザはジェスチャ入力として登録されていない新たなジェスチャを、ジェスチャ認識部31に登録することができる。
<第2の実施の形態>
第1の実施の形態においては、選択肢を提示してユーザのジェスチャ入力を支援するようにしたが、入力可能領域を提示して、ユーザのジェスチャ入力を支援することも可能である。例えば、ユーザが、表示部11において、ジェスチャ入力できない領域や、ユーザが入力したジェスチャが対応していない領域でジェスチャを行った場合に、ジェスチャ入力可能な領域を表示する機能である、入力可能領域表示機能について次に説明する。
なお、情報処理端末1の構成は、図1乃至図3を参照して説明したものと同様である。
[情報処理端末の動作]
図11は、入力可能領域表示処理について説明するフローチャートである。入力可能領域表示処理とは、上述した入力可能領域表示機能を実現するために、コントローラ21が実行する処理である。
また、図12乃至図15は、入力可能領域表示処理実行時の表示例を示す図である。以下、図4および図12乃至図15を参照して、図11のフローチャートの処理について説明する。
ステップS31において、ジェスチャ認識部31は、ジェスチャを検出する。具体的には、図4において、ジェスチャ認識部31は、表示部11に対し、指41によりジェスチャが入力されたことを検出する。
ステップS32において、ジェスチャ認識部31は、認識可能なジェスチャであるかを判定する。検出されたジェスチャが認識可能なジェスチャでない場合、ステップS32においてNOと判定されて、処理はステップS33に進む。具体的には例えば、タップ入力に関連付けられた処理が存在しない領域で、指41によりタップ入力が行われた場合に、ステップS32においてNOと判定される。
ステップS33において、認識結果補正部32は、認識不能なジェスチャの入力回数をカウントする。例えば、上述したタップ入力に関連付けられた処理が存在しない領域で、指41によりタップ入力が行われた回数がカウントされる。
ステップS34において、認識結果補正部32は、認識不能なジェスチャがN回連続でカウントされたかを判定する。なお、Nは任意の整数である。ステップS34においてNOと判定された場合、即ち、認識不能なジェスチャがまだN回連続で検出されていない場合は、処理はステップS31に戻る。換言すると、認識不能なジェスチャがN回連続で検出されるまでは、認識可能なジェスチャを検出しない限り(ステップS32の処理)、ステップS31乃至S34の処理が繰り返される。認識不能なジェスチャがN回連続で検出された場合、ステップS34においてYESと判定されて、処理はステップS35に進む。
ステップS35において、認識結果補正部32は、ジェスチャ入力可能領域121乃至124を表示する。即ち、補正候補生成部35は各画面毎に所定の時点においてジェスチャを入力することができるジェスチャ入力可能領域を検出している。図12の例においては、ジェスチャ入力可能領域121乃至124が検出されている。認識結果補正部32は、この検出結果に基づいて、ジェスチャ入力可能領域121乃至124を表示部11に表示する。ジェスチャ入力可能領域121乃至124は、元の表示画面に対し、例えば異なる色がついたフィルタを重ねたように表現される。換言すると、ジェスチャ入力可能領域121乃至124は、元の表示画面(例えば、文字、図形等)が視認できるようにしたうえで、入力可能な領域をユーザに視認させるものである。
例えば、ジェスチャ入力可能領域121は、図示する範囲内でタップ入力が可能な領域である。ジェスチャ入力可能領域122は、図示する範囲内で縦方向のフリック(以下、縦フリックと称する)入力が可能な領域である。ジェスチャ入力可能領域123は、図示する範囲内で横方向のフリック(以下、横フリックと称する)入力が可能な領域である。ジェスチャ入力可能領域124は、図示する範囲内で、ユーザが一定時間タッチパネル25に指41を接触させ続ける長押し入力が可能な領域である。ユーザは、領域の色と位置から、そこで入力可能なジェスチャの種類と位置を知ることができる。
次に、ステップS36において、認識結果補正部32は、ヘルプアイコン101がタップされたかを判定する。即ち、図13に示されるように、指41によりヘルプアイコン101がタップされた場合、ステップS36においてYESであると判定され、処理はステップS37に進む。
ステップS37において、認識結果補正部32は、凡例表示画面131を表示する。即ち、補正候補生成部35は、各画面毎に、所定の領域が操作された場合に表示する画像を生成している。ヘルプアイコン101に対応して、図14に示される凡例表示画面131が生成されている。そこで、認識結果補正部32は、この凡例表示画面131を表示部11に表示する。
凡例表示画面131は、図14に示されるように、ジェスチャ入力可能領域121乃至124が示す領域に対応する、入力可能なジェスチャを表示する画面である。上述したように、例えば、ジェスチャ入力可能領域121はタップ入力が可能な領域であるので、凡例表示画面131には、ジェスチャ入力可能領域121の色121Aを例示し、それに対応させて「タップ」の文字が表示されている。同様に、凡例表示画面131には、ジェスチャ入力可能領域122乃至124の色122A乃至124Aが例示され、それぞれに対応させて「縦フリック」、「横フリック」および「長押し」の文字が表示されている。
このようにして、ユーザは凡例表示画面131を見て、ジェスチャ入力可能領域121乃至124が、それぞれどのジェスチャ入力が可能な領域であるのかを理解することができる。
また、さらに、凡例表示画面131には、補足情報を表示させるとき操作される追加アイコン125が表示されている。この追加アイコン125も、タップ対象のアイコンなので、ジェスチャ入力可能領域121と同じ色121Aで表示されている。
ステップS38において、認識結果補正部32は、追加アイコン125がタップされたかを判定する。即ち、図15に示されるように、指41により追加アイコン125がタップされた場合、ステップS38においてYESであると判定され、処理は、ステップS39に進む。
ステップS39において、認識結果補正部32は、追加凡例表示画面141を表示する。即ち、上述したように、補正候補生成部35は、追加アイコン125がタップされた場合の表示画像として、追加凡例表示画面141を生成している。認識結果補正部32は、これを表示部11に表示する。そして、処理はステップS31に戻る。
追加凡例表示画面141は、図15に示されるように、現在の表示画面で認識可能なジェスチャを表示する画面である。具体的には、追加凡例表示画面141には、指41で右回りに円を描くジェスチャ(以下、ジェスチャ(右回転)と称する)と、ジェスチャ(右回転)が関連付けられた処理として、「右回転」の文字が表示されている。「右回転」とは、図形等を右方向に回転させる処理である。また例えば、指41で左回りに円を描くジェスチャ(以下、ジェスチャ(左回転)と称する)と、ジェスチャ(左回転)が関連付けられた処理として、「左回転」の文字が表示されている。「左回転」とは、例えば、図形等を左方向に回転させる処理である。またそのほかにも、追加凡例表示画面141には、図10を参照して説明したジェスチャ(星)、ジェスチャ(三角)、ジェスチャ(W)が、「オプションメニューを開く」、「新しいウインドウを開く」、「ウインドウを閉じる」の文字と対応付けて表示されている。
ユーザは、追加凡例表示画面141を参照することにより、より多くの入力可能なジェスチャを補足情報として知ることができる。
一方、ステップS36においてNOと判定された場合、即ち、ユーザがヘルプアイコン101をタップしない場合、ユーザは凡例表示画面131を必要としていない。よって、処理はステップS31に戻る。同様に、ステップS38においてNOと判定された場合、即ち、ユーザが追加アイコン125をタップしない場合、ユーザは追加凡例表示画面141を必要としていないので、処理はステップS31に戻る。
以上、ステップS32でNOと判定された場合について説明した。それに対して、ステップS32でYESと判定された場合、即ち検出されたジェスチャが認識可能なジェスチャであった場合、処理はステップS40に進む。即ち、ステップS32でYESと判定された場合、ジェスチャ入力可能領域121乃至124を表示する必要がないので、ステップS33乃至S39の処理は実行されない。
ステップS40において、ジェスチャ認識部31は、ジェスチャに関連付けられた処理を実行する。即ち、認識不能なジェスチャがN回連続で検出された(ステップS34の処理)場合において、ジェスチャ入力可能領域121乃至124が表示されたり(ステップS35の処理)、凡例表示画面131や追加凡例表示画面141が表示される(ステップS37,S39の処理)。これらの表示を参照することにより、ユーザが認識可能なジェスチャを入力することができれば(ステップS31,S32の処理)、処理はステップS40に進み、ジェスチャ認識部31はジェスチャに関連付けられた処理を実行することができる。
このようにして、入力可能領域表示処理を実行することで、ユーザはその画面でジェスチャ入力可能な領域を、入力可能なジェスチャと対応付けて視認することが可能となる。これにより、ユーザは効率的に自分が行ったジェスチャを補正し、意図する処理を実行させることができる。
また、アプリケーションによりジェスチャ入力や入力可能領域が異なる場合でも、ジェスチャ入力に対応する入力可能領域が凡例表示画面131に表示されるので、ユーザは入力したジェスチャの補正を容易に実行することができる。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアとしての情報処理端末1に組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
コンピュータ(コントローラ21)が実行するプログラムは、例えば、記憶部26をパッケージメディア等としてのリムーバブルメディアとして構成し、そこに記録して提供することができる。また、プログラムは、ローカルエリアネットワークインターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
なお、本技術は、以下のような構成もとることができる。
<1> ジェスチャの入力を受け付ける入力部と、
前記入力部に入力された前記ジェスチャを認識する認識部と、
第一のジェスチャによる第一の入力処理が不可能な領域で、前記第一のジェスチャが所定の回数入力された場合、入力された画面における第二のジェスチャによる前記第一の入力処理が可能な領域と、前記第二のジェスチャを解説する情報とを関連付けて表示する表示制御部と
を備える情報処理装置。
<2> 前記第二のジェスチャは、前記第一のジェスチャとは異なる
<1>に記載の情報処理装置。
<3> 前記第一のジェスチャは、タップ操作である
<2>に記載の情報処理装置。
<4> 前記第二のジェスチャは、画面上で任意の方向に指を動かす操作である
<3>に記載の情報処理装置。
<5> 前記第一のジェスチャは、タップ操作である
<1>乃至<4>のいずれかに記載の情報処理装置。
<6> 前記第二のジェスチャは、画面上で任意の方向に指を動かす操作である
<1>乃至<5>のいずれかに載の情報処理装置。
<7> 前記第二のジェスチャを解説する情報は、テキスト情報を含む
<1>乃至<6>のいずれかに記載の情報処理装置。
<8> 前記第二のジェスチャを解説する情報は、第二のジェスチャの種類と、前記第一の入力処理に関する情報とを含む
<1>乃至<7>のいずれかに記載の情報処理装置。
<9> 前記第二のジェスチャによる第一の入力処理が可能な領域は、色付けされて表示される
<1>乃至<8>のいずれかに記載の情報処理装置。
<10> 表示情報を表示する表示部をさらに含む
<1>乃至<9>のいずれかに記載の情報処理装置。
<11> 情報を通信する通信部をさらに含み、
前記表示部は、前記通信部により受信されたwebページを表示する
<10>に記載の情報処理装置。
<12> 前記表示部の上面にタッチパネルをさらに含む、
<10>に記載の情報処理装置。
<13> ジェスチャの入力を受け付ける入力ステップと、
入力された前記ジェスチャを認識する認識ステップと、
第一のジェスチャによる第一の入力処理が不可能な領域で、前記第一のジェスチャが所定の回数入力された場合、入力された画面における第二のジェスチャによる前記第一の入力処理が可能な領域と、前記第二のジェスチャを解説する情報とを関連付けて表示する表示制御ステップと
を含む情報処理方法。
<14> コンピュータに、
ジェスチャの入力を受け付ける入力ステップと、
入力された前記ジェスチャを認識する認識ステップと、
第一のジェスチャによる第一の入力処理が不可能な領域で、前記第一のジェスチャが所定の回数入力された場合、入力された画面における第二のジェスチャによる前記第一の入力処理が可能な領域と、前記第二のジェスチャを解説する情報とを関連付けて表示する表示制御ステップと
を実行させるプログラム。
<15> コンピュータに、
ジェスチャの入力を受け付ける入力ステップと、
入力された前記ジェスチャを認識する認識ステップと、
第一のジェスチャによる第一の入力処理が不可能な領域で、前記第一のジェスチャが所定の回数入力された場合、入力された画面における第二のジェスチャによる前記第一の入力処理が可能な領域と、前記第二のジェスチャを解説する情報とを関連付けて表示する表示制御ステップと
を実行させるプログラムが記録されているコンピュータが読み取り可能な記録媒体。
1 情報処理端末, 11 表示部, 12 操作部, 21 コントローラ, 22 センサ部, 23 カメラ, 24 通信部, 31 ジェスチャ認識部, 32 認識結果補正部, 33 補正情報保存部, 34 軌跡表示部, 35 補正候補生成部
本技術の一側面の情報処理装置は、第一の領域に対するユーザのジェスチャの入力に基づいて、第二の領域に、前記ジェスチャの軌跡情報を縮小して表示するための情報を出力する表示情報出力部を備える情報処理装置である。
前記ジェスチャに基づき、前記ジェスチャに対応する選択候補を表示する表示制御部をさらに設けるようにすることができる。
前記表示制御部には、前記ユーザの追加操作により、前記選択候補に関連する処理を行うようにさせることができる。
前記ユーザの追加操作はタップとすることができる。
前記表示制御部には、前記ユーザの追加操作により選択された前記選択候補に関連する画面を表示させるようにすることができる。
前記表示制御部には、前記ユーザの追加操作により選択された前記選択候補に関連する画面に、前記選択候補を複数表示させるようにすることができる。
請求項5に記載の情報処理装置。
前記選択候補には、前記ジェスチャの軌跡情報に類似した情報を含ませるようにすることができる。
第一の領域と、前記第二の領域とは異なる領域とすることができる。
前記第一の領域と、前記第二の領域とは、重複しないようにすることができる。
前記ジェスチャ入力は、タッチパネルへの入力に基づくものとすることができる。
表示部を更に設けるようにさせることができ、前記第一の領域と前記第二の領域とは前記表示部上の領域とすることができる。
通信部を更に設けるようにさせることができ、前記通信部により受信されたWebページを表示させるようにすることができる。
本技術の一側面の情報処理方法は、第一の領域に対するユーザのジェスチャの入力に基づいて、第二の領域に、前記ジェスチャの軌跡情報を縮小して表示するための情報を出力するステップを含む情報処理方法である。
本技術の一側面のプログラムは、第一の領域に対するユーザのジェスチャの入力に基づいて、第二の領域に、前記ジェスチャの軌跡情報を縮小して表示するための情報を出力する表示情報出力部としてコンピュータを機能させるプログラムである。
本技術の一側面の記録媒体は、第一の領域に対するユーザのジェスチャの入力に基づいて、第二の領域に、前記ジェスチャの軌跡情報を縮小して表示するための情報を出力する表示情報出力部としてコンピュータを機能させるプログラムが記録されているコンピュータが読み取り可能な記録媒体である。
本技術の一側面においては、第一の領域に対するユーザのジェスチャの入力に基づいて、第二の領域に、前記ジェスチャの軌跡情報を縮小して表示するための情報が出力される。
なお、本技術は、以下のような構成もとることができる。
<1> 第一の領域に対するユーザのジェスチャの入力に基づいて、第二の領域に、前記ジェスチャの軌跡情報を縮小して表示するための情報を出力する表示情報出力部
を備える情報処理装置。
<2> 前記ジェスチャに基づき、前記ジェスチャに対応する選択候補を表示する表示制御部をさらに備える
<1>に記載の情報処理装置。
<3> 前記表示制御部は、前記ユーザの追加操作により、前記選択候補に関連する処理を行う
<2>に記載の情報処理装置。
<4> 前記ユーザの追加操作はタップである
<3>に記載の情報処理装置。
<5> 前記表示制御部は、前記ユーザの追加操作により選択された前記選択候補に関連する画面を表示する
<3>に記載の情報処理装置。
<6> 前記表示制御部は、前記ユーザの追加操作により選択された前記選択候補に関連する画面に、前記選択候補を複数表示する
<5>に記載の情報処理装置。
<7> 前記選択候補は、前記ジェスチャの軌跡情報に類似した情報を含む
<5>に記載の情報処理装置。
<8> 第一の領域と、前記第二の領域とは異なる領域である
<1>乃至<7>のいずれかに記載の情報処理装置。
<9> 前記第一の領域と、前記第二の領域とは、重複しない
<8>に記載の情報処理装置。
<10> 前記ジェスチャ入力は、タッチパネルへの入力に基づく
<1>乃至<9>のいずれかに記載の情報処理装置。
<11> 表示部を更に備え、
前記第一の領域と前記第二の領域とは前記表示部上の領域である
<1>乃至<10>のいずれかに記載の情報処理装置。
<12> 通信部を更に備え、
前記通信部により受信されたWebページを表示する
<1>乃至<11>のいずれかに記載の情報処理装置。
<13> 第一の領域に対するユーザのジェスチャの入力に基づいて、第二の領域に、前記ジェスチャの軌跡情報を縮小して表示するための情報を出力するステップ
を含む情報処理方法。
<14> 第一の領域に対するユーザのジェスチャの入力に基づいて、第二の領域に、前記ジェスチャの軌跡情報を縮小して表示するための情報を出力する表示情報出力部としてコンピュータを機能させる
プログラム。
<15> 第一の領域に対するユーザのジェスチャの入力に基づいて、第二の領域に、前記ジェスチャの軌跡情報を縮小して表示するための情報を出力する表示情報出力部としてコンピュータを機能させる
プログラムが記録されているコンピュータが読み取り可能な記録媒体。

Claims (15)

  1. ジェスチャの入力を受け付ける入力部と、
    前記入力部に入力された前記ジェスチャを認識する認識部と、
    第一のジェスチャによる第一の入力処理が不可能な領域で、前記第一のジェスチャが所定の回数入力された場合、入力された画面における第二のジェスチャによる前記第一の入力処理が可能な領域と、前記第二のジェスチャを解説する情報とを関連付けて表示する表示制御部と
    を備える情報処理装置。
  2. 前記第二のジェスチャは、前記第一のジェスチャとは異なる
    請求項1に記載の情報処理装置。
  3. 前記第一のジェスチャは、タップ操作である
    請求項2に記載の情報処理装置。
  4. 前記第二のジェスチャは、画面上で任意の方向に指を動かす操作である
    請求項3に記載の情報処理装置。
  5. 前記第一のジェスチャは、タップ操作である
    請求項1に記載の情報処理装置。
  6. 前記第二のジェスチャは、画面上で任意の方向に指を動かす操作である
    請求項1に載の情報処理装置。
  7. 前記第二のジェスチャを解説する情報は、テキスト情報を含む
    請求項1に記載の情報処理装置。
  8. 前記第二のジェスチャを解説する情報は、第二のジェスチャの種類と、前記第一の入力処理に関する情報とを含む
    請求項1に記載の情報処理装置。
  9. 前記第二のジェスチャによる第一の入力処理が可能な領域は、色付けされて表示される
    請求項1に記載の情報処理装置。
  10. 表示情報を表示する表示部をさらに含む
    請求項1に記載の情報処理装置。
  11. 情報を通信する通信部をさらに含み、
    前記表示部は、前記通信部により受信されたwebページを表示する
    請求項10に記載の情報処理装置。
  12. 前記表示部の上面にタッチパネルをさらに含む、
    請求項10に記載の情報処理装置。
  13. ジェスチャの入力を受け付ける入力ステップと、
    入力された前記ジェスチャを認識する認識ステップと、
    第一のジェスチャによる第一の入力処理が不可能な領域で、前記第一のジェスチャが所定の回数入力された場合、入力された画面における第二のジェスチャによる前記第一の入力処理が可能な領域と、前記第二のジェスチャを解説する情報とを関連付けて表示する表示制御ステップと
    を含む情報処理方法。
  14. コンピュータに、
    ジェスチャの入力を受け付ける入力ステップと、
    入力された前記ジェスチャを認識する認識ステップと、
    第一のジェスチャによる第一の入力処理が不可能な領域で、前記第一のジェスチャが所定の回数入力された場合、入力された画面における第二のジェスチャによる前記第一の入力処理が可能な領域と、前記第二のジェスチャを解説する情報とを関連付けて表示する表示制御ステップと
    を実行させるプログラム。
  15. コンピュータに、
    ジェスチャの入力を受け付ける入力ステップと、
    入力された前記ジェスチャを認識する認識ステップと、
    第一のジェスチャによる第一の入力処理が不可能な領域で、前記第一のジェスチャが所定の回数入力された場合、入力された画面における第二のジェスチャによる前記第一の入力処理が可能な領域と、前記第二のジェスチャを解説する情報とを関連付けて表示する表示制御ステップと
    を実行させるプログラムが記録されているコンピュータが読み取り可能な記録媒体。
JP2016000116A 2016-01-04 2016-01-04 情報処理装置および方法、プログラム、並びに記録媒体 Pending JP2016042394A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016000116A JP2016042394A (ja) 2016-01-04 2016-01-04 情報処理装置および方法、プログラム、並びに記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016000116A JP2016042394A (ja) 2016-01-04 2016-01-04 情報処理装置および方法、プログラム、並びに記録媒体

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015186603A Division JP5862994B2 (ja) 2015-09-24 2015-09-24 情報処理装置および方法、プログラム、並びに記録媒体

Publications (1)

Publication Number Publication Date
JP2016042394A true JP2016042394A (ja) 2016-03-31

Family

ID=55592071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016000116A Pending JP2016042394A (ja) 2016-01-04 2016-01-04 情報処理装置および方法、プログラム、並びに記録媒体

Country Status (1)

Country Link
JP (1) JP2016042394A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020079941A1 (ja) * 2018-10-15 2020-04-23 ソニー株式会社 情報処理装置及び情報処理方法、並びにコンピュータプログラム

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06242885A (ja) * 1993-02-16 1994-09-02 Hitachi Ltd 文書編集方法
JPH08286831A (ja) * 1995-04-14 1996-11-01 Canon Inc ペン入力型電子装置及びその制御方法
JPH09230992A (ja) * 1996-02-26 1997-09-05 Sharp Corp 情報処理装置
JPH1091346A (ja) * 1996-09-10 1998-04-10 Sharp Corp 手書き入力装置及び手書き入力装置制御プログラムを記憶した媒体
JPH10105325A (ja) * 1996-09-30 1998-04-24 Matsushita Electric Ind Co Ltd 手書きコマンド管理装置
JP2000137555A (ja) * 1998-11-02 2000-05-16 Sony Corp 情報処理装置及び方法並びに記録媒体
US6459442B1 (en) * 1999-09-10 2002-10-01 Xerox Corporation System for applying application behaviors to freeform data
JP2004078815A (ja) * 2002-08-22 2004-03-11 Sony Corp 携帯情報処理装置、情報処理方法、およびプログラム
JP2008209641A (ja) * 2007-02-26 2008-09-11 Sony Computer Entertainment Inc オーディオ再生装置、情報処理装置およびオーディオ再生方法
JP2008282092A (ja) * 2007-05-08 2008-11-20 Canon Inc ジェスチャーコマンドを覚えながら操作できる情報処理装置
JP2009225280A (ja) * 2008-03-18 2009-10-01 Fujifilm Corp 撮像装置及び撮影画像表示制御方法
JP2010015238A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置、及び補助情報の表示方法
JP2010239206A (ja) * 2009-03-30 2010-10-21 Sony Corp 電子機器、表示制御方法およびプログラム
JP2011070474A (ja) * 2009-09-28 2011-04-07 Kyocera Corp 携帯端末装置
JP2011215824A (ja) * 2010-03-31 2011-10-27 Brother Industries Ltd 画像表示装置、画像表示方法、及び画像表示プログラム

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06242885A (ja) * 1993-02-16 1994-09-02 Hitachi Ltd 文書編集方法
JPH08286831A (ja) * 1995-04-14 1996-11-01 Canon Inc ペン入力型電子装置及びその制御方法
JPH09230992A (ja) * 1996-02-26 1997-09-05 Sharp Corp 情報処理装置
JPH1091346A (ja) * 1996-09-10 1998-04-10 Sharp Corp 手書き入力装置及び手書き入力装置制御プログラムを記憶した媒体
JPH10105325A (ja) * 1996-09-30 1998-04-24 Matsushita Electric Ind Co Ltd 手書きコマンド管理装置
JP2000137555A (ja) * 1998-11-02 2000-05-16 Sony Corp 情報処理装置及び方法並びに記録媒体
US6459442B1 (en) * 1999-09-10 2002-10-01 Xerox Corporation System for applying application behaviors to freeform data
JP2004078815A (ja) * 2002-08-22 2004-03-11 Sony Corp 携帯情報処理装置、情報処理方法、およびプログラム
JP2008209641A (ja) * 2007-02-26 2008-09-11 Sony Computer Entertainment Inc オーディオ再生装置、情報処理装置およびオーディオ再生方法
JP2008282092A (ja) * 2007-05-08 2008-11-20 Canon Inc ジェスチャーコマンドを覚えながら操作できる情報処理装置
JP2009225280A (ja) * 2008-03-18 2009-10-01 Fujifilm Corp 撮像装置及び撮影画像表示制御方法
JP2010015238A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置、及び補助情報の表示方法
JP2010239206A (ja) * 2009-03-30 2010-10-21 Sony Corp 電子機器、表示制御方法およびプログラム
JP2011070474A (ja) * 2009-09-28 2011-04-07 Kyocera Corp 携帯端末装置
JP2011215824A (ja) * 2010-03-31 2011-10-27 Brother Industries Ltd 画像表示装置、画像表示方法、及び画像表示プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020079941A1 (ja) * 2018-10-15 2020-04-23 ソニー株式会社 情報処理装置及び情報処理方法、並びにコンピュータプログラム

Similar Documents

Publication Publication Date Title
JP5811603B2 (ja) 情報処理端末および方法、プログラム、並びに記録媒体
JP2012256099A (ja) 情報処理端末および方法、プログラム、並びに記録媒体
US10698564B2 (en) User terminal device and displaying method thereof
EP2461237B1 (en) Portable display device, control method for the same, program for the same, and storage medium for the same
US20150199125A1 (en) Displaying an application image on two or more displays
US20130249832A1 (en) Mobile terminal
JP5832339B2 (ja) 拡大縮小操作縮尺表示方法及び装置
CN102023798A (zh) 触控面板上使用手势进行切换多计算机切换端口的方法及装置
US20150007088A1 (en) Size reduction and utilization of software keyboards
WO2014148358A1 (ja) 情報端末、操作領域制御方法及び操作領域制御プログラム
JP2009098990A (ja) 表示装置
JP2016042394A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
JP2015018426A (ja) 情報表示装置
JP5862994B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
JP6724871B2 (ja) 表示入力装置およびそれを備えた画像形成装置
JP6013004B2 (ja) 文字入力装置およびその制御方法、制御プログラム、ならびに、制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2019028720A (ja) 情報処理装置、プログラム、及び情報処理装置の制御方法
KR20080078336A (ko) 필기입력방법 및 이를 이용한 이동통신단말기
JP2014149721A (ja) 情報入力装置
JP2017212483A (ja) インターフェース、文字入力ガイド方法及びプログラム
CN110402427B (zh) 触摸手势判定装置、触摸手势判定方法、记录有触摸手势判定程序的记录介质和触摸面板输入装置
WO2014148352A1 (ja) 情報端末、操作領域制御方法及び操作領域制御プログラム
JP2014149385A (ja) 図形表示制御装置、図形表示制御方法及びプログラム
JP2013162202A (ja) 情報処理装置、情報処理方法及びプログラム
JP2014186613A (ja) 電子機器、表示制御方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180403