JP2012231249A - 表示制御装置、表示制御方法、およびプログラム - Google Patents

表示制御装置、表示制御方法、およびプログラム Download PDF

Info

Publication number
JP2012231249A
JP2012231249A JP2011097443A JP2011097443A JP2012231249A JP 2012231249 A JP2012231249 A JP 2012231249A JP 2011097443 A JP2011097443 A JP 2011097443A JP 2011097443 A JP2011097443 A JP 2011097443A JP 2012231249 A JP2012231249 A JP 2012231249A
Authority
JP
Japan
Prior art keywords
gesture operation
screen
remote control
guide
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011097443A
Other languages
English (en)
Inventor
Koichi Akasaka
公一 赤坂
Daisuke Kawamura
大輔 河村
Hiromitsu Oka
宏充 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011097443A priority Critical patent/JP2012231249A/ja
Priority to CN201280019275.9A priority patent/CN103493001A/zh
Priority to US14/112,398 priority patent/US9524095B2/en
Priority to EP12777557.5A priority patent/EP2703972A1/en
Priority to PCT/JP2012/059960 priority patent/WO2012147520A1/ja
Publication of JP2012231249A publication Critical patent/JP2012231249A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/90Additional features
    • G08C2201/93Remote control using other portable devices, e.g. mobile phone, PDA, laptop

Abstract

【課題】入力可能なジェスチャ操作を分かりやすくする。
【解決手段】表示制御部は、ジェスチャ操作のガイドを第1の状態で表示部に表示させ、所定のジェスチャ操作を検出した場合、検出したジェスチャ操作に対応するガイドを第2の状態に変更して表示部に表示させる。この開示の技術は、例えば、表示部を有する情報処理端末に適用できる。
【選択図】図14

Description

本技術は、表示制御装置、表示制御方法、およびプログラムに関し、特に、入力可能なジェスチャ操作を分かりやすくする表示制御装置、表示制御方法、およびプログラムに関する。
テレビジョン受像機や録画再生装置などの装置を遠隔から制御するリモートコントローラでは、チャンネル番号や音量調整のボタンが設けられ、操作されたボタンに対応する制御信号を送信するものが一般的である。これに対して、リモートコントローラの上面を平面としてタッチパネルを配し、タッチパネル上でユーザにジェスチャ操作を行わせ、検出されたジェスチャ操作に対応する制御信号を送信するものがある(例えば、特許文献1参照)。
特開2010−193107号公報(0040段落、図2乃至図5)
しかしながら、特許文献1で提案されている方法では、どのようなジェスチャ操作を行うことが可能で、行ったジェスチャ操作が適切に認識されて実行されたかが分かりにくかった。
本技術は、このような状況に鑑みてなされたものであり、入力可能なジェスチャ操作を分かりやすくするものである。
本技術の一側面の表示制御装置は、ジェスチャ操作のガイドを第1の状態で表示部に表示させる表示制御部と、前記ジェスチャ操作を検出する検出部とを備え、前記表示制御部は、前記ジェスチャ操作が検出された場合、検出された前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させる。
本技術の一側面の表示制御方法は、ジェスチャ操作のガイドを第1の状態で表示部に表示させ、前記ジェスチャ操作を検出し、検出した前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させるステップを含む。
本技術の一側面のプログラムは、コンピュータに、ジェスチャ操作のガイドを第1の状態で表示部に表示させ、前記ジェスチャ操作を検出し、検出した前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させるステップを含む処理を実行させるためのものである。
本技術の一側面においては、ジェスチャ操作のガイドが第1の状態で表示部に表示され、ジェスチャ操作が検出され、検出されたジェスチャ操作に対応するガイドが第2の状態に変更されて表示部に表示される。
なお、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
表示制御装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
本技術の一側面によれば、入力可能なジェスチャ操作を分かりやすくすることができる。
本技術の表示制御装置を適用したタブレット端末の一実施の形態の外観構成例を示す上面図である。 ブレット端末のハードウェアの構成例を示すブロック図である。 リモコンアプリの処理を説明するフローチャートである。 機器一覧画面の画面例を示す図である。 機器登録処理を説明するフローチャートである。 機器登録画面の画面例を示す図である。 機器登録画面の画面例を示す図である。 機器登録画面の画面例を示す図である。 機器登録画面の画面例を示す図である。 テレビのジェスチャ画面の画面例を示す図である。 テレビのフルリモコン画面の画面例を示す図である。 アンプのジェスチャ画面の画面例を示す図である。 BDプレーヤのジェスチャ画面の画面例を示す図である。 ジェスチャ操作によるコマンドの送信の動作について説明する図である。 ジェスチャ操作によるコマンドの送信の動作について説明する図である。 ジェスチャ操作対応処理を説明するフローチャートである。
[タブレット端末の外観構成例]
図1は、本技術の表示制御装置を適用したタブレット端末の一実施の形態の外観構成例を示す上面図である。
図1のタブレット端末1は、薄板状の情報処理端末であり、テーブル等に置いたときに上面となる略長方形の面に、タッチスクリーン11が設けられている。
タッチスクリーン11には、各種の画像が表示される。また、ユーザは、指等を、タッチスクリーン11に近接、又は、接触(タッチ)することによって、各種の(操作)入力を与えることができる。
タブレット端末1には、ユーザが使用している機器を自由に登録して、IR信号による機器制御を行うことができるアプリケーション(以下、リモコンアプリという。)がインストールされている。ここで、制御対象として登録される機器は、例えば、テレビジョン受像機、DVD(Digital Versatile Disc)プレーヤ、BD(Blu-ray Disc(登録商標))レコーダ等の録画再生装置、STB(Set Top Box)、アンプ等である。
タッチスクリーン11には、例えば、リモコンアプリのアイコン画像21が少なくとも表示され、ユーザがリモコンアプリのアイコン画像21をタップ等することで、リモコンアプリを起動することができる。
略長方形状のタブレット端末1の長辺となる一辺の側面には、IR信号が入出力されるIR(Infrared Radiation)通信部12が設けられている。図1は、タブレット端末1を上から見た上面図であるため、IR通信部12が設けられている部分は破線で示されている。ユーザは、IR通信部12が制御対象の機器に向くようにタブレット端末1を設置する。従って、図1の例では、制御対象の機器は、図中、上側の方向にあり、ユーザは、図中、下側に位置している。
以上のように構成されるタブレット端末1において、リモコンアプリが実行されることにより、タッチスクリーン11上でユーザが行ったジェスチャ操作を検出し、ジェスチャ操作に対応するIR信号を、登録されている所定の機器に送信し、機器制御を行うことができる。
[タブレット端末1のハードウェア構成例]
図2は、タブレット端末1のハードウェア構成例を示すブロック図である。
タブレット端末1は、CPU(Central Processing Unit)41,ROM(Read Only Memory)42,RAM(Random Access Memory)43は、フラッシュメモリ44、および入出力インタフェース45を有し、それらはバス46により相互に接続され、必要に応じてデータを授受することができる。
また、入出力インタフェース45には、タッチスクリーン11、IR通信部12、出力部47、入力部48、通信部49、及び、ドライブ50が接続されている。
タッチスクリーン11は、表示部61Aと位置検出部61Bとを有し、図1で説明したように、各種の表示と、指等を近接、又は、接触(タッチ)することによる操作入力とが可能になっている。
表示部61Aは、画像を表示する、液晶パネル等のデバイス(表示装置)で構成され、入出力インタフェース45を介して供給されるデータに応じて、画像を表示する。
位置検出部61Bは、例えば、静電式等のタッチパネルや、光を照射する光源と、その光の、物体からの反射光を受光するセンサとのセット等の、外部からの入力(近接・接触)を受け付ける(検知する)機能を有するデバイスで構成される。
位置検出部61Bは、外部からの物体、すなわち、例えば、ユーザの指や、ユーザが扱うタッチペン等が近接し、又は、接触(タッチ)すると、その近接、又は、接触がされている位置を表す位置信号を(入出力インタフェース45に)出力する。位置検出部61Bは、タッチスクリーン11上でユーザによって行われたジェスチャ操作を検出する検出部として機能する。
タッチスクリーン11は、以上のような表示部61Aと位置検出部61Bとが一体的になっており、表示部61Aにおいて画像を表示し、位置検出部61Bにおいて、表示部61Aに表示された画像に対する外部からの操作入力(タッチや近接)を受け付けることができる。
位置検出部61Bが出力する位置信号は、入出力インタフェース45を介して、CPU41に供給され、CPU41では、位置検出部61Bからの位置信号に基づき、どのような操作入力があったかが認識され、その操作入力に応じて、各種の処理が行われる。
なお、位置検出部61Bが検出できるユーザの操作には、例えば、所定時間指でタッチして画面から離す操作であるタップ操作、短い所定時間に2回指でタッチする操作であるダブルタップ操作、指で所定の方向に払う操作であるフリック操作、指を接触したまま所定の方向へ移動するドラッグ操作などがある。
IR通信部12は、CPU41の制御に従い、機器の制御コマンドに対応するIR信号を送信する。また、IR通信部12は、外部から入力されてくるIR信号を受信し、受信したIR信号の制御コマンドを入出力インタフェース45を介してCPU41に供給する。
CPU41は、ROM42に記憶されたプログラムや、フラッシュメモリ44等から読み出されて、RAM43に記憶(展開)されたプログラムを実行することにより、各種の処理を行う。CPU41により実行されるプログラムの一つがリモコンアプリである。
ROM42は、例えば、EEPROM(Electrically Erasable Programmable ROM)等であり、タブレット端末1の電源がオフにされたときも保持する必要があるデータやプログラムを記憶する。
RAM43は、CPU41の動作上必要なプログラムやデータを記憶する。
フラッシュメモリ44には、CPU41が実行するリモコンアプリ等のプログラムや、その他のデータ(プログラムを含む)が記録される。
出力部47は、例えば、スピーカや、イヤフォン端子等であり、音声を出力する。
入力部48や、例えば、マイクやマイク端子と、音声認識装置等であり、外部からの音声(データ)の入力を受け付ける。
通信部49は、例えば、LAN(Local Area Network)等の通信インタフェースであり、外部の装置との、無線や有線での通信を制御する。
ドライブ50には、DVD(Digital Versatile Disc)等の光ディスクや、USBメモリ等の半導体メモリであるリムーバブル記録媒体51の着脱が可能になっている。
ドライブ50は、そこに装着されたリムーバブル記録媒体51を駆動することにより、リムーバブル記録媒体51にデータを記録し、また、リムーバブル記録媒体51からデータを読み出す。
[リモコンアプリの処理フロー]
次に、図3のフローチャートを参照して、リモコンアプリを起動することで実行されるリモコンアプリの処理について説明する。
初めに、ステップS1において、リモコンアプリは、少なくとも1つの機器が制御対象として登録されているかを判定する。リモコンアプリがまだ一度も起動されていない場合には、制御対象の機器は1つも登録されていない。
ステップS1で、1つの機器も登録されていないと判定された場合、処理はステップS2に進み、リモコンアプリは、制御対象の機器を登録する機器登録処理を実行する。この処理の詳細は、図5等を参照して後述する。
一方、ステップS1で、少なくとも1つの機器が制御対象として登録されていると判定された場合、処理はステップS3に進み、リモコンアプリは、登録されている制御対象の機器の一覧を表示する機器一覧画面を表示部61Aに表示する。
図4は、表示部61Aに表示される機器一覧画面の画面例を示している。
機器一覧画面では、アプリケーションの名称である「リモコンアプリ」のタイトルとともに、登録されている制御対象の機器ごとに、電源ボタン81、機器画像アイコン82、及び、機器名称83が表示される。
図4の例では、制御対象の機器として、アンプ、テレビジョン受像機(以下、単にテレビという。)、BDプレーヤ、及び、STBが登録されている。なお、図4では、一番左のアンプについての電源ボタン81、機器画像アイコン82、及び、機器名称83に対してのみ符号を付し、その他の機器についての符号は省略している。
ユーザが、例えば、テレビの操作を行いたい場合、テレビの機器画像アイコン82をタッチする。また、テレビの電源をオンまたはオフしたい場合には、ユーザは、テレビの電源ボタン81をタッチする。即ち、電源ボタン81は、登録されている機器の電源をオンまたはオフするときに操作(タッチ)される。機器画像アイコン82は、登録されている機器の制御を行いたいときに操作される。
機器一覧画面では、一画面で所定数(図4の例では、4台)の機器について、電源ボタン81ないし機器名称83を表示することができる。そして、登録されている機器の台数が、一画面で表示可能な台数を超えている場合には、ページ切替アイコン84が表示され、ページ切替アイコン84をタッチするか、または、画面上を右または左方向へドラッグ操作することで、非表示の機器の電源ボタン81ないし機器名称83を表示することができる。
また、機器一覧画面では、新たに機器を登録する際に操作される機器追加ボタン85と、メニューボタン86も表示される。ユーザが機器追加ボタン85を操作(選択)することにより、ステップS2の機器登録処理が実行されるので、後から、機器を追加することが可能である。メニューボタン86では、登録されている機器の配列の並べ替え、リモコンアプリの終了などの操作を行うことができる。
図3のステップS3の処理により、図4に示した機器一覧画面が表示部61Aに表示された後、ステップS4において、リモコンアプリは、機器一覧画面で行われたユーザの操作に対応する処理であるユーザ操作対応処理を実行する。
ユーザ操作対応処理では、登録されている機器の制御、制御対象機器の登録または削除、登録されている機器の配列の並べ替え、登録情報の変更などを行うことができる。
登録されている機器の削除は、図4の機器一覧画面において、削除対象の機器画像アイコン82を長押しすると、[削除]、[機器の編集]などの項目が表示され、ユーザは、[削除]の項目を選択することで、登録されている機器を削除することができる。また、[機器の編集]の項目を選択することで、登録されている機器の登録内容を編集(変更)することができる。なお、登録されている機器の削除や変更を行うための操作方法は、これに限定されず、例えば、メニューボタン86等から実行できるようにしてもよい。
ステップS4におけるユーザ操作対応処理が実行され、最終的に、メニューボタン86が選択されて、表示された項目のなかから[リモコンアプリの終了]が選択されることにより、図3の処理は終了する。
[機器登録処理のフロー]
図5は、図3のステップS2として実行される機器登録処理のフローチャートである。なお、上述したように、機器一覧画面において、機器追加ボタン85がユーザによって操作(選択)されたときも、この処理が実行される。
初めに、ステップS11において、リモコンアプリは、フラッシュメモリ44に記憶しているデータベース(DB)にある機器の登録であるかを判定する。
フラッシュメモリ44には、登録が予想される複数の機器について、その機器のメーカ純正のリモートコントローラが備える操作ボタンと、その操作ボタンが操作されたときに送出されるIR信号(リモコンコード)を対応付けたデータベースが記憶されている。従って、データベースにある機器であれば、ユーザは簡単に機器の登録を行うことができる。
データベースにある機器の登録であるか否かは、リモコンアプリが、図6に示す第1の機器登録画面を表示部61Aに表示して受け付けたユーザの操作に基づいて判定される。
図6の第1の機器登録画面では、機器の種類、メーカ等を指定して、データベースにある機器の登録を行う「かんたん機器登録」か、または、データベースにない機器を登録する「リモコンを使って学習させる」のいずれかの登録方法がラジオボタンにより選択(タッチ)される。
図6の第1の機器登録画面において「かんたん機器登録」がユーザにより選択された場合に、リモコンアプリは、ステップS11で、データベースにある機器の登録であると判定する。一方、第1の機器登録画面において「リモコンを使って学習させる」がユーザにより選択された場合、リモコンアプリは、ステップS11で、データベースにない機器の登録であると判定する。
ステップS11で、データベースにない機器の登録であると判定された場合、処理はステップS12に進み、データベースなしの機器登録処理を実行する。
データベースなしの機器登録処理では、まず、タブレット端末1のIR通信部12と対向する位置に、登録対象のメーカ純正のリモートコントローラが配置される。そして、ユーザは、登録したい操作ボタンをリモコンアプリの画面上で指定した後、対向した配置したメーカ純正のリモートコントローラの登録したい操作ボタンを押下する。メーカ純正のリモートコントローラから送信されてくるIR信号をIR通信部12が受信し、リモコンアプリは、IR通信部12が受信したIR信号を、指定された操作ボタンのIR信号として記憶(学習)する。以上の処理が、登録したい操作ボタンについて繰り返し実行される。
一方、ステップS11で、データベースにある機器の登録であると判定された場合、処理はステップS13に進み、リモコンアプリは、機器の種類とメーカをユーザに選択させる。
図7は、ステップS13の処理において、リモコンアプリによって表示部61Aに表示される第2の機器登録画面の画面例を示している。
第2の機器登録画面には、登録させる機器の種類を提示するプルダウンメニュー91と、メーカを提示するプルダウンメニュー92が設けられる。プルダウンメニュー91または92に表示される複数の項目のなかから、所望の機器の種類とメーカが指定される。指定可能な機器の種類としては、テレビ(TV)、アンプ、DVDプレーヤ、BDプレーヤ、BDレコーダ、などがある。
図5のステップS13の後、ステップS14において、リモコンアプリは、リモコンタイプが複数あるかを判定する。メーカおよび種類の機器の指定に対して、複数のリモコンタイプが存在する場合がある。複数のリモコンタイプが存在する場合には、リモコンタイプによって、送信するIR信号が異なるので、どのリモコンタイプであるかを特定させる必要がある。
ステップS14で、リモコンタイプが複数あると判定された場合、処理はステップS15に進み、リモコンアプリは、動作テスト画面を表示し、可能性のあるリモコンタイプの動作テストを順に行う。動作テスト画面では、所定の操作ボタンをユーザに操作させ、操作した動作が制御対象の機器で行われたか否かの結果をユーザに入力させることで、純正のリモートコントローラに対応するリモコンタイプが確認される。
ステップS14で、リモコンタイプが1つであると判定された場合、ステップS15の処理はスキップされ、処理はステップS16に進む。ステップS12またはS15の処理後も、ステップS16の処理が実行される。
ステップS16において、リモコンアプリは、ジェスチャ操作のタイプをユーザに選択させる。
図8は、ステップS16において、リモコンアプリによって表示部61Aに表示される第3の機器登録画面の画面例を示している。第3の機器登録画面は、ジェスチャ操作のタイプをユーザに選択させる画面である。
第3の機器登録画面には、ジェスチャ操作のタイプを選択するためのプルダウンメニュー101が設けられる。また、プルダウンメニュー101の下には、プルダウンメニュー101で選択されたジェスチャ操作のタイプに対応して表示される、ジェスチャ操作のガイドの説明画像102が表示される。
プルダウンメニュー101で選択可能なジェスチャ操作のタイプは、機器の種類に応じて複数用意される。本実施の形態では、タイプ1、タイプ2、タイプ3の3種類が用意されているものとする。タイプ1は、ジェスチャ操作により、音量だけの制御が可能なタイプであり、タイプ1に対応する代表的な制御対象機器は、アンプである。タイプ2は、ジェスチャ操作により、音量とチャンネルの制御が可能なタイプであり、タイプ2に対応する代表的な制御対象機器は、テレビである。タイプ3は、ジェスチャ操作により、音量と走行系(再生、早送り、早戻しなど)の制御が可能なタイプであり、タイプ3に対応する代表的な制御対象機器は、BDプレーヤやBDレコーダなどの録画再生装置である。
図8の画面例では、プルダウンメニュー101でタイプ2のジェスチャ操作が選択されており、ジェスチャ操作のガイドの説明画像102も、タイプ2のガイドが表示されている。
ステップS16の処理により、ジェスチャ操作のタイプがユーザにより選択されると、ステップS17において、リモコンアプリは、登録内容を確認するため、図9に示す第4の機器登録画面を表示部61Aに表示する。そして、図9の第4の機器登録画面の登録ボタン111が操作されたとき、リモコンアプリは、設定された内容で機器を登録して、処理を終了する。
図9の第4の機器登録画面では、上述のステップS11ないしS16の処理で設定された内容が表示される。
「名前」の欄には、指定された機器の種類に応じたデフォルトの名前が設定されている。この欄に設定された名前が、機器一覧画面の機器名称83として表示される。リモコン動作テストボタン112は、登録内容で動作テストを行うとき操作されるボタンである。
アイコン表示部113には、指定された機器の種類に応じたデフォルトのアイコンが設定されている。ここで設定されているアイコンが、機器一覧画面の機器画像アイコン82として表示される。デフォルトのアイコンを変更する場合には、アイコン変更ボタン114がタッチされる。アイコン変更ボタン114がタッチされると、予め用意された複数のアイコンが提示され、ユーザは所定のアイコンを選択することで、好みのアイコンに変更することができる。
以上のようにして、リモコンアプリに制御対象の機器が登録される。登録された各機器についての設定内容は、フラッシュメモリ44に記憶される。
[リモコンアプリにおける機器制御の操作方法]
次に、リモコンアプリにおいて、登録された機器に対してIR信号を送信し、所定の制御を行う場合の操作方法について説明する。
図4の機器一覧画面において、例えば、テレビの機器画像アイコン82がユーザによりタッチされることにより、テレビが制御対象機器として選択される。制御対象機器が決定されると、リモコンアプリは、制御対象機器のジェスチャ画面かまたはフルリモコン画面のいずれか一方を表示部61Aに表示する。
図10は、制御対象機器がテレビである場合のジェスチャ画面であり、図11は、制御対象機器がテレビである場合のフルリモコン画面の例を示している。
制御対象機器それぞれに対して、ジェスチャ画面とフルリモコン画面の両方が選択的に表示可能である。ジェスチャ画面は、機器の種類によって頻繁に利用することが多い操作(機器の制御)を、簡単なジェスチャ操作で行うことができる画面であり、フルリモコン画面は、機器の全ての操作ボタンを表示して操作可能とした画面である。
ジェスチャ画面とフルリモコン画面のどちらを優先的に最初に表示するかは予め決定することができ、本実施の形態では、機器画像アイコン82がユーザによりタッチされた場合、ジェスチャ画面が表示されるものとする。
図10のジェスチャ画面と図11のフルリモコン画面には、テレビの電源ボタン81ないし機器名称83、機器切り替えボタン121A及び121B、機器一覧ボタン122、ジェスチャ画面切り替えボタン123、並びに、フルリモコン画面切り替えボタン124が共通に設けられている。
右方向の機器切り替えボタン121Aが選択されると、図4の機器一覧画面において、テレビの右隣に配置されているBDプレーヤに、制御対象が切り替えられ、後述する図13のBDプレーヤのジェスチャ画面が表示される。一方、左方向の機器切り替えボタン121Bが選択されると、図4の機器一覧画面において、テレビの左隣に配置されているアンプに、制御対象が切り替えられ、後述する図12のアンプのジェスチャ画面が表示される。
機器一覧ボタン122は、図4の機器一覧画面に戻るときに操作される。ジェスチャ画面切り替えボタン123は、ジェスチャ画面に表示を切り替えるときに操作され、フルリモコン画面切り替えボタン124は、フルリモコン画面に表示を切り替えるときに操作される。図10のジェスチャ画面では、フルリモコン画面切り替えボタン124に影が付されており、図11のフルリモコン画面では、ジェスチャ画面切り替えボタン123に影が付されている。
図10のジェスチャ画面と図11のフルリモコン画面では、ジェスチャ画面には、ジェスチャ操作のガイド131が表示され、フルリモコン画面には、操作キー画面141が表示される点が異なる。
図10に示されるジェスチャ操作のガイド131は、図8の第3の機器登録画面のプルダウンメニュー101で設定された、タイプ2のガイド131である。
タイプ2のガイド131は、上方向のスライド操作に、音量を上げるコマンド[Vol+]が、下方向のスライド操作に、音量を下げるコマンド[Vol-]が、右方向のスライド操作に、チャンネルをプラス方向に変更するコマンド[Ch+]が、左方向のスライド操作に、チャンネルをマイナス方向に変更するコマンド[Ch-]が、割り当てられていることを模式的に示している。
ここで、スライド操作には、フリック操作と、ドラッグ操作の両方を含み、リモコンアプリは、フリック操作とドラッグ操作それぞれに応じて異なるコマンド(IR信号)の出力を行う。リモコンアプリは、ユーザの指の接触時間が一定時間(例えば、0.7秒)未満である場合のスライド操作を検出した場合、フリック操作が行われたと判定する。一方、ユーザの指の接触時間が一定時間(例えば、0.7秒)以上である場合のスライド操作を検出した場合、リモコンアプリは、ドラッグ操作が行われたと判定する。
フリック操作が行われたと判定された場合には、リモコンアプリは、割り当てられているコマンド[Vol+]、[Vol-]、[Ch+]、または[Ch-]を1回送信する。一方、ドラッグ操作が行われたと判定された場合には、リモコンアプリは、割り当てられているコマンド[Vol+]、[Vol-]、[Ch+]、または[Ch-]を、ユーザの指がタッチスクリーン11から離れたと検出されるまで連続送信する。
また、リモコンアプリは、1回送信を行う場合と、連続送信を行う場合とで、異なる操作音(メロディ)を出力部47から出力させ、コマンドが送信されたことをユーザに通知する。1回送信を行う場合には、コマンドを送信するタイミングで操作音が出力され、連続送信を行う場合には、連続送信を開始するタイミングで操作音が出力される。
図11のフルリモコン画面の操作キー画面141には、リモートコントローラが一般的に備える操作ボタンと同様の操作キーが設けられている。リモコンアプリは、登録された機器によって、IR信号の割り当てがない操作キーは、非表示とするか、グレー表示とするなどして、割り当てがないことを判別可能とする。操作キーの種類が多く、一画面で表示できない場合には、ページ切り替えボタン142で非表示の操作キーを表示させることができる。
図10のジェスチャ画面において、左方向の機器切り替えボタン121Bがユーザにより選択されると、図4の機器一覧画面においてテレビの左隣に配置されているアンプに制御対象が切り替えられ、図12に示される、アンプのジェスチャ画面が表示される。
図12に示されるアンプのジェスチャ画面のガイド131は、タイプ1のガイドである。
タイプ1のガイド131は、上方向のスライド操作に、音量を上げるコマンド[Vol+]が、下方向のスライド操作に、音量を下げるコマンド[Vol-]が、割り当てられていることを模式的に示している。右方向と左方向のスライド操作に割り当てられているコマンドはない。フリック操作とドラッグ操作によるコマンド出力(1回送信か、または、連続送信か)の違い、および、1回送信と連続送信による操作音の違いは、上述したタイプ2と同様であるので、説明は省略する。
一方、図10のジェスチャ画面において、右方向の機器切り替えボタン121Aがユーザにより選択されると、図4の機器一覧画面においてテレビの右隣に配置されているBDプレーヤに制御対象が切り替えられ、図13に示される、BDプレーヤのジェスチャ画面が表示される。
図13に示されるBDプレーヤのジェスチャ画面のガイド131は、タイプ3のガイドである。
タイプ3のガイド131は、上方向のスライド操作に、音量を上げるコマンド[Vol+]が、下方向のスライド操作に、音量を下げるコマンド[Vol-]が、割り当てられていることを模式的に示している。コマンド[Vol+]と[Vol-]については、上述したタイプ2と同様であるので説明は省略する。
タイプ3のガイド131は、右方向のフリック操作に、次のタイトル/チャプター/トラックの先頭に進むコマンド[Next]が、右方向のドラッグ操作に、早送りのコマンド[FF]が、割り当てられていることも模式的に示している。
さらに、タイプ3のガイド131は、左方向のフリック操作に、前のタイトル/チャプター/トラックの先頭に進むコマンド[Prev]が、左方向のドラッグ操作に、早戻しのコマンド[FR]が、割り当てられていることを模式的に示している。
右方向または左方向のフリック操作は、コマンド[Next]または[Prev]の1回送信、右方向または左方向のドラッグ操作は、コマンド[FF]または[FR]の連続送信となる。1回送信と連続送信による操作音の違いは、上述したタイプ2と同様である。
また、タイプ3では、タップ操作に、再生のコマンド[Play]が、ダブルタップ操作に、ポーズのコマンド[Pause]が割り当てられている。
[ジェスチャ操作の例]
次に、タイプ2のガイド131の場合を例に、所定のジェスチャ操作が行われた場合の動作について説明する。
図14は、ユーザが、タッチスクリーン11において、ジェスチャ操作の一つである、右方向のフリック操作を行った場合の表示例を示している。
リモコンアプリは、ユーザが行ったジェスチャ操作(フリック操作)を検出し、検出した指の位置の軌跡151を表示部61Aに表示する。なお、ユーザは、ジェスチャ操作をガイド131の真上で行う必要はなく、リモコンアプリは、タッチスクリーン11上のどの位置でジェスチャ操作が行われた場合であっても検出可能である。例えば、右方向のフリック操作が、[Vol+]の文字より下の領域で行われた場合であっても、検出することができる。
そして、リモコンアプリは、検出したジェスチャ操作に対応して機器に送信されるコマンドがユーザに分かるように、ジェスチャ操作のガイド131のうち、送信するコマンドの部分(Ch+)を点滅表示させる。
さらに、リモコンアプリは、検出したジェスチャ操作に対応するコマンド(のIR信号)をIR通信部12から送信させ、コマンドが送信されていることを示す通信中ランプ152を所定時間表示させる。通信中ランプ152の表示(点灯)は、あくまで、コマンドが送信されたことをユーザが分かるようにするためであるので、実際のコマンドの送信期間と、通信中ランプ152の表示期間とが対応している必要はない。
なお、リモコンアプリが、ドラッグ操作を検出した場合には、検出した指の位置の軌跡151を表示した後、例えば、継続してタッチされている指の位置を中心とする波紋を表示させるなどして、指を検出中であることを示す表示を行う。
次に、図15を参照して、コマンドが割り当てられていないジェスチャ操作が行われた場合の表示例について説明する。
図15は、チャンネルをプラス方向に変更するコマンドがリモコンアプリに割り当てられていない場合に、ユーザが、右方向にフリックする操作を行った場合の表示例を示している。
コマンドが割り当てられていないジェスチャ操作をユーザが行った場合、リモコンアプリは、ユーザが行ったジェスチャ操作(フリック操作)を検出し、検出したジェスチャ操作にコマンドが割り当てられていないことを示すメッセージ161をトースト表示する。トースト表示は、予め定めた一定時間表示させた後、消去する表示方法である。
また、リモコンアプリは、割り当てられていないコマンドであっても、どのコマンドを認識したかをユーザがわかるようにするため、ジェスチャ操作のガイド131のうち、認識したコマンドの部分(Ch+)を点滅表示させる。なお、コマンドは送信されないため、図13の通信中ランプ152は点灯されない。
[ジェスチャ操作対応処理のフロー]
図16は、リモコンアプリが、図3のユーザ操作対応処理の一部として実行するジェスチャ操作対応処理のフローチャートである。
初めに、ステップS31において、リモコンアプリは、ジェスチャ操作を検出したかを判定し、ジェスチャ操作を検出したと判定するまで、ステップS31の処理を繰り返す。
ステップS31で、ジェスチャ操作を検出したと判定された場合、処理はステップS32に進み、リモコンアプリは、検出したジェスチャ操作(指の位置)の軌跡151を表示部61Aに表示させる。
そして、ステップS33において、リモコンアプリは、検出したジェスチャ操作にコマンドが割り当てられているかを判定する。
ステップS33で、検出したジェスチャ操作にコマンドが割り当てられていると判定された場合、処理はステップS34に進み、リモコンアプリは、ジェスチャ操作のガイド131のうち、送信するコマンドに対応する部分(図13の例では、Ch+)を点滅表示させる。
そして、ステップS35において、リモコンアプリは、検出したジェスチャ操作に割り当てられているコマンド(IR信号)を、IR通信部12から制御対象の機器に送信する。
さらに、ステップS36において、リモコンアプリは、コマンドが送信されていることを示す通信中ランプ152を所定時間表示させる。
ステップS34ないしS36は、実際には同時に実行される。ステップS36のあと、処理はステップS31に戻る。
一方、ステップS33で、検出したジェスチャ操作にコマンドが割り当てられていないと判定された場合、処理はステップS37に進み、上述したステップS34と同じ処理のみ実行される。即ち、リモコンアプリは、ジェスチャ操作のガイド131のうち、送信するコマンドに対応する部分(図13の例では、Ch+)を点滅表示させる。そして、処理はステップS31に戻る。
以上のように、リモコンアプリは、ジェスチャ操作のガイド131を第1の状態で表示部61Aに表示させ、所定のジェスチャ操作が検出されると、検出されたジェスチャ操作に対応するガイド131の、送信するコマンドに対応する部分を第2の状態に変更して表示させる。上述した例では、第1の状態が点灯状態であり、第2の状態が点滅状態に相当するが、第1の状態および第2の状態はこれに限定されない。例えば、第1の状態を、明度の低い(つまり、暗い)ジェスチャ操作のガイド131とし、第2の状態を、明度の高い(つまり、明るい)ジェスチャ操作のガイド131としてもよい。ジェスチャ操作のガイド131の第2の状態を、第1の状態に対して、反転表示とするようなものでもよい。
本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、上述した実施の形態では、機器一覧画面等を表示する表示部61Aと、ジェスチャ操作を検出する位置検出部61Bとが重畳されて一体のタッチスクリーン11とされていたが、表示部61Aと位置検出部61Bは、別々の構成としてもよい。例えば、位置検出部61Bとしてのタッチパッドと表示部61Aとを、同一平面上の別の領域に設けたり、別々の筺体としてもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
ジェスチャ操作のガイドを第1の状態で表示部に表示させる表示制御部と、
前記ジェスチャ操作を検出する検出部と
を備え、
前記表示制御部は、前記ジェスチャ操作が検出された場合、検出された前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させる
表示制御装置。
(2)
前記ジェスチャ操作は、所定の機器を制御するコマンドに対応するものであり、
検出された前記ジェスチャ操作に対応する前記コマンドを前記機器に送信する通信部をさらに備える
前記(1)に記載の表示制御装置。
(3)
前記機器の種類に応じて複数の前記ジェスチャ操作のガイドがあり、
前記機器の種類と前記ジェスチャ操作のガイドとを選択する選択部をさらに備え、
前記表示制御部は、前記選択部により選択された前記ジェスチャ操作のガイドを第1の状態で表示部に表示させる
前記(2)に記載の表示制御装置。
(4)
前記表示部をさらに備える
前記(1)乃至(3)のいずれかに記載の表示制御装置。
(5)
ジェスチャ操作のガイドを第1の状態で表示部に表示させ、
前記ジェスチャ操作を検出し、
検出した前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させる
ステップを含む表示制御方法。
(6)
コンピュータに、
ジェスチャ操作のガイドを第1の状態で表示部に表示させ、
前記ジェスチャ操作を検出し、
検出した前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させる
ステップを含む処理を実行させるためのプログラム。
1 タブレット端末, 11 タッチスクリーン, 12 IR通信部, 41 CPU, 61A 表示部, 61B 位置検出部

Claims (6)

  1. ジェスチャ操作のガイドを第1の状態で表示部に表示させる表示制御部と、
    前記ジェスチャ操作を検出する検出部と
    を備え、
    前記表示制御部は、前記ジェスチャ操作が検出された場合、検出された前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させる
    表示制御装置。
  2. 前記ジェスチャ操作は、所定の機器を制御するコマンドに対応するものであり、
    検出された前記ジェスチャ操作に対応する前記コマンドを前記機器に送信する通信部をさらに備える
    請求項1に記載の表示制御装置。
  3. 前記機器の種類に応じて複数の前記ジェスチャ操作のガイドがあり、
    前記機器の種類と前記ジェスチャ操作のガイドとを選択する選択部をさらに備え、
    前記表示制御部は、前記選択部により選択された前記ジェスチャ操作のガイドを第1の状態で表示部に表示させる
    請求項2に記載の表示制御装置。
  4. 前記表示部をさらに備える
    請求項1に記載の表示制御装置。
  5. ジェスチャ操作のガイドを第1の状態で表示部に表示させ、
    前記ジェスチャ操作を検出し、
    検出した前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させる
    ステップを含む表示制御方法。
  6. コンピュータに、
    ジェスチャ操作のガイドを第1の状態で表示部に表示させ、
    前記ジェスチャ操作を検出し、
    検出した前記ジェスチャ操作に対応する前記ガイドを第2の状態に変更して前記表示部に表示させる
    ステップを含む処理を実行させるためのプログラム。
JP2011097443A 2011-04-25 2011-04-25 表示制御装置、表示制御方法、およびプログラム Withdrawn JP2012231249A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011097443A JP2012231249A (ja) 2011-04-25 2011-04-25 表示制御装置、表示制御方法、およびプログラム
CN201280019275.9A CN103493001A (zh) 2011-04-25 2012-04-12 显示控制设备、显示控制方法以及程序
US14/112,398 US9524095B2 (en) 2011-04-25 2012-04-12 Display control device, display control method, and program
EP12777557.5A EP2703972A1 (en) 2011-04-25 2012-04-12 Display control device, display control method, and program
PCT/JP2012/059960 WO2012147520A1 (ja) 2011-04-25 2012-04-12 表示制御装置、表示制御方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011097443A JP2012231249A (ja) 2011-04-25 2011-04-25 表示制御装置、表示制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2012231249A true JP2012231249A (ja) 2012-11-22

Family

ID=47072042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011097443A Withdrawn JP2012231249A (ja) 2011-04-25 2011-04-25 表示制御装置、表示制御方法、およびプログラム

Country Status (5)

Country Link
US (1) US9524095B2 (ja)
EP (1) EP2703972A1 (ja)
JP (1) JP2012231249A (ja)
CN (1) CN103493001A (ja)
WO (1) WO2012147520A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5529357B1 (ja) * 2013-02-20 2014-06-25 パナソニック株式会社 携帯情報端末の制御方法及びプログラム
WO2015008408A1 (ja) * 2013-07-19 2015-01-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報端末の制御方法及びプログラム
WO2015029758A1 (ja) * 2013-08-29 2015-03-05 三菱電機株式会社 電気機器、空気調和機、外部制御器、携帯端末及び空調システム
US9490997B2 (en) 2013-02-20 2016-11-08 Panasonic Intellectual Property Corporation Of America Control method for information apparatus and computer-readable recording medium
KR20170118875A (ko) * 2015-06-10 2017-10-25 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 제스처 제어 방법, 장치 및 시스템
US10237141B2 (en) 2013-02-20 2019-03-19 Panasonic Intellectual Property Corporation Of America Method for controlling information apparatus and computer-readable recording medium
US10454781B2 (en) 2013-02-20 2019-10-22 Panasonic Intellectual Property Corporation Of America Control method for information apparatus and computer-readable recording medium

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9459781B2 (en) 2012-05-09 2016-10-04 Apple Inc. Context-specific user interfaces for displaying animated sequences
WO2014128784A1 (ja) * 2013-02-20 2014-08-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 携帯情報端末の制御方法及びプログラム
WO2014143776A2 (en) 2013-03-15 2014-09-18 Bodhi Technology Ventures Llc Providing remote interactions with host device using a wireless device
KR20170109077A (ko) * 2013-06-25 2017-09-27 후지쯔 가부시끼가이샤 정보 처리 장치 및 기록 매체
US10048665B2 (en) * 2013-09-26 2018-08-14 Kyocera Corporation Device controller, device control method, and control system
EP2887196B1 (en) * 2013-12-20 2020-08-19 Dassault Systèmes A computer-implemented method for configuring a tool with at least one pointing element on a screen
CN116243841A (zh) 2014-06-27 2023-06-09 苹果公司 尺寸减小的用户界面
EP3195098A2 (en) * 2014-07-21 2017-07-26 Apple Inc. Remote user interface
CN115623117A (zh) 2014-09-02 2023-01-17 苹果公司 电话用户界面
US9547419B2 (en) 2014-09-02 2017-01-17 Apple Inc. Reduced size configuration interface
US9451144B2 (en) 2014-09-02 2016-09-20 Apple Inc. Remote camera user interface
JP6043334B2 (ja) * 2014-12-22 2016-12-14 京セラドキュメントソリューションズ株式会社 表示装置、画像形成装置、及び、表示方法
KR102310870B1 (ko) * 2015-01-12 2021-10-12 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US10055121B2 (en) 2015-03-07 2018-08-21 Apple Inc. Activity based thresholds and feedbacks
US10254911B2 (en) 2015-03-08 2019-04-09 Apple Inc. Device configuration user interface
CN104778000A (zh) * 2015-03-20 2015-07-15 广东欧珀移动通信有限公司 方向标记显示方法及方向标记显示系统
CN105022398B (zh) * 2015-07-15 2018-07-06 珠海磐磊智能科技有限公司 触摸屏控制器及行驶装置的控制方法
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
US11275446B2 (en) * 2016-07-07 2022-03-15 Capital One Services, Llc Gesture-based user interface
JP2019211826A (ja) * 2018-05-31 2019-12-12 キヤノン株式会社 制御装置、制御システム、制御方法およびプログラム
US10887193B2 (en) 2018-06-03 2021-01-05 Apple Inc. User interfaces for updating network connection settings of external devices
JP7292024B2 (ja) 2018-10-22 2023-06-16 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、コンピュータプログラム
CN111124211A (zh) * 2018-10-31 2020-05-08 杭州海康威视系统技术有限公司 一种数据显示方法、装置及电子设备
WO2020227330A1 (en) 2019-05-06 2020-11-12 Apple Inc. Restricted operation of an electronic device
DK201970533A1 (en) 2019-05-31 2021-02-15 Apple Inc Methods and user interfaces for sharing audio
CN110851036A (zh) * 2019-11-18 2020-02-28 珠海格力电器股份有限公司 电器设备的参数调节方法、装置及存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168855A (ja) * 1993-09-21 1995-07-04 Toshiba Corp 情報記録再生装置
JP2000285080A (ja) * 1999-03-30 2000-10-13 Pfu Ltd 携帯情報端末及びそのプログラム記憶媒体
JP4403966B2 (ja) 2002-05-20 2010-01-27 ソニー株式会社 情報処理システム、情報処理装置及び情報処理方法
JP2005317041A (ja) * 2003-02-14 2005-11-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2005223931A (ja) * 2005-02-14 2005-08-18 Sharp Corp ユーザ操作支援装置およびユーザ操作支援方法
JP2007208547A (ja) * 2006-01-31 2007-08-16 Ict Solutions:Kk インターネットテレビジョン装置、及びその簡単操作を実現するリモコン装置
US20090153289A1 (en) * 2007-12-12 2009-06-18 Eric James Hope Handheld electronic devices with bimodal remote control functionality
JP4979570B2 (ja) * 2007-12-28 2012-07-18 パナソニック株式会社 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
US8196042B2 (en) * 2008-01-21 2012-06-05 Microsoft Corporation Self-revelation aids for interfaces
JP2010193107A (ja) 2009-02-17 2010-09-02 Smk Corp リモートコントロール送信機
US8622742B2 (en) * 2009-11-16 2014-01-07 Microsoft Corporation Teaching gestures with offset contact silhouettes
US9747270B2 (en) * 2011-01-07 2017-08-29 Microsoft Technology Licensing, Llc Natural input for spreadsheet actions

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10140006B2 (en) 2013-02-20 2018-11-27 Panasonic Intellectual Property Corporation Of America Method for controlling information apparatus
US10466881B2 (en) 2013-02-20 2019-11-05 Panasonic Intellectual Property Corporation Of America Information apparatus having an interface for performing a remote operation
US9490997B2 (en) 2013-02-20 2016-11-08 Panasonic Intellectual Property Corporation Of America Control method for information apparatus and computer-readable recording medium
WO2014129138A1 (ja) * 2013-02-20 2014-08-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報端末の制御方法及びプログラム
US20140359468A1 (en) 2013-02-20 2014-12-04 Panasonic Intellectual Property Corporation Of America Method for controlling information apparatus and computer-readable recording medium
JP5529357B1 (ja) * 2013-02-20 2014-06-25 パナソニック株式会社 携帯情報端末の制御方法及びプログラム
US10237141B2 (en) 2013-02-20 2019-03-19 Panasonic Intellectual Property Corporation Of America Method for controlling information apparatus and computer-readable recording medium
US9569081B2 (en) 2013-02-20 2017-02-14 Panasonic Intellectual Property Corporation Of America Control method for information apparatus and computer-readable recording medium
JP5719484B2 (ja) * 2013-02-20 2015-05-20 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 情報端末の制御方法及びプログラム
JP5719481B2 (ja) * 2013-02-20 2015-05-20 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 携帯情報端末の制御方法及びプログラム
US10802694B2 (en) 2013-02-20 2020-10-13 Panasonic Intellectual Property Corporation Of America Information apparatus having an interface for a remote control
US9354798B2 (en) 2013-02-20 2016-05-31 Panasonic Intellectual Property Corporation Of America Information apparatus having an interface for a remote control
WO2014128775A1 (ja) * 2013-02-20 2014-08-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 携帯情報端末の制御方法及びプログラム
WO2014128792A1 (ja) * 2013-02-20 2014-08-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 携帯情報端末の制御方法及びプログラム
US10454781B2 (en) 2013-02-20 2019-10-22 Panasonic Intellectual Property Corporation Of America Control method for information apparatus and computer-readable recording medium
US10387022B2 (en) 2013-02-20 2019-08-20 Panasonic Intellectual Property Corporation America Method for controlling information apparatus
JPWO2015008409A1 (ja) * 2013-07-19 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報端末の制御方法及びプログラム
WO2015008409A1 (ja) * 2013-07-19 2015-01-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報端末の制御方法及びプログラム
WO2015008408A1 (ja) * 2013-07-19 2015-01-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報端末の制御方法及びプログラム
CN105308983B (zh) * 2013-08-29 2018-12-28 三菱电机株式会社 空气调节机、外部控制器、便携终端以及空调系统
JPWO2015029758A1 (ja) * 2013-08-29 2017-03-02 三菱電機株式会社 電気機器、空気調和機、外部制御器、携帯端末及び空調システム
CN105308983A (zh) * 2013-08-29 2016-02-03 三菱电机株式会社 电气设备、空气调节机、外部控制器、便携终端以及空调系统
WO2015029758A1 (ja) * 2013-08-29 2015-03-05 三菱電機株式会社 電気機器、空気調和機、外部制御器、携帯端末及び空調システム
JP2018504798A (ja) * 2015-06-10 2018-02-15 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 ジェスチャ制御方法、デバイス、およびシステム
KR20170118875A (ko) * 2015-06-10 2017-10-25 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 제스처 제어 방법, 장치 및 시스템
KR101974296B1 (ko) * 2015-06-10 2019-04-30 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 제스처 제어 방법, 장치 및 시스템
US10956025B2 (en) 2015-06-10 2021-03-23 Tencent Technology (Shenzhen) Company Limited Gesture control method, gesture control device and gesture control system

Also Published As

Publication number Publication date
EP2703972A1 (en) 2014-03-05
US9524095B2 (en) 2016-12-20
US20140040831A1 (en) 2014-02-06
CN103493001A (zh) 2014-01-01
WO2012147520A1 (ja) 2012-11-01

Similar Documents

Publication Publication Date Title
WO2012147520A1 (ja) 表示制御装置、表示制御方法、およびプログラム
US11792256B2 (en) Directional touch remote
US10845986B2 (en) Remote control device and method of controlling other devices using the same
US9703471B2 (en) Selectively coordinated audio player system
US9513802B2 (en) Methods for displaying a user interface on a remote control device and a remote control device applying the same
US20100064255A1 (en) Contextual menus in an electronic device
KR101344173B1 (ko) 텔레비전용 커서를 구현하는 기술
KR20070072516A (ko) 적어도 하나의 미디어 데이터 처리 디바이스를 제어할 수있게 하는 장치 및 그 방법
CN103853355A (zh) 电子设备操作方法及其操控设备
US20160253087A1 (en) Apparatus and method for controlling content by using line interaction
JP2015038665A (ja) 電子機器、及び電子機器の制御方法
KR20070104130A (ko) 컨텐츠 목록 표시 방법 및 장치
KR102317619B1 (ko) 전자 장치 및 이의 제어 방법
KR20160032883A (ko) 디스플레이 장치 및 이의 인디케이터를 디스플레이하는 방법
KR102303286B1 (ko) 단말기 및 그의 동작 방법
KR20160093306A (ko) 음향 출력 장치 및 그 제어 방법
US20170092334A1 (en) Electronic device and method for visualizing audio data
KR102049461B1 (ko) 원격 조정 장치 및 원격 조정 장치에 의해 제어되도록 구성되는 디바이스
JP7420642B2 (ja) 動画再生装置および動画再生方法
US20160364202A1 (en) Apparatus for outputting audio, driving method of apparatus for outputting audio, and non-transitory computer readable recording medium
KR102330475B1 (ko) 단말기 및 그의 동작 방법
KR101901232B1 (ko) 컨텐츠를 분할하여 표시하는 방법 및 장치
KR20190133646A (ko) 원격 조정 장치 및 원격 조정 장치에 의해 제어되도록 구성되는 디바이스
KR20130037417A (ko) 터치 디스플레이를 구비한 사용자 단말을 통한 전자학습 동영상 컨텐츠 제어방법 및 장치

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140701