JP2014222840A - 映像表示装置の遠隔操作方法及び遠隔操作システム - Google Patents

映像表示装置の遠隔操作方法及び遠隔操作システム Download PDF

Info

Publication number
JP2014222840A
JP2014222840A JP2013102261A JP2013102261A JP2014222840A JP 2014222840 A JP2014222840 A JP 2014222840A JP 2013102261 A JP2013102261 A JP 2013102261A JP 2013102261 A JP2013102261 A JP 2013102261A JP 2014222840 A JP2014222840 A JP 2014222840A
Authority
JP
Japan
Prior art keywords
image
display
area
pointer
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013102261A
Other languages
English (en)
Inventor
由晴 清水
Yoshiharu Shimizu
由晴 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2013102261A priority Critical patent/JP2014222840A/ja
Priority to US14/258,159 priority patent/US20140344767A1/en
Priority to EP14167056.2A priority patent/EP2804084A1/en
Priority to CN201410203137.7A priority patent/CN104159052A/zh
Publication of JP2014222840A publication Critical patent/JP2014222840A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4222Remote control device emulator integrated into a non-television apparatus, e.g. a PDA, media center or smart toy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration

Abstract

【課題】簡易な入力方法を有しているとともに、直感的で尚且つ精度の高い操作入力が可能な映像表示装置の遠隔操作方法及び遠隔操作システムを提供する。【解決手段】映像表示装置100と外部制御装置200とを接続するとともに、表示部101の表示領域Apと検出部201の検出領域Saとが関連付けられており、映像表示装置100の動作と関連付けられた操作画像が表示部101に表示され、操作者が操作するポインタPの接触動作を検出部101が検出したとき、ポインタPの接触動作を検出した領域と対応する表示領域に表示されている操作画像に関連付けられた動作が実行される遠隔操作方法。【選択図】図3

Description

本発明は、映像を表示する表示部を備えた映像表示装置の遠隔操作方法及び遠隔操作方法を利用した遠隔操作システムに関する。
現在、薄型テレビ受像機等の映像表示装置において、遠隔操作を行うリモートコントローラが操作入力機器として一般的になっている。また、最近では指等の接触(タップ)、移動(スライド)、(以下、まとめてゼスチャーと称する場合がある)を読み取る平板状の読み取り部(タッチパネル)を用いたものが増えている。また、タッチパネルを備えた機器として、スマートフォンやタブレットPC等の携帯端末が普及しており、このような携帯端末をリモートコントローラの代わりに用いることも提案されている(例えば特許文献1)。
特許文献1には、ユーザの指等のポインタの接触を検出するセンサを備えた表示パネル(タッチパネル)を備えた携帯電話(携帯端末)及びこの携帯電話で操作されるテレビ(映像表示装置)が示されている。前記携帯電話機は、前記表示パネルにGUIを構成する任意のオブジェクトごとに設定されるオブジェクトデータに基づいて、オブジェクトを表示する。そして、前記ポインタの接触をセンサが検出すると、その接触部分を含む領域に表示されているオブジェクトに割り当てられた動作の実行指令をテレビに送信し、テレビは実行指令に基づいて所定の処理を実行する。
また、タッチパネルの操作入力を検出する装置として、特許文献2に示す操作入力検知装置もある。特許文献2の操作入力検知装置は、ユーザの指の接触状態を検知するタッチパネル装置と、デジタル処理ユニットを備えている。そして、操作入力検知装置は、ユーザの指の接触状態(接触しているか、離れているか)を検知し、接触していると検知している場合、その指の動作(ストローク)を検知し、そのストロークの種別(例えば、接触のみの点ストローク、接触した指が直線的に移動する直線ストローク、湾曲した線状に移動する曲線ストローク等)を識別している。
特開2011−44103号公報 特開2012−203563号公報
しかしながら、上記特許文献1の構成では、携帯電話の表示パネルにGUIを表示し、その表示に合わせ、ユーザが表示部を触れることで実行指令を送る構成であり、ユーザは、テレビの画面と携帯電話の表示パネルとの両方を見なくてはならない。そのため、視線の切替えによる疲労の原因となったり、重要なシーンを見逃してしまったりする場合がある。
また、特許文献2の構成の場合、操作入力検知装置は、ユーザの指の操作(ストローク)を検知する構成であるため、ストロークそれぞれに別の実行指令を割り当てておくことで、ユーザは操作入力検知装置を視認しなくても、ストロークを行うことが可能である。一方で、ユーザの年齢、性別、体格等によってストロークの大きさ、形状等が異なる場合が多く、ストロークを正確に判断できない場合がある。このような場合に備え、特許文献2では、予めストロークを入力し、そのストロークを登録することで、ストロークの検知の精度を高めている。
しかしながら、このような構成とすると、ユーザごとにストロークの登録を行う必要であり、手間と時間がかかり利便性が悪い。また、特定の実行指令を行うためのストロークをユーザが覚えておく必要があり、特に初めて使用するユーザは慣れるまでに正確な操作を行えない恐れがある。
この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、簡易な入力方法を有しているとともに、直感的で尚且つ精度の高い操作入力が可能な映像表示装置の遠隔操作方法及び遠隔操作システムを提供することである。
この発明の一の局面による遠隔操作方法は、映像を表示する表示部を備えた映像表示装置を物体の接触を検出する面状の検出部を備えた外部制御装置で遠隔操作する遠隔操作方法であって、前記映像表示装置と前記外部制御装置とを接続するとともに、前記表示部の表示領域と前記検出部の検出領域とが関連付けられており、前記映像表示装置の動作と関連付けられた操作画像が前記表示部に表示され、前記検出部が物体の接触を検出したとき、前記ポインタの接触を検出した領域と対応する表示領域に表示されている操作画像に関連付けられた操作が実行されることを特徴とする。
この発明の一局面による遠隔操作方法では、前記外部操作装置の検出部と前記表示部の表示領域とを関連付け、検出部の物体の接触した領域と対応する部分と対応する表示部に表示されている操作画像に関連付けられた動作をするため、操作者は表示部から目を離さずに、遠隔操作を行うことが可能である。
これにより、操作者に対して直感的で簡単な操作方法とすることができるとともに、正確な遠隔操作が可能であり、操作者の利便性が高くなる。
上記一局面による遠隔操作方法において、前記検出領域には前記操作画像と対応する操作領域が含まれており、前記検出部は接触している物体(ポインタ)が前記操作領域の境界を越えたとき、前記ポインタの操作に合わせて、前記操作画像に関連付けられた動作を実行するように構成されている。このように構成にすれば、前記ポインタの操作に応じて遠隔操作が行われるため、操作者の操作感を高めることができる。また、操作者が所望する動作が割り当てられている操作画像の場所と対応する操作領域に前記ポインタを接触させることができなかった場合でも、ポインタが前記操作領域の境界を越える前であれば修正が可能である。これにより、誤操作による無駄な作業を低減することができ、利便性が高くなる。
上記一局面による遠隔操作方法において、前記接触している物体の接触動作を検出した操作領域と対応する操作画像に関連付けられた動作とに基づき、前記接触している物体(ポインタ)の動きを予測し、予測結果に基づいて前記操作領域の形状を変更するように構成されている。このように構成にすれば、前記ポインタが移動方向の位置が一定又は略一定となる位置で動作が実行されるので、操作者は、常に一定の感覚で操作を行うことが可能であり、利便性が高い。
上記一局面による遠隔操作方法において、前記物体(ポインタ)の接触が検出されたとき、前記表示部の操作画像を変化させるように構成されている。このように構成すれば、操作者は、表示部を見ることで、現在ポインタが接触している領域及びその動作が自分の望んでいる動作であるかどうかを認識することができる。外部操作装置を視認する必要がなく、操作者の利便性を高めることが可能である。
上記一局面による遠隔操作方法において、前記表示部には複数個の前記操作画像が表示されており、前記検出領域を前記操作画像と一対一で対応する複数個の操作領域に分割するように構成されている。このように構成すれば、操作者がポインタを検出部に接触させることで、いずれかの操作領域に接触するため、表示部が何らかの反応を示す。そのため、操作者の操作感を高めることができ、利便性が高い。
上記一局面による遠隔操作方法において、前記操作領域を複数含む場合において、前記物体(ポインタ)の接触を検出している操作領域が切り替わったことを検出したとき、前記操作表示画像の変更、遠隔操作の開始又は終了をおこなうように構成されている。このように構成されていることで、操作領域を隣り合うように配置することができるため、操作者の無駄な動作を減らすことが可能であり、利便性が高い。
本発明によると、簡易な入力方法を有しているとともに、直感的で尚且つ精度の高い操作入力が可能な映像表示装置の遠隔操作方法及び遠隔操作システムを提供することができる。
本発明にかかる映像表示装置を遠隔操作する遠隔操作システムの概略図である。 図1に示す映像表示装置を遠隔操作する遠隔操作システムの一例を示すブロック図である。 本発明にかかる遠隔操作システムの動作を示すフローチャートである。 図3に示す動作の初期の各タイミングでの映像表示装置及び外部制御装置を示す図である。 図3に示す動作の初期の各タイミングでの映像表示装置及び外部制御装置を示す図である。 図3に示す動作の初期の各タイミングでの映像表示装置及び外部制御装置を示す図である。 図3に示す動作の初期の各タイミングでの映像表示装置及び外部制御装置を示す図である。 図3に示す動作の後半の各タイミングでの映像表示装置及び外部制御装置を示す図である。 図3に示す動作の後半の各タイミングでの映像表示装置及び外部制御装置を示す図である。 図3に示す動作の後半の各タイミングでの映像表示装置及び外部制御装置を示す図である。 図3に示す動作の後半の各タイミングでの映像表示装置及び外部制御装置を示す図である。 映像表示装置を遠隔操作する遠隔操作システムの一例を示すブロック図である。 映像表示装置を遠隔操作する遠隔操作システムの一例を示すブロック図である。 図7に示す遠隔操作システムの動作を示すフローチャートである。 操作領域の一例を示す図である。 操作領域の他の例を示す図である。 操作領域のさらに他の例を示す図である。 ポインタの操作入力を検出するために操作領域を変更したときの図である。 外部操作装置を縦長と横長とに持ち替えたときの表示部と検出部との対応を示す図である。
以下に本発明の実施形態について図面を参照して説明する。
(第1実施形態)
図1は本発明にかかる映像表示装置を遠隔操作する遠隔操作システムの概略図である。図1に示すように、遠隔操作システムRsは、映像表示装置の一例であるテレビ受像機100と、外部制御装置の一例であるスマートフォン200とを含む構成となっている。なお、映像表示装置は、表示部を備えている機器であって外部制御装置と接続可能なものであればよく、例えば、パーソナルコンピュータ、プロジェクタ、オーディオ装置等であってもよい。また、外部制御装置は、映像表示装置100と接続可能な構成のものであればよく、例えば、映像表示装置100の専用又は汎用のリモートコントローラ、タブレット型PC等であってもよい。
図1に示しているように、テレビ受像機100とスマートフォン200とは、無線で接続されている。なお、テレビ受像機100とスマートフォン200との接続は、電波を用いる方法(例えば、無線Lan等)や赤外線のような光を用いる方法等を例示することができるが、これに限定されず、データ(信号)のやりとりができる方法を広く採用することができる。
テレビ受像機100は映像を表示する表示部である表示パネル101を有している。表示パネル101としては、液晶パネル、プラズマディスプレイパネル、有機ELパネル等、映像を表示することができるものを広く採用することができる。
また、スマートフォン200は面状の検出部であるタッチパネル201を備えている。タッチパネル201は、ポインタP(ここでは、操作者の指)の接触の検出、接触しているポインタの移動(動作)を検出する検出部である。なお、ポインタとしてユーザの指としているが、これに限定されるものではなく、ペン状の接触具(スタイラスペン)等を用いてもよい。また、タッチパネル201は、ポインタPの接触、ポインタPが接触している部分の移動(以下、ポインタPの移動又は操作と称する)を検出することができるセンサ、例えば、感圧式、静電容量式、光学式等を広く作用することができる。
遠隔操作システムRsでは、操作者がポインタPを利用して、スマートフォン200のタッチパネル201に入力を行うことで、テレビ受像機100の操作(遠隔操作)を行うことができるようになっている。このような遠隔操作システムRsの詳細について図面を参照して説明する。
図2は図1に示す映像表示装置を遠隔操作する遠隔操作システムの一例を示すブロック図である。図2に示す遠隔操作システムRsは、スマートフォン200からの操作の情報をテレビ受像機100に操作信号を送信する構成であり、表示パネル101で表示するメニュー画面がテレビ受像機100で生成される構成としている。
図2に示すように、テレビ受像機100は、表示パネル101、集積回路102、中央処理部(CPU)103、コマンドデコーダ部104、操作表示生成部105、信号合成部106、入力切替・映像処理部107、接続部108、メモリ109、チューナ110及び入力端子111を備えている。
表示パネル101は、ここでは液晶パネルとしており、表示パネル101の全面を表示領域として用いるものとする。集積回路102は、複数の回路を1つのチップにまとめて集積した回路である。なお、CPU103、コマンドデコーダ部104、操作表示生成部105、信号合成部106及び入力切替・映像処理部107は集積回路102の内部に含まれて形成されている。
また、接続部108は、外部機器、ここでは、外部制御装置であるスマートフォン200の後述する接続部204と信号のやりとりを行う接続装置である。接続部108と接続部204とは電波、赤外線等による無線接続としている。なお、本実施形態では、無線LANによる接続としているが、これに限定されない。さらには、無線に限定されるものではなく、接続配線を用いる、すなわち、有線による接続を行うようなものであってもよい。
接続部108は、集積回路102と接続されており、スマートフォン200からの信号を受信する。そして、受信した信号を集積回路102(コマンドデコーダ部104)に送信する。接続部108が受信する信号には、スマートフォン200のタッチパネル201におけるポインタの接触部分の位置情報、移動情報及びスマートフォン200からの制御指示(コマンド)の情報が含まれる。スマートフォン200は、テレビ受像機100の各部の動作を行うための制御情報を無線信号として送信している。
次に、集積回路102の詳細について説明する。CPU103は、演算処理(情報の処理)を行う回路である。図2に示すように、集積回路102に含まれる、コマンドデコーダ部104、操作表示生成部105、信号合成部106及び入力切替・映像処理部107を制御している。
コマンドデコーダ部104は、接続部108から受け取った信号からテレビ受信機100を構成する装置を動作させるための制御指示(コマンド)を取り出す(デコードする)。そして、コマンドデコーダ部104は、CPU103の指示に従って、デコードしたコマンドをそのコマンドで動作する装置(実際には、各装置を動作させる制御回路等)に送信する。また、コマンドデコーダ部104は、接続部108から受け取った信号からポインタの位置及び動作の情報を取り出し、これらの情報を操作表示生成部105に送信している。なお、遠隔操作開始時やメニュー切替等のとき、そのコマンドは操作表示生成部105に送られる。
操作表示生成部105は、受信したポインタの位置及び動作の情報、又は、コマンドに基づいて、操作表示画像を生成する。操作表示画像は、動作に対応した操作画像(詳細は後述)が含まれる画像である。操作表示画像は、表示パネル101で表示する画像であり、詳細は後述するが、テレビ受像機100の動作に関連付けられた操作画像が複数配置されたメニュー画像や所定の動作を行うときの操作状態を示す操作画像を含む画像等である。
また、操作表示生成部105は、ポインタの位置及び動作の情報、又は、コマンドによっては、操作表示画像を移動させるような動作を含む画像の生成を行う場合もある。操作表示生成部105は、生成した操作表示画像の信号を信号合成部106に送信する。
また、集積回路102は、入力切替・映像処理部107を備えており、チューナ110及び入力端子111が接続されている。チューナ110は不図示のアンテナと接続されており、地上波、BS、CS等の衛星放送波を受信する。そして、チューナ110で受信した信号は、入力切替・映像処理部107でデコード等の処理が施されることで映像信号として信号合成部106に送られる。一方、入力端子111には、例えば、DVDやBD等の外部映像機器と接続されており、これらの外部映像機器からの映像信号が入力端子111を介して入力切替・映像処理部107に送られる。
また、入力切替・映像処理部107は、チューナ110又は入力端子111のどちらから信号が送られてきても信号処理ができるように、入力切替機構が備わっている。つまり、チューナ110から信号の入力があるときは、チューナからの信号を処理し、入力端子111から信号の入力があるときは、入力端子111からの信号を処理する。
信号合成部106は、操作表示生成部105から送られてくる操作表示画像と、入力切替・映像処理部107から送られてくる映像信号とを必要に応じて合成し、合成信号を表示パネル101(の制御部)に送信する。合成方法としては、例えば、入力切替・映像処理部107からの映像信号の上に、透過する操作表示画像を合成するものを挙げることができる。
なお、信号合成部106は、操作表示生成部105からの操作表示画像がない場合は入力切替・映像処理部107からの映像信号を表示パネル101に送信し、表示パネル101でチューナ110又は入力端子111からの映像を表示する。逆に、入力切替・映像処理部107からの映像信号がない場合は、操作表示生成部105からの操作表示画像の画像信号を表示パネル101に送り、表示パネル101で操作表示画像を表示する。
また、テレビ受像機100はメモリ109を備えている。メモリ109は、情報を記録するための記録部であり、揮発性、不揮発性或いはこれらを組み合わせたものを含んでいる。メモリ109に記録されている情報としては、例えば、チューナ110の選局情報、操作表示生成部105で操作表示画像を生成するときに用いる画像(例えば、数字、文字、図案等)の情報、チューナより受信した番組情報等を挙げることができる。そして、メモリ109は、CPU103との間で情報をやり取りできる構成となっている。
また、コマンドデコーダ部104、操作表示生成部105、信号合成部106及び入力切替・映像処理部107はそれぞれ独立した回路として集積回路102内に備えられているものとしているが、これに限定されるものではない。例えば、これらのうち一部又は全部がCPU103又は別途備えた処理部で動作するプログラムとして提供されていてもよい。このように、プログラムとして提供される構成の場合、各プログラムは、メモリ109に収納されていてもよいし、集積回路102に別途プログラム用のメモリを備えておき、そのメモリに収納されていてもよい。
次に外部制御装置の一例であるスマートフォンについて説明する。図2に示すように、スマートフォン200は、タッチパネル201と、中央処理部(CPU)202と、メモリ203と、接続部204とを備えている。通常、スマートフォン200のタッチパネル201は映像表示部(不図示)と一体(詳説すると、映像表示部の上面にタッチセンサが配置された構成)であり、映像を表示し、その映像をポインタで接触することで所望の動作を行う。なお、本発明の遠隔操作には、映像表示部の映像は必要なものではなく、以下の説明では、特に示さない限り、映像表示部の映像については、表示しない或いは常に同じ映像を表示するものとして説明する。
スマートフォン200においてタッチパネル201は、全面がポインタ(ここでは、っ操作者の指)を検出する検出領域として利用される。タッチパネル201は、ポインタの接触を検出する検出部であり、ポインタが接触した座標(位置)を検出し、その情報を、接触した時間とともにCPU202に送る。
CPU202は、位置の情報と時間の情報に基づいて、ポインタが移動しているか、移動しているとしたらどちらに移動しているか判断する。そして、ポインタの位置及び移動に基づいて、テレビ受像機100を制御する制御情報を生成する。なお、制御情報の詳細については後述する。
また、CPU202は、テレビ受像機100の表示パネル101の表示領域とタッチパネル201のポインタの接触動作を検出できる検出領域とを対応させている。さらに、CPU202は、タッチパネル201の検出領域内に操作領域を形成する機能も備えている。そして、CPU202は、現在表示パネル101に表示されている操作表示画像を認識しており、その操作表示画像に含まれる動作が関連した操作画像と対応するように、操作領域を形成する。なお、操作領域の詳細については、後述する。
そして、CPU202は、タッチパネル201からのポインタの位置情報に基づいて、ポインタが操作領域内にあるか、また、操作領域の境界を越えたかどうかを判断する。そして、CPU202は、ポインタの位置及び移動の情報(接触動作情報)に基づき、操作者が所望するテレビ受像機100の動作を認識し、その動作を行うための制御情報を生成する。そして、ポインタの接触動作情報と制御情報とを信号として接続部204に送る。
そしてCPU202は、ポインタの接触動作情報及び制御情報を含む信号を接続部204に送る。接続部204はCPU202からの信号を無線信号(電波、赤外線等)に変換し、テレビ受像機100の接続部108に送信する。
CPU202は、メモリ203と接続している。メモリ203は、テレビ受像機100のメモリ109と同様、情報を記録するための記録部であり、揮発性、不揮発性或いはこれらを組み合わせたものを含んでいる。メモリ203に記録された情報には、操作領域の情報(表示領域を操作領域に分割する境界の情報等)が含まれている。
以上示したような、遠隔操作システムRsを用いた遠隔操作について新たな図面を参照して説明する。図3は本発明にかかる遠隔操作システムの動作を示すフローチャートである。また、図4A〜図4Dは図3に示す動作の前半の各タイミングでのテレビ受像機及びスマートフォンを示す図であり、図5A〜図5Dは図3に示す動作の後半の各タイミングでのテレビ受像域及びスマートフォンを示す図である。
図3は映像表示装置であるテレビ受像機100と、外部制御装置であるスマートフォン200の動作手順を並列で記載しており、それぞれの間で信号の送受信が行われていることを記載している。図3に示すフローチャートは、テレビ受像機100から出力される音声の低音を調整する動作を示している。このとき、テレビ受像機100の表示パネル101では、まず、全体の動作を示すメニューMn1(図4B参照)を表示し、その後、音質の詳細なメニュー画像Mn2(図5A参照)を表示する。その後、低音の調整を行う調整用画像Sc1(図5D参照)を表示する手順を示している。また、それぞれのタイミングでスマートフォン200が操作者によって操作されるとともに、スマートフォン200から無線信号が送信されている。
図4Aに示すように、テレビ受像機100とスマートフォン200とはそれぞれ独立して利用される。遠隔操作システムRsは、まずスマートフォン200からの指示により動作開始する。図3に示すように、操作者がスマートフォン200を操作し、テレビ受像機100の遠隔操作を開始する動作(たとえば、遠隔操作用のアプリケーションの起動)が行われる(図3、ステップS201)。CPU202は、接続部204から表示パネル101に操作表示画像(ここでは、メニュー画像Mn1)を起動するメニュー起動情報を送信する(ステップS202)。
メニュー起動情報を受信した接続部108は、その信号をコマンドデコーダ部104に送る。メニュー起動情報のコマンドは、操作表示生成部105に送られる。操作表示生成部105はメニュー起動情報に含まれるメニューの情報に基づいてメニュー画像Mn1を生成する(ステップS101)。そして、操作表示生成部105は、メニュー画像Mn1を画像信号として信号合成部106に送る。信号合成部106は、メニュー画像Mn1の画像信号を送信し、表示パネル101ではメニュー画像Mn1が表示される(ステップS102)。
ここで、メニュー画像Mn1について説明する。図4Bに示すように、メニュー画像Mn1は、横長の長方形状の表示領域Apの四辺それぞれに1個ずつ計4個の操作画像Hp1、Hp2、Hp3、Hp4が配置されている。操作画像Hp1、Hp2、Hp3、Hp4はそれぞれ、異なる動作が割り当てられている。メニュー画像Mn1では、操作画像Hp1、Hp2、Hp3、Hp4は同じ大きさの正三角形(同じ形状)であるが、これに限定されず、異なる形状、大きさであってもよい。また、操作画像は互いに異なる形状、大きさであってもよい。
メニュー画像Mn1の具体的な例は次のとおりである。操作画像Hp1は上側の長辺の中央に配置された三角形状の画像であり、「画質」の詳細なメニュー画像を開く(メニューの階層を移動する)動作が割り当てられている。操作画像Hp2は下側の長辺の中央に配置された三角形状の画像であり、「チャンネル設定」の詳細なメニュー画像を開く動作が割り当てられている。操作画像Hp3は右側の短辺の中央に配置された三角形状の画像であり、「音質」の詳細なメニュー画像を開く動作が割り当てられている。操作画像Hp4は左側の短辺の中央に配置された三角形状の画像であり、「インターネット(NET)」関連の詳細なメニュー画像を開く動作が割り当てられている。
図4Bに示すようにスマートフォン200では、メニュー画像Mn1の操作画像と対応するようにタッチパネル201の検出領域Saを操作領域Tp1、Tp2、Tp3、Tp4に分割する(ステップS203)。タッチパネル201の検出領域Saの四辺が表示パネル101の表示領域Apの四辺と対応している。また、図4Bに示す破線は、タッチパネル201の検出領域Saを操作領域Tp1、Tp2、Tp3、Tp4に分割する仮想線であり、実際に表示されていないが、表示されるようにしてもよい。
そして、操作領域Tp1は操作画像Hp1が配置されている部分と対応する部分、すなわち、上側の長辺の中央部分を含むように設定する。同様に、操作領域Tp2は操作画像Hp2が配置されている部分と対応する部分、操作領域Tp3は操作画像Hp3が配置されている部分と対応する部分、操作領域Tp4は操作画像Hp4が配置されている部分と対応する部分それぞれを含むように設定されている。
操作者は、テレビ受像機100の表示パネル101を見ながら、スマートフォン200の操作を行う。表示パネル101の表示領域Apとタッチパネル201の検出領域Saとが対応しているため、操作者はタッチパネル201を見ず、所望する動作に割り当てられた操作画像と対応する操作領域にポインタPを接触させることが容易になる。なお、本実施形態では、音質の調整を行う動作を表示するものである。そのため、操作者は、表示パネル101に表示されたメニュー画像Mn1を見ながら、スマートフォン200のタッチパネル201の操作画像Hp3と対応する操作領域Tp3にポインタPを接触させることが可能である。
操作領域Tp1、Tp2、Tp3、Tp4は、検出領域Saの中心を分割している。このように分割することで、操作画像と対応する部分の周囲にある程度の大きさを有する操作領域を形成することができ、操作者がスマートフォン200を見ずに、タッチパネル201の操作を行うときの誤操作を低減することができる。なお、分割の方法としては、これに限定されるものではない。
スマートフォン200において、タッチパネル201がポインタP(ここでは、操作者の指)の接触を検出するとその接触位置の情報をCPU202に送る。そして、CPU202は、ポインタPが接触している操作領域(図4Cでは、操作領域Tp3)の情報を接触情報として含む無線信号を接続部204から送信する(ステップS204)。
テレビ受像機100において、接続部108が接触情報を含む無線信号を受信すると、その信号をコマンドデコーダ部104に送信する。コマンドデコーダ部104は、接触情報に基づき操作画像の変更のコマンドを操作表示生成部105に送信する。操作表示生成部105は、コマンドに基づいて(ポインタPが操作領域Tp3と接触している情報に基づいて)、操作画像Hp3を変更する。
操作表示生成部105は図4Cに示すような、操作画像Hp31を2個の斜辺を伸ばし二等辺三角形としたメニュー画像Mn11を生成し、その画像信号として信号合成部106に送る。信号合成部106は、メニュー画像Mn11の画像信号を送信し、表示パネル101ではメニュー画像Mn11が表示される(ステップS103)。なお、操作表示生成部105は、メニュー画像Mn11を生成する構成、又は、メニュー画像Mn1とメニュー画像Mn11の差分、すなわち、操作画像Hp31のみを生成する構成であってもよい。このように差分のみを生成する構成の場合、信号合成部106で現在表示しているメニュー画像を変更できる構成であることは言うまでもない。また、このように操作画像を変形させるものでなく、操作画像の色を変更する、点滅させる、他の操作画像を消去する等、ポインタPが接触している操作領域、すなわち、操作者が現在の操作を直感的に理解できるような変更方法を広く採用することが可能である。
このように、ポインタPが接触した操作領域Tp3と対応する操作画像Hp3を備えたメニュー画像Mn1が、操作画像Hp31を備えたメニュー画像Mn11に入れ替わることで、操作者は操作画像Hp3が操作画像Hp31に変形したと認識する。これにより、操作者はスマートフォン200を視認することなく、「音質」を操作している(操作が間違っていない)ことを直感的に理解することができる。
そして、メニュー画像Mn11は、操作画像Hp31が示す方向に移動させることで、「音質」の詳細なメニュー画像を表示することを示している。そのため、操作者の次の動作として、ポインタPを左に移動させることが予測できる。そして、スマートフォン200のCPU202はポインタPが左側に移動することで次の動作に移ることを認識する。そして、ポインタPの移動に対応できるように操作領域の分割を図4Dに示すように変更する(ステップS205)。
ここで、変更した操作領域について説明する。スマートフォン200では、ポインタPが接触している操作領域(ここでは、Tp3)の境界を越える、つまり、他の操作領域に移動することで操作入力が行われたと判断するようになっている。ポインタPを左側に移動させることに対応するため、CPU202は、検出領域Saを図4Dに示すような形状に分割する。
すなわち、図4Dに示すように、CPU202は、上側及び下側の操作領域Tp11、Tp21を、楕円形を半分に切断した形状とし、検出領域Saの上下に配置している。そして、操作領域Tp31、Tp41は、検出領域Saの残りの領域を左右の中央で分割した形状となっている。
操作領域Tp11、Tp21を小さくし、操作領域Tp31と操作領域Tp41との境界線をポインタPの予想移動方向に対して交差するように設定している(図4D参照)。これにより、操作者によるポインタPの操作が正確に左右方向(水平方向)でない或いはスマートフォン200がずれていても、操作領域Tp31から操作領域Tp41に境界を越えた移動を正確に認識することが可能である。
なお、操作領域Tp11、Tp21として、楕円を切断した形状とすることで、各領域の上下方向の境界を、横長(ポインタPの移動方向に沿うように)にしている。これにより、ポインタPの横方向の移動で、ポインタPが操作領域Tp11、Tp21に進入するのを抑制しやすい。また、このような形状に限定されるものではなく、ポインタPが容易に境界を越えにくいように設定した操作領域Tp11、Tp21を備えていることが好ましい。
なお、ポインタPの動作と連動して、メニュー画像Mn11も表示領域Apに対して移動するように変化してもよい。このような動作として、例えば、図4Dに示すように、ポインタPの左方向への移動に従って、操作画像Hp1、Hp2、Hp31及びHp4が左に移動する。このとき、次に表示するメニュー画像Mn2の一部(ここでは、操作画像Hq4)が表示されている。
スマートフォン200において、ポインタPが操作領域Tp31から操作領域Tp41に移動すると、タッチパネル201はポインタPの動作を検出する。そして、CPU202は、ポインタPの接触動作情報及び「音質」の詳細なメニューを表示するとの操作情報を含む無線信号を接続部204から送信する(ステップS206)。
テレビ受像機100において、接続部108が接触動作情報を含む無線信号を受信すると、その信号をコマンドデコーダ部104に送信する。コマンドデコーダ部104は、接触動作情報に基づきメニュー画像変更のコマンドを操作表示生成部105に送信する。操作表示生成部105は、コマンドに基づいて(ポインタPが操作領域Tp31からTp41に移動した情報に基づいて)、「音質」の詳細なメニュー画像Mn2を操作表示画像として生成する(ステップS104)。そして、操作表示生成部105は、メニュー画像Mn2を画像信号として信号合成部106に送る。信号合成部106は、メニュー画像Mn2の画像信号を送信し、表示パネル101ではメニュー画像Mn2が表示される(ステップS105及び図5A参照)。
図5Aに示すメニュー画像Mn2について説明する。メニュー画像Mn2は「音質」の詳細な設定を指定するメニュー画像である。図5Aに示すように、メニュー画像Mn2は、メニュー画像Mn1と同様の構成を有している。すなわち、表示領域Apの四辺のそれぞれの中央に、操作画像Hq1、Hq2、Hq3、Hq4を備えている。なお、操作画像Hq1〜Hq4は、操作画像Hp1〜Hp4と同じ形状、すなわち、同じ大きさの正三角形である。
そして、メニュー画像Mn2において、上側の長辺の中央に配された操作画像Hq1は高音の調整用の画像表示の動作が割り当てられている。下側の長辺の中央に配された操作画像Hq2は低音の調整用の画像表示の動作が割り当てられている。右側の短辺の中央に配された操作画像Hq3は音量の左右バランスの調整用の画像表示の動作が割り当てられている。そして、メニュー画像Mn2において、左側の短辺の中央に配された操作画像Hq4は、前のメニュー画像Mn1表示に戻る動作が割り当てられている。
図5Aに示すようにスマートフォン200では、タッチパネル201の検出領域Saをメニュー画像Mn2の操作画像と対応するように操作領域Tq1、Tq2、Tq3、Tq4に分割する(ステップS207)。メニュー画像Mn2がメニュー画像Mn1と同様の操作画像の配列となっているため、操作領域Tq1、Tq2、Tq3、Tq4は操作領域Tp1、Tp2、Tp3、Tp4と同じ形状となっている。
本実施形態では、低音の調整を行うため、操作者は表示パネル101に表示されたメニュー画像Mn2を見ながら、低音の調整が割り当てられた操作画像Hq2と対応する操作領域Tq2にポインタPを接触させる。
スマートフォン200において、タッチパネル201がポインタPの接触を検出するとその接触位置の情報をCPU202に送る。そして、CPU202は、ポインタPが接触している操作領域(図5Aでは、操作領域Hq2)の情報を接触情報として含む無線信号を接続部204から送信する(ステップS208)。
テレビ受像機100において、接続部108が接触情報を含む無線信号を受信すると、その信号をコマンドデコーダ部104に送信する。コマンドデコーダ部104は、接触情報に基づき操作画像の変更のコマンドを操作表示生成部105に送信する。操作表示生成部105は、コマンドに基づいて(ポインタPが操作領域Tq2と接触している情報に基づいて)、操作画像Hq2を変更する。
図5Bに示すように、操作画像Hq21を、2個の斜辺を伸ばした二等辺三角形としたメニュー画像Mn21を生成し、その画像信号として信号合成部106に送る。信号合成部106は、メニュー画像Mn21の画像信号を送信し、表示パネル101ではメニュー画像Mn21が表示される(ステップS106)。なお、操作表示生成部105の動作は、上述のメニュー画像Mn11を生成する時と同じであり、詳細は省略する。
そして、スマートフォン200のCPU202はポインタPが上側に移動することで次の動作に移ることを認識する。そして、ポインタPの移動に対応できるように操作領域の分割を図5Bに示すように変更する(ステップS209)。操作領域の変更は、上述と同様の方法で行われる。ポインタPを上側に移動させるものであるため、左右の操作領域Tq3、Tq4を、楕円形を半分に切断した形状である、Tq31、Tq41とし、検出領域Saの左右に設けている。また、そして、操作領域Tq11、Tq21は、検出領域Saの残りの領域を上下の中央で分割した形状となっている。
なお、ポインタPの動作と連動して、メニュー画像Mn21も表示領域Apに対して移動するように変化してもよい。このような動作として、例えば、ポインタPの上方向への移動に従って、図5Cに示すように、操作画像Hq1、Hq21、Hq3及びHq4が上に移動する。
スマートフォン200において、ポインタPが操作領域Tq21から操作領域Tq11に移動すると、タッチパネル201はポインタPの動作を検出する。そして、CPU202は、ポインタPの接触動作情報及び低音の調整用画像を表示するとの操作情報を含む無線信号を接続部204から送信する(ステップS210)。
テレビ受像機100において、接続部108が接触動作情報を含む無線信号を受信すると、その信号をコマンドデコーダ部104に送信する。コマンドデコーダ部104は、接触動作情報に基づき調整用画像に変更するコマンドを操作表示生成部105に送信する。操作表示生成部105は、コマンドに基づいて調整用画像Sc1を操作表示画像として生成する(ステップS107)。そして、操作表示生成部105は、調整用画像Sc1を画像信号として信号合成部106に送る。信号合成部106は、調整用画像Sc1の画像信号を送信し、表示パネル101では調整用画像Sc1が表示される(ステップS108及び図5D参照)。
ここで、調整用画像Sc1について説明する。遠隔操作システムでは、操作者の直感的な操作を容易にするため、音質の調整(低音の出力調整)を行う場合、ボリュームコントローラの動作を模している。そのため、調整用画像Sc1では、ボリュームコントローラVmと、出力している低音のレベルを示すバーBrとを備えている。ボリュームコントローラVmには、回転方向を示す矢印と矢印の方向に回したとき、調整値が大きくなるか小さくなるかの表示がされている。なお、ボリュームコントローラVmは必要に応じて表示するようにしてもよい。また、バーBrは低音のレベルを視覚化したものであり、所定の低音レベルを基準としてそのレベルに対する比率を表示するようにしてもよいし、実際の低音の値を表示するようにしてもよい。
図5Dに示すようにポインタPの回転を検出するため、CPU202は、タッチパネル201の検出領域Saを、中心をとおり周方向に8分割する操作領域Tr1〜Tr8を形成する(ステップS211)。なお、調整用の操作領域である操作領域Tr1〜Tr8は、検出領域Saの2本の対角線、一対の長辺の中心を結ぶ線及び一対の短辺の中心を結ぶ線を境界としている。なお、操作領域の分割はこれに限定されるものではなく、各領域が等中心角度を有するように分割してもよい。
そして、操作者がポインタPを回転移動させると、ポインタPはすぐに操作領域の境界を越える。ポインタPが現在接触している操作領域の隣の操作領域に移動したことをタッチパネル201が検出したとき、CPU202は、その情報に基づいて、ポインタPの回転方向を取得する。そして、CPU202は、ポインタPの回転方向を含む接触動作情報と低音の調整量(操作情報)とを、接続部204を介して無線信号として送信する(ステップS212)。
テレビ受像機100において、接続部108が動作情報及び調整量の情報を含む無線信号を受信すると、その信号をコマンドデコーダ部104に送信する。コマンドデコーダ部104は、操作量の情報に基づき調整用画像の変更のコマンドを操作表示生成部105に送信する。操作表示生成部105は、コマンドに基づいて、ボリュームコントローラVm及びバーBrを変更する(ステップS109)。
また、コマンドデコーダ部104は操作情報より実行指令(低音の調整量を指示する指令)を抽出し、CPU103の指示に従い、音声出力を制御する音声制御部(不図示)に低音の成分を調整する実行指令を送信する(ステップS110)。
なお、スマートフォン200は、上述の回転方向を含む接触動作情報、操作情報は、ポインタPが接触している操作領域が隣の領域に移動するごとに、その情報を接続部204から無線信号として送信する。そして、テレビ受像機100は、その情報を受信するごとに、調整用画像Sc1のボリュームコントローラVm及びバーBrの画像を変更し、表示パネル101に表示する。また、同時に各部の調整(ここでは、音声出力の低音の調整)、すなわち調整量の適用を行う。
このように、操作者の動作に対して、瞬時に(リアルタイムに)調整用画像Sc1の変更及び調整量の適用を行うことで、操作者は操作しつつ、その時のテレビ受像機101の調整状態を確認することができるため、調整を直感的かつ正確に行うことができる。
そして、調整操作が終了すると、スマートフォン200では、調整操作(遠隔操作)の終了の動作の確認を行う。なお、ここでは、調整操作の終了操作として、タッチパネル201の検出領域SaをポインタPで予め決められた時間(例えば、3秒)押し続ける(長押しする)こととしている。CPU202はタッチパネル201から上述の終了操作の入力があったことを確認すると(ステップS213)、遠隔操作終了の情報を無線信号として接続部204から送信する。なお、スマートフォン200において、遠隔操作終了の入力を認識すると、CPU202は、遠隔操作を終了するため、遠隔操作用のアプリを終了する。
また、テレビ受像機100において、接続部108が遠隔操作終了の情報を含む無線信号を受信すると、その信号をコマンドデコーダ部104に送信する。コマンドデコーダ部104は、遠隔操作終了のコマンドを抽出し、信号合成部106にコマンドを送信し、遠隔操作を行うときの画像の表示パネル101への表示を終了する(ステップS111)。
以上のように、遠隔操作システムを用いることで、操作者は表示パネル101から目を離すことなく或いはあまり目を離さなくても、スマートフォン200のタッチパネル2001を操作し、テレビ受像機100の遠隔操作を適切に行うことが可能である。また、表示パネル101の操作表示画像(表示領域Ap)とスマートフォン200の検出領域Saとを対応させることで、操作者にとってより直感的、すなわち、操作しやすい遠隔操作方法を提供することが可能となっている。さらに、スマートフォン200のタッチパネル201に操作領域を設け、操作領域が切り替わる(境界を越える)ことで、操作を行う構成となっているので、操作者がポインタの操作を誤っても、すぐに実行指令が出ないため、操作のやり直しが可能である。これにより、操作者の操作の利便性を向上することが可能である。
なお、外部制御装置がスマートフォン200のような、CPU202、メモリ203等を備えた装置の場合、遠隔操作用のプログラム(アプリケーション)をロードすることで、遠隔操作用の外部制御装置として用いることが可能である。なお、このような外部制御装置として、プログラムを動作させることで所定の動作が可能であり、さらに、映像表示装置と有線又は無線で信号のやりとりが可能な機器を広く採用することができる。
また、外部制御装置としてスマートフォン200のような、映像表示部と一体のタッチパネル201を備える機器を用いる場合、操作者が手元(スマートフォン200)をあまり見ないので、映像の表示を省略することができる。これにより、映像表示部での電力消費を抑制することが可能である。また、消費電力の小さい画像と、操作領域の境界線を表示するようにしてもよい。これにより、スマートフォン200の消費電力を抑えつつ操作者の利便性を高めることが可能である。この画像及び境界線の表示は、常時であってもよいし、操作者の要求に応じて或いは所定の動作(例えば、ポインタの接触認識)から所定の時間行われるものであってもよい。
(第2実施形態)
本発明にかかる遠隔操作システムの他の例について図面を参照して説明する。図6は映像表示装置を遠隔操作する遠隔操作システムの一例を示すブロック図である。図6に示す遠隔操作システムの概略構成は、図2に示す遠隔操作システムRs同様であり、実質上同じ部分には同じ符号付してあるとともに、実質上同じ部分の詳細な説明は省略する。
図6に示す遠隔操作システムRs1は、テレビ受像機100bとスマートフォン200bとを備えている。図6に示すようにテレビ受像機100bは、コマンドデコーダ部104の替わりにコマンド生成部112を備えているが、それ以外は、テレビ受像機100と同じ構成を有している。
第1実施形態の遠隔操作システムRsにおいて、スマートフォン200は、テレビ受像機100を操作する(遠隔操作する)ための情報(上述においては、操作情報)と、ポインタPのタッチパネル201上での接触動作情報を送っている。一方、本実施形態の遠隔操作システムRs1において、スマートフォン200bは、ポインタPの接触動作情報(接触している操作領域の情報、移動の情報)のみをテレビ受像機100bに送るようになっている。すなわち、スマートフォン200bは、スマートフォン200と同じ構成を通しているが、送信する情報が少なくなっている。
テレビ受像機100bのCPU103は、操作表示生成部105が生成した操作表示画像に含まれる操作画像と、その操作画像に割り当てられているテレビ受像機100bの動作の情報を常に取得している。そして、スマートフォン200bからのポインタPの接触動作情報を取得すると、CPU103は、接触動作情報と操作画像に割り当てられているテレビ受像機100bの動作の情報とから、コマンド生成部112に実行指令(信号)の生成を指示する。
例えば、ポインタPが接触している操作領域と対応する操作画像が、次の操作表示画像に変更する(次の階層のメニュー画像に移動する)の場合、コマンド生成部112は、対応する操作表示画像を生成するコマンドを操作表示生成部105に送る。また、ポインタPが接触している操作領域と対応する操作画像にテレビ受像機100の調整/変更(例えば、映像調整、チャンネル変更等)が割り当てられている場合、コマンド生成部112は対応する部分を動作するコマンドを生成し、その部分に送信する。
以上のように、遠隔操作システムRs1では、スマートフォン200bから送信される信号がポインタPの接触動作の情報のみを有するので、情報量が少なくてすむ。そのため、接続部同士を接続する回線(無線、有線にかかわらず)が細くても、操作者はストレスを感じることなく、直感的にテレビ受像機100bの操作を行うことが可能である。また、スマートフォン200bから送信する情報が、ポインタPの位置情報だけであるため、複雑な情報の送受信が不要であり、異なる仕様の外部制御装置(ここではスマートフォン200b)であっても、同じ操作が可能となる。さらには、送信する情報が簡単であるため、アプリケーションを作成するときの手間を省くことが可能である。なお、これ以外の特徴は第1実施形態と同じである。
(第3実施形態)
本発明にかかる遠隔操作システムの他の例について図面を参照して説明する。図7は映像表示装置を遠隔操作する遠隔操作システムの一例を示すブロック図である。図7に示す遠隔操作システムRs2の概略構成は、図1に示す遠隔操作システムRs同様である。
遠隔操作システムRs2は、映像表示装置であるテレビ受像機100cと、外部制御装置であるスマートフォン200cとを含んでいる。テレビ受像機100cとスマートフォン200cとの間の接続は、操作情報と操作表示映像の情報とを、送信する接続方法である。すなわち、スマートフォン200cから、操作情報と操作表示情報とをテレビ受像部100cに送信する。なお、この接続方法としては、例えば、Miracast(登録商標)のような映像情報の信号のやりとりを行う無線接続方法を利用している。
図7に示すように、遠隔操作システムRs2において、テレビ受像機100cは、集積回路102の内部にコマンド/映像デコーダ部113を備えているとともに、操作表示生成部105が省かれている。これにより、コマンド/映像デコーダ部113が信号合成部106に接続されている。これら以外は、テレビ受像機100と同じ構成を有しており、実質上同じ部分には、同じ符号を付してある。
また、図7に示すように、遠隔操作システムRs2において、スマートフォン200cは、操作表示生成部205を備えている。操作表示生成部205は、CPU202からの指示に従い、テレビ受像機100の表示パネル101に表示する操作表示画像を生成する。操作表示生成部205は、CPU202、メモリ203及び接続部204と接続されている。これら以外は、スマートフォン200と同じ構成を有しており、実質上同じ部分には、同じ符号を付してある。なお、操作表示生成部205は、専用の回路として提供されるものであってもよいし、プログラムとして供給され、CPU202又はプログラム処理用に設けられている処理部で動作するものであってもよい。
このような、遠隔操作システムRs2の動作について図面を参照して説明する。図8は図7に示す遠隔操作システムの動作を示すフローチャートである。図8は図3同様、映像表示装置であるテレビ受像機100cと、外部制御装置であるスマートフォン200cの動作手順を並列で記載しており、それぞれの間で信号の送受信が行われていることを記載している。なお、図8に示すフローチャートは、図3に示すフローチャートと同じ、音質の低音の調整を行う動作の手順を示している。
図8に示すフローチャートにおいて、遠隔操作システムRs2では、テレビ受像機100cは、スマートフォン200cから送信された操作表示画像の画像情報を表示パネル101に表示するものである。図8におけるメニュー画像表示(ステップS102、S105)、操作画像変更(ステップS103、S106)、調整用画像表示(ステップS108)、調整用画像変更S109、調整値適用S110及び遠隔操作表示終了S111は図3と同じである。
スマートフォン200cにおいて、遠隔操作アプリケーションが起動される(ステップS201)と、CPU202は、操作表示生成部205でメニュー画像Mn1(図4C)を生成する。そして、CPU202は映像情報を無線信号として接続部204を介して送信する(ステップS2011)。このとき、CPU202は、メニュー画像Mn1を表示パネル101で表示させる操作情報も同時に送信する。
テレビ受像部100cは、接続部108で無線信号を受信すると、受信した信号をコマンド/映像デコーダ部113に送る。コマンド/映像デコーダ部113は、受信した信号から、メニュー画像Mn1の画像情報と、その画像を表示パネル101で表示するとの実行指令(コマンド)を取り出す(デコードする)。メニュー画像Mn1の画像情報を含む信号を信号合成部106に送る。また、実行指令を信号合成部106に送り、メニュー画像Mn1を表示パネル101で表示させる(ステップS102)。
また、スマートフォン200cでは、操作領域の決定の工程(ステップS203)は、図3のフローチャートと同じである。スマートフォン200cでは、タッチパネル201でポインタPの接触動作を検出すると、そのポインタPの接触動作に関連付けられた操作画像Hp31(図4D)を操作表示生成部205で生成する(ステップS2031)。遠隔操作システムRsでは、テレビ受像機100で行っていたが操作表示画像の生成を、遠隔操作システムRs2では、スマートフォン200cで行う。そして、CPU202は、接続部204で生成した操作画像Hp31を送信する(ステップS2032)。
遠隔操作システムRs2は、この画像の生成及び送信をスマートフォン200cで行う点が、遠隔操作システムRsと異なる点である。なお、スマートフォン200cでは、この後もタッチパネル201ポインタPの接触/動作を検出するごとに、操作画像、メニュー画像又は調整用画像を操作表示生成部205で生成(ステップS2051、S2071、S2091)する。そして、生成した画像を無線信号として接続部204から送信する(ステップS2052、S2072、S2092)。
以上のように、外部制御装置で操作表示画像を生成し、映像表示装置の表示部で表示する映像を生成することで、操作表示生成部を備えていない映像表示装置でも、遠隔操作を行うことが可能である。これにより、遠隔操作が可能な外部制御装置と映像表示装置との組み合わせを多くすることが可能であり、遠隔操作方法、遠隔操作プログラム(アプリ)の汎用性を高めることが可能である。なお、これ以外の特徴については、第1実施形態及び第2実施形態と同じである。
(その他の実施形態)
上述の実施形態において、外部制御装置の検出部(スマートフォンのタッチパネル)の検出領域に操作領域を形成するとき、タッチパネルの中央を透中心角度となり、尚且つ、操作表示画像の操作画像と対応する位置がそれぞれ含まれるように形成していた。操作領域の分割はこれに限定されるものではない。
以下に、操作領域のパターンについて図面を参照して説明する。図9は操作領域の一例を示す図であり、図10は操作領域の他の例を示す図である。なお、図9及び図10は、図2に示すスマートフォン200を正面から見た状態を示している。図9及び図10は、図4Bに示す、動作が割り当てられた操作画像が四辺の中央に配置されているメニュー画像Mn1が表示パネル101に表示されている状態の操作領域を示している。また、上述のように、スマートフォン200の映像表示部に境界線を実際に表示されるものではなく、図9及び図10に示す境界線は、仮想の境界線である。
図9に示すように、スマートフォン200のタッチパネル201の検出領域Saを4個の境界線Bnで4つの操作領域Tp1、Tp2、Tp3、Tp4に分割している。検出領域Saの中心回りに等中心角度(ここでは、4分割なので90°)に分割し、メニュー画像Mn1の操作画像Hp1〜Hp4と対応する部分が含まれるように操作領域Tp1〜Tp4を設定している。
また、図10に示すスマートフォン200のように操作領域Sp1〜Sp4に分割してもよい。操作領域Sp1〜Sp4は操作領域の面積が等しくなるように分割している。なお、図10に示すスマートフォン200では、4分割であるため検出領域Saの対角線を分割線Bnとしている。上述のように、分割線Bnが検出領域Saの中央を通過するように設定することで、容易に操作領域を設定することができる。
検出領域Saの中心を通る境界線Bnで操作領域を分割する場合、操作画像の数が奇数であったり、検出領域Saの辺の数の倍数でなかったりすることもあるため、中心角度を等しくするように分割した方が、操作者が直感的にわかりやすい形状になりやすい。
操作領域の分割パターンのさらに他の例について図面を参照して説明する。図11は操作領域のさらに他の例を示す図である。図11は、テレビ受像機100とスマートフォン200とを示しており、テレビ受像機100の表示パネル101には、メニュー画像Mn3を表示している。
図11に示すように表示パネル101に示すメニュー画像Mn3は、表示領域Apの四辺の中央及び四隅に操作画像Hp1〜Hp8を備えている。このような構成で、検出領域Saの中央を通る境界線で分割すると、操作領域が尖った三角形状となり、隣り合う境界線の隙間が狭くなる。このことは、ポインタPを接触させる操作領域が実質的に狭くなり、操作者がポインタPを正確な操作領域に接触させるのが難しい場合がある。
そこで、図11のスマートフォン200のように、検出領域Saの各操作画像Hp1〜Hp8と対応する部分を含むようにタイル状に配列した操作領域Ip1〜Ip8を形成してもよい。このように配列することで、各操作領域Ip1〜Ip8の隣り合う境界線の隙間をある程度の幅に確保することができる。これにより、操作者はスマートフォン200を見なくても、操作画像と対応した操作領域に正確にポインタPを接触させる、そして、ポインタPの動作を正確に行うことが可能である。なお、図11はタイル状に操作領域を配列したものの一例であり、これに限定されるものではなく、操作領域も四角形に限定されるものではない。
次に、タッチパネル201がポインタPの接触を検知したときの操作領域の変更について説明する。上述の実施形態では、ポインタPの次の動作に特に関係のない操作領域は、半分に切断した楕円形にする例を示している(例えば、図4D、図5C参照)。ここで、スマートフォン200のCPU202による、ポインタPの動作の検出について説明する。CPU202はポインタPが現在接触している操作領域から別の操作領域に移動したとき、操作入力がなされたと認識している。そのため、上述の実施形態のように操作領域の変更は必須ではない。つまり、操作領域の形状を変更しないままでも、ポインタPを操作することで、ポインタPはいつか別の操作領域に移動する。しかしながら、操作領域を変更しない場合、ポインタPが操作領域を越えるときのポインタPの位置が一定せず、操作者が操作するごとに操作入力の認識が変化し、操作者が違和感を覚えやすい。そのため、操作領域を変更し、ポインタPと検出領域Sa(スマートフォン200)との相対的な位置関係がおよそ一致するあたりで、操作入力を検出することが好ましい。
そこで、図12示すような操作領域としてもよい。図12はポインタの操作入力を検出するために操作領域を変更したときの図である。図12では、ポインタPの接触時の操作領域として図9に示す操作領域Tp1〜Tp4を備えたスマートフォン200と、ポインタPの接触によって操作領域Rp1、Rp2に変化したスマートフォン200とを示している。
操作者はスマートフォン200のタッチパネル201にポインタPを接触させると、その後、ポインタPを移動させる。図12に示すように、操作領域Tp3に接触させた場合、操作者は表示パネル101の操作画像の変化でどの操作を行うか認識している。そして、次の動作は限定されている、ここでは、左に移動させることに限定されている。そのため、CPU202は検出領域SaをポインタPの移動方向に2分割する操作領域Rp1とRp2とに分割する。これにより、図中上下方向の操作領域を省略しているので、ポインタPの検出領域Saでの移動方向が相対的に図中上又は下にずれたとしても、操作領域Rp1から操作領域Rp2に移動する位置は、およそ同じ位置になる。すなわち、操作者は、一定の操作感覚で、タッチパネル201の操作入力を行うことができ、遠隔操作を直感的でかつ正確に行うことが可能である。
また、ポインタPが操作領域のいずれかに接触したことで、操作領域と対応する操作画像に割り振られている動作を認識し、その後、ポインタPの移動を検出することで、操作入力の検出とするようにしてもよい。この場合、ポインタPの移動の検出はポインタPの相対的な移動量によって行ってもよいし、ポインタPの移動速度によって行ってもよい。このような構成とすることで、ポインタPが移動するときに操作領域に変更しなくてもよい。このとき、CPU202は操作領域を無くしてしまってもよいし、操作領域を分割したままでポインタPの移動だけ検出するようにしてもよい。
さらに遠隔操作システムの操作についてさらに詳しく説明する。図1等に示すようにスマートフォン200等の外部操作装置のタッチパネル201は、長方形状を有していることが多い。そして、スマートフォン200は縦長としても、横長としても利用することが可能となっている。そこで、スマートフォンを持ち替えたときの表示領域と検出領域との関係について図名を参照して説明する。
図13はスマートフォンを縦長と横長とに持ち替えたときの表示部と検出部との対応を示す図である。図13ではテレビ受像機100の表示パネル101と、横長のときのスマートフォン200と縦長のときのスマートフォン200とを示している。なお、表示パネル101の表示領域Ap角部には、図中左上から時計回りにR1〜R4の符号を付し、タッチパネル201にはR1〜R4に対応する角部にr1〜r4の符号を付す。
遠隔操作システムでは、直感的な操作を行うため、テレビ受像機100の表示パネル101とスマートフォン200のタッチパネル201との形状を合わせて用いる場合が多い。すなわち、スマートフォン200を横長に配置し、タッチパネル201の検出領域Saの左上の角部を表示パネル101の角部R1と対応する角部r1とし、時計回りにr2、r3、r4としている。
一方で、スマートフォン200を縦長に用いる場合もある。この場合、操作者は、形状が正確に一致しないが、上下左右の方向が一致するように設定することが好ましい。すなわち、スマートフォン200を縦長に配置した状態で、タッチパネル201の検出領域Saの左上の角部を表示パネル101の表示領域Apの角部R1と対応する角部r1とし、時計回りにr2、r3、r4とする。このように設定することで、ポインタPの動作の長さは、表示パネル101と異なるが、ポインタPの操作の方向が同時であり直感的な操作がやりやすい。
一方で、操作者が横になっていたり、表示パネル101に対して傾いた位置にいたりして、表示パネル101を一定の角度をつけて視聴している場合もあり得る。この場合、スマートフォン200を操作者から見て横向きで保持していたとしても、表示パネル101表示領域Apの形状と、タッチパネル201の検出領域Saの形状が一致するように関連付けることが好ましい。この場合、例えば、スマートフォン200を縦長に配置した状態で、検出領域Saの右上の角部を表示パネル101の表示領域Apの角部R1と対応する角部r1とし、時計回りにr2、r3、r4とする。
以上のように、スマートフォン200の配置状態に合わせて、表示パネル101の表示領域Apとタッチパネル201の検出領域Saを適切に関連付けることで、操作者による操作入力を補助し、操作者による直感的で、且つ、正確な操作が可能となる。
本発明の遠隔制御方法は、上述のように映像表示装置と外部制御装置とに組み込まれていてもよいし、映像表示装置及び(又は)外部制御装置に組み込まれるプログラムとして供給されてもよい。
以上、本発明の実施形態について説明したが、本発明はこの内容に限定されるものではない。また本発明の実施形態は、発明の趣旨を逸脱しない限り、種々の改変を加えることが可能である。
100 テレビ受像機(映像表示装置)
101 表示パネル
102 集積回路
103 CPU
104 コマンドデコーダ
105 操作表示生成部
106 信号合成部
107 入力切替・映像処理部
108 接続部
109 メモリ
110 チューナ
111 入力端子
200 スマートフォン(外部制御装置)
201 タッチパネル
202 CPU
203 メモリ
204 接続部

Claims (7)

  1. 映像を表示する表示部を備えた映像表示装置を物体の接触を検出する面状の検出部を備えた外部制御装置で遠隔操作する遠隔操作方法であって、
    前記映像表示装置と前記外部制御装置とを接続するとともに、前記表示部の表示領域と前記検出部の検出領域とが関連付けられており、
    前記映像表示装置の動作と関連付けられた操作画像が前記表示部に表示され、
    前記検出部が物体の接触を検出したとき、前記ポインタの接触を検出した領域と対応する表示領域に表示されている操作画像に関連付けられた操作が実行されることを特徴とする遠隔操作方法。
  2. 前記検出領域には前記操作画像と対応する操作領域が含まれており、前記検出部は接触している物体が前記操作領域の境界を越えたとき、前記ポインタの操作に合わせて、前記操作画像に関連付けられた動作を実行する請求項1に記載の遠隔操作方法。
  3. 前記接触している物体の接触動作を検出した操作領域と対応する操作画像に関連付けられた動作とに基づき、前記接触している物体の動きを予測し、予測結果に基づいて前記操作領域の形状を変更する請求項2に記載の遠隔操作方法。
  4. 前記物体の接触が検出されたとき、前記表示部の操作画像を変化させる請求項1から請求項3のいずれかに記載の遠隔操作方法。
  5. 前記表示部には複数個の前記操作画像が表示されており、
    前記検出領域を前記操作画像と一対一で対応する複数個の操作領域に分割する請求項1から請求項4のいずれかに記載の遠隔操作方法。
  6. 前記操作領域を複数含む場合において、前記物体の接触を検出している操作領域が切り替わったことを検出したとき、
    前記操作表示画像の変更、遠隔操作の開始又は終了をおこなう請求項1から請求項4のいずれかに記載の遠隔操作方法。
  7. 請求項1から請求項6のいずれかに記載の遠隔操作方法を用い、
    映像を表示する表示部を含む映像表示装置と、
    部材の接触動作を検出する面状の検出部を含む外部制御装置とを有する遠隔操作システム。
JP2013102261A 2013-05-14 2013-05-14 映像表示装置の遠隔操作方法及び遠隔操作システム Pending JP2014222840A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013102261A JP2014222840A (ja) 2013-05-14 2013-05-14 映像表示装置の遠隔操作方法及び遠隔操作システム
US14/258,159 US20140344767A1 (en) 2013-05-14 2014-04-22 Remote control method and remote control system of image display apparatus
EP14167056.2A EP2804084A1 (en) 2013-05-14 2014-05-05 Remote control method and remote control system of image display apparatus
CN201410203137.7A CN104159052A (zh) 2013-05-14 2014-05-14 图像显示装置的远程控制方法和远程控制系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013102261A JP2014222840A (ja) 2013-05-14 2013-05-14 映像表示装置の遠隔操作方法及び遠隔操作システム

Publications (1)

Publication Number Publication Date
JP2014222840A true JP2014222840A (ja) 2014-11-27

Family

ID=50721567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013102261A Pending JP2014222840A (ja) 2013-05-14 2013-05-14 映像表示装置の遠隔操作方法及び遠隔操作システム

Country Status (4)

Country Link
US (1) US20140344767A1 (ja)
EP (1) EP2804084A1 (ja)
JP (1) JP2014222840A (ja)
CN (1) CN104159052A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2532038B (en) * 2014-11-06 2018-08-29 Displaylink Uk Ltd System for controlling a display device
CN104661067A (zh) * 2015-02-28 2015-05-27 京东方科技集团股份有限公司 遥控器及健康检测系统
KR20170029180A (ko) * 2015-09-07 2017-03-15 현대자동차주식회사 차량, 및 그 제어방법
CN106648517A (zh) * 2016-12-31 2017-05-10 南京仁光电子科技有限公司 识别电子设备的智能交互系统及其识别电子设备的方法
CN108446074A (zh) * 2018-03-20 2018-08-24 北京硬壳科技有限公司 触控位置提示方法及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8054294B2 (en) * 2006-03-31 2011-11-08 Sony Corporation Touch screen remote control system for use in controlling one or more devices
US20090109183A1 (en) * 2007-10-30 2009-04-30 Bose Corporation Remote Control of a Display
JP2011044103A (ja) 2009-08-24 2011-03-03 Sony Corp 遠隔制御装置、遠隔制御システム、遠隔制御方法およびプログラム
KR101670352B1 (ko) * 2009-12-03 2016-10-28 엘지전자 주식회사 이동 단말기, 전자 기기 및 전자 기기의 제어 방법
JP4857406B1 (ja) * 2010-06-25 2012-01-18 パナソニック株式会社 制御装置およびスクリプト変換方法
KR102033764B1 (ko) * 2010-10-06 2019-10-17 삼성전자주식회사 리모트 컨트롤러에서의 ui 표시 방법 및 이를 이용한 리모트 컨트롤러
JP5682394B2 (ja) 2011-03-24 2015-03-11 大日本印刷株式会社 タッチパネルを用いた操作入力検知装置
EP2823385B1 (en) * 2012-03-04 2020-03-18 Microsoft Technology Licensing, LLC Portable device and control method thereof
KR101379398B1 (ko) * 2013-01-29 2014-03-28 은명진 스마트 텔레비전용 원격 제어 방법

Also Published As

Publication number Publication date
CN104159052A (zh) 2014-11-19
US20140344767A1 (en) 2014-11-20
EP2804084A1 (en) 2014-11-19

Similar Documents

Publication Publication Date Title
CN109479162B (zh) 图像显示设备和显示图像的方法
JP6886939B2 (ja) 情報処理装置の制御方法、制御プログラム及び情報処理装置
JP5808712B2 (ja) 映像表示装置
EP3242472B1 (en) Image displaying apparatus and method of operating the same
JP5413688B2 (ja) 画像区画プログラム、及び、表示装置
JP7005161B2 (ja) 電子機器及びその制御方法
US20150339026A1 (en) User terminal device, method for controlling user terminal device, and multimedia system thereof
JP2008070968A (ja) 表示処理装置
JP2014222840A (ja) 映像表示装置の遠隔操作方法及び遠隔操作システム
CN105763914B (zh) 图像显示装置和方法
US20180122130A1 (en) Image display apparatus, mobile device, and methods of operating the same
US10095384B2 (en) Method of receiving user input by detecting movement of user and apparatus therefor
WO2013031134A1 (en) Information processing apparatus, information processing method, and program
KR20150031986A (ko) 디스플레이장치 및 그 제어방법
JP6004103B2 (ja) 情報処理装置およびプログラム
EP2998838B1 (en) Display apparatus and method for controlling the same
TWI442305B (zh) 多點控制的操作方法及其控制系統
WO2013124912A1 (ja) 表示装置および表示方法
JP2015038666A (ja) 電子機器、切り替え方法、及び切り替えプログラム
KR20080094200A (ko) 포인터가 위치한 영역에 메뉴 아이템을 나타내는 gui제공방법 및 이를 적용한 영상기기
KR101695695B1 (ko) 이동단말기 및 그 제어방법
WO2017022031A1 (ja) 情報端末装置
JP7005160B2 (ja) 電子機器及びその制御方法
US20150241982A1 (en) Apparatus and method for processing user input
JP2016042154A (ja) 情報表示装置、情報表示システム、情報表示方法およびプログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20150326