JP2007116270A - Terminal and apparatus control system - Google Patents
Terminal and apparatus control system Download PDFInfo
- Publication number
- JP2007116270A JP2007116270A JP2005303243A JP2005303243A JP2007116270A JP 2007116270 A JP2007116270 A JP 2007116270A JP 2005303243 A JP2005303243 A JP 2005303243A JP 2005303243 A JP2005303243 A JP 2005303243A JP 2007116270 A JP2007116270 A JP 2007116270A
- Authority
- JP
- Japan
- Prior art keywords
- image
- terminal device
- user interface
- information
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
Abstract
Description
本発明は、通信により機器の制御を行う端末装置及び機器制御システムに係り、特に、携帯電話機などの端末装置に汎用リモコンの機能を持たせて、不特定の機器を制御できるようにした技術に関する。 The present invention relates to a terminal device and a device control system for controlling a device by communication, and more particularly to a technique for controlling an unspecified device by giving a terminal device such as a mobile phone a function of a general-purpose remote controller. .
近年、家庭内における情報化が進展し、ネットワーク・インターネット関連技術が普及してきた。これに伴い、家庭内において取り扱う情報は質・量共に増加し、情報を取り扱う情報家電においても、簡単な操作で情報を閲覧したり機器を操作したりするユーザーニーズが増加している。 In recent years, computerization in the home has progressed, and network / Internet related technologies have become widespread. Along with this, the information handled in the home has increased in both quality and quantity, and even in information home appliances that handle information, user needs for browsing information and operating devices with simple operations are increasing.
ところが、家庭内で取り扱う情報の増加に伴い、家庭内の情報家電機器(以下、機器と記す)は増加し続け、これら機器の操作方法として一般的な赤外線リモコンも、機器の増加に比例して増えている。つまり、家庭内に多数の赤外線リモコンがあふれかえる結果となり、それが逆にユーザの使い勝手を低下させる問題となってきている。 However, with the increase in information handled at home, household information home appliances (hereinafter referred to as “devices”) continue to increase, and the general infrared remote control method for operating these devices is also proportional to the increase in devices. is increasing. In other words, a large number of infrared remote controllers are flooded in the home, which in turn has become a problem of reducing user convenience.
この問題を解決するための方法として、特許文献1のような技術を用いることにより、ユニバーサルコントローラと呼ばれる汎用のリモコンを、ネットワークに対応した形で実現することが可能となり、赤外線が届かない位置にある機器もリモコン操作することが可能となる。
上記した特許文献1に記載の技術によれば、汎用リモコンを、ネットワークに対応した形で実現可能である。しかし、これを実現するためには、対象となる機器の識別子をあらかじめリモコンに登録しておく必要があり、対象とする機器が新たに追加された場合には、ユーザが識別子を登録するといった手間が発生することになる。
According to the technique described in
本発明の目的は、機器を端末装置によるリモコン操作の対象として選ぶ仕組み、および、機器にあったユーザインターフェースを生成して操作可能とする仕組みを、操作者(ユーザ)に負担を掛けることなく実現できるようにすることにある。 An object of the present invention is to realize a mechanism for selecting a device as a target for remote control operation by a terminal device and a mechanism for generating and operating a user interface suitable for the device without burdening an operator (user). There is to be able to do it.
本願による端末装置の代表的な1つの発明では、画像を撮影する撮像手段と、機器の特徴を表現する機器特徴情報を保持する機器特徴情報保持手段と、撮影した画像に前記機器特徴情報が含まれているか否かを判断する画像比較手段と、操作対象となる機器を選択する機器選択手段と、機器の操作を記述するスクリプトをデータベースまたは機器から取得するスクリプト取得手段と、前記スクリプトに従いユーザインタフェース(ユーザインタフェースイメージ)を生成するユーザインタフェース生成手段と、前記ユーザインタフェースを表示手段に表示する表示制御手段と、前記ユーザインタフェースを利用して操作者が操作情報を入力する入力手段と、前記操作情報を前記スクリプトに従い変換して制御情報を生成する制御情報生成手段と、操作対象となる機器と通信して前記制御情報を機器に送信する通信手段とを、備える。 In one representative invention of the terminal device according to the present application, an image capturing unit that captures an image, a device feature information retaining unit that retains device feature information that expresses a feature of the device, and the device feature information is included in the captured image. Image comparison means for determining whether or not the device is selected, device selection means for selecting a device to be operated, script acquisition means for acquiring a script describing the operation of the device from a database or device, and a user interface according to the script (User interface image) generating user interface, display control means for displaying the user interface on the display means, input means for the operator to input operation information using the user interface, the operation information Information generation means for converting control information according to the script and generating control information And a communication means for communicating with the device to be operated to transmit the control information to the device comprises.
本発明によれば、機器を端末装置によるリモコン操作の対象として選ぶ仕組み、および、機器にあったユーザインターフェースを生成して操作可能とする仕組みを、操作者(ユーザ)に負担を掛けることなく実現できる。 According to the present invention, a mechanism for selecting a device as a target for remote control operation by a terminal device and a mechanism for generating and operating a user interface suitable for the device are realized without burdening the operator (user). it can.
以下、本発明の実施の形態を図面を用いて説明する。図1は、本発明の一実施形態(以下、本実施形態と記す)に係る端末装置とそれを含んで構成される機器制御システムの構成を示すブロックである。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a terminal device according to an embodiment of the present invention (hereinafter referred to as the present embodiment) and a device control system including the terminal device.
機器制御システムは、端末装置1と、1台以上の機器5と、機器情報データベース7とを含んで構成される。端末装置1は、撮像手段としてのカメラ4と、表示手段としての表示装置2と、入力手段としてのタッチパネル装置3とを備え、表示装置2とタッチパネル装置3は、ディスプレイを兼ねる入力デバイスであるタッチ表示パネル装置により構成されている。この端末装置1としては、ここでは例えば携帯電話機を想定している。機器5は、エアコンや冷蔵庫などといった家庭内で使用する家電機器、あるいは、パソコンやレコーダ装置などといった情報を取り扱う情報機器であり、通信(無線通信、あるいは場合によっては有線での通信)により機器の遠隔操作を行うことができる情報家電機器となっている。機器情報データベース7は、機器5の情報を格納するデータベース装置であり、この機器情報データベース7は、無線あるいは有線で端末装置1と通信を行うデータベース、または、端末装置1の内部に内蔵されるタイプのデータベースのいずれであってもよく、要は、機器5に関する情報である後記する機器情報210を格納し、端末装置1が自由に利用できる仕組みを持つデータベースであればよい。なお、6は生体であり、ここでは、端末装置1を操作する操作者の手指を想定している。
The device control system includes a
端末装置1内には、撮像制御手段100、画像比較手段101、機器特徴情報保持手段102、機器選択手段103、生体判断手段104、ユーザインタフェース生成手段105、スクリプト取得手段106、通信手段107、画像分離手段108、表示制御手段109、制御情報生成手段110、制御手段111、入力受付・解釈手段112、座標情報比較手段113、位置関係検出手段114などが備えられている。そして、これらの各手段の大部分は、端末装置1に内蔵されたCPU、ROM、RAM、各種I/Fといったハードウェア資源と、予め用意された各種プログラムとによって、具現化されるようになっている。
In the
撮像制御手段100は、カメラ4の動作を制御し、また、カメラ4が撮影した被写体(ここでは機器5や生体6)の画像を必要に応じて適宜に処理して一時記憶し、カメラ4で撮影した画像を、画像比較手段101、生体判断手段104、位置関係検出手段114に手渡す。機器特徴情報保持手段102は、機器の特徴を表現する後記する機器特徴情報230を保持する。画像比較手段101は、カメラ4で撮影した画像と、機器特徴情報保持手段102の保持する機器特徴情報230とを画像比較して、操作対象となる機器5であるか否かを判断する。機器選択手段103は、画像比較手段101において操作対象となる機器5があると判定された場合に、画像比較手段101からの出力と機器特徴情報保持手段102の保持する機器特徴情報230とを参照して、操作対象となる機器5の識別を行い、この識別した機器5を、通信手段107による通信相手として選択したり、端末装置1によるリモコン操作の対象として選択する機能をもつ。また、機器選択手段103は、通信手段107が機器5が具備する無線タグ(無線ICタグ)と交信して、無線タグ識別子を取得した場合には、無線タグ識別子から機器5の識別を行い、この識別した機器5を、通信相手として選択したり、端末装置1によるリモコン操作の対象として選択する機能をもつ。
The
生体判断手段104は、カメラ4で撮影した画像中に生体6の部分(ここでは、端末装置1を操作する操作者の手指)が撮影されているか否かを、つまり、端末装置1のカメラ4の前に(カメラ4の撮影視野の中に)操作者の手指がかざされているか否かを判断する。本実施形態では、カメラ4は可視光による画像撮影を行うものとなっており、生体判断手段104による判断処理は、肌色抽出、輪郭抽出、特徴抽出などの適宜の画像処理と、判定処理とを組み合わせることによって行われる。なお、カメラ4として、可視光による画像撮影と赤外光による画像撮影とを行う機能を備えたものを用いてもよく、この場合には、赤外光による画像撮影での画像から、人間の体温の存在箇所があるかどうかで、カメラ4で撮影した画像中に生体6の部分が撮影されているか否かを判断すればよい。画像分離手段108は、カメラ4で撮影した画像に生体の部分が含まれている場合に、カメラ4で撮影した画像(可視光による画像撮影での画像)から、生体6の部分の画像(生体部分画像)と、それ以外の部分の画像(非生体部分画像)とに分離する。画像分離手段108は、肌色抽出、輪郭抽出、特徴抽出などの適宜の画像処理により生体6の手指の部分領域を特定して、この特定した生体6の手指の部分領域を抽出することで、生体部分画像と非生体部分画像とに分離する。位置関係検出手段114は、カメラ4で撮影した画像と最新の生体部分画像とを用いて、端末装置1の操作者の指先と、端末装置1との位置関係を検出する。つまり、位置関係検出手段114は、カメラ4の撮影画角の中で指先がどの座標位置にあるのかを検出する。
The living
通信手段107は、選択された機器5と通信を行い、機器5から後記する機器情報210を受信したり、機器5に対して制御情報を送信する。また、通信手段107は、機器情報データベース7とも通信を行い、後記する機器情報210を授受する。なお、機器情報データベース7が例えばUSBにより接続されるICメモリやHDDである場合には、通信手段107はUSB規格のインターフェースを通じて、機器情報データベース7と通信(情報の授受)をする。スクリプト取得手段106は、機器5や機器情報データベース7から取得した後記する機器情報210から後記するスクリプト300を取得して、これを保持する。機器特徴情報保持手段102は、取得した後記する機器情報210から後記する機器特徴情報230を取得して、これを保持する。
The
ユーザインタフェース生成手段105は、スクリプト取得手段106から手渡された後記するスクリプト300を解釈して、ユーザインタフェース(ユーザインタフェースイメージ)を生成する。表示制御手段109は、表示装置2上に表示させる各種画像データの生成処理を行うもので、下から順に、非生体部分画像、ユーザインタフェース、生体部分画像を重畳させた画像を表示装置2上に表示させたり、下から順に、ユーザインタフェース、生体部分画像を重畳させた画像を表示装置2上に表示させたりなどする機能をもつ。
The user
入力受付・解釈手段112は、タッチパネル装置3に操作者の指が触れた場合に、その触れた座標位置を取得して、透明なタッチパネル装置3の下側の表示装置2に表示されたユーザインタフェース中のアイコンがタッチされたと判断すると、そのアイコンに応じたユーザによる操作情報を解釈して、操作情報を制御情報生成手段110に手渡す。座標情報比較手段113は、位置関係検出手段114からの指先の座標情報と、表示制御手段109からの表示指先の座標情報とを参照して、表示装置2に表示されたユーザインタフェース上に重畳表示された指先の動き・位置に応じて、操作者により操作情報が入力されたか否かを判断して、つまり、操作者が入力装置3に直接触れることなく操作情報の入力操作を行ったか否かを判断して(表示されたユーザインタフェース中のアイコンに仮想的に触れたか否かを判定して)、仮想的にアイコンがタッチされたと判断すると、そのアイコンに応じたユーザによる操作情報を解釈して、操作情報を制御情報生成手段110に手渡す。
When the operator's finger touches the touch panel device 3, the input reception /
制御情報生成手段110は、入力された操作情報と、スクリプト取得手段106のもつ後記するスクリプト300とから、機器5を制御するための制御情報を生成する。生成された制御情報は、制御手段111を通じて通信手段107に渡され、制御手段111の制御の下に、通信手段107から機器5に送信される。なお、制御手段111は、端末装置1全体を統括制御するもので、制御手段111の制御の下に各部が動作する。
The control
次に、機器情報管理テーブル200について、図2を用いて説明する。機器情報管理テーブル200は、機器情報データベース7が保持し、1または複数の機器情報210から構成されるデータ格納テーブルである。機器情報210は、機器情報210を一意に識別するための機器識別子220と、機器のユーザインタフェース及び制御情報を記述するスクリプト300と、機器の特徴を記述する機種特徴情報230とから構成される。
Next, the device information management table 200 will be described with reference to FIG. The device information management table 200 is a data storage table that is held by the device information database 7 and includes one or more pieces of
機器識別子220は、機器1つ1つにつきユニークな値を持つ識別子であり、1つの機器識別子220は、例えば、TCP/IP(Transmission Contorol Protocol/Internet Protocol)プロトコルにおけるIPアドレスや、MAC(Media Access Control)アドレスのような唯一ある特定の機器を指定する値である。通信手段107は、この機器識別子220に示された値を用いて、その特定の機器と通信することが可能である。
The
スクリプト300は、機器のユーザインタフェース及び制御情報を記述するテキストベースの情報であり、このスクリプト300の構成については後述する。これを用いることにより、端末装置1は機器5を制御するためのユーザインタフェースを構築したり、また、機器5を制御するための制御情報を生成することが可能である。
The
機器特徴情報230は、機器5が持つ無線タグの識別子である無線タグ識別ID240と、機器5のフロントパネルを撮影したイメージである前面イメージ231と、機器5の側面を撮影したイメージである側面イメージ232と、機器5の名前をテキストベースで保持する機種名233と、機器5のスイッチがどこに配置されているかを示すスイッチ配置位置234と、機器5の表示装置の取り付け位置を示す表示装置位置235と、機器5がスタンバイ状態になったときに機器5の表示部に表示されるイメージである待ち受け表示イメージ(初期表示イメージ)236とから構成される。
The device
次に、スクリプト300について、図3を用いて説明する。スクリプト300は、機器のユーザインタフェース及び制御情報を記述するテキストベースの情報であり、その構成を解釈することにより、機器5のユーザインタフェースをどう構築したらよいかを指示する、あるいは、機器5をどのように制御したらよいかを指示する情報であり、例えば、HTML(Hypertext Marcup Language)、XML(Extensive Marcup Language)、RSS(RDF Site Summary or Rich Site Summary or Really Simple Syndication)、GML(Standard Generalized Marcup Language)といった、テキストベースのマークアップ言語により記述することができる。図3においては、スクリプト300の1例を、XMLを用いて表現して説明する。
Next, the
スクリプト300は、ユーザインタフェース310と、レイヤー1(320)と、機能1(330)と、機能2(331)とから構成される。なお、スクリプト300には、上記ユーザインタフェース310、レイヤー1(320)、機能1(330)、機能2(331)が、1つ以上複数個含まれていてもよい。
The
ユーザインタフェース310は、複数のレイヤー(311、312)で構成される。レイヤー311は、<レイヤー1 event=待ち受け/>と記述され、これはイベント“待ち受け”が発生した際には、“レイヤー1”つまりレイヤー1(320)に記載されたユーザインタフェースを実施することを意味する。レイヤー312は、<レイヤー2 event=起動状態/>と記述され、これはイベント“起動状態”が発生した際には、“レイヤー2”に記載されたユーザインタフェースを実施することを意味する。イベント“待ち受け”は、例えば、機器5に電源が供給されているも、ユーザが電源ボタンを押下する前の停止状態のことを示し、イベント“起動状態”は、ユーザが例えば電源ボタンを押下して機器5を立ち上げた直後の状態を意味する。すなわち、機器5がどのような状態にあるかを通信手段107を用いて機器5から取得し、それに応じて端末装置1のユーザインタフェースを変更することが可能となる。
The
レイヤー1(320)は、イメージ表示(321)とイメージ表示(322)と機能2(323)とから構成される。イメージ表示321は、<イメージ表示 x=10 y=20 res=背景.jpg/>と記述される。これは、レイヤー1(320)を実施した際に、resに指定した画像、つまり、ここでは“背景.jpg”というイメージファイルを取得し、表示装置2の座標(x、y)=(10,20)の位置に“イメージ表示”する、という動作を実施する。“イメージ表示”は、端末装置1のユーザインタフェースが独自に設ける制御文字列であり、イメージあるいは画像を表示装置2に表示するための文字列であれば、どのようなものであってもよい。
The layer 1 (320) includes an image display (321), an image display (322), and a function 2 (323). The
イメージ表示322は、<イメージ表示 x=30 y=40 res=スイッチ.jpg target=機能1/>と記述される。これは、レイヤー1(320)を実施した際に、resに指定した画像、つまり、ここでは“スイッチ.jpg”というイメージファイルを取得し、表示装置2の座標(x、y)=(30,40)の位置に“イメージ表示”する、という動作を実施する。加えて、この画像にハイパーリンクとして“機能1”の割付けを実施する。これは、ユーザが入力装置を用いてこの“スイッチ.jpg”を選択した場合、“機能1”に相当するスクリプトを実施する、という意味を表す。
The
機能1(330)は、<機能1 device=機器1 command=制御コマンド1 status=起動状態/>と記述される。これは、前述の“機能1”というスクリプトをどのように実施するかを記載した情報であり、“機器1”に対し“制御コマンド1”という文字列を送出したのち、機器5の状態を“起動状態”とする、という意味を示す。ここで、“制御コマンド1”とは、前述の制御情報のことであり、“機器1”すなわち機器5に対し送出する制御情報である。機能2(331)は、<機能2 device=機器1 command=制御コマンド2 status=待ち受け状態/>と記述される。これは、“機器1”に対し“制御コマンド2”という文字列を送出したのち、機器5の状態を“待ち受け状態”とする、という意味を示す。ここで、“制御コマンド2”とは、前述の制御情報のことであり、“機器1”すなわち機器5に対し送出する制御情報である。
Function 1 (330) is described as <
以上のようなスクリプト300を用いて、ユーザインタフェースを構築したり、機器に対する制御コマンドの送出方法を記述することができる。
Using the
次に、本実施形態において、端末装置1に撮影された機器5をリモコン操作の対象に選び、機器5に適合するユーザインターフェースを生成して、機器5をリモコン操作する動作について、図4に示すフローチャートを用いて説明する。
Next, in this embodiment, an operation of selecting the
まず、通信手段107を用いて機器5に無線タグ(無線ICタグ)が付加されているか否かを判断するために、無線タグ識別子を取得し(ステップ1001)、もし機器5に無線タグがあるならば(ステップ1002で有りならば)、通信手段107により機器5との通信回線を開き通信を開始する(ステップ1100)。次に、機器5から前述の機器情報210を取得し(ステップ1101)、通信回線を切断して通信を終了する(ステップ1102)。次に、端末装置1のカメラ4を用いて、画像を取得し(ステップ1103)、ステップ1006を実行する。なお、ステップ1103で取得される画像は、ここでは、機器5と端末装置1の操作者の手指とを含んだ画像である。
First, in order to determine whether or not a wireless tag (wireless IC tag) is attached to the
ステップ1002において、機器5に無線タグがないと判断した場合には(ステップ1002で無しの場合には)、通信手段107を用いて機器情報データベース7と通信を行い、機器情報管理テーブル200から、全ての機器情報210を取得する。また、端末装置1のカメラ4を用いて画像を取得し(ステップ1004)、ステップ2000の機器判断処理を実施する。ステップ2000の機器判断処理の詳細については後述する。なお、ステップ1104で取得される画像も、ここでは、機器5と端末装置1の操作者の手指とを含んだ画像である。
If it is determined in
ステップ2000の機器判断処理において、機器5の機器識別子220が機種特徴情報230を参照しても発見できない場合には(ステップ1005でNo判定の場合には)、ステップ1000に戻る(ないしは、本フローを終了する)。機器5の機器識別子220が機種特徴情報230を参照して発見できた場合には(ステップ1005でYes判定の場合には)、機器情報210からスクリプト300を取得する(ステップ1006)。また、ステップ1103からステップ1006に移行した場合も、機器情報210からスクリプト300を取得する。次に、前述したようにスクリプト300の解釈を行い、ユーザインタフェース(ユーザインタフェースイメージ)の生成を行う(ステップ1007)。スクリプト300の解釈は、基本的にスクリプト300の最初から文字列を読み込み、HTML,XML,RSS,GMLなどハイパーテキスト文書の規約に従って解釈することにより、ユーザインタフェースを構築する。
If the
次に、ステップ1103あるいはステップ1004でカメラ4を用いて撮影した画像から、生体部分画像と非生体部分画像とを分離する(ステップ1008)。次に、非生体部分画像を表示装置2に表示(ステップ1009)した後、非生体部分画像の上に重ねてユーザインタフェース(ユーザインタフェースイメージ)を表示し(ステップ1010)、さらに、ユーザインタフェースの上に重ねて生体部分画像を表示する(ステップS1011)。図7の(b)は、ステップS1011での処理の後の、表示装置2上の表示例を示している。そして、ステップ3000での入力処理及び機器制御処理を実施して、ステップ1000に戻る。なお、ステップ3000での入力処理及び機器制御処理の詳細については後述する。
Next, the living body partial image and the non-living body partial image are separated from the image captured using the
次に、図4の前記したステップ2000の機器判断処理について、図5に示すフローチャートを用いて説明する。
Next, the device determination processing in
まず、機器情報データベース7の機器情報管理テーブル200から取得した機器情報210から、1つの機器情報210をワークエリアに取り出し(ステップ2001)、もし、最後の機器情報210までの取り出しが終了していて、もはや取り出す機器情報210がない場合には(ステップ2002でYes判定の場合には)、操作対象として該当する機器5でない旨を、図4の機器判断処理の出力とし(ステップ2012)、本フローを終了する(ステップ2014)。
First, one piece of
ステップ2002において機器情報210が取り出しできるならば(ステップ2002でNo判定の場合には)、該機器情報210から機器特徴情報230を取り出す(ステップ2003)。次に、図4のステップ1004で取得した画像(カメラ4で撮影した画像)をワークエリアに取り出し(ステップ2004)、機種特徴情報230の前面イメージ231、側面イメージ232、機種名233、スイッチ配置位置234、表示装置位置235、待ち受け表示イメージ236を、カメラ4で撮影した画像と、画像(イメージ)比較する(ステップ2004)。この比較は、カメラ4で撮影した画像を伸縮・拡張して、その画像と機種特徴情報230内のイメージとを比較する、あるいは、画像の特徴点を取得して、その特徴点が一致するか否かといった、画像比較を行うものであればどのような手順であってもよい。
If the
ステップ2005において行ったイメージ比較処理において、前面イメージ231が一致したと判断した場合には(ステップ2006でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(ステップ2014)。もし、ステップ2005において行ったイメージ比較処理において、側面イメージ232が一致したと判断した場合には(ステップ2007でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(2014)。もし、ステップ2005において行ったイメージ比較処理において、機種名233が一致したと判断した場合には(ステップ2008でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(ステップ2014)。もし、ステップ2005において行ったイメージ比較処理において、スイッチ配置位置234が一致したと判断した場合には(ステップ2009でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(ステップ2014)。もし、ステップ2005において行ったイメージ比較処理において、表示装置位置235が一致したと判断した場合には(ステップ2010でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(ステップ2014)。もし、ステップ2005において行ったイメージ比較処理において、待ち受け表示イメージ236が一致したと判断した場合には(ステップ2011でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(ステップ2014)。もし、ステップ2011において待ち受け表示イメージが一致しない場合には(ステップ2011でNo判定の場合には)、ステップ2001で取得した機器情報210に該当しなかったと判断し、次の機器情報210を取得するためにステップ2001へ進み、処理を継続する。
In the image comparison process performed in
次に、タッチパネル装置3を操作者が直接操作して操作情報を入力すること、あるいは、カメラ4で撮影された画像から操作者による操作情報の入力を取得することで、機器5に対する制御情報を生成して、これを機器5に対して送出する処理である、図4の前記したステップ3000の入力及び機器制御処理について、図6に示すフローチャートを用いて説明する。
Next, the operator directly operates the touch panel device 3 to input operation information, or obtains the operation information input by the operator from an image captured by the
まず、図4のステップ1007において、ユーザインタフェースを生成したか否かを判断し(ステップ3001)、ユーザインタフェースがないと判断した場合には(ステップ3001でNo判定の場合には)、操作者の入力を受け付ける必要がないため、本フローを終了する(ステップ3015)。もし、ユーザインタフェースがあると判断した場合には(ステップ3001でYes判定の場合には)、図4のステップ1008においてカメラ4で撮影した画像から分離した生体部分画像を、ワークエリアに取り出し(ステップ3002)、ワークエリアに既に展開されている前回撮影分の生体部分画像との比較により、操作者が入力したか否かを判断する(ステップ3003)。これは、例えば、生体部分画像の指(表示された指)がユーザインタフェースのアイコンなどを触った場合には、指部分の動きがその際に停止するため、前回撮影した画像から抽出した生体部分画像との比較を行うことで、操作者が入力したか否かを判断することが可能となる。もし、入力がないと判断した場合には(ステップ3003でNo判定の場合には)、タッチパネル装置3による入力受け付けに移行し(ステップ3004)、タッチパネル装置3を用いた操作者の入力操作の有無を判定する(ステップ3005)。もし入力がない、つまり操作者がタッチパネル装置3を触っていなければ、操作者からの入力がなかったと判断して(ステップ3005でNo判定をして)、本フローを終了する(ステップ3015)。もし入力がある場合、つまり操作者がタッチパネル装置3を触っていれば、操作者からの入力があったと判断して(ステップ3005でYes判定をして)、ステップ3007の処理を実行する。
First, in
また、ステップ3003において、操作者からの入力があると判断した場合には(ステップ3003でYes判定の場合には)、生体部分画像の特徴情報などから指先がどこにあるかを判断して(ステップ3006)、指先の座標情報を取得する(ステップ3007)。タッチパネル装置2からの入力であれば(ステップ3005でYes判定であれば)、そのタッチされた入力位置の座標情報を取得する(ステップ3007)。
If it is determined in
次に、スクリプト300を参照して、そのハイパーテキストを解釈する(ステップ3008)。ハイパーテキストにおいて、例えば図3のスクリプト300の例で説明すると、レイヤー1のイメージ表示322のように、アイコンのイメージと、その表示開始位置が記述してあるので、アイコンのサイズと表示開始位置を合わせると特定の範囲を機能1に割り当てることができる。ステップ3007において取得したX,Y座標が、範囲内にあるか否かを判断する(ステップ3009)。この判断は、スクリプト300に記載されたすべてのアイコンに対して判断を行い、もし範囲内にないと判断した場合には(ステップ3009でNo判定の場合には)、そのアイコンを押していないことから、本フローを終了する(ステップ3015)。もし範囲内にあると判断した場合には(ステップ3009でYes判定の場合には)、スクリプト300から処理すべき機能を取得する(ステップ3010)。図3の例で説明すると、イメージ表示322に対応する“機能1“が機能1(330)に記載されているため、そこからdeviceとcommandの情報を取得する(ステップ3011)。次に、端末装置1の通信手段107を用いて、前記deviceに指定されている機器5と通信を開始し(ステップ3012)、commandに記載されている制御コマンド(制御情報)を機器5に対し通信回線を用いて送出し(ステップ3013)、然る後、通信を停止する(ステップ3014)。そして、本フローを終了し(3015)、すべての制御コマンドの送出を終了する。
Next, referring to the
以上の動作により、端末装置1に撮影された機器5をリモコン操作の対象に選び、該機器5に適合するユーザインターフェースを生成して、機器5をリモコン操作する動作を実現することが可能となる。
With the above operation, it is possible to select the
図7の(a)は、端末装置1のカメラ4により生体(操作者の指先)6を撮影し、撮影された指先によりリモコン操作を行っている様子を示しており、701は操作者の目を表している。図7の(b)は、図7の(a)において操作者の目701が観ている、表示装置2上の表示画像例を示している。図7の(b)において、702は、表示画面の一番下側に表示された非生体部分画像、703は、非生体部分画像702の上側に重畳表示されたユーザインタフェース(ユーザインタフェースイメージ)、704は、ユーザインタフェース703の上に重畳表示された生体部分画像である。
FIG. 7A shows a state in which a living body (operator's fingertip) 6 is photographed by the
図7の(a)、(b)に示すように、タッチパネル装置3に触れることなく、カメラ4で撮影された指先により、表示装置2上に表示されたユーザインタフェース703を仮想的に操作することで、リモコン操作を行うように構成すると、端末装置1が携帯電話機のように小型の装置で、表示装置2のサイズが小さいものであっても、実際の指先よりも小さいサイズの生体部分画像(表示指先画像)によって、ユーザインタフェース703中の細かなアイコンを的確に操作することが可能となる。また、ユーザインタフェース703に多くのアイコンを配置することも可能となる。
As shown in FIGS. 7A and 7B, the
なお、上述の例では、非生体部分画像702、ユーザインタフェース703、生体部分画像704の3者を重畳表示して、非生体部分画像702によって、操作している機器5のイメージが操作者に認知できるようにしているが、リモコン操作の際には、非生体部分画像702の表示は必ずしも必要ではなく、ユーザインタフェース703上に生体部分画像704を重畳表示させるだけでもよい。
In the above-described example, the non-biological
1 端末装置
2 表示装置
3 タッチパネル装置
4 カメラ
5 機器
6 生体
7 機器情報データベース
100 撮像制御手段
101 画像比較手段
102 機器特徴情報保持手段
103 機器選択手段
104 生体判断手段
105 ユーザインタフェース生成手段
106 スクリプト取得手段
107 通信手段
108 画像分離手段
109 表示制御手段
110 制御情報生成手段
111 制御手段
112 入力受付・解釈手段
113 座標情報比較手段
114 位置関係検出手段
200 機器情報管理テーブル
210 機器情報
220 機器識別子
230 機器特徴情報
231 前面イメージ
232 側面イメージ
233 機種名
234 スイッチ配置位置
235 表示装置位置
236 待ち受け表示イメージ
240 無線タグ識別ID
300 スクリプト
310 ユーザインタフェース
320 レイヤー1
330 機能1
331 機能2
DESCRIPTION OF
300
330
331 Function 2
Claims (12)
画像を撮影する撮像手段と、
機器の特徴を表現する機器特徴情報を保持する機器特徴情報保持手段と、
撮影した画像に前記機器特徴情報が含まれているか否かを判断する画像比較手段と、
操作対象となる機器を選択する機器選択手段と、
機器の操作を記述するスクリプトをデータベースまたは機器から取得するスクリプト取得手段と、
前記スクリプトに従いユーザインタフェース(ユーザインタフェースイメージ)を生成するユーザインタフェース生成手段と、
前記ユーザインタフェースを表示手段に表示する表示制御手段と、
前記ユーザインタフェースを利用して操作者が操作情報を入力する入力手段と、
前記操作情報を前記スクリプトに従い変換して制御情報を生成する制御情報生成手段と、
操作対象となる機器と通信して前記制御情報を機器に送信する通信手段とを、
備えることを特徴とする端末装置。 A terminal device having a function of communicating with a device to be operated,
Imaging means for taking an image;
Device feature information holding means for holding device feature information expressing the features of the device;
Image comparison means for determining whether or not the device characteristic information is included in the captured image;
A device selection means for selecting a device to be operated;
Script acquisition means for acquiring a script describing the operation of the device from a database or device;
User interface generation means for generating a user interface (user interface image) according to the script;
Display control means for displaying the user interface on display means;
Input means for an operator to input operation information using the user interface;
Control information generating means for converting the operation information according to the script and generating control information;
Communication means for communicating with the device to be operated and transmitting the control information to the device;
A terminal device comprising the terminal device.
前記スクリプト取得手段は、前記通信手段によって機器から受信した機器情報に含まれるスクリプトを取得する機能を備え、前記機器特徴情報保持手段は、前記機器情報に含まれる機器特徴情報を取得する機能を備えることを特徴とする端末装置。 The terminal device according to claim 1,
The script acquisition unit has a function of acquiring a script included in device information received from the device by the communication unit, and the device feature information holding unit has a function of acquiring device feature information included in the device information. A terminal device characterized by that.
操作対象となる機器の識別を、機器に備えられた無線タグ(無線ICタグ)から取得した識別情報により行う機能を備えることを特徴とする端末装置。 The terminal device according to claim 1,
A terminal device comprising a function of identifying an operation target device based on identification information acquired from a wireless tag (wireless IC tag) provided in the device.
前記撮像手段により撮影した機器の画像から、前記データベースを参照して操作対象となる機器の識別を行う機能を備えることを特徴とする端末装置。 The terminal device according to claim 1,
A terminal device comprising a function of identifying a device to be operated with reference to the database from an image of a device photographed by the imaging means.
前記表示手段と前記入力手段は、ディスプレイを兼ねる入力デバイスであるタッチ表示パネルによって構成されたことを特徴とする端末装置。 The terminal device according to any one of claims 1 to 4,
The terminal device, wherein the display unit and the input unit are configured by a touch display panel which is an input device that also serves as a display.
前記撮像手段で撮影した画像を解析して、画像中に生体が含まれるか否かを判断する生体判断手段と、撮影した画像中に生体が含まれる場合に、撮影した画像から生体部分画像と非生体部分画像を分離する画像分離手段とを備え、
前記表示手段上に、下から順に、少なくとも、前記ユーザインタフェース、前記生体部分画像を重畳表示する機能を備えることを特徴とする端末装置。 The terminal device according to claim 5,
Analyzing an image captured by the imaging means and determining whether or not a living body is included in the image, and a living body partial image from the captured image when a living body is included in the captured image Image separation means for separating the non-biological partial image,
A terminal device comprising a function of superposing and displaying at least the user interface and the living body partial image in order from the bottom on the display means.
前記表示手段上に、下から順に、前記非生体部分画像、前記ユーザインタフェース、前記生体部分画像を重畳表示する機能を備えることを特徴とする端末装置。 The terminal device according to claim 6,
A terminal device comprising a function of superimposing and displaying the non-biological partial image, the user interface, and the biological partial image on the display unit in order from the bottom.
前記撮像手段が撮影した画像から、画像中に含まれる生体である当該端末装置の操作者の指先と、当該端末装置との位置関係を検出する位置関係検出手段を備え、
前記ユーザインタフェース上に重畳表示された前記生体部分画像における生体の指先の動き・位置に応じて、前記操作情報が入力されたか否かを判断する手段を設けて、当該端末装置の前記操作者が前記入力装置に直接触れることなく前記操作情報の入力を可能としたことを特徴とする端末装置。 The terminal device according to claim 6 or 7,
A positional relationship detection unit that detects a positional relationship between the fingertip of the operator of the terminal device, which is a living body included in the image, and the terminal device from an image captured by the imaging unit;
Means for determining whether or not the operation information has been input according to the movement and position of the fingertip of the living body in the living body partial image superimposed and displayed on the user interface is provided so that the operator of the terminal device A terminal device characterized in that the operation information can be input without directly touching the input device.
前記撮像手段は、可視光による画像撮影と赤外光による画像撮影とを行う機能を備えることを特徴とする端末装置。 The terminal device according to claim 6,
The terminal device has a function of performing image capturing using visible light and image capturing using infrared light.
前記通信手段を用いて機器から取得した機器の操作を記述するスクリプト、または、前記通信手段を用いて機器から取得した機器の識別情報あるいは前記撮像手段により撮影した機器の画像から特定した機器の識別情報に基づいてデータベースから取得した機器の操作を記述するスクリプトに従って、機器を操作するためのユーザインタフェース(ユーザインタフェースイメージ)を自動的に生成して、生成したユーザインタフェースを前記表示手段上に表示する手段を備えることを特徴とする端末装置。 It has a communication means having a function of communicating with a device to be operated, an imaging means for taking an image, a display means, and an input means. The display means and the input means are touch displays which are input devices that also serve as a display. A terminal device composed of panels,
The script describing the operation of the device acquired from the device using the communication means, the device identification information acquired from the device using the communication means, or the device identification specified from the image of the device taken by the imaging means A user interface (user interface image) for operating the device is automatically generated according to a script describing the operation of the device acquired from the database based on the information, and the generated user interface is displayed on the display means. A terminal device comprising means.
操作対象となる機器の操作を記述するスクリプトをデータベースまたは機器から取得するスクリプト取得手段と、
前記スクリプトに従いユーザインタフェース(ユーザインタフェースイメージ)を生成するユーザインタフェース生成手段と、
前記撮像手段で撮影した画像から生体部分画像と非生体部分画像を分離する画像分離手段と、
前記撮像手段が撮影した画像から、画像中に含まれる生体である当該端末装置の操作者の指先と、当該端末装置との位置関係を検出する位置関係検出手段と、
前記表示手段上に、前記ユーザインタフェースの上に重ねて前記生体部分画像を重畳表示する表示制御手段とを、備え、
前記ユーザインタフェース上に重畳表示された前記生体部分画像における生体の指先の動き・位置に応じて、前記操作者により操作情報が入力されたか否かを判断して、当該端末装置の前記操作者が前記入力装置に直接触れることなく前記操作情報の入力を可能としたことを特徴とする端末装置。 It has a communication means having a function of communicating with a device to be operated, an imaging means for taking an image, a display means, and an input means. The display means and the input means are touch displays which are input devices that also serve as a display. A terminal device composed of panels,
Script acquisition means for acquiring a script describing the operation of the device to be operated from a database or device;
User interface generation means for generating a user interface (user interface image) according to the script;
Image separating means for separating a biological partial image and a non-biological partial image from an image photographed by the imaging means;
A positional relationship detecting unit that detects a positional relationship between the fingertip of the operator of the terminal device, which is a living body included in the image, and the terminal device, from an image captured by the imaging unit;
Display control means for displaying the living body partial image superimposed on the user interface on the display means,
The operator of the terminal device determines whether operation information has been input by the operator according to the movement / position of the fingertip of the living body in the living body partial image superimposed and displayed on the user interface. A terminal device characterized in that the operation information can be input without directly touching the input device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005303243A JP4676303B2 (en) | 2005-10-18 | 2005-10-18 | Terminal device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005303243A JP4676303B2 (en) | 2005-10-18 | 2005-10-18 | Terminal device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2007116270A true JP2007116270A (en) | 2007-05-10 |
JP2007116270A5 JP2007116270A5 (en) | 2008-08-21 |
JP4676303B2 JP4676303B2 (en) | 2011-04-27 |
Family
ID=38098087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005303243A Expired - Fee Related JP4676303B2 (en) | 2005-10-18 | 2005-10-18 | Terminal device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4676303B2 (en) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010130691A (en) * | 2008-12-01 | 2010-06-10 | Korea Electronics Telecommun | Digital content providing apparatus and user terminal discriminating method for discriminating user terminal through acquisition of video data |
JP2010204730A (en) * | 2009-02-27 | 2010-09-16 | Seiko Epson Corp | System of controlling device in response to gesture |
JP2011203808A (en) * | 2010-03-24 | 2011-10-13 | Panasonic Corp | Mobile information terminal |
JP2012059242A (en) * | 2010-09-13 | 2012-03-22 | Hyundai Motor Co Ltd | In-vehicle device control system utilizing augmented reality, and method thereof |
JP2012521685A (en) * | 2009-03-26 | 2012-09-13 | エックスペッド ホールディングス ピーティワイ リミテッド | Configuration for managing wireless communication between devices |
EP2528351A1 (en) * | 2010-01-18 | 2012-11-28 | Nec Corporation | Information terminal device, control method using an information terminal device, and program |
JP2012249104A (en) * | 2011-05-27 | 2012-12-13 | Kyocera Corp | Remote operation device, remote control system, control program, and storage medium |
JP5200095B2 (en) * | 2008-02-27 | 2013-05-15 | 京セラ株式会社 | User interface generation device |
JP2013106198A (en) * | 2011-11-14 | 2013-05-30 | Toshiba Corp | Apparatus controller, method for the same, and program |
JP2013114466A (en) * | 2011-11-29 | 2013-06-10 | Nikon Corp | Display system, display method and program |
JP2013250849A (en) * | 2012-06-01 | 2013-12-12 | Konica Minolta Inc | Guidance display system, guidance display device, guidance display method, and guidance display program |
JP2014102843A (en) * | 2012-11-20 | 2014-06-05 | Samsung Electronics Co Ltd | Wearable electronic device |
EP2804164A1 (en) * | 2013-05-14 | 2014-11-19 | Siemens Aktiengesellschaft | Method for control device and control device with recognition of environment and RFID sensor |
EP2372495A3 (en) * | 2010-03-29 | 2015-11-25 | Sony Corporation | Remote control of a target device using a camera and a display |
JP2015230496A (en) * | 2014-06-03 | 2015-12-21 | シャープ株式会社 | Electronic equipment |
JP2016207048A (en) * | 2015-04-25 | 2016-12-08 | 京セラドキュメントソリューションズ株式会社 | Augmented reality operation system and augmented reality operation program |
US10185416B2 (en) | 2012-11-20 | 2019-01-22 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving movement of device |
US10423214B2 (en) | 2012-11-20 | 2019-09-24 | Samsung Electronics Company, Ltd | Delegating processing from wearable electronic device |
US10551928B2 (en) | 2012-11-20 | 2020-02-04 | Samsung Electronics Company, Ltd. | GUI transitions on wearable electronic device |
JP2020512620A (en) * | 2017-02-28 | 2020-04-23 | ラッサム、アンマー | Method and apparatus for adaptively interacting with a remote device |
US10691332B2 (en) | 2014-02-28 | 2020-06-23 | Samsung Electronics Company, Ltd. | Text input on an interactive display |
EP3678309A1 (en) * | 2009-07-17 | 2020-07-08 | QUALCOMM Incorporated | Automatic interfacing between a master device and object device |
US11157436B2 (en) | 2012-11-20 | 2021-10-26 | Samsung Electronics Company, Ltd. | Services associated with wearable electronic device |
US11237719B2 (en) | 2012-11-20 | 2022-02-01 | Samsung Electronics Company, Ltd. | Controlling remote electronic device with wearable electronic device |
JP2022516793A (en) * | 2019-01-10 | 2022-03-02 | ディスティ,エルエルシー | Criticality mixed user interface development system |
US11372536B2 (en) | 2012-11-20 | 2022-06-28 | Samsung Electronics Company, Ltd. | Transition and interaction model for wearable electronic device |
US11561665B2 (en) | 2017-04-21 | 2023-01-24 | Panasonic Intellectual Property Management Co., Ltd. | Display method, recording medium, and display system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003092787A (en) * | 2001-09-18 | 2003-03-28 | Ntt Software Corp | Remote control device and remote controller |
JP2005513941A (en) * | 2001-12-28 | 2005-05-12 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Universal remote control device with automatic instrument identification and programming |
JP2005277664A (en) * | 2004-03-24 | 2005-10-06 | Alpine Electronics Inc | Electronic equipment controller |
-
2005
- 2005-10-18 JP JP2005303243A patent/JP4676303B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003092787A (en) * | 2001-09-18 | 2003-03-28 | Ntt Software Corp | Remote control device and remote controller |
JP2005513941A (en) * | 2001-12-28 | 2005-05-12 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Universal remote control device with automatic instrument identification and programming |
JP2005277664A (en) * | 2004-03-24 | 2005-10-06 | Alpine Electronics Inc | Electronic equipment controller |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8726175B2 (en) | 2008-02-27 | 2014-05-13 | Kyocera Corporation | User interface generation apparatus |
JP5200095B2 (en) * | 2008-02-27 | 2013-05-15 | 京セラ株式会社 | User interface generation device |
JP2010130691A (en) * | 2008-12-01 | 2010-06-10 | Korea Electronics Telecommun | Digital content providing apparatus and user terminal discriminating method for discriminating user terminal through acquisition of video data |
US8428370B2 (en) | 2008-12-01 | 2013-04-23 | Electronics And Telecommunications Research Institute | Apparatus for providing digital contents and method thereof |
JP2010204730A (en) * | 2009-02-27 | 2010-09-16 | Seiko Epson Corp | System of controlling device in response to gesture |
JP2012521685A (en) * | 2009-03-26 | 2012-09-13 | エックスペッド ホールディングス ピーティワイ リミテッド | Configuration for managing wireless communication between devices |
EP3678309A1 (en) * | 2009-07-17 | 2020-07-08 | QUALCOMM Incorporated | Automatic interfacing between a master device and object device |
EP2528351A1 (en) * | 2010-01-18 | 2012-11-28 | Nec Corporation | Information terminal device, control method using an information terminal device, and program |
EP2528351A4 (en) * | 2010-01-18 | 2013-05-22 | Nec Corp | Information terminal device, control method using an information terminal device, and program |
JP2011203808A (en) * | 2010-03-24 | 2011-10-13 | Panasonic Corp | Mobile information terminal |
EP2372495A3 (en) * | 2010-03-29 | 2015-11-25 | Sony Corporation | Remote control of a target device using a camera and a display |
CN102398600A (en) * | 2010-09-13 | 2012-04-04 | 现代自动车株式会社 | System for controlling in-vehicle device using augmented reality and method thereof |
JP2012059242A (en) * | 2010-09-13 | 2012-03-22 | Hyundai Motor Co Ltd | In-vehicle device control system utilizing augmented reality, and method thereof |
CN102398600B (en) * | 2010-09-13 | 2016-06-08 | 现代自动车株式会社 | Augmented reality is used to control system and the method thereof of in-vehicle apparatus |
JP2012249104A (en) * | 2011-05-27 | 2012-12-13 | Kyocera Corp | Remote operation device, remote control system, control program, and storage medium |
US9257035B2 (en) | 2011-05-27 | 2016-02-09 | Kyocera Corporation | Remote control device, remote control system, and storage medium storing control program, and medium to be attached to electrical device |
JP2013106198A (en) * | 2011-11-14 | 2013-05-30 | Toshiba Corp | Apparatus controller, method for the same, and program |
JP2013114466A (en) * | 2011-11-29 | 2013-06-10 | Nikon Corp | Display system, display method and program |
JP2013250849A (en) * | 2012-06-01 | 2013-12-12 | Konica Minolta Inc | Guidance display system, guidance display device, guidance display method, and guidance display program |
US10423214B2 (en) | 2012-11-20 | 2019-09-24 | Samsung Electronics Company, Ltd | Delegating processing from wearable electronic device |
US11157436B2 (en) | 2012-11-20 | 2021-10-26 | Samsung Electronics Company, Ltd. | Services associated with wearable electronic device |
US11372536B2 (en) | 2012-11-20 | 2022-06-28 | Samsung Electronics Company, Ltd. | Transition and interaction model for wearable electronic device |
US10185416B2 (en) | 2012-11-20 | 2019-01-22 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving movement of device |
US10194060B2 (en) | 2012-11-20 | 2019-01-29 | Samsung Electronics Company, Ltd. | Wearable electronic device |
US11237719B2 (en) | 2012-11-20 | 2022-02-01 | Samsung Electronics Company, Ltd. | Controlling remote electronic device with wearable electronic device |
US10551928B2 (en) | 2012-11-20 | 2020-02-04 | Samsung Electronics Company, Ltd. | GUI transitions on wearable electronic device |
JP2014102843A (en) * | 2012-11-20 | 2014-06-05 | Samsung Electronics Co Ltd | Wearable electronic device |
EP2804164A1 (en) * | 2013-05-14 | 2014-11-19 | Siemens Aktiengesellschaft | Method for control device and control device with recognition of environment and RFID sensor |
US10691332B2 (en) | 2014-02-28 | 2020-06-23 | Samsung Electronics Company, Ltd. | Text input on an interactive display |
JP2015230496A (en) * | 2014-06-03 | 2015-12-21 | シャープ株式会社 | Electronic equipment |
JP2016207048A (en) * | 2015-04-25 | 2016-12-08 | 京セラドキュメントソリューションズ株式会社 | Augmented reality operation system and augmented reality operation program |
JP2020512620A (en) * | 2017-02-28 | 2020-04-23 | ラッサム、アンマー | Method and apparatus for adaptively interacting with a remote device |
US11561665B2 (en) | 2017-04-21 | 2023-01-24 | Panasonic Intellectual Property Management Co., Ltd. | Display method, recording medium, and display system |
JP2022516793A (en) * | 2019-01-10 | 2022-03-02 | ディスティ,エルエルシー | Criticality mixed user interface development system |
Also Published As
Publication number | Publication date |
---|---|
JP4676303B2 (en) | 2011-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4676303B2 (en) | Terminal device | |
JP6893606B2 (en) | Image tagging methods, devices and electronics | |
CN103176690B (en) | Display control apparatus, display control method and program | |
KR101432177B1 (en) | Portable device and method for processing the photography the same, and photography processing system having it | |
EP3557406A2 (en) | Device and method for performing functions | |
US20170364239A1 (en) | Application icon customization | |
WO2011086956A1 (en) | Information terminal device, control method using an information terminal device, and program | |
CN109167871A (en) | For managing the user interface of controllable external equipment | |
CN108616712B (en) | Camera-based interface operation method, device, equipment and storage medium | |
JP2007116270A5 (en) | ||
JP2013105454A5 (en) | ||
CN108345907A (en) | Recognition methods, augmented reality equipment and storage medium | |
CN109068161A (en) | A kind of equipment connection method for building up and device | |
JP2005065118A (en) | Mobile terminal with remote control function and remote control server | |
CN104378674B (en) | Establish the method and system of the communication connection between intelligent handhold device and smart television | |
JP5489974B2 (en) | Server, remote assist system and method | |
US9652128B2 (en) | Method and apparatus for controlling electronic device | |
CN208061136U (en) | A kind of gesture identification terminal | |
JP2004030284A (en) | Seamless pointing system | |
US9692918B2 (en) | Device control system and device control method for managing remote conference | |
JP5266416B1 (en) | Test system and test program | |
JP5984704B2 (en) | Tablet monitoring terminal | |
US20190096130A1 (en) | Virtual mobile terminal implementing system in mixed reality and control method thereof | |
JP2014068206A (en) | Information processing terminal, information processing method, and device control system | |
KR20110004203A (en) | Apparatus for controlling remote device and method for providing user interface thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080709 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101021 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110118 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110127 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140204 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |