JP2007116270A - Terminal and apparatus control system - Google Patents

Terminal and apparatus control system Download PDF

Info

Publication number
JP2007116270A
JP2007116270A JP2005303243A JP2005303243A JP2007116270A JP 2007116270 A JP2007116270 A JP 2007116270A JP 2005303243 A JP2005303243 A JP 2005303243A JP 2005303243 A JP2005303243 A JP 2005303243A JP 2007116270 A JP2007116270 A JP 2007116270A
Authority
JP
Japan
Prior art keywords
image
terminal device
user interface
information
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005303243A
Other languages
Japanese (ja)
Other versions
JP2007116270A5 (en
JP4676303B2 (en
Inventor
Kyoichi Nakakuma
恭一 中熊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005303243A priority Critical patent/JP4676303B2/en
Publication of JP2007116270A publication Critical patent/JP2007116270A/en
Publication of JP2007116270A5 publication Critical patent/JP2007116270A5/ja
Application granted granted Critical
Publication of JP4676303B2 publication Critical patent/JP4676303B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]

Abstract

<P>PROBLEM TO BE SOLVED: To implement a user-friendly structure for selecting an apparatus to be remotely controlled by a terminal and creating and operating a user interface fitted to the apparatus. <P>SOLUTION: The terminal comprises a means for picking up an image, a means for holding the information representing the features of an apparatus, an image comparison means for determining whether the apparatus feature information is included in the image picked up or not, a means for selecting an apparatus to be operated, a means for acquiring a script describing the operation of the apparatus, a means for creating a user interface according to the script, a display control means for displaying the user interface on a display means, a means through which an operator inputs operational information by utilizing the user interface, and a communication means for communicating with the apparatus to be operated and transmitting control information to the apparatus. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、通信により機器の制御を行う端末装置及び機器制御システムに係り、特に、携帯電話機などの端末装置に汎用リモコンの機能を持たせて、不特定の機器を制御できるようにした技術に関する。   The present invention relates to a terminal device and a device control system for controlling a device by communication, and more particularly to a technique for controlling an unspecified device by giving a terminal device such as a mobile phone a function of a general-purpose remote controller. .

近年、家庭内における情報化が進展し、ネットワーク・インターネット関連技術が普及してきた。これに伴い、家庭内において取り扱う情報は質・量共に増加し、情報を取り扱う情報家電においても、簡単な操作で情報を閲覧したり機器を操作したりするユーザーニーズが増加している。   In recent years, computerization in the home has progressed, and network / Internet related technologies have become widespread. Along with this, the information handled in the home has increased in both quality and quantity, and even in information home appliances that handle information, user needs for browsing information and operating devices with simple operations are increasing.

ところが、家庭内で取り扱う情報の増加に伴い、家庭内の情報家電機器(以下、機器と記す)は増加し続け、これら機器の操作方法として一般的な赤外線リモコンも、機器の増加に比例して増えている。つまり、家庭内に多数の赤外線リモコンがあふれかえる結果となり、それが逆にユーザの使い勝手を低下させる問題となってきている。   However, with the increase in information handled at home, household information home appliances (hereinafter referred to as “devices”) continue to increase, and the general infrared remote control method for operating these devices is also proportional to the increase in devices. is increasing. In other words, a large number of infrared remote controllers are flooded in the home, which in turn has become a problem of reducing user convenience.

この問題を解決するための方法として、特許文献1のような技術を用いることにより、ユニバーサルコントローラと呼ばれる汎用のリモコンを、ネットワークに対応した形で実現することが可能となり、赤外線が届かない位置にある機器もリモコン操作することが可能となる。
特開2002−232978号公報
As a method for solving this problem, it is possible to realize a general-purpose remote controller called a universal controller in a form corresponding to a network by using a technique such as Patent Document 1, and a position where infrared rays do not reach. Certain devices can also be operated by remote control.
JP 2002-232978 A

上記した特許文献1に記載の技術によれば、汎用リモコンを、ネットワークに対応した形で実現可能である。しかし、これを実現するためには、対象となる機器の識別子をあらかじめリモコンに登録しておく必要があり、対象とする機器が新たに追加された場合には、ユーザが識別子を登録するといった手間が発生することになる。   According to the technique described in Patent Document 1 described above, a general-purpose remote controller can be realized in a form corresponding to a network. However, in order to realize this, it is necessary to register the identifier of the target device in the remote controller in advance, and when the target device is newly added, the user has to register the identifier. Will occur.

本発明の目的は、機器を端末装置によるリモコン操作の対象として選ぶ仕組み、および、機器にあったユーザインターフェースを生成して操作可能とする仕組みを、操作者(ユーザ)に負担を掛けることなく実現できるようにすることにある。   An object of the present invention is to realize a mechanism for selecting a device as a target for remote control operation by a terminal device and a mechanism for generating and operating a user interface suitable for the device without burdening an operator (user). There is to be able to do it.

本願による端末装置の代表的な1つの発明では、画像を撮影する撮像手段と、機器の特徴を表現する機器特徴情報を保持する機器特徴情報保持手段と、撮影した画像に前記機器特徴情報が含まれているか否かを判断する画像比較手段と、操作対象となる機器を選択する機器選択手段と、機器の操作を記述するスクリプトをデータベースまたは機器から取得するスクリプト取得手段と、前記スクリプトに従いユーザインタフェース(ユーザインタフェースイメージ)を生成するユーザインタフェース生成手段と、前記ユーザインタフェースを表示手段に表示する表示制御手段と、前記ユーザインタフェースを利用して操作者が操作情報を入力する入力手段と、前記操作情報を前記スクリプトに従い変換して制御情報を生成する制御情報生成手段と、操作対象となる機器と通信して前記制御情報を機器に送信する通信手段とを、備える。   In one representative invention of the terminal device according to the present application, an image capturing unit that captures an image, a device feature information retaining unit that retains device feature information that expresses a feature of the device, and the device feature information is included in the captured image. Image comparison means for determining whether or not the device is selected, device selection means for selecting a device to be operated, script acquisition means for acquiring a script describing the operation of the device from a database or device, and a user interface according to the script (User interface image) generating user interface, display control means for displaying the user interface on the display means, input means for the operator to input operation information using the user interface, the operation information Information generation means for converting control information according to the script and generating control information And a communication means for communicating with the device to be operated to transmit the control information to the device comprises.

本発明によれば、機器を端末装置によるリモコン操作の対象として選ぶ仕組み、および、機器にあったユーザインターフェースを生成して操作可能とする仕組みを、操作者(ユーザ)に負担を掛けることなく実現できる。   According to the present invention, a mechanism for selecting a device as a target for remote control operation by a terminal device and a mechanism for generating and operating a user interface suitable for the device are realized without burdening the operator (user). it can.

以下、本発明の実施の形態を図面を用いて説明する。図1は、本発明の一実施形態(以下、本実施形態と記す)に係る端末装置とそれを含んで構成される機器制御システムの構成を示すブロックである。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a terminal device according to an embodiment of the present invention (hereinafter referred to as the present embodiment) and a device control system including the terminal device.

機器制御システムは、端末装置1と、1台以上の機器5と、機器情報データベース7とを含んで構成される。端末装置1は、撮像手段としてのカメラ4と、表示手段としての表示装置2と、入力手段としてのタッチパネル装置3とを備え、表示装置2とタッチパネル装置3は、ディスプレイを兼ねる入力デバイスであるタッチ表示パネル装置により構成されている。この端末装置1としては、ここでは例えば携帯電話機を想定している。機器5は、エアコンや冷蔵庫などといった家庭内で使用する家電機器、あるいは、パソコンやレコーダ装置などといった情報を取り扱う情報機器であり、通信(無線通信、あるいは場合によっては有線での通信)により機器の遠隔操作を行うことができる情報家電機器となっている。機器情報データベース7は、機器5の情報を格納するデータベース装置であり、この機器情報データベース7は、無線あるいは有線で端末装置1と通信を行うデータベース、または、端末装置1の内部に内蔵されるタイプのデータベースのいずれであってもよく、要は、機器5に関する情報である後記する機器情報210を格納し、端末装置1が自由に利用できる仕組みを持つデータベースであればよい。なお、6は生体であり、ここでは、端末装置1を操作する操作者の手指を想定している。   The device control system includes a terminal device 1, one or more devices 5, and a device information database 7. The terminal device 1 includes a camera 4 as an imaging unit, a display device 2 as a display unit, and a touch panel device 3 as an input unit. The display device 2 and the touch panel device 3 are touch devices that are also input devices. It is comprised by the display panel apparatus. For example, a mobile phone is assumed as the terminal device 1. The device 5 is a home appliance used in the home such as an air conditioner or a refrigerator, or an information device that handles information such as a personal computer or a recorder device. The device 5 is communicated (wireless communication or, in some cases, wired communication). It is an information home appliance that can be operated remotely. The device information database 7 is a database device that stores information on the device 5. The device information database 7 is a database that communicates with the terminal device 1 wirelessly or by wire, or a type that is built in the terminal device 1. In short, any database may be used as long as it stores device information 210 to be described later, which is information related to the device 5, and has a mechanism that the terminal device 1 can freely use. Reference numeral 6 denotes a living body, and here, the finger of an operator who operates the terminal device 1 is assumed.

端末装置1内には、撮像制御手段100、画像比較手段101、機器特徴情報保持手段102、機器選択手段103、生体判断手段104、ユーザインタフェース生成手段105、スクリプト取得手段106、通信手段107、画像分離手段108、表示制御手段109、制御情報生成手段110、制御手段111、入力受付・解釈手段112、座標情報比較手段113、位置関係検出手段114などが備えられている。そして、これらの各手段の大部分は、端末装置1に内蔵されたCPU、ROM、RAM、各種I/Fといったハードウェア資源と、予め用意された各種プログラムとによって、具現化されるようになっている。   In the terminal device 1, the imaging control unit 100, the image comparison unit 101, the device feature information holding unit 102, the device selection unit 103, the biological determination unit 104, the user interface generation unit 105, the script acquisition unit 106, the communication unit 107, an image Separation means 108, display control means 109, control information generation means 110, control means 111, input reception / interpretation means 112, coordinate information comparison means 113, positional relationship detection means 114, and the like are provided. Most of these means are realized by hardware resources such as CPU, ROM, RAM, and various I / Fs built in the terminal device 1 and various programs prepared in advance. ing.

撮像制御手段100は、カメラ4の動作を制御し、また、カメラ4が撮影した被写体(ここでは機器5や生体6)の画像を必要に応じて適宜に処理して一時記憶し、カメラ4で撮影した画像を、画像比較手段101、生体判断手段104、位置関係検出手段114に手渡す。機器特徴情報保持手段102は、機器の特徴を表現する後記する機器特徴情報230を保持する。画像比較手段101は、カメラ4で撮影した画像と、機器特徴情報保持手段102の保持する機器特徴情報230とを画像比較して、操作対象となる機器5であるか否かを判断する。機器選択手段103は、画像比較手段101において操作対象となる機器5があると判定された場合に、画像比較手段101からの出力と機器特徴情報保持手段102の保持する機器特徴情報230とを参照して、操作対象となる機器5の識別を行い、この識別した機器5を、通信手段107による通信相手として選択したり、端末装置1によるリモコン操作の対象として選択する機能をもつ。また、機器選択手段103は、通信手段107が機器5が具備する無線タグ(無線ICタグ)と交信して、無線タグ識別子を取得した場合には、無線タグ識別子から機器5の識別を行い、この識別した機器5を、通信相手として選択したり、端末装置1によるリモコン操作の対象として選択する機能をもつ。   The imaging control unit 100 controls the operation of the camera 4, and appropriately processes and temporarily stores an image of the subject (here, the device 5 and the living body 6) captured by the camera 4 as necessary. The captured image is handed to the image comparison unit 101, the living body determination unit 104, and the positional relationship detection unit 114. The device feature information holding unit 102 holds device feature information 230, which will be described later, representing the features of the device. The image comparison unit 101 compares the image captured by the camera 4 with the device feature information 230 held by the device feature information holding unit 102 and determines whether the device 5 is the operation target. The device selection unit 103 refers to the output from the image comparison unit 101 and the device feature information 230 held by the device feature information holding unit 102 when the image comparison unit 101 determines that there is a device 5 to be operated. Then, the device 5 to be operated is identified, and the identified device 5 is selected as a communication partner by the communication unit 107 or selected as a remote control operation target by the terminal device 1. In addition, when the communication unit 107 communicates with the wireless tag (wireless IC tag) included in the device 5 and acquires the wireless tag identifier, the device selection unit 103 identifies the device 5 from the wireless tag identifier. This identified device 5 has a function of selecting it as a communication partner or selecting it as an object of remote control operation by the terminal device 1.

生体判断手段104は、カメラ4で撮影した画像中に生体6の部分(ここでは、端末装置1を操作する操作者の手指)が撮影されているか否かを、つまり、端末装置1のカメラ4の前に(カメラ4の撮影視野の中に)操作者の手指がかざされているか否かを判断する。本実施形態では、カメラ4は可視光による画像撮影を行うものとなっており、生体判断手段104による判断処理は、肌色抽出、輪郭抽出、特徴抽出などの適宜の画像処理と、判定処理とを組み合わせることによって行われる。なお、カメラ4として、可視光による画像撮影と赤外光による画像撮影とを行う機能を備えたものを用いてもよく、この場合には、赤外光による画像撮影での画像から、人間の体温の存在箇所があるかどうかで、カメラ4で撮影した画像中に生体6の部分が撮影されているか否かを判断すればよい。画像分離手段108は、カメラ4で撮影した画像に生体の部分が含まれている場合に、カメラ4で撮影した画像(可視光による画像撮影での画像)から、生体6の部分の画像(生体部分画像)と、それ以外の部分の画像(非生体部分画像)とに分離する。画像分離手段108は、肌色抽出、輪郭抽出、特徴抽出などの適宜の画像処理により生体6の手指の部分領域を特定して、この特定した生体6の手指の部分領域を抽出することで、生体部分画像と非生体部分画像とに分離する。位置関係検出手段114は、カメラ4で撮影した画像と最新の生体部分画像とを用いて、端末装置1の操作者の指先と、端末装置1との位置関係を検出する。つまり、位置関係検出手段114は、カメラ4の撮影画角の中で指先がどの座標位置にあるのかを検出する。   The living body determination unit 104 determines whether or not the portion of the living body 6 (here, the finger of the operator who operates the terminal device 1) is captured in the image captured by the camera 4, that is, the camera 4 of the terminal device 1. It is determined whether or not the operator's fingers are held over (in the field of view of the camera 4). In this embodiment, the camera 4 captures an image by visible light, and the determination processing by the living body determination unit 104 includes appropriate image processing such as skin color extraction, contour extraction, feature extraction, and determination processing. Done by combining. Note that the camera 4 may have a function of performing image capturing with visible light and image capturing with infrared light. In this case, a human image is captured from an image captured with infrared light. What is necessary is just to judge whether the part of the biological body 6 is image | photographed in the image image | photographed with the camera 4 with the presence location of body temperature. The image separation means 108, when an image taken by the camera 4 includes a living body part, from an image taken by the camera 4 (image taken by visible light imaging), an image of the living body 6 (living body). The image is separated into a partial image) and an image of the other portion (non-biological partial image). The image separation means 108 identifies the finger partial area of the living body 6 by appropriate image processing such as skin color extraction, contour extraction, feature extraction, and the like, and extracts the identified partial area of the finger of the living body 6. Separated into a partial image and a non-biological partial image. The positional relationship detection unit 114 detects the positional relationship between the fingertip of the operator of the terminal device 1 and the terminal device 1 using the image taken by the camera 4 and the latest living body partial image. That is, the positional relationship detection means 114 detects the coordinate position of the fingertip in the shooting angle of view of the camera 4.

通信手段107は、選択された機器5と通信を行い、機器5から後記する機器情報210を受信したり、機器5に対して制御情報を送信する。また、通信手段107は、機器情報データベース7とも通信を行い、後記する機器情報210を授受する。なお、機器情報データベース7が例えばUSBにより接続されるICメモリやHDDである場合には、通信手段107はUSB規格のインターフェースを通じて、機器情報データベース7と通信(情報の授受)をする。スクリプト取得手段106は、機器5や機器情報データベース7から取得した後記する機器情報210から後記するスクリプト300を取得して、これを保持する。機器特徴情報保持手段102は、取得した後記する機器情報210から後記する機器特徴情報230を取得して、これを保持する。   The communication unit 107 communicates with the selected device 5, receives device information 210 to be described later from the device 5, and transmits control information to the device 5. The communication means 107 also communicates with the device information database 7 and exchanges device information 210 to be described later. When the device information database 7 is, for example, an IC memory or HDD connected by USB, the communication unit 107 communicates (information exchange) with the device information database 7 through a USB standard interface. The script acquisition unit 106 acquires a script 300 to be described later from the device information 210 to be described later acquired from the device 5 and the device information database 7, and holds this. The device feature information holding unit 102 acquires device feature information 230 to be described later from the acquired device information 210 to be described later, and holds this.

ユーザインタフェース生成手段105は、スクリプト取得手段106から手渡された後記するスクリプト300を解釈して、ユーザインタフェース(ユーザインタフェースイメージ)を生成する。表示制御手段109は、表示装置2上に表示させる各種画像データの生成処理を行うもので、下から順に、非生体部分画像、ユーザインタフェース、生体部分画像を重畳させた画像を表示装置2上に表示させたり、下から順に、ユーザインタフェース、生体部分画像を重畳させた画像を表示装置2上に表示させたりなどする機能をもつ。   The user interface generation unit 105 interprets a later-described script 300 handed over from the script acquisition unit 106 and generates a user interface (user interface image). The display control means 109 performs processing for generating various image data to be displayed on the display device 2, and sequentially displays the non-biological partial image, the user interface, and the biological partial image on the display device 2 from the bottom. It has a function of displaying on the display device 2 or displaying an image on which a living body partial image is superimposed in order from the bottom.

入力受付・解釈手段112は、タッチパネル装置3に操作者の指が触れた場合に、その触れた座標位置を取得して、透明なタッチパネル装置3の下側の表示装置2に表示されたユーザインタフェース中のアイコンがタッチされたと判断すると、そのアイコンに応じたユーザによる操作情報を解釈して、操作情報を制御情報生成手段110に手渡す。座標情報比較手段113は、位置関係検出手段114からの指先の座標情報と、表示制御手段109からの表示指先の座標情報とを参照して、表示装置2に表示されたユーザインタフェース上に重畳表示された指先の動き・位置に応じて、操作者により操作情報が入力されたか否かを判断して、つまり、操作者が入力装置3に直接触れることなく操作情報の入力操作を行ったか否かを判断して(表示されたユーザインタフェース中のアイコンに仮想的に触れたか否かを判定して)、仮想的にアイコンがタッチされたと判断すると、そのアイコンに応じたユーザによる操作情報を解釈して、操作情報を制御情報生成手段110に手渡す。   When the operator's finger touches the touch panel device 3, the input reception / interpretation unit 112 acquires the touched coordinate position and displays the user interface displayed on the display device 2 below the transparent touch panel device 3. When it is determined that the icon inside is touched, the operation information by the user corresponding to the icon is interpreted, and the operation information is handed to the control information generation unit 110. The coordinate information comparison unit 113 refers to the coordinate information of the fingertip from the positional relationship detection unit 114 and the coordinate information of the display fingertip from the display control unit 109, and displays the superimposed information on the user interface displayed on the display device 2. It is determined whether or not operation information has been input by the operator according to the fingertip movement / position, that is, whether or not the operator has performed an operation information input operation without directly touching the input device 3. (Determining whether or not the icon in the displayed user interface is virtually touched), and if it is determined that the icon is virtually touched, the operation information by the user corresponding to the icon is interpreted. Then, the operation information is handed over to the control information generation means 110.

制御情報生成手段110は、入力された操作情報と、スクリプト取得手段106のもつ後記するスクリプト300とから、機器5を制御するための制御情報を生成する。生成された制御情報は、制御手段111を通じて通信手段107に渡され、制御手段111の制御の下に、通信手段107から機器5に送信される。なお、制御手段111は、端末装置1全体を統括制御するもので、制御手段111の制御の下に各部が動作する。   The control information generation unit 110 generates control information for controlling the device 5 from the input operation information and a script 300 described later of the script acquisition unit 106. The generated control information is transferred to the communication unit 107 through the control unit 111, and is transmitted from the communication unit 107 to the device 5 under the control of the control unit 111. Note that the control unit 111 performs overall control of the entire terminal device 1, and each unit operates under the control of the control unit 111.

次に、機器情報管理テーブル200について、図2を用いて説明する。機器情報管理テーブル200は、機器情報データベース7が保持し、1または複数の機器情報210から構成されるデータ格納テーブルである。機器情報210は、機器情報210を一意に識別するための機器識別子220と、機器のユーザインタフェース及び制御情報を記述するスクリプト300と、機器の特徴を記述する機種特徴情報230とから構成される。   Next, the device information management table 200 will be described with reference to FIG. The device information management table 200 is a data storage table that is held by the device information database 7 and includes one or more pieces of device information 210. The device information 210 includes a device identifier 220 for uniquely identifying the device information 210, a script 300 that describes the user interface and control information of the device, and model feature information 230 that describes the features of the device.

機器識別子220は、機器1つ1つにつきユニークな値を持つ識別子であり、1つの機器識別子220は、例えば、TCP/IP(Transmission Contorol Protocol/Internet Protocol)プロトコルにおけるIPアドレスや、MAC(Media Access Control)アドレスのような唯一ある特定の機器を指定する値である。通信手段107は、この機器識別子220に示された値を用いて、その特定の機器と通信することが可能である。   The device identifier 220 is an identifier having a unique value for each device, and one device identifier 220 is, for example, an IP address in a TCP / IP (Transmission Control Protocol / Internet Protocol) protocol or a MAC (Media Access). Control) A value that designates a specific device such as an address. The communication unit 107 can communicate with the specific device using the value indicated by the device identifier 220.

スクリプト300は、機器のユーザインタフェース及び制御情報を記述するテキストベースの情報であり、このスクリプト300の構成については後述する。これを用いることにより、端末装置1は機器5を制御するためのユーザインタフェースを構築したり、また、機器5を制御するための制御情報を生成することが可能である。   The script 300 is text-based information describing the user interface and control information of the device, and the configuration of the script 300 will be described later. By using this, the terminal device 1 can construct a user interface for controlling the device 5 and generate control information for controlling the device 5.

機器特徴情報230は、機器5が持つ無線タグの識別子である無線タグ識別ID240と、機器5のフロントパネルを撮影したイメージである前面イメージ231と、機器5の側面を撮影したイメージである側面イメージ232と、機器5の名前をテキストベースで保持する機種名233と、機器5のスイッチがどこに配置されているかを示すスイッチ配置位置234と、機器5の表示装置の取り付け位置を示す表示装置位置235と、機器5がスタンバイ状態になったときに機器5の表示部に表示されるイメージである待ち受け表示イメージ(初期表示イメージ)236とから構成される。   The device characteristic information 230 includes a wireless tag identification ID 240 that is an identifier of the wireless tag of the device 5, a front image 231 that is an image of the front panel of the device 5, and a side image that is an image of the side of the device 5. 232, a model name 233 that holds the name of the device 5 in a text base, a switch placement position 234 that indicates where the switch of the device 5 is placed, and a display device position 235 that indicates the mounting position of the display device of the device 5 And a standby display image (initial display image) 236 that is an image displayed on the display unit of the device 5 when the device 5 enters the standby state.

次に、スクリプト300について、図3を用いて説明する。スクリプト300は、機器のユーザインタフェース及び制御情報を記述するテキストベースの情報であり、その構成を解釈することにより、機器5のユーザインタフェースをどう構築したらよいかを指示する、あるいは、機器5をどのように制御したらよいかを指示する情報であり、例えば、HTML(Hypertext Marcup Language)、XML(Extensive Marcup Language)、RSS(RDF Site Summary or Rich Site Summary or Really Simple Syndication)、GML(Standard Generalized Marcup Language)といった、テキストベースのマークアップ言語により記述することができる。図3においては、スクリプト300の1例を、XMLを用いて表現して説明する。   Next, the script 300 will be described with reference to FIG. The script 300 is text-based information describing the user interface and control information of the device. The script 300 indicates how to construct the user interface of the device 5 by interpreting the configuration, or which device 5 Information indicating how to control, for example, HTML (Hypertext Marcup Language), XML (Extensive Marcup Language), RSS (RDF Site Summary or Rich Site Summary or Really Simple Syndication), GML (Standard Generalized Marcup Language) ) In a text-based markup language. In FIG. 3, an example of the script 300 will be described using XML.

スクリプト300は、ユーザインタフェース310と、レイヤー1(320)と、機能1(330)と、機能2(331)とから構成される。なお、スクリプト300には、上記ユーザインタフェース310、レイヤー1(320)、機能1(330)、機能2(331)が、1つ以上複数個含まれていてもよい。   The script 300 includes a user interface 310, a layer 1 (320), a function 1 (330), and a function 2 (331). The script 300 may include one or more of the user interface 310, layer 1 (320), function 1 (330), and function 2 (331).

ユーザインタフェース310は、複数のレイヤー(311、312)で構成される。レイヤー311は、<レイヤー1 event=待ち受け/>と記述され、これはイベント“待ち受け”が発生した際には、“レイヤー1”つまりレイヤー1(320)に記載されたユーザインタフェースを実施することを意味する。レイヤー312は、<レイヤー2 event=起動状態/>と記述され、これはイベント“起動状態”が発生した際には、“レイヤー2”に記載されたユーザインタフェースを実施することを意味する。イベント“待ち受け”は、例えば、機器5に電源が供給されているも、ユーザが電源ボタンを押下する前の停止状態のことを示し、イベント“起動状態”は、ユーザが例えば電源ボタンを押下して機器5を立ち上げた直後の状態を意味する。すなわち、機器5がどのような状態にあるかを通信手段107を用いて機器5から取得し、それに応じて端末装置1のユーザインタフェースを変更することが可能となる。   The user interface 310 includes a plurality of layers (311 and 312). The layer 311 is described as <layer 1 event = standby />. When the event “wait” occurs, the user interface described in “layer 1”, that is, the layer 1 (320) is executed. means. The layer 312 is described as <layer 2 event = activated state>, which means that when the event “activated state” occurs, the user interface described in “layer 2” is executed. The event “standby” indicates, for example, a stop state before the user presses the power button even when power is supplied to the device 5, and the event “activated state” indicates that the user presses the power button, for example. This means a state immediately after the device 5 is started up. That is, it is possible to acquire the state of the device 5 from the device 5 using the communication unit 107 and change the user interface of the terminal device 1 accordingly.

レイヤー1(320)は、イメージ表示(321)とイメージ表示(322)と機能2(323)とから構成される。イメージ表示321は、<イメージ表示 x=10 y=20 res=背景.jpg/>と記述される。これは、レイヤー1(320)を実施した際に、resに指定した画像、つまり、ここでは“背景.jpg”というイメージファイルを取得し、表示装置2の座標(x、y)=(10,20)の位置に“イメージ表示”する、という動作を実施する。“イメージ表示”は、端末装置1のユーザインタフェースが独自に設ける制御文字列であり、イメージあるいは画像を表示装置2に表示するための文字列であれば、どのようなものであってもよい。   The layer 1 (320) includes an image display (321), an image display (322), and a function 2 (323). The image display 321 is described as <image display x = 10 y = 20 res = background.jpg />. This is because when layer 1 (320) is executed, an image designated as res, that is, an image file “background.jpg” is acquired here, and coordinates (x, y) = (10, The operation of “image display” at the position 20) is performed. “Image display” is a control character string uniquely provided by the user interface of the terminal device 1 and may be any character string for displaying an image or an image on the display device 2.

イメージ表示322は、<イメージ表示 x=30 y=40 res=スイッチ.jpg target=機能1/>と記述される。これは、レイヤー1(320)を実施した際に、resに指定した画像、つまり、ここでは“スイッチ.jpg”というイメージファイルを取得し、表示装置2の座標(x、y)=(30,40)の位置に“イメージ表示”する、という動作を実施する。加えて、この画像にハイパーリンクとして“機能1”の割付けを実施する。これは、ユーザが入力装置を用いてこの“スイッチ.jpg”を選択した場合、“機能1”に相当するスクリプトを実施する、という意味を表す。   The image display 322 is described as <image display x = 30 y = 40 res = switch.jpg target = function 1 />. This is because when layer 1 (320) is executed, an image designated as res, that is, an image file “switch.jpg” is acquired here, and coordinates (x, y) = (30, The operation of “image display” is performed at the position 40). In addition, “function 1” is assigned as a hyperlink to this image. This means that when the user selects this “switch.jpg” using the input device, a script corresponding to “function 1” is executed.

機能1(330)は、<機能1 device=機器1 command=制御コマンド1 status=起動状態/>と記述される。これは、前述の“機能1”というスクリプトをどのように実施するかを記載した情報であり、“機器1”に対し“制御コマンド1”という文字列を送出したのち、機器5の状態を“起動状態”とする、という意味を示す。ここで、“制御コマンド1”とは、前述の制御情報のことであり、“機器1”すなわち機器5に対し送出する制御情報である。機能2(331)は、<機能2 device=機器1 command=制御コマンド2 status=待ち受け状態/>と記述される。これは、“機器1”に対し“制御コマンド2”という文字列を送出したのち、機器5の状態を“待ち受け状態”とする、という意味を示す。ここで、“制御コマンド2”とは、前述の制御情報のことであり、“機器1”すなわち機器5に対し送出する制御情報である。   Function 1 (330) is described as <function 1 device = device 1 command = control command 1 status = activated state />. This is information describing how to execute the script “Function 1” described above. After sending the character string “Control Command 1” to “Device 1”, the status of the device 5 is changed to “ This means “starting state”. Here, “control command 1” refers to the control information described above, and is control information transmitted to “device 1”, that is, device 5. Function 2 (331) is described as <function 2 device = device 1 command = control command 2 status = standby state />. This means that after the character string “control command 2” is sent to “device 1”, the state of device 5 is set to “standby state”. Here, “control command 2” refers to the control information described above, and is control information transmitted to “device 1”, that is, device 5.

以上のようなスクリプト300を用いて、ユーザインタフェースを構築したり、機器に対する制御コマンドの送出方法を記述することができる。   Using the script 300 as described above, a user interface can be constructed and a method for sending a control command to a device can be described.

次に、本実施形態において、端末装置1に撮影された機器5をリモコン操作の対象に選び、機器5に適合するユーザインターフェースを生成して、機器5をリモコン操作する動作について、図4に示すフローチャートを用いて説明する。   Next, in this embodiment, an operation of selecting the device 5 photographed by the terminal device 1 as a target for remote control operation, generating a user interface suitable for the device 5 and operating the device 5 by remote control is shown in FIG. This will be described with reference to a flowchart.

まず、通信手段107を用いて機器5に無線タグ(無線ICタグ)が付加されているか否かを判断するために、無線タグ識別子を取得し(ステップ1001)、もし機器5に無線タグがあるならば(ステップ1002で有りならば)、通信手段107により機器5との通信回線を開き通信を開始する(ステップ1100)。次に、機器5から前述の機器情報210を取得し(ステップ1101)、通信回線を切断して通信を終了する(ステップ1102)。次に、端末装置1のカメラ4を用いて、画像を取得し(ステップ1103)、ステップ1006を実行する。なお、ステップ1103で取得される画像は、ここでは、機器5と端末装置1の操作者の手指とを含んだ画像である。   First, in order to determine whether or not a wireless tag (wireless IC tag) is attached to the device 5 using the communication means 107, a wireless tag identifier is acquired (step 1001), and the device 5 has a wireless tag. If so (if yes in step 1002), the communication means 107 opens the communication line with the device 5 and starts communication (step 1100). Next, the device information 210 is acquired from the device 5 (step 1101), the communication line is disconnected, and the communication is terminated (step 1102). Next, an image is acquired using the camera 4 of the terminal device 1 (step 1103), and step 1006 is executed. Note that the image acquired in step 1103 is an image including the device 5 and the finger of the operator of the terminal device 1 here.

ステップ1002において、機器5に無線タグがないと判断した場合には(ステップ1002で無しの場合には)、通信手段107を用いて機器情報データベース7と通信を行い、機器情報管理テーブル200から、全ての機器情報210を取得する。また、端末装置1のカメラ4を用いて画像を取得し(ステップ1004)、ステップ2000の機器判断処理を実施する。ステップ2000の機器判断処理の詳細については後述する。なお、ステップ1104で取得される画像も、ここでは、機器5と端末装置1の操作者の手指とを含んだ画像である。   If it is determined in step 1002 that the device 5 does not have a wireless tag (if there is no wireless tag in step 1002), the communication unit 107 is used to communicate with the device information database 7, and the device information management table 200 All device information 210 is acquired. Moreover, an image is acquired using the camera 4 of the terminal device 1 (step 1004), and the device determination process of step 2000 is performed. Details of the device determination processing in step 2000 will be described later. Note that the image acquired in step 1104 is also an image including the device 5 and the finger of the operator of the terminal device 1 here.

ステップ2000の機器判断処理において、機器5の機器識別子220が機種特徴情報230を参照しても発見できない場合には(ステップ1005でNo判定の場合には)、ステップ1000に戻る(ないしは、本フローを終了する)。機器5の機器識別子220が機種特徴情報230を参照して発見できた場合には(ステップ1005でYes判定の場合には)、機器情報210からスクリプト300を取得する(ステップ1006)。また、ステップ1103からステップ1006に移行した場合も、機器情報210からスクリプト300を取得する。次に、前述したようにスクリプト300の解釈を行い、ユーザインタフェース(ユーザインタフェースイメージ)の生成を行う(ステップ1007)。スクリプト300の解釈は、基本的にスクリプト300の最初から文字列を読み込み、HTML,XML,RSS,GMLなどハイパーテキスト文書の規約に従って解釈することにより、ユーザインタフェースを構築する。   If the device identifier 220 of the device 5 cannot be found by referring to the model feature information 230 in the device determination processing of step 2000 (in the case of No determination in step 1005), the processing returns to step 1000 (or this flow). Exit). If the device identifier 220 of the device 5 can be found by referring to the model characteristic information 230 (in the case of Yes determination in step 1005), the script 300 is acquired from the device information 210 (step 1006). In addition, when the process proceeds from step 1103 to step 1006, the script 300 is acquired from the device information 210. Next, the script 300 is interpreted as described above, and a user interface (user interface image) is generated (step 1007). The interpretation of the script 300 basically constructs a user interface by reading a character string from the beginning of the script 300 and interpreting it according to the conventions of hypertext documents such as HTML, XML, RSS, GML.

次に、ステップ1103あるいはステップ1004でカメラ4を用いて撮影した画像から、生体部分画像と非生体部分画像とを分離する(ステップ1008)。次に、非生体部分画像を表示装置2に表示(ステップ1009)した後、非生体部分画像の上に重ねてユーザインタフェース(ユーザインタフェースイメージ)を表示し(ステップ1010)、さらに、ユーザインタフェースの上に重ねて生体部分画像を表示する(ステップS1011)。図7の(b)は、ステップS1011での処理の後の、表示装置2上の表示例を示している。そして、ステップ3000での入力処理及び機器制御処理を実施して、ステップ1000に戻る。なお、ステップ3000での入力処理及び機器制御処理の詳細については後述する。   Next, the living body partial image and the non-living body partial image are separated from the image captured using the camera 4 in step 1103 or step 1004 (step 1008). Next, the non-biological partial image is displayed on the display device 2 (step 1009), and then a user interface (user interface image) is displayed on the non-biological partial image (step 1010). The living body partial image is displayed so as to overlap (step S1011). FIG. 7B shows a display example on the display device 2 after the processing in step S1011. Then, the input process and device control process in step 3000 are performed, and the process returns to step 1000. Details of the input processing and device control processing in step 3000 will be described later.

次に、図4の前記したステップ2000の機器判断処理について、図5に示すフローチャートを用いて説明する。   Next, the device determination processing in step 2000 of FIG. 4 will be described using the flowchart shown in FIG.

まず、機器情報データベース7の機器情報管理テーブル200から取得した機器情報210から、1つの機器情報210をワークエリアに取り出し(ステップ2001)、もし、最後の機器情報210までの取り出しが終了していて、もはや取り出す機器情報210がない場合には(ステップ2002でYes判定の場合には)、操作対象として該当する機器5でない旨を、図4の機器判断処理の出力とし(ステップ2012)、本フローを終了する(ステップ2014)。   First, one piece of device information 210 is extracted from the device information 210 acquired from the device information management table 200 of the device information database 7 to the work area (step 2001), and the extraction to the last device information 210 has been completed. If there is no longer any device information 210 to be extracted (in the case of Yes determination in step 2002), the fact that the device 5 is not the operation target is output as the device determination process in FIG. 4 (step 2012), and this flow Is terminated (step 2014).

ステップ2002において機器情報210が取り出しできるならば(ステップ2002でNo判定の場合には)、該機器情報210から機器特徴情報230を取り出す(ステップ2003)。次に、図4のステップ1004で取得した画像(カメラ4で撮影した画像)をワークエリアに取り出し(ステップ2004)、機種特徴情報230の前面イメージ231、側面イメージ232、機種名233、スイッチ配置位置234、表示装置位置235、待ち受け表示イメージ236を、カメラ4で撮影した画像と、画像(イメージ)比較する(ステップ2004)。この比較は、カメラ4で撮影した画像を伸縮・拡張して、その画像と機種特徴情報230内のイメージとを比較する、あるいは、画像の特徴点を取得して、その特徴点が一致するか否かといった、画像比較を行うものであればどのような手順であってもよい。   If the device information 210 can be extracted in step 2002 (if No in step 2002), the device feature information 230 is extracted from the device information 210 (step 2003). Next, the image (image taken by the camera 4) acquired in step 1004 in FIG. 4 is taken out to the work area (step 2004), and the front image 231, the side image 232, the model name 233, and the switch arrangement position of the model characteristic information 230 234, the display device position 235, and the standby display image 236 are compared with the image photographed by the camera 4 (step 2004). In this comparison, the image taken by the camera 4 is expanded / contracted and the image is compared with the image in the model feature information 230, or the feature points of the image are acquired and the feature points match. Any procedure may be used as long as image comparison is performed, such as whether or not.

ステップ2005において行ったイメージ比較処理において、前面イメージ231が一致したと判断した場合には(ステップ2006でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(ステップ2014)。もし、ステップ2005において行ったイメージ比較処理において、側面イメージ232が一致したと判断した場合には(ステップ2007でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(2014)。もし、ステップ2005において行ったイメージ比較処理において、機種名233が一致したと判断した場合には(ステップ2008でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(ステップ2014)。もし、ステップ2005において行ったイメージ比較処理において、スイッチ配置位置234が一致したと判断した場合には(ステップ2009でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(ステップ2014)。もし、ステップ2005において行ったイメージ比較処理において、表示装置位置235が一致したと判断した場合には(ステップ2010でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(ステップ2014)。もし、ステップ2005において行ったイメージ比較処理において、待ち受け表示イメージ236が一致したと判断した場合には(ステップ2011でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(ステップ2014)。もし、ステップ2011において待ち受け表示イメージが一致しない場合には(ステップ2011でNo判定の場合には)、ステップ2001で取得した機器情報210に該当しなかったと判断し、次の機器情報210を取得するためにステップ2001へ進み、処理を継続する。   In the image comparison process performed in step 2005, when it is determined that the front images 231 match (in the case of Yes determination in step 2006), the process proceeds to step 2013, and the device identifier 220 of the device information 210 is changed to FIG. The device determination process is output (step 2013), and this flow ends (step 2014). If it is determined in the image comparison process performed in step 2005 that the side images 232 match (in the case of Yes determination in step 2007), the process proceeds to step 2013, and the device identifier 220 of the device information 210 is set as follows. It is set as the output of the apparatus determination process of FIG. 4 (step 2013), and this flow is complete | finished (2014). If it is determined in the image comparison process performed in step 2005 that the model names 233 match (in the case of Yes determination in step 2008), the process proceeds to step 2013, and the device identifier 220 of the device information 210 is set as follows. It is set as the output of the apparatus determination process of FIG. 4 (step 2013), and this flow is complete | finished (step 2014). If it is determined in the image comparison process performed in step 2005 that the switch arrangement positions 234 match (if YES in step 2009), the process proceeds to step 2013, and the device identifier 220 of the device information 210 is set. Then, the output of the device determination process of FIG. 4 is set (step 2013), and this flow is ended (step 2014). If it is determined in the image comparison process performed in step 2005 that the display device positions 235 match (in the case of Yes determination in step 2010), the process proceeds to step 2013, and the device identifier 220 of the device information 210 is set. Then, the output of the device determination process of FIG. 4 is set (step 2013), and this flow is ended (step 2014). If it is determined in the image comparison process performed in step 2005 that the standby display images 236 match (if YES in step 2011), the process proceeds to step 2013, and the device identifier 220 of the device information 210 is set. Then, the output of the device determination process of FIG. 4 is set (step 2013), and this flow is ended (step 2014). If the standby display images do not match in step 2011 (in the case of No determination in step 2011), it is determined that the device information 210 acquired in step 2001 is not applicable, and the next device information 210 is acquired. Therefore, the process proceeds to step 2001 and the process is continued.

次に、タッチパネル装置3を操作者が直接操作して操作情報を入力すること、あるいは、カメラ4で撮影された画像から操作者による操作情報の入力を取得することで、機器5に対する制御情報を生成して、これを機器5に対して送出する処理である、図4の前記したステップ3000の入力及び機器制御処理について、図6に示すフローチャートを用いて説明する。   Next, the operator directly operates the touch panel device 3 to input operation information, or obtains the operation information input by the operator from an image captured by the camera 4, thereby obtaining control information for the device 5. The input and device control process of step 3000 in FIG. 4, which is a process of generating and sending this to the device 5, will be described using the flowchart shown in FIG. 6.

まず、図4のステップ1007において、ユーザインタフェースを生成したか否かを判断し(ステップ3001)、ユーザインタフェースがないと判断した場合には(ステップ3001でNo判定の場合には)、操作者の入力を受け付ける必要がないため、本フローを終了する(ステップ3015)。もし、ユーザインタフェースがあると判断した場合には(ステップ3001でYes判定の場合には)、図4のステップ1008においてカメラ4で撮影した画像から分離した生体部分画像を、ワークエリアに取り出し(ステップ3002)、ワークエリアに既に展開されている前回撮影分の生体部分画像との比較により、操作者が入力したか否かを判断する(ステップ3003)。これは、例えば、生体部分画像の指(表示された指)がユーザインタフェースのアイコンなどを触った場合には、指部分の動きがその際に停止するため、前回撮影した画像から抽出した生体部分画像との比較を行うことで、操作者が入力したか否かを判断することが可能となる。もし、入力がないと判断した場合には(ステップ3003でNo判定の場合には)、タッチパネル装置3による入力受け付けに移行し(ステップ3004)、タッチパネル装置3を用いた操作者の入力操作の有無を判定する(ステップ3005)。もし入力がない、つまり操作者がタッチパネル装置3を触っていなければ、操作者からの入力がなかったと判断して(ステップ3005でNo判定をして)、本フローを終了する(ステップ3015)。もし入力がある場合、つまり操作者がタッチパネル装置3を触っていれば、操作者からの入力があったと判断して(ステップ3005でYes判定をして)、ステップ3007の処理を実行する。   First, in step 1007 of FIG. 4, it is determined whether or not a user interface has been generated (step 3001). If it is determined that there is no user interface (in the case of No determination in step 3001), the operator's Since there is no need to accept an input, this flow ends (step 3015). If it is determined that there is a user interface (in the case of Yes determination in step 3001), a living body partial image separated from the image captured by the camera 4 in step 1008 in FIG. 3002), it is determined whether or not the operator has made an input by comparison with the previously captured biological partial images already developed in the work area (step 3003). This is because, for example, when the finger (displayed finger) of the living body partial image touches an icon of the user interface, the movement of the finger portion stops at that time, and thus the living body portion extracted from the previously captured image By comparing with the image, it is possible to determine whether or not the operator has input. If it is determined that there is no input (in the case of No determination in step 3003), the process shifts to input acceptance by the touch panel device 3 (step 3004), and whether or not an operator performs an input operation using the touch panel device 3 Is determined (step 3005). If there is no input, that is, if the operator is not touching the touch panel device 3, it is determined that there is no input from the operator (No determination is made in step 3005), and this flow is finished (step 3015). If there is an input, that is, if the operator is touching the touch panel device 3, it is determined that there is an input from the operator (Yes is determined in step 3005), and the processing in step 3007 is executed.

また、ステップ3003において、操作者からの入力があると判断した場合には(ステップ3003でYes判定の場合には)、生体部分画像の特徴情報などから指先がどこにあるかを判断して(ステップ3006)、指先の座標情報を取得する(ステップ3007)。タッチパネル装置2からの入力であれば(ステップ3005でYes判定であれば)、そのタッチされた入力位置の座標情報を取得する(ステップ3007)。   If it is determined in step 3003 that there is an input from the operator (Yes in step 3003), it is determined where the fingertip is from the feature information of the biological partial image (step 3003). 3006), coordinate information of the fingertip is acquired (step 3007). If the input is from the touch panel device 2 (Yes in step 3005), the coordinate information of the touched input position is acquired (step 3007).

次に、スクリプト300を参照して、そのハイパーテキストを解釈する(ステップ3008)。ハイパーテキストにおいて、例えば図3のスクリプト300の例で説明すると、レイヤー1のイメージ表示322のように、アイコンのイメージと、その表示開始位置が記述してあるので、アイコンのサイズと表示開始位置を合わせると特定の範囲を機能1に割り当てることができる。ステップ3007において取得したX,Y座標が、範囲内にあるか否かを判断する(ステップ3009)。この判断は、スクリプト300に記載されたすべてのアイコンに対して判断を行い、もし範囲内にないと判断した場合には(ステップ3009でNo判定の場合には)、そのアイコンを押していないことから、本フローを終了する(ステップ3015)。もし範囲内にあると判断した場合には(ステップ3009でYes判定の場合には)、スクリプト300から処理すべき機能を取得する(ステップ3010)。図3の例で説明すると、イメージ表示322に対応する“機能1“が機能1(330)に記載されているため、そこからdeviceとcommandの情報を取得する(ステップ3011)。次に、端末装置1の通信手段107を用いて、前記deviceに指定されている機器5と通信を開始し(ステップ3012)、commandに記載されている制御コマンド(制御情報)を機器5に対し通信回線を用いて送出し(ステップ3013)、然る後、通信を停止する(ステップ3014)。そして、本フローを終了し(3015)、すべての制御コマンドの送出を終了する。   Next, referring to the script 300, the hypertext is interpreted (step 3008). In the example of the script 300 in FIG. 3, for example, in the hypertext, the icon image and the display start position are described as in the image display 322 of layer 1. Together, a specific range can be assigned to function 1. It is determined whether the X and Y coordinates acquired in step 3007 are within the range (step 3009). This determination is performed for all icons described in the script 300. If it is determined that the icon is not within the range (in the case of No determination in step 3009), the icon is not pressed. This flow is finished (step 3015). If it is determined that it is within the range (in the case of Yes determination in step 3009), the function to be processed is acquired from the script 300 (step 3010). In the example of FIG. 3, since “function 1” corresponding to the image display 322 is described in the function 1 (330), device and command information is acquired from the function 1 (3301). Next, using the communication means 107 of the terminal device 1, communication is started with the device 5 specified in the device (step 3012), and the control command (control information) described in the command is sent to the device 5. Transmission is performed using the communication line (step 3013), and then the communication is stopped (step 3014). Then, this flow is terminated (3015), and transmission of all control commands is terminated.

以上の動作により、端末装置1に撮影された機器5をリモコン操作の対象に選び、該機器5に適合するユーザインターフェースを生成して、機器5をリモコン操作する動作を実現することが可能となる。   With the above operation, it is possible to select the device 5 photographed on the terminal device 1 as a target for remote control operation, generate a user interface suitable for the device 5, and realize the operation of operating the device 5 by remote control. .

図7の(a)は、端末装置1のカメラ4により生体(操作者の指先)6を撮影し、撮影された指先によりリモコン操作を行っている様子を示しており、701は操作者の目を表している。図7の(b)は、図7の(a)において操作者の目701が観ている、表示装置2上の表示画像例を示している。図7の(b)において、702は、表示画面の一番下側に表示された非生体部分画像、703は、非生体部分画像702の上側に重畳表示されたユーザインタフェース(ユーザインタフェースイメージ)、704は、ユーザインタフェース703の上に重畳表示された生体部分画像である。   FIG. 7A shows a state in which a living body (operator's fingertip) 6 is photographed by the camera 4 of the terminal device 1 and a remote control operation is performed using the photographed fingertip. Represents. FIG. 7B shows an example of a display image on the display device 2 that is viewed by the operator's eyes 701 in FIG. In FIG. 7B, 702 is a non-biological partial image displayed on the lowermost side of the display screen, 703 is a user interface (user interface image) superimposed and displayed on the upper side of the non-biological partial image 702, Reference numeral 704 denotes a living body partial image superimposed on the user interface 703.

図7の(a)、(b)に示すように、タッチパネル装置3に触れることなく、カメラ4で撮影された指先により、表示装置2上に表示されたユーザインタフェース703を仮想的に操作することで、リモコン操作を行うように構成すると、端末装置1が携帯電話機のように小型の装置で、表示装置2のサイズが小さいものであっても、実際の指先よりも小さいサイズの生体部分画像(表示指先画像)によって、ユーザインタフェース703中の細かなアイコンを的確に操作することが可能となる。また、ユーザインタフェース703に多くのアイコンを配置することも可能となる。   As shown in FIGS. 7A and 7B, the user interface 703 displayed on the display device 2 is virtually operated by a fingertip photographed by the camera 4 without touching the touch panel device 3. Thus, when the remote control operation is performed, even if the terminal device 1 is a small device such as a mobile phone and the display device 2 is small in size, a living body partial image having a size smaller than the actual fingertip ( With the display fingertip image), it is possible to accurately operate fine icons in the user interface 703. In addition, many icons can be arranged on the user interface 703.

なお、上述の例では、非生体部分画像702、ユーザインタフェース703、生体部分画像704の3者を重畳表示して、非生体部分画像702によって、操作している機器5のイメージが操作者に認知できるようにしているが、リモコン操作の際には、非生体部分画像702の表示は必ずしも必要ではなく、ユーザインタフェース703上に生体部分画像704を重畳表示させるだけでもよい。   In the above-described example, the non-biological partial image 702, the user interface 703, and the biological partial image 704 are displayed in a superimposed manner, and the operator recognizes the image of the device 5 being operated by the non-biological partial image 702. Although it is possible to display the non-biological partial image 702 when performing a remote control operation, the biological partial image 704 may be simply superimposed on the user interface 703.

本発明の一実施形態に係る端末装置とそれを含んで構成される機器制御システムの構成を示すブロックである。It is a block which shows the structure of the terminal device which concerns on one Embodiment of this invention, and the apparatus control system comprised including it. 本発明の一実施形態に係る端末装置が用いる機器情報データベースが保持する機器情報管理テーブルの内容を示す説明図である。It is explanatory drawing which shows the content of the equipment information management table which the equipment information database which the terminal device concerning one Embodiment of this invention uses hold | maintains. 図2の機器情報管理テーブル中における機器情報のスクリプトの例を示す説明図である。It is explanatory drawing which shows the example of the script of the apparatus information in the apparatus information management table of FIG. 本発明の一実施形態に係る端末装置の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the terminal device which concerns on one Embodiment of this invention. 図4中の機器判断処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the apparatus judgment process in FIG. 図4中の入力及び機器制御処理の詳細を示すフローチャートである。5 is a flowchart showing details of input and device control processing in FIG. 4. 本発明の一実施形態に係る端末装置を用いたリモコン操作の例を示す説明図である。It is explanatory drawing which shows the example of remote control operation using the terminal device which concerns on one Embodiment of this invention.

符号の説明Explanation of symbols

1 端末装置
2 表示装置
3 タッチパネル装置
4 カメラ
5 機器
6 生体
7 機器情報データベース
100 撮像制御手段
101 画像比較手段
102 機器特徴情報保持手段
103 機器選択手段
104 生体判断手段
105 ユーザインタフェース生成手段
106 スクリプト取得手段
107 通信手段
108 画像分離手段
109 表示制御手段
110 制御情報生成手段
111 制御手段
112 入力受付・解釈手段
113 座標情報比較手段
114 位置関係検出手段
200 機器情報管理テーブル
210 機器情報
220 機器識別子
230 機器特徴情報
231 前面イメージ
232 側面イメージ
233 機種名
234 スイッチ配置位置
235 表示装置位置
236 待ち受け表示イメージ
240 無線タグ識別ID
300 スクリプト
310 ユーザインタフェース
320 レイヤー1
330 機能1
331 機能2
DESCRIPTION OF SYMBOLS 1 Terminal device 2 Display apparatus 3 Touch panel apparatus 4 Camera 5 Equipment 6 Living body 7 Equipment information database 100 Imaging control means 101 Image comparison means 102 Equipment characteristic information holding means 103 Equipment selection means 104 Living body judgment means 105 User interface generation means 106 Script acquisition means DESCRIPTION OF SYMBOLS 107 Communication means 108 Image separation means 109 Display control means 110 Control information generation means 111 Control means 112 Input reception / interpretation means 113 Coordinate information comparison means 114 Position relation detection means 200 Equipment information management table 210 Equipment information 220 Equipment identifier 230 Equipment characteristic information 231 Front image 232 Side image 233 Model name 234 Switch placement position 235 Display device position 236 Standby display image 240 Wireless tag identification ID
300 Script 310 User Interface 320 Layer 1
330 Function 1
331 Function 2

Claims (12)

操作対象となる機器と通信する機能をもつ端末装置であって、
画像を撮影する撮像手段と、
機器の特徴を表現する機器特徴情報を保持する機器特徴情報保持手段と、
撮影した画像に前記機器特徴情報が含まれているか否かを判断する画像比較手段と、
操作対象となる機器を選択する機器選択手段と、
機器の操作を記述するスクリプトをデータベースまたは機器から取得するスクリプト取得手段と、
前記スクリプトに従いユーザインタフェース(ユーザインタフェースイメージ)を生成するユーザインタフェース生成手段と、
前記ユーザインタフェースを表示手段に表示する表示制御手段と、
前記ユーザインタフェースを利用して操作者が操作情報を入力する入力手段と、
前記操作情報を前記スクリプトに従い変換して制御情報を生成する制御情報生成手段と、
操作対象となる機器と通信して前記制御情報を機器に送信する通信手段とを、
備えることを特徴とする端末装置。
A terminal device having a function of communicating with a device to be operated,
Imaging means for taking an image;
Device feature information holding means for holding device feature information expressing the features of the device;
Image comparison means for determining whether or not the device characteristic information is included in the captured image;
A device selection means for selecting a device to be operated;
Script acquisition means for acquiring a script describing the operation of the device from a database or device;
User interface generation means for generating a user interface (user interface image) according to the script;
Display control means for displaying the user interface on display means;
Input means for an operator to input operation information using the user interface;
Control information generating means for converting the operation information according to the script and generating control information;
Communication means for communicating with the device to be operated and transmitting the control information to the device;
A terminal device comprising the terminal device.
請求項1に記載の端末装置において、
前記スクリプト取得手段は、前記通信手段によって機器から受信した機器情報に含まれるスクリプトを取得する機能を備え、前記機器特徴情報保持手段は、前記機器情報に含まれる機器特徴情報を取得する機能を備えることを特徴とする端末装置。
The terminal device according to claim 1,
The script acquisition unit has a function of acquiring a script included in device information received from the device by the communication unit, and the device feature information holding unit has a function of acquiring device feature information included in the device information. A terminal device characterized by that.
請求項1に記載の端末装置において、
操作対象となる機器の識別を、機器に備えられた無線タグ(無線ICタグ)から取得した識別情報により行う機能を備えることを特徴とする端末装置。
The terminal device according to claim 1,
A terminal device comprising a function of identifying an operation target device based on identification information acquired from a wireless tag (wireless IC tag) provided in the device.
請求項1に記載の端末装置において、
前記撮像手段により撮影した機器の画像から、前記データベースを参照して操作対象となる機器の識別を行う機能を備えることを特徴とする端末装置。
The terminal device according to claim 1,
A terminal device comprising a function of identifying a device to be operated with reference to the database from an image of a device photographed by the imaging means.
請求項1ないし4のいずれか1項に記載の端末装置において、
前記表示手段と前記入力手段は、ディスプレイを兼ねる入力デバイスであるタッチ表示パネルによって構成されたことを特徴とする端末装置。
The terminal device according to any one of claims 1 to 4,
The terminal device, wherein the display unit and the input unit are configured by a touch display panel which is an input device that also serves as a display.
請求項5に記載の端末装置において、
前記撮像手段で撮影した画像を解析して、画像中に生体が含まれるか否かを判断する生体判断手段と、撮影した画像中に生体が含まれる場合に、撮影した画像から生体部分画像と非生体部分画像を分離する画像分離手段とを備え、
前記表示手段上に、下から順に、少なくとも、前記ユーザインタフェース、前記生体部分画像を重畳表示する機能を備えることを特徴とする端末装置。
The terminal device according to claim 5,
Analyzing an image captured by the imaging means and determining whether or not a living body is included in the image, and a living body partial image from the captured image when a living body is included in the captured image Image separation means for separating the non-biological partial image,
A terminal device comprising a function of superposing and displaying at least the user interface and the living body partial image in order from the bottom on the display means.
請求項6に記載の端末装置において、
前記表示手段上に、下から順に、前記非生体部分画像、前記ユーザインタフェース、前記生体部分画像を重畳表示する機能を備えることを特徴とする端末装置。
The terminal device according to claim 6,
A terminal device comprising a function of superimposing and displaying the non-biological partial image, the user interface, and the biological partial image on the display unit in order from the bottom.
請求項6または7に記載の端末装置において、
前記撮像手段が撮影した画像から、画像中に含まれる生体である当該端末装置の操作者の指先と、当該端末装置との位置関係を検出する位置関係検出手段を備え、
前記ユーザインタフェース上に重畳表示された前記生体部分画像における生体の指先の動き・位置に応じて、前記操作情報が入力されたか否かを判断する手段を設けて、当該端末装置の前記操作者が前記入力装置に直接触れることなく前記操作情報の入力を可能としたことを特徴とする端末装置。
The terminal device according to claim 6 or 7,
A positional relationship detection unit that detects a positional relationship between the fingertip of the operator of the terminal device, which is a living body included in the image, and the terminal device from an image captured by the imaging unit;
Means for determining whether or not the operation information has been input according to the movement and position of the fingertip of the living body in the living body partial image superimposed and displayed on the user interface is provided so that the operator of the terminal device A terminal device characterized in that the operation information can be input without directly touching the input device.
請求項6に記載の端末装置において、
前記撮像手段は、可視光による画像撮影と赤外光による画像撮影とを行う機能を備えることを特徴とする端末装置。
The terminal device according to claim 6,
The terminal device has a function of performing image capturing using visible light and image capturing using infrared light.
操作対象となる機器と通信する機能をもつ通信手段と、画像を撮影する撮像手段と、表示手段と、入力手段とを有し、表示手段と入力手段は、ディスプレイを兼ねる入力デバイスであるタッチ表示パネルによって構成された端末装置であって、
前記通信手段を用いて機器から取得した機器の操作を記述するスクリプト、または、前記通信手段を用いて機器から取得した機器の識別情報あるいは前記撮像手段により撮影した機器の画像から特定した機器の識別情報に基づいてデータベースから取得した機器の操作を記述するスクリプトに従って、機器を操作するためのユーザインタフェース(ユーザインタフェースイメージ)を自動的に生成して、生成したユーザインタフェースを前記表示手段上に表示する手段を備えることを特徴とする端末装置。
It has a communication means having a function of communicating with a device to be operated, an imaging means for taking an image, a display means, and an input means. The display means and the input means are touch displays which are input devices that also serve as a display. A terminal device composed of panels,
The script describing the operation of the device acquired from the device using the communication means, the device identification information acquired from the device using the communication means, or the device identification specified from the image of the device taken by the imaging means A user interface (user interface image) for operating the device is automatically generated according to a script describing the operation of the device acquired from the database based on the information, and the generated user interface is displayed on the display means. A terminal device comprising means.
操作対象となる機器と通信する機能をもつ通信手段と、画像を撮影する撮像手段と、表示手段と、入力手段とを有し、表示手段と入力手段は、ディスプレイを兼ねる入力デバイスであるタッチ表示パネルによって構成された端末装置であって、
操作対象となる機器の操作を記述するスクリプトをデータベースまたは機器から取得するスクリプト取得手段と、
前記スクリプトに従いユーザインタフェース(ユーザインタフェースイメージ)を生成するユーザインタフェース生成手段と、
前記撮像手段で撮影した画像から生体部分画像と非生体部分画像を分離する画像分離手段と、
前記撮像手段が撮影した画像から、画像中に含まれる生体である当該端末装置の操作者の指先と、当該端末装置との位置関係を検出する位置関係検出手段と、
前記表示手段上に、前記ユーザインタフェースの上に重ねて前記生体部分画像を重畳表示する表示制御手段とを、備え、
前記ユーザインタフェース上に重畳表示された前記生体部分画像における生体の指先の動き・位置に応じて、前記操作者により操作情報が入力されたか否かを判断して、当該端末装置の前記操作者が前記入力装置に直接触れることなく前記操作情報の入力を可能としたことを特徴とする端末装置。
It has a communication means having a function of communicating with a device to be operated, an imaging means for taking an image, a display means, and an input means. The display means and the input means are touch displays which are input devices that also serve as a display. A terminal device composed of panels,
Script acquisition means for acquiring a script describing the operation of the device to be operated from a database or device;
User interface generation means for generating a user interface (user interface image) according to the script;
Image separating means for separating a biological partial image and a non-biological partial image from an image photographed by the imaging means;
A positional relationship detecting unit that detects a positional relationship between the fingertip of the operator of the terminal device, which is a living body included in the image, and the terminal device, from an image captured by the imaging unit;
Display control means for displaying the living body partial image superimposed on the user interface on the display means,
The operator of the terminal device determines whether operation information has been input by the operator according to the movement / position of the fingertip of the living body in the living body partial image superimposed and displayed on the user interface. A terminal device characterized in that the operation information can be input without directly touching the input device.
請求項1ないし11のいずれか1項に記載の端末装置と、該端末装置による操作対象となる1台以上の通信機能を具備した機器とで、構成されることを特徴とする機器制御システム。   12. A device control system comprising: the terminal device according to claim 1; and a device having one or more communication functions to be operated by the terminal device.
JP2005303243A 2005-10-18 2005-10-18 Terminal device Expired - Fee Related JP4676303B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005303243A JP4676303B2 (en) 2005-10-18 2005-10-18 Terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005303243A JP4676303B2 (en) 2005-10-18 2005-10-18 Terminal device

Publications (3)

Publication Number Publication Date
JP2007116270A true JP2007116270A (en) 2007-05-10
JP2007116270A5 JP2007116270A5 (en) 2008-08-21
JP4676303B2 JP4676303B2 (en) 2011-04-27

Family

ID=38098087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005303243A Expired - Fee Related JP4676303B2 (en) 2005-10-18 2005-10-18 Terminal device

Country Status (1)

Country Link
JP (1) JP4676303B2 (en)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010130691A (en) * 2008-12-01 2010-06-10 Korea Electronics Telecommun Digital content providing apparatus and user terminal discriminating method for discriminating user terminal through acquisition of video data
JP2010204730A (en) * 2009-02-27 2010-09-16 Seiko Epson Corp System of controlling device in response to gesture
JP2011203808A (en) * 2010-03-24 2011-10-13 Panasonic Corp Mobile information terminal
JP2012059242A (en) * 2010-09-13 2012-03-22 Hyundai Motor Co Ltd In-vehicle device control system utilizing augmented reality, and method thereof
JP2012521685A (en) * 2009-03-26 2012-09-13 エックスペッド ホールディングス ピーティワイ リミテッド Configuration for managing wireless communication between devices
EP2528351A1 (en) * 2010-01-18 2012-11-28 Nec Corporation Information terminal device, control method using an information terminal device, and program
JP2012249104A (en) * 2011-05-27 2012-12-13 Kyocera Corp Remote operation device, remote control system, control program, and storage medium
JP5200095B2 (en) * 2008-02-27 2013-05-15 京セラ株式会社 User interface generation device
JP2013106198A (en) * 2011-11-14 2013-05-30 Toshiba Corp Apparatus controller, method for the same, and program
JP2013114466A (en) * 2011-11-29 2013-06-10 Nikon Corp Display system, display method and program
JP2013250849A (en) * 2012-06-01 2013-12-12 Konica Minolta Inc Guidance display system, guidance display device, guidance display method, and guidance display program
JP2014102843A (en) * 2012-11-20 2014-06-05 Samsung Electronics Co Ltd Wearable electronic device
EP2804164A1 (en) * 2013-05-14 2014-11-19 Siemens Aktiengesellschaft Method for control device and control device with recognition of environment and RFID sensor
EP2372495A3 (en) * 2010-03-29 2015-11-25 Sony Corporation Remote control of a target device using a camera and a display
JP2015230496A (en) * 2014-06-03 2015-12-21 シャープ株式会社 Electronic equipment
JP2016207048A (en) * 2015-04-25 2016-12-08 京セラドキュメントソリューションズ株式会社 Augmented reality operation system and augmented reality operation program
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
JP2020512620A (en) * 2017-02-28 2020-04-23 ラッサム、アンマー Method and apparatus for adaptively interacting with a remote device
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
EP3678309A1 (en) * 2009-07-17 2020-07-08 QUALCOMM Incorporated Automatic interfacing between a master device and object device
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
JP2022516793A (en) * 2019-01-10 2022-03-02 ディスティ,エルエルシー Criticality mixed user interface development system
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US11561665B2 (en) 2017-04-21 2023-01-24 Panasonic Intellectual Property Management Co., Ltd. Display method, recording medium, and display system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092787A (en) * 2001-09-18 2003-03-28 Ntt Software Corp Remote control device and remote controller
JP2005513941A (en) * 2001-12-28 2005-05-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Universal remote control device with automatic instrument identification and programming
JP2005277664A (en) * 2004-03-24 2005-10-06 Alpine Electronics Inc Electronic equipment controller

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092787A (en) * 2001-09-18 2003-03-28 Ntt Software Corp Remote control device and remote controller
JP2005513941A (en) * 2001-12-28 2005-05-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Universal remote control device with automatic instrument identification and programming
JP2005277664A (en) * 2004-03-24 2005-10-06 Alpine Electronics Inc Electronic equipment controller

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8726175B2 (en) 2008-02-27 2014-05-13 Kyocera Corporation User interface generation apparatus
JP5200095B2 (en) * 2008-02-27 2013-05-15 京セラ株式会社 User interface generation device
JP2010130691A (en) * 2008-12-01 2010-06-10 Korea Electronics Telecommun Digital content providing apparatus and user terminal discriminating method for discriminating user terminal through acquisition of video data
US8428370B2 (en) 2008-12-01 2013-04-23 Electronics And Telecommunications Research Institute Apparatus for providing digital contents and method thereof
JP2010204730A (en) * 2009-02-27 2010-09-16 Seiko Epson Corp System of controlling device in response to gesture
JP2012521685A (en) * 2009-03-26 2012-09-13 エックスペッド ホールディングス ピーティワイ リミテッド Configuration for managing wireless communication between devices
EP3678309A1 (en) * 2009-07-17 2020-07-08 QUALCOMM Incorporated Automatic interfacing between a master device and object device
EP2528351A1 (en) * 2010-01-18 2012-11-28 Nec Corporation Information terminal device, control method using an information terminal device, and program
EP2528351A4 (en) * 2010-01-18 2013-05-22 Nec Corp Information terminal device, control method using an information terminal device, and program
JP2011203808A (en) * 2010-03-24 2011-10-13 Panasonic Corp Mobile information terminal
EP2372495A3 (en) * 2010-03-29 2015-11-25 Sony Corporation Remote control of a target device using a camera and a display
CN102398600A (en) * 2010-09-13 2012-04-04 现代自动车株式会社 System for controlling in-vehicle device using augmented reality and method thereof
JP2012059242A (en) * 2010-09-13 2012-03-22 Hyundai Motor Co Ltd In-vehicle device control system utilizing augmented reality, and method thereof
CN102398600B (en) * 2010-09-13 2016-06-08 现代自动车株式会社 Augmented reality is used to control system and the method thereof of in-vehicle apparatus
JP2012249104A (en) * 2011-05-27 2012-12-13 Kyocera Corp Remote operation device, remote control system, control program, and storage medium
US9257035B2 (en) 2011-05-27 2016-02-09 Kyocera Corporation Remote control device, remote control system, and storage medium storing control program, and medium to be attached to electrical device
JP2013106198A (en) * 2011-11-14 2013-05-30 Toshiba Corp Apparatus controller, method for the same, and program
JP2013114466A (en) * 2011-11-29 2013-06-10 Nikon Corp Display system, display method and program
JP2013250849A (en) * 2012-06-01 2013-12-12 Konica Minolta Inc Guidance display system, guidance display device, guidance display method, and guidance display program
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US10194060B2 (en) 2012-11-20 2019-01-29 Samsung Electronics Company, Ltd. Wearable electronic device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
JP2014102843A (en) * 2012-11-20 2014-06-05 Samsung Electronics Co Ltd Wearable electronic device
EP2804164A1 (en) * 2013-05-14 2014-11-19 Siemens Aktiengesellschaft Method for control device and control device with recognition of environment and RFID sensor
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
JP2015230496A (en) * 2014-06-03 2015-12-21 シャープ株式会社 Electronic equipment
JP2016207048A (en) * 2015-04-25 2016-12-08 京セラドキュメントソリューションズ株式会社 Augmented reality operation system and augmented reality operation program
JP2020512620A (en) * 2017-02-28 2020-04-23 ラッサム、アンマー Method and apparatus for adaptively interacting with a remote device
US11561665B2 (en) 2017-04-21 2023-01-24 Panasonic Intellectual Property Management Co., Ltd. Display method, recording medium, and display system
JP2022516793A (en) * 2019-01-10 2022-03-02 ディスティ,エルエルシー Criticality mixed user interface development system

Also Published As

Publication number Publication date
JP4676303B2 (en) 2011-04-27

Similar Documents

Publication Publication Date Title
JP4676303B2 (en) Terminal device
JP6893606B2 (en) Image tagging methods, devices and electronics
CN103176690B (en) Display control apparatus, display control method and program
KR101432177B1 (en) Portable device and method for processing the photography the same, and photography processing system having it
EP3557406A2 (en) Device and method for performing functions
US20170364239A1 (en) Application icon customization
WO2011086956A1 (en) Information terminal device, control method using an information terminal device, and program
CN109167871A (en) For managing the user interface of controllable external equipment
CN108616712B (en) Camera-based interface operation method, device, equipment and storage medium
JP2007116270A5 (en)
JP2013105454A5 (en)
CN108345907A (en) Recognition methods, augmented reality equipment and storage medium
CN109068161A (en) A kind of equipment connection method for building up and device
JP2005065118A (en) Mobile terminal with remote control function and remote control server
CN104378674B (en) Establish the method and system of the communication connection between intelligent handhold device and smart television
JP5489974B2 (en) Server, remote assist system and method
US9652128B2 (en) Method and apparatus for controlling electronic device
CN208061136U (en) A kind of gesture identification terminal
JP2004030284A (en) Seamless pointing system
US9692918B2 (en) Device control system and device control method for managing remote conference
JP5266416B1 (en) Test system and test program
JP5984704B2 (en) Tablet monitoring terminal
US20190096130A1 (en) Virtual mobile terminal implementing system in mixed reality and control method thereof
JP2014068206A (en) Information processing terminal, information processing method, and device control system
KR20110004203A (en) Apparatus for controlling remote device and method for providing user interface thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080709

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110127

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140204

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees