JP4676303B2 - 端末装置 - Google Patents

端末装置 Download PDF

Info

Publication number
JP4676303B2
JP4676303B2 JP2005303243A JP2005303243A JP4676303B2 JP 4676303 B2 JP4676303 B2 JP 4676303B2 JP 2005303243 A JP2005303243 A JP 2005303243A JP 2005303243 A JP2005303243 A JP 2005303243A JP 4676303 B2 JP4676303 B2 JP 4676303B2
Authority
JP
Japan
Prior art keywords
image
information
user interface
display
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005303243A
Other languages
English (en)
Other versions
JP2007116270A5 (ja
JP2007116270A (ja
Inventor
恭一 中熊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005303243A priority Critical patent/JP4676303B2/ja
Publication of JP2007116270A publication Critical patent/JP2007116270A/ja
Publication of JP2007116270A5 publication Critical patent/JP2007116270A5/ja
Application granted granted Critical
Publication of JP4676303B2 publication Critical patent/JP4676303B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Selective Calling Equipment (AREA)
  • Telephone Function (AREA)
  • Details Of Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、通信により機器の制御を行う端末装置に係り、特に、携帯電話機などの端末装置に汎用リモコンの機能を持たせて、不特定の機器を制御できるようにした技術に関する。
近年、家庭内における情報化が進展し、ネットワーク・インターネット関連技術が普及してきた。これに伴い、家庭内において取り扱う情報は質・量共に増加し、情報を取り扱う情報家電においても、簡単な操作で情報を閲覧したり機器を操作したりするユーザーニーズが増加している。
ところが、家庭内で取り扱う情報の増加に伴い、家庭内の情報家電機器(以下、機器と記す)は増加し続け、これら機器の操作方法として一般的な赤外線リモコンも、機器の増加に比例して増えている。つまり、家庭内に多数の赤外線リモコンがあふれかえる結果となり、それが逆にユーザの使い勝手を低下させる問題となってきている。
この問題を解決するための方法として、特許文献1のような技術を用いることにより、ユニバーサルコントローラと呼ばれる汎用のリモコンを、ネットワークに対応した形で実現することが可能となり、赤外線が届かない位置にある機器もリモコン操作することが可能となる。
特開2002−232978号公報
上記した特許文献1に記載の技術によれば、汎用リモコンを、ネットワークに対応した形で実現可能である。しかし、これを実現するためには、対象となる機器の識別子をあらかじめリモコンに登録しておく必要があり、対象とする機器が新たに追加された場合には、ユーザが識別子を登録するといった手間が発生することになる。
本発明の目的は、機器を端末装置によるリモコン操作の対象として選ぶ仕組み、および、機器にあったユーザインターフェースを生成して操作可能とする仕組みを、操作者(ユーザ)に負担を掛けることなく実現できるようにすることにある。
本願による端末装置の代表的な1つの発明では、画像を撮影する撮像手段と、機器の特徴を表現する機器特徴情報を保持する機器特徴情報保持手段と、撮影した画像に前記機器特徴情報が含まれているか否かを判断する画像比較手段と、操作対象となる機器を選択する機器選択手段と、機器の操作を記述するスクリプトをデータベースまたは機器から取得するスクリプト取得手段と、前記スクリプトに従いユーザインタフェース(ユーザインタフェースイメージ)を生成するユーザインタフェース生成手段と、前記ユーザインタフェースを表示手段に表示する表示制御手段と、前記ユーザインタフェースを利用して操作者が操作情報を入力する入力手段と、前記操作情報を前記スクリプトに従い変換して制御情報を生成する制御情報生成手段と、操作対象となる機器と通信して前記制御情報を機器に送信する通信手段と、前記撮像手段で撮影した画像を解析して、画像中に生体が含まれるか否かを判断する生体判断手段と、撮影した画像中に生体が含まれる場合に、撮影した画像から生体部分画像と非生体部分画像を分離する画像分離手段とを備え、前記表示手段と前記入力手段は、ディスプレイを兼ねる入力デバイスであるタッチ表示パネルによって構成され、前記表示手段上に、下から順に、少なくとも、前記ユーザインタフェース、前記生体部分画像を重畳表示する機能を備える。
本発明によれば、機器を端末装置によるリモコン操作の対象として選ぶ仕組み、および、機器にあったユーザインターフェースを生成して操作可能とする仕組みを、操作者(ユーザ)に負担を掛けることなく実現できる。
以下、本発明の実施の形態を図面を用いて説明する。図1は、本発明の一実施形態(以下、本実施形態と記す)に係る端末装置とそれを含んで構成される機器制御システムの構成を示すブロックである。
機器制御システムは、端末装置1と、1台以上の機器5と、機器情報データベース7とを含んで構成される。端末装置1は、撮像手段としてのカメラ4と、表示手段としての表示装置2と、入力手段としてのタッチパネル装置3とを備え、表示装置2とタッチパネル装置3は、ディスプレイを兼ねる入力デバイスであるタッチ表示パネル装置により構成されている。この端末装置1としては、ここでは例えば携帯電話機を想定している。機器5は、エアコンや冷蔵庫などといった家庭内で使用する家電機器、あるいは、パソコンやレコーダ装置などといった情報を取り扱う情報機器であり、通信(無線通信、あるいは場合によっては有線での通信)により機器の遠隔操作を行うことができる情報家電機器となっている。機器情報データベース7は、機器5の情報を格納するデータベース装置であり、この機器情報データベース7は、無線あるいは有線で端末装置1と通信を行うデータベース、または、端末装置1の内部に内蔵されるタイプのデータベースのいずれであってもよく、要は、機器5に関する情報である後記する機器情報210を格納し、端末装置1が自由に利用できる仕組みを持つデータベースであればよい。なお、6は生体であり、ここでは、端末装置1を操作する操作者の手指を想定している。
端末装置1内には、撮像制御手段100、画像比較手段101、機器特徴情報保持手段102、機器選択手段103、生体判断手段104、ユーザインタフェース生成手段105、スクリプト取得手段106、通信手段107、画像分離手段108、表示制御手段109、制御情報生成手段110、制御手段111、入力受付・解釈手段112、座標情報比較手段113、位置関係検出手段114などが備えられている。そして、これらの各手段の大部分は、端末装置1に内蔵されたCPU、ROM、RAM、各種I/Fといったハードウェア資源と、予め用意された各種プログラムとによって、具現化されるようになっている。
撮像制御手段100は、カメラ4の動作を制御し、また、カメラ4が撮影した被写体(ここでは機器5や生体6)の画像を必要に応じて適宜に処理して一時記憶し、カメラ4で撮影した画像を、画像比較手段101、生体判断手段104、位置関係検出手段114に手渡す。機器特徴情報保持手段102は、機器の特徴を表現する後記する機器特徴情報230を保持する。画像比較手段101は、カメラ4で撮影した画像と、機器特徴情報保持手段102の保持する機器特徴情報230とを画像比較して、操作対象となる機器5であるか否かを判断する。機器選択手段103は、画像比較手段101において操作対象となる機器5があると判定された場合に、画像比較手段101からの出力と機器特徴情報保持手段102の保持する機器特徴情報230とを参照して、操作対象となる機器5の識別を行い、この識別した機器5を、通信手段107による通信相手として選択したり、端末装置1によるリモコン操作の対象として選択する機能をもつ。また、機器選択手段103は、通信手段107が機器5が具備する無線タグ(無線ICタグ)と交信して、無線タグ識別子を取得した場合には、無線タグ識別子から機器5の識別を行い、この識別した機器5を、通信相手として選択したり、端末装置1によるリモコン操作の対象として選択する機能をもつ。
生体判断手段104は、カメラ4で撮影した画像中に生体6の部分(ここでは、端末装置1を操作する操作者の手指)が撮影されているか否かを、つまり、端末装置1のカメラ4の前に(カメラ4の撮影視野の中に)操作者の手指がかざされているか否かを判断する。本実施形態では、カメラ4は可視光による画像撮影を行うものとなっており、生体判断手段104による判断処理は、肌色抽出、輪郭抽出、特徴抽出などの適宜の画像処理と、判定処理とを組み合わせることによって行われる。なお、カメラ4として、可視光による画像撮影と赤外光による画像撮影とを行う機能を備えたものを用いてもよく、この場合には、赤外光による画像撮影での画像から、人間の体温の存在箇所があるかどうかで、カメラ4で撮影した画像中に生体6の部分が撮影されているか否かを判断すればよい。画像分離手段108は、カメラ4で撮影した画像に生体の部分が含まれている場合に、カメラ4で撮影した画像(可視光による画像撮影での画像)から、生体6の部分の画像(生体部分画像)と、それ以外の部分の画像(非生体部分画像)とに分離する。画像分離手段108は、肌色抽出、輪郭抽出、特徴抽出などの適宜の画像処理により生体6の手指の部分領域を特定して、この特定した生体6の手指の部分領域を抽出することで、生体部分画像と非生体部分画像とに分離する。位置関係検出手段114は、カメラ4で撮影した画像と最新の生体部分画像とを用いて、端末装置1の操作者の指先と、端末装置1との位置関係を検出する。つまり、位置関係検出手段114は、カメラ4の撮影画角の中で指先がどの座標位置にあるのかを検出する。
通信手段107は、選択された機器5と通信を行い、機器5から後記する機器情報210を受信したり、機器5に対して制御情報を送信する。また、通信手段107は、機器情報データベース7とも通信を行い、後記する機器情報210を授受する。なお、機器情報データベース7が例えばUSBにより接続されるICメモリやHDDである場合には、通信手段107はUSB規格のインターフェースを通じて、機器情報データベース7と通信(情報の授受)をする。スクリプト取得手段106は、機器5や機器情報データベース7から取得した後記する機器情報210から後記するスクリプト300を取得して、これを保持する。機器特徴情報保持手段102は、取得した後記する機器情報210から後記する機器特徴情報230を取得して、これを保持する。
ユーザインタフェース生成手段105は、スクリプト取得手段106から手渡された後記するスクリプト300を解釈して、ユーザインタフェース(ユーザインタフェースイメージ)を生成する。表示制御手段109は、表示装置2上に表示させる各種画像データの生成処理を行うもので、下から順に、非生体部分画像、ユーザインタフェース、生体部分画像を重畳させた画像を表示装置2上に表示させたり、下から順に、ユーザインタフェース、生体部分画像を重畳させた画像を表示装置2上に表示させたりなどする機能をもつ。
入力受付・解釈手段112は、タッチパネル装置3に操作者の指が触れた場合に、その触れた座標位置を取得して、透明なタッチパネル装置3の下側の表示装置2に表示されたユーザインタフェース中のアイコンがタッチされたと判断すると、そのアイコンに応じたユーザによる操作情報を解釈して、操作情報を制御情報生成手段110に手渡す。座標情報比較手段113は、位置関係検出手段114からの指先の座標情報と、表示制御手段109からの表示指先の座標情報とを参照して、表示装置2に表示されたユーザインタフェース上に重畳表示された指先の動き・位置に応じて、操作者により操作情報が入力されたか否かを判断して、つまり、操作者が入力装置3に直接触れることなく操作情報の入力操作を行ったか否かを判断して(表示されたユーザインタフェース中のアイコンに仮想的に触れたか否かを判定して)、仮想的にアイコンがタッチされたと判断すると、そのアイコンに応じたユーザによる操作情報を解釈して、操作情報を制御情報生成手段110に手渡す。
制御情報生成手段110は、入力された操作情報と、スクリプト取得手段106のもつ後記するスクリプト300とから、機器5を制御するための制御情報を生成する。生成された制御情報は、制御手段111を通じて通信手段107に渡され、制御手段111の制御の下に、通信手段107から機器5に送信される。なお、制御手段111は、端末装置1全体を統括制御するもので、制御手段111の制御の下に各部が動作する。
次に、機器情報管理テーブル200について、図2を用いて説明する。機器情報管理テーブル200は、機器情報データベース7が保持し、1または複数の機器情報210から構成されるデータ格納テーブルである。機器情報210は、機器情報210を一意に識別するための機器識別子220と、機器のユーザインタフェース及び制御情報を記述するスクリプト300と、機器の特徴を記述する機種特徴情報230とから構成される。
機器識別子220は、機器1つ1つにつきユニークな値を持つ識別子であり、1つの機器識別子220は、例えば、TCP/IP(Transmission Contorol Protocol/Internet Protocol)プロトコルにおけるIPアドレスや、MAC(Media Access Control)アドレスのような唯一ある特定の機器を指定する値である。通信手段107は、この機器識別子220に示された値を用いて、その特定の機器と通信することが可能である。
スクリプト300は、機器のユーザインタフェース及び制御情報を記述するテキストベースの情報であり、このスクリプト300の構成については後述する。これを用いることにより、端末装置1は機器5を制御するためのユーザインタフェースを構築したり、また、機器5を制御するための制御情報を生成することが可能である。
機器特徴情報230は、機器5が持つ無線タグの識別子である無線タグ識別ID240と、機器5のフロントパネルを撮影したイメージである前面イメージ231と、機器5の側面を撮影したイメージである側面イメージ232と、機器5の名前をテキストベースで保持する機種名233と、機器5のスイッチがどこに配置されているかを示すスイッチ配置位置234と、機器5の表示装置の取り付け位置を示す表示装置位置235と、機器5がスタンバイ状態になったときに機器5の表示部に表示されるイメージである待ち受け表示イメージ(初期表示イメージ)236とから構成される。
次に、スクリプト300について、図3を用いて説明する。スクリプト300は、機器のユーザインタフェース及び制御情報を記述するテキストベースの情報であり、その構成を解釈することにより、機器5のユーザインタフェースをどう構築したらよいかを指示する、あるいは、機器5をどのように制御したらよいかを指示する情報であり、例えば、HTML(Hypertext Marcup Language)、XML(Extensive Marcup Language)、RSS(RDF Site Summary or Rich Site Summary or Really Simple Syndication)、GML(Standard Generalized Marcup Language)といった、テキストベースのマークアップ言語により記述することができる。図3においては、スクリプト300の1例を、XMLを用いて表現して説明する。
スクリプト300は、ユーザインタフェース310と、レイヤー1(320)と、機能1(330)と、機能2(331)とから構成される。なお、スクリプト300には、上記ユーザインタフェース310、レイヤー1(320)、機能1(330)、機能2(331)が、1つ以上複数個含まれていてもよい。
ユーザインタフェース310は、複数のレイヤー(311、312)で構成される。レイヤー311は、<レイヤー1 event=待ち受け/>と記述され、これはイベント“待ち受け”が発生した際には、“レイヤー1”つまりレイヤー1(320)に記載されたユーザインタフェースを実施することを意味する。レイヤー312は、<レイヤー2 event=起動状態/>と記述され、これはイベント“起動状態”が発生した際には、“レイヤー2”に記載されたユーザインタフェースを実施することを意味する。イベント“待ち受け”は、例えば、機器5に電源が供給されているも、ユーザが電源ボタンを押下する前の停止状態のことを示し、イベント“起動状態”は、ユーザが例えば電源ボタンを押下して機器5を立ち上げた直後の状態を意味する。すなわち、機器5がどのような状態にあるかを通信手段107を用いて機器5から取得し、それに応じて端末装置1のユーザインタフェースを変更することが可能となる。
レイヤー1(320)は、イメージ表示(321)とイメージ表示(322)と機能2(323)とから構成される。イメージ表示321は、<イメージ表示 x=10 y=20 res=背景.jpg/>と記述される。これは、レイヤー1(320)を実施した際に、resに指定した画像、つまり、ここでは“背景.jpg”というイメージファイルを取得し、表示装置2の座標(x、y)=(10,20)の位置に“イメージ表示”する、という動作を実施する。“イメージ表示”は、端末装置1のユーザインタフェースが独自に設ける制御文字列であり、イメージあるいは画像を表示装置2に表示するための文字列であれば、どのようなものであってもよい。
イメージ表示322は、<イメージ表示 x=30 y=40 res=スイッチ.jpg target=機能1/>と記述される。これは、レイヤー1(320)を実施した際に、resに指定した画像、つまり、ここでは“スイッチ.jpg”というイメージファイルを取得し、表示装置2の座標(x、y)=(30,40)の位置に“イメージ表示”する、という動作を実施する。加えて、この画像にハイパーリンクとして“機能1”の割付けを実施する。これは、ユーザが入力装置を用いてこの“スイッチ.jpg”を選択した場合、“機能1”に相当するスクリプトを実施する、という意味を表す。
機能1(330)は、<機能1 device=機器1 command=制御コマンド1 status=起動状態/>と記述される。これは、前述の“機能1”というスクリプトをどのように実施するかを記載した情報であり、“機器1”に対し“制御コマンド1”という文字列を送出したのち、機器5の状態を“起動状態”とする、という意味を示す。ここで、“制御コマンド1”とは、前述の制御情報のことであり、“機器1”すなわち機器5に対し送出する制御情報である。機能2(331)は、<機能2 device=機器1 command=制御コマンド2 status=待ち受け状態/>と記述される。これは、“機器1”に対し“制御コマンド2”という文字列を送出したのち、機器5の状態を“待ち受け状態”とする、という意味を示す。ここで、“制御コマンド2”とは、前述の制御情報のことであり、“機器1”すなわち機器5に対し送出する制御情報である。
以上のようなスクリプト300を用いて、ユーザインタフェースを構築したり、機器に対する制御コマンドの送出方法を記述することができる。
次に、本実施形態において、端末装置1に撮影された機器5をリモコン操作の対象に選び、機器5に適合するユーザインターフェースを生成して、機器5をリモコン操作する動作について、図4に示すフローチャートを用いて説明する。
まず、通信手段107を用いて機器5に無線タグ(無線ICタグ)が付加されているか否かを判断するために、無線タグ識別子を取得し(ステップ1001)、もし機器5に無線タグがあるならば(ステップ1002で有りならば)、通信手段107により機器5との通信回線を開き通信を開始する(ステップ1100)。次に、機器5から前述の機器情報210を取得し(ステップ1101)、通信回線を切断して通信を終了する(ステップ1102)。次に、端末装置1のカメラ4を用いて、画像を取得し(ステップ1103)、ステップ1006を実行する。なお、ステップ1103で取得される画像は、ここでは、機器5と端末装置1の操作者の手指とを含んだ画像である。
ステップ1002において、機器5に無線タグがないと判断した場合には(ステップ1002で無しの場合には)、通信手段107を用いて機器情報データベース7と通信を行い、機器情報管理テーブル200から、全ての機器情報210を取得する。また、端末装置1のカメラ4を用いて画像を取得し(ステップ1004)、ステップ2000の機器判断処理を実施する。ステップ2000の機器判断処理の詳細については後述する。なお、ステップ1104で取得される画像も、ここでは、機器5と端末装置1の操作者の手指とを含んだ画像である。
ステップ2000の機器判断処理において、機器5の機器識別子220が機種特徴情報230を参照しても発見できない場合には(ステップ1005でNo判定の場合には)、ステップ1000に戻る(ないしは、本フローを終了する)。機器5の機器識別子220が機種特徴情報230を参照して発見できた場合には(ステップ1005でYes判定の場合には)、機器情報210からスクリプト300を取得する(ステップ1006)。また、ステップ1103からステップ1006に移行した場合も、機器情報210からスクリプト300を取得する。次に、前述したようにスクリプト300の解釈を行い、ユーザインタフェース(ユーザインタフェースイメージ)の生成を行う(ステップ1007)。スクリプト300の解釈は、基本的にスクリプト300の最初から文字列を読み込み、HTML,XML,RSS,GMLなどハイパーテキスト文書の規約に従って解釈することにより、ユーザインタフェースを構築する。
次に、ステップ1103あるいはステップ1004でカメラ4を用いて撮影した画像から、生体部分画像と非生体部分画像とを分離する(ステップ1008)。次に、非生体部分画像を表示装置2に表示(ステップ1009)した後、非生体部分画像の上に重ねてユーザインタフェース(ユーザインタフェースイメージ)を表示し(ステップ1010)、さらに、ユーザインタフェースの上に重ねて生体部分画像を表示する(ステップS1011)。図7の(b)は、ステップS1011での処理の後の、表示装置2上の表示例を示している。そして、ステップ3000での入力処理及び機器制御処理を実施して、ステップ1000に戻る。なお、ステップ3000での入力処理及び機器制御処理の詳細については後述する。
次に、図4の前記したステップ2000の機器判断処理について、図5に示すフローチャートを用いて説明する。
まず、機器情報データベース7の機器情報管理テーブル200から取得した機器情報210から、1つの機器情報210をワークエリアに取り出し(ステップ2001)、もし、最後の機器情報210までの取り出しが終了していて、もはや取り出す機器情報210がない場合には(ステップ2002でYes判定の場合には)、操作対象として該当する機器5でない旨を、図4の機器判断処理の出力とし(ステップ2012)、本フローを終了する(ステップ2014)。
ステップ2002において機器情報210が取り出しできるならば(ステップ2002でNo判定の場合には)、該機器情報210から機器特徴情報230を取り出す(ステップ2003)。次に、図4のステップ1004で取得した画像(カメラ4で撮影した画像)をワークエリアに取り出し(ステップ2004)、機種特徴情報230の前面イメージ231、側面イメージ232、機種名233、スイッチ配置位置234、表示装置位置235、待ち受け表示イメージ236を、カメラ4で撮影した画像と、画像(イメージ)比較する(ステップ2004)。この比較は、カメラ4で撮影した画像を伸縮・拡張して、その画像と機種特徴情報230内のイメージとを比較する、あるいは、画像の特徴点を取得して、その特徴点が一致するか否かといった、画像比較を行うものであればどのような手順であってもよい。
ステップ2005において行ったイメージ比較処理において、前面イメージ231が一致したと判断した場合には(ステップ2006でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(ステップ2014)。もし、ステップ2005において行ったイメージ比較処理において、側面イメージ232が一致したと判断した場合には(ステップ2007でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(2014)。もし、ステップ2005において行ったイメージ比較処理において、機種名233が一致したと判断した場合には(ステップ2008でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(ステップ2014)。もし、ステップ2005において行ったイメージ比較処理において、スイッチ配置位置234が一致したと判断した場合には(ステップ2009でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(ステップ2014)。もし、ステップ2005において行ったイメージ比較処理において、表示装置位置235が一致したと判断した場合には(ステップ2010でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(ステップ2014)。もし、ステップ2005において行ったイメージ比較処理において、待ち受け表示イメージ236が一致したと判断した場合には(ステップ2011でYes判定の場合には)、ステップ2013に進み、機器情報210の機器識別子220を、図4の機器判断処理の出力とし(ステップ2013)、本フローを終了する(ステップ2014)。もし、ステップ2011において待ち受け表示イメージが一致しない場合には(ステップ2011でNo判定の場合には)、ステップ2001で取得した機器情報210に該当しなかったと判断し、次の機器情報210を取得するためにステップ2001へ進み、処理を継続する。
次に、タッチパネル装置3を操作者が直接操作して操作情報を入力すること、あるいは、カメラ4で撮影された画像から操作者による操作情報の入力を取得することで、機器5に対する制御情報を生成して、これを機器5に対して送出する処理である、図4の前記したステップ3000の入力及び機器制御処理について、図6に示すフローチャートを用いて説明する。
まず、図4のステップ1007において、ユーザインタフェースを生成したか否かを判断し(ステップ3001)、ユーザインタフェースがないと判断した場合には(ステップ3001でNo判定の場合には)、操作者の入力を受け付ける必要がないため、本フローを終了する(ステップ3015)。もし、ユーザインタフェースがあると判断した場合には(ステップ3001でYes判定の場合には)、図4のステップ1008においてカメラ4で撮影した画像から分離した生体部分画像を、ワークエリアに取り出し(ステップ3002)、ワークエリアに既に展開されている前回撮影分の生体部分画像との比較により、操作者が入力したか否かを判断する(ステップ3003)。これは、例えば、生体部分画像の指(表示された指)がユーザインタフェースのアイコンなどを触った場合には、指部分の動きがその際に停止するため、前回撮影した画像から抽出した生体部分画像との比較を行うことで、操作者が入力したか否かを判断することが可能となる。もし、入力がないと判断した場合には(ステップ3003でNo判定の場合には)、タッチパネル装置3による入力受け付けに移行し(ステップ3004)、タッチパネル装置3を用いた操作者の入力操作の有無を判定する(ステップ3005)。もし入力がない、つまり操作者がタッチパネル装置3を触っていなければ、操作者からの入力がなかったと判断して(ステップ3005でNo判定をして)、本フローを終了する(ステップ3015)。もし入力がある場合、つまり操作者がタッチパネル装置3を触っていれば、操作者からの入力があったと判断して(ステップ3005でYes判定をして)、ステップ3007の処理を実行する。
また、ステップ3003において、操作者からの入力があると判断した場合には(ステップ3003でYes判定の場合には)、生体部分画像の特徴情報などから指先がどこにあるかを判断して(ステップ3006)、指先の座標情報を取得する(ステップ3007)。タッチパネル装置2からの入力であれば(ステップ3005でYes判定であれば)、そのタッチされた入力位置の座標情報を取得する(ステップ3007)。
次に、スクリプト300を参照して、そのハイパーテキストを解釈する(ステップ3008)。ハイパーテキストにおいて、例えば図3のスクリプト300の例で説明すると、レイヤー1のイメージ表示322のように、アイコンのイメージと、その表示開始位置が記述してあるので、アイコンのサイズと表示開始位置を合わせると特定の範囲を機能1に割り当てることができる。ステップ3007において取得したX,Y座標が、範囲内にあるか否かを判断する(ステップ3009)。この判断は、スクリプト300に記載されたすべてのアイコンに対して判断を行い、もし範囲内にないと判断した場合には(ステップ3009でNo判定の場合には)、そのアイコンを押していないことから、本フローを終了する(ステップ3015)。もし範囲内にあると判断した場合には(ステップ3009でYes判定の場合には)、スクリプト300から処理すべき機能を取得する(ステップ3010)。図3の例で説明すると、イメージ表示322に対応する“機能1“が機能1(330)に記載されているため、そこからdeviceとcommandの情報を取得する(ステップ3011)。次に、端末装置1の通信手段107を用いて、前記deviceに指定されている機器5と通信を開始し(ステップ3012)、commandに記載されている制御コマンド(制御情報)を機器5に対し通信回線を用いて送出し(ステップ3013)、然る後、通信を停止する(ステップ3014)。そして、本フローを終了し(3015)、すべての制御コマンドの送出を終了する。
以上の動作により、端末装置1に撮影された機器5をリモコン操作の対象に選び、該機器5に適合するユーザインターフェースを生成して、機器5をリモコン操作する動作を実現することが可能となる。
図7の(a)は、端末装置1のカメラ4により生体(操作者の指先)6を撮影し、撮影された指先によりリモコン操作を行っている様子を示しており、701は操作者の目を表している。図7の(b)は、図7の(a)において操作者の目701が観ている、表示装置2上の表示画像例を示している。図7の(b)において、702は、表示画面の一番下側に表示された非生体部分画像、703は、非生体部分画像702の上側に重畳表示されたユーザインタフェース(ユーザインタフェースイメージ)、704は、ユーザインタフェース703の上に重畳表示された生体部分画像である。
図7の(a)、(b)に示すように、タッチパネル装置3に触れることなく、カメラ4で撮影された指先により、表示装置2上に表示されたユーザインタフェース703を仮想的に操作することで、リモコン操作を行うように構成すると、端末装置1が携帯電話機のように小型の装置で、表示装置2のサイズが小さいものであっても、実際の指先よりも小さいサイズの生体部分画像(表示指先画像)によって、ユーザインタフェース703中の細かなアイコンを的確に操作することが可能となる。また、ユーザインタフェース703に多くのアイコンを配置することも可能となる。
なお、上述の例では、非生体部分画像702、ユーザインタフェース703、生体部分画像704の3者を重畳表示して、非生体部分画像702によって、操作している機器5のイメージが操作者に認知できるようにしているが、リモコン操作の際には、非生体部分画像702の表示は必ずしも必要ではなく、ユーザインタフェース703上に生体部分画像704を重畳表示させるだけでもよい。
本発明の一実施形態に係る端末装置とそれを含んで構成される機器制御システムの構成を示すブロックである。 本発明の一実施形態に係る端末装置が用いる機器情報データベースが保持する機器情報管理テーブルの内容を示す説明図である。 図2の機器情報管理テーブル中における機器情報のスクリプトの例を示す説明図である。 本発明の一実施形態に係る端末装置の処理フローを示すフローチャートである。 図4中の機器判断処理の詳細を示すフローチャートである。 図4中の入力及び機器制御処理の詳細を示すフローチャートである。 本発明の一実施形態に係る端末装置を用いたリモコン操作の例を示す説明図である。
符号の説明
1 端末装置
2 表示装置
3 タッチパネル装置
4 カメラ
5 機器
6 生体
7 機器情報データベース
100 撮像制御手段
101 画像比較手段
102 機器特徴情報保持手段
103 機器選択手段
104 生体判断手段
105 ユーザインタフェース生成手段
106 スクリプト取得手段
107 通信手段
108 画像分離手段
109 表示制御手段
110 制御情報生成手段
111 制御手段
112 入力受付・解釈手段
113 座標情報比較手段
114 位置関係検出手段
200 機器情報管理テーブル
210 機器情報
220 機器識別子
230 機器特徴情報
231 前面イメージ
232 側面イメージ
233 機種名
234 スイッチ配置位置
235 表示装置位置
236 待ち受け表示イメージ
240 無線タグ識別ID
300 スクリプト
310 ユーザインタフェース
320 レイヤー1
330 機能1
331 機能2

Claims (3)

  1. 操作対象となる機器と通信する機能をもつ端末装置であって、
    画像を撮影する撮像手段と、
    機器の特徴を表現する機器特徴情報を保持する機器特徴情報保持手段と、
    撮影した画像に前記機器特徴情報が含まれているか否かを判断する画像比較手段と、
    操作対象となる機器を選択する機器選択手段と、
    機器の操作を記述するスクリプトをデータベースまたは機器から取得するスクリプト取得手段と、
    前記スクリプトに従いユーザインタフェース(ユーザインタフェースイメージ)を生成するユーザインタフェース生成手段と、
    前記ユーザインタフェースを表示手段に表示する表示制御手段と、
    前記ユーザインタフェースを利用して操作者が操作情報を入力する入力手段と、
    前記操作情報を前記スクリプトに従い変換して制御情報を生成する制御情報生成手段と、
    操作対象となる機器と通信して前記制御情報を機器に送信する通信手段と
    前記撮像手段で撮影した画像を解析して、画像中に生体が含まれるか否かを判断する生体判断手段と、
    撮影した画像中に生体が含まれる場合に、撮影した画像から生体部分画像と非生体部分画像を分離する画像分離手段と
    を備え、
    前記表示手段と前記入力手段は、ディスプレイを兼ねる入力デバイスであるタッチ表示パネルによって構成され、
    前記表示手段上に、下から順に、少なくとも、前記ユーザインタフェース、前記生体部分画像を重畳表示する機能を備えたことを特徴とする端末装置。
  2. 請求項1に記載の端末装置において、
    前記表示手段上に、下から順に、前記非生体部分画像、前記ユーザインタフェース及び前記生体部分画像を重畳表示する機能を備えたことを特徴とする端末装置。
  3. 請求項1に記載の端末装置において、
    前記撮像手段は、可視光による画像撮影と赤外光による画像撮影とを行う機能を備えたことを特徴とする端末装置。
JP2005303243A 2005-10-18 2005-10-18 端末装置 Expired - Fee Related JP4676303B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005303243A JP4676303B2 (ja) 2005-10-18 2005-10-18 端末装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005303243A JP4676303B2 (ja) 2005-10-18 2005-10-18 端末装置

Publications (3)

Publication Number Publication Date
JP2007116270A JP2007116270A (ja) 2007-05-10
JP2007116270A5 JP2007116270A5 (ja) 2008-08-21
JP4676303B2 true JP4676303B2 (ja) 2011-04-27

Family

ID=38098087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005303243A Expired - Fee Related JP4676303B2 (ja) 2005-10-18 2005-10-18 端末装置

Country Status (1)

Country Link
JP (1) JP4676303B2 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101201856B1 (ko) 2008-02-27 2012-11-15 교세라 가부시키가이샤 유저인터페이스생성장치
KR101164195B1 (ko) 2008-12-01 2012-07-11 한국전자통신연구원 영상 데이터 획득을 통해 사용자 단말을 판별하는 디지털 컨텐츠 제공 장치 및 사용자 단말 판별 방법
JP2010204730A (ja) * 2009-02-27 2010-09-16 Seiko Epson Corp ジェスチャーに応答して機器を制御するシステム
CA2756369C (en) * 2009-03-26 2018-01-09 Xped Holdings Pty Ltd An arrangement for managing wireless communication between devices
US8818274B2 (en) * 2009-07-17 2014-08-26 Qualcomm Incorporated Automatic interfacing between a master device and object device
CN102714767A (zh) * 2010-01-18 2012-10-03 日本电气株式会社 信息终端装置、信息终端装置的操作方法及其程序
JP2011203808A (ja) * 2010-03-24 2011-10-13 Panasonic Corp 携帯情報端末
JP5743416B2 (ja) * 2010-03-29 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
KR101219933B1 (ko) * 2010-09-13 2013-01-08 현대자동차주식회사 증강현실을 이용한 차량 내 디바이스 제어 시스템 및 그 방법
JP5764387B2 (ja) 2011-05-27 2015-08-19 京セラ株式会社 遠隔操作装置、遠隔制御システムおよび制御プログラム
JP5734810B2 (ja) * 2011-11-14 2015-06-17 株式会社東芝 機器制御装置、その方法、及び、そのプログラム
JP2013114466A (ja) * 2011-11-29 2013-06-10 Nikon Corp 表示システム、表示方法およびプログラム
JP5983053B2 (ja) * 2012-06-01 2016-08-31 コニカミノルタ株式会社 ガイダンス表示システム、ガイダンス表示装置、ガイダンス表示方法、およびガイダンス表示プログラム
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US8994827B2 (en) * 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
EP2804164B1 (de) * 2013-05-14 2015-09-02 Siemens Aktiengesellschaft Betriebsverfahren für Bedienhandgerät und Bedienhandgerät mit Umgebungserkennung und RFID-Sensorik
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
JP2015230496A (ja) * 2014-06-03 2015-12-21 シャープ株式会社 電子機器
JP6354653B2 (ja) * 2015-04-25 2018-07-11 京セラドキュメントソリューションズ株式会社 拡張現実操作システムおよび拡張現実操作プログラム
GB201703218D0 (en) * 2017-02-28 2017-04-12 Univ Surrey Methods and apparatus for adaptive interaction with remote devices
JP6909961B2 (ja) 2017-04-21 2021-07-28 パナソニックIpマネジメント株式会社 表示方法、プログラム、及び、表示システム
US11003425B2 (en) * 2019-01-10 2021-05-11 Disti, Llc Mixed criticality user interface development system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092787A (ja) * 2001-09-18 2003-03-28 Ntt Software Corp リモコン装置及びリモコン制御装置
JP2005513941A (ja) * 2001-12-28 2005-05-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動器具識別及びプログラミングを有するユニバーサル・リモコン装置
JP2005277664A (ja) * 2004-03-24 2005-10-06 Alpine Electronics Inc 電子機器制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092787A (ja) * 2001-09-18 2003-03-28 Ntt Software Corp リモコン装置及びリモコン制御装置
JP2005513941A (ja) * 2001-12-28 2005-05-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動器具識別及びプログラミングを有するユニバーサル・リモコン装置
JP2005277664A (ja) * 2004-03-24 2005-10-06 Alpine Electronics Inc 電子機器制御装置

Also Published As

Publication number Publication date
JP2007116270A (ja) 2007-05-10

Similar Documents

Publication Publication Date Title
JP4676303B2 (ja) 端末装置
JP6893606B2 (ja) 画像のタグ付け方法、装置及び電子機器
CN103176690B (zh) 显示控制设备、显示控制方法和程序
EP3557406B1 (en) Device and method for performing functions
JP4569613B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
KR101432177B1 (ko) 휴대용 장치 및 그 사진처리방법, 이를 포함하는사진처리시스템
WO2011086956A1 (ja) 情報端末機器、情報端末機器による操作方法及びプログラム
US20170364239A1 (en) Application icon customization
CN109167871A (zh) 用于管理可控外部设备的用户界面
CN108616712B (zh) 一种基于摄像头的界面操作方法、装置、设备及存储介质
CN108345907A (zh) 识别方法、增强现实设备及存储介质
JP5489974B2 (ja) サーバ、リモートアシストシステム及び方法
US20140223349A1 (en) Method and apparatus for controlling electronic device
JP4163456B2 (ja) シームレスポインティングシステム
US10588433B2 (en) Data setting method for body information analysis apparatus
US20140376042A1 (en) Image forming system, image forming apparatus, remote control apparatus, and recording medium
US20160044187A1 (en) Device control system and device control method
JP5984704B2 (ja) タブレット監視端末
CN108141474B (zh) 与外部设备共享内容的电子设备及其用于共享内容的方法
JP2010244211A (ja) 情報入力装置および情報入力方法
JP2014102572A (ja) テストシステム及びテストプログラム
KR20110004203A (ko) 원격 제어 장치 및 원격 제어 장치에 대한 사용자 인터페이스 제공 방법
JP2016143284A (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
CN106406831A (zh) 手持式电子装置与电子相框的控制方法
KR101560748B1 (ko) 스마트폰을 이용한 원격 제어 시스템 장치 및 그 동작 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080709

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110127

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140204

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees