JP2005250734A - ユビキタス環境情報スナップショットデータの生成方法、閲覧方法、生成装置、閲覧装置及びプログラム並びにユビキタス環境情報スナップショットのデータ構造 - Google Patents
ユビキタス環境情報スナップショットデータの生成方法、閲覧方法、生成装置、閲覧装置及びプログラム並びにユビキタス環境情報スナップショットのデータ構造 Download PDFInfo
- Publication number
- JP2005250734A JP2005250734A JP2004058663A JP2004058663A JP2005250734A JP 2005250734 A JP2005250734 A JP 2005250734A JP 2004058663 A JP2004058663 A JP 2004058663A JP 2004058663 A JP2004058663 A JP 2004058663A JP 2005250734 A JP2005250734 A JP 2005250734A
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- environment
- data
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000001514 detection method Methods 0.000 claims description 8
- 238000004458 analytical method Methods 0.000 claims description 2
- 230000007613 environmental effect Effects 0.000 description 22
- 230000006870 function Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000010191 image analysis Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 101100191408 Arabidopsis thaliana PRN2 gene Proteins 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000007557 optical granulometry Methods 0.000 description 2
- 208000033748 Device issues Diseases 0.000 description 1
- 101100063510 Notophthalmus viridescens DLX3 gene Proteins 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】 家電機器の操作情報やセンサ情報などの環境情報を写真ファイル内に埋め込むことで画像上に環境情報を視覚化する方式を提案する。これにより直感的な環境情報の取得、管理が実現できる。
【解決手段】 カメラ1aで機器2を含む環境を撮影して画像データを取得する。機器2に関連付けられたタグ2bを画像内で検索し、タグに基づき機器の識別情報と機器の画像内の座標を取得する。機器の識別情報に基づき機器の操作情報及びアドレス情報を含む機器情報をディレクトリサーバ3へ問い合わせる。機器情報を取得し、機器情報に含まれるアドレス情報を参照して機器2の状態提供部2aに対して作業状態を問い合わせる。画像データに、機器の前記画像内の座標、機器の操作情報とアドレス情報とを含む機器情報、及び、機器の作業状態の情報を含む付加データを付加する。
【選択図】 図1
【解決手段】 カメラ1aで機器2を含む環境を撮影して画像データを取得する。機器2に関連付けられたタグ2bを画像内で検索し、タグに基づき機器の識別情報と機器の画像内の座標を取得する。機器の識別情報に基づき機器の操作情報及びアドレス情報を含む機器情報をディレクトリサーバ3へ問い合わせる。機器情報を取得し、機器情報に含まれるアドレス情報を参照して機器2の状態提供部2aに対して作業状態を問い合わせる。画像データに、機器の前記画像内の座標、機器の操作情報とアドレス情報とを含む機器情報、及び、機器の作業状態の情報を含む付加データを付加する。
【選択図】 図1
Description
本発明は、家電機器の操作情報やセンサ情報などの環境情報をu-Photoと呼ばれる写真ファイル内に埋め込むことで環境情報を画像上に視覚化する方式に関する。
近年、コンピュータの小型化とその遍在化により、「いつでもどこでも」ユーザがコンピュータを利用できるユビキタスコンピューティング環境が実現しつつある。ユビキタスコンピューティング環境では、パーソナルコンピュータ(PC)や携帯情報端末(PDA)といったコンピュータに加え、環境内に設置された多くの家電機器やセンサがそれぞれ計算能力とネットワークコネクティビティを備え、ユーザはこれらを利用することができる。
IWAMOTO, T., NISHIO, N., TOKUDA, H., "Wapplet: A Media Access Framework for Wear-able Applications," The 16th IEEE International Conference on Information Networking, pp.127-137, 2002. FERSCHA, A., KELLER, M.,"DigiScope: An Invisible Worlds Window," Adjunct Proceedings, The Fifth International Conference on Ubiqui-tous Computing, pp.261-262, October 2003.
IWAMOTO, T., NISHIO, N., TOKUDA, H., "Wapplet: A Media Access Framework for Wear-able Applications," The 16th IEEE International Conference on Information Networking, pp.127-137, 2002. FERSCHA, A., KELLER, M.,"DigiScope: An Invisible Worlds Window," Adjunct Proceedings, The Fifth International Conference on Ubiqui-tous Computing, pp.261-262, October 2003.
しかし、扱う情報が増えるにつれて、ユーザが各情報を把握することが困難になる。このような環境では、氾濫する情報のなかから必要な情報をどのようにして取得し、管理するかが重要となる。
そこで、本発明は、家電機器の操作情報やセンサ情報などの環境情報をu-Photo と呼ばれる写真ファイル内に埋め込むことで、画像上に環境情報を視覚化する方式を提案する。これにより、直感的な環境情報の取得、管理が実現できる。
この発明に係るユビキタス環境情報スナップショットデータの生成方法は、
機器を含む環境を撮影して画像データを取得するステップと、
前記機器に関連付けられたタグを前記画像内で検索するステップと、
前記タグに基づき前記機器の識別情報と前記機器の前記画像内の座標を取得するステップと、
前記機器の識別情報に基づき前記機器の操作情報及びアドレス情報を含む機器情報を問い合わせるステップと、
前記機器情報を取得するステップと、
前記機器情報に含まれるアドレス情報を参照して前記機器に対して作業状態を問い合わせるステップと、
前記機器の作業状態の情報を取得するステップと、
前記画像データに、前記機器の前記画像内の座標、前記機器の操作情報とアドレス情報とを含む機器情報、及び、前記機器の作業状態の情報を含む付加データを付加するステップと、を備えるものである。
機器を含む環境を撮影して画像データを取得するステップと、
前記機器に関連付けられたタグを前記画像内で検索するステップと、
前記タグに基づき前記機器の識別情報と前記機器の前記画像内の座標を取得するステップと、
前記機器の識別情報に基づき前記機器の操作情報及びアドレス情報を含む機器情報を問い合わせるステップと、
前記機器情報を取得するステップと、
前記機器情報に含まれるアドレス情報を参照して前記機器に対して作業状態を問い合わせるステップと、
前記機器の作業状態の情報を取得するステップと、
前記画像データに、前記機器の前記画像内の座標、前記機器の操作情報とアドレス情報とを含む機器情報、及び、前記機器の作業状態の情報を含む付加データを付加するステップと、を備えるものである。
この発明に係るユビキタス環境情報スナップショットデータの閲覧方法は、
画像データと、機器の前記画像内の座標、前記機器の操作情報とアドレス情報とを含む機器情報、及び、前記機器の作業状態の情報を含み、前記画像データに付加される付加データとを備えるデータを読み込むステップと、
前記画像データに基づき画像を表示するステップと、
前記機器の前記画像内の座標に対応する位置に前記機器のアイコンを配置するステップと、
前記機器の操作情報に基づき前記機器の操作手段を表示するステップと、
前記機器の作業状態の情報に基づき前記機器の作業状態を表示するステップと、
表示された前記機器の操作手段が操作されたときに、前記機器の操作情報とアドレス情報を参照して操作命令を送信するステップと、
前記機器の作業状態の情報が更新されたとき、更新された作業状態の情報に基づき前記機器の作業状態を再表示するステップと、を備えるものである。
画像データと、機器の前記画像内の座標、前記機器の操作情報とアドレス情報とを含む機器情報、及び、前記機器の作業状態の情報を含み、前記画像データに付加される付加データとを備えるデータを読み込むステップと、
前記画像データに基づき画像を表示するステップと、
前記機器の前記画像内の座標に対応する位置に前記機器のアイコンを配置するステップと、
前記機器の操作情報に基づき前記機器の操作手段を表示するステップと、
前記機器の作業状態の情報に基づき前記機器の作業状態を表示するステップと、
表示された前記機器の操作手段が操作されたときに、前記機器の操作情報とアドレス情報を参照して操作命令を送信するステップと、
前記機器の作業状態の情報が更新されたとき、更新された作業状態の情報に基づき前記機器の作業状態を再表示するステップと、を備えるものである。
この発明に係るユビキタス環境情報スナップショットデータの生成方法は、
環境を撮影して画像データを取得するステップと、
前記環境及び/又は前記環境に含まれる機器に関連付けられたセンサ情報を検索するステップと、
前記センサ情報を取得するステップと、
前記画像データに、前記センサ情報を含む付加データを付加するステップと、を備えるものである。
環境を撮影して画像データを取得するステップと、
前記環境及び/又は前記環境に含まれる機器に関連付けられたセンサ情報を検索するステップと、
前記センサ情報を取得するステップと、
前記画像データに、前記センサ情報を含む付加データを付加するステップと、を備えるものである。
環境を撮影したときの位置を検出するステップを備え、
前記センサ情報を検索するステップは、検出された位置に基づきセンサ情報を検索するようにしてもよい。
前記センサ情報を検索するステップは、検出された位置に基づきセンサ情報を検索するようにしてもよい。
前記環境に含まれる機器に関連付けられたタグを前記画像内で検索するステップと、
前記タグに基づき前記機器の識別情報を取得するステップと、を備え、
前記センサ情報を検索するステップは、前記機器の識別情報に基づきセンサ情報を検索するようにしてもよい。
前記タグに基づき前記機器の識別情報を取得するステップと、を備え、
前記センサ情報を検索するステップは、前記機器の識別情報に基づきセンサ情報を検索するようにしてもよい。
この発明に係るユビキタス環境情報スナップショットデータの閲覧方法は、
画像データと、環境及び/又は前記環境に含まれる機器に関連付けられるセンサ情報を含み、前記画像データに付加される付加データとを備えるデータを読み込むステップと、
前記画像データに基づき画像を表示するステップと、
前記センサ情報を参照してセンサの値を表示するステップと、
前記センサの値の更新要求を受けたときに、前記センサ情報に基づき前記センサの値の更新命令を送信するステップと、
前記センサの値が更新されたとき、更新されたセンサの値に基づき前記センサの値を再表示するステップと、を備えるものである。
画像データと、環境及び/又は前記環境に含まれる機器に関連付けられるセンサ情報を含み、前記画像データに付加される付加データとを備えるデータを読み込むステップと、
前記画像データに基づき画像を表示するステップと、
前記センサ情報を参照してセンサの値を表示するステップと、
前記センサの値の更新要求を受けたときに、前記センサ情報に基づき前記センサの値の更新命令を送信するステップと、
前記センサの値が更新されたとき、更新されたセンサの値に基づき前記センサの値を再表示するステップと、を備えるものである。
この発明に係るユビキタス環境情報スナップショットデータの生成方法は、
コンテンツを再生中の機器を含む環境を撮影して画像データを取得するステップと、
前記機器に関連付けられたタグを前記画像内で検索するステップと、
前記タグに基づき前記機器の識別情報を取得するステップと、
前記機器の識別情報に基づき前記機器の操作情報及びアドレス情報を含む機器情報を問い合わせるステップと、
前記機器情報に含まれるアドレス情報を参照して前記機器に対して作業状態を問い合わせるステップと、
再生中のコンテンツの情報及び再生位置に関する情報を含む前記機器の作業状態の情報を取得するステップと、
前記画像データに、少なくとも、前記機器の操作情報を含む機器情報と、再生中のコンテンツの情報及び再生位置に関する情報を含む前記機器の作業状態の情報とを含む付加データを付加するステップと、を備えるものである。
コンテンツを再生中の機器を含む環境を撮影して画像データを取得するステップと、
前記機器に関連付けられたタグを前記画像内で検索するステップと、
前記タグに基づき前記機器の識別情報を取得するステップと、
前記機器の識別情報に基づき前記機器の操作情報及びアドレス情報を含む機器情報を問い合わせるステップと、
前記機器情報に含まれるアドレス情報を参照して前記機器に対して作業状態を問い合わせるステップと、
再生中のコンテンツの情報及び再生位置に関する情報を含む前記機器の作業状態の情報を取得するステップと、
前記画像データに、少なくとも、前記機器の操作情報を含む機器情報と、再生中のコンテンツの情報及び再生位置に関する情報を含む前記機器の作業状態の情報とを含む付加データを付加するステップと、を備えるものである。
この発明に係るユビキタス環境情報スナップショットデータの閲覧方法は、
画像データと、少なくとも、機器の操作情報を含む機器情報と、再生中のコンテンツの情報及び再生位置に関する情報を含む前記機器の作業状態の情報とを含み、前記画像データに付加される付加データとを備えるデータを読み込むステップと、
前記機器情報に基づき利用可能な機器を検索するステップと、
前記機器の操作情報に基づき前記機器の操作手段を表示するステップと、
前記機器の作業状態の情報に基づき前記機器の作業状態を表示するステップと、
検索された利用可能な機器に対して、再生中のコンテンツの情報及び再生位置に関する情報を含む操作命令を送出するステップと、を備えるものである。
画像データと、少なくとも、機器の操作情報を含む機器情報と、再生中のコンテンツの情報及び再生位置に関する情報を含む前記機器の作業状態の情報とを含み、前記画像データに付加される付加データとを備えるデータを読み込むステップと、
前記機器情報に基づき利用可能な機器を検索するステップと、
前記機器の操作情報に基づき前記機器の操作手段を表示するステップと、
前記機器の作業状態の情報に基づき前記機器の作業状態を表示するステップと、
検索された利用可能な機器に対して、再生中のコンテンツの情報及び再生位置に関する情報を含む操作命令を送出するステップと、を備えるものである。
この発明に係るユビキタス環境情報スナップショットデータの生成装置は、
撮影手段と、
前記撮影手段で機器を含む環境を撮影することにより取得した画像内において前記機器に関連付けられたタグを検索し、前記タグに基づき前記機器の識別情報と前記画像内の前記機器の座標を取得する機器識別情報取得部と、
前記機器の識別情報に基づき前記機器の操作情報及びアドレス情報を含む機器情報を取得する機器情報取得部と、
前記機器情報に含まれるアドレス情報を参照して前記機器に対して作業状態を問い合わせることにより前記機器の作業状態の情報を取得する機器状態取得部と、
前記画像データに、前記画像内の前記機器の座標、前記機器の操作情報とアドレス情報とを含む機器情報、及び、前記機器の作業状態の情報を含む付加データを付加するユビキタス環境情報スナップショットデータ生成部とを備えるものである。
撮影手段と、
前記撮影手段で機器を含む環境を撮影することにより取得した画像内において前記機器に関連付けられたタグを検索し、前記タグに基づき前記機器の識別情報と前記画像内の前記機器の座標を取得する機器識別情報取得部と、
前記機器の識別情報に基づき前記機器の操作情報及びアドレス情報を含む機器情報を取得する機器情報取得部と、
前記機器情報に含まれるアドレス情報を参照して前記機器に対して作業状態を問い合わせることにより前記機器の作業状態の情報を取得する機器状態取得部と、
前記画像データに、前記画像内の前記機器の座標、前記機器の操作情報とアドレス情報とを含む機器情報、及び、前記機器の作業状態の情報を含む付加データを付加するユビキタス環境情報スナップショットデータ生成部とを備えるものである。
さらに、撮影時の自己の位置を検出する位置検出部と、
前記位置検出部の出力に基づき環境に設置されたセンサの情報を取得するセンサ情報取得部とを備えるようにしてもよい。
前記位置検出部の出力に基づき環境に設置されたセンサの情報を取得するセンサ情報取得部とを備えるようにしてもよい。
この発明に係るユビキタス環境情報スナップショットデータの閲覧装置は、
表示装置と、
入力装置と、
画像データと、画像内の機器の座標、前記機器の操作情報とアドレス情報とを含む機器情報、及び、前記機器の作業状態の情報を含み、前記画像データに付加される付加データとを備えるデータを読み込み、付加されたデータを解析する解析部と、
前記画像データに基づき前記表示装置に画像を表示する画像表示部と、
前記機器の機器情報を参照して、前記画像内の前記機器の座標に対応する位置に前記機器のアイコンを配置するアイコン配置部と、
前記機器の操作情報に基づき前記機器の操作手段を表示する操作手段生成部と、
前記機器の作業状態の情報に基づき前記機器の作業状態を表示する作業状態表示部と、
前記入力装置を通じて前記機器の操作手段が操作されたとき、前記機器の操作情報とアドレス情報を参照して操作命令を送信する操作命令生成部と、を備えるものである。
表示装置と、
入力装置と、
画像データと、画像内の機器の座標、前記機器の操作情報とアドレス情報とを含む機器情報、及び、前記機器の作業状態の情報を含み、前記画像データに付加される付加データとを備えるデータを読み込み、付加されたデータを解析する解析部と、
前記画像データに基づき前記表示装置に画像を表示する画像表示部と、
前記機器の機器情報を参照して、前記画像内の前記機器の座標に対応する位置に前記機器のアイコンを配置するアイコン配置部と、
前記機器の操作情報に基づき前記機器の操作手段を表示する操作手段生成部と、
前記機器の作業状態の情報に基づき前記機器の作業状態を表示する作業状態表示部と、
前記入力装置を通じて前記機器の操作手段が操作されたとき、前記機器の操作情報とアドレス情報を参照して操作命令を送信する操作命令生成部と、を備えるものである。
本発明に係るデータ構造は、
機器を含む環境を撮影手段で撮影することにより取得した画像データと、
画像内の前記機器の座標と、前記機器の操作情報及びアドレス情報を含む機器情報と、前記機器の作業状態の情報とを含み、前記画像データに付加される付加データとを備えることを特徴とするものである。
機器を含む環境を撮影手段で撮影することにより取得した画像データと、
画像内の前記機器の座標と、前記機器の操作情報及びアドレス情報を含む機器情報と、前記機器の作業状態の情報とを含み、前記画像データに付加される付加データとを備えることを特徴とするものである。
本発明に係るデータ構造は、
環境を撮影手段で撮影することにより取得した画像データと、
前記環境及び/又は前記環境に含まれる機器に関連付けられたセンサ情報を含み、前記画像データに付加される付加データとを備えることを特徴とするものである。
環境を撮影手段で撮影することにより取得した画像データと、
前記環境及び/又は前記環境に含まれる機器に関連付けられたセンサ情報を含み、前記画像データに付加される付加データとを備えることを特徴とするものである。
この発明は、上記いずれかの方法をコンピュータに実行させるためのプログラムに関する。
この発明に係るプログラムは、例えば、記録媒体に記録される。
媒体には、例えば、EPROMデバイス、フラッシュメモリデバイス、フレキシブルディスク、ハードディスク、磁気テープ、光磁気ディスク、CD(CD−ROM、Video−CDを含む)、DVD(DVD−Video、DVD−ROM、DVD−RAMを含む)、ROMカートリッジ、バッテリバックアップ付きのRAMメモリカートリッジ、フラッシュメモリカートリッジ、不揮発性RAMカートリッジ等を含む。
この発明に係るプログラムは、例えば、記録媒体に記録される。
媒体には、例えば、EPROMデバイス、フラッシュメモリデバイス、フレキシブルディスク、ハードディスク、磁気テープ、光磁気ディスク、CD(CD−ROM、Video−CDを含む)、DVD(DVD−Video、DVD−ROM、DVD−RAMを含む)、ROMカートリッジ、バッテリバックアップ付きのRAMメモリカートリッジ、フラッシュメモリカートリッジ、不揮発性RAMカートリッジ等を含む。
また、電話回線等の有線通信媒体、マイクロ波回線等の無線通信媒体等の通信媒体を含む。インターネットもここでいう通信媒体に含まれる。
媒体とは、何等かの物理的手段により情報(主にデジタルデータ、プログラム)が記録されているものであって、コンピュータ、専用プロセッサ等の処理装置に所定の機能を行わせることができるものである。
本発明によれば、家電機器の操作情報やセンサ情報などの環境情報をJPEGなどの画像データに付加するようにしたので、画像上に環境情報を視覚化することができる。これにより、直感的な環境情報の取得、操作及び管理が実現できる。
本発明の特徴は、家電機器の操作情報やセンサ情報などの環境情報を画像データに付加した点にある。例えば、JPEGの画像データに環境情報を記述したXMLデータを埋め込んだものである。以下の説明において、本発明に係る家電などの機器(デバイスと表記することがある)の操作情報やセンサ情報などの環境情報を画像データに付加したデータ(ファイルと表記することがある)を、「u-Photo」と名付けることにする。「u-Photo」は発明者らによる造語である。以下、「u-Photo」の機能要件について説明する。
(1)u-Photoの機能要件
u-Photo によって実現すべき事柄を三点挙げ、それらについて説明する。
u-Photo によって実現すべき事柄を三点挙げ、それらについて説明する。
(1−1)直感的な家電などの機器操作
写真と、写真に写っている環境情報をスコープとしてまとめることで、直感的な情報取得の実現を目指す。特に、家電機器を撮影した場合、ユーザが画像中の家電機器をクリックすることで、その家電機器についての情報取得や機器操作の実現を目指す。
写真と、写真に写っている環境情報をスコープとしてまとめることで、直感的な情報取得の実現を目指す。特に、家電機器を撮影した場合、ユーザが画像中の家電機器をクリックすることで、その家電機器についての情報取得や機器操作の実現を目指す。
(1−2)撮影時の環境側の状態記録
写真は、撮影対象の撮影時刻の視覚的な状態を保存したものであるため、家電機器の状態やセンサ情報のタイムスタンプをともに保存するのに適している。したがって、撮影時の家電機器の状態や、センサ情報の状態を保存して、のちにその状態を参照できることを目指す。また、保存された家電機器の状態情報を利用して、のちに撮影時の機器の状態を別の家電機器上で再現する"サービス再現"の実現を目指す。
写真は、撮影対象の撮影時刻の視覚的な状態を保存したものであるため、家電機器の状態やセンサ情報のタイムスタンプをともに保存するのに適している。したがって、撮影時の家電機器の状態や、センサ情報の状態を保存して、のちにその状態を参照できることを目指す。また、保存された家電機器の状態情報を利用して、のちに撮影時の機器の状態を別の家電機器上で再現する"サービス再現"の実現を目指す。
(1−3)保存、携帯
u-Photo をファイルとして保存し、別環境にコピーして利用したり、他のユーザと共有して利用できることを目指す。
u-Photo をファイルとして保存し、別環境にコピーして利用したり、他のユーザと共有して利用できることを目指す。
(2)以上の機能を実現するためのu-Photo Creatorが備える機能
(2−1)u-Photo 生成機能
u-Photoのカメラのシャッターを押すと、フォーカスした範囲の環境情報を取得して画像に埋め込み、u-Photoを生成する。
u-Photoのカメラのシャッターを押すと、フォーカスした範囲の環境情報を取得して画像に埋め込み、u-Photoを生成する。
(2−2)通信機能(ネットワークコネクティビティ)
環境側に設置されたディレクトリサーバやデバイス、センサにネットワークを介して接続することができる。
環境側に設置されたディレクトリサーバやデバイス、センサにネットワークを介して接続することができる。
(2−3)デバイスの認識機能
撮影時に、写っている各デバイスを画像解析もしくは専用タグリーダによって認識し、デバイスのID とその画像中の位置を特定することができる。特定したID の情報をもとに、ディレクトリサービスと通信して、デバイスの操作情報やデバイスの周囲にあるセンサの情報を取得する。
撮影時に、写っている各デバイスを画像解析もしくは専用タグリーダによって認識し、デバイスのID とその画像中の位置を特定することができる。特定したID の情報をもとに、ディレクトリサービスと通信して、デバイスの操作情報やデバイスの周囲にあるセンサの情報を取得する。
(2−4)u-Photo 表示機能
u-Photo ファイル内に記述されたデバイス情報やサービス情報、センサ情報を実際の画像にマッピングして表示する機能とデバイス用GUIやセンサ用GUIを生成し表示する。
u-Photo ファイル内に記述されたデバイス情報やサービス情報、センサ情報を実際の画像にマッピングして表示する機能とデバイス用GUIやセンサ用GUIを生成し表示する。
(2−5)デバイスやセンサの操作機能
GUIを介して実際のデバイスと通信し、操作コマンドを送る。また、環境内に設置された温度センサや音量センサなどのセンサと通信し、現在のセンサ値を取得する。本機能により、遠隔地からでもu-Photoを利用してデバイスを操作したり、撮影場所の現在のセンサ値を取得することができる。
GUIを介して実際のデバイスと通信し、操作コマンドを送る。また、環境内に設置された温度センサや音量センサなどのセンサと通信し、現在のセンサ値を取得する。本機能により、遠隔地からでもu-Photoを利用してデバイスを操作したり、撮影場所の現在のセンサ値を取得することができる。
(2−6)サービスの再現機能
家電機器を撮影した際、撮影時の家電機器の状態をデジタル写真内に保存して後に参照できる。また保存した家電機器の状態を別の家電機器に割り当ててサービス再現をすることができる。 例 )ビデオ再生中のディスプレイを撮影し、別のディスプレイあてにサービス再現すると、同じビデオを撮影時点での再生箇所からそのディスプレイ上で再生できる。(発明の実施の形態3を参照)
家電機器を撮影した際、撮影時の家電機器の状態をデジタル写真内に保存して後に参照できる。また保存した家電機器の状態を別の家電機器に割り当ててサービス再現をすることができる。 例 )ビデオ再生中のディスプレイを撮影し、別のディスプレイあてにサービス再現すると、同じビデオを撮影時点での再生箇所からそのディスプレイ上で再生できる。(発明の実施の形態3を参照)
写真ファイルにデバイス情報などを埋め込む利点として次の二つが挙げられる。
・画像をクリックすることで、実際のデバイスやセンサと通信することができるため、ユーザは直感的に作業を行うことができる。
・画像ファイルとして保存されているため、管理や他人への配布が容易である。
・画像をクリックすることで、実際のデバイスやセンサと通信することができるため、ユーザは直感的に作業を行うことができる。
・画像ファイルとして保存されているため、管理や他人への配布が容易である。
発明の実施の形態1.
発明の実施の形態1について図面を参照して説明する。
前述したように、u-Photo は、画像ファイル形式であるJPEGに画像内の機器の操作コマンドやセンサ情報取得コマンド、撮影時の機器の状態とセンサ情報を記したXMLファイルを埋め込んだファイルである。u-Photo は写真撮影時に、カメラそのものあるいはカメラに有線又は無線でつながった端末上のu-Photo Creator システムによって生成される。u-Photo Creator システムの説明図を図1乃至図7に示す。
発明の実施の形態1について図面を参照して説明する。
前述したように、u-Photo は、画像ファイル形式であるJPEGに画像内の機器の操作コマンドやセンサ情報取得コマンド、撮影時の機器の状態とセンサ情報を記したXMLファイルを埋め込んだファイルである。u-Photo は写真撮影時に、カメラそのものあるいはカメラに有線又は無線でつながった端末上のu-Photo Creator システムによって生成される。u-Photo Creator システムの説明図を図1乃至図7に示す。
図1はu-Photo Creatorを含むシステム全体を示す。
図2はu-Photoの生成方法を示すフローチャートである。
図3はu-Photoの閲覧方法を示すフローチャートである。
図4はu-Photo Creator のブロック図を示す。
図5はu-Photo閲覧装置のブロック図を示す。
図6(a)はu-Photo Creatorで撮影した環境画像の例を示し、図6(b)はu-Photo閲覧装置で表示されるu-Photoの画面の例を示す。
図7はu-Photoのデータ構造の例を示す(埋め込まれるデータのみを示し、画像データの表示は省略している)。
図2はu-Photoの生成方法を示すフローチャートである。
図3はu-Photoの閲覧方法を示すフローチャートである。
図4はu-Photo Creator のブロック図を示す。
図5はu-Photo閲覧装置のブロック図を示す。
図6(a)はu-Photo Creatorで撮影した環境画像の例を示し、図6(b)はu-Photo閲覧装置で表示されるu-Photoの画面の例を示す。
図7はu-Photoのデータ構造の例を示す(埋め込まれるデータのみを示し、画像データの表示は省略している)。
以上の図面を参照してu-Photo Creator システムについて詳細な説明を加える。
図1において、1はu-Photo ファイルを生成するためのu-Photo Creatorである。u-Photo Creator1は環境の画像データを取得するための撮影手段1aを備える。u-Photo Creator1はPDAにより実現可能である。撮影手段1aは典型的にはCCD撮像素子を備えるカメラであるが、これ以外のものであっても環境の画像データを取得できるものであれば利用可能である。環境とは、u-Photo Creator1で撮影可能な周囲という程度の意味である。u-Photo Creator1は図示しない無線又は有線通信手段を備え、環境に存在する機器2やディレクトリサーバ3と通信可能である。図1において、点線の領域100はu-Photo Creator1で通信可能な範囲を示す。
2は環境に存在する各種の機器(エアコンやテレビのような家電機器、パソコンやプリンタのようなOA機器、など)である。発明の実施の形態1に係るu-Photo Creator1の処理の対象となる機器は、自己の状態の情報を提供する状態提供部2aと画像認識用タグ2bとを備えるものである。機器2も図示しない無線又は有線通信手段を備える。状態提供部2aは、u-Photo Creator1から問い合わせを受けて、機器の状態、作業の内容、これらを制御するための情報などを含む作業状態をu-Photo Creator1へ送る。画像認識用タグ2bは画像内にある機器を検索するために使用されるものであって、機器上又は機器の近傍に設けられたLED タグや二次元バーコードといったID 認識可能なタグである。画像認識用タグ2bに基づき機器2のID と機器2の画像中の座標が画像解析によって取得される。
画像認識用タグ2bとして以下のものを使用することができる。
(1)LED タグ
各機器にLED 点滅タグを取り付ける。機器ごとにその色や点滅パターンを変えておく。画像解析によってその色や点滅パターンを照合し、機器ID(デバイスIDと表現することがある)、画像中の位置を特定する。
各機器にLED 点滅タグを取り付ける。機器ごとにその色や点滅パターンを変えておく。画像解析によってその色や点滅パターンを照合し、機器ID(デバイスIDと表現することがある)、画像中の位置を特定する。
(2)バーコード、二次元バーコード
各機器に二次元バーコードを取り付ける。その中にデバイスIDを含ませておく。画像解析によって二次元バーコードを読み込み、デバイスID 、画像中の位置を特定する。
各機器に二次元バーコードを取り付ける。その中にデバイスIDを含ませておく。画像解析によって二次元バーコードを読み込み、デバイスID 、画像中の位置を特定する。
(3)RF タグ
各機器にRF(Radio Frequency)タグを取り付ける。RFタグにはデバイスのIDを記憶させておく。u-Photo カメラ内の図示しないRF タグリーダによってタグID を検知し、デバイスID を特定する。
各機器にRF(Radio Frequency)タグを取り付ける。RFタグにはデバイスのIDを記憶させておく。u-Photo カメラ内の図示しないRF タグリーダによってタグID を検知し、デバイスID を特定する。
(4)赤外線発信タグ
各機器に赤外線発信タグを取り付ける。赤外線発信タグはデバイスのIDを発信する。u-Photo カメラ内の図示しない赤外線受信機によってタグID を検知し、デバイスID を特定する。
各機器に赤外線発信タグを取り付ける。赤外線発信タグはデバイスのIDを発信する。u-Photo カメラ内の図示しない赤外線受信機によってタグID を検知し、デバイスID を特定する。
なお、機器の外形を画像解析して機器のIDと画像中の座標を直接求めるようにしてもよい。この場合、各機器にタグを設ける必要はない。
3はディレクトリサーバである。ディレクトリサーバ3は、u-Photo Creator1から問い合わせを受けて、対応する機器情報(機器名、機器の種類、機器の操作情報、機器の情報提供部のアドレスなどを含む)を返すサーバである。その機器情報データベース3bには環境内の機器の情報が予め記憶されている。機器情報提供部2aはu-Photo Creator1から機器IDを受け、これに基づき機器情報データベース3bを検索し、対応する機器情報をu-Photo Creator1へ送信する。ディレクトリサーバ3は、図示しない無線又は有線通信手段を備え、u-Photo Creator1と通信可能である。
なお、図1においてSはひとつの機器2の少なくとも画像認識用タグ2b部分を覆う遮蔽物である。遮蔽物Sのために当該機器2はu-Photo Creator1で認識することができない。このことを使えば、環境に多数の機器が存在しても必要なもののみを選択してu-Photoを生成することが簡単に行える。機器の登録/非登録を、画像認識用タグ2bを見えなくするという簡単で直感的なやり方で自由に行える。このこともu-Photoの特徴である。無線通信可能な機器の全てが登録されて操作が煩雑になることがない。
図2はu-Photoの生成方法を示すフローチャートである。図2において、S1乃至S8、S11、S12はu-Photo Creator1の処理、S5及びS6はディレクトリサーバ3の処理、S9及びS10は機器2の処理である。
カメラ1aで機器2を含む環境の写真を撮影し、画像データを得る(S1)。画像の例を図6(a)に示す。この例はテーブルの上にプリンタが2台(PRN1,PRN2)とパソコン(PC1)が置かれている例を示す。2台のプリンタ(PRN1,PRN2)とパソコン(PC1)はいずれも画像認識用タグ(2b−PRN1,2b−PRN2,PC1−2b)を備えるので、これらについてu-Photoファイルを作成することができる。カメラ1aで撮影された写真には画像認識用タグ2bも含まれる。画像データ内を検索し、画像認識用タグ2bを発見する(S2)。画像認識用タグ2bを発見したら、これから機器のIDと、画像認識用タグ2bの画像中の座標を取得する(S3)。ディレクトリサーバ3へ機器情報を問い合わせる(S4)。問い合わせには機器IDを含める。ディレクトリサーバ3で機器IDに基づき機器情報を検索する(S5)。検索した機器情報をu-Photo Creator1へ送る(S6)。機器情報には、機器名、機器の種類、機器の操作情報、機器の情報提供部のアドレスが含まれる(図7参照)。
機器情報を受信したら(S7)、機器の情報提供部のアドレス宛てに現在の作業状態を問い合わせる(S9)。問い合わせを受けた機器は現在の作業状態を回答する(S10,S11)。作業状態には、機器の状態(ON/OFF、使用可能/不能など)、作業の内容(照明、印刷、ビデオの再生など)、これらを制御するための情報が含まれる。
作業状態の回答を受信したらu-Photoファイルを生成するに必要な情報、つまり環境の画像データ、機器ID、その座標、機器情報、作業状態が揃う(S11)。これらの情報をまとめ画像内に埋め込むことによりu-Photoファイルを生成する(S12)。
こうして生成されたu-PhotoファイルはPDAで閲覧することもできるし、メールに添付して送付することもできる。u-Photoファイルを閲覧できる装置を用いて、ネットワークを通じて遠方から各種機器を操作したり、機器の状態を監視することができる。
図3はu-Photoの閲覧方法を示すフローチャートである。S20乃至S26、S30はu-Photo閲覧装置(例えばPDA)の処理、S27乃至S29は機器2の処理である。
u-Photoファイルを開いて解析する(S20,S21)。u-Photoファイルから、環境の画像データとともに、機器ID、その座標、機器情報、作業状態を取得できる。画像を表示し(S22)、座標に従い機器の位置にアイコンを配置する(S23)。機器情報に従い機器のON/OFFなどの操作手段を表示する(S24)。u-Photoファイル内の作業状態情報に従い作業状態を表示する(S25)。ここで表示される画面の例を図6(b)に示す。画像識別タグ2bの近くにアイコン(ICON1〜3)が表示され、その近くに操作手段(SW1〜SW3)が表示される。さらに、作業状態を示すコメントボックス(BOX1〜3)も表示されている。操作手段にカーソルを合わせてクリックすることにより、機器のON/OFFを制御できる。なお、図6(b)は一例を示すに過ぎない。例えば、操作手段(SW1〜SW3)やコメントボックス(BOX1〜3)を常時表示するのではなく、必要に応じて表示するようにしてもよい。ユーザにより操作手段が操作されると、操作命令を生成して機器2へ送信する(S26)。
制御命令を受けて機器2は機器を制御する(S28、S29)。その結果作業状態が変化したら、作業状態をu-Photo閲覧装置へ送る(S30)。これを受けて作業状態を更新する(S25)。
図4はu-Photo Creator のブロック図を示す。図4において、11は機器ID 取得部である。写真を撮影すると、まず機器ID 取得部11が撮影した画像内にある機器を検索する。撮影する各家電機器上にはLED タグや二次元バーコードといったID 認識可能なタグをとりつけておき、機器のID と機器の画像中の座標が画像解析によって取得される。取得されたID 情報は機器情報取得部へ渡される。
12は機器情報取得部である。機器情報取得部12は、機器ID 取得部11から渡されたID をもとに、ディレクトリサーバ3へ機器の情報を問い合わせる。ディレクトリサーバ3には、機器名、機器の種類、機器の操作情報、機器の状態提供部のアドレスが登録されており、機器のID をもとにこれらが取得される。取得された機器の状態提供部のアドレスが機器状態取得部13に渡される。
13は機器状態取得部である。機器状態取得部13は、機器情報取得部12から渡されたアドレスあてに、現在の作業状態を問い合わせる。作業状態は、例えばライトのON 、OFF 情報や、ビデオ再生のコンテンツ名、再生時間などを指す。
14はu-Photo 生成部である。u-Photo 生成部14は上記の各部で取得された情報をまとめてXML 形式で保存し、撮影したJPEG 画像内に埋め込む。
図5はu-Photo閲覧装置(u-Photo Viewer)のブロック図を示す。生成したu-Photo ファイルは、u-Photo Viewer で開くことができる。u-Photo Viewer はu-Photo に埋め込まれた付加情報を解析し、それをもとに画像中の機器の座標に操作用のアイコンを配置したり、センサ情報を表示する。
4はu-Photo閲覧装置本体、4aは表示装置、4bは入力装置(キーボード、マウス等のほかにパッドなど)である。例えば、PDAであればこれらが一体構成されている。
41はu-Photoファイルを開いて解析するu-Photo解析部である。
42は画像を表示する画像表示部である。
43は座標に従い機器の位置にアイコンを配置するアイコン配置部である。
44は機器情報に従い機器のON/OFFなどの操作手段を表示する操作手段生成部である。
45はu-Photoファイル内の作業状態情報に従い作業状態を表示する機器の作業状態表示部である。
46はユーザにより操作手段が操作されたとき、操作命令を生成して機器2へ送信する操作命令生成部である。
42は画像を表示する画像表示部である。
43は座標に従い機器の位置にアイコンを配置するアイコン配置部である。
44は機器情報に従い機器のON/OFFなどの操作手段を表示する操作手段生成部である。
45はu-Photoファイル内の作業状態情報に従い作業状態を表示する機器の作業状態表示部である。
46はユーザにより操作手段が操作されたとき、操作命令を生成して機器2へ送信する操作命令生成部である。
本発明の実施の形態1によれば、家電機器の操作情報などの環境情報をu-Photo と呼ばれる写真ファイル内に埋め込むことで、画像上に環境情報を視覚化することができる。これにより、直感的な環境情報の取得、管理が実現できる。
扱う機器が増えてもユーザは容易に多くの機器情報のなかから必要な情報のみを取得し、管理することができる。本発明の実施の形態1によれば、ユーザが各情報を容易に把握することができるようになるのである。
u-Photoを利用して例えば次のようなことができる。
(1)ライト制御
u-Photo を使った単純な機器制御である。u-Photo Creator上でライトを撮影し、u-Photo閲覧装置の画面中のライト操作手段をクリックしてライト制御を行う。
u-Photo を使った単純な機器制御である。u-Photo Creator上でライトを撮影し、u-Photo閲覧装置の画面中のライト操作手段をクリックしてライト制御を行う。
(2)u-Photo へのファイルのドラッグアンドドロップによる印刷
u-Photo を使った直感的な機器制御である。ドキュメントファイルのアイコンをu-Photo 画像中のプリンタアイコン(図6(b)のICON1、ICON2)へドラッグアンドドロップすることにより、当該プリンタに印刷を実行させる。
u-Photo を使った直感的な機器制御である。ドキュメントファイルのアイコンをu-Photo 画像中のプリンタアイコン(図6(b)のICON1、ICON2)へドラッグアンドドロップすることにより、当該プリンタに印刷を実行させる。
(3)アクセスコントロール
u-Photoで扉の開閉を行うようにしておき、u-Photoを関係者にのみ配布するようにすれば、当該関係者のみにアクセスを許すことができる。機器の使用についても同様である。また、u-Photo で家電操作をする際のユーザ認証などのセキュリティ機能を持たせることもできる。
u-Photoで扉の開閉を行うようにしておき、u-Photoを関係者にのみ配布するようにすれば、当該関係者のみにアクセスを許すことができる。機器の使用についても同様である。また、u-Photo で家電操作をする際のユーザ認証などのセキュリティ機能を持たせることもできる。
発明の実施の形態2.
発明の実施の形態1は機器の制御・状態監視に関するものであった。発明の実施の形態2は環境の情報(温度、湿度など)の監視に関するものである。機器の制御を直接行う場合と比べてセンサの座標情報の重要性は低く、座標の情報を省くことも可能である。
発明の実施の形態1は機器の制御・状態監視に関するものであった。発明の実施の形態2は環境の情報(温度、湿度など)の監視に関するものである。機器の制御を直接行う場合と比べてセンサの座標情報の重要性は低く、座標の情報を省くことも可能である。
図8は発明の実施の形態2に係るu-Photo Creatorを含むシステム全体を示す。
図9は発明の実施の形態2に係るu-Photoの生成方法及び閲覧方法を示すフローチャートである。
図10は発明の実施の形態2に係るu-Photo Creator のブロック図を示す。
図11は発明の実施の形態2に係るu-Photo閲覧装置のブロック図を示す。
図12(a)は発明の実施の形態2に係るu-Photo Creatorで撮影した環境画像の例を示し、図12(b)は同じくu-Photo閲覧装置で表示されるu-Photoの画面の例を示す。
図13は発明の実施の形態2に係るu-Photoのデータ構造の例を示す(埋め込まれるデータのみを示し、画像データの表示は省略している)。
図9は発明の実施の形態2に係るu-Photoの生成方法及び閲覧方法を示すフローチャートである。
図10は発明の実施の形態2に係るu-Photo Creator のブロック図を示す。
図11は発明の実施の形態2に係るu-Photo閲覧装置のブロック図を示す。
図12(a)は発明の実施の形態2に係るu-Photo Creatorで撮影した環境画像の例を示し、図12(b)は同じくu-Photo閲覧装置で表示されるu-Photoの画面の例を示す。
図13は発明の実施の形態2に係るu-Photoのデータ構造の例を示す(埋め込まれるデータのみを示し、画像データの表示は省略している)。
以上の図面を参照して発明の実施の形態2に係るu-Photo Creator システムについて詳細な説明を加える。
図8は発明の実施の形態2に係るu-Photo Creatorを含むシステム全体を示す。この図は図1に対応するものである。これらの図において共通又は相当する要素は同じ符号を付し、その説明は省略する。u-Photo Creator1は自分の位置を検出するための位置検出部1bを備える。センサの座標情報を省く代わりに自分の位置を検出し、関係のあるセンサの情報のみを取得するためである。ただし、以下で説明する処理とは別に、センサの部屋の中での位置座標を取得するための機構は必要になってくるので、例えば超音波タグなどを用いてセンサの位置情報を用意したり、タグをつかわずに手動で全部のセンサの座標をサーバに登録しておく、といった作業が必要になる。
5はu-Photo Creator1の近くに配置されたセンサ(情報収集対象)である。各センサ5は温度や湿度などのセンサの情報を送信するセンサ情報提供部5aを備えている。センサ5は、図示しない無線又は有線通信手段を備え、ディレクトリサーバ3と通信可能である。
ディレクトリサーバ3は機器情報提供部3a,機器情報データベース3bに代えて/これらとともにセンサ情報提供部3cと、センサ情報データベースとを備える。センサ情報データベース3dには環境内のセンサの情報が予め記憶されている。センサ情報提供部3cはu-Photo Creator1から位置情報及び/又は画像中の機器2の機器IDを受け、これに基づきセンサ情報データベース3dを検索し、対応するセンサ情報をu-Photo Creator1へ送信する。
図9は発明の実施の形態2に係るu-Photoの生成方法及び閲覧方法を示すフローチャートである。図9において、S40乃至S45はu-Photoの生成処理を示し、S50乃至S56はu-Photoの閲覧処理を示し、S60乃至S62はセンサ5とディレクトリサービスサーバ3の間の送受信処理を示す。
カメラ1aで機器2を含む環境の写真を撮影し、画像データを得る(S40)。画像の例を図12(a)に示す。この例はテーブルの上に1台のパソコン(PC1)が置かれている例を示す。パソコン(PC1)は画像認識用タグ(PC1−2b)を備えるので、この座標情報を取得することができるとともに、これに関連付けられたセンサ情報を取得することができる(BOX4に示された照度や音量など)。画像認識用タグ2bに関する処理は発明の実施の形態1の場合と同様である。センサ情報問い合わせのための情報を生成する(S41)。
センサ情報を取得するための問い合わせのやり方は例えば次のようなものである。
・u-Photo Creatorで撮影時に自分の位置を検出し、その位置周辺にあるセンサの情報をサーバから取得する。センサの情報は画像の特定の位置ではなく、「この部屋の温度」のように表示される。
・デバイスのIDをキーに、サーバから当該デバイスの周囲あるいは当該デバイスが設置された部屋にあるセンサの情報を取得する。この場合、少なくとも1つのデバイスが認識される必要がある。センサの情報はデバイスの近くに表示される。
・u-Photo Creatorで撮影時に自分の位置を検出し、その位置周辺にあるセンサの情報をサーバから取得する。センサの情報は画像の特定の位置ではなく、「この部屋の温度」のように表示される。
・デバイスのIDをキーに、サーバから当該デバイスの周囲あるいは当該デバイスが設置された部屋にあるセンサの情報を取得する。この場合、少なくとも1つのデバイスが認識される必要がある。センサの情報はデバイスの近くに表示される。
u-Photo Creator1から問い合わせをうけ、ディレクトリサーバ3は、例えばu-Photo Creatorの位置検出部1bによる位置情報及び/又は機器IDに基づきセンサ情報を検索する(S42)。検索したセンサ情報をu-Photo Creator1へ送る(S43)。センサ情報には、センサ名、センサの種類、センサの値が含まれる(図13参照)。
センサ情報を受信したら(S44)、u-Photoファイルを生成するに必要な情報、すなわち画像データ、センサ情報をまとめ画像内に埋め込むことによりu-Photoファイルを生成する(S45)。
こうして生成されたu-PhotoファイルはPDAで閲覧することもできるし、メールに添付して送付することもできる。u-Photoファイルを閲覧できる装置を用いて、ネットワークを通じて遠方から各種センサを監視することができる。
u-Photo閲覧装置では、u-Photoファイルを開いて解析する(S50)。u-Photoファイルから、環境の画像データとともにセンサ情報を取得できる。画像とともにセンサ情報を表示する(S51)。ここで表示される画面の例を図12(b)に示す。画像識別タグ2bの近くにセンサによる情報(BOX4)が表示される。また、画像中の任意の位置にこの環境のセンサ値を示す情報(BOX4)が表示される。さらに、センサ値を更新するための操作手段(SW4)も表示される。
操作手段(SW4)が操作されると、u-Photo閲覧装置はディレクトリサーバに対してセンサ情報の更新要求を出す(S52)。これを受けてセンサ情報を検索し、u-Photo閲覧装置へ返す(S53,S54)。センサ情報を受信したら、センサ情報を再表示する(S55,S56)。
なお、センサからディレクトリサーバへは適宜センサ値が送られていて、センサ情報データベースの内容は常に最新のものに更新されている(S60乃至S62)。
図10はu-Photo Creator のブロック図を示す。この図は図4に対応するものである。これらの図において共通又は相当する要素は同じ符号を付し、その説明は省略する。
15は環境に設置されたセンサの情報をディレクトリサーバ3から取得するセンサ情報取得部である。センサ情報取得部15には、u-Photo Creator1の位置を検出する位置検出部1bが接続されている。この位置情報はディレクトリサーバへの問い合わせ(前述のS41)の際に使用される。
図11はu-Photo閲覧装置4のブロック図を示す。この図は図5に対応するものである。これらの図において共通又は相当する要素は同じ符号を付し、その説明は省略する。
47はセンサ値更新命令(前述のS52)を発生するセンサ値更新命令発生部である。
なお、以上の説明はセンサ情報をディレクトリサービスサーバから取得するものであった。これに代えて/これとともに、u-Photo Creator及び/又はu-Photo閲覧装置から直接センサに問い合わせ、直接センサ値を受けるようにしてもよい。このようにした場合の図面を図14及び図15に示す。
図14は発明の実施の形態2の変形例に係るu-Photo Creatorを含むシステム全体を示す。
図15は発明の実施の形態2の変形例に係るu-Photoの生成方法及び閲覧方法を示すフローチャートである。
これらの説明は割愛する。
図15は発明の実施の形態2の変形例に係るu-Photoの生成方法及び閲覧方法を示すフローチャートである。
これらの説明は割愛する。
なお、U-Photoファイルは転送可能であるので遠方から機器を制御したり、センサの情報を取得できる。この概念を図16に示す。図16において、101はインターネット等のコンピュータ通信ネットワークである。
発明の実施の形態3.
コンテンツの視聴を中断したときu-Photo を使えば、異なる場所でコンテンツを中断した個所から視聴を再開することができる。例えば、ビデオサービスの再現が可能である。本例では、u-Photo を使ったサービス再現として、ビデオサービスの別環境での再現を行う。ビデオ再生中のディスプレイを撮影すると、u-Photo 内に再生中のビデオのコンテンツとタイムコードが記録される。生成したu-Photo をu-Photo 閲覧装置で開きディスプレイをクリックして「サービス再現」メニューを選択すると、同じビデオを撮影時の続きから別のディスプレイで再生することができる。ビデオ再現時のサービスコンポーネント移送には、Wappletフレームワーク(非特許文献1参照されたい)を利用できる。
コンテンツの視聴を中断したときu-Photo を使えば、異なる場所でコンテンツを中断した個所から視聴を再開することができる。例えば、ビデオサービスの再現が可能である。本例では、u-Photo を使ったサービス再現として、ビデオサービスの別環境での再現を行う。ビデオ再生中のディスプレイを撮影すると、u-Photo 内に再生中のビデオのコンテンツとタイムコードが記録される。生成したu-Photo をu-Photo 閲覧装置で開きディスプレイをクリックして「サービス再現」メニューを選択すると、同じビデオを撮影時の続きから別のディスプレイで再生することができる。ビデオ再現時のサービスコンポーネント移送には、Wappletフレームワーク(非特許文献1参照されたい)を利用できる。
図17は発明の実施の形態3に係るu-Photoの生成方法及び閲覧方法を示すフローチャートである。
図17の処理のうち発明の実施の形態3に特徴的な部分について説明する。
図2のu-Photo Creatorの処理の後、機器からコンテンツ情報(URL等のアドレス情報を含む)と当該コンテンツの再生タイムカウンタとを含む作業状態の回答を受信する(S13)。当該作業状態の情報を画像に埋め込み、u-Photoファイルを生成する(S14)。
u-Photo閲覧装置で利用可能な機器を検索する(S24a)。u-Photoファイルを生成した場所と同じであれば同じ機器を使用することができる。別の場所であれば、その周囲に存在する機器から利用可能なものを選択する。以下、発明の実施の形態1の場合と同様に機器を制御する(S25乃至S30)。制御命令はコンテンツ情報(URL等のアドレス情報を含む)と当該コンテンツの再生タイムカウンタを含んでいる。
図2のu-Photo Creatorの処理の後、機器からコンテンツ情報(URL等のアドレス情報を含む)と当該コンテンツの再生タイムカウンタとを含む作業状態の回答を受信する(S13)。当該作業状態の情報を画像に埋め込み、u-Photoファイルを生成する(S14)。
u-Photo閲覧装置で利用可能な機器を検索する(S24a)。u-Photoファイルを生成した場所と同じであれば同じ機器を使用することができる。別の場所であれば、その周囲に存在する機器から利用可能なものを選択する。以下、発明の実施の形態1の場合と同様に機器を制御する(S25乃至S30)。制御命令はコンテンツ情報(URL等のアドレス情報を含む)と当該コンテンツの再生タイムカウンタを含んでいる。
以上、環境情報を画像ファイルにu-Photo として埋め込むことで、直感的な家電機器の操作や、センサ情報の取得、サービスの再現を実現する方式について述べた。本発明に関連する研究としては、DigiScope(非特許文献2があげられる。DigiScopeでは、スコープを向けた場所の環境情報をスコープ上に表示することができる。しかし、ファイルとして保存して参照することはできない。
本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
また、本明細書において、部とは必ずしも物理的手段を意味するものではなく、各部の機能が、ソフトウェアによって実現される場合も包含する。さらに、一つの部の機能が、二つ以上の物理的手段により実現されても、若しくは、二つ以上の部の機能が、一つの物理的手段により実現されてもよい。
1 u-Photo Creator(u-Photo生成装置)
11 機器ID取得部
12 機器情報取得部
13 機器状態取得部
14 u-Photo生成部
15 センサ情報取得部
1a 撮影手段(カメラ)
1b 位置検出部
2 機器(制御対象)
2a 状態提供部
2b 画像認識用タグ
3 ディレクトリサービスサーバ
3a 機器情報提供部
3b 機器情報データベース
3c センサ情報提供部
3d センサ情報データベース
4 u-Photo閲覧装置
4a 表示装置
4b 入力装置
41 u-Photo解析部
42 画像表示部
43 アイコン配置部
44 操作手段生成部
45 機器の作業状態表示部
46 操作命令生成部
47 センサ値更新命令発生部
5 センサ(情報収集対象)
5a センサ情報提供部
100 通信可能範囲
101 コンピュータ通信ネットワーク
S 遮蔽物
11 機器ID取得部
12 機器情報取得部
13 機器状態取得部
14 u-Photo生成部
15 センサ情報取得部
1a 撮影手段(カメラ)
1b 位置検出部
2 機器(制御対象)
2a 状態提供部
2b 画像認識用タグ
3 ディレクトリサービスサーバ
3a 機器情報提供部
3b 機器情報データベース
3c センサ情報提供部
3d センサ情報データベース
4 u-Photo閲覧装置
4a 表示装置
4b 入力装置
41 u-Photo解析部
42 画像表示部
43 アイコン配置部
44 操作手段生成部
45 機器の作業状態表示部
46 操作命令生成部
47 センサ値更新命令発生部
5 センサ(情報収集対象)
5a センサ情報提供部
100 通信可能範囲
101 コンピュータ通信ネットワーク
S 遮蔽物
Claims (19)
- 機器を含む環境を撮影して画像データを取得するステップと、
前記機器に関連付けられたタグを前記画像内で検索するステップと、
前記タグに基づき前記機器の識別情報と前記機器の前記画像内の座標を取得するステップと、
前記機器の識別情報に基づき前記機器の操作情報及びアドレス情報を含む機器情報を問い合わせるステップと、
前記機器情報を取得するステップと、
前記機器情報に含まれるアドレス情報を参照して前記機器に対して作業状態を問い合わせるステップと、
前記機器の作業状態の情報を取得するステップと、
前記画像データに、前記機器の前記画像内の座標、前記機器の操作情報とアドレス情報とを含む機器情報、及び、前記機器の作業状態の情報を含む付加データを付加するステップと、を備えるユビキタス環境情報スナップショットデータの生成方法。 - 画像データと、機器の前記画像内の座標、前記機器の操作情報とアドレス情報とを含む機器情報、及び、前記機器の作業状態の情報を含み、前記画像データに付加される付加データとを備えるデータを読み込むステップと、
前記画像データに基づき画像を表示するステップと、
前記機器の前記画像内の座標に対応する位置に前記機器のアイコンを配置するステップと、
前記機器の操作情報に基づき前記機器の操作手段を表示するステップと、
前記機器の作業状態の情報に基づき前記機器の作業状態を表示するステップと、
表示された前記機器の操作手段が操作されたときに、前記機器の操作情報とアドレス情報を参照して操作命令を送信するステップと、
前記機器の作業状態の情報が更新されたとき、更新された作業状態の情報に基づき前記機器の作業状態を再表示するステップと、を備えるユビキタス環境情報スナップショットデータの閲覧方法。 - 環境を撮影して画像データを取得するステップと、
前記環境及び/又は前記環境に含まれる機器に関連付けられたセンサ情報を検索するステップと、
前記センサ情報を取得するステップと、
前記画像データに、前記センサ情報を含む付加データを付加するステップと、を備えるユビキタス環境情報スナップショットデータの生成方法。 - 環境を撮影したときの位置を検出するステップを備え、
前記センサ情報を検索するステップは、検出された位置に基づきセンサ情報を検索する、ことを特徴とする請求項3記載のユビキタス環境情報スナップショットデータの生成方法。 - 前記環境に含まれる機器に関連付けられたタグを前記画像内で検索するステップと、
前記タグに基づき前記機器の識別情報を取得するステップと、を備え、
前記センサ情報を検索するステップは、前記機器の識別情報に基づきセンサ情報を検索する、ことを特徴とする請求項3記載のユビキタス環境情報スナップショットデータの生成方法。 - 画像データと、環境及び/又は前記環境に含まれる機器に関連付けられるセンサ情報を含み、前記画像データに付加される付加データとを備えるデータを読み込むステップと、
前記画像データに基づき画像を表示するステップと、
前記センサ情報を参照してセンサの値を表示するステップと、
前記センサの値の更新要求を受けたときに、前記センサ情報に基づき前記センサの値の更新命令を送信するステップと、
前記センサの値が更新されたとき、更新されたセンサの値に基づき前記センサの値を再表示するステップと、を備えるユビキタス環境情報スナップショットデータの閲覧方法。 - コンテンツを再生中の機器を含む環境を撮影して画像データを取得するステップと、
前記機器に関連付けられたタグを前記画像内で検索するステップと、
前記タグに基づき前記機器の識別情報を取得するステップと、
前記機器の識別情報に基づき前記機器の操作情報及びアドレス情報を含む機器情報を問い合わせるステップと、
前記機器情報に含まれるアドレス情報を参照して前記機器に対して作業状態を問い合わせるステップと、
再生中のコンテンツの情報及び再生位置に関する情報を含む前記機器の作業状態の情報を取得するステップと、
前記画像データに、少なくとも、前記機器の操作情報を含む機器情報と、再生中のコンテンツの情報及び再生位置に関する情報を含む前記機器の作業状態の情報とを含む付加データを付加するステップと、を備えるユビキタス環境情報スナップショットデータの生成方法。 - 画像データと、少なくとも、機器の操作情報を含む機器情報と、再生中のコンテンツの情報及び再生位置に関する情報を含む前記機器の作業状態の情報とを含み、前記画像データに付加される付加データとを備えるデータを読み込むステップと、
前記機器情報に基づき利用可能な機器を検索するステップと、
前記機器の操作情報に基づき前記機器の操作手段を表示するステップと、
前記機器の作業状態の情報に基づき前記機器の作業状態を表示するステップと、
検索された利用可能な機器に対して、再生中のコンテンツの情報及び再生位置に関する情報を含む操作命令を送出するステップと、を備えるユビキタス環境情報スナップショットデータの閲覧方法。 - 撮影手段と、
前記撮影手段で機器を含む環境を撮影することにより取得した画像内において前記機器に関連付けられたタグを検索し、前記タグに基づき前記機器の識別情報と前記画像内の前記機器の座標を取得する機器識別情報取得部と、
前記機器の識別情報に基づき前記機器の操作情報及びアドレス情報を含む機器情報を取得する機器情報取得部と、
前記機器情報に含まれるアドレス情報を参照して前記機器に対して作業状態を問い合わせることにより前記機器の作業状態の情報を取得する機器状態取得部と、
前記画像データに、前記画像内の前記機器の座標、前記機器の操作情報とアドレス情報とを含む機器情報、及び、前記機器の作業状態の情報を含む付加データを付加するユビキタス環境情報スナップショットデータ生成部とを備えるユビキタス環境情報スナップショットデータの生成装置。 - さらに、撮影時の自己の位置を検出する位置検出部と、
前記位置検出部の出力に基づき環境に設置されたセンサの情報を取得するセンサ情報取得部とを備えることを特徴とする請求項9記載のユビキタス環境情報スナップショットデータの生成装置。 - 表示装置と、
入力装置と、
画像データと、画像内の機器の座標、前記機器の操作情報とアドレス情報とを含む機器情報、及び、前記機器の作業状態の情報を含み、前記画像データに付加される付加データとを備えるデータを読み込み、付加されたデータを解析する解析部と、
前記画像データに基づき前記表示装置に画像を表示する画像表示部と、
前記機器の機器情報を参照して、前記画像内の前記機器の座標に対応する位置に前記機器のアイコンを配置するアイコン配置部と、
前記機器の操作情報に基づき前記機器の操作手段を表示する操作手段生成部と、
前記機器の作業状態の情報に基づき前記機器の作業状態を表示する作業状態表示部と、
前記入力装置を通じて前記機器の操作手段が操作されたとき、前記機器の操作情報とアドレス情報を参照して操作命令を送信する操作命令生成部と、を備えるユビキタス環境情報スナップショットデータの閲覧装置。 - 機器を含む環境を撮影手段で撮影することにより取得した画像データと、
画像内の前記機器の座標と、前記機器の操作情報及びアドレス情報を含む機器情報と、前記機器の作業状態の情報とを含み、前記画像データに付加される付加データとを備えることを特徴とするデータ構造。 - 環境を撮影手段で撮影することにより取得した画像データと、
前記環境及び/又は前記環境に含まれる機器に関連付けられたセンサ情報を含み、前記画像データに付加される付加データとを備えることを特徴とするデータ構造。 - コンピュータに、
機器を含む環境を撮影して画像データを取得するステップと、
前記機器に関連付けられたタグを前記画像内で検索するステップと、
前記タグに基づき前記機器の識別情報と前記機器の前記画像内の座標を取得するステップと、
前記機器の識別情報に基づき前記機器の操作情報及びアドレス情報を含む機器情報を問い合わせるステップと、
前記機器情報を取得するステップと、
前記機器情報に含まれるアドレス情報を参照して前記機器に対して作業状態を問い合わせるステップと、
前記機器の作業状態の情報を取得するステップと、
前記画像データに、前記機器の前記画像内の座標、前記機器の操作情報とアドレス情報とを含む機器情報、及び、前記機器の作業状態の情報を含む付加データを付加するステップと、を実行させるためのプログラム。 - コンピュータに、
画像データと、機器の前記画像内の座標、前記機器の操作情報とアドレス情報とを含む機器情報、及び、前記機器の作業状態の情報を含み、前記画像データに付加される付加データとを備えるデータを読み込むステップと、
前記画像データに基づき画像を表示するステップと、
前記機器の前記画像内の座標に対応する位置に前記機器のアイコンを配置するステップと、
前記機器の操作情報に基づき前記機器の操作手段を表示するステップと、
前記機器の作業状態の情報に基づき前記機器の作業状態を表示するステップと、
表示された前記機器の操作手段が操作されたときに、前記機器の操作情報とアドレス情報を参照して操作命令を送信するステップと、
前記機器の作業状態の情報が更新されたとき、更新された作業状態の情報に基づき前記機器の作業状態を再表示するステップと、を実行させるためのプログラム。 - コンピュータに、
環境を撮影して画像データを取得するステップと、
前記環境及び/又は前記環境に含まれる機器に関連付けられたセンサ情報を検索するステップと、
前記センサ情報を取得するステップと、
前記画像データに、前記センサ情報を含む付加データを付加するステップと、を実行させるためのプログラム。 - コンピュータに、
画像データと、環境及び/又は前記環境に含まれる機器に関連付けられるセンサ情報を含み、前記画像データに付加される付加データとを備えるデータを読み込むステップと、
前記画像データに基づき画像を表示するステップと、
前記センサ情報を参照してセンサの値を表示するステップと、
前記センサの値の更新要求を受けたときに、前記センサ情報に基づき前記センサの値の更新命令を送信するステップと、
前記センサの値が更新されたとき、更新されたセンサの値に基づき前記センサの値を再表示するステップと、を実行させるためのプログラム。 - コンピュータに、
コンテンツを再生中の機器を含む環境を撮影して画像データを取得するステップと、
前記機器に関連付けられたタグを前記画像内で検索するステップと、
前記タグに基づき前記機器の識別情報を取得するステップと、
前記機器の識別情報に基づき前記機器の操作情報及びアドレス情報を含む機器情報を問い合わせるステップと、
前記機器情報に含まれるアドレス情報を参照して前記機器に対して作業状態を問い合わせるステップと、
再生中のコンテンツの情報及び再生位置に関する情報を含む前記機器の作業状態の情報を取得するステップと、
前記画像データに、少なくとも、前記機器の操作情報を含む機器情報と、再生中のコンテンツの情報及び再生位置に関する情報を含む前記機器の作業状態の情報とを含む付加データを付加するステップと、を実行させるためのプログラム。 - コンピュータに、
画像データと、少なくとも、機器の操作情報を含む機器情報と、再生中のコンテンツの情報及び再生位置に関する情報を含む前記機器の作業状態の情報とを含み、前記画像データに付加される付加データとを備えるデータを読み込むステップと、
前記機器情報に基づき利用可能な機器を検索するステップと、
前記機器の操作情報に基づき前記機器の操作手段を表示するステップと、
前記機器の作業状態の情報に基づき前記機器の作業状態を表示するステップと、
検索された利用可能な機器に対して、再生中のコンテンツの情報及び再生位置に関する情報を含む操作命令を送出するステップと、を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004058663A JP2005250734A (ja) | 2004-03-03 | 2004-03-03 | ユビキタス環境情報スナップショットデータの生成方法、閲覧方法、生成装置、閲覧装置及びプログラム並びにユビキタス環境情報スナップショットのデータ構造 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004058663A JP2005250734A (ja) | 2004-03-03 | 2004-03-03 | ユビキタス環境情報スナップショットデータの生成方法、閲覧方法、生成装置、閲覧装置及びプログラム並びにユビキタス環境情報スナップショットのデータ構造 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005250734A true JP2005250734A (ja) | 2005-09-15 |
Family
ID=35031168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004058663A Pending JP2005250734A (ja) | 2004-03-03 | 2004-03-03 | ユビキタス環境情報スナップショットデータの生成方法、閲覧方法、生成装置、閲覧装置及びプログラム並びにユビキタス環境情報スナップショットのデータ構造 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005250734A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007233619A (ja) * | 2006-02-28 | 2007-09-13 | Mitsumi Electric Co Ltd | センサネットワークシステム |
JP2012022457A (ja) * | 2010-07-13 | 2012-02-02 | Japan Science & Technology Agency | タスク指示システム |
JP2013120501A (ja) * | 2011-12-07 | 2013-06-17 | Canon Inc | 印刷システム、情報処理端末、サーバ、制御方法、及びプログラム |
JP2013531828A (ja) * | 2010-04-19 | 2013-08-08 | アマゾン テクノロジーズ インコーポレイテッド | 装置配置および通信のための方法 |
JP2014517955A (ja) * | 2011-04-19 | 2014-07-24 | サムスン エレクトロニクス カンパニー リミテッド | 電力使用状態の表示方法及びその方法を適用した携帯機器 |
US9369515B2 (en) | 2012-10-02 | 2016-06-14 | Panasonic Intellectual Property Corporation Of America | Communication method, communication device, appliance control method, and appliance control device |
JPWO2014054221A1 (ja) * | 2012-10-02 | 2016-08-25 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 画像表示方法、画像表示装置、及び、画像提供方法 |
US9710971B2 (en) | 2013-07-24 | 2017-07-18 | Fujitsu Limited | Information processing device, position designation method and storage medium |
WO2017208351A1 (ja) * | 2016-05-31 | 2017-12-07 | 株式会社オプティム | 撮像画像共有システム、撮像画像共有方法及びプログラム |
JP2018520416A (ja) * | 2015-05-15 | 2018-07-26 | パーカー・ハニフィン・コーポレーション | 統合資産保全性管理システム |
CN114079589A (zh) * | 2020-08-21 | 2022-02-22 | 深圳Tcl新技术有限公司 | 一种播放控制方法、智能终端及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002050156A (ja) * | 2000-07-31 | 2002-02-15 | Ibm Japan Ltd | 記録装置および記録方法 |
JP2002073728A (ja) * | 2000-08-31 | 2002-03-12 | Michiaki Tomioka | オーナー制農業生産物育成システム |
JP2002341755A (ja) * | 2001-05-16 | 2002-11-29 | Mitsubishi Electric Corp | 映像表示装置 |
JP2003140736A (ja) * | 2001-09-13 | 2003-05-16 | Fisher Rosemount Syst Inc | プロセス制御環境におけるポータブルコンピュータ |
JP2003174578A (ja) * | 2001-12-07 | 2003-06-20 | Nikon Corp | 電子カメラおよび画像表示装置および画像表示方法 |
WO2004003765A1 (ja) * | 2002-07-01 | 2004-01-08 | Kabushiki Kaisha Toshiba | シームレスシステム及び記録媒体並びにコンピュータシステムの処理継続方法 |
JP2004048674A (ja) * | 2002-05-24 | 2004-02-12 | Olympus Corp | 視野一致型情報呈示システム、並びに、それに用いられる携帯情報端末及びサーバ |
-
2004
- 2004-03-03 JP JP2004058663A patent/JP2005250734A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002050156A (ja) * | 2000-07-31 | 2002-02-15 | Ibm Japan Ltd | 記録装置および記録方法 |
JP2002073728A (ja) * | 2000-08-31 | 2002-03-12 | Michiaki Tomioka | オーナー制農業生産物育成システム |
JP2002341755A (ja) * | 2001-05-16 | 2002-11-29 | Mitsubishi Electric Corp | 映像表示装置 |
JP2003140736A (ja) * | 2001-09-13 | 2003-05-16 | Fisher Rosemount Syst Inc | プロセス制御環境におけるポータブルコンピュータ |
JP2003174578A (ja) * | 2001-12-07 | 2003-06-20 | Nikon Corp | 電子カメラおよび画像表示装置および画像表示方法 |
JP2004048674A (ja) * | 2002-05-24 | 2004-02-12 | Olympus Corp | 視野一致型情報呈示システム、並びに、それに用いられる携帯情報端末及びサーバ |
WO2004003765A1 (ja) * | 2002-07-01 | 2004-01-08 | Kabushiki Kaisha Toshiba | シームレスシステム及び記録媒体並びにコンピュータシステムの処理継続方法 |
Non-Patent Citations (1)
Title |
---|
木村 朝子 ASAKO KIMURA: "インタラクションデバイスの触知化 Tangible Interaction Device", 情報処理学会研究報告 VOL.2003 NO.88 IPSJ SIG TECHNICAL REPORTS, vol. 第2003巻, JPN6009033864, 9 September 2003 (2003-09-09), JP, pages 135 - 140, ISSN: 0001363935 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007233619A (ja) * | 2006-02-28 | 2007-09-13 | Mitsumi Electric Co Ltd | センサネットワークシステム |
JP2013531828A (ja) * | 2010-04-19 | 2013-08-08 | アマゾン テクノロジーズ インコーポレイテッド | 装置配置および通信のための方法 |
US9232353B2 (en) | 2010-04-19 | 2016-01-05 | Amazon Technologies, Inc. | Approaches for device location and communication |
JP2012022457A (ja) * | 2010-07-13 | 2012-02-02 | Japan Science & Technology Agency | タスク指示システム |
JP2014517955A (ja) * | 2011-04-19 | 2014-07-24 | サムスン エレクトロニクス カンパニー リミテッド | 電力使用状態の表示方法及びその方法を適用した携帯機器 |
US9621368B2 (en) | 2011-04-19 | 2017-04-11 | Samsung Electronics Co., Ltd. | Method for displaying status of power consumption and portable device thereof |
JP2013120501A (ja) * | 2011-12-07 | 2013-06-17 | Canon Inc | 印刷システム、情報処理端末、サーバ、制御方法、及びプログラム |
US9508323B2 (en) | 2012-10-02 | 2016-11-29 | Panasonic Intellectual Property Corporation Of America | Appliance control system and method for controlling an appliance based on processing done by another appliance |
JPWO2014054221A1 (ja) * | 2012-10-02 | 2016-08-25 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 画像表示方法、画像表示装置、及び、画像提供方法 |
US9369515B2 (en) | 2012-10-02 | 2016-06-14 | Panasonic Intellectual Property Corporation Of America | Communication method, communication device, appliance control method, and appliance control device |
US9710971B2 (en) | 2013-07-24 | 2017-07-18 | Fujitsu Limited | Information processing device, position designation method and storage medium |
JP2018520416A (ja) * | 2015-05-15 | 2018-07-26 | パーカー・ハニフィン・コーポレーション | 統合資産保全性管理システム |
WO2017208351A1 (ja) * | 2016-05-31 | 2017-12-07 | 株式会社オプティム | 撮像画像共有システム、撮像画像共有方法及びプログラム |
JPWO2017208351A1 (ja) * | 2016-05-31 | 2018-09-13 | 株式会社オプティム | 撮像画像共有システム、撮像画像共有方法及びプログラム |
US10296280B2 (en) | 2016-05-31 | 2019-05-21 | Optim Corporation | Captured image sharing system, captured image sharing method and program |
CN114079589A (zh) * | 2020-08-21 | 2022-02-22 | 深圳Tcl新技术有限公司 | 一种播放控制方法、智能终端及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11714523B2 (en) | Digital image tagging apparatuses, systems, and methods | |
JP5791605B2 (ja) | メタデータのタグ付けシステム、イメージ検索方法、デバイス及びそれに適用されるジェスチャーのタグ付け方法 | |
US9270950B2 (en) | Identifying a locale for controlling capture of data by a digital life recorder based on location | |
WO2011086956A1 (ja) | 情報端末機器、情報端末機器による操作方法及びプログラム | |
KR20170015622A (ko) | 사용자 단말 장치 및 그 제어 방법 | |
US7233990B1 (en) | File processing using mapping between web presences | |
JP5559987B2 (ja) | 映像記録装置および外部端末 | |
US9203986B2 (en) | Imaging device, imaging system, image management server, image communication system, imaging method, and image management method | |
JP2005250734A (ja) | ユビキタス環境情報スナップショットデータの生成方法、閲覧方法、生成装置、閲覧装置及びプログラム並びにユビキタス環境情報スナップショットのデータ構造 | |
JP2008305103A (ja) | 機器間操作インターフェース、機器制御端末、及びプログラム | |
US20170163840A1 (en) | Information processing device, information processing system, method for controlling information processing device, and program | |
KR20170109218A (ko) | 연계 사용 정보를 생성 또는 이용하는 방법 및 그 장치 | |
US8577988B2 (en) | Content device and control method thereof | |
CN107968824A (zh) | 电子设备及其方法和计算机可读记录介质 | |
CN108780474A (zh) | 服务提供系统、服务递送系统、服务提供方法和程序 | |
CN105681455A (zh) | 获取图像的方法、装置及系统 | |
KR101584304B1 (ko) | 콘텐츠 요청 장치 및 방법 | |
JP2011091723A (ja) | 映像記録装置および外部端末 | |
US10896219B2 (en) | Information processing apparatus, data structure of image file, and non-transitory computer readable medium | |
JP2015080067A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP5462964B2 (ja) | 通信装置および通信装置の制御方法 | |
CN109033429A (zh) | 文件的访问方法、装置及访问接口 | |
KR101759563B1 (ko) | 콘텐츠 요청 장치 및 방법과 콘텐츠 전송 장치 및 방법 | |
US20090077490A1 (en) | Monitor server apparatus | |
JP2019101783A (ja) | 情報処理装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090707 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20091204 |