JP5799018B2 - 拡張物体との対話用デバイス - Google Patents

拡張物体との対話用デバイス Download PDF

Info

Publication number
JP5799018B2
JP5799018B2 JP2012532642A JP2012532642A JP5799018B2 JP 5799018 B2 JP5799018 B2 JP 5799018B2 JP 2012532642 A JP2012532642 A JP 2012532642A JP 2012532642 A JP2012532642 A JP 2012532642A JP 5799018 B2 JP5799018 B2 JP 5799018B2
Authority
JP
Japan
Prior art keywords
user
extended
service
control
interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012532642A
Other languages
English (en)
Other versions
JP2013506925A (ja
Inventor
パストール,アラン
ジヤン,ジヨゼ
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2013506925A publication Critical patent/JP2013506925A/ja
Application granted granted Critical
Publication of JP5799018B2 publication Critical patent/JP5799018B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/12Arrangements for remote connection or disconnection of substations or of equipment thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40195Tele-operation, computer assisted manual operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/002Special television systems not provided for by H04N7/007 - H04N7/18

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Description

本発明は、ユーザが、ある環境における少なくとも1つの物体と、ビデオリンクの媒介を通して対話できるようにする、新たな対話パラダイムに関する。
多くの環境および用途で、たとえば遠隔地の物体、または危険な環境の場合、ユーザが、ビデオリンクを通して見える物体と対話することが要求される。
たとえば米国特許第6463343号から、ビデオリンクを介して、少なくとも1つの「アクティブな」物体を含む環境を表示すること、およびユーザが前記物体と対話できるようにするために、前記物体によって提供されるサービスと関連付けられたコマンドインタフェース要素を重ねることが一般的であり、ビデオリンクは、対話の結果を視覚的に監視することを可能にする。
しかしながら、米国特許第6463343号では、ユーザが、なんらかの動作に先立って、一方における、典型的には記憶媒体から入ってくるコマンドインタフェース要素と、他方における、物体によって提供されるサービスとの関連を定義しなければならない。
モノのインターネットが登場してから、ビデオ画像を通した遠隔地の物体の発見および制御が大きな関心領域となっている。主たる問題は、ビデオリンクを介してインタラクティブな物体を発見し、それに働きかける一方で、インタフェースの統合および構成作業を制限してしまうことである。
これは、ユーザが、遠隔地の物体を、前記物体によって提供されるサービスを使用することによって制御できるようにするために、遠隔制御インタフェースを有する物体と他の通常の物体を自動的に区別する能力、およびこの制御インタフェースを前記ビデオとともにユーザに提示する能力を含意する。
現在、静的な情報をビデオに挿入すること、または画像の特定の領域にコメントを挿入することがせいぜい一般的である。
米国特許第6463343号明細書
本発明は、アクティブな物体を、制御インタフェースまたはそのようなインタフェースを定義する手段に自動的に関連付けるための手段を提案することによって、これらの欠点を取り除く。これは、拡張物体の革新的なコンセプトによって可能になる。そのようなコンセプトは、モノのインターネットに関する現在の開発の中で、その場所を必然的に見いだす。
本発明の目的は、ユーザ領域に位置するユーザが、ある環境に存在する少なくとも1つの拡張物体と対話できるようにするデバイスにして、前記拡張物体は、物体領域内に位置し、この拡張物体は、物理的物体および関連付けられた仮想物体を含み、前記仮想物体は、前記拡張物体によって提供される少なくとも1つのサービスのための少なくとも1つの定義要素を含み、前記拡張物体は、第1の通信手段を介して接続が可能である、デバイスであって:
− 物体領域内に位置し、前記環境の少なくとも一部分のビデオ画像を撮像することが可能な、ビデオをキャプチャする手段と、
− 物体領域の前記ビデオ画像をユーザ領域に送信することが可能な第2の通信手段と、
− ユーザ領域に位置し、ユーザに提示するために、前記ビデオ画像を表示することが可能なユーザ端末と、
− 関連付けられた物理的物体が、ビデオキャプチャの手段の場所に存在するとき、拡張物体を自動的に識別する手段と、
− デバイスと識別された拡張物体の間の接続を確立することが可能であり、前記拡張物体によって提供されるサービス用の前記定義要素を復元するための第1の通信手段と、
− 識別された拡張物体のサービス用の制御インタフェースを、前記サービス定義要素に従って定義することが可能であり、ユーザ端末を介して前記制御インタフェースをユーザに提示するための制御インタフェースを定義する手段と、
− ユーザから入力されるコマンドを、前記制御インタフェースと連係して読み取ることが可能な、前記サービス用のリーダコマンドと、
− 前記コマンドを拡張物体に送信することが可能であり、それによって、物理的物体は前記サービスを実行することができる、第3の通信手段とを備える、デバイスである。
本発明の別の特徴によれば、デバイスはまた、物体領域に位置し、その環境からサウンドをキャプチャすることが可能なサウンドキャプチャの手段と、物体領域からの前記サウンドをユーザ領域に送信することが可能な第4の通信手段とを備え、ユーザ端末が、前記サウンドをユーザに対して再生することが可能なサウンドプレーバックの手段を含む。
本発明の別の特徴によれば、ビデオキャプチャの手段の姿勢および/または位置が制御でき、ユーザ端末がまた、制御コマンドを生成することによって、ユーザが前記制御を実行できるようにすることが可能な、コマンドの手段を備え、デバイスがまた、ユーザ領域から物体領域に前記制御コマンドを送信することが可能な第5の通信手段を備える。
本発明の別の特徴によれば、拡張物体を自動的に識別する手段が、物理的物体の形状を認識する手段を備える。
本発明の別の特徴によれば、拡張物体を自動的に識別する手段が、物理的物体の位置を特定する手段を備える。
本発明の別の特徴によれば、拡張物体を自動的に識別する手段が、物理的物体上またはその近くに位置する識別用マーカを含む。
本発明の別の特徴によれば、インタフェース定義手段が、拡張物体によって直接提案される制御インタフェースを使用可能である。
本発明のまた別の特徴によれば、インタフェース定義手段が、サービス定義要素に従って定義された制御インタフェースを記憶手段から復元することが可能である。
本発明の別の特徴によれば、インタフェース定義手段が、ユーザ端末上に表示されたビデオ画像に埋め込んだ前記制御インタフェースを表示することが可能である。
本発明の別の特徴によれば、前記サービス用のコマンドを読み取る手段が、前記制御インタフェースと連係して、キーボード、タッチパッド、および/またはポインティング機構を備える。
本発明の別の特徴によれば、前記サービス用のコマンドを拡張物体に通信する第3の手段が、ユーザ端末と拡張物体の間にリンク、および仮想物体と物理的物体の間に特別な接続インタフェースを含む。
本発明の別の有利な特徴によれば、第1の、第2の、第3の、第4の、および第5の通信手段はまた、インターネットネットワークを含む。
本発明の他の特徴、詳細、および利点が、図面を参照ながら例として以下に述べる詳細な説明から明らかになろう。
本発明によるデバイスの総観図である。 拡張物体を含む物体領域の例を示す図である。 ビデオ画像と、図2に提示された拡張物体用の制御インタフェースの重ねた表示の例を示す図である。
図1は、本発明によるデバイス1を示す。いわゆる物体領域2において、少なくとも1つの拡張物体3を含む環境が存在する。前記デバイス1は、典型的には物体領域2とは別個かつそこから遠くのユーザ領域4に位置するユーザ5が、その1つまたは複数の拡張物体3を検出し、それらと対話することができるようにする。そうするために、本発明の本質的な特徴に従って、拡張物体が、仮想物体が追加7される物理的物体6の周りに構成される。前記物理的物体6は、現実世界の物体6であり、好ましくは、少なくとも1つのサービスを提供することができるという意味においてアクティブな物体である。
例示的かつ非限定的な例として、いくつかの物体3が、この点を説明するために挙げられ得る。たとえば照明器具が、2つのサービスを提供することができる物体である:前記照明器具をオンにするための「スイッチオン」サービス、前記照明器具をオフにするためのおよび「スイッチオフ」サービス。マルチメディアプレーヤが、たとえばマルチメディアコンテンツ用の「ブロードキャスト」サービスを提供することができる別の物体である。最後に、電話が、電話接続を確立するための「コール」サービスを提案することができる物体である。
拡張物体3およびそれが提供し得るサービスを定義するために、仮想物体7が、物理的物体6と関連付けられる。この仮想物体7は、コンピュータ世界の物体である。したがって、それは、純粋にデータおよび/またはプログラムタイプソフトウェアの要素を含み、また、物理的な要素、典型的には電子的要素、管理要素、インタフェース要素、または相互接続要素も含み得る。
前記仮想物体7は、物理的物体6用の少なくとも1つの定義要素および/または識別要素を含み得る。したがって、拡張物体3は、所与の環境内で一意に定義される。物理的物体6と関連付けられた仮想物体7は、前記拡張物体3によって物理的物体6を介して提供されるサービス(複数可)を定義する少なくとも1つの定義要素を含む。
本発明の本質的な特徴によれば、第1の通信手段10、たとえばネットワークを介して、拡張物体に接続することが可能である。その接続および前記通信手段10との通信インタフェースは、拡張物体3の仮想物体7によって行われる。したがって、ユーザ5は、対話し、情報を交換するために、ユーザ端末12を介して、拡張物体3に接続することができる。
デバイス1は、環境の少なくとも一部のビデオ画像9を撮像できるビデオキャプチャの手段8を備える。このビデオキャプチャの手段8は、物体領域2に位置する。このビデオキャプチャの手段8は、少なくとも1つのビデオカメラ、たとえばウェブカメラを含むことができる。
第2の通信手段11は、前記キャプチャしたビデオ画像9を、物体領域2からユーザ領域4へ送信することを可能にする。
ユーザ5は、デバイス1と対話し、ユーザ端末12を使用してそれに指令を出す。ユーザ端末12は、ユーザ領域4に位置しており、ユーザ5に提示するためにキャプチャし、送信された前記ビデオ画像9を表示することが可能である。したがって、ユーザ5は、有利には、遠方において、物体領域2内で何が起こっているかをリアルタイムで視覚的に知ることができる。
デバイス1はまた、この拡張物体3に関連付けられた物理的物体6がビデオキャプチャの手段8の場所に存在するときに、拡張物体3を自動的に識別する手段13を備える。前記識別する手段13は、例示として記載されるものを含む種々の原理に従って機能し得る。識別はいつでも、要求に応じて、または連続的に実行することができる。しかし、物体3は、少なくともビデオキャプチャの手段8に見え、ユーザ5に提示されるビデオ画像9内に存在するときは、識別可能でなければならない。後述するように、識別処理は、物体3を認識し、一意に識別することを可能にする。したがって、この識別は、前記物体3に接続するために、その位置を特定する手段を提供する。したがって、通信ネットワークの場合、識別は、前記拡張物体3用の独自のネットワークアドレスを提供し、これはネットワーク上の物体の位置を特定し、そこに接続することを可能にする。
デバイス1はまた、第1の通信手段10を備える。第1の通信手段10は、識別する手段13によって提供された1つまたは複数の識別要素に基づいて、デバイス1と、そのようにして識別された拡張物体3の間の接続を確立することを可能にする。拡張物体3との間で確立された接続は、拡張物体3を調べて、前記物体3に関連付けられるまたは前記物体3によって参照される、記憶手段に含まれる拡張物体3に関する情報を復元することを可能にする。
そのようにして復元した情報から、デバイス1は、前記拡張物体3によって提供される1つまたは複数のサービスに対する少なくとも定義要素を区別する。
したがって、照明器具の例に戻ると、デバイスは、識別された拡張照明器具に接続し、2つのサービス、「スイッチオン」および「スイッチオフ」、ならびにこれらのサービスのための定義要素を復元する。したがって、本例においては、「スイッチオン」サービスのための定義要素は、たとえば、その名称:「スイッチオン」、そのタイプ:バイナリコマンド、さらにはその実施のために必要な要素:サービスを実行して照明器具をオンにするように作動されるべき物理的接続のアドレス、を含む。
いくらかの拡張物体3がビデオ画像9内で識別され得る場合、それぞれに関する情報を復元するために、デバイス1と種々の拡張物体3のうちのそれぞれの間で、逐次的にまたは並行して、いくらかの接続が確立されるということは言うまでもない。
デバイス1はまた、制御インタフェースを定義する手段14を含み、これは、拡張物体3のためのサービス定義要素に基づいて、識別された拡張物体3のサービス用の制御インタフェース15を定義することができる。この制御インタフェース15は、ユーザ5によって認識してもらうために、ユーザ端末12上に表示できる、たとえばグラフィックのフロントパネルを提示する。このフロントパネルと連係して、制御インタフェース15は、サービスコマンドを拡張物体3に送信するために必要な接続を有する。制御インタフェース15は、サービス定義要素に従って定義される。
デバイス1はまた、ユーザ5によって適用されるコマンドを読み取ることが可能なリーダ16を備える。このリーダ16は、識別された拡張物体3から抽出されるサービス定義要素に従って、また前記制御インタフェース15のフロントパネルと連係して構成される。
したがって、照明器具の例に戻ると、2つのサービス、「スイッチオン」および「スイッチオフ」が、たとえば、2つのボタンを有する制御インタフェース15上に示されることになる。これらの2つのボタンは、グラフィックで示され、それぞれその名前で認識可能である。次いで、リーダ16は、ユーザ5による、2つのボタンの一方または他方の作動を検出することが可能である。ユーザが、「スイッチオン」サービスと関連付けられたボタンを操作した場合、リーダ16は、対応する「スイッチオン」サービスコマンドを読み取る。
デバイスはまた、第3の通信手段17を備える。この通信手段は、リーダ16によって読み取られるコマンドの拡張物体3への送信を担っている。この送信は、拡張物体3が前記コマンドを受信し、対応するサービスを物理的物体6に対して実行するために行われる。
したがって、照明器具の例で続けると、「スイッチオン」コマンドが読み込まれる。それは拡張照明器具物体に送信され、次いで、サービスが実行され、物理的照明器具がオンになるように、必要なインタフェース要素を作動する。
ユーザ5に提示される環境の認識は、有利には、ビデオ画像9を通じた視覚によるものである。しかし、それは、他の知覚手段に関わるフィードバックによって置換または補足され得る。したがって、デバイス1は、有利には、環境からのサウンドをキャプチャするために、ビデオキャプチャの手段8に多少なりとも地理的に近い物体領域3内にサウンドキャプチャの手段を含み得る。次いで、ユーザ端末12内に含まれるヘッドホンまたはスピーカなどのサウンド生成の手段を使用して、ユーザ5に対して前記サウンドを再生するために、第4の送信する手段が、物体領域2からユーザ領域4に前記サウンドを送信するために使用される。
接触フィードバックなどの、同じ原理に基づく他のフィードバックを追加することも可能である。すべてのこういった知覚的補助は、一体となって機能して、その環境について、また特に、拡張物体3のサービスを制御し、ひいては前記環境を修正するユーザ5の行動に応答してそこで何が起こっているかについて、ユーザ5に知らせる。
有利には、ビデオキャプチャの手段8によって認識される場を可変させるために、ひいては、遠隔地のユーザ5によって認識され得る環境の範囲を広げるために、ビデオキャプチャの手段8は制御され得る。したがって、ビデオキャプチャデバイスの姿勢が、たとえば高度および方位について制御され得る。ビデオキャプチャデバイスはまた、ズーム制御を有し得る。ビデオキャプチャデバイスはまた、位置制御を有し得る。後者の可能性は、制御可能なロボットなどの移動基部を使用して実現することができ、ビデオキャプチャデバイスは、前記移動基部上に載置される。これはまた、ソースを選択する制御室タイプ手段に結合されたいくらかのビデオキャプチャデバイスによって実現され得る。これらの種々の実施形態を結合することもまた可能である。次いで、ユーザ端末12は、ユーザ5が前記制御を実行できるようにすることおよび制御コマンドの生成を可能にする、ビデオキャプチャの手段8の構造に適合された、制御する手段18を備える。デバイス1は、有利には、姿勢、位置、選択コマンドをビデオキャプチャの手段8上で実行する1つまたは複数の制御本体による実行のために、ユーザ領域4から物体領域2へ前記制御コマンドを送信することが可能な第5の通信手段19を備える。
デバイス1の1つの重要な部分は、拡張物体3の識別である。いくらかの技術が、そのような識別を得るために等しく適用できる。識別は、拡張物体3に接続するために、前記拡張物体3を一意に指定することを可能にするという点で、必要である。
識別する手段の第1の実施形態は、ビデオ画像9の分析による、任意の知られている方法に従って形状認識を使用することができる。しかしながら、そのような分析が可能にするのは、認識であって識別ではない。したがって、形状分析は、物体が照明器具であると認識することを可能にするが、識別は、どの照明器具であるか厳密に分かることを要する。
したがって、形状認識の方法は、他の手段によって補足されなければならない。したがって、あらかじめ準備された備品目録を使用することによって続行することが可能である。したがって、照明器具が1つ(すなわち、この種類/色の照明器具が1つ、またはこの環境/部屋に照明器具が1つ)だけである場合、照明器具は確実に識別され得る。
識別する手段13の別の実施形態が、物理的物体6の位置を単独で、または形状認識などの別の手段と組み合わせて使用することができる。したがって、物体は、その位置によって識別される。物体は、部屋の左の隅にあるので、照明器具である。またはここでまた組み合わせて、その形状によって認識された照明器具は、床の1メートル上に位置する(唯一の照明器具である)ので、番号3の照明器具である。しかしながら、そのようなアプローチは、先行定義、たとえば、デバイスの包括的性質を減少させる、種々の物体の位置のマッピングの形を要する。別の欠点は、拡張物体3が動かされていた場合に、それを識別することが困難または不可能になることである。
物体の位置の判定は、ビデオキャプチャの手段8の位置および姿勢に基づいて実行され得る。したがって、ビデオキャプチャデバイスの位置は、それが固定されているため、またはGPS受信機などの任意の知られている位置特定手段によって知られているので、それが可変の場合、物体の位置は、前記ビデオキャプチャデバイスの姿勢の角度が分かることによって判定され得る。正しく言えば、そのような識別が示すのは、線であって位置ではない。しかし、そのような識別は、他の物体(または同じタイプもしくは同じ形状などの物体)が前記線上に存在しなければ、物体3を識別するには十分であり得る。
しかしながら、先行マッピング準備はなんら要求せず、物体3の潜在的かつ常に可能性のある動きを許容する識別する手段13の実施形態が好ましい。そのような識別する手段13は、識別用マーカ20で識別したい拡張物体3に関連付けられた物理的物体6を備えることによって実行できる。そのようなマーカ20は、識別するために固有のものである。それは、物理的物体6の上または近くに位置する。それは、そのタイプに応じて、見える/読み取れるように配置され得る。その特徴シグネチャ(形状、色、コードなど)は、デバイス1からアクセス可能なルックアップテーブル内に保存されて、シグネチャを独自の拡張物体識別子(たとえば前記拡張物体3のネットワークアドレス)に関連付けている。代替的アプローチが、拡張物体3の識別要素のコードからなり、識別用マーカ20への接続を直接的に可能にする。
この実施形態によれば、環境の先行準備がここでも必要である。しかしここで、この準備は1度だけ、拡張物体3ごとに、個別的かつ独立して実行される。すべての候補物体が将来的には工場でこのように構成され、それらを視認可能/判読可能な独自の識別用マーカ20およびネットワーク接続アドレス、たとえば、現在のMACアドレスに関連付けることが考えられる。識別用マーカ20と接続識別要素の対応が識別用マーカ自体に直接コード化されない場合、ルックアップテーブルは、物体の製造業者によって、たとえばインターネット上に、アクセス可能になるように公開され得る。
識別用マーカ20は、たとえば画像分析によってデバイス1が認識するように、有利にはビデオキャプチャの手段8によって視認できる視覚的マーカ(図像、バーコード、カラーコードなど)であり得る。バーコードなどの視覚的「コード」が、有利には、ネットワーク接続識別子をそのコード内、それ以外であればアドレスまたはそれを見いだすことを可能にする任意の他の参照手段に直接的に含めることを可能にする。
有利には、そのような視覚的マーカは、ビデオキャプチャの手段8を再使用するので、追加の読み取る手段は要しない。そのような視覚的マーカの1つの欠点は、認められた(privileged)方向周辺の空間という限定された領域でしか視認できないことである。
代替実施形態によれば、識別用マーカは、RFIDという名称でも知られている無線周波数ラベルである。この場合、デバイス1は、無線周波数ラベルリーダも備えていなければならない。物体領域2内に位置するリーダは、そのような無線周波数ラベルを読み取ることが可能である。そのような無線周波数ラベルは、前述の利点を有する「コード」である。有利には、そのような無線周波数ラベルは、読み取ることができるように見える必要はなく、物体3の中に隠され/埋め込まれていてもよい。また、有利には、そのような無線周波数ラベルの読取りは、いずれの空間的方向でも分け隔てなく行うことができる。
インタフェースを定義する手段14が、前記拡張物体3によって提供されるサービスと関連付けられた、制御インタフェース15の定義要素を、拡張物体3から抽出することをここまで記載してきた。制御インタフェースは、少なくとも物体3のタイプによって定義される。したがって、照明器具の例では、制御インタフェース15用の定義要素は、2つのサービス、「スイッチオン」および「スイッチオフ」のそれぞれが、バイナリコマンドと関連付けられた指示を少なくとも含む。物体はまた、より具体的な指示、たとえば、レイアウト、見かけ、または拡張物体3によって提案される制御インタフェース15の詳細なグラフィック表示さえも含むことができる。
第1の実施形態によれば、インタフェースを定義する手段14が、拡張物体3によって提案される制御インタフェースを直接的かつ十分に使用する。これは、拡張物体3に固有のグラフィックの美的性質に従うことを可能にする。
別法として、インタフェースを定義する手段14は、タイプ定義要素を使用して、物体3およびそのサービスに対応する制御インタフェース15を構築するが、拡張物体3によって提案されるものを考慮せずに、グラフィックの見かけを定める。これは、インタフェースを定義する手段14が、ある拡張物体3から別の拡張物体3の間で均質なグラフィックの美的性質を備える制御インタフェース15を提案することを可能にする。
インタフェースタイプ定義要素およびすべてまたは一部のそれらのグラフィック表示を、環境または物体についてのなんらかの従来知識なしで、ビデオ画像9内で識別された拡張物体3から自動的に抽出するこの機能は、先行定義、環境モデリング、または構成なしでデバイス1の実装を可能にするという点で極めて有利である。
さらに、(構成または準備のない)自動的および自律的識別は、知られていない環境を理解し、たとえば物体3を移動させることによる、前記環境への変更を許容することを可能にする。
拡張物体3への接続の後に抽出される要素が、拡張物体3自体に含まれる記憶手段から抽出することができることは明らかである。別法として、参照またはアドレスを、これらの要素が記憶されている遠隔地の記憶手段を示す物体3から抽出してもよい。
前記制御インタフェース15を定義した後、定義する手段14は、有利にはユーザ端末12内に含まれる表示する手段上に表示することが可能である。
特に有利な実施形態によれば、前記制御インタフェース15の表示は、ビデオ画像9上に直接的に重なったグラフィックによって行われる。したがって、単一の表示手段上で、ユーザ5は、そのサービスを使用するために、物体3との間で対話するために必要なすべての情報を有する。したがって、制御インタフェースは、有利には、それが関連付けられる拡張物体3の近くに位置する。したがって、ユーザ5は、物体3のサービスを前記制御インタフェース15を使用して制御することができ、またサービスを使用した結果を同じ表示上で観察することができる。
したがって、なお照明器具の例で言えば、制御インタフェースのグラフィック表示が、関連が明らかとなるように、照明器具が現れているビデオ画像上の照明器具の近くに重畳され、「スイッチオン」および「スイッチオフ」ボタンを示す。ユーザ4が、これらの2つのサービスのうちの一方に指令を出したとき、ユーザは、ビデオ画像9を通じて、環境における結果を直接的に観察することができる。したがって、「スイッチオン」サービスに指令を出した後、照明器具がオンになり、ユーザ5は、その環境における点灯の効果を観察することができる。
ユーザ5に提示される前記制御インタフェース15とともに、デバイス1は、ユーザ5によって実行されるコマンドを読み取る手段16を備える。このリーダ16は、キーボード、タッチパッド、および/またはポインティングデバイスを含み得る。この1つまたは複数の要素は、制御インタフェース15と連係して構成される。したがって、照明器具の例において、キーボードは、キーを2つのサービス、「スイッチオン」および「スイッチオフ」のそれぞれに関連付けることによって使用することができる。関連付けられたキーを押すことで、前記サービスに指令が出る。タッチパッドも使用できる。有利には、それは、制御インタフェース15のグラフィック表示が表示される表示手段上に重畳される。また、従来、マウス(またはジョイスティック、トラックボール、パッドなど)のポインティングデバイスが使用されることがある。この場合、グラフィックのボタンは、そのアクティブなゾーンをクリックすることによって作動する。
本発明との関連で規定するように、拡張物体3との間の接続を確立できなければならない。したがって、物体からの情報にアクセスし、その制御インタフェースを定義するために、第1の通信手段が使用される。
第3の通信手段17はまた、サービスのためのコマンドを、ユーザ5からの前記コマンドを読み取ったユーザ端末12から、前記コマンドを実行して、対応するサービスを実施する拡張物体3に送信するために使用される。
この第3の通信手段17は、体系的に、ユーザ端末12と拡張物体3の間に第1のリンクを含む。最も多くはネットワークによるこの接続は、ユーザ端末12と仮想物体7の間のリンクを確立する。それはまた、第2の接続も含み得る。第2の接続は、仮想物体7と物理的物体6の間の特別な接続インタフェースである。したがって、純粋に物理的物体である照明器具の場合、拡張前に、切替えデバイスによって、2つの仮想サービス、「スイッチオンおよびスイッチオフ」を物理的に関連付ける特別な接続インタフェースで照明器具を補足することが必要である。
本質的にネットワークインタフェースを含む、インターネットインタフェースを有するネットワークドライブまたはDVDプレーヤなどの電子またはコンピュータ物体の場合、これらの2つの接続が重なり合う。
有利な一実施形態によれば、第1の、第2の、第3の、第4の、および第5の通信手段が、重なり合い、通信ネットワーク、たとえば、インターネットを備える。
したがって、デバイス1の構造のこの説明を補足し、例示するために、ここで例を提示してその使用を示し、それによって、この新たなパラダイムの潜在的可能性を示す。
応用的枠組みは、家庭電化製品環境における遠隔対話であり、娯楽および親(ユーザ5)が端末12を使用して自身の仕事場から行う、家における子どもの監視に適用される。
ユーザ5は、家(物体領域2)の内部を、自身の仕事場(ユーザ領域4)からウェブカメラ8を使用して見ることができ、ウェブカメラ8の画像は、インターネットを介して、有利には標準的なパーソナルコンピュータ(ユーザ端末12)に再送される。ビデオ画像9は、リビングルームを示す。デバイスは、適用可能な場合、自動的にこの光景における3つの拡張物体の存在:照明器具、電話、およびマルチメディアプレーヤを検出し、グラフィックで強調表示する。デバイスは、選択的に(たとえば、ポインタを物体の上に移動させたとき)3つの拡張物体のそれぞれに対する制御インタフェース15を表示するまたは隠すことを可能にする。
時刻は5:00pmで、親は、ビデオを介して、帰宅した自身の子を観察することができる。
親は、電話物体を選択する。これは、少なくとも「コールミー(call me)」サービスを提供する制御インタフェースを表示する。このサービスは、コマンドを受け、家にある電話への電話の呼の確立をトリガし、これが、端末を介した親と前記電話を介した子をつなぐ。
その後の会話の間、親は子に対し、親がダウンロードしてある自分たちのひいきの群から最新のビデオクリップを視聴するように提案する。
親は、マルチメディアプレーヤを選択する。これは、少なくとも「ブロードキャスト」サービスを提供する制御インタフェースを表示する。親は、自身の端末のデスクトップ上のビデオクリップを選択し、それを「ブロードキャスト」サービス用の制御インタフェース上にドラッグする。これは、仕事場から家のマルチメディアプレーヤへの前記クリップのダウンロードをトリガし、次いで、子の視聴のために前記マルチメディアプレーヤ上で前記クリップを再生する。
クリップのブロードキャストが中断しないように、親は、照明器具物体を選択して、オフにすることができ、すべて遠隔操作で実行される。

Claims (18)

  1. ユーザ領域(4)に位置するユーザ(5)が、ある環境に存在する少なくとも1つの拡張物体(3)と対話できるようにするデバイスにして、前記拡張物体(3)は、物体領域(2)内に位置し、この拡張物体(3)は、物理的物体(6)および関連付けられた仮想物体(7)を含み、前記仮想物体(7)は、前記拡張物体()によって提供される少なくとも1つのサービスのための少なくとも1つの定義要素を含み、前記拡張物体(3)は、第1の通信手段(10)を介して接続が可能である、デバイス(1)であって、
    物体領域(2)内に位置し、前記環境の少なくとも一部分のビデオ画像(9)を撮像することが可能な、ビデオをキャプチャする手段(8)と、
    物体領域(2)の前記ビデオ画像(9)をユーザ領域(4)に送信することが可能な第2の通信手段(11)と、
    ユーザ領域(4)に位置し、ユーザ(5)に提示するために、前記ビデオ画像(9)を表示することが可能なユーザ端末(12)と、
    関連付けられた物理的物体(6)が、ビデオキャプチャの手段(8)の場所に存在するとき、拡張物体(3)を自動的に識別する手段(13)と、
    デバイス(1)と識別された拡張物体(3)の間の接続を確立することが可能であり、前記拡張物体(3)によって提供されるサービスの前記定義要素を復元するための第1の通信手段(10)と、
    識別された拡張物体(3)のサービス用の制御インタフェース(15)を、前記サービス定義要素に従って定義することが可能であり、ユーザ端末(12)を介して前記制御インタフェース(15)をユーザ(5)に提示するための制御インタフェースを定義する手段(14)と、
    ユーザ(5)から入力されるコマンドを、前記制御インタフェース(15)と連係して読み取ることが可能な、前記サービス用のコマンドを読み取る手段(16)と、
    前記コマンドを拡張物体(3)に送信することが可能であり、それによって、物理的物体(6)は前記サービスを実行することができる、第3の通信手段(17)と
    を備える、デバイス(1)。
  2. 物体領域(2)に位置し、その環境からサウンドをキャプチャすることが可能なサウンドキャプチャの手段と、物体領域(2)からの前記サウンドをユーザ領域(4)に送信することが可能な第4の通信手段とを備え、ユーザ端末(12)が、前記サウンドをユーザ(5)に対して再生することが可能なサウンドプレーバックの手段を含む、請求項1に記載のデバイス。
  3. ビデオキャプチャの手段の姿勢および/または位置が制御でき、ユーザ端末(12)がまた、制御コマンドを生成することによって、ユーザ(5)が前記制御を実行できるようにすることが可能な、ビデオコマンドの手段(18)を備え、デバイスがまた、ユーザ領域(4)から物体領域(2)に前記制御コマンドを送信することが可能な第5の通信手段(19)を備える、請求項2に記載のデバイス。
  4. ビデオキャプチャの手段の姿勢および/または位置が制御でき、ユーザ端末(12)がまた、制御コマンドを生成することによって、ユーザ(5)が前記制御を実行できるようにすることが可能な、ビデオコマンドの手段(18)を備え、デバイスがまた、ユーザ領域(4)から物体領域(2)に前記制御コマンドを送信することが可能な第5の通信手段(19)を備える、請求項1に記載のデバイス。
  5. 第1の、第2の、および第3の通信手段はまた、インターネットを含む、請求項1に記載のデバイス。
  6. 第1の、第2の、第3の、および第4の通信手段はまた、インターネットを含む、請求項2に記載のデバイス。
  7. 第1の、第2の、第3の、第4の、および第5の通信手段はまた、インターネットを含む、請求項3に記載のデバイス。
  8. 第1の、第2の、第3の、および第5の通信手段はまた、インターネットを含む、請求項4に記載のデバイス。
  9. 拡張物体(3)を自動的に識別する手段(13)が、物理的物体(6)の形状を認識する手段を備える、請求項1からのいずれかに記載のデバイス。
  10. 拡張物体(3)を自動的に識別する手段(13)が、物理的物体(6)の位置を特定する手段を備える、請求項1からのいずれかに記載のデバイス。
  11. 拡張物体(3)を自動的に識別する手段(13)が、物理的物体(6)上またはその近くに位置する識別用マーカ(20)を含む、請求項1から10のいずれかに記載のデバイス。
  12. 識別用マーカ(20)が視覚的マーカである、請求項11に記載のデバイス。
  13. 識別用マーカ(20)が無線周波数ラベルであり、デバイスがまた、物体領域(2)内に位置し、そのような無線周波数ラベルを読み取ることが可能な無線周波数ラベルリーダを含む、請求項11または12に記載のデバイス。
  14. インタフェースを定義する手段(14)が、拡張物体(3)から抽出される制御インタフェース(15)を使用可能である、請求項1から13のいずれかに記載のデバイス。
  15. インタフェースを定義する手段(14)が、サービス定義要素に従って定義された制御インタフェース(15)を記憶手段から復元することが可能である、請求項1から14のいずれかに記載のデバイス。
  16. インタフェースを定義する手段(14)が、前記制御インタフェース(15)を、ユーザ端末(12)上に表示されたビデオ画像(9)に埋め込むことによって表示することが可能である、請求項1から15のいずれかに記載のデバイス。
  17. 前記サービス用のコマンドを読み取る手段(16)が、前記制御インタフェース(15)と連係して、キーボード、タッチパッド、および/またはポインティング機構を備える、請求項1から16のいずれかに記載のデバイス。
  18. 前記サービス用のコマンドを拡張物体(3)に通信する第3の手段(17)が、ユーザ端末(12)と拡張物体(3)の間にリンク、および仮想物体(7)と物理的物体(6)の間に接続インタフェースを含む、請求項1から17のいずれかに記載のデバイス。
JP2012532642A 2009-10-05 2010-09-03 拡張物体との対話用デバイス Expired - Fee Related JP5799018B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0956914 2009-10-05
FR0956914A FR2950989B1 (fr) 2009-10-05 2009-10-05 Dispositif d'interaction avec un objet augmente.
PCT/FR2010/051837 WO2011042632A1 (fr) 2009-10-05 2010-09-03 Dispositif d'interaction avec un objet augmente

Publications (2)

Publication Number Publication Date
JP2013506925A JP2013506925A (ja) 2013-02-28
JP5799018B2 true JP5799018B2 (ja) 2015-10-21

Family

ID=41719226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012532642A Expired - Fee Related JP5799018B2 (ja) 2009-10-05 2010-09-03 拡張物体との対話用デバイス

Country Status (8)

Country Link
US (1) US9063537B2 (ja)
EP (1) EP2486701B1 (ja)
JP (1) JP5799018B2 (ja)
KR (1) KR101470711B1 (ja)
CN (1) CN102577250B (ja)
ES (1) ES2464127T3 (ja)
FR (1) FR2950989B1 (ja)
WO (1) WO2011042632A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965564B2 (en) 2011-07-26 2018-05-08 Schneider Electric It Corporation Apparatus and method of displaying hardware status using augmented reality
US8825824B2 (en) * 2012-02-28 2014-09-02 General Electric Company Systems and methods for machine configuration
US9087403B2 (en) 2012-07-26 2015-07-21 Qualcomm Incorporated Maintaining continuity of augmentations
US9639984B2 (en) 2013-06-03 2017-05-02 Daqri, Llc Data manipulation based on real world object manipulation
CN103777851B (zh) * 2014-02-26 2018-05-29 大国创新智能科技(东莞)有限公司 物联网视频交互方法和系统
US20160071319A1 (en) * 2014-09-09 2016-03-10 Schneider Electric It Corporation Method to use augumented reality to function as hmi display
KR102427328B1 (ko) * 2014-10-17 2022-08-01 삼성전자주식회사 사물 인터넷 단말 및 그 동작 방법
KR102332752B1 (ko) 2014-11-24 2021-11-30 삼성전자주식회사 지도 서비스를 제공하는 전자 장치 및 방법
US9760744B1 (en) 2016-06-01 2017-09-12 International Business Machines Corporation Physical interactive IDs (P2D)
US11222081B2 (en) 2017-11-27 2022-01-11 Evoqua Water Technologies Llc Off-line electronic documentation solutions
KR102359601B1 (ko) * 2019-11-29 2022-02-08 한국과학기술원 투명 평판을 이용한 영상 처리 방법 및 이를 수행하는 장치

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4982438A (en) * 1987-06-02 1991-01-01 Hitachi, Ltd. Apparatus and method for recognizing three-dimensional shape of object
US6463343B1 (en) * 1999-08-10 2002-10-08 International Business Machines Corporation System and method for controlling remote devices from a client computer using digital images
JP4178697B2 (ja) * 1999-11-18 2008-11-12 ソニー株式会社 携帯型情報処理端末、情報入出力システム及び情報入出力方法
GB2360356A (en) * 2000-03-18 2001-09-19 Rupert William Meldrum Curwen Actuating an operation in accordance with location of a transponder
JP2002044646A (ja) 2000-07-26 2002-02-08 Kansai Electric Power Co Inc:The Adslを利用した監視システム
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
US7054645B1 (en) * 2001-03-07 2006-05-30 At&T Corp. System for intelligent home controller and home monitor
US7060407B2 (en) * 2002-10-04 2006-06-13 Ricoh Company, Limited Image removing method, image removing device, and image forming apparatus
US6998987B2 (en) * 2003-02-26 2006-02-14 Activseye, Inc. Integrated RFID and video tracking system
US8042049B2 (en) * 2003-11-03 2011-10-18 Openpeak Inc. User interface for multi-device control
JP2005063225A (ja) * 2003-08-15 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム
US7616782B2 (en) * 2004-05-07 2009-11-10 Intelliview Technologies Inc. Mesh based frame processing and applications
WO2006009521A1 (en) * 2004-07-23 2006-01-26 Agency For Science, Technology And Research System and method for replay generation for broadcast video
US8042048B2 (en) * 2005-11-17 2011-10-18 Att Knowledge Ventures, L.P. System and method for home automation
EP1966625A1 (en) 2005-12-19 2008-09-10 Koninklijke Philips Electronics N.V. Method and apparatus for lighting control
WO2008032225A2 (en) * 2006-03-21 2008-03-20 Ranco Incorporated Of Delaware Refrigeration monitor unit
US20080144884A1 (en) * 2006-07-20 2008-06-19 Babak Habibi System and method of aerial surveillance
JP5132138B2 (ja) * 2006-11-28 2013-01-30 キヤノン株式会社 位置姿勢計測方法、位置姿勢計測装置
US8295543B2 (en) * 2007-08-31 2012-10-23 Lockheed Martin Corporation Device and method for detecting targets in images based on user-defined classifiers
WO2009113067A2 (en) * 2008-03-11 2009-09-17 In-Dot Ltd. Systems and methods for communication

Also Published As

Publication number Publication date
FR2950989B1 (fr) 2011-10-28
US20120243743A1 (en) 2012-09-27
CN102577250A (zh) 2012-07-11
EP2486701A1 (fr) 2012-08-15
ES2464127T3 (es) 2014-05-30
KR20120063508A (ko) 2012-06-15
CN102577250B (zh) 2014-12-03
US9063537B2 (en) 2015-06-23
JP2013506925A (ja) 2013-02-28
EP2486701B1 (fr) 2014-04-09
FR2950989A1 (fr) 2011-04-08
KR101470711B1 (ko) 2014-12-08
WO2011042632A1 (fr) 2011-04-14

Similar Documents

Publication Publication Date Title
JP5799018B2 (ja) 拡張物体との対話用デバイス
JP6199903B2 (ja) 光源のリモートコントロール
US20200159485A1 (en) Virtual reality real-time visual navigation method and system
US8704644B2 (en) Remote control system, remote control apparatus and remote control method
US20110105041A1 (en) Remote control device, internet home applicance, remote control system, and remote control method
US11334175B2 (en) Information output system and method
KR20220063205A (ko) 인터넷 연결 설치를 위한 증강 현실
JP2007304667A (ja) ユーザインタフェース装置、ユーザインタフェース方法及びプログラム
JP2007306070A (ja) 遠隔制御システム及び遠隔制御方法
WO2016117261A1 (ja) 制御装置、制御装置の制御プログラム、制御装置の制御方法、制御システム、端末装置、および被制御装置
JP2005063225A (ja) 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム
KR20150105131A (ko) 증강현실 제어 시스템 및 제어 방법
JP2021081968A (ja) ネットワークシステム
Divya et al. An IoT Enabled Smart Home Automation Using Augmented Reality in Computer Vision
WO2021044851A1 (ja) 情報処理装置、及び情報処理方法
KR20140098321A (ko) 콘텐츠 공유 시스템 및 콘텐츠 공유 방법
AU2022386387A1 (en) Systems, methods, and media for controlling shared extended reality presentations
CN116935084A (zh) 一种虚拟现实设备及校验数据的方法
TW201741854A (zh) 熱點建立流程方法
CN105630142A (zh) 一种发布和传递识别信息的方法和装置及信息识别系统
JP2002315065A (ja) 遠隔指示システム、遠隔指示方法、及びその方法を実現するプログラムを記憶した記録媒体
JP2007104098A (ja) リモートコントローラ装置、電子機器制御システム、および電子機器制御方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131008

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150824

R150 Certificate of patent or registration of utility model

Ref document number: 5799018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees