JP2008529147A - Device control method - Google Patents

Device control method Download PDF

Info

Publication number
JP2008529147A
JP2008529147A JP2007552764A JP2007552764A JP2008529147A JP 2008529147 A JP2008529147 A JP 2008529147A JP 2007552764 A JP2007552764 A JP 2007552764A JP 2007552764 A JP2007552764 A JP 2007552764A JP 2008529147 A JP2008529147 A JP 2008529147A
Authority
JP
Japan
Prior art keywords
image
pointing device
visual identifier
pointing
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007552764A
Other languages
Japanese (ja)
Inventor
クナイスラー,ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2008529147A publication Critical patent/JP2008529147A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link

Abstract

本発明は、装置D1,D2,D3の制御方法を記載するものであり、本方法は、制御されるべき装置D1,D2,D3にカメラ2を有するポインティングデバイス1を向けるステップ、ポインティングデバイス1により向けられるターゲットエリアAの画像3を生成するステップ、及び、ターゲットエリア画像3を解釈し、制御されるべき装置D1,D2,D3と関連付けされる固有の視覚的な識別子V1,V2,V3の存在を判定するステップを含む。ターゲットエリア画像の分析に基づいて、ポインティングデバイス1が向けられる装置D1,D2,D3が識別され、制御信号17が識別された装置D1,D2,D3に送出される。本発明は、装置D1,D2,D3を制御するシステム、係る装置D1,D2,D3に関する。本発明を使用して、多数の制御可能な装置D1,D2,D3のうちの任意の装置を視覚的な識別子V1,V2,V3により容易に識別することができる。好適な実施の形態では、視覚的な識別子V1,V2,V3は、トリガ信号T1,T2,Tによりトリガされる。The present invention, which describes a method for controlling the device D 1, D 2, D 3, the method directs the pointing device 1 with a camera 2 in the apparatus D 1, D 2, D 3 should be controlled A step of generating an image 3 of the target area A directed by the pointing device 1, and a unique visual associated with the devices D 1 , D 2 , D 3 to be interpreted and to be controlled Determining the presence of unique identifiers V 1 , V 2 , V 3 . Based on the analysis of the target area image, the devices D 1 , D 2 , D 3 to which the pointing device 1 is directed are identified and a control signal 17 is sent to the identified devices D 1 , D 2 , D 3 . The invention relates to a system for controlling the devices D 1 , D 2 , D 3 and to such devices D 1 , D 2 , D 3 . Using the present invention, any of a number of controllable devices D 1 , D 2 , D 3 can be easily identified by visual identifiers V 1 , V 2 , V 3 . In the preferred embodiment, the visual identifiers V 1 , V 2 , V 3 are triggered by trigger signals T 1 , T 2 , T.

Description

本発明は、装置の制御方法及びシステム、並びに係る装置に関する。   The present invention relates to an apparatus control method and system, and to such an apparatus.

たとえばテレビジョン、DVDプレーヤ、チューナ等といったコンシューマエレクトロニクス装置のような装置の制御について、リモートコントロールが一般に使用されている。しかし、平均的な家庭では、それぞれのコンシューマエレクトロニクス装置について1つといった、多数のリモートコントロールが必要とされる。所有するコンシューマエレクトロニクス装置に精通している人でさえ、それぞれのリモートコントロールのそれぞれのボタンがどの目的のものであるかを思い出すことは難しい。さらに、あるコンシューマエレクトロニクスについて利用可能なオンスクリーンのメニュー駆動ナビゲーションは、装置について利用可能なオプションの詳細な知識を持たないユーザにとって直観的なものではない。結果的に、ユーザは、ユーザが探しているオプションを探すためにスクリーンに表示されるメニューを連続して調べ、次いで適切なボタンを探すためにリモートコントロールを見下ろす必要がある。ボタンは、直観的ではないネーミングすなわち略記で与えられていることがある。さらに、リモートコントロールのボタンは、モードボタンを始めに押すことでアクセスされる更なる機能を実行する。   Remote control is generally used for controlling devices such as consumer electronics devices such as televisions, DVD players, tuners, and the like. However, in the average home, a large number of remote controls are required, one for each consumer electronics device. Even those familiar with the consumer electronics devices they own, it is difficult to remember what purpose each button on each remote control is for. Furthermore, the on-screen menu driven navigation available for certain consumer electronics is not intuitive for users who do not have detailed knowledge of the options available for the device. As a result, the user needs to continuously examine the menu displayed on the screen to find the option he is looking for, and then look down on the remote control to find the appropriate button. The buttons may be given a non-intuitive naming or abbreviation. In addition, remote control buttons perform additional functions that are accessed by first pressing the mode button.

多数の装置を制御するため、1つのリモートコントロール装置が使用されることがある。リモートコントロールは一方の装置から別の装置を区別するのを可能にするので、リモートコントロールには、それぞれの装置の専用のボタンが設けられる必要があり、ユーザは、所望の装置と対話する前に適切なボタンを明示的に押す必要がある。   One remote control device may be used to control multiple devices. Since the remote control allows one device to distinguish another device, the remote control must be provided with a dedicated button for each device, so that the user can interact with the desired device before interacting with it. You need to press the appropriate button explicitly.

通常のリモートコントロールに対する可能性のある代替は、レーザポインタ又は「ワンド“wand”」のようなポインタである。今まで利用可能なポインタは、その使用が近年に普及しており、典型的にスクリーン又はプロジェクションのアイテムを聴衆のメンバに示すため、オブジェクトを示すためにのみ使用されるので、本質的にパッシブ型の装置である。しかしながら、カメラ技術の分野における発展は、エレクトロニクス装置の遠隔制御のためにカメラを含むハンドヘルドポインティング装置のタイプの広い使用につながっており、カメラは、ユーザがポインティング装置を向けているポイントを追従するために使用される。しかし、このタイプのリモートコントロールでさえ、ユーザがポインティングデバイスを向けている装置を判定するための問題が残されており、たとえば同じ形状及び外観のテレビジョン又はコンピュータモニタのバンク、類似して見えることがあるビデオカセットレコーダ、DVDプレーヤ等のようなコンシューマエレクトロニクスといった、装置が形状及び外観において類似しているときに一層困難なものにする。装置が通常の状況下で離れて配置されるとき、たとえば暗くされた部屋といった乏しい視野状態においてこれを行うことがもはや不可能である。   A possible alternative to normal remote control is a laser pointer or a pointer such as a “wand”. Pointers that have been available so far have been popular in recent years and are typically passive in nature because they are only used to indicate objects, typically to show screen or projection items to audience members. It is a device. However, developments in the field of camera technology have led to the wide use of handheld pointing device types, including cameras, for remote control of electronic devices, because the camera follows the point where the user points the pointing device. Used for. However, even this type of remote control remains a problem for the user to determine the device the pointing device is pointing at, for example, a television or computer monitor bank of the same shape and appearance that looks similar It makes it more difficult when the devices are similar in shape and appearance, such as consumer electronics such as some video cassette recorders, DVD players and the like. When the device is placed remotely under normal circumstances, it is no longer possible to do this in poor viewing conditions, for example in a darkened room.

したがって、本発明の目的は、多数の装置のなかから制御されるべき装置を自動的に識別する容易かつ直観的なやり方を提供することにある。   Accordingly, it is an object of the present invention to provide an easy and intuitive way to automatically identify a device to be controlled among a number of devices.

上記目的を達成するため、本発明は、装置の制御方法を提供するものであり、当該方法は、カメラを有するポインティングデバイスを制御されるべき装置に向けるステップ、及び、ポインティングデバイスにより向けられたターゲットエリアの画像を生成するステップを含む。ターゲットエリアの画像は、制御されるべき装置に関連付けされる視覚的な識別子の存在を判定するために解釈され、ポインティングデバイスが向けられる装置がターゲットエリアの画像分析に基づいて識別され、制御信号は、識別された装置に送出される。   In order to achieve the above object, the present invention provides a method for controlling an apparatus, the method directing a pointing device having a camera to an apparatus to be controlled, and a target pointed by the pointing device. Generating an image of the area. The target area image is interpreted to determine the presence of a visual identifier associated with the device to be controlled, the device to which the pointing device is directed is identified based on the target area image analysis, and the control signal is To the identified device.

用語「視覚的な識別子」は、人間の目によるかカメラにより「見ることができる」以外の識別子を意味することが理解される。かかる視覚的な識別子は、たとえばフラッシュ又は明るさにおける他の変化のような光信号といった、電磁的なスペクトルの任意の領域で生成される。たとえば、ポインティングデバイスがモニタに向けられる場合、モニタスクリーンのエリアは、フラッシュが生じるか、色又は色相を変える。視覚的な識別子は、人間の目に見えないが、ポインティングデバイスのカメラにより識別できる。別の可能なタイプの視覚的な識別子は、デバイスの一部が移動させられるケースについて、見ることのできるシンプルなジェスチャであり、動きは、カメラにより記録され、画像分析により解釈される。   The term “visual identifier” is understood to mean an identifier other than “visible” by the human eye or by the camera. Such visual identifiers are generated in any region of the electromagnetic spectrum, for example an optical signal such as a flash or other change in brightness. For example, if the pointing device is pointed at the monitor, the area of the monitor screen will flash or change color or hue. The visual identifier is invisible to the human eye but can be identified by the camera of the pointing device. Another possible type of visual identifier is a simple gesture that can be seen for cases where a part of the device is moved, and the movement is recorded by the camera and interpreted by image analysis.

本発明によれば、装置を制御するシステムは、ポインティングデバイスが向けられる方向でターゲットエリアの画像を生成するカメラをもつポインティングデバイス、及び、画像を分析して視覚的な識別子の存在を判定する画像分析ユニットを有する。さらに、システムは、可能性のある装置、それらに関連される視覚的な識別子、及び/又は、対応する視覚的な識別子をアクチベートするために関連付けされるトリガ信号からなるリストを管理するデバイスリスト管理ユニットを有する。制御信号発生ユニットにより、画像分析の結果に従って制御されるべき装置について制御信号が発生され、適切なインタフェースにより制御されるべき装置に伝達される。制御されるべき装置とポインティングデバイスとの間で信号を解釈、分析及び発生することに使用される画像分析ユニット、制御信号発生ユニットのようなシステムのユニットは、便宜上、「デバイスコントロールインタフェース」と以下ではシンプルに呼ばれる。   According to the present invention, a system for controlling an apparatus includes a pointing device having a camera that generates an image of a target area in a direction in which the pointing device is directed, and an image that analyzes the image to determine the presence of a visual identifier Has an analysis unit. In addition, the system manages device list management that manages a list of possible devices, their associated visual identifiers, and / or trigger signals associated to activate the corresponding visual identifiers. Have a unit. A control signal is generated by the control signal generation unit for the device to be controlled according to the result of the image analysis and transmitted to the device to be controlled by an appropriate interface. The units of the system, such as the image analysis unit, the control signal generation unit, used for interpreting, analyzing and generating signals between the device to be controlled and the pointing device are referred to as “device control interface” for convenience. So simply called.

本発明に係る方法で使用するための装置は、視覚的な識別子を有し、視覚的な識別子は、ポインティングデバイスにより行われるアクションに応答してアクチベートされ、多数のアクションのなかからこの装置を識別する役割を果たす。かかる装置は、パーソナルコンピュータ、コンシューマエレクトロニクスデバイス、家庭用機器、又は任意の環境での任意のタイプの電子的又は電気的に制御可能な装置である。視覚的な識別子は、たとえばタグ、スティッカ又は他のオブジェクトのタイプといった、装置に物理的に重ね合わされる。同様に、装置の視覚的な識別子は、たとえばコンピュータモニタのような装置の表示のエリアとして、装置の統合された部分として実現される。装置は、その視覚的な識別子により識別されるか、又は特定のトリガ信号に応答して視覚的な識別子のアクチベーションにより識別される。   An apparatus for use in the method according to the present invention has a visual identifier, which is activated in response to an action performed by the pointing device and identifies the apparatus from among a number of actions. To play a role. Such an apparatus is a personal computer, consumer electronics device, household appliance, or any type of electronically or electrically controllable apparatus in any environment. The visual identifier is physically superimposed on the device, for example a tag, sticker or other object type. Similarly, the visual identifier of the device is implemented as an integrated part of the device, for example as a display area of the device, such as a computer monitor. The device is identified by its visual identifier or by activation of the visual identifier in response to a specific trigger signal.

本発明に係る方法は、ポインティングデバイスの増加された使用の可能性を提供する。係るポインティングデバイスは、特定のユニバーサルコントロールツールであり、これは、生成される画像に基づいて発生されるべき制御信号について装置又はオブジェクトを1つのポインティングデバイスのみを向ける必要があることによる。特に、本明細書で記載される方法により、ユーザは、かかるポインティングデバイスにより、全ての装置が外観において類似又は同一であるか、周辺が暗い場合でさえ、任意の装置を容易に識別し、対話することができる。このポインティングデバイスの機能は、先に記載されたように、その便利なポインティングの様式と共に、毎日の生活における無数の状況について、本発明をパワフルかつ実用的なツールにするために結合する。
従属の請求項及び後続する記載は、本発明の特に有利な実施の形態及び特徴を開示する。
The method according to the present invention offers the possibility of increased use of the pointing device. Such a pointing device is a specific universal control tool, because it is necessary to point the device or object to only one pointing device for a control signal to be generated based on the generated image. In particular, the method described herein allows a user to easily identify and interact with any device, even if all devices are similar or identical in appearance, or the surroundings are dark. can do. The functionality of this pointing device, along with its convenient pointing modalities, as described above, is combined to make the present invention a powerful and practical tool for countless situations in everyday life.
The dependent claims and the subsequent description disclose particularly advantageous embodiments and features of the invention.

本発明のポインティング装置の目的は多数の装置のなかから1つの装置を識別することができるだけでなく、識別された装置とユーザが対話するのを可能にするので、カメラにより生成された画像は、ユーザにより選択された装置で表示されるオプションを判定するために更に分析されることが好ましい。この画像分析に基づいて適切な制御信号が発生され、装置に所望のユーザオプションを実行させるため、装置に送出される。たとえば、ユーザは、スクリーンに表示されるメニューのヒエラルキーを通してナビゲートするため、装置のスクリーンを示す。ひとたび装置が識別されると、画像は、ユーザが示している任意のオプションを推測するために分析される。しかし、本発明は、典型的なマルチデバイスリモートコントロールとして使用され、それぞれの装置のコマンドは、リモートコントロールの1以上のボタンを押すことでユーザにより入力されるが、ユーザがポインティングデバイスに向けている装置、コマンドが意図される装置は、本発明に従って自動的に識別される。   The purpose of the pointing device of the present invention is not only to identify one device among a number of devices, but also to allow the user to interact with the identified device, so that the image generated by the camera is It is preferably further analyzed to determine the options displayed on the device selected by the user. Based on this image analysis, appropriate control signals are generated and sent to the device to cause the device to perform the desired user options. For example, the user shows the screen of the device to navigate through the menu hierarchy displayed on the screen. Once the device is identified, the image is analyzed to infer any options that the user is showing. However, the present invention is used as a typical multi-device remote control, where commands for each device are entered by the user by pressing one or more buttons on the remote control, but the user points to the pointing device. The device, the device for which the command is intended, is automatically identified according to the present invention.

本発明の好適な実施の形態では、ポインティングデバイスはトリガ信号を送信し、この信号は、適切な受信機に設けられる周辺における任意の装置により受信される。代替的に、トリガ信号は、たとえばポインティングデバイスと接触している、ポインティングデバイス以外のソースから送信される。トリガ信号に応答して、装置のアクチベータは、その視覚的な識別子にアクチベートさせる。アクチベータは、たとえば、装置の一部を移動させるモータであり、これは装置の視覚的な識別子であるか、又は、必要に応じて目に見える領域又は目に見えない領域に電磁放射を装置の一部に放出させる適切な電子回路である。このため、装置の視覚的な識別子は、LED又はライトバルブにより放出されるビジュアル信号を有する。同様に、装置がテレビジョン又はコンピュータのモニタである場合、ビジュアル信号は、予め定義されたやり方で明るさ又は色においてモニタに一部に変化させることで生成される。別の可能性のある視覚的の識別子の実現は、装置に組み込まれるか、装置に付属される物理的なエレメントであり、必要な電磁放射を生成可能である。   In a preferred embodiment of the present invention, the pointing device transmits a trigger signal, which is received by any device in the vicinity provided in a suitable receiver. Alternatively, the trigger signal is transmitted from a source other than the pointing device, for example in contact with the pointing device. In response to the trigger signal, the activator of the device activates its visual identifier. An activator is, for example, a motor that moves a part of the device, which is a visual identifier of the device, or that emits electromagnetic radiation in the visible or invisible region as required. Appropriate electronic circuit to be released in part. Thus, the visual identifier of the device has a visual signal emitted by an LED or light valve. Similarly, if the device is a television or computer monitor, the visual signal is generated by changing the monitor in part in brightness or color in a predefined manner. Another possible visual identifier implementation is a physical element that is built into or attached to the device and can generate the necessary electromagnetic radiation.

システムの実現の可能性に依存して、固有のトリガ信号又は固有の視覚的な識別子により、装置のグループから1つの装置を識別することが望まれる場合があり、この場合、用語「固有」とは、この装置のグループ内に適用されることが理解される。   Depending on the feasibility of the system, it may be desirable to identify one device from a group of devices by means of a unique trigger signal or unique visual identifier, in which case the term “unique” Is understood to apply within this group of devices.

したがって、本発明の好適な更なる好適な実施の形態では、装置のグループのうちのそれぞれの装置には、単一のトリガ信号がこれらの視覚的な識別子の何れかをアクチベートするのに十分であるように、固有の視覚的な識別子が設けられている。全ての装置は、その送信のレンジ内にある場合、トリガ信号に応答する。ポインティングデバイスにより現在向けられている装置は、その視覚的な識別子と共に、ターゲットエリアの画像に現れ、その装置のアイデンティティは、ターゲットエリアの画像に現れる固有の視覚的な識別子の画像分析に基づいて決定される。視覚的な識別子は、色、強度、アクティビティの期間、周波数等において異なり、ここでの用語「周波数」は、視覚的な識別子が外観において変化するレートに当てはまり、たとえば、視覚的な識別子は、この視覚的な識別子が10Hzで「動作する」ように毎秒10回フラッシュする。   Thus, in a preferred further preferred embodiment of the present invention, for each device in the group of devices, a single trigger signal is sufficient to activate any of these visual identifiers. As is the case, a unique visual identifier is provided. All devices respond to the trigger signal when they are within the range of their transmission. The device currently pointed by the pointing device appears in the image of the target area, along with its visual identifier, and the identity of the device is determined based on image analysis of the unique visual identifier that appears in the image of the target area Is done. Visual identifiers differ in color, intensity, duration of activity, frequency, etc., and the term “frequency” here applies to the rate at which visual identifiers change in appearance, for example, Flush 10 times per second so that the visual identifier “works” at 10 Hz.

代替的に、装置が、それ自身の専用のトリガ信号を受信したときに、その視覚的な識別子のみをアクチベートするように、固有のトリガ信号は、それぞれの装置に割り当てられる。装置がその専用のトリガ信号以外のトリガ信号を受信し、その視覚的な識別子は非アクティブのままである。これにより、装置が異なるトリガ信号に異なって応答するように、装置が実現されるのが可能となる。   Alternatively, a unique trigger signal is assigned to each device so that when the device receives its own dedicated trigger signal, only its visual identifier is activated. The device receives a trigger signal other than its dedicated trigger signal, and its visual identifier remains inactive. This allows the device to be implemented so that the device responds differently to different trigger signals.

更なる可能性は、その視覚的な識別子がトリガ信号なしにインターバルで自動的にアクチベートされる装置により与えられる。このタイプの実現は、受信機及びアクチベータを含むように装置を変更することができないケースで有利である。連続してアクティブである視覚的な識別子は、ポインティングデバイスが装置に向けられているときは何時でも、システムにより検出される。このケースでは、装置は、他の装置からその装置を区別するため、固有の視覚的な識別子が割り当てられる。   A further possibility is given by a device whose visual identifier is automatically activated at intervals without a trigger signal. This type of implementation is advantageous in cases where the device cannot be modified to include a receiver and an activator. A visual identifier that is continuously active is detected by the system whenever the pointing device is pointed at the device. In this case, the device is assigned a unique visual identifier to distinguish it from other devices.

ポインティングデバイスのユーザにとって、トリガ信号に応答する全ての装置について視覚的な識別子を見ることができることはいらいらさせる場合があるので、視覚的な識別子は、本発明の好適な実施の形態では、人間の目に見えないが、たとえば赤外線又は紫外線の領域でポインティングデバイスのカメラにより区別することができる電磁スペクトルの領域で生成される。   Since the user of the pointing device may be frustrated that the visual identifier can be seen for all devices that respond to the trigger signal, the visual identifier is, in the preferred embodiment of the present invention, a human identifier. It is generated in the region of the electromagnetic spectrum that is invisible but can be distinguished by the pointing device camera, for example in the infrared or ultraviolet region.

システムのデバイスリスト管理ユニットは、それぞれの装置に関する記述情報、その関連する視覚的な識別子及び/又はその関連するトリガ信号を記憶及び管理する。デバイスリスト管理ユニットは、デバイスコントロールインタフェースの一部としてみなすことができる。装置又は装置のグループは、製造時に視覚的な識別子が与えられるか、かかる視覚的な識別子を更新又は置換することが可能である。同様に、視覚的な識別子を、今まで有していない装置に割り当てることが可能である。したがって、本発明の好適な実施の形態では、システムは、たとえば適切な信号を装置に送出し、将来的に装置にその指定されたやり方でその視覚的な識別子をアクチベートさせるか、及び/又は特定のトリガ信号に応答させることで、視覚的な識別子及び/又はトリガ信号を特定の装置に割り当てる割り当てユニットの用が足りる。   The device list management unit of the system stores and manages descriptive information about each device, its associated visual identifier and / or its associated trigger signal. The device list management unit can be regarded as part of the device control interface. A device or group of devices can be given a visual identifier at the time of manufacture or can update or replace such a visual identifier. Similarly, a visual identifier can be assigned to a device that it has not previously had. Thus, in a preferred embodiment of the present invention, the system, for example, sends an appropriate signal to the device and causes the device to activate and / or identify its visual identifier in the designated manner in the future. By responding to the trigger signal, it is sufficient to use an allocation unit that assigns a visual identifier and / or trigger signal to a particular device.

システムは、あるタイプのトレイニングモードをサポートし、ここで、デバイスリスト管理ユニットは、どの装置がグループに存在するか、どの視覚的な識別子がそれぞれの装置と関連付けされているか、どのタイプのトリガ信号にそれぞれの装置が応答するかを学習する。また、トレイニングプロセスは、それぞれの装置により理解される制御信号又はコマンドプロトコルのセットを収集又は学習するステップを含む。   The system supports a certain type of training mode, where the device list management unit allows which devices are present in the group, which visual identifiers are associated with each device, and which types of triggers Learn if each device responds to the signal. The training process also includes collecting or learning a set of control signals or command protocols that are understood by the respective devices.

幾つかのケースでは、装置にとって、たとえばポインティングデバイスが所定の装置に向けられているが、ターゲットエリアの画像でその視覚的な識別子を検出していない場合、装置がその視覚的な識別子を既にアクチベートしているかをポインティングデバイスに通知することが望ましい場合がある。したがって、本発明の更に好適な実施の形態では、装置には、装置が既にその視覚的なフィードバックを供給したことを示すエンドオブフィードバック“end-of-feedback”信号をポインティングデバイスに供給する手段が設けられる。このため、装置は、エンドオブフィードバック信号を送信する適切な送信機を有する。この信号の受信に応じて、デバイスコントロールインタフェースは、ポインティングデバイスに再び適切なトリガ信号を送信させるか、異なるトリガ信号を試みることを決定する。   In some cases, if the device, for example, the pointing device is pointed at a given device but has not detected its visual identifier in the image of the target area, the device has already activated its visual identifier. It may be desirable to notify the pointing device of whether or not Thus, in a further preferred embodiment of the invention, the apparatus is provided with means for supplying an end-of-feedback “end-of-feedback” signal to the pointing device indicating that the apparatus has already provided its visual feedback. It is done. For this, the device has a suitable transmitter for transmitting an end-of-feedback signal. In response to receiving this signal, the device control interface decides to cause the pointing device to again send an appropriate trigger signal or to try a different trigger signal.

所定の許可された人物により動作されることを装置が意図されるケースについて、たとえば適切なアクセスコード又は個人的なアイデンティフィケーション番号でユーザがポインティングデバイスをイネーブルにする場合、ポインティングデバイスには、認証コードが設けられる場合がある。ポインティングデバイスは、この認証コードをそのトリガ信号と共に、ユーザがポインティングデバイスを向けている装置に送信する。装置は、認証コードが有効である場合、その視覚的な識別子のみをアクチベートする。このタイプの認証は、所定の人物のみが装置を動作させるか又は装置と対話する状況で有効である。1つの例は、所定時の時間後に子供にとっての禁止区域といったテレビジョンであり、又は、所定の人物のみがアクセス可能である研究所におけるセキュリティシステムである。認証情報は、ポインティングデバイスでハードワイヤドされるか、たとえば、キーパッドのような適切な入力様式によりユーザにより入力される場合がある。ポインティングデバイスの認証情報を規定する別のやり方は、リモートコントロールをプログラミングする公知の方法に類似して、適切なインタフェースによりプログラミングすることによる。   For cases where the device is intended to be operated by a given authorized person, for example if the user enables the pointing device with an appropriate access code or personal identification number, the pointing device includes: An authentication code may be provided. The pointing device sends this authentication code along with its trigger signal to the device to which the user points the pointing device. The device activates only its visual identifier if the authentication code is valid. This type of authentication is useful in situations where only certain persons operate the device or interact with the device. One example is a television, such as a prohibited area for children after a certain amount of time, or a security system in a laboratory that is accessible only to certain persons. The authentication information may be hardwired with a pointing device or may be entered by the user by a suitable input format such as a keypad, for example. Another way of defining the pointing device authentication information is by programming with an appropriate interface, similar to known methods of programming remote controls.

オブジェクトの画像を生成するカメラは、ポインティングデバイスに組み込まれることが好ましいが、ポインティングデバイスに搭載される場合もあり、ユーザによりターゲットにされるポインティング装置の前のエリアの画像を生成するように配置されることが好ましい。カメラは、基本的なやり方で構築されるか、ズーム機能又は所定のタイプのフィルタのようなパワフルな機能を有する場合がある。   The camera that generates the image of the object is preferably incorporated in the pointing device, but may be mounted on the pointing device and is arranged to generate an image of the area in front of the pointing device targeted by the user. It is preferable. The camera may be built in a basic way or may have powerful functions such as zoom function or certain types of filters.

したがって、「ターゲットエリア」は、カメラにより画像として補足することができる、ポインティングデバイスの前にあるエリアである。ターゲットエリアの画像、すなわちターゲットエリアイメージは、向けられる装置の小さなサブセットのみをカバーするか、又は、全体の装置を包含するか、若しくは、装置を囲んでいるエリアを含む場合がある。全体の装置に関するターゲットエリアイメージのサイズは、装置のサイズ、ポインティングデバイスと制御されるべき装置との間の距離、及びカメラ自身の機能に依存する。たとえばユーザが部屋の他方の端に立っているとき、ポインティングデバイスが制御されるべき装置からいくらかの距離にあるようにユーザが位置される。同様に、ユーザは、更に詳細な画像を得るために、装置に非常に近くにポインティングデバイスを保持する。   Therefore, the “target area” is an area in front of the pointing device that can be captured as an image by the camera. An image of a target area, i.e., a target area image, may cover only a small subset of the devices to which it is directed, or it may encompass the entire device or include an area surrounding the device. The size of the target area image for the entire device depends on the size of the device, the distance between the pointing device and the device to be controlled, and the capabilities of the camera itself. For example, when the user is standing at the other end of the room, the user is positioned such that the pointing device is some distance from the device to be controlled. Similarly, the user holds the pointing device very close to the device to obtain a more detailed image.

本発明に係るポインティングデバイスは、装置にユーザにより望まれる1以上の機能を実行させるため、装置と対話するために使用される。たとえば、ユーザは、装置のディスプレイで表示される多数のオプションのうちの1つを選択するのを望むか、又は装置のディスプレイに表示されるメニューのヒエラルキーを通してナビゲートするのを望む。ディスプレイを有さない装置のケースでは、ユーザは、たとえば、DVDプレーヤの前面のボタンのような、デバイスケーシングのボタンにより表される機能をアクチベートするのを望む。このため、ターゲットエリアイメージは、画像分析ユニットで分析され、ユーザがポインティングデバイスを向けているポイントを判定する。この画像分析ユニットは、ターゲットエリアイメージにおける視覚的な識別子の存在を検出するために使用されるのと同じである。   The pointing device according to the present invention is used to interact with the device to cause the device to perform one or more functions desired by the user. For example, the user desires to select one of a number of options displayed on the device display or navigates through a menu hierarchy displayed on the device display. In the case of a device that does not have a display, the user wants to activate the function represented by the button on the device casing, such as the button on the front of the DVD player. Thus, the target area image is analyzed by the image analysis unit to determine the point where the user points the pointing device. This image analysis unit is the same as that used to detect the presence of a visual identifier in the target area image.

ポインティングデバイスは、ユーザが所定の1以上のアクションを規定するのを可能にするために制御入力を有する場合がある。係る制御入力は、アクションが実行されることを示すためにユーザが押すボタンである。制御入力の操作は、適切な信号にエンコードされ、カメラからの画像と共に、デバイスコントロールインタフェースに転送され、この場合、装置の制御信号を発生するときに画像により解釈される。たとえば、ユーザは、アイコン、又はメニューアイテムのリストにおけるアイテムのような、特定のスクリーンのエリアでポインティングデバイスを向け、このアイコン又はアイテムが選択されたものであることを示すために制御入力を同時に押す。   The pointing device may have a control input to allow the user to define one or more predetermined actions. Such control input is a button that the user presses to indicate that an action is to be performed. The operation of the control input is encoded into an appropriate signal and transferred to the device control interface along with the image from the camera, where it is interpreted by the image when generating the device control signal. For example, the user points a pointing device at an area of a particular screen, such as an icon or item in a list of menu items, and simultaneously presses a control input to indicate that the icon or item has been selected. .

ポインティングデバイスを正確に向けるためにユーザを支援するため、続く光のポイントがカメラにより捕捉されるターゲットエリアの中央で多かれ少なかれ現れるように、集中された光ビームのソースがポインティングデバイス内部又は外部に設けられる。集中された光ビームのソースは、現在利用可能なレーザポインタの多くのタイプで使用される光源のようなレーザ光源である場合がある。以下では、集中された光ビームの光源は、本発明の範囲を制限することなしに、レーザ光源である。   To assist the user in accurately pointing the pointing device, a focused light beam source is provided inside or outside the pointing device so that the following light point appears more or less in the center of the target area captured by the camera. It is done. The source of the focused light beam may be a laser light source, such as a light source used in many types of laser pointers currently available. In the following, the light source of the focused light beam is a laser light source without limiting the scope of the invention.

ユーザがポインティングデバイスを向けているオブジェクトを容易に判定するため、デバイスコントロールインタフェースの画像分析ユニットは、通常の画像処理技術又はコンピュータビジョンアルゴリズムを適用することで、ターゲットエリアの画像を多数の予め定義されたテンプレートに比較する。1つの予め定義されたテンプレートは、比較のために十分であるか、1を超えるテンプレートに画像データを比較することが必要である。   In order to easily determine the object the user is pointing at the pointing device, the image analysis unit of the device control interface applies a number of predefined images of the target area by applying normal image processing techniques or computer vision algorithms. Compare to a template. One predefined template is sufficient for comparison or it is necessary to compare the image data to more than one template.

予め定義されたテンプレートは、デバイスコントロールインタフェースの内部メモリに記憶されるか、外部ソースからアクセスされる。好ましくは、デバイスコントロールインタフェースは、たとえば内部又は外部メモリ、メモリスティック、イントラネット又はインターネットからのオブジェクトの予め定義されたテンプレートを取得する適切なインタフェースをもつアクセスユニットを有する。このようにして、本発明に係るポインティングデバイスにより制御される機器の製造者は、装置のユーザにとって利用可能なこれら聞きについてテンプレートを作る。テンプレートは、任意の種類のオブジェクトのグラフィックな表現である。オブジェクトがたとえばテレビジョンで表示されるメニューのオプションである場合、テンプレートは、テレビジョンの多数のメニューオプションの位置を示し、ユーザがポインティングデバイスをテレビジョンに向けたときにターゲットエリアの画像データを分析することで、画像分析ユニットは、どのオプションがユーザにより向けられているかを判定することができる。   The predefined template is stored in the internal memory of the device control interface or accessed from an external source. Preferably, the device control interface comprises an access unit with a suitable interface for obtaining a predefined template of an object, for example from an internal or external memory, a memory stick, an intranet or the Internet. In this way, the manufacturer of the equipment controlled by the pointing device according to the present invention makes a template for these hearings available to the user of the device. A template is a graphic representation of any kind of object. If the object is an option for a menu that is displayed on a television, for example, the template shows the location of a number of menu options on the television and analyzes the image data in the target area when the user points the pointing device at the television. In doing so, the image analysis unit can determine which options are directed by the user.

上述のように、デバイスコントロールインタフェースは、装置との対話が制御されるように実現される。係るデバイスコントロールインタフェースは、画像を分析するために画像分析ユニット、制御されるべき装置の制御信号を発生する制御信号発生ユニット、装置、視覚的な識別子及びトリガ信号の間の関係を管理するデバイスリスト管理ユニット、及び、制御されるべき装置に制御信号を伝達するインタフェースを少なくとも含んでいる。係るデバイスコントロールインタフェースは、ポインティングデバイスに組み込まれるか、適切な通信インタフェースによりポインティングデバイスで結合される外部ユニットとして実現される。   As described above, the device control interface is implemented so that the interaction with the apparatus is controlled. Such a device control interface includes an image analysis unit for analyzing an image, a control signal generation unit for generating a control signal for the device to be controlled, a device list for managing a relationship between the device, a visual identifier and a trigger signal It includes at least an interface for transmitting control signals to the management unit and the device to be controlled. Such a device control interface is implemented as an external unit that is incorporated into the pointing device or coupled with the pointing device through an appropriate communication interface.

デバイスコントロールインタフェースがポインティングデバイスに組み込まれるケースでは、カメラから直接に画像を取得することができる。画像分析、デバイスリスト管理及び制御信号発生は、ポインティングデバイスで行われ、制御信号は、ポインティングデバイスから制御されるべき装置に直接に適切な形式で送信される。   In the case where the device control interface is incorporated in the pointing device, the image can be acquired directly from the camera. Image analysis, device list management and control signal generation are performed at the pointing device, and the control signals are transmitted from the pointing device directly to the device to be controlled in a suitable format.

他方で、これらのユニットの機能は、掌で心地良く保持されるように実現されることが好ましいポインティングデバイスの物理的なディメンジョンにより制限されるので、係る画像分析ユニットは、たとえばユーザがポインティングデバイスを向ける装置のアイデンティフィケーションについて、原理的に画像分析について十分である。ユーザの意図を判定し、より大きなユニットを必要とする結果的に得られる制御信号を発生するために必要とされる更に進展された画像処理は、外部のデバイスコントロールインタフェースで行われる。   On the other hand, the function of these units is limited by the physical dimensions of the pointing device that are preferably implemented to be held comfortably in the palm, so that such an image analysis unit can be used, for example, by the user The identification of the device to be directed is in principle sufficient for image analysis. The further advanced image processing required to determine the user's intention and generate the resulting control signal that requires a larger unit is done at the external device control interface.

したがって、ポインティングデバイスは、全体として、画像分析、デバイスリスト管理、及び制御信号発生の機能なしですむ場合があり、これらのタスクが外部のデバイスコントロールインタフェースにより実行されるのを可能にし、これにより、ポインティングデバイスが小型、よりコンパクトな形式で実現されるのを可能にする。   Thus, the pointing device as a whole may not require the functions of image analysis, device list management, and control signal generation, allowing these tasks to be performed by an external device control interface, thereby It enables the pointing device to be realized in a smaller and more compact form.

上述された外部のデバイスコントロールインタフェースは、スタンドアロン装置であり、トリガ信号がデバイスコントロールインタフェースから、ポインティングデバイスから、又は別のロケーションから送信される一方で、デバイスのアイデンティフィケーション、画像処理、デバイスリスト管理及び制御信号発生が中心的に行われるように実現される場合がある。エンドオブフィードバック信号を受信する受信機は、たとえばポインティングデバイスの一部として実現されるか、デバイスコントロールインタフェースに組みこまれる。   The external device control interface described above is a stand-alone device, where trigger signals are transmitted from the device control interface, from a pointing device, or from another location, while device identification, image processing, device list In some cases, management and control signal generation are performed centrally. A receiver that receives the end-of-feedback signal can be implemented, for example, as part of a pointing device or incorporated into a device control interface.

ポインティングデバイスのカメラは、ターゲットエリアの画像が関連する画像データを有するように実現される。たとえば、装置を識別するとき、画像の相対的な明るさ、又は画像における視覚的な識別子の形状を検出することが必要である。視覚的な識別子が人間について電磁スペクトルの目に見えない部分で動作する場合、カメラは、たとえば赤外線又は紫外線を検出するために適切なフィルタが設けられる。画像分析ユニットは、デバイスリスト管理ユニットの視覚的な識別子の記述に対応するパターン、色又は形状を検出する。たとえばMorse code、振幅変調、周波数符号化等といったパターンにより、視覚的な識別子がその関連する装置を識別する場合、画像分析ユニットは、このパターンを識別し、視覚的な識別子が関連される装置を識別する。制御されるべき装置を識別する別の可能なやり方は、視覚的な識別子を包含する受信されたターゲットエリアイメージを、視覚的な識別子を包含する装置の予め定義されたテンプレートで直接に比較し、デバイスリスト管理ユニットからの情報に基づいて、パターンマッチング又はパターン認識のような方法を使用し、向けられている装置のアイデンティティを推測することである。   The camera of the pointing device is implemented such that the image of the target area has associated image data. For example, when identifying a device, it is necessary to detect the relative brightness of the image, or the shape of the visual identifier in the image. If the visual identifier operates in the invisible part of the electromagnetic spectrum for a human, the camera is provided with a suitable filter, for example to detect infrared or ultraviolet light. The image analysis unit detects a pattern, color or shape corresponding to the description of the visual identifier of the device list management unit. If the visual identifier identifies its associated device, for example by a pattern such as Morse code, amplitude modulation, frequency coding, etc., the image analysis unit identifies this pattern and identifies the device to which the visual identifier is associated. Identify. Another possible way of identifying the device to be controlled is to directly compare the received target area image containing the visual identifier with a predefined template of the device containing the visual identifier, Based on information from the device list management unit, it uses methods such as pattern matching or pattern recognition to infer the identity of the intended device.

ユーザが実際に意図することを判定するため、たとえば彼が示しているオプションを判定するため、上述したように、更に詳細な画像生成が必要である。したがって、カメラは、たとえばエンハンスされた輪郭、コーナ、エッジ等全体の画像の重要なポイントを捕捉するか、又は、画質を持つ更に詳細な画像を捕捉する。ユーザの意図を判定するために画像データを処理するため、コンピュータビジョン技術を適用して、ユーザが向けている装置のポイント、すなわちターゲットポイントを発見することは都合が良い。   In order to determine what the user actually intends, for example to determine the options he is showing, more detailed image generation is required as described above. Thus, the camera captures important points of the entire image, such as enhanced contours, corners, edges, or more detailed images with image quality. In order to process the image data to determine the user's intention, it is convenient to apply computer vision technology to find the point of the device that the user is pointing at, ie the target point.

ユーザがポインティングデバイスを向けている実際のオプション以外のオプションをターゲットエリアの画像が含むので、選択されたオプションは、ターゲットエリアにおける特定のターゲットポイントを含むか又は包含する画像におけるオプションを識別することで判定されることが好ましい。本発明の1実施の形態では、ターゲットエリアの画像における固定されたポイントは、好ましくはターゲットエリアの画像の中心であり、ポインティングデバイスの長軸の方向で想像上のライン(imaginary line)をオプションに延長することで得られるものであり、ターゲットポイントとして使用される。   Since the image of the target area contains options other than the actual option the user is pointing at the pointing device, the selected option can be identified by identifying an option in the image that includes or encompasses a specific target point in the target area. Preferably, it is determined. In one embodiment of the invention, the fixed point in the target area image is preferably the center of the target area image, optionally with an imaginary line in the direction of the long axis of the pointing device. It is obtained by extending and used as a target point.

コンピュータビジョンアルゴリズムを使用した装置のターゲットエリアの画像を処理する方法は、ターゲット画像における個別のポイントを検出し、装置のテンプレートにおける対応するポイントを決定し、及び、テンプレートにおける対応するポイントにターゲット画像におけるポイントをマッピングする変換を展開することを含む。ターゲットエリアの個別のポイントは、装置の独特のポイントであるか、装置の周りにエリアにおけるポイントである。この変換は、装置に関するポインティングデバイスの位置及び外観を判定するために使用され、ポインティングデバイスと制御されるべき装置との軸の交点は、テンプレートに位置される。このテンプレートにおける交点の位置は、制御されるべき装置のターゲットポイントに対応し、どのオプションがユーザによりターゲットにされているかを容易に判定するために使用される。このように、ターゲットエリアの画像と予め定義されたテンプレートを比較することは、独特のコーナポイントのような顕著なポイントのみを識別及び比較することに制限される。用語「比較」は、本発明で適用されるように、広義で理解されるべきであり、すなわち、ユーザが目標にしているオプションを迅速に識別するために十分な特徴を比較することによる。   A method of processing an image of a target area of a device using a computer vision algorithm detects an individual point in the target image, determines a corresponding point in the template of the device, and a corresponding point in the template in the target image Includes expanding transformations that map points. The individual points in the target area are either unique points of the device or points in the area around the device. This transformation is used to determine the position and appearance of the pointing device with respect to the device, and the intersection of the axes of the pointing device and the device to be controlled is located in the template. The location of the intersection in this template corresponds to the target point of the device to be controlled and is used to easily determine which option is targeted by the user. Thus, comparing the image of the target area with a predefined template is limited to identifying and comparing only significant points, such as unique corner points. The term “comparison”, as applied in the present invention, should be understood in a broad sense, that is, by comparing enough features to quickly identify the option that the user is targeting.

本発明は、全てにおいて、任意の環境で電気的又は電子的に制御可能な装置の任意のタイプと対話するための容易かつ柔軟な方法を提供する。使用の容易さのため、ポインティングデバイスは、心地よく握ることができ、ユーザにより容易に持ち運ぶことができる長くされた形状でのワンド又はペンの形状である。ユーザは、その装置からある距離に配置されつつ、制御されるべき装置にポインティング装置を向けることができる。同様に、ポインティングデバイスは、ピストルの形式で成形される。さらに、更なる光源は、ポインティングデバイスの内部又は外部に搭載され、ポインティングデバイスが向けられるエリアを照明する役割を果たし、周囲が暗い場合でさえ、ユーザは、制御されるべき装置を容易に位置させることができる。   The invention all provides an easy and flexible way to interact with any type of device that can be controlled electrically or electronically in any environment. For ease of use, the pointing device is in the shape of a wand or pen in an elongated shape that can be comfortably gripped and easily carried by the user. The user can point the pointing device at the device to be controlled while being located at a distance from the device. Similarly, the pointing device is molded in the form of a pistol. Furthermore, a further light source is mounted inside or outside the pointing device and serves to illuminate the area to which the pointing device is directed, allowing the user to easily position the device to be controlled even in the dark be able to.

上述されたポインティングデバイス及びデバイスコントロールインタフェースは、実用的に任意の種類の環境での使用のため、パワフルな制御システムを与えるために結合される。たとえば、システムは、オフィス、美術館、病院又はホテルの環境のような、ポインティングデバイスにより対話される装置を装備する環境での使用を見出すことが考えられ、この場合、ユーザは、装置の機能と彼自身を精通させることなしに、便利かつ直観的なやり方で精通していない装置を識別及び制御するためにポインティングデバイスを使用することができる。本発明に係る方法は、電気的又は電子的に制御可能な装置に適用することができる。さらに、制御されるべき装置は、任意の数のモジュール、コンポーネント又はユニットを有し、任意のやり方で分散される。   The pointing device and device control interface described above are combined to provide a powerful control system for use in practically any kind of environment. For example, the system could find use in an environment equipped with a device that is interacted with a pointing device, such as an office, museum, hospital or hotel environment, in which case the user can determine the capabilities of the device and he Pointing devices can be used to identify and control devices that are not familiar in a convenient and intuitive manner without having to become familiar with them. The method according to the invention can be applied to devices that can be controlled electrically or electronically. Furthermore, the device to be controlled has any number of modules, components or units and is distributed in any way.

本発明の他の目的及び特徴は、添付図面と共に考慮される以下の詳細な説明から明らかとなるであろう。図面は、例示を目的としており、本発明の限定の定義として設計されていないことを理解されたい。図面において、同じ参照符号は全体を通して同じオブジェクトを示す。記載されるポインティングデバイスは、図示されていないがユーザにより保持され、動作される。   Other objects and features of the present invention will become apparent from the following detailed description considered in conjunction with the accompanying drawings. It should be understood that the drawings are for purposes of illustration and are not designed as a definition of the limitations of the invention. In the drawings, like reference numerals refer to like objects throughout. The pointing device described is held and operated by a user, not shown.

図1は、本発明の実施の形態に係る、多数の装置D1,D2,D3、及びこれら装置D1,D2,D3を識別し、対話するポインティングデバイス1を有するシステムの概念図である。 FIG. 1 shows the concept of a system having a number of devices D 1 , D 2 , D 3 and a pointing device 1 that identifies and interacts with these devices D 1 , D 2 , D 3 according to an embodiment of the invention. FIG.

図示される例では、ポインティングデバイス1が対話する装置D1,D2,D3は、類似の形状及び外観からなり、視覚的に離れて説明することが難しい。これら装置D1,D2,D3との対話において、ユーザは、所望の装置にポインティングデバイス1を向け、説明のため、ユーザは装置D1に向けているとする。ポインティングデバイスには、トリガ信号T1,T2,Tをポインティングデバイス1のレンジにある装置D1,D2,D3のいずれかに送信する送信機6が設けられている。ポインティングデバイスは、これらトリガ信号T1,T2,Tのそれぞれを送信する。 In the example shown, the devices D 1 , D 2 , D 3 with which the pointing device 1 interacts have similar shapes and appearances and are difficult to explain visually apart. In the dialog with these apparatuses D 1 , D 2 , and D 3, it is assumed that the user points the pointing device 1 at a desired apparatus, and the user is pointing toward the apparatus D 1 for explanation. The pointing device is provided with a transmitter 6 that transmits trigger signals T 1 , T 2 , T to any one of the devices D 1 , D 2 , D 3 in the range of the pointing device 1. The pointing device transmits each of these trigger signals T 1 , T 2 , T.

制御信号19は、どのトリガ信号を送信すべきかを規定するものであり、デバイスコントロールインタフェース18から発生され、このインタフェースは、個別のブロックとして図では示されるが、全体として統合されるか、ポインティングデバイス1それ自身に部分的に示される場合がある。デバイスコントロールインタフェース18のデバイスリストマネージメントユニット15は、ポインティングデバイス1が対話する装置D1,D2,D3のリスト、それぞれの装置D1,D2,D3に関連される視覚的な識別子V1,V2,V3及び/又はトリガ信号T1,T2,Tに関する情報を含む。デバイスコントロールインタフェース18の構成要素及び機能は、以下に更に詳細に記載される。 The control signal 19 defines which trigger signal is to be transmitted and is generated from the device control interface 18, which is shown in the figure as a separate block, but is integrated as a whole or pointing device 1 may be partially indicated by itself. The device list management unit 15 of the device control interface 18 is a list of devices D 1 , D 2 , D 3 with which the pointing device 1 interacts, and a visual identifier V associated with each device D 1 , D 2 , D 3. 1 , V 2 , V 3 and / or information on trigger signals T 1 , T 2 , T. The components and functions of the device control interface 18 are described in further detail below.

この例では、トリガ信号T1は装置D1に割り当てられており、トリガ信号T2は装置D2に割り当てられている。更なるトリガ信号Tは、1以上の他の装置をトリガするために使用される。 In this example, trigger signal T 1 is assigned to device D 1 and trigger signal T 2 is assigned to device D 2 . The further trigger signal T is used to trigger one or more other devices.

装置D1には、受信機40が設けられており、この受信機は、そのトリガ信号T1を受信するために同調される。同様に、装置D2には、受信機41が設けられており、この受信機は、そのトリガ信号T2を受信するために同調される。装置D3の受信機は、その帯域幅のレンジでトリガ信号Tを受信するように構成される。 The device D 1 is provided with a receiver 40, which is tuned to receive its trigger signal T 1 . Similarly, the device D 2 is provided with a receiver 41, which is tuned to receive its trigger signal T 2 . Receiver device D 3 is configured to receive the trigger signal T in the range of that bandwidth.

装置D1がトリガ信号T1を受信する場合、アクチベータ30は、装置D1の視覚的な識別子V1にアクチベートさせることでトリガ信号T1に応答する。この例では、視覚的な識別子V1は、ブリンク又はフラッシュするLEDのような光源である。 When device D 1 receives trigger signal T 1 , activator 30 responds to trigger signal T 1 by activating device D 1 visual identifier V 1 . In this example, the visual identifier V 1 is a light source such as a blinking or flashing LED.

同様に、装置D2の視覚的な識別子V2は、装置D2の受信機41がトリガ信号T2を受信するときは何時でも、アクチベータ31によりアクチベートされる。この視覚的な識別子V2は、この例では、たとえば赤外線の識別子といった、装置D2に付属する物理的なエレメントである。さらに、この装置D2は、ポインティングデバイス1についてエンドオブフィードバック信号SEOFを送信する送信機35が設けられている。 Similarly, visual identifiers V 2 of the device D 2, the receiver 41 of the device D 2 is whenever receiving the trigger signal T 2, it is activated by the activator 31. This visual identifier V 2 is in this example a physical element attached to the device D 2 , for example an infrared identifier. Furthermore, the apparatus D 2 is provided with a transmitter 35 that transmits an end-of-feedback signal S EOF to the pointing device 1.

第三の装置D3は、トリガ信号Tに応答するために構成される。この装置には、この装置D3の視覚的な識別子V3をアクチベータ32にアクチベートさせる適切な受信機42が設けられている。この例では、装置D3は、デスクトップ及びウィンドウズのようなユーザインタフェースのエレメントを表示するコンピュータモニタであり、視覚的な識別子V3は、トリガ信号Tに応答してその明るさ、強度、色、又は色相を変化させる通常のタイプのウィンドウズフレーム又はメニューアイテムである。 The third device D 3 is configured to respond to the trigger signal T. This device is provided with a suitable receiver 42 that activates the visual identifier V 3 of this device D 3 to the activator 32. In this example, device D 3 is a computer monitor that displays user interface elements such as desktops and windows, and visual identifier V 3 is responsive to trigger signal T for its brightness, intensity, color, Or a normal type of Windows frame or menu item that changes hue.

ポインティングデバイス1が装置D1,D2,D3に向けられている間、ポインティングデバイス1の前にあるエリアの画像は、連続的に生成され、送出ユニット4によりデバイスコントロールインタフェース18に送信され、受信機10により受信される。向けられている装置D1,D2,D3を識別し、装置D1,D2,D3の特定の部分を示しているユーザの意図を判定するため、ポインティングデバイス1のカメラ2により生成された画像は、画像分析ユニット12で分析される。 While the pointing device 1 is pointed at the devices D 1 , D 2 , D 3 , an image of the area in front of the pointing device 1 is continuously generated and transmitted by the sending unit 4 to the device control interface 18, Received by the receiver 10. Since you are apparatuses D 1 which is directed, D 2, to identify the D 3, to determine the intent of the user, which shows a specific part of the apparatuses D 1, D 2, D 3, generated by the camera 2 of the pointing device 1 The processed image is analyzed by the image analysis unit 12.

制御信号17,27が生成され、装置D1,D2,D3に送出される前に、システム5は、向けられている装置D1,D2,D3を始めに識別する。このため、画像分析ユニット12は、画像から視覚的な識別子V1,V2,V3に関する情報を抽出し、この情報をデバイスリストマネージメントリスト15に記憶されるものと比較する。たとえば、画像に位置される視覚的な識別子が所定の時間内で強度において繰り返し増加及び減少する場合、視覚的な識別子の外観は、その挙動のパターンと同様に、装置D1の視覚的な識別子V1についてデバイスリスト管理ユニット15に記憶されるものと一致し、画像分析ユニット12は、向けられている装置が装置D1であるに違いないことを推測する。 Control signal 17, 27 is generated, before being sent to the apparatuses D 1, D 2, D 3, system 5, apparatuses D 1 being directed, D 2, identifies the beginning of the D 3. Therefore, the image analysis unit 12 extracts information about the visual identifiers V 1 , V 2 , V 3 from the image and compares this information with that stored in the device list management list 15. For example, if the visual identifier located in the image repeatedly increases and decreases in intensity within a predetermined time, the visual identifier's appearance will be similar to its behavioral pattern, the visual identifier of device D 1 Consistent with what is stored in the device list management unit 15 for V 1 , the image analysis unit 12 infers that the device being directed must be device D 1 .

多数の装置のなかから装置を識別するために必要とされるデシジョンメーキングプロセスのステップは、図2に示されている。ここで、プロセスはステップ100で開始し、このステップは、たとえばポインティングデバイスをスイッチオンした後、又はシステムを再びコンフィギュアした後に生じる。ステップ101では、全ての装置のリストがコンパイルされる。このリストは、画像テンプレートのようなそれぞれの装置についての識別子、視覚的な識別子の記述、及び/又はこの装置に関連付けされるトリガ信号を含む。後続するステップ102では、このリストは、ポインティングデバイスにより向けられている減少の確率に従ってソートされる。このステップ102は、ユーザにより最も頻繁に向けられる装置で始まり、最も少なく選択される装置で終わることで、装置を識別するプロセスにおいて時間が費やされていないことを保証する。システムは、適切なラーニングアルゴリズムの用が足り、必要なときは何時でもこのリストを更新する。   The steps of the decision making process required to identify a device from a number of devices are shown in FIG. Here, the process begins at step 100, which occurs, for example, after switching on the pointing device or after configuring the system again. In step 101, a list of all devices is compiled. This list includes an identifier for each device, such as an image template, a description of the visual identifier, and / or a trigger signal associated with this device. In a subsequent step 102, this list is sorted according to the probability of decrease directed by the pointing device. This step 102 ensures that no time is spent in the process of identifying the device by starting with the device most frequently directed by the user and ending with the least selected device. The system updates this list whenever an appropriate learning algorithm is sufficient and is needed.

ユーザが制御されるべき装置にポインティングデバイスを向けるとき、リストにおける第一のエントリは、ステップ103で調べられる。ポインティングデバイスは、ステップ104で適切なトリガ信号を送信し、システムは応答を待つ。ステップ105で、システムの画像分析ユニットは、ターゲットエリアの画像を分析し、ターゲットエリアの画像が視覚的な識別子を示すかを判定する。ステップ106で、第一の装置のリストエントリの視覚的な識別子との整合が検出された場合、装置の識別が成功しており、ステップ107でプロセスは終了する。   The first entry in the list is examined at step 103 when the user points the pointing device at the device to be controlled. The pointing device sends an appropriate trigger signal at step 104 and the system waits for a response. In step 105, the image analysis unit of the system analyzes the target area image to determine whether the target area image indicates a visual identifier. If a match with the visual identifier of the first device list entry is detected at step 106, the device has been successfully identified and the process ends at step 107.

しかし、ステップ106で、整合する視覚的な識別子が検出されない場合、ステップ111で、プロセスは、予め定義された時間又はタイムアウトが経過したかを調べるためにチェックする。経過していない場合、ステップ110で、エンドオブフィードバック信号が検出されたかがチェックされる。検出されていない場合、プロセスは、上述したようにステップ105で再始動する。ステップ110でエンドオブフィードバック信号が検出された場合、又はステップ111で、タイムアウトに到達した場合、プロセスはステップ109に進み、ここでリストの終わりに到達したかがチェックされる。到達していない場合、ステップ108で、リストにおける次のエントリが選択され、ステップ104でプロセスは再始動する。リストの終わりに到達した場合、ステップ103でプロセスは再始動し、リストの開始に戻る。   However, if a matching visual identifier is not detected at step 106, then at step 111, the process checks to see if a predefined time or timeout has elapsed. If not, it is checked at step 110 whether an end-of-feedback signal has been detected. If not, the process restarts at step 105 as described above. If an end-of-feedback signal is detected at step 110, or if a timeout is reached at step 111, the process proceeds to step 109 where it is checked whether the end of the list has been reached. If not, step 108 selects the next entry in the list and step 104 restarts the process. If the end of the list is reached, the process restarts at step 103 and returns to the start of the list.

ステップ101で、装置のリスト、及びそれら関連する視覚的な識別子及び/又はトリガ信号を更新することは、幾つかのポイントで必要となる。たとえば、異なる装置がリストのトップに元々ある装置から取って代わり、新たな装置が導入されるか、装置がグループから除かれるか、個々の装置のプローブ可能な使用のレートがしばらくの間に変化している場合がある。かかる状態が生じたとき、プロセスルーチンは、ステップ109からステップ101に戻り、そこから再始動する。適切なモニタアレンジメントは、係る状況を検出し、プロセスルーチンにこれに応じて反応させる。   In step 101, updating the list of devices and their associated visual identifiers and / or trigger signals is required at several points. For example, a different device replaces the original device at the top of the list, a new device is introduced, a device is removed from the group, or the rate of probable use of individual devices changes over time May have. When such a condition occurs, the process routine returns from step 109 to step 101 and restarts from there. Appropriate monitoring arrangements detect such situations and react to the process routine accordingly.

図1を参照して、トリガ信号T1,T2,Tを通して巡回するステップは、デバイスリスト管理ユニット15により、画像分析ユニット12により供給される画像分析の結果に基づいて管理される。適切な信号19は、ポインティングデバイス1に送出され、必要に応じて次のトリガ信号T1,T2,Tを送出させる。 Referring to FIG. 1, the step of cycling through trigger signals T 1 , T 2 , T is managed by device list management unit 15 based on the result of image analysis supplied by image analysis unit 12. An appropriate signal 19 is sent to the pointing device 1 to send the next trigger signals T 1 , T 2 , T as required.

上述した識別プロセスと同時に、進行中で、又は識別プロセスに続いて、ポインティングデバイス1のカメラ2により生成される画像3は、ユーザの意図を実行するために解釈される。このため、画像分析ユニット12は、多数のテンプレートから画像3に最も整合するテンプレートを識別するため、パターン認識のような公知の画像処理技術を利用し、ユーザが指しているオプションを推測する。たとえば、ユーザはポインティングデバイス1を使用して、装置D1,D2,D3のスクリーンに表示されているメニューを横送りするか、装置D1,D2,D3に特定のタスクを実行させ、ポインティングデバイス1を使用してタスクを始動する。 Simultaneously with the identification process described above, in progress or subsequent to the identification process, the image 3 generated by the camera 2 of the pointing device 1 is interpreted to carry out the user's intention. For this reason, the image analysis unit 12 uses a known image processing technique such as pattern recognition in order to identify the template that best matches the image 3 from a large number of templates, and infers the option that the user is pointing to. For example, users can use the pointing device 1, or crossfeed a menu displayed on the screen of the device D 1, D 2, D 3, perform specific tasks device D 1, D 2, D 3 The task is started using the pointing device 1.

このため、制御信号発生ユニット13は、装置の制御信号17を発生するために画像分析の結果を使用する。アプリケーションインタフェース14は、向けられている装置D1,D2,D3に適切なフォーム27で送出する前に、制御信号17への必要な変換を実行する。 For this reason, the control signal generation unit 13 uses the result of the image analysis in order to generate the control signal 17 of the device. The application interface 14 performs the necessary conversion to the control signal 17 before sending it in the form 27 appropriate for the device D 1 , D 2 , D 3 to which it is directed.

さらに、割り当てユニット16は、デバイスコントロールインタフェース18の一部としてここでは示されており、特定の視覚的な識別子の挙動及び/又はトリガ信号の記述を特定の装置D1,D2,D3に割り当てるために使用される。たとえば、割り当てユニット16は、装置D1の視覚的な識別子V1が5秒の期間について赤と青の間の色を交互にすることを規定し、所定の周波数で送信されるトリガ信号T1に応答してこれを行うべきである。この情報は、問題の装置に信号27として送出される前に、インタフェース14により必要とされるようにエンコードされる。 In addition, the allocation unit 16 is shown here as part of the device control interface 18 and directs specific visual identifier behavior and / or trigger signal descriptions to specific devices D 1 , D 2 , D 3 . Used to assign. For example, the allocation unit 16 specifies that the visual identifier V 1 of the device D 1 alternates colors between red and blue for a period of 5 seconds and trigger signal T 1 transmitted at a predetermined frequency. This should be done in response to This information is encoded as required by interface 14 before being sent as signal 27 to the device in question.

デバイスコントロールインタフェース18が図1に示されるように、ポインティングデバイスに組み込まれていない場合、デバイスコントロールインタフェース18にポインティングデバイス1から送信された情報は、たとえばBluetooth,802.11b又はモバイルテレフォンの規格といった無線方式で送信される。ユーザが彼のポインティングデバイス1を運ぶ場合、ポインティングデバイス1は、ケーブルによりデバイスコントロールインタフェース18に接続される場合がある。装置D1,D2,D3にデバイスコントロールインタフェース18から送出された信号27は、ケーブルインタフェースを通して送出されるか、必要に応じて、無線方式で送信される場合がある。 If the device control interface 18 is not incorporated in the pointing device as shown in FIG. 1, the information transmitted from the pointing device 1 to the device control interface 18 is a wireless standard such as Bluetooth, 802.11b or a mobile telephone standard. Sent in the same manner. If the user carries his pointing device 1, the pointing device 1 may be connected to the device control interface 18 by a cable. The signal 27 transmitted from the device control interface 18 to the devices D 1 , D 2 , and D 3 may be transmitted through a cable interface or may be transmitted in a wireless manner as necessary.

カメラ2は、デバイスコントロールインタフェース18に画像3を連続的に送出するか、ポインティングデバイス1が所定の時間移動されない場合に自動的に送信を停止する。このため、ポインティングデバイス1は、図示されないが、動きセンサを有する。ポインティングデバイス1は図示されないがバッテリにより電力供給される可能性が最も高いので、たとえばバッテリの寿命を長くするためにユーザがポインティングデバイス1を実際に移動するときといった、必要とされるときにデバイスコントロールインタフェースに画像3を送信することは都合が良い。画像データ3の送信は、ユーザがポインティングデバイスを移動させるとすぐに始動され、その後に自動的に停止される。   The camera 2 continuously transmits the image 3 to the device control interface 18 or automatically stops transmission when the pointing device 1 is not moved for a predetermined time. For this reason, the pointing device 1 has a motion sensor (not shown). Although the pointing device 1 is not shown but is most likely to be powered by a battery, device control when needed, for example, when a user actually moves the pointing device 1 to extend the life of the battery It is convenient to send image 3 to the interface. The transmission of the image data 3 is started as soon as the user moves the pointing device, and then automatically stopped.

ユーザは、前から直接に、制御されるべき装置にポインティングデバイスを常に向けず、ポインティングデバイス1が装置の多かれ少なかれ斜めの角度で向けられる可能性が高い。これは、それ自身の位置を変えることよりもポインティングデバイス1に向けることがより便利なことによる。このことは図3に示されており、この図は、ある距離から、ある傾斜角度で、このケースではテレビジョンスクリーン又はコンピュータモニタである装置D1に向けられるポインティングデバイス1により生成されるターゲットエリア画像3の概念的な表現を示しており、ターゲットエリアAにおける装置D1のスケール及び見え方がターゲットエリア画像3で歪んで見える。多数のオプション(M1,M2,M3)が装置D1のディスプレイで見ることができる。図示されないユーザは、ポインティングデバイス1によりこれらオプション(M1,M2,M3)のうちの1つを選択するのを望む。また、装置D1のディスプレイで目に見えるのは、このケースでは明るさにおいて増加又は減少する特徴的な形状を有するディスプレイのセクションである、この装置D1について視覚的な識別子V1である。この図におけるポインティングデバイス1には、レーザ光のソース51が設けられており、レーザ光LのビームをポイントPLでディスプレイに衝突させ、ユーザがポインティングデバイス1を向けるのを支援する。 The user does not always point the pointing device directly at the device to be controlled directly from the front, but the pointing device 1 is likely to be directed at a more or less oblique angle of the device. This is because it is more convenient to point to the pointing device 1 than to change its own position. This is illustrated in Figure 3, this figure, the target area from a certain distance, at a certain inclination angle, in this case generated by the pointing device 1 is directed to apparatuses D 1 is a television screen or computer monitor A conceptual representation of image 3 is shown, the scale and appearance of device D 1 in target area A appear distorted in target area image 3. A number of options (M 1 , M 2 , M 3 ) can be seen on the display of device D 1 . A user (not shown) wishes to select one of these options (M 1 , M 2 , M 3 ) with the pointing device 1. Further, the visible in the display of the apparatuses D 1 is in this case a section of the display having a characteristic shape to increase or decrease in brightness, this apparatuses D 1 is a visual identifier V 1. The pointing device 1 in this figure is provided with a laser light source 51, which collides the beam of the laser light L against the display at a point P L and assists the user in pointing the pointing device 1.

ひとたびポインティングデバイス1がそのトリガ信号を送信すると、カメラにより生成された画像が分析され、視覚的な識別子を検出する。この例では、視覚的な識別子V1を与える、ディスプレイのセクションの特徴的なフラッシュ又はブリンキングが検出され、装置は、装置D1であるとして識別される。画像の明るさレベルのシンプルな分析、及び、続いて起こるパターンとデバイスリスト管理ユニットにより供給される情報との比較は、装置D1を識別するために十分である。 Once the pointing device 1 transmits its trigger signal, the image generated by the camera is analyzed to detect a visual identifier. In this example, a characteristic flash or blinking of the section of the display giving a visual identifier V 1 is detected and the device is identified as being device D 1 . Simple analysis of the brightness level of the image, and subsequently compared with the information supplied by the pattern and the device list management unit that occurs is sufficient to identify the device D 1.

ひとたび装置がD1で識別されると、システムは、装置D1を制御するためにユーザのアクションを解釈し続ける。このため、ターゲットエリア画像3は、更に詳細に調べられる。装置D1に関するポインティングデバイス1の角度に関わらず、ターゲットエリア画像3は、ターゲットポイントPTの周りで常にセンタリングされる。また、レーザ光のポイントPLは、ターゲットエリア画像3に現れ、ターゲットポイントPTから移動された距離にあるか、ターゲットポイントPTに一致する場合がある。デバイスコントロールインタフェースの画像処理ユニットは、ターゲットエリア画像3を予め定義されたテンプレート50に比較し、ユーザにより向けられているオプション(M1,M2,M3)を判定する。 Once the device is identified at D 1 , the system continues to interpret user actions to control device D 1 . For this reason, the target area image 3 is examined in more detail. Regardless of the angle of the pointing device 1 to a device D 1, the target area image 3 is always centered around a target point P T. Further, the point P L of the laser light, appear in the target area image 3, or a distance that is moved from the target point P T, there is a case that matches the target point P T. The image processing unit of the device control interface compares the target area image 3 with a predefined template 50 and determines the options (M 1 , M 2 , M 3 ) directed by the user.

このため、装置D1とのポインティングデバイス1の長軸の交点PTは、ターゲットエリア画像3に位置される。交点PTに対応するテンプレート50におけるポイントは、次いで配置される。 For this reason, the intersection point P T of the long axis of the pointing device 1 with the apparatus D 1 is located in the target area image 3. The point in the template 50 that corresponds to the intersection point P T is then placed.

エッジ及びコーナー検出方法を使用したコンピュータビジョンアルゴリズムは、装置D1のテンプレート50におけるポイント[(xa,ya),(xb,yb),(xc,yc)]に対応するターゲットエリア画像3にポイント[(xa’,ya’),(xb’,yb’),(xc’,yc’)]を配置するために適用される。 The computer vision algorithm using the edge and corner detection method is the target area corresponding to the points [(x a , y a ), (x b , y b ), (x c , y c )] in the template 50 of the device D1. This is applied to place the points [(x a ', y a '), (x b ', y b '), (x c ', y c ')] on the image 3.

それぞれのポイントは、ベクトルとして表現することができ、たとえばポイント(xa,ya)は、
(外1)

Figure 2008529147
として表現される。次のステップとして、変換関数Tλが展開され、ターゲットエリア画像3をテンプレート50にマッピングする。 Each point can be represented as a vector, for example, the point (x a , y a ) is
(Outside 1)
Figure 2008529147
Is expressed as As the next step, the conversion function T λ is developed and the target area image 3 is mapped to the template 50.

Figure 2008529147
ここでベクトル
(外2)
Figure 2008529147
はテンプレート50における座標ペア(xi,yi)を表し、ベクトル
(外3)
Figure 2008529147
はターゲットエリア画像3における対応する座標ペア(xi’,yi’)を表す。パラメータセットλは、画像の回転及び変換のパラメータを含み、最も費用対効果の高いソリューションを関数に与えるものであり、装置D1に関してポインティングデバイス1の位置及び方向を決定するために適用される。コンピュータビジョンアルゴリズムは、ポインティングデバイス1内のカメラ2が固定され、ポインティングジェスチャの方向で「見ている」事実を利用する。次のステップは、装置D1との、ポインティングの方向Pにおける、ポインティングデバイス1の長軸の交点PTを計算することである。このポイントは、ターゲットエリア画像3の中央となるように取られる場合がある。ひとたび交点の座標が計算されると、このポイントをテンプレート50に配置することはシンプルな事項である。このように、システムは、ユーザが向けているオプション(M1,M2,M3)を判定することができ、装置D1について適切な制御信号を発生することができる。
Figure 2008529147
Here vector (outside 2)
Figure 2008529147
Represents a coordinate pair (x i , y i ) in the template 50 and is a vector (outside 3)
Figure 2008529147
Represents a corresponding coordinate pair (x i ′, y i ′) in the target area image 3. The parameter set λ contains the image rotation and transformation parameters and gives the function the most cost-effective solution and is applied to determine the position and orientation of the pointing device 1 with respect to the device D 1 . The computer vision algorithm takes advantage of the fact that the camera 2 in the pointing device 1 is fixed and “looking” in the direction of the pointing gesture. The next step is to calculate the intersection point P T of the long axis of the pointing device 1 in the pointing direction P with the device D 1 . This point may be taken to be the center of the target area image 3. Once the coordinates of the intersection are calculated, placing this point on the template 50 is a simple matter. In this way, the system can determine the options (M 1 , M 2 , M 3 ) that the user is pointing at and can generate appropriate control signals for the device D 1 .

本発明は好適な実施の形態及びその変形の形式で開示されたが、様々な更なる変更及び変形は、本発明の範囲から逸脱することなしに為されることを理解されたい。ポインティングデバイスは、電気的又は電子的に制御可能な装置をもつ家庭又は他の環境でユニバーサルユーザインタフェースデバイスとして機能する。要するに、ユーザがポインティングにより意思を表現する場合には何処でも利益がある。その小型の形式のファクタ及びその便利かつ直観的なポインティング様式は、かかるシンプルなポインティングデバイスをパワフルなユニバーサルリモートコントロールに引き上げる。ペン形状の代替として、ポインティングデバイスは、たとえば、ビルトインカメラをもつパーソナルデジタルアシスタント(PDA)、ビルトインカメラをもつモバイルフォンである。   While the invention has been disclosed in the form of preferred embodiments and variations thereof, it is to be understood that various further changes and modifications can be made without departing from the scope of the invention. The pointing device functions as a universal user interface device in a home or other environment with an electrically or electronically controllable device. In short, there is a profit everywhere when the user expresses his intention by pointing. Its small form factor and its convenient and intuitive pointing style pulls such a simple pointing device into a powerful universal remote control. As an alternative to a pen shape, the pointing device is, for example, a personal digital assistant (PDA) with a built-in camera, a mobile phone with a built-in camera.

明確さのため、「有する“comprising”」は他のステップ又はエレメントを排除するものではないと理解されたい。「ユニット“unit”」は、単一のエンティティとして明示的に記載されない場合に、多数のブロック又はデバイスを有する。   For clarity, it should be understood that “comprising” does not exclude other steps or elements. A “unit” has a number of blocks or devices when not explicitly described as a single entity.

本発明の実施の形態に係るポインティングデバイスと多数の装置を示す、装置を制御するシステムの概念図である。1 is a conceptual diagram of a system for controlling an apparatus, showing a pointing device and a large number of apparatuses according to an embodiment of the present invention. 本発明の実施の形態に係る装置のグループのなかから1つの装置を識別することに含まれるステップを示すブロック図である。FIG. 6 is a block diagram illustrating steps involved in identifying one device from a group of devices according to an embodiment of the invention. 本発明の実施の形態に係るポインティングデバイスの概念図である。1 is a conceptual diagram of a pointing device according to an embodiment of the present invention.

Claims (12)

装置の制御方法であって、
当該方法は、
カメラを有するポインティングデバイスを制御されるべき装置に向けるステップと、
前記ポインティングデバイスにより向けられるターゲットエリアの画像を生成するステップと、
前記ターゲットエリアの画像を解釈して、制御されるべき装置に関連される固有の視覚的な識別子の存在を判定するステップと、
前記ターゲットエリアの画像の分析に基づいて前記ポインティングデバイスが向けられる装置を識別し、識別された装置に制御信号を送出するステップと、
を含む方法。
An apparatus control method comprising:
The method is
Directing a pointing device having a camera to an apparatus to be controlled;
Generating an image of a target area directed by the pointing device;
Interpreting the image of the target area to determine the presence of a unique visual identifier associated with the device to be controlled;
Identifying a device to which the pointing device is directed based on an analysis of an image of the target area and sending a control signal to the identified device;
Including methods.
前記ターゲットエリアの画像は、選択されたオプションを判定するために更に解釈され、前記制御信号は、画像の解釈の結果に従って生成される、
請求項1記載の方法。
The image of the target area is further interpreted to determine a selected option, and the control signal is generated according to the result of image interpretation.
The method of claim 1.
制御されるべき装置にトリガ信号が送信され、前記視覚的な識別子は、前記トリガ信号を受信した装置によりアクチベートされる、
請求項1又は2記載の方法。
A trigger signal is transmitted to the device to be controlled and the visual identifier is activated by the device receiving the trigger signal;
The method according to claim 1 or 2.
固有のトリガ信号は、それぞれ特定の装置について発生される、
請求項1乃至3のいずれか記載の方法。
Each unique trigger signal is generated for a particular device,
The method according to claim 1.
前記視覚的な識別子は、電磁スペクトルの目に見えない領域である、
請求項1乃至4のいずれか記載の方法。
The visual identifier is an invisible region of the electromagnetic spectrum;
The method according to claim 1.
制御されるべき装置は、前記トリガ信号に応答してエンドオブフィードバック信号を放出する、
請求項1乃至5のいずれか記載の方法。
The device to be controlled emits an end-of-feedback signal in response to the trigger signal;
The method according to claim 1.
装置を制御するシステムであって、
カメラを有し、ポインティングデバイスが向けられる方向でターゲットエリアの画像を生成するポインティングデバイスと、
前記画像を分析して、視覚的な識別子の存在を判定する画像分析ユニットと、
可能性のある装置、それらに関連する視覚的な識別子、及び/又は、視覚的な識別子をアクチベートするための関連されるトリガ信号からなるリストを保持するデバイスリスト管理ユニットと、
前記画像分析の結果に従って制御されるべき装置について制御信号を発生する制御信号発生ユニットと、
制御されるべき装置に前記制御信号を伝達するインタフェースと、
を有するシステム。
A system for controlling a device,
A pointing device that has a camera and generates an image of the target area in a direction in which the pointing device is directed;
An image analysis unit that analyzes the image to determine the presence of a visual identifier;
A device list management unit that maintains a list of possible devices, their associated visual identifiers, and / or associated trigger signals for activating the visual identifiers;
A control signal generating unit for generating a control signal for a device to be controlled according to the result of the image analysis;
An interface for transmitting said control signal to a device to be controlled;
Having a system.
視覚的な識別子及び/又はトリガ信号を特定の装置に割り当てる割り当てユニットを有する、
請求項7記載のシステム。
Having an allocation unit for assigning visual identifiers and / or trigger signals to specific devices;
The system of claim 7.
多数の装置のなかから装置を固有に識別する固有の視覚的な識別子を有する、
請求項1乃至6のいずれか記載の方法により使用するための装置。
Having a unique visual identifier that uniquely identifies the device among a number of devices;
Apparatus for use by the method according to any of claims 1-6.
トリガ信号を受信する受信機、及び、前記トリガ信号に応答して視覚的な識別子をアクチベートするアクチベータを有する制御可能な装置。   A controllable device having a receiver for receiving a trigger signal and an activator for activating a visual identifier in response to the trigger signal. 前記トリガ信号に応答してエンドオブフィードバック信号を送信する送信機を有する、
請求項10記載の装置。
Having a transmitter for transmitting an end-of-feedback signal in response to the trigger signal;
The apparatus of claim 10.
前記視覚的な識別子は、光信号及び/又は物理識別子を有する、
請求項9乃至11のいずれか記載の装置。
The visual identifier comprises an optical signal and / or a physical identifier;
The apparatus according to claim 9.
JP2007552764A 2005-01-28 2006-01-17 Device control method Pending JP2008529147A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP05100585 2005-01-28
PCT/IB2006/050164 WO2006079939A2 (en) 2005-01-28 2006-01-17 Method for control of a device

Publications (1)

Publication Number Publication Date
JP2008529147A true JP2008529147A (en) 2008-07-31

Family

ID=36740876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007552764A Pending JP2008529147A (en) 2005-01-28 2006-01-17 Device control method

Country Status (4)

Country Link
EP (1) EP1844456A2 (en)
JP (1) JP2008529147A (en)
CN (1) CN101111874A (en)
WO (1) WO2006079939A2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010506229A (en) * 2006-10-12 2010-02-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for light control
JP2012523630A (en) * 2009-04-08 2012-10-04 クゥアルコム・インコーポレイテッド Improved handheld screen detection pointer

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8760400B2 (en) * 2007-09-07 2014-06-24 Apple Inc. Gui applications for use with 3D remote controller
CN102402842A (en) * 2010-09-15 2012-04-04 宏碁股份有限公司 Augmented reality remote control method and device thereof
US8446364B2 (en) * 2011-03-04 2013-05-21 Interphase Corporation Visual pairing in an interactive display system
CN104541580B (en) * 2012-08-16 2018-03-02 飞利浦灯具控股公司 The system that control includes one or more controllable devices
US9795997B2 (en) 2013-03-15 2017-10-24 United States Postal Service Systems, methods and devices for item processing
US10289213B2 (en) * 2014-09-29 2019-05-14 Koninklijke Philips N.V. Remote control device, user device and system thereof, and method , computer program product and identification signal
CN104582167B (en) * 2014-12-30 2017-08-25 生迪光电科技股份有限公司 Lighting apparatus, intelligent terminal, lighting apparatus group network system and method
US9891879B2 (en) 2015-09-29 2018-02-13 International Business Machines Corporation Enabling proximity-aware visual identification
CN106023578A (en) * 2016-07-14 2016-10-12 广州视源电子科技股份有限公司 Wearable equipment and control method of home equipment
US11210932B2 (en) * 2019-05-21 2021-12-28 Apple Inc. Discovery of and connection to remote devices
US11445107B2 (en) 2019-08-08 2022-09-13 Qorvo Us, Inc. Supervised setup for control device with imager

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4547096B2 (en) * 1999-03-31 2010-09-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Remote control device for display device
DE10110979A1 (en) * 2001-03-07 2002-09-26 Siemens Ag Optical pattern and information association device for universal remote-control device for audio-visual apparatus
ES2425076T3 (en) * 2002-11-20 2013-10-11 Koninklijke Philips N.V. User interface system based on pointing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010506229A (en) * 2006-10-12 2010-02-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for light control
JP2012523630A (en) * 2009-04-08 2012-10-04 クゥアルコム・インコーポレイテッド Improved handheld screen detection pointer
US9189082B2 (en) 2009-04-08 2015-11-17 Qualcomm Incorporated Enhanced handheld screen-sensing pointer
US10146298B2 (en) 2009-04-08 2018-12-04 Qualcomm Incorporated Enhanced handheld screen-sensing pointer

Also Published As

Publication number Publication date
WO2006079939A2 (en) 2006-08-03
WO2006079939A3 (en) 2006-11-16
CN101111874A (en) 2008-01-23
EP1844456A2 (en) 2007-10-17

Similar Documents

Publication Publication Date Title
JP2008529147A (en) Device control method
US11561519B2 (en) Systems and methods of gestural interaction in a pervasive computing environment
US10936082B2 (en) Systems and methods of tracking moving hands and recognizing gestural interactions
KR101224351B1 (en) Method for locating an object associated with a device to be controlled and a method for controlling the device
JP4243248B2 (en) User interface system based on pointing device
US8190278B2 (en) Method for control of a device
JP2009134718A5 (en)
US20090295595A1 (en) Method for control of a device
US20160065828A1 (en) Method for controlling electronic device using ip camera having function of wireless remote controller
US7952063B2 (en) Method and system for operating a pointing device to control one or more properties of a plurality of other devices
CN108604404A (en) infrared remote control method, terminal and device
KR20220098026A (en) brain-computer interface
KR20230031562A (en) A mobile terminal and method for registering a home appliance in an application, and a system and program therefor