JP2013172211A - Remote control device and remote control system - Google Patents

Remote control device and remote control system Download PDF

Info

Publication number
JP2013172211A
JP2013172211A JP2012033380A JP2012033380A JP2013172211A JP 2013172211 A JP2013172211 A JP 2013172211A JP 2012033380 A JP2012033380 A JP 2012033380A JP 2012033380 A JP2012033380 A JP 2012033380A JP 2013172211 A JP2013172211 A JP 2013172211A
Authority
JP
Japan
Prior art keywords
input device
distance information
remote
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012033380A
Other languages
Japanese (ja)
Inventor
Ko Imai
巧 今井
Yasutaka Wakabayashi
保孝 若林
Tomoya Shimura
智哉 紫村
Daisuke Murayama
大輔 村山
Kenichi Iwauchi
謙一 岩内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012033380A priority Critical patent/JP2013172211A/en
Publication of JP2013172211A publication Critical patent/JP2013172211A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a remote control device which enables a user to control a device by using an object near him or her.SOLUTION: The remote control device takes a preliminarily set specific object as an input device and controls a control object device dependently on user's operation on the input device and includes: an operating action detection unit which detects an operating action on the input device; a control information readout unit which obtains contents of operation for the control object device on the basis of contents of the operating action detected by the operating action detection unit and a correspondence relation between preliminarily set contents of the operating action and contents of operation for the control object device; and a control information transmission unit which transmits control information read out by the control information readout unit, to the control object device.

Description

本発明は、任意の物体に対して行う動作によって所定の機器を操作する遠隔操作技術に関する。   The present invention relates to a remote operation technique for operating a predetermined device by an operation performed on an arbitrary object.

従来、電子機器等を離れたところから操作したいというニーズを満たすために、主にリモートコントローラー(以下「リモコン」と称する。)が用いられてきた。リモコンは、ボタンを押すだけという非常に少ない労力で操作が可能であるという大きなメリットを持っているが、リモコンの置き場所がわからなくなってしまい、操作ができないという状態にしばしば陥るという問題がある。   Conventionally, a remote controller (hereinafter referred to as “remote controller”) has been mainly used to satisfy the need to operate an electronic device or the like from a remote location. The remote control has the great merit that it can be operated with very little effort by just pressing a button, but there is a problem that it often falls into a state where it cannot be operated because the location of the remote control is lost.

この問題を解決するために、紛失する心配がない操作者の手自体を用い、ジェスチャーにより操作を行う手法が提案されている(下記特許文献1参照)。   In order to solve this problem, there has been proposed a method of performing an operation by a gesture using an operator's hand which does not have to be lost (see Patent Document 1 below).

また、撮影装置を用いて取得した身近にある任意の物体の時間的な位置変化や角度変化を、操作に用いるという手法も提案されている(下記特許文献2参照)。この手法によれば、触覚的なフィードバックが得られないという問題は解決することができる。   In addition, a technique has been proposed in which a temporal positional change or angular change of an arbitrary object that is obtained using a photographing apparatus is used for an operation (see Patent Document 2 below). According to this method, the problem that tactile feedback cannot be obtained can be solved.

特開2001−5975号公報JP 2001-5975 A 特開2006−222622号公報JP 2006-222622 A

しかしながら、特許文献1に記載の技術に用いるジェスチャー入力では、概して操作者は手を大きく動かす必要があり、また日常的な動作としての手の動きによる誤入力を防ぐために、操作を行うにあたって特殊な動作を要するなど、リモコンと比較して大きな動作を必要とし、狭い場所での操作が難しい上に、操作自体も煩わしさを感じやすかった。また操作に対して触覚的なフィードバックを得られないことから、操作できているかどうかを確認することが難しかった。   However, in the gesture input used in the technique described in Patent Document 1, the operator generally needs to move his hand greatly, and in order to prevent erroneous input due to hand movement as a daily operation, a special operation is performed. The operation required a large operation compared to the remote control, and it was difficult to operate in a narrow place, and the operation itself was easy to feel troublesome. Also, since tactile feedback cannot be obtained for the operation, it is difficult to check whether the operation is possible.

また、特許文献2に記載の技術では、入力装置として用いる物体自体を動かす必要があり、リモコンの操作に比べると大きな動作が求められるという点に関しては解決されていない。さらに、身近にあるものでも、サイズの大きなものや重いものは、実用上入力装置に使えなかった。   Further, in the technique described in Patent Document 2, it is necessary to move an object itself used as an input device, and it has not been solved with respect to the point that a large operation is required as compared with the operation of a remote controller. Furthermore, even those close to us, large ones and heavy ones could not be practically used as input devices.

本発明は、リモコンのように数が限られた共有の専用機器ではなく、身近に存在しユーザが自由に用いることができる物体を用いて、機器の操作を可能とする遠隔操作技術を提供することを目的とする。   The present invention provides a remote operation technique that enables an apparatus to be operated using an object that is close to the user and can be freely used by a user, not a shared dedicated apparatus such as a remote controller. For the purpose.

本発明の一観点によれば、あらかじめ設定された特定の物体を入力装置として、前記入力装置に対する操作者の動作に依存して制御対象装置を操作する遠隔操作装置であって、前記入力装置に対する操作動作を検出する操作動作検出部と、前記操作動作検出部が検出した操作動作の内容と、予め設定されている前記操作動作の内容と前記制御対象装置を操作する内容との対応関係と、に基づいて、対応する前記制御対象装置への操作の内容を求める制御情報読み出し部と、前記制御情報読み出し部が読み出した制御情報を前記制御対象機器に送信する制御情報送信部と、を有することを特徴とする遠隔操作装置が提供される。   According to one aspect of the present invention, a remote operation device that operates a control target device depending on an operation of an operator with respect to the input device using a preset specific object as an input device, the remote control device with respect to the input device. An operation operation detection unit for detecting an operation operation, the content of the operation operation detected by the operation operation detection unit, a correspondence relationship between the content of the operation operation set in advance and the content of operating the device to be controlled; A control information reading unit that obtains the content of the operation on the corresponding control target device based on the control information, and a control information transmission unit that transmits the control information read by the control information reading unit to the control target device. A remote control device is provided.

前記特定の物体までの距離情報を取得するための距離情報取得部を有し、前記操作動作検出部は、前記距離情報を用いて前記特定の物体の形状を認識し、前記特定の物体の形状に基づいて前記入力装置に対する操作動作の検出を行うことが好ましい。   A distance information acquisition unit configured to acquire distance information to the specific object, wherein the operation motion detection unit recognizes the shape of the specific object using the distance information, and the shape of the specific object; It is preferable to detect the operation of the input device based on the above.

さらに、前記特定の物体の映像情報を取得するための映像取得部を有し、前記操作動作検出部は、前記物体の形状と前記映像情報との両方を用いて、前記操作動作の検出を行うようにしても良い。   Furthermore, it has a video acquisition unit for acquiring video information of the specific object, and the operation motion detection unit detects the operation motion using both the shape of the object and the video information. You may do it.

また、前記操作動作検出部は、前記特定の物体への接触の内容を検出し、予め設定されている前記操作動作の内容と前記操作動作検出部の検出した接触の内容とに基づいて対応する操作動作の内容を求めることが好ましい。   The operation motion detection unit detects the content of contact with the specific object, and responds based on the content of the operation motion set in advance and the content of contact detected by the operation motion detection unit. It is preferable to obtain the contents of the operation action.

前記動作の内容は、特定の物体とユーザの手・指との相対位置の時間変化又はその軌跡とであることが好ましい。   It is preferable that the content of the operation is a temporal change in the relative position between the specific object and the user's hand / finger or a locus thereof.

さらに、前記入力装置の静止状態を検出する入力装置静止検出部を有し、前記入力装置静止検出部は、前記特定の物体が静止状態にあるか否かを判断し、静止状態にない場合は、前記操作動作検出部の検出結果にかかわらず操作動作ではないと判断するが好ましい。   Furthermore, it has an input device stationary detector for detecting the stationary state of the input device, and the input device stationary detector determines whether or not the specific object is in a stationary state. It is preferable to determine that the operation is not an operation regardless of the detection result of the operation operation detector.

また、前記操作動作検出部は、前記距離情報と前記映像情報との両方を用いて、操作動作を検出するようにしても良い。   In addition, the operation operation detection unit may detect an operation operation using both the distance information and the video information.

前記距離情報取得部は、少なくとも2つ以上の映像取得部を有し、前記映像取得部からから得られた複数の映像情報から距離情報を推定することが好ましい。   It is preferable that the distance information acquisition unit includes at least two or more video acquisition units and estimates distance information from a plurality of video information obtained from the video acquisition unit.

また、本発明は、さらに、上記のいずれかに記載の入力装置を有し、前記入力装置は、前記特定の物体を用い、或いは、前記特定の物体に代えて媒体上に描画又は表示された図形を用いることを特徴とする遠隔装置システムである。   Furthermore, the present invention further includes the input device according to any one of the above, wherein the input device uses the specific object, or is drawn or displayed on a medium instead of the specific object. A remote device system characterized by using graphics.

本発明によれば、身近にある物体に触れるという動作によって、機器の操作を行うことができる。また機器の操作ではない物体本来の用途で使用する際に誤動作してしまうことを防ぐことができる。   According to the present invention, it is possible to operate a device by an operation of touching a nearby object. In addition, it is possible to prevent malfunctions when the object is used for an original purpose that is not an operation of the device.

本発明の第1の実施形態に係る遠隔操作システムの一構成例を示す機能ブロック図である。It is a functional block diagram showing an example of 1 composition of a remote control system concerning a 1st embodiment of the present invention. 遠隔操作システムのうち、入力装置登録部の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of an input device registration part among remote control systems. 遠隔操作システムのうち、操作内容登録部の一構成例を示す機能ブロック図である。It is a functional block diagram which shows one structural example of the operation content registration part among remote control systems. 遠隔操作システムのうち、動作検出部の一構成例を示す機能ブロック図である。It is a functional block diagram which shows one structural example of an operation | movement detection part among remote control systems. 本発明の第1の実施形態に係る遠隔操作システムの構成例を示す外観図である。1 is an external view showing a configuration example of a remote control system according to a first embodiment of the present invention. 本発明の第1の実施形態に係る入力装置を登録する際の処理の流れを表すフローチャート図である。It is a flowchart figure showing the flow of a process at the time of registering the input device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る操作動作識別テーブルの例を示す図である。It is a figure which shows the example of the operation action identification table which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る制御情報識別テーブルの例を示す図である。It is a figure which shows the example of the control information identification table which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る機器を操作する際の処理の流れを表すフローチャート図である。It is a flowchart figure showing the flow of a process at the time of operating the apparatus which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る入力装置として用いる図形の一例を示す図である。It is a figure which shows an example of the figure used as an input device which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る操作動作識別テーブルの一例を示す図である。It is a figure which shows an example of the operation action identification table which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施形態に係る操作動作識別テーブルの一例を示す図である。It is a figure which shows an example of the operation action identification table which concerns on the 3rd Embodiment of this invention.

以下、添付図面を参照しながら、本発明に係る遠隔操作システムの好適な実施の形態について詳細に説明する。   Hereinafter, preferred embodiments of a remote control system according to the present invention will be described in detail with reference to the accompanying drawings.

本明細書において、動作とは、本発明における遠隔操作装置が捉えるユーザの動き一般を称し、例えば、タップ、スワイプなどの操作のための指の動きなどを含むが、必ずしも機器制御を目的としない。   In this specification, the term “motion” refers to general user movements captured by the remote control device according to the present invention, and includes, for example, finger movements for operations such as taps and swipes, but is not necessarily intended for device control. .

制御とは、対象機器の状態を変更させるために行われる、機器内部での処理を指し、例えば、テレビをオン、オフするなどの処理を指す。   Control refers to processing inside the device that is performed to change the state of the target device, for example, processing such as turning on or off the television.

操作とは、制御を引き起こすために機器の外側から与えられる行為を指し、例えば、リモコンを機器に向けてボタンを押す、機器に備え付けられたボタンを押すなどの行為を指す。   The operation refers to an action given from the outside of the device in order to cause control, for example, an operation such as pressing a button with the remote controller pointing at the device or pressing a button provided on the device.

操作動作とは、一般的には機器制御とは無関係な動作に過ぎないが、本発明における遠隔操作装置を用いることによって、操作として扱うことが可能となる、機器制御を目的として入力装置に対して行う、特別な動作を指し、図8、図9などで例示されている。   The operation operation is generally only an operation irrelevant to the device control. However, by using the remote operation device according to the present invention, it can be handled as an operation with respect to the input device for the purpose of device control. 8, FIG. 9, and the like.

(第1の実施形態)
本発明の第1の実施形態について、図面を参照しながら説明する。図1Aは、本発明の第1の実施形態に係る遠隔操作システムの構成例を示すブロック図である。図1Bは、遠隔操作システムのうち、入力装置登録部の一構成例を示す機能ブロック図である。図1Cは、遠隔操作システムのうち、操作内容登録部の一構成例を示す機能ブロック図である。図1Dは、遠隔操作システムのうち、動作検出部の一構成例を示す機能ブロック図である。図2は、図1Aのブロック図の一部を具体的な外観イメージ例として表した図面であり、図中の番号は図1Aと対応させて付している。
(First embodiment)
A first embodiment of the present invention will be described with reference to the drawings. FIG. 1A is a block diagram illustrating a configuration example of a remote control system according to the first embodiment of the present invention. FIG. 1B is a functional block diagram illustrating a configuration example of the input device registration unit in the remote operation system. FIG. 1C is a functional block diagram illustrating a configuration example of an operation content registration unit in the remote operation system. FIG. 1D is a functional block diagram illustrating a configuration example of the motion detection unit in the remote operation system. FIG. 2 is a drawing showing a part of the block diagram of FIG. 1A as a specific appearance image example, and the numbers in the drawing are attached in correspondence with FIG. 1A.

図1Aに示すように、本実施形態による遠隔操作システムAは、入力装置100と、遠隔操作装置Bと、を含み、制御対象機器103を制御する例を示す。遠隔操作装置Bは、動作検出装置101と、制御信号送信装置102と、制御部101cと、メモリ101dと、を有している。動作検出装置101は、入力装置100、又は入力装置100とその周囲の映像および距離情報を取得するカメラなどから成る撮影部101aと、撮影部101aによって得られた映像と距離情報とから操作者100aの動作を検出する動作検出部101bと、を有する。制御信号送信装置102は、動作検出装置101によって検出された動作に対応する操作の制御信号を読み出し、制御信号を制御対象機器103へと送信する。制御部101cは、入力装置登録部1と操作内容登録部3とを有し、メモリ101dは、後述するテーブルを格納するテーブル格納部5を有しており、また、制御部101cに、各種の処理を実行させるプログラムを格納するのが一般的である。制御対象機器103は、ここではテレビジョン受信装置(以下「テレビ」と称する。)を例示しており、テレビをリモコンで操作する場合と同様の制御が行われる様子を以下に説明する。   As shown in FIG. 1A, the remote operation system A according to the present embodiment includes an input device 100 and a remote operation device B, and shows an example of controlling a control target device 103. The remote operation device B includes an operation detection device 101, a control signal transmission device 102, a control unit 101c, and a memory 101d. The motion detection device 101 is an operator 100a based on the input device 100 or a photographing unit 101a composed of the input device 100 and a camera for acquiring the surrounding video and distance information, and the video and distance information obtained by the photographing unit 101a. A motion detection unit 101b that detects the motion of The control signal transmission device 102 reads out a control signal for an operation corresponding to the motion detected by the motion detection device 101, and transmits the control signal to the control target device 103. The control unit 101c has an input device registration unit 1 and an operation content registration unit 3, and the memory 101d has a table storage unit 5 for storing a table to be described later. Generally, a program for executing processing is stored. The control target device 103 exemplifies a television receiver (hereinafter referred to as “television”) here, and the manner in which the same control as when the television is operated with a remote controller is described below.

図1Bは、入力装置登録部1の一構成例を示す機能ブロック図であり、入力装置100を検出する入力装置検出部1−1と、入力装置100を認識する入力装置認識部1−2と、機器操作に利用可能な動作を設定する動作種類設定部1−3と、入力装置の登録を行う入力装置登録処理部1−4と、を有している。   FIG. 1B is a functional block diagram illustrating a configuration example of the input device registration unit 1. The input device detection unit 1-1 detects the input device 100, and the input device recognition unit 1-2 recognizes the input device 100. , An operation type setting unit 1-3 for setting an operation available for device operation, and an input device registration processing unit 1-4 for registering an input device.

操作内容登録部3は、入力装置100の指定を行う入力装置指定部3−1と、操作動作の指定を行う操作動作指定部3−2と、対応する動作を選択する対応操作選択部3−3と、設定内容を登録する設定内容登録部3−4と、表示部3−5を有している。   The operation content registration unit 3 includes an input device designating unit 3-1 for designating the input device 100, an operation operation designating unit 3-2 for designating an operation operation, and a corresponding operation selection unit 3- for selecting a corresponding operation. 3, a setting content registration unit 3-4 for registering setting content, and a display unit 3-5.

図1Dは、動作検出部101bの一構成例を示す機能ブロック図である。動作検出部101bは、映像・距離情報取得部11と、入力装置及び操作準備検出部12と、入力装置動き検出部13と、操作動作検出部14と、登録済み動作比較部15と、入力装置静止検出部16と、動作情報読み出し部17と、動作情報送信部(指示部)18と、を有している。   FIG. 1D is a functional block diagram illustrating a configuration example of the operation detection unit 101b. The motion detection unit 101b includes a video / distance information acquisition unit 11, an input device and operation preparation detection unit 12, an input device motion detection unit 13, an operation motion detection unit 14, a registered motion comparison unit 15, and an input device. The stationary detection unit 16, the operation information reading unit 17, and the operation information transmission unit (instruction unit) 18 are provided.

図2に示すように、本実施の形態による遠隔操作装置Bを含む遠隔操作システムにおいて、入力装置(被写体)100は、入力動作を行う対象となる任意の物体であり、本実施形態では、チューイングガムのボトルを例にして以下に説明する。入力装置100は、例えば、被写体ではないテーブル110の上に置かれている。制御対象機器103は、操作の対象となる例えば家電機器であり、本実施形態では、テレビである。図1Aでは、便宜上、遠隔操作装置Bと制御対象機器103が別々に描いているが、本実施形態では制御対象機器103に、動作検出装置101と制御信号送信装置102とがあらかじめ組み込まれている例について説明する。その他の入力装置として既存のリモコン107を用いることもできる。ここでは、テレビ103に取り付けられている撮影部(カメラ)101aが、入力装置100を撮影できる位置に設けられている。   As shown in FIG. 2, in the remote control system including the remote control device B according to the present embodiment, an input device (subject) 100 is an arbitrary object to be subjected to an input operation. In the present embodiment, chewing gum An example of this bottle will be described below. For example, the input device 100 is placed on a table 110 that is not a subject. The control target device 103 is, for example, a home electric appliance to be operated, and is a television in the present embodiment. In FIG. 1A, for the sake of convenience, the remote operation device B and the control target device 103 are drawn separately, but in this embodiment, the operation detection device 101 and the control signal transmission device 102 are incorporated in the control target device 103 in advance. An example will be described. The existing remote controller 107 can also be used as another input device. Here, a photographing unit (camera) 101 a attached to the television 103 is provided at a position where the input device 100 can be photographed.

入力装置の登録処理について、図3のフローチャート図を参照しながら説明する。最初に遠隔操作装置Bを登録用のモードへ移行させる。登録用のモードへの移行を行う操作は、遠隔操作装置Bが制御対象機器103に組み込まれているため、従来と同様にリモコン107を使用することができる。さらにリモコン107を操作して処理を開始し、ステップS0で入力装置登録を選択し、入力装置登録のフローへ移行する。   The input device registration process will be described with reference to the flowchart of FIG. First, the remote control device B is shifted to a registration mode. Since the remote control device B is incorporated in the control target device 103, the remote controller 107 can be used for the operation for shifting to the registration mode. Further, the remote controller 107 is operated to start processing, and input device registration is selected in step S0, and the flow proceeds to the input device registration flow.

続くステップS1では、入力装置検出部1−1が、入力装置を検出する。まず入力装置100を取り除いた状態の周囲にあるテーブル110を動作検出装置101の撮影部101aで撮影する。入力装置登録時に、撮影映像は制御対象機器103の画面上に随時表示されていることが好ましい。画面を確認して問題なければ、リモコン107を操作し、続いて入力装置100をテーブル110の上に置いた状態を撮影部101aで撮影する。テーブル110の画像とテーブルと入力装置100とテーブル110との画像の2つの撮影画像の差分から、入力装置100が特定され、画面に表示される。入力装置100が正しく特定されたことを確認した後にリモコン107を操作して次のステップへ進む。この時点で入力装置100には、他の登録された入力装置と区別するための一意の識別情報(識別子、ID)が与えられる。   In subsequent step S1, the input device detection unit 1-1 detects the input device. First, the table 110 around the state where the input device 100 is removed is photographed by the photographing unit 101 a of the motion detection device 101. At the time of input device registration, it is preferable that the captured video is displayed on the screen of the control target device 103 as needed. If there is no problem in checking the screen, the remote controller 107 is operated, and then the imaging unit 101a captures a state where the input device 100 is placed on the table 110. The input device 100 is specified from the difference between the two captured images of the image of the table 110, the table, the input device 100, and the image of the table 110, and displayed on the screen. After confirming that the input device 100 has been correctly identified, the remote controller 107 is operated to proceed to the next step. At this time, the input device 100 is given unique identification information (identifier, ID) for distinguishing it from other registered input devices.

ステップS2では、入力装置認識部1−2が、ステップS1で検出された入力装置100を例えば回転させて撮影することで、入力装置100の大きさと形状とを認識する。撮影部101aには映像だけでなく、距離情報を取得する測距機能があるため、映像内の任意の点に関してカメラの光軸方向の距離を知ることができる。また、撮影部101aのレンズの画角や焦点距離などのカメラパラメータを利用すると、カメラの光軸に垂直な平面を撮影した際、撮影映像におけるある画素数の長さが、実際の平面上でいくつの距離に相当するかを求めることができる。   In step S2, the input device recognition unit 1-2 recognizes the size and shape of the input device 100 by, for example, rotating and photographing the input device 100 detected in step S1. Since the photographing unit 101a has a distance measuring function that acquires not only an image but also distance information, it is possible to know the distance in the optical axis direction of the camera at an arbitrary point in the image. Also, when camera parameters such as the angle of view and focal length of the lens of the photographing unit 101a are used, when a plane perpendicular to the optical axis of the camera is photographed, the length of a certain number of pixels in the photographed image is on the actual plane. It is possible to determine how many distances it corresponds to.

従って、映像内の任意の点に関して、カメラの光軸に垂直な平面上での距離(x軸、y軸)と、カメラの光軸方向の距離(z軸)とがわかり、カメラを基準にしたxyz空間における三次元座標を決定することができる。そのため、入力装置100の各部位の絶対的な大きさや形状を得ることが可能である。   Therefore, the distance (x-axis, y-axis) on the plane perpendicular to the optical axis of the camera and the distance (z-axis) in the optical axis direction of the camera can be known for any point in the image. The three-dimensional coordinates in the xyz space can be determined. Therefore, the absolute size and shape of each part of the input device 100 can be obtained.

さらに、入力装置を水平方向に一周ずつ回しながら撮影することによって、撮影における死角を少なくして、実際の操作時に動作検出装置101が入力装置100を見失ってしまう可能性を軽減するとともに、予め用意した形状テンプレートと比較することにより、入力装置が円柱であるのか直方体であるのかなどの形状の認識処理を行うことが可能である。   Furthermore, by shooting while rotating the input device one by one in the horizontal direction, the blind spot in shooting is reduced, and the possibility that the motion detection device 101 loses sight of the input device 100 during actual operation is reduced and prepared in advance. By comparing with the shape template, it is possible to perform shape recognition processing such as whether the input device is a cylinder or a rectangular parallelepiped.

ここで、映像情報と距離情報の両方を取得できるカメラの構成について説明する。そのようなカメラの構成方法は大きく二つに分けられる。一つは映像情報と距離情報を異なるセンサを用いて取得方法であり、もう一つは複数の映像情報を取得し、得られた複数の映像情報から距離情報を推定する方法である。どちらの場合においても、映像情報の取得には、一般的なCMOSイメージセンサやCCDイメージセンサを用いることが出来る。一方の距離情報を別途取得する方法はいくつかあるが、代表的なものとしては、赤外のパルス光を被写体に照射し、その反射光におけるパルスの位相遅れを計測することで距離を求めるTOF(Time of Flight)法や、赤外レーザーによる幾何パターンを照射し、被写体上におけるパターンの歪みから距離を求める方法がある。複数の映像情報からの距離情報推定については、並行配置した二台のカメラによる撮影画像に対してステレオマッチングを行って、カメラ間で対応する点が撮影画像上でどれだけ離れているかを求め、カメラパラメータを用いてそれを距離に変換する方法が挙げられる。距離を取得する方法にいずれを用いても本発明の効果を得ることが可能であるが、距離の分解能や精度が高い程、本発明による動作の検出精度もまた向上する。なお、レンズ歪等の影響が撮影画像に残っている場合、画面中央に比べて周囲では映像が圧縮されてしまうことで物体の長さを求める際の誤差を生むため、十分な歪補正を行なっておくことが望ましい。   Here, a configuration of a camera capable of acquiring both video information and distance information will be described. Such a camera configuration method can be roughly divided into two. One is a method for acquiring video information and distance information using different sensors, and the other is a method for acquiring a plurality of video information and estimating the distance information from the obtained plurality of video information. In either case, a general CMOS image sensor or CCD image sensor can be used to acquire video information. There are several methods for acquiring the distance information separately. As a typical method, TOF is used to obtain the distance by irradiating the subject with infrared pulsed light and measuring the phase delay of the pulse in the reflected light. There are a (Time of Flight) method and a method of obtaining a distance from a pattern distortion on an object by irradiating a geometric pattern by an infrared laser. For distance information estimation from multiple video information, stereo matching is performed on images taken by two cameras arranged in parallel, and how far the corresponding points between the cameras are on the captured image, There is a method of converting it into a distance using a camera parameter. The effect of the present invention can be obtained regardless of which method is used to acquire the distance. However, the higher the distance resolution and accuracy, the better the detection accuracy of the operation according to the present invention. If the effect of lens distortion, etc. remains in the captured image, the image will be compressed in the surroundings compared to the center of the screen, causing an error in determining the length of the object, so sufficient distortion correction is performed. It is desirable to keep it.

TOF法などを用いるために映像用のセンサと距離情報用のセンサを利用した場合、距離精度そのものは距離情報用センサの能力に依存するが、その距離情報が映像のどの座標の被写体のものであるか正しく対応をとることが難しい。2つのセンサの光学的な特性が異なるため画角等を正確に合わせるのが困難であることに加え、2つのセンサ間で視差が存在することによって、ある座標の距離情報が映像のどの座標の被写体のものであるかを求めることは出来てもその関係が上への1対1ではないので、映像の座標に対応する距離情報が複数現れたり、該当する距離情報がなかったりしてしまうからである。   When a video sensor and a distance information sensor are used to use the TOF method or the like, the distance accuracy itself depends on the ability of the distance information sensor, but the distance information is that of the subject at any coordinate of the video. It is difficult to take a correct response. In addition to the fact that the optical characteristics of the two sensors are different, it is difficult to accurately match the angle of view, etc. In addition, because of the parallax between the two sensors, the distance information of a certain coordinate indicates which coordinate of the image Although it is possible to determine whether the subject is a subject, the relationship is not one-on-one, so that multiple distance information corresponding to the coordinates of the video appears or there is no corresponding distance information. It is.

可能な限り、各センサの光学的な特性を合わせ、ハーフミラーを用いて入力に視差が生じないようにするなどして、映像と距離情報との間での座標のずれがあまり生じないようにしておくことが望ましい。   As much as possible, adjust the optical characteristics of each sensor and use a half mirror to prevent parallax in the input, so that there is not much coordinate shift between the image and distance information. It is desirable to keep it.

一方、ステレオマッチングを用いて距離情報を推定する場合は、ステレオマッチングの原理上、映像内の任意の座標に対して、その座標に映った被写体までの距離を求めることになるため、このような映像と距離情報との間での座標のずれはあまり考慮しなくてもよいが、距離情報の精度に影響するため、ステレオマッチングに用いるカメラは特性が近いものを用い、キャリブレーションによってカメラ間で光軸が平行になるようにしておくことが望ましい。   On the other hand, when estimating distance information using stereo matching, the distance to the subject reflected in the coordinates is obtained for any coordinates in the video, based on the principle of stereo matching. The difference in coordinates between the image and the distance information does not need to be taken into account so much. However, since it affects the accuracy of the distance information, the cameras used for stereo matching should have similar characteristics. It is desirable to keep the optical axes parallel.

ここで、入力装置100の絶対的な大きさや形状を求めた理由は、対象を限定しない物体の認識は本来困難であるが、この認識を容易に行うためである。物体認識技術の多くは、認識される物体を区別可能とする特徴的な要素があらかじめわかっていることを前提としている。例えば、人の顔の認識であれば顔全体の形、肌の色、目や鼻や口の相対的な位置関係などを拠り所にして、映像から人の顔である可能性の高い物体を探す。しかしながら、本実施形態では、入力装置を限定していないため、あらかじめ映像としての特徴的な要素がわかっているわけではなく、したがって映像としての情報のみで特定の物体を認識することは非常に難しい。しかし、物体の大きさや形状の情報は、それ自体がその物体を他の物体等と区別する特徴的な要素である。例えば、似た形状、似た色であるが大きさが異なる2つの物体は、画像としての情報だけではその2つを判別することは困難であるが、大きさの情報があれば容易に区別することができる。あるいは同じ形状で色違いの2つの物体があった場合、大きさや形状の情報だけではこの2つを区別することができないが、画像としての情報を用いると容易に区別することができる。このように画像としての情報と、大きさや形状の情報とを組み合わせて用いることで、認識の難易度を大幅に低下させることが可能である。   Here, the reason why the absolute size and shape of the input device 100 are obtained is that recognition of an object that does not limit the target is inherently difficult, but this recognition is easily performed. Many of the object recognition techniques are based on the premise that characteristic elements that can distinguish recognized objects are known in advance. For example, in the case of human face recognition, search for objects that are likely to be human faces from video based on the shape of the entire face, skin color, and the relative positional relationship between eyes, nose, and mouth. . However, in this embodiment, since the input device is not limited, characteristic elements as a video are not known in advance, and therefore it is very difficult to recognize a specific object only with information as a video. . However, information on the size and shape of an object is a characteristic element that distinguishes the object from other objects. For example, two objects with similar shapes and similar colors but different sizes are difficult to distinguish from each other only with information as an image, but can easily be distinguished if there is size information. can do. Alternatively, when there are two objects of the same shape and different colors, the two cannot be distinguished only by information on the size and shape, but can be easily distinguished by using information as an image. In this way, by using a combination of information as an image and size and shape information, it is possible to greatly reduce the difficulty of recognition.

続く、ステップS3では、操作者100aが登録した入力装置100に対して行うどのような動作が機器操作のための特別な動作、すなわち操作動作であるかの定義を動作種類設定部1−3が行う。本実施形態では、入力装置100に対する接触を用いた操作動作の例として、タップ、スワイプ、トレースについて以下で説明する。   Subsequently, in step S3, the action type setting unit 1-3 defines what action is performed on the input device 100 registered by the operator 100a as a special action for device operation, that is, an operation action. Do. In the present embodiment, taps, swipes, and traces will be described below as examples of operation operations using contact with the input device 100.

入力装置100との接触を判定するので、操作者100aの手についても検出する必要がある。しかし、手は色や形状などの個人差が比較的少ないため、その代表的なパターンをテンプレートとして持っておき、撮影映像内の動体をテンプレートと比較することで比較的容易に検出することが可能である。入力装置100に操作者の手を触れ、すぐに手を離す動作をタップと呼ぶ。タップを検出するには、操作者の手と入力装置100とが撮影映像において重なっていることと、その2つの距離情報がほぼ一致していることを検出すればよい。この2つを検出の条件とすることで、距離が離れているのに画像上では重なって見える場合を除外して、誤操作を減らすことができる。   Since contact with the input device 100 is determined, it is necessary to detect the hand of the operator 100a. However, hands have relatively few individual differences such as color and shape, so it is relatively easy to detect a representative pattern as a template and compare the moving object in the captured video with the template. It is. The operation of touching the input device 100 with the operator's hand and releasing it immediately is called a tap. In order to detect the tap, it is only necessary to detect that the operator's hand and the input device 100 overlap each other in the captured image and that the two pieces of distance information substantially match. By setting these two as detection conditions, it is possible to reduce the number of erroneous operations by excluding the case where they appear to overlap on the image even though the distance is long.

ここで、距離情報の一致について補足する。操作者100aの手と入力装置100とが接触していて、かつ、接触部分が撮影部101aから撮影できている場合であれば、距離情報がほぼ一致するが、接触部分が手によって遮られている場合もありうる。この場合は、撮影部101aから見た手の厚さの分だけ、手と入力装置100とでは距離情報に差が出てしまう。そのため、手の厚さおよび撮影部101aから見込んだ角度に応じて手の厚さが変化することを考慮して、手と入力装置100との距離情報の差が一定値以下であれば接触しているとみなすようにすることが望ましい。その際の距離情報の差のしきい値は、手を使って触れる場合であれば、例えば2〜3cm程度が適当である。なお、距離情報の分解能や精度が不十分な場合には、さらに大きな値としても良い。また、接触の判定を入力装置に触れた瞬間に行うのではなく、離したときに入力装置100が動いていないかという判断も加えて行うことで、操作を行ったのか単に持ち上げるために触れたのかを区別し、操作目的でない場合の誤認識を防止することが可能となる。操作のために触れたと判定する接触時間に下限や上限を設けることもまた誤認識の防止に有効である。また、タップする位置によって異なる操作動作として設定することもできる。   Here, it supplements about the coincidence of distance information. If the hand of the operator 100a and the input device 100 are in contact with each other and the contact portion can be photographed from the photographing unit 101a, the distance information is almost the same, but the contact portion is blocked by the hand. It may be. In this case, there is a difference in distance information between the hand and the input device 100 by the thickness of the hand as viewed from the photographing unit 101a. Therefore, considering that the thickness of the hand changes according to the thickness of the hand and the angle viewed from the photographing unit 101a, contact is made if the difference in distance information between the hand and the input device 100 is a certain value or less. It is desirable to assume that In this case, the threshold of the difference in distance information is suitably about 2 to 3 cm, for example, when touching with a hand. If the resolution and accuracy of distance information are insufficient, a larger value may be used. In addition, the touch determination is not performed at the moment when the input device is touched, but is also performed by determining whether the input device 100 is not moving when the touch is released. Therefore, it is possible to prevent misrecognition when it is not an operation purpose. Providing a lower limit or an upper limit for the contact time determined to be touched for operation is also effective in preventing erroneous recognition. It can also be set as a different operation depending on the tapping position.

例えば、入力装置100であるチューイングガムのボトルの上面と側面とで異なる操作動作とすることや、あるいは、ボトルの側面についても撮影部100aから見て右側からのタップなのか左側からのタップなのかでそれぞれ異なる操作動作として設定することもできる。また、タップを続けて複数回行った場合を区別し、行った回数によってシングルタップ、ダブルタップ、トリプルタップのように異なる操作動作として設定することも出来る。   For example, different operation operations may be performed on the upper and side surfaces of the chewing gum bottle that is the input device 100, or whether the side surface of the bottle is a tap from the right side or the left side as viewed from the photographing unit 100a. Each can be set as a different operation. Further, it is possible to distinguish a case where the tap is continuously performed a plurality of times and to set different operation operations such as a single tap, a double tap, and a triple tap depending on the number of times the tap is performed.

タップと同様の方法で、スワイプを検出することも可能である。スワイプとは、手を入力装置100の表面に触れた状態から、入力装置100は動かさずに手だけをそのまま移動させることを指す。操作者100aと操作者100aの手との位置関係から、操作者100aから見た上下左右の方向を判断し、それに基づいたスワイプの方向によって異なる操作動作として設定することも可能である。   It is also possible to detect a swipe in the same way as a tap. Swipe refers to moving only the hand without moving the input device 100 from a state where the hand touches the surface of the input device 100. Based on the positional relationship between the operator 100a and the hand of the operator 100a, it is possible to determine the vertical and horizontal directions as viewed from the operator 100a, and to set different operation operations depending on the swipe direction based on the determined direction.

面に対して表面に触れながら手を移動させる動作であるスワイプと同様に、線に対してその表面に沿ってなぞるように手を移動させるという動作を利用することもできる。これをトレースと呼ぶこととする。入力装置100の特定の縁や、入力装置100の表面の模様の特定箇所に沿ってトレースすることもまた一つの操作動作として設定することができる。さらにトレースを時計回りに行うか反時計回りに行うかといったように、トレースの方向によって異なる操作動作として設定することもできる。   Similar to swipe, which is an operation of moving the hand while touching the surface with respect to the surface, an operation of moving the hand along the surface with respect to the line can also be used. This is called a trace. Tracing along a specific edge of the input device 100 or a specific portion of a pattern on the surface of the input device 100 can also be set as one operation operation. Further, it is possible to set different operation operations depending on the direction of the trace, such as whether the trace is performed clockwise or counterclockwise.

尚、操作動作の内容は、特定の物体とユーザの手・指などとの相対位置の時間変化又はその軌跡として捉えることができる。   Note that the content of the operation operation can be grasped as a change in time or a locus of the relative position between the specific object and the user's hand / finger.

また、本実施形態での入力装置100であるチューイングガムのボトルを通常の用途で利用する際に行う動作を考えると、テーブルに置かれた状態のまま、あるいは持ち上げてから、ボトルが動かないようにつかんでフタを開けるという動作を行う。この通常の動作と大きく異なる動作、例えばテーブルから離さずに平行移動させる、ボトルを横に倒して転がす、といった通常の用途では用いない動作を操作動作として利用することで、通常の動作と区別し、誤動作を防ぐようにすることも可能である。   In addition, considering the operation performed when the bottle of chewing gum, which is the input device 100 in this embodiment, is used in a normal application, the bottle does not move after being placed on the table or lifted. Grab and open the lid. This operation differs greatly from the normal operation by using operations that are not used in normal applications such as parallel movement without moving away from the table, such as moving the bottle sideways and rolling it as operation operations. It is also possible to prevent malfunction.

このような操作動作に関して、登録した入力装置で利用可能なものをこのステップで設定する。ここで設定した各操作動作に対して、図4の操作動作識別テーブルに示したような、操作動作識別情報が割り当てられる。これらの操作動作識別情報は、入力装置100毎に設定される。続くステップS4では、入力装置登録処理部1−4が、ステップS2で得られた入力装置100の識別のための情報と、ステップS3で設定された入力装置で利用可能な操作動作識別情報とを、動作検出装置101に登録する。   With respect to such an operation, what can be used in the registered input device is set in this step. The operation operation identification information as shown in the operation operation identification table of FIG. 4 is assigned to each operation operation set here. The operation operation identification information is set for each input device 100. In subsequent step S4, the input device registration processing unit 1-4 obtains information for identifying the input device 100 obtained in step S2 and operation operation identification information usable in the input device set in step S3. , It is registered in the motion detection apparatus 101.

続いて、同じく図3を参照して、入力装置100に対する操作動作を機器の特定の操作へと関連付ける、操作内容登録部3による操作登録について説明する。まず、リモコンを操作して、操作登録のフローへ移行する。ステップT1では、表示部3−5に動作検出装置101に登録された入力装置の一覧が表示されるので、そこから機器の操作に利用する入力装置100を指定する。ここでは制御対象機器103であるテレビの画面が表示部3−5を兼ねており、テレビ103の画面に表示された登録済みの入力装置の一覧を見ながら、リモコン操作によって入力装置指定部3−1への指示を行う。ステップT2では、ステップT1で選択された入力装置の操作動作内容の一覧が表示部3−5に表示されるので、その中のいずれの操作動作を選択するか、リモコンを用いて操作動作内容指定部3−2に対して指示を行う。ステップT3では選択した操作動作に、どの制御対象機器に対してどの操作内容を設定するか、リモコンを用いて対応操作選択部3−3に対して指示を行う。制御対象機器103とその操作内容については、本実施形態では動作検出装置101が制御対象機器103に組み込まれているため、製品としての製造の過程ですでに制御対象機器103に登録済みである。ここで、あらかじめ登録されている情報のみではなく、制御対象機器のメーカー名と型番といった識別可能な情報から、インターネット上に設けられたデータベースを参照して、操作内容の一覧を取得して利用してもよい。すべての必要な操作動作の設定が終わると、設定内容登録部3−4が、ステップT4において、これまで設定した操作動作識別情報と制御内容との対応関係を、制御情報識別テーブルとして動作検出装置101に登録する。   Next, the operation registration by the operation content registration unit 3 that associates the operation operation on the input device 100 with a specific operation of the device will be described with reference to FIG. First, the remote controller is operated to move to the operation registration flow. In step T1, since a list of input devices registered in the motion detection device 101 is displayed on the display unit 3-5, the input device 100 used for the operation of the device is designated therefrom. Here, the screen of the television as the control target device 103 also serves as the display unit 3-5. While viewing the list of registered input devices displayed on the screen of the television 103, the input device designation unit 3- 1 is instructed. In step T2, a list of the operation actions of the input device selected in step T1 is displayed on the display unit 3-5. Which of the operation actions is selected, the operation action contents are designated using the remote controller. An instruction is given to the unit 3-2. In step T3, an instruction is given to the corresponding operation selection unit 3-3 using the remote controller as to which operation content is to be set for which device to be controlled in the selected operation. Regarding the control target device 103 and its operation content, since the motion detection apparatus 101 is incorporated in the control target device 103 in this embodiment, it has already been registered in the control target device 103 in the process of manufacturing as a product. Here, by referring to a database provided on the Internet based on identifiable information such as the manufacturer name and model number of the device to be controlled as well as information registered in advance, a list of operation contents is acquired and used. May be. When all necessary operation settings have been set, the setting content registration unit 3-4 uses the operation relationship identification information and the control content set so far as the control information identification table as an operation detection device in step T4. 101.

図5は、ここで割り当てた操作動作識別情報(ID)と制御(動作)内容との例を示している。例えば、図4の動作識別テーブルより、入力装置100の上面をシングルタップする動作を表す操作動作識別情報は“AA0A1”で示される。図5の制御情報識別テーブルより、“AA0A1”という操作動作識別情報はテレビのヘルプ表示に対応付けられているので、入力装置100の上面をシングルタップするという動作が、テレビのヘルプ表示という制御装置の操作に割り当てられたということになる。操作動作識別情報は、動作検出装置101の内部データであるため、画面には表示されない。また図中に具体例を示してはいないが、制御情報についても特定の制御内容を表す識別情報の形で保存されて、のちに述べる制御信号送信装置102で利用される。   FIG. 5 shows an example of the operation action identification information (ID) and control (action) contents assigned here. For example, from the operation identification table of FIG. 4, the operation operation identification information indicating the operation of single-tapping the upper surface of the input device 100 is indicated by “AA0A1”. Since the operation operation identification information “AA0A1” is associated with the help display of the television from the control information identification table of FIG. 5, the operation of single-tapping the upper surface of the input device 100 is a control device called the help display of the television. Is assigned to the operation. Since the operation action identification information is internal data of the action detection apparatus 101, it is not displayed on the screen. Although no specific example is shown in the figure, the control information is also stored in the form of identification information indicating specific control contents, and is used in the control signal transmitting apparatus 102 described later.

図6は、実際に入力装置100を用いて制御対象機器103を操作する際の処理の流れを示すフローチャート図である。再び、リモコン107を操作して動作検出のモードに移行する。操作を行う際は、入力装置100をテーブル110の上に置く。入力装置100を置く場所は、必ずしも登録に用いたテーブル110の上である必要はなく、撮影部100aから撮影可能な範囲内の位置にあれば床の上などでも良い。動作検出モード時は、常に動作検出装置101の動作検出部101bにおける映像・距離情報取得部11は、映像と距離情報を取得し続ける(ステップU1)。   FIG. 6 is a flowchart showing a flow of processing when the control target device 103 is actually operated using the input device 100. Again, the remote control 107 is operated to shift to the operation detection mode. When performing an operation, the input device 100 is placed on the table 110. The place where the input device 100 is placed does not necessarily have to be on the table 110 used for registration, and may be on the floor or the like as long as it is within a range that can be photographed from the photographing unit 100a. In the motion detection mode, the video / distance information acquisition unit 11 in the motion detection unit 101b of the motion detection device 101 always acquires video and distance information (step U1).

ステップU2では、入力装置及び操作準備検出部12が、登録済みの入力装置が映像内にあるかどうかの検出と、撮影画像内に手があるかどうかを検出する。ここで登録済みの入力装置と操作者の手の両方が検出された場合は、ステップU3へ進む。検出されなかった場合はステップU1に戻り、検出されるまで撮影を続ける。   In step U2, the input device and operation preparation detection unit 12 detects whether or not the registered input device is in the video, and detects whether or not there is a hand in the captured image. If both the registered input device and the operator's hand are detected, the process proceeds to step U3. If not detected, the process returns to step U1, and photographing is continued until it is detected.

ステップU3では、入力装置動き検出部13が、検出された入力装置が静止しているかどうかを、静止状態があらかじめ設定した一定時間以上継続されているかどうかによって判断する。静止していることを確認できたら、次のステップU4に進む。   In step U3, the input device motion detector 13 determines whether or not the detected input device is stationary depending on whether or not the stationary state has been continued for a predetermined time or more. If it can be confirmed that it is stationary, the process proceeds to the next step U4.

ステップU4では、操作動作検出部14が、操作者の手の動きを検出し、登録済み動作比較部15が登録済みの操作動作に一致するかどうかを判定する。一致したと判断された場合、その動作が終了した後も入力装置100が静止しているかどうかを判別する。ここで静止状態にあるかどうかを判別する理由は、入力装置100はチューイングガムのボトルであり、制御対象機器102を操作する以外にも、本来の使い方である中のチューイングガムを取り出すために利用される可能性があり、その行為の際にも登録済み操作動作に一致する動作を行う可能性があるからである。   In step U4, the operation motion detection unit 14 detects the movement of the operator's hand, and determines whether the registered motion comparison unit 15 matches the registered operation motion. When it is determined that they match, it is determined whether or not the input device 100 is stationary even after the operation is completed. Here, the reason for determining whether or not it is in a stationary state is that the input device 100 is a bottle of chewing gum, and is used for taking out the chewing gum that is originally used in addition to operating the control target device 102. This is because there is a possibility that an action that matches the registered operation action may be performed during the act.

このように操作目的以外でない、入力装置本来の用途で操作動作に一致する動作が行われる場合は、持ち上げられることで入力装置の位置が変化したり、ボトルのフタを開けることで形状が変化するなど、多くの場合は入力装置の状態に変化が生じる。したがって入力装置100が静止状態にあるかどうかを入力装置静止検出部16によって判断することによって、制御対象機器103を操作するために動作を行ったのか、そうでないのかを区別することが可能となり、操作目的でない動作を操作動作と判定することで生じる誤操作を防止することが出来る。操作動作後も入力装置が静止しており、操作のための動作であったと判断した場合、ステップU5へ進み、動作情報読み出し部17が先の操作動作識別テーブルを参照して操作動作識別情報を取得し、動作情報送信指示部18が、操作動作識別情報を制御信号送信装置102へ送り、次の操作に備えるため再びステップU4に戻って操作者の手の動きを監視する。ステップU2、U3、U4、の検出に対応して、ステップU7、U8、U9、U10のそれぞれの判断ステップが設けられる。   In this way, when an operation corresponding to the operation operation is performed for an original use of the input device other than the operation purpose, the position of the input device is changed by being lifted, or the shape is changed by opening the bottle lid. In many cases, the state of the input device changes. Therefore, by determining whether or not the input device 100 is in the stationary state by the input device stationary detection unit 16, it is possible to distinguish whether the operation has been performed to operate the control target device 103 or not. It is possible to prevent an erroneous operation caused by determining an operation that is not the operation purpose as an operation operation. If it is determined that the input device is still after the operation operation and the operation is for the operation, the process proceeds to step U5, where the operation information reading unit 17 refers to the previous operation operation identification table to obtain the operation operation identification information. The operation information transmission instruction unit 18 acquires the operation operation identification information to the control signal transmission device 102, and returns to step U4 again to monitor the movement of the operator's hand in preparation for the next operation. Corresponding to the detection of steps U2, U3, U4, respective determination steps of steps U7, U8, U9, U10 are provided.

制御信号送信装置102では、図5の制御情報識別テーブルを用いて動作情報検出装置101から送信された操作動作識別情報に対応する、制御対象機器103への制御内容を判別し、制御内容に対応した信号を制御対象機器に対して発し、制御対象機器103を操作する。以上により、リモコンのように数が限られた共有の専用機器にとらわれることなく、操作者の身近にある物体を用いて機器を操作することが可能となる。   The control signal transmission device 102 determines the control content to the control target device 103 corresponding to the operation motion identification information transmitted from the motion information detection device 101 using the control information identification table of FIG. The controlled signal is issued to the control target device, and the control target device 103 is operated. As described above, it is possible to operate a device using an object that is close to the operator without being caught by a limited number of shared dedicated devices such as a remote controller.

本実施形態では、動作検出装置101と制御信号送信装置102を入力装置100に組み込んだ例について説明したが、これらの組み込みを行わずに単体で機能するようにしてもよい。動作検出装置101の撮影部101aと動作検出部101bについても同様に、別々に分けてもよい。   In the present embodiment, the example in which the motion detection device 101 and the control signal transmission device 102 are incorporated in the input device 100 has been described. However, the operation detection device 101 and the control signal transmission device 102 may function independently without being incorporated. Similarly, the photographing unit 101a and the motion detection unit 101b of the motion detection device 101 may be separately provided.

尚、撮影部101aの設置場所は、入力装置100を置く平面よりも上方に設置することが望ましい。そうすることで、上から見下ろすことになるため、入力装置100があまり高さを持たない場合でも、撮影映像内での入力装置100の面積が大きくなり、入力装置自体の認識や入力装置に対する動作の認識が行い易くなるからである。撮影装置101aや制御装置107を部屋の天井に取り付けると部屋全体を監視できるため、制御対象機器が複数ある場合に特に有用である。   It should be noted that the installation location of the imaging unit 101a is preferably installed above the plane on which the input device 100 is placed. By doing so, since it looks down from the top, even when the input device 100 does not have a very high height, the area of the input device 100 in the captured video increases, and the input device itself is recognized and the operation to the input device. This is because it becomes easier to recognize this. When the photographing apparatus 101a and the control apparatus 107 are attached to the ceiling of the room, the entire room can be monitored, which is particularly useful when there are a plurality of devices to be controlled.

本実施形態では、動作の種別と動作の対象場所だけを区別していたが、操作者から見た入力装置100の向きや表裏によって、同じ動作を異なった操作動作に割り当てて、割り当て可能な操作動作を増やしてもよい。入力装置100の検出に関して、登録された入力装置100と大きさが一致しない場合でも、円柱状であるか直方体であるかといった形状だけが一致していれば、入力装置100であるとして代用できるようにしてもよい。このようにすることで、例えばコーヒーカップを入力装置として登録した場合に、登録に用いたコーヒーカップが食器洗い器の中で洗浄中であったとしても、別のコーヒーカップを用いて、登録作業をやり直すことなく操作に利用することが可能となる。   In the present embodiment, only the type of operation and the target location of the operation are distinguished. However, the same operation is assigned to different operation operations depending on the orientation and front and back of the input device 100 as viewed from the operator, and operations that can be assigned. The operation may be increased. Regarding the detection of the input device 100, even if the size does not match that of the registered input device 100, if only the shape such as a columnar shape or a rectangular parallelepiped shape matches, the input device 100 can be substituted. It may be. In this way, for example, when a coffee cup is registered as an input device, even if the coffee cup used for registration is being washed in the dishwasher, the registration work is performed using another coffee cup. It can be used for operations without having to redo.

登録した入力装置を、一人の操作者が複数同時に利用してもよいし、複数の操作者がそれぞれ個別に利用してもよい。後者の場合、それまで機器を操作していた操作者とは異なる別の操作者が現れた場合、操作者が一人だけの場合とは異なる処理を行うようにすることもできる。例えば一人目の操作者がこれまでテレビを操作していて、後から操作を始めたもう一人の操作者がチャンネルを変更しようとした場合、チャンネルを本当に変更していいか一人目の操作者に確認する画面を出したり、元々のチャンネルも見続けられるようにテレビを二画面表示に切り替えるかという確認画面を出すといったことができる。   A plurality of registered input devices may be used simultaneously by a single operator, or may be used individually by a plurality of operators. In the latter case, when another operator different from the operator who has operated the device until then appears, it is possible to perform processing different from the case where there is only one operator. For example, if the first operator has operated the TV so far, and another operator who has started operation later tries to change the channel, confirm with the first operator whether the channel can be changed really. Or a confirmation screen asking whether to switch the TV to a two-screen display so that the user can continue to watch the original channel.

以上に説明したように、本実施形態では、身近にある物体に触れるという動作によって、機器の操作を行うことができる。また機器の操作ではない物体本来の用途で使用する際に誤動作してしまうことを防ぐこともできる。   As described above, in the present embodiment, the device can be operated by an operation of touching a nearby object. In addition, it is possible to prevent malfunctions when used for an object intended for an object that is not an operation of the device.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。第1の実施形態では、入力装置100は、物体であったが、印刷等を行った図形等であっても良い。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the first embodiment, the input device 100 is an object, but may be a graphic or the like on which printing or the like has been performed.

本実施形態での入力装置100は、プリンタ等によって幾何学図形が印刷された紙であり、換言すれば、媒体に表示した図形である。紙を入力装置に用いた場合、登録作業において入力装置の画像と距離情報を取得した際に、距離情報がほとんど変化しないことから、入力装置がほとんど厚みを持たないと判断できる。そのような場合は、入力装置である紙自体ではなく、入力装置表面の図形に対して操作動作を行うことで制御対象機器103の操作を行う。   The input device 100 in the present embodiment is a paper on which a geometric figure is printed by a printer or the like, in other words, a figure displayed on a medium. When paper is used for the input device, the distance information hardly changes when the image of the input device and the distance information are acquired in the registration work, so that it can be determined that the input device has little thickness. In such a case, the operation of the control target device 103 is performed by performing an operation on the graphic on the surface of the input device instead of the paper itself as the input device.

すなわち、図7のような六芒星の図形を用いた場合、中心の六角形200、および周辺の6つの三角形201〜206のいずれにタップを行うか、あるいは複数回のタップを何れの部分に対して行うかなどによって異なる操作動作として登録することが出来る。登録データの一例を図8の操作動作識別テーブルに示す。模様が回転していた場合でも正しく判別するために、三角形201だけ塗りつぶして他と区別可能にしている。また、手によるタップを正しく検出するため、操作が異なる図形の各部位は大きさが指先に対して面積が4倍以上であることが望ましい。一つの図形を幾つかの領域に分けて操作を割り当てる他にも、複数の図形を印刷しておき図形単位で操作を割り当てることもできる。   That is, when a hexagonal figure as shown in FIG. 7 is used, a tap is performed on any one of the hexagon 200 at the center and the six surrounding triangles 201 to 206, or a plurality of taps are applied to any part. It can be registered as a different operation depending on whether it is performed. An example of the registered data is shown in the operation action identification table of FIG. In order to correctly discriminate even when the pattern is rotated, only the triangle 201 is filled so that it can be distinguished from the others. Further, in order to correctly detect a tap by hand, it is desirable that each part of a figure with a different operation has a size that is at least four times as large as the fingertip. In addition to assigning operations by dividing one figure into several areas, it is also possible to print a plurality of figures and assign operations in units of figures.

あるいは、距離情報によって絶対的な大きさが分かるため、全く同じ図形の大きさだけを変えたものを印刷しておき、大きさ毎に異なる操作を割り当てることもできる。もしくは色だけを変えた図形を複数印刷しておき、色によって区別してもよい。登録した図形を、制御対象機器を利用する際にいつも近くにあるイスやテーブルなどに貼りつけておくことで、操作者が入力装置として利用できる物体を何も持っていない場合でも操作を行うことができる。   Alternatively, since the absolute size can be determined from the distance information, it is possible to print a print with only the same graphic size changed, and assign a different operation for each size. Alternatively, a plurality of figures whose colors are changed may be printed and distinguished by colors. The registered figure is always pasted to a nearby chair or table when using the device to be controlled, so that even if the operator does not have any object that can be used as an input device, it can be operated Can do.

本実施の形態によれば、実際の物体ではなく、図形などに基づいて、装置の制御を行うことができるため、より使い勝手が良いという利点がある。   According to the present embodiment, since the apparatus can be controlled based on a figure or the like instead of an actual object, there is an advantage that it is more convenient to use.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
本実施形態での入力装置は例えばテーブルである。テーブルは、基本的に物を置くためのものであるため、テーブルの表面については特定部位に触れるということが難しい場合がしばしばあるが、テーブルの縁、すなわち、周囲空間との境界はテーブル上に置かれたものとは干渉しない独立した空間として残っている場合が多い。そのためテーブルの縁に対してトレースを行うことが可能である。
(Third embodiment)
Next, a third embodiment of the present invention will be described.
The input device in this embodiment is a table, for example. Since the table is basically for placing objects, it is often difficult to touch a specific part on the surface of the table, but the edge of the table, that is, the boundary with the surrounding space, is on the table. In many cases, it remains as an independent space that does not interfere with what is placed. Therefore, it is possible to trace the edge of the table.

テーブルは大きさがある程度大きいため、人がわざわざ場所を移動することなしに触れることのできるテーブルの縁は1つか2つに限られる。そのため、どの縁に触れたかを考慮せず、全て同様に扱うようにすると良い。区別する要素としては、縁に触れたのが片手であるか両手であるか、そして手を触れて離すまでにトレースを時計回りと反時計回りのどちらの向きから始めて何度トレースの方向を反転させたか、両手で触れた場合は左右の手のトレースの向きが同じであるか反対であるかを検出するようにすることができる。このように、トレースだけで作成した動作識別テーブルの一例を図9に示す。このようにテーブルの縁だけを利用した操作動作を設定すると、テーブルの上に物がなく片付いた状態でも、色々なものがあって散らかっている状態でも、すなわち、テーブルの状態に依存せずに、同じように機器の操作を行うことができる。   Because the table is somewhat large, there is only one or two edges of the table that a person can touch without bothering to move around. For this reason, it is better to treat all of them in the same way without considering which edge is touched. The distinction is whether the edge touched with one hand or both hands, and the trace direction was reversed several times, starting in either the clockwise or counterclockwise direction before touching and releasing the hand. When touching with both hands, it is possible to detect whether the directions of the traces of the left and right hands are the same or opposite. FIG. 9 shows an example of the operation identification table created only by tracing as described above. In this way, if you set the operation using only the edge of the table, even if there is nothing on the table and it is tidy, there are various things scattered around, that is, without depending on the state of the table The device can be operated in the same way.

また、上記の実施の形態において、添付図面に図示されている構成等については、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。   In the above-described embodiment, the configuration and the like illustrated in the accompanying drawings are not limited to these, and can be changed as appropriate within the scope of the effects of the present invention. In addition, various modifications can be made without departing from the scope of the object of the present invention.

また、本実施の形態で説明した機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。尚、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   In addition, a program for realizing the functions described in the present embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to execute processing of each unit. May be performed. The “computer system” here includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。   Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また前記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the above-described functions, or may be a program that can realize the above-described functions in combination with a program already recorded in a computer system.

本発明は、遠隔操作システムとして利用可能である。   The present invention can be used as a remote operation system.

100…入力装置、101…動作検出装置、101a…撮影部、101b…動作検出部、102…制御信号送信装置、103…制御対象機器、110…テーブル、200〜206…入力装置として扱う図形。 DESCRIPTION OF SYMBOLS 100 ... Input device, 101 ... Motion detection apparatus, 101a ... Imaging | photography part, 101b ... Motion detection part, 102 ... Control signal transmission apparatus, 103 ... Control object apparatus, 110 ... Table, 200-206 ... The figure handled as an input device.

Claims (9)

あらかじめ設定された特定の物体を入力装置として、前記入力装置に対する操作者の動作に依存して制御対象装置を操作する遠隔操作装置であって、
前記入力装置に対する操作動作を検出する操作動作検出部と、
前記操作動作検出部が検出した操作動作の内容と、予め設定されている前記操作動作の内容と前記制御対象装置を操作する内容との対応関係と、に基づいて、対応する前記制御対象装置への操作の内容を求める制御情報読み出し部と、
前記制御情報読み出し部が読み出した制御情報を前記制御対象機器に送信する制御情報送信部と
を有することを特徴とする遠隔操作装置。
A remote operation device that operates a control target device depending on an action of an operator with respect to the input device, using a predetermined specific object as an input device,
An operation operation detector for detecting an operation operation on the input device;
Based on the content of the operation motion detected by the operation motion detection unit and the correspondence between the content of the operation motion set in advance and the content of operating the device to be controlled, to the corresponding device to be controlled A control information reading unit for obtaining the content of the operation of
A remote operation device comprising: a control information transmitting unit that transmits the control information read by the control information reading unit to the control target device.
前記操作動作検出部は、
物体までの距離情報を取得するための距離情報取得部を有し、
前記距離情報を用いて前記物体の形状を認識し、前記物体の形状に基づいて、前記あらかじめ設定された入力装置を検出することを特徴とする請求項1に記載の遠隔操作装置。
The operation motion detector is
It has a distance information acquisition unit for acquiring distance information to the object,
The remote control device according to claim 1, wherein the distance information is used to recognize a shape of the object, and the preset input device is detected based on the shape of the object.
前記操作動作検出部は、
物体までの距離情報を取得するための距離情報取得部と、
前記物体の映像情報を取得するための映像取得部とを有し、
前記距離情報を用いて前記物体の形状を認識し、前記物体の形状と前記映像情報との両方に基づいて、前記あらかじめ設定された入力装置を検出することを特徴とする請求項1に記載の遠隔操作装置。
The operation motion detector is
A distance information acquisition unit for acquiring distance information to the object;
A video acquisition unit for acquiring video information of the object,
The shape of the object is recognized using the distance information, and the preset input device is detected based on both the shape of the object and the video information. Remote control device.
前記操作動作検出部は、
前記距離情報取得部を用いて操作者の手・指までの距離情報を取得し、
前記特定の物体までの距離情報と前記操作者の手・指までの距離情報との両方を用いて、前記操作動作の検出を行うことを特徴とする、請求項2または請求項3のいずれか1項に記載の遠隔操作装置。
The operation motion detector is
Using the distance information acquisition unit to acquire distance information to the operator's hand / finger,
4. The operation operation is detected by using both distance information to the specific object and distance information to the operator's hand / finger. The remote control device according to item 1.
前記操作動作検出部は、
前記特定の物体への接触の内容を検出し、
予め設定されている前記操作動作の内容と前記操作動作検出部の検出した接触の内容とに基づいて対応する操作動作の内容を求めることを特徴とする、請求項1から4までのいずれか1項に記載の遠隔操作装置。
The operation motion detector is
Detecting the content of contact with the specific object;
The content of the operation operation corresponding to the content of the operation operation set in advance and the content of the contact detected by the operation operation detection unit is obtained. The remote control device according to item.
前記接触の内容は、特定の物体と操作者の手・指との相対位置の時間変化又はその軌跡とであることを特徴とする請求項5に記載の遠隔操作装置。   The remote operation device according to claim 5, wherein the content of the contact is a temporal change or a locus of a relative position between the specific object and the hand / finger of the operator. さらに、
前記入力装置の静止状態を検出する入力装置静止検出部を有し、
前記入力装置静止検出部は、
前記特定の物体が静止状態にあるか否かを判断し、静止状態にない場合は、
前記操作動作検出部の検出結果にかかわらず操作動作ではないと判断することを特徴とする、請求項1から6までのいずれか1項に記載の遠隔操作装置。
further,
An input device stationary detector that detects a stationary state of the input device;
The input device stationary detector is
Determine whether the specific object is stationary, and if not,
7. The remote operation device according to claim 1, wherein the remote operation device determines that the operation is not an operation operation regardless of a detection result of the operation operation detection unit. 8.
前記距離情報取得部は、少なくとも2つ以上の映像取得部を有し、前記映像取得部からから得られた複数の映像情報から距離情報を推定することを特徴とする、請求項2から7までのいずれか1項に記載の遠隔操作装置。   The distance information acquisition unit includes at least two or more image acquisition units, and estimates distance information from a plurality of image information obtained from the image acquisition unit. The remote control device according to any one of the above. 請求項1から8までのいずれか1項に記載の遠隔操作装置を有し、
前記遠隔操作装置は、前記特定の物体を用い、或いは、前記特定の物体に代えて媒体上に描画又は表示された図形を用いることを特徴とする遠隔操作システム。
The remote control device according to any one of claims 1 to 8,
The remote operation system uses the specific object, or uses a figure drawn or displayed on a medium instead of the specific object.
JP2012033380A 2012-02-17 2012-02-17 Remote control device and remote control system Pending JP2013172211A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012033380A JP2013172211A (en) 2012-02-17 2012-02-17 Remote control device and remote control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012033380A JP2013172211A (en) 2012-02-17 2012-02-17 Remote control device and remote control system

Publications (1)

Publication Number Publication Date
JP2013172211A true JP2013172211A (en) 2013-09-02

Family

ID=49265912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012033380A Pending JP2013172211A (en) 2012-02-17 2012-02-17 Remote control device and remote control system

Country Status (1)

Country Link
JP (1) JP2013172211A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9746966B2 (en) 2015-03-26 2017-08-29 Fujitsu Limited Touch detection apparatus, touch detection method, and non-transitory computer-readable recording medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH075978A (en) * 1993-06-18 1995-01-10 Sony Corp Input device
JP2001143073A (en) * 1999-11-10 2001-05-25 Nippon Telegr & Teleph Corp <Ntt> Method for deciding position and attitude of object
JP2001216069A (en) * 2000-02-01 2001-08-10 Toshiba Corp Operation inputting device and direction detecting method
JP2009003576A (en) * 2007-06-19 2009-01-08 Canon Inc Appliance control device and control method
JP2011003127A (en) * 2009-06-22 2011-01-06 Toyota Industries Corp Method and device for determining shape coincidence in three dimensions

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH075978A (en) * 1993-06-18 1995-01-10 Sony Corp Input device
JP2001143073A (en) * 1999-11-10 2001-05-25 Nippon Telegr & Teleph Corp <Ntt> Method for deciding position and attitude of object
JP2001216069A (en) * 2000-02-01 2001-08-10 Toshiba Corp Operation inputting device and direction detecting method
JP2009003576A (en) * 2007-06-19 2009-01-08 Canon Inc Appliance control device and control method
JP2011003127A (en) * 2009-06-22 2011-01-06 Toyota Industries Corp Method and device for determining shape coincidence in three dimensions

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9746966B2 (en) 2015-03-26 2017-08-29 Fujitsu Limited Touch detection apparatus, touch detection method, and non-transitory computer-readable recording medium

Similar Documents

Publication Publication Date Title
TWI722280B (en) Controller tracking for multiple degrees of freedom
WO2014147858A1 (en) Three-dimensional unlocking device, three-dimensional unlocking method and program
KR20170026164A (en) Virtual reality display apparatus and display method thereof
WO2014141504A1 (en) Three-dimensional user interface device and three-dimensional operation processing method
US20150262002A1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
CN105992988A (en) Method and device for detecting a touch between a first object and a second object
JP7079848B2 (en) Coordinate system alignment of the coordinate system used in computer-generated reality and haptic devices
JP2010067062A (en) Input system and method
WO2016053320A1 (en) Gesture based manipulation of three-dimensional images
JP2017199289A (en) Information processor, control method thereof, program, and storage medium
JP6381361B2 (en) DATA PROCESSING DEVICE, DATA PROCESSING SYSTEM, DATA PROCESSING DEVICE CONTROL METHOD, AND PROGRAM
JPWO2017057106A1 (en) Input device, input method, and program
JP2020137000A (en) Video recording device and head-mounted display
JP6866467B2 (en) Gesture recognition device, gesture recognition method, projector with gesture recognition device and video signal supply device
JP5863984B2 (en) User interface device and user interface method
JP6746419B2 (en) Information processing apparatus, control method thereof, and computer program
JP2013172211A (en) Remote control device and remote control system
JP6319220B2 (en) Transparent wearable terminal, data processing apparatus, and data processing system
JP6882147B2 (en) Operation guidance system
JP6643825B2 (en) Apparatus and method
JP2013178645A (en) Input device of electronic apparatus
US11501459B2 (en) Information processing apparatus, method of information processing, and information processing system
JP2021039567A (en) Work support system and program
JP6709022B2 (en) Touch detection device
JP7427937B2 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150819

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160223