JP2013172211A - Remote control device and remote control system - Google Patents
Remote control device and remote control system Download PDFInfo
- Publication number
- JP2013172211A JP2013172211A JP2012033380A JP2012033380A JP2013172211A JP 2013172211 A JP2013172211 A JP 2013172211A JP 2012033380 A JP2012033380 A JP 2012033380A JP 2012033380 A JP2012033380 A JP 2012033380A JP 2013172211 A JP2013172211 A JP 2013172211A
- Authority
- JP
- Japan
- Prior art keywords
- input device
- distance information
- remote
- information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、任意の物体に対して行う動作によって所定の機器を操作する遠隔操作技術に関する。 The present invention relates to a remote operation technique for operating a predetermined device by an operation performed on an arbitrary object.
従来、電子機器等を離れたところから操作したいというニーズを満たすために、主にリモートコントローラー(以下「リモコン」と称する。)が用いられてきた。リモコンは、ボタンを押すだけという非常に少ない労力で操作が可能であるという大きなメリットを持っているが、リモコンの置き場所がわからなくなってしまい、操作ができないという状態にしばしば陥るという問題がある。 Conventionally, a remote controller (hereinafter referred to as “remote controller”) has been mainly used to satisfy the need to operate an electronic device or the like from a remote location. The remote control has the great merit that it can be operated with very little effort by just pressing a button, but there is a problem that it often falls into a state where it cannot be operated because the location of the remote control is lost.
この問題を解決するために、紛失する心配がない操作者の手自体を用い、ジェスチャーにより操作を行う手法が提案されている(下記特許文献1参照)。 In order to solve this problem, there has been proposed a method of performing an operation by a gesture using an operator's hand which does not have to be lost (see Patent Document 1 below).
また、撮影装置を用いて取得した身近にある任意の物体の時間的な位置変化や角度変化を、操作に用いるという手法も提案されている(下記特許文献2参照)。この手法によれば、触覚的なフィードバックが得られないという問題は解決することができる。 In addition, a technique has been proposed in which a temporal positional change or angular change of an arbitrary object that is obtained using a photographing apparatus is used for an operation (see Patent Document 2 below). According to this method, the problem that tactile feedback cannot be obtained can be solved.
しかしながら、特許文献1に記載の技術に用いるジェスチャー入力では、概して操作者は手を大きく動かす必要があり、また日常的な動作としての手の動きによる誤入力を防ぐために、操作を行うにあたって特殊な動作を要するなど、リモコンと比較して大きな動作を必要とし、狭い場所での操作が難しい上に、操作自体も煩わしさを感じやすかった。また操作に対して触覚的なフィードバックを得られないことから、操作できているかどうかを確認することが難しかった。 However, in the gesture input used in the technique described in Patent Document 1, the operator generally needs to move his hand greatly, and in order to prevent erroneous input due to hand movement as a daily operation, a special operation is performed. The operation required a large operation compared to the remote control, and it was difficult to operate in a narrow place, and the operation itself was easy to feel troublesome. Also, since tactile feedback cannot be obtained for the operation, it is difficult to check whether the operation is possible.
また、特許文献2に記載の技術では、入力装置として用いる物体自体を動かす必要があり、リモコンの操作に比べると大きな動作が求められるという点に関しては解決されていない。さらに、身近にあるものでも、サイズの大きなものや重いものは、実用上入力装置に使えなかった。 Further, in the technique described in Patent Document 2, it is necessary to move an object itself used as an input device, and it has not been solved with respect to the point that a large operation is required as compared with the operation of a remote controller. Furthermore, even those close to us, large ones and heavy ones could not be practically used as input devices.
本発明は、リモコンのように数が限られた共有の専用機器ではなく、身近に存在しユーザが自由に用いることができる物体を用いて、機器の操作を可能とする遠隔操作技術を提供することを目的とする。 The present invention provides a remote operation technique that enables an apparatus to be operated using an object that is close to the user and can be freely used by a user, not a shared dedicated apparatus such as a remote controller. For the purpose.
本発明の一観点によれば、あらかじめ設定された特定の物体を入力装置として、前記入力装置に対する操作者の動作に依存して制御対象装置を操作する遠隔操作装置であって、前記入力装置に対する操作動作を検出する操作動作検出部と、前記操作動作検出部が検出した操作動作の内容と、予め設定されている前記操作動作の内容と前記制御対象装置を操作する内容との対応関係と、に基づいて、対応する前記制御対象装置への操作の内容を求める制御情報読み出し部と、前記制御情報読み出し部が読み出した制御情報を前記制御対象機器に送信する制御情報送信部と、を有することを特徴とする遠隔操作装置が提供される。 According to one aspect of the present invention, a remote operation device that operates a control target device depending on an operation of an operator with respect to the input device using a preset specific object as an input device, the remote control device with respect to the input device. An operation operation detection unit for detecting an operation operation, the content of the operation operation detected by the operation operation detection unit, a correspondence relationship between the content of the operation operation set in advance and the content of operating the device to be controlled; A control information reading unit that obtains the content of the operation on the corresponding control target device based on the control information, and a control information transmission unit that transmits the control information read by the control information reading unit to the control target device. A remote control device is provided.
前記特定の物体までの距離情報を取得するための距離情報取得部を有し、前記操作動作検出部は、前記距離情報を用いて前記特定の物体の形状を認識し、前記特定の物体の形状に基づいて前記入力装置に対する操作動作の検出を行うことが好ましい。 A distance information acquisition unit configured to acquire distance information to the specific object, wherein the operation motion detection unit recognizes the shape of the specific object using the distance information, and the shape of the specific object; It is preferable to detect the operation of the input device based on the above.
さらに、前記特定の物体の映像情報を取得するための映像取得部を有し、前記操作動作検出部は、前記物体の形状と前記映像情報との両方を用いて、前記操作動作の検出を行うようにしても良い。 Furthermore, it has a video acquisition unit for acquiring video information of the specific object, and the operation motion detection unit detects the operation motion using both the shape of the object and the video information. You may do it.
また、前記操作動作検出部は、前記特定の物体への接触の内容を検出し、予め設定されている前記操作動作の内容と前記操作動作検出部の検出した接触の内容とに基づいて対応する操作動作の内容を求めることが好ましい。 The operation motion detection unit detects the content of contact with the specific object, and responds based on the content of the operation motion set in advance and the content of contact detected by the operation motion detection unit. It is preferable to obtain the contents of the operation action.
前記動作の内容は、特定の物体とユーザの手・指との相対位置の時間変化又はその軌跡とであることが好ましい。 It is preferable that the content of the operation is a temporal change in the relative position between the specific object and the user's hand / finger or a locus thereof.
さらに、前記入力装置の静止状態を検出する入力装置静止検出部を有し、前記入力装置静止検出部は、前記特定の物体が静止状態にあるか否かを判断し、静止状態にない場合は、前記操作動作検出部の検出結果にかかわらず操作動作ではないと判断するが好ましい。 Furthermore, it has an input device stationary detector for detecting the stationary state of the input device, and the input device stationary detector determines whether or not the specific object is in a stationary state. It is preferable to determine that the operation is not an operation regardless of the detection result of the operation operation detector.
また、前記操作動作検出部は、前記距離情報と前記映像情報との両方を用いて、操作動作を検出するようにしても良い。 In addition, the operation operation detection unit may detect an operation operation using both the distance information and the video information.
前記距離情報取得部は、少なくとも2つ以上の映像取得部を有し、前記映像取得部からから得られた複数の映像情報から距離情報を推定することが好ましい。 It is preferable that the distance information acquisition unit includes at least two or more video acquisition units and estimates distance information from a plurality of video information obtained from the video acquisition unit.
また、本発明は、さらに、上記のいずれかに記載の入力装置を有し、前記入力装置は、前記特定の物体を用い、或いは、前記特定の物体に代えて媒体上に描画又は表示された図形を用いることを特徴とする遠隔装置システムである。 Furthermore, the present invention further includes the input device according to any one of the above, wherein the input device uses the specific object, or is drawn or displayed on a medium instead of the specific object. A remote device system characterized by using graphics.
本発明によれば、身近にある物体に触れるという動作によって、機器の操作を行うことができる。また機器の操作ではない物体本来の用途で使用する際に誤動作してしまうことを防ぐことができる。 According to the present invention, it is possible to operate a device by an operation of touching a nearby object. In addition, it is possible to prevent malfunctions when the object is used for an original purpose that is not an operation of the device.
以下、添付図面を参照しながら、本発明に係る遠隔操作システムの好適な実施の形態について詳細に説明する。 Hereinafter, preferred embodiments of a remote control system according to the present invention will be described in detail with reference to the accompanying drawings.
本明細書において、動作とは、本発明における遠隔操作装置が捉えるユーザの動き一般を称し、例えば、タップ、スワイプなどの操作のための指の動きなどを含むが、必ずしも機器制御を目的としない。 In this specification, the term “motion” refers to general user movements captured by the remote control device according to the present invention, and includes, for example, finger movements for operations such as taps and swipes, but is not necessarily intended for device control. .
制御とは、対象機器の状態を変更させるために行われる、機器内部での処理を指し、例えば、テレビをオン、オフするなどの処理を指す。 Control refers to processing inside the device that is performed to change the state of the target device, for example, processing such as turning on or off the television.
操作とは、制御を引き起こすために機器の外側から与えられる行為を指し、例えば、リモコンを機器に向けてボタンを押す、機器に備え付けられたボタンを押すなどの行為を指す。 The operation refers to an action given from the outside of the device in order to cause control, for example, an operation such as pressing a button with the remote controller pointing at the device or pressing a button provided on the device.
操作動作とは、一般的には機器制御とは無関係な動作に過ぎないが、本発明における遠隔操作装置を用いることによって、操作として扱うことが可能となる、機器制御を目的として入力装置に対して行う、特別な動作を指し、図8、図9などで例示されている。 The operation operation is generally only an operation irrelevant to the device control. However, by using the remote operation device according to the present invention, it can be handled as an operation with respect to the input device for the purpose of device control. 8, FIG. 9, and the like.
(第1の実施形態)
本発明の第1の実施形態について、図面を参照しながら説明する。図1Aは、本発明の第1の実施形態に係る遠隔操作システムの構成例を示すブロック図である。図1Bは、遠隔操作システムのうち、入力装置登録部の一構成例を示す機能ブロック図である。図1Cは、遠隔操作システムのうち、操作内容登録部の一構成例を示す機能ブロック図である。図1Dは、遠隔操作システムのうち、動作検出部の一構成例を示す機能ブロック図である。図2は、図1Aのブロック図の一部を具体的な外観イメージ例として表した図面であり、図中の番号は図1Aと対応させて付している。
(First embodiment)
A first embodiment of the present invention will be described with reference to the drawings. FIG. 1A is a block diagram illustrating a configuration example of a remote control system according to the first embodiment of the present invention. FIG. 1B is a functional block diagram illustrating a configuration example of the input device registration unit in the remote operation system. FIG. 1C is a functional block diagram illustrating a configuration example of an operation content registration unit in the remote operation system. FIG. 1D is a functional block diagram illustrating a configuration example of the motion detection unit in the remote operation system. FIG. 2 is a drawing showing a part of the block diagram of FIG. 1A as a specific appearance image example, and the numbers in the drawing are attached in correspondence with FIG. 1A.
図1Aに示すように、本実施形態による遠隔操作システムAは、入力装置100と、遠隔操作装置Bと、を含み、制御対象機器103を制御する例を示す。遠隔操作装置Bは、動作検出装置101と、制御信号送信装置102と、制御部101cと、メモリ101dと、を有している。動作検出装置101は、入力装置100、又は入力装置100とその周囲の映像および距離情報を取得するカメラなどから成る撮影部101aと、撮影部101aによって得られた映像と距離情報とから操作者100aの動作を検出する動作検出部101bと、を有する。制御信号送信装置102は、動作検出装置101によって検出された動作に対応する操作の制御信号を読み出し、制御信号を制御対象機器103へと送信する。制御部101cは、入力装置登録部1と操作内容登録部3とを有し、メモリ101dは、後述するテーブルを格納するテーブル格納部5を有しており、また、制御部101cに、各種の処理を実行させるプログラムを格納するのが一般的である。制御対象機器103は、ここではテレビジョン受信装置(以下「テレビ」と称する。)を例示しており、テレビをリモコンで操作する場合と同様の制御が行われる様子を以下に説明する。
As shown in FIG. 1A, the remote operation system A according to the present embodiment includes an
図1Bは、入力装置登録部1の一構成例を示す機能ブロック図であり、入力装置100を検出する入力装置検出部1−1と、入力装置100を認識する入力装置認識部1−2と、機器操作に利用可能な動作を設定する動作種類設定部1−3と、入力装置の登録を行う入力装置登録処理部1−4と、を有している。
FIG. 1B is a functional block diagram illustrating a configuration example of the input device registration unit 1. The input device detection unit 1-1 detects the
操作内容登録部3は、入力装置100の指定を行う入力装置指定部3−1と、操作動作の指定を行う操作動作指定部3−2と、対応する動作を選択する対応操作選択部3−3と、設定内容を登録する設定内容登録部3−4と、表示部3−5を有している。
The operation content registration unit 3 includes an input device designating unit 3-1 for designating the
図1Dは、動作検出部101bの一構成例を示す機能ブロック図である。動作検出部101bは、映像・距離情報取得部11と、入力装置及び操作準備検出部12と、入力装置動き検出部13と、操作動作検出部14と、登録済み動作比較部15と、入力装置静止検出部16と、動作情報読み出し部17と、動作情報送信部(指示部)18と、を有している。
FIG. 1D is a functional block diagram illustrating a configuration example of the
図2に示すように、本実施の形態による遠隔操作装置Bを含む遠隔操作システムにおいて、入力装置(被写体)100は、入力動作を行う対象となる任意の物体であり、本実施形態では、チューイングガムのボトルを例にして以下に説明する。入力装置100は、例えば、被写体ではないテーブル110の上に置かれている。制御対象機器103は、操作の対象となる例えば家電機器であり、本実施形態では、テレビである。図1Aでは、便宜上、遠隔操作装置Bと制御対象機器103が別々に描いているが、本実施形態では制御対象機器103に、動作検出装置101と制御信号送信装置102とがあらかじめ組み込まれている例について説明する。その他の入力装置として既存のリモコン107を用いることもできる。ここでは、テレビ103に取り付けられている撮影部(カメラ)101aが、入力装置100を撮影できる位置に設けられている。
As shown in FIG. 2, in the remote control system including the remote control device B according to the present embodiment, an input device (subject) 100 is an arbitrary object to be subjected to an input operation. In the present embodiment, chewing gum An example of this bottle will be described below. For example, the
入力装置の登録処理について、図3のフローチャート図を参照しながら説明する。最初に遠隔操作装置Bを登録用のモードへ移行させる。登録用のモードへの移行を行う操作は、遠隔操作装置Bが制御対象機器103に組み込まれているため、従来と同様にリモコン107を使用することができる。さらにリモコン107を操作して処理を開始し、ステップS0で入力装置登録を選択し、入力装置登録のフローへ移行する。
The input device registration process will be described with reference to the flowchart of FIG. First, the remote control device B is shifted to a registration mode. Since the remote control device B is incorporated in the
続くステップS1では、入力装置検出部1−1が、入力装置を検出する。まず入力装置100を取り除いた状態の周囲にあるテーブル110を動作検出装置101の撮影部101aで撮影する。入力装置登録時に、撮影映像は制御対象機器103の画面上に随時表示されていることが好ましい。画面を確認して問題なければ、リモコン107を操作し、続いて入力装置100をテーブル110の上に置いた状態を撮影部101aで撮影する。テーブル110の画像とテーブルと入力装置100とテーブル110との画像の2つの撮影画像の差分から、入力装置100が特定され、画面に表示される。入力装置100が正しく特定されたことを確認した後にリモコン107を操作して次のステップへ進む。この時点で入力装置100には、他の登録された入力装置と区別するための一意の識別情報(識別子、ID)が与えられる。
In subsequent step S1, the input device detection unit 1-1 detects the input device. First, the table 110 around the state where the
ステップS2では、入力装置認識部1−2が、ステップS1で検出された入力装置100を例えば回転させて撮影することで、入力装置100の大きさと形状とを認識する。撮影部101aには映像だけでなく、距離情報を取得する測距機能があるため、映像内の任意の点に関してカメラの光軸方向の距離を知ることができる。また、撮影部101aのレンズの画角や焦点距離などのカメラパラメータを利用すると、カメラの光軸に垂直な平面を撮影した際、撮影映像におけるある画素数の長さが、実際の平面上でいくつの距離に相当するかを求めることができる。
In step S2, the input device recognition unit 1-2 recognizes the size and shape of the
従って、映像内の任意の点に関して、カメラの光軸に垂直な平面上での距離(x軸、y軸)と、カメラの光軸方向の距離(z軸)とがわかり、カメラを基準にしたxyz空間における三次元座標を決定することができる。そのため、入力装置100の各部位の絶対的な大きさや形状を得ることが可能である。
Therefore, the distance (x-axis, y-axis) on the plane perpendicular to the optical axis of the camera and the distance (z-axis) in the optical axis direction of the camera can be known for any point in the image. The three-dimensional coordinates in the xyz space can be determined. Therefore, the absolute size and shape of each part of the
さらに、入力装置を水平方向に一周ずつ回しながら撮影することによって、撮影における死角を少なくして、実際の操作時に動作検出装置101が入力装置100を見失ってしまう可能性を軽減するとともに、予め用意した形状テンプレートと比較することにより、入力装置が円柱であるのか直方体であるのかなどの形状の認識処理を行うことが可能である。
Furthermore, by shooting while rotating the input device one by one in the horizontal direction, the blind spot in shooting is reduced, and the possibility that the
ここで、映像情報と距離情報の両方を取得できるカメラの構成について説明する。そのようなカメラの構成方法は大きく二つに分けられる。一つは映像情報と距離情報を異なるセンサを用いて取得方法であり、もう一つは複数の映像情報を取得し、得られた複数の映像情報から距離情報を推定する方法である。どちらの場合においても、映像情報の取得には、一般的なCMOSイメージセンサやCCDイメージセンサを用いることが出来る。一方の距離情報を別途取得する方法はいくつかあるが、代表的なものとしては、赤外のパルス光を被写体に照射し、その反射光におけるパルスの位相遅れを計測することで距離を求めるTOF(Time of Flight)法や、赤外レーザーによる幾何パターンを照射し、被写体上におけるパターンの歪みから距離を求める方法がある。複数の映像情報からの距離情報推定については、並行配置した二台のカメラによる撮影画像に対してステレオマッチングを行って、カメラ間で対応する点が撮影画像上でどれだけ離れているかを求め、カメラパラメータを用いてそれを距離に変換する方法が挙げられる。距離を取得する方法にいずれを用いても本発明の効果を得ることが可能であるが、距離の分解能や精度が高い程、本発明による動作の検出精度もまた向上する。なお、レンズ歪等の影響が撮影画像に残っている場合、画面中央に比べて周囲では映像が圧縮されてしまうことで物体の長さを求める際の誤差を生むため、十分な歪補正を行なっておくことが望ましい。 Here, a configuration of a camera capable of acquiring both video information and distance information will be described. Such a camera configuration method can be roughly divided into two. One is a method for acquiring video information and distance information using different sensors, and the other is a method for acquiring a plurality of video information and estimating the distance information from the obtained plurality of video information. In either case, a general CMOS image sensor or CCD image sensor can be used to acquire video information. There are several methods for acquiring the distance information separately. As a typical method, TOF is used to obtain the distance by irradiating the subject with infrared pulsed light and measuring the phase delay of the pulse in the reflected light. There are a (Time of Flight) method and a method of obtaining a distance from a pattern distortion on an object by irradiating a geometric pattern by an infrared laser. For distance information estimation from multiple video information, stereo matching is performed on images taken by two cameras arranged in parallel, and how far the corresponding points between the cameras are on the captured image, There is a method of converting it into a distance using a camera parameter. The effect of the present invention can be obtained regardless of which method is used to acquire the distance. However, the higher the distance resolution and accuracy, the better the detection accuracy of the operation according to the present invention. If the effect of lens distortion, etc. remains in the captured image, the image will be compressed in the surroundings compared to the center of the screen, causing an error in determining the length of the object, so sufficient distortion correction is performed. It is desirable to keep it.
TOF法などを用いるために映像用のセンサと距離情報用のセンサを利用した場合、距離精度そのものは距離情報用センサの能力に依存するが、その距離情報が映像のどの座標の被写体のものであるか正しく対応をとることが難しい。2つのセンサの光学的な特性が異なるため画角等を正確に合わせるのが困難であることに加え、2つのセンサ間で視差が存在することによって、ある座標の距離情報が映像のどの座標の被写体のものであるかを求めることは出来てもその関係が上への1対1ではないので、映像の座標に対応する距離情報が複数現れたり、該当する距離情報がなかったりしてしまうからである。 When a video sensor and a distance information sensor are used to use the TOF method or the like, the distance accuracy itself depends on the ability of the distance information sensor, but the distance information is that of the subject at any coordinate of the video. It is difficult to take a correct response. In addition to the fact that the optical characteristics of the two sensors are different, it is difficult to accurately match the angle of view, etc. In addition, because of the parallax between the two sensors, the distance information of a certain coordinate indicates which coordinate of the image Although it is possible to determine whether the subject is a subject, the relationship is not one-on-one, so that multiple distance information corresponding to the coordinates of the video appears or there is no corresponding distance information. It is.
可能な限り、各センサの光学的な特性を合わせ、ハーフミラーを用いて入力に視差が生じないようにするなどして、映像と距離情報との間での座標のずれがあまり生じないようにしておくことが望ましい。 As much as possible, adjust the optical characteristics of each sensor and use a half mirror to prevent parallax in the input, so that there is not much coordinate shift between the image and distance information. It is desirable to keep it.
一方、ステレオマッチングを用いて距離情報を推定する場合は、ステレオマッチングの原理上、映像内の任意の座標に対して、その座標に映った被写体までの距離を求めることになるため、このような映像と距離情報との間での座標のずれはあまり考慮しなくてもよいが、距離情報の精度に影響するため、ステレオマッチングに用いるカメラは特性が近いものを用い、キャリブレーションによってカメラ間で光軸が平行になるようにしておくことが望ましい。 On the other hand, when estimating distance information using stereo matching, the distance to the subject reflected in the coordinates is obtained for any coordinates in the video, based on the principle of stereo matching. The difference in coordinates between the image and the distance information does not need to be taken into account so much. However, since it affects the accuracy of the distance information, the cameras used for stereo matching should have similar characteristics. It is desirable to keep the optical axes parallel.
ここで、入力装置100の絶対的な大きさや形状を求めた理由は、対象を限定しない物体の認識は本来困難であるが、この認識を容易に行うためである。物体認識技術の多くは、認識される物体を区別可能とする特徴的な要素があらかじめわかっていることを前提としている。例えば、人の顔の認識であれば顔全体の形、肌の色、目や鼻や口の相対的な位置関係などを拠り所にして、映像から人の顔である可能性の高い物体を探す。しかしながら、本実施形態では、入力装置を限定していないため、あらかじめ映像としての特徴的な要素がわかっているわけではなく、したがって映像としての情報のみで特定の物体を認識することは非常に難しい。しかし、物体の大きさや形状の情報は、それ自体がその物体を他の物体等と区別する特徴的な要素である。例えば、似た形状、似た色であるが大きさが異なる2つの物体は、画像としての情報だけではその2つを判別することは困難であるが、大きさの情報があれば容易に区別することができる。あるいは同じ形状で色違いの2つの物体があった場合、大きさや形状の情報だけではこの2つを区別することができないが、画像としての情報を用いると容易に区別することができる。このように画像としての情報と、大きさや形状の情報とを組み合わせて用いることで、認識の難易度を大幅に低下させることが可能である。
Here, the reason why the absolute size and shape of the
続く、ステップS3では、操作者100aが登録した入力装置100に対して行うどのような動作が機器操作のための特別な動作、すなわち操作動作であるかの定義を動作種類設定部1−3が行う。本実施形態では、入力装置100に対する接触を用いた操作動作の例として、タップ、スワイプ、トレースについて以下で説明する。
Subsequently, in step S3, the action type setting unit 1-3 defines what action is performed on the
入力装置100との接触を判定するので、操作者100aの手についても検出する必要がある。しかし、手は色や形状などの個人差が比較的少ないため、その代表的なパターンをテンプレートとして持っておき、撮影映像内の動体をテンプレートと比較することで比較的容易に検出することが可能である。入力装置100に操作者の手を触れ、すぐに手を離す動作をタップと呼ぶ。タップを検出するには、操作者の手と入力装置100とが撮影映像において重なっていることと、その2つの距離情報がほぼ一致していることを検出すればよい。この2つを検出の条件とすることで、距離が離れているのに画像上では重なって見える場合を除外して、誤操作を減らすことができる。
Since contact with the
ここで、距離情報の一致について補足する。操作者100aの手と入力装置100とが接触していて、かつ、接触部分が撮影部101aから撮影できている場合であれば、距離情報がほぼ一致するが、接触部分が手によって遮られている場合もありうる。この場合は、撮影部101aから見た手の厚さの分だけ、手と入力装置100とでは距離情報に差が出てしまう。そのため、手の厚さおよび撮影部101aから見込んだ角度に応じて手の厚さが変化することを考慮して、手と入力装置100との距離情報の差が一定値以下であれば接触しているとみなすようにすることが望ましい。その際の距離情報の差のしきい値は、手を使って触れる場合であれば、例えば2〜3cm程度が適当である。なお、距離情報の分解能や精度が不十分な場合には、さらに大きな値としても良い。また、接触の判定を入力装置に触れた瞬間に行うのではなく、離したときに入力装置100が動いていないかという判断も加えて行うことで、操作を行ったのか単に持ち上げるために触れたのかを区別し、操作目的でない場合の誤認識を防止することが可能となる。操作のために触れたと判定する接触時間に下限や上限を設けることもまた誤認識の防止に有効である。また、タップする位置によって異なる操作動作として設定することもできる。
Here, it supplements about the coincidence of distance information. If the hand of the
例えば、入力装置100であるチューイングガムのボトルの上面と側面とで異なる操作動作とすることや、あるいは、ボトルの側面についても撮影部100aから見て右側からのタップなのか左側からのタップなのかでそれぞれ異なる操作動作として設定することもできる。また、タップを続けて複数回行った場合を区別し、行った回数によってシングルタップ、ダブルタップ、トリプルタップのように異なる操作動作として設定することも出来る。
For example, different operation operations may be performed on the upper and side surfaces of the chewing gum bottle that is the
タップと同様の方法で、スワイプを検出することも可能である。スワイプとは、手を入力装置100の表面に触れた状態から、入力装置100は動かさずに手だけをそのまま移動させることを指す。操作者100aと操作者100aの手との位置関係から、操作者100aから見た上下左右の方向を判断し、それに基づいたスワイプの方向によって異なる操作動作として設定することも可能である。
It is also possible to detect a swipe in the same way as a tap. Swipe refers to moving only the hand without moving the
面に対して表面に触れながら手を移動させる動作であるスワイプと同様に、線に対してその表面に沿ってなぞるように手を移動させるという動作を利用することもできる。これをトレースと呼ぶこととする。入力装置100の特定の縁や、入力装置100の表面の模様の特定箇所に沿ってトレースすることもまた一つの操作動作として設定することができる。さらにトレースを時計回りに行うか反時計回りに行うかといったように、トレースの方向によって異なる操作動作として設定することもできる。
Similar to swipe, which is an operation of moving the hand while touching the surface with respect to the surface, an operation of moving the hand along the surface with respect to the line can also be used. This is called a trace. Tracing along a specific edge of the
尚、操作動作の内容は、特定の物体とユーザの手・指などとの相対位置の時間変化又はその軌跡として捉えることができる。 Note that the content of the operation operation can be grasped as a change in time or a locus of the relative position between the specific object and the user's hand / finger.
また、本実施形態での入力装置100であるチューイングガムのボトルを通常の用途で利用する際に行う動作を考えると、テーブルに置かれた状態のまま、あるいは持ち上げてから、ボトルが動かないようにつかんでフタを開けるという動作を行う。この通常の動作と大きく異なる動作、例えばテーブルから離さずに平行移動させる、ボトルを横に倒して転がす、といった通常の用途では用いない動作を操作動作として利用することで、通常の動作と区別し、誤動作を防ぐようにすることも可能である。
In addition, considering the operation performed when the bottle of chewing gum, which is the
このような操作動作に関して、登録した入力装置で利用可能なものをこのステップで設定する。ここで設定した各操作動作に対して、図4の操作動作識別テーブルに示したような、操作動作識別情報が割り当てられる。これらの操作動作識別情報は、入力装置100毎に設定される。続くステップS4では、入力装置登録処理部1−4が、ステップS2で得られた入力装置100の識別のための情報と、ステップS3で設定された入力装置で利用可能な操作動作識別情報とを、動作検出装置101に登録する。
With respect to such an operation, what can be used in the registered input device is set in this step. The operation operation identification information as shown in the operation operation identification table of FIG. 4 is assigned to each operation operation set here. The operation operation identification information is set for each
続いて、同じく図3を参照して、入力装置100に対する操作動作を機器の特定の操作へと関連付ける、操作内容登録部3による操作登録について説明する。まず、リモコンを操作して、操作登録のフローへ移行する。ステップT1では、表示部3−5に動作検出装置101に登録された入力装置の一覧が表示されるので、そこから機器の操作に利用する入力装置100を指定する。ここでは制御対象機器103であるテレビの画面が表示部3−5を兼ねており、テレビ103の画面に表示された登録済みの入力装置の一覧を見ながら、リモコン操作によって入力装置指定部3−1への指示を行う。ステップT2では、ステップT1で選択された入力装置の操作動作内容の一覧が表示部3−5に表示されるので、その中のいずれの操作動作を選択するか、リモコンを用いて操作動作内容指定部3−2に対して指示を行う。ステップT3では選択した操作動作に、どの制御対象機器に対してどの操作内容を設定するか、リモコンを用いて対応操作選択部3−3に対して指示を行う。制御対象機器103とその操作内容については、本実施形態では動作検出装置101が制御対象機器103に組み込まれているため、製品としての製造の過程ですでに制御対象機器103に登録済みである。ここで、あらかじめ登録されている情報のみではなく、制御対象機器のメーカー名と型番といった識別可能な情報から、インターネット上に設けられたデータベースを参照して、操作内容の一覧を取得して利用してもよい。すべての必要な操作動作の設定が終わると、設定内容登録部3−4が、ステップT4において、これまで設定した操作動作識別情報と制御内容との対応関係を、制御情報識別テーブルとして動作検出装置101に登録する。
Next, the operation registration by the operation content registration unit 3 that associates the operation operation on the
図5は、ここで割り当てた操作動作識別情報(ID)と制御(動作)内容との例を示している。例えば、図4の動作識別テーブルより、入力装置100の上面をシングルタップする動作を表す操作動作識別情報は“AA0A1”で示される。図5の制御情報識別テーブルより、“AA0A1”という操作動作識別情報はテレビのヘルプ表示に対応付けられているので、入力装置100の上面をシングルタップするという動作が、テレビのヘルプ表示という制御装置の操作に割り当てられたということになる。操作動作識別情報は、動作検出装置101の内部データであるため、画面には表示されない。また図中に具体例を示してはいないが、制御情報についても特定の制御内容を表す識別情報の形で保存されて、のちに述べる制御信号送信装置102で利用される。
FIG. 5 shows an example of the operation action identification information (ID) and control (action) contents assigned here. For example, from the operation identification table of FIG. 4, the operation operation identification information indicating the operation of single-tapping the upper surface of the
図6は、実際に入力装置100を用いて制御対象機器103を操作する際の処理の流れを示すフローチャート図である。再び、リモコン107を操作して動作検出のモードに移行する。操作を行う際は、入力装置100をテーブル110の上に置く。入力装置100を置く場所は、必ずしも登録に用いたテーブル110の上である必要はなく、撮影部100aから撮影可能な範囲内の位置にあれば床の上などでも良い。動作検出モード時は、常に動作検出装置101の動作検出部101bにおける映像・距離情報取得部11は、映像と距離情報を取得し続ける(ステップU1)。
FIG. 6 is a flowchart showing a flow of processing when the
ステップU2では、入力装置及び操作準備検出部12が、登録済みの入力装置が映像内にあるかどうかの検出と、撮影画像内に手があるかどうかを検出する。ここで登録済みの入力装置と操作者の手の両方が検出された場合は、ステップU3へ進む。検出されなかった場合はステップU1に戻り、検出されるまで撮影を続ける。
In step U2, the input device and operation
ステップU3では、入力装置動き検出部13が、検出された入力装置が静止しているかどうかを、静止状態があらかじめ設定した一定時間以上継続されているかどうかによって判断する。静止していることを確認できたら、次のステップU4に進む。
In step U3, the input
ステップU4では、操作動作検出部14が、操作者の手の動きを検出し、登録済み動作比較部15が登録済みの操作動作に一致するかどうかを判定する。一致したと判断された場合、その動作が終了した後も入力装置100が静止しているかどうかを判別する。ここで静止状態にあるかどうかを判別する理由は、入力装置100はチューイングガムのボトルであり、制御対象機器102を操作する以外にも、本来の使い方である中のチューイングガムを取り出すために利用される可能性があり、その行為の際にも登録済み操作動作に一致する動作を行う可能性があるからである。
In step U4, the operation
このように操作目的以外でない、入力装置本来の用途で操作動作に一致する動作が行われる場合は、持ち上げられることで入力装置の位置が変化したり、ボトルのフタを開けることで形状が変化するなど、多くの場合は入力装置の状態に変化が生じる。したがって入力装置100が静止状態にあるかどうかを入力装置静止検出部16によって判断することによって、制御対象機器103を操作するために動作を行ったのか、そうでないのかを区別することが可能となり、操作目的でない動作を操作動作と判定することで生じる誤操作を防止することが出来る。操作動作後も入力装置が静止しており、操作のための動作であったと判断した場合、ステップU5へ進み、動作情報読み出し部17が先の操作動作識別テーブルを参照して操作動作識別情報を取得し、動作情報送信指示部18が、操作動作識別情報を制御信号送信装置102へ送り、次の操作に備えるため再びステップU4に戻って操作者の手の動きを監視する。ステップU2、U3、U4、の検出に対応して、ステップU7、U8、U9、U10のそれぞれの判断ステップが設けられる。
In this way, when an operation corresponding to the operation operation is performed for an original use of the input device other than the operation purpose, the position of the input device is changed by being lifted, or the shape is changed by opening the bottle lid. In many cases, the state of the input device changes. Therefore, by determining whether or not the
制御信号送信装置102では、図5の制御情報識別テーブルを用いて動作情報検出装置101から送信された操作動作識別情報に対応する、制御対象機器103への制御内容を判別し、制御内容に対応した信号を制御対象機器に対して発し、制御対象機器103を操作する。以上により、リモコンのように数が限られた共有の専用機器にとらわれることなく、操作者の身近にある物体を用いて機器を操作することが可能となる。
The control
本実施形態では、動作検出装置101と制御信号送信装置102を入力装置100に組み込んだ例について説明したが、これらの組み込みを行わずに単体で機能するようにしてもよい。動作検出装置101の撮影部101aと動作検出部101bについても同様に、別々に分けてもよい。
In the present embodiment, the example in which the
尚、撮影部101aの設置場所は、入力装置100を置く平面よりも上方に設置することが望ましい。そうすることで、上から見下ろすことになるため、入力装置100があまり高さを持たない場合でも、撮影映像内での入力装置100の面積が大きくなり、入力装置自体の認識や入力装置に対する動作の認識が行い易くなるからである。撮影装置101aや制御装置107を部屋の天井に取り付けると部屋全体を監視できるため、制御対象機器が複数ある場合に特に有用である。
It should be noted that the installation location of the
本実施形態では、動作の種別と動作の対象場所だけを区別していたが、操作者から見た入力装置100の向きや表裏によって、同じ動作を異なった操作動作に割り当てて、割り当て可能な操作動作を増やしてもよい。入力装置100の検出に関して、登録された入力装置100と大きさが一致しない場合でも、円柱状であるか直方体であるかといった形状だけが一致していれば、入力装置100であるとして代用できるようにしてもよい。このようにすることで、例えばコーヒーカップを入力装置として登録した場合に、登録に用いたコーヒーカップが食器洗い器の中で洗浄中であったとしても、別のコーヒーカップを用いて、登録作業をやり直すことなく操作に利用することが可能となる。
In the present embodiment, only the type of operation and the target location of the operation are distinguished. However, the same operation is assigned to different operation operations depending on the orientation and front and back of the
登録した入力装置を、一人の操作者が複数同時に利用してもよいし、複数の操作者がそれぞれ個別に利用してもよい。後者の場合、それまで機器を操作していた操作者とは異なる別の操作者が現れた場合、操作者が一人だけの場合とは異なる処理を行うようにすることもできる。例えば一人目の操作者がこれまでテレビを操作していて、後から操作を始めたもう一人の操作者がチャンネルを変更しようとした場合、チャンネルを本当に変更していいか一人目の操作者に確認する画面を出したり、元々のチャンネルも見続けられるようにテレビを二画面表示に切り替えるかという確認画面を出すといったことができる。 A plurality of registered input devices may be used simultaneously by a single operator, or may be used individually by a plurality of operators. In the latter case, when another operator different from the operator who has operated the device until then appears, it is possible to perform processing different from the case where there is only one operator. For example, if the first operator has operated the TV so far, and another operator who has started operation later tries to change the channel, confirm with the first operator whether the channel can be changed really. Or a confirmation screen asking whether to switch the TV to a two-screen display so that the user can continue to watch the original channel.
以上に説明したように、本実施形態では、身近にある物体に触れるという動作によって、機器の操作を行うことができる。また機器の操作ではない物体本来の用途で使用する際に誤動作してしまうことを防ぐこともできる。 As described above, in the present embodiment, the device can be operated by an operation of touching a nearby object. In addition, it is possible to prevent malfunctions when used for an object intended for an object that is not an operation of the device.
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。第1の実施形態では、入力装置100は、物体であったが、印刷等を行った図形等であっても良い。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the first embodiment, the
本実施形態での入力装置100は、プリンタ等によって幾何学図形が印刷された紙であり、換言すれば、媒体に表示した図形である。紙を入力装置に用いた場合、登録作業において入力装置の画像と距離情報を取得した際に、距離情報がほとんど変化しないことから、入力装置がほとんど厚みを持たないと判断できる。そのような場合は、入力装置である紙自体ではなく、入力装置表面の図形に対して操作動作を行うことで制御対象機器103の操作を行う。
The
すなわち、図7のような六芒星の図形を用いた場合、中心の六角形200、および周辺の6つの三角形201〜206のいずれにタップを行うか、あるいは複数回のタップを何れの部分に対して行うかなどによって異なる操作動作として登録することが出来る。登録データの一例を図8の操作動作識別テーブルに示す。模様が回転していた場合でも正しく判別するために、三角形201だけ塗りつぶして他と区別可能にしている。また、手によるタップを正しく検出するため、操作が異なる図形の各部位は大きさが指先に対して面積が4倍以上であることが望ましい。一つの図形を幾つかの領域に分けて操作を割り当てる他にも、複数の図形を印刷しておき図形単位で操作を割り当てることもできる。
That is, when a hexagonal figure as shown in FIG. 7 is used, a tap is performed on any one of the
あるいは、距離情報によって絶対的な大きさが分かるため、全く同じ図形の大きさだけを変えたものを印刷しておき、大きさ毎に異なる操作を割り当てることもできる。もしくは色だけを変えた図形を複数印刷しておき、色によって区別してもよい。登録した図形を、制御対象機器を利用する際にいつも近くにあるイスやテーブルなどに貼りつけておくことで、操作者が入力装置として利用できる物体を何も持っていない場合でも操作を行うことができる。 Alternatively, since the absolute size can be determined from the distance information, it is possible to print a print with only the same graphic size changed, and assign a different operation for each size. Alternatively, a plurality of figures whose colors are changed may be printed and distinguished by colors. The registered figure is always pasted to a nearby chair or table when using the device to be controlled, so that even if the operator does not have any object that can be used as an input device, it can be operated Can do.
本実施の形態によれば、実際の物体ではなく、図形などに基づいて、装置の制御を行うことができるため、より使い勝手が良いという利点がある。 According to the present embodiment, since the apparatus can be controlled based on a figure or the like instead of an actual object, there is an advantage that it is more convenient to use.
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
本実施形態での入力装置は例えばテーブルである。テーブルは、基本的に物を置くためのものであるため、テーブルの表面については特定部位に触れるということが難しい場合がしばしばあるが、テーブルの縁、すなわち、周囲空間との境界はテーブル上に置かれたものとは干渉しない独立した空間として残っている場合が多い。そのためテーブルの縁に対してトレースを行うことが可能である。
(Third embodiment)
Next, a third embodiment of the present invention will be described.
The input device in this embodiment is a table, for example. Since the table is basically for placing objects, it is often difficult to touch a specific part on the surface of the table, but the edge of the table, that is, the boundary with the surrounding space, is on the table. In many cases, it remains as an independent space that does not interfere with what is placed. Therefore, it is possible to trace the edge of the table.
テーブルは大きさがある程度大きいため、人がわざわざ場所を移動することなしに触れることのできるテーブルの縁は1つか2つに限られる。そのため、どの縁に触れたかを考慮せず、全て同様に扱うようにすると良い。区別する要素としては、縁に触れたのが片手であるか両手であるか、そして手を触れて離すまでにトレースを時計回りと反時計回りのどちらの向きから始めて何度トレースの方向を反転させたか、両手で触れた場合は左右の手のトレースの向きが同じであるか反対であるかを検出するようにすることができる。このように、トレースだけで作成した動作識別テーブルの一例を図9に示す。このようにテーブルの縁だけを利用した操作動作を設定すると、テーブルの上に物がなく片付いた状態でも、色々なものがあって散らかっている状態でも、すなわち、テーブルの状態に依存せずに、同じように機器の操作を行うことができる。 Because the table is somewhat large, there is only one or two edges of the table that a person can touch without bothering to move around. For this reason, it is better to treat all of them in the same way without considering which edge is touched. The distinction is whether the edge touched with one hand or both hands, and the trace direction was reversed several times, starting in either the clockwise or counterclockwise direction before touching and releasing the hand. When touching with both hands, it is possible to detect whether the directions of the traces of the left and right hands are the same or opposite. FIG. 9 shows an example of the operation identification table created only by tracing as described above. In this way, if you set the operation using only the edge of the table, even if there is nothing on the table and it is tidy, there are various things scattered around, that is, without depending on the state of the table The device can be operated in the same way.
また、上記の実施の形態において、添付図面に図示されている構成等については、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。 In the above-described embodiment, the configuration and the like illustrated in the accompanying drawings are not limited to these, and can be changed as appropriate within the scope of the effects of the present invention. In addition, various modifications can be made without departing from the scope of the object of the present invention.
また、本実施の形態で説明した機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。尚、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。 In addition, a program for realizing the functions described in the present embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to execute processing of each unit. May be performed. The “computer system” here includes an OS and hardware such as peripheral devices.
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。 Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また前記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。 The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the above-described functions, or may be a program that can realize the above-described functions in combination with a program already recorded in a computer system.
本発明は、遠隔操作システムとして利用可能である。 The present invention can be used as a remote operation system.
100…入力装置、101…動作検出装置、101a…撮影部、101b…動作検出部、102…制御信号送信装置、103…制御対象機器、110…テーブル、200〜206…入力装置として扱う図形。
DESCRIPTION OF
Claims (9)
前記入力装置に対する操作動作を検出する操作動作検出部と、
前記操作動作検出部が検出した操作動作の内容と、予め設定されている前記操作動作の内容と前記制御対象装置を操作する内容との対応関係と、に基づいて、対応する前記制御対象装置への操作の内容を求める制御情報読み出し部と、
前記制御情報読み出し部が読み出した制御情報を前記制御対象機器に送信する制御情報送信部と
を有することを特徴とする遠隔操作装置。 A remote operation device that operates a control target device depending on an action of an operator with respect to the input device, using a predetermined specific object as an input device,
An operation operation detector for detecting an operation operation on the input device;
Based on the content of the operation motion detected by the operation motion detection unit and the correspondence between the content of the operation motion set in advance and the content of operating the device to be controlled, to the corresponding device to be controlled A control information reading unit for obtaining the content of the operation of
A remote operation device comprising: a control information transmitting unit that transmits the control information read by the control information reading unit to the control target device.
物体までの距離情報を取得するための距離情報取得部を有し、
前記距離情報を用いて前記物体の形状を認識し、前記物体の形状に基づいて、前記あらかじめ設定された入力装置を検出することを特徴とする請求項1に記載の遠隔操作装置。 The operation motion detector is
It has a distance information acquisition unit for acquiring distance information to the object,
The remote control device according to claim 1, wherein the distance information is used to recognize a shape of the object, and the preset input device is detected based on the shape of the object.
物体までの距離情報を取得するための距離情報取得部と、
前記物体の映像情報を取得するための映像取得部とを有し、
前記距離情報を用いて前記物体の形状を認識し、前記物体の形状と前記映像情報との両方に基づいて、前記あらかじめ設定された入力装置を検出することを特徴とする請求項1に記載の遠隔操作装置。 The operation motion detector is
A distance information acquisition unit for acquiring distance information to the object;
A video acquisition unit for acquiring video information of the object,
The shape of the object is recognized using the distance information, and the preset input device is detected based on both the shape of the object and the video information. Remote control device.
前記距離情報取得部を用いて操作者の手・指までの距離情報を取得し、
前記特定の物体までの距離情報と前記操作者の手・指までの距離情報との両方を用いて、前記操作動作の検出を行うことを特徴とする、請求項2または請求項3のいずれか1項に記載の遠隔操作装置。 The operation motion detector is
Using the distance information acquisition unit to acquire distance information to the operator's hand / finger,
4. The operation operation is detected by using both distance information to the specific object and distance information to the operator's hand / finger. The remote control device according to item 1.
前記特定の物体への接触の内容を検出し、
予め設定されている前記操作動作の内容と前記操作動作検出部の検出した接触の内容とに基づいて対応する操作動作の内容を求めることを特徴とする、請求項1から4までのいずれか1項に記載の遠隔操作装置。 The operation motion detector is
Detecting the content of contact with the specific object;
The content of the operation operation corresponding to the content of the operation operation set in advance and the content of the contact detected by the operation operation detection unit is obtained. The remote control device according to item.
前記入力装置の静止状態を検出する入力装置静止検出部を有し、
前記入力装置静止検出部は、
前記特定の物体が静止状態にあるか否かを判断し、静止状態にない場合は、
前記操作動作検出部の検出結果にかかわらず操作動作ではないと判断することを特徴とする、請求項1から6までのいずれか1項に記載の遠隔操作装置。 further,
An input device stationary detector that detects a stationary state of the input device;
The input device stationary detector is
Determine whether the specific object is stationary, and if not,
7. The remote operation device according to claim 1, wherein the remote operation device determines that the operation is not an operation operation regardless of a detection result of the operation operation detection unit. 8.
前記遠隔操作装置は、前記特定の物体を用い、或いは、前記特定の物体に代えて媒体上に描画又は表示された図形を用いることを特徴とする遠隔操作システム。 The remote control device according to any one of claims 1 to 8,
The remote operation system uses the specific object, or uses a figure drawn or displayed on a medium instead of the specific object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012033380A JP2013172211A (en) | 2012-02-17 | 2012-02-17 | Remote control device and remote control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012033380A JP2013172211A (en) | 2012-02-17 | 2012-02-17 | Remote control device and remote control system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013172211A true JP2013172211A (en) | 2013-09-02 |
Family
ID=49265912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012033380A Pending JP2013172211A (en) | 2012-02-17 | 2012-02-17 | Remote control device and remote control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013172211A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9746966B2 (en) | 2015-03-26 | 2017-08-29 | Fujitsu Limited | Touch detection apparatus, touch detection method, and non-transitory computer-readable recording medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH075978A (en) * | 1993-06-18 | 1995-01-10 | Sony Corp | Input device |
JP2001143073A (en) * | 1999-11-10 | 2001-05-25 | Nippon Telegr & Teleph Corp <Ntt> | Method for deciding position and attitude of object |
JP2001216069A (en) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | Operation inputting device and direction detecting method |
JP2009003576A (en) * | 2007-06-19 | 2009-01-08 | Canon Inc | Appliance control device and control method |
JP2011003127A (en) * | 2009-06-22 | 2011-01-06 | Toyota Industries Corp | Method and device for determining shape coincidence in three dimensions |
-
2012
- 2012-02-17 JP JP2012033380A patent/JP2013172211A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH075978A (en) * | 1993-06-18 | 1995-01-10 | Sony Corp | Input device |
JP2001143073A (en) * | 1999-11-10 | 2001-05-25 | Nippon Telegr & Teleph Corp <Ntt> | Method for deciding position and attitude of object |
JP2001216069A (en) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | Operation inputting device and direction detecting method |
JP2009003576A (en) * | 2007-06-19 | 2009-01-08 | Canon Inc | Appliance control device and control method |
JP2011003127A (en) * | 2009-06-22 | 2011-01-06 | Toyota Industries Corp | Method and device for determining shape coincidence in three dimensions |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9746966B2 (en) | 2015-03-26 | 2017-08-29 | Fujitsu Limited | Touch detection apparatus, touch detection method, and non-transitory computer-readable recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI722280B (en) | Controller tracking for multiple degrees of freedom | |
WO2014147858A1 (en) | Three-dimensional unlocking device, three-dimensional unlocking method and program | |
KR20170026164A (en) | Virtual reality display apparatus and display method thereof | |
WO2014141504A1 (en) | Three-dimensional user interface device and three-dimensional operation processing method | |
US20150262002A1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
CN105992988A (en) | Method and device for detecting a touch between a first object and a second object | |
JP7079848B2 (en) | Coordinate system alignment of the coordinate system used in computer-generated reality and haptic devices | |
JP2010067062A (en) | Input system and method | |
WO2016053320A1 (en) | Gesture based manipulation of three-dimensional images | |
JP2017199289A (en) | Information processor, control method thereof, program, and storage medium | |
JP6381361B2 (en) | DATA PROCESSING DEVICE, DATA PROCESSING SYSTEM, DATA PROCESSING DEVICE CONTROL METHOD, AND PROGRAM | |
JPWO2017057106A1 (en) | Input device, input method, and program | |
JP2020137000A (en) | Video recording device and head-mounted display | |
JP6866467B2 (en) | Gesture recognition device, gesture recognition method, projector with gesture recognition device and video signal supply device | |
JP5863984B2 (en) | User interface device and user interface method | |
JP6746419B2 (en) | Information processing apparatus, control method thereof, and computer program | |
JP2013172211A (en) | Remote control device and remote control system | |
JP6319220B2 (en) | Transparent wearable terminal, data processing apparatus, and data processing system | |
JP6882147B2 (en) | Operation guidance system | |
JP6643825B2 (en) | Apparatus and method | |
JP2013178645A (en) | Input device of electronic apparatus | |
US11501459B2 (en) | Information processing apparatus, method of information processing, and information processing system | |
JP2021039567A (en) | Work support system and program | |
JP6709022B2 (en) | Touch detection device | |
JP7427937B2 (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150623 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150819 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160223 |