JP2010003303A - Controller for electronic equipment - Google Patents
Controller for electronic equipment Download PDFInfo
- Publication number
- JP2010003303A JP2010003303A JP2009169922A JP2009169922A JP2010003303A JP 2010003303 A JP2010003303 A JP 2010003303A JP 2009169922 A JP2009169922 A JP 2009169922A JP 2009169922 A JP2009169922 A JP 2009169922A JP 2010003303 A JP2010003303 A JP 2010003303A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- image
- control
- signal
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、電子機器の制御装置に関し、特にテレビジョン受像機やパーソナルコンピュータのように表示装置を有する電子機器の遠隔操作を行うための制御装置に関する。 The present invention relates to a control device for an electronic device, and more particularly to a control device for remotely operating an electronic device having a display device such as a television receiver or a personal computer.
1980年代に赤外線リモートコントローラ(通称リモコン)がテレビジョン受像機をはじめとする家電機器に付属するようになり、手元で制御できるユーザインターフェースが広く普及し、家電製品の利用形態を大きく変貌させた。現在においてもこの操作形態が主流であるが、リモコンは1機能を1押しで実行する仕組みが基本となっており、例えばテレビジョン受像機では、「電源」「チャンネル」「音量」「入力切替」などのキーがそれに該当し、これまでのテレビジョン受像機にとって大変便利な遠隔の操作方法であった。 In the 1980s, infrared remote controllers (commonly known as remote controllers) came to be attached to household appliances such as television receivers, and user interfaces that could be controlled at hand became widespread, greatly changing the usage of household appliances. At present, this type of operation is still mainstream, but the remote control is based on a mechanism that executes one function with one push. For example, in a television receiver, “power”, “channel”, “volume”, “input switching”. Such a key corresponds to this, and it has been a very convenient remote operation method for a conventional television receiver.
しかしながら、最近始まったデータ放送は、所望のメニュー画面を選択するために、リモコンの「上下左右」や「決定」キーを何度も押下することになり、煩雑で使いづらくなっている。また、EPG(電子プログラムガイド)は、マトリクスに配列された案内画面から所望の位置を選択してキーを押下するため、同様の課題を有していた。 However, recently started data broadcasting is complicated and difficult to use because the “up / down / left / right” and “decision” keys of the remote controller are pressed many times in order to select a desired menu screen. Further, EPG (Electronic Program Guide) has a similar problem because it selects a desired position from a guide screen arranged in a matrix and presses a key.
特許文献1には、このような課題を解決するために、マウスまたはこれに類似する位置指定操作装置により得られる位置指定情報を、キー押下信号の時系列パターンであるキー押下時系列符号に符号化し、そのキー押下時系列符号をテレビジョン受像機に送信するようにした制御装置が提案されている。
In
特許文献1に示された制御装置は、パーソナルコンピュータ(パソコン)の操作と酷似したポインティングの操作により、テレビジョン受像機を遠隔操作するものである。したがって、パソコンを利用しない人にとっては使いづらいもので、情報リテラシー(情報を使いこなす能力)の観点から、パソコンの使い勝手をそのまま導入することは無理がある。遠隔操作が求められる今日のテレビジョン受像機の利用形態にマッチした新たな操作手段が必要になっている。
The control device disclosed in
さらにネットワーク化の進展は、宅内のストレージメディアや宅外のインターネットから得られる多様な情報を、テレビジョン受像機やパソコンのディスプレイに表示することで情報を受容することになる。この場合の操作形態は情報源に依存するため、多様な操作形態に対応する必要があり、家電機器に付属する現状のリモコンでは充分な対応が出来なかった。 Furthermore, the progress of networking will accept information by displaying various information obtained from storage media in the house and the Internet outside the house on the display of a television receiver or a personal computer. Since the operation form in this case depends on the information source, it is necessary to cope with various operation forms, and the current remote control attached to the home electric appliance cannot cope with it.
以上説明したように、従来のリモコンでは、テレビジョン受像機などの機能の多様化と複雑化に対して、リモコンを肥大化させる。データ放送などのメニュー画面の選択操作を従来のリモコンで行うと、ポインティング装置としての役割がより重要となるため、従来のリモコンでは使い勝手の面で難点が多い。またネットワーク化は、ネットワークにつながるあらゆる機器の機能を、表示装置を介して制御することになり、つながる機器の数に比例してリモコンの数が増える問題がある。この問題は、テレビジョン受像機につながるVTR・ビデオディスク・その他オーディオ機器などでも現実にどのリモコンが該当のリモコンであるか判別がつかなくなるようなことで、現状でもよく経験している現象である。さらにインターネットに至っては、あらゆるウェッブサイトの情報を選択制御することになり、もはや従来のリモコンの形態では限界に達していることは自明である。 As described above, the conventional remote controller enlarges the remote controller with respect to the diversification and complication of functions of the television receiver and the like. When the selection operation of the menu screen such as data broadcasting is performed with a conventional remote controller, the role as a pointing device becomes more important, so the conventional remote controller has many drawbacks in terms of usability. In addition, networking has a problem that the functions of all devices connected to the network are controlled via a display device, and the number of remote controllers increases in proportion to the number of connected devices. This problem is a phenomenon that is often experienced in the present situation because it is impossible to determine which remote controller is actually the corresponding remote controller even in a VTR, video disc, or other audio device connected to the television receiver. . Furthermore, in the Internet, it is obvious that information on all websites is selected and controlled, and it is no longer in the form of the conventional remote control.
本発明は上述した点に着目してなされたものであり、多様な電子機器に対する柔軟性と遠隔操作の利便性を両立させると共に、リモコンのような遠隔操作用機器を手元で利用することを不要とした電子機器の制御装置を提供することを目的とする。 The present invention has been made paying attention to the above-described points, and achieves both flexibility and convenience of remote operation for various electronic devices, and does not require the use of a remote operation device such as a remote control at hand. An object of the present invention is to provide a control device for electronic equipment.
本発明は、上述した従来の技術の課題を解決するため、次の電子機器の制御方法を提供するものである。
表示装置23を有する電子機器1を制御する制御方法において、対象物を撮像し、前記電子機器を制御するための制御用画像を前記表示装置に表示し、前記制御用画像に対して前記対象物が所定の動作を行った際の前記対象物を撮像した撮像画像の変化を示す検出信号を生成し、前記検出信号の信号波形の周期が、予め定めた周期と一致する度合いを求め、前記一致する度合いが予め定めた値以上となったとき、前記電子機器を制御することを確定することを特徴とする電子機器の制御方法。
The present invention provides the following electronic device control method in order to solve the above-described problems of the prior art.
In the control method for controlling the
本発明によれば、操作者がビデオカメラで撮影され、鏡像変換された鏡像変換画像信号と、操作ボタンを含む操作用画像信号とが混合されて、すなわち重ね合わされて表示装置に表示される。その状態で画面に表示された操作者が操作用画像を指し示したことを検出し、さらに操作者が操作用画像を操作したことを検出した場合に、操作用画像に対応した電子機器の制御動作が実行される。より具体的には、鏡像変換画像信号における操作ボタンに対応する操作領域を指し示す操作者の手の領域が抽出され、操作領域の画像信号に占める手の領域の画像信号の変化を示すデータが検出される。そして、検出されたデータに基づいた波形が生成され、この波形と予め設定されている波形のデータとを比較して求めた一致度に基づいて操作者が操作用画像を操作したことを検出すると、操作用画像に対応した電子機器の制御動作が実行される。したがって、リモコンのような遠隔操作装置を用いることなく、電子機器の遠隔操作が可能となる。この場合、操作用画像は、選択すべき操作、あるいは情報の内容に応じて適宜設定できるので、多様な電子機器に対する柔軟性と遠隔操作の利便性を両立させることができる。 According to the present invention, the mirror image conversion image signal obtained by the operator shooting with the video camera and subjected to mirror image conversion and the operation image signal including the operation button are mixed, that is, superimposed and displayed on the display device. Control operation of the electronic device corresponding to the operation image when it is detected that the operator displayed on the screen in this state points to the operation image, and further that the operator has operated the operation image. Is executed. More specifically, an area of the operator's hand indicating the operation area corresponding to the operation button in the mirror image conversion image signal is extracted, and data indicating a change in the image signal of the hand area in the image signal of the operation area is detected. Is done. Then, a waveform based on the detected data is generated, and when it is detected that the operator has operated the operation image based on the degree of coincidence obtained by comparing this waveform with data of a preset waveform. Then, the control operation of the electronic device corresponding to the operation image is executed. Therefore, it is possible to remotely control the electronic device without using a remote control device such as a remote controller. In this case, the operation image can be appropriately set according to the operation to be selected or the content of information, so that both flexibility for various electronic devices and convenience of remote operation can be achieved.
以下本発明の実施の形態を図面を参照して説明する。
図1は、従来のリモコン装置による操作形態と、本発明の操作形態との違いを説明するための図である。視聴者(ユーザ)3が、テレビジョン受像機1を操作する場合、従来は視聴者3がリモコン装置4を手に持って所望の機能を働かせるキーをテレビジョン受像機1に向けて押下することによって操作する。したがって、リモコン装置4が無ければ操作が出来ず、不便を強いられる場合を時々経験する。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram for explaining a difference between an operation mode of a conventional remote controller and an operation mode of the present invention. When the viewer (user) 3 operates the
これに対し、本実施形態では、テレビジョン受像機1にビデオカメラ2が設けられており、ビデオカメラ2により視聴者3が撮影され、ビデオカメラ2の画像から視聴者3の動作を得て、テレビジョン受像機1及びそれに関連する機器の操作が行われる。視聴者3の動作とは、具相的にはテレビジョン受像機1に表示されるメニュー画面から所望のボタンを選択する身体(手、足、顔など)の動きのことである。またテレビジョン受像機1の周囲が暗いときは、身体以外のもの、例えばペンライトを使えば同様の効果が得られる。本実施形態ではもっとも現実的な手の動きで操作する手法が採用されている。
On the other hand, in the present embodiment, the
図2は、テレビジョン受像機1の構成を示すブロック図であり、テレビジョン受像機1は、基準同期発生器11、タイミングパルス発生器12、グラフィックス生成器16、ビデオカメラ2、鏡像変換器14、スケーラ15、第1の混合器17、画素数変換器21、第2の混合器22、表示装置23、検出部19、及び制御情報判断器(CPU)20を備えている。
FIG. 2 is a block diagram showing a configuration of the
基準同期発生器11は、テレビジョン受像機1の基準になる水平周期パルスと垂直周期パルスを発生させる。テレビジョン放送受信時や外部の機器から映像信号が入力されている場合は、その入力信号の同期信号に同期するパルスを生成する。タイミングパルス発生器12は、図に示す各ブロックで必要とする水平方向と垂直方向の任意の位相と幅を有するパルスを生成する。ビデオカメラ2は、図1に示すようにテレビジョン受像機1の前面に位置して視聴者(ユーザ)3、またはテレビジョン受像機前の映像を撮影する。ビデオカメラ2の出力信号は、輝度(Y)信号、及び色差(R−Y、B−Y)信号で、基準同期発生器11から出力される水平周期パルス及び垂直周期パルスに同期している。また、本実施形態では、ビデオカメラ2で撮像される画像の画素数は、表示装置23の画素数と一致しているものとする。なお、画素数が一致していない場合は画素数変換器を挿入すればよい。
The
鏡像変換器14は、ビデオカメラ2で撮影した被写体像を表示装置23上に鏡と同じように左右を反転して表示するためのものである。したがって、文字を表示する場合は鏡と同じように左右が反転することになる。これについては図3に示すとおり、水平周期でデータの書き込み及び読み出しを行う第1のメモリと第2のメモリを用いてアドレス操作を行うことにより、容易に実現できる。例えば1水平周期をN画素とした場合、二つのメモリの書き込みアドレス0〜N−1まで1水平周期ごと交互に入力信号を書き込み、書き込み動作と排他的に読み出しを行い、書き込みアドレスと逆にN−1〜0へと辿り、水平方向の画像を左右に反転させる。なお、本実施形態では、メモリを活用して水平方向の画像を反転させる手法を採用したが、表示装置23としてCRT(Cathode Ray Tube)を用いる場合には、水平偏向を逆に操作することで同様の効果が得られる。その場合には、グラフィックスやその他混合する側の画像をあらかじめ水平方向に左右逆転しておく必要がある。
The
スケーラ15は、ビデオカメラ2により撮影した被写体像の大きさを調整するもので、制御情報判断器(CPU)20の制御で拡大率と縮小率を2次元で調整する。また、拡大縮小を行わずに、水平と垂直の位相調整を行うこともできる。これの利用の仕方について後で詳しく述べる。
The
グラフィックス生成器16は、制御情報判断器(CPU)20から転送されるメニュー画面を展開するもので、メモリ上の信号がR(赤)信号、G(緑)信号、B(青)信号の原色信号で展開されていても、後段で映像信号と合成または混合される出力信号は、Y(輝度)信号と色差信号(R−Y、B−Y)とする。また生成されるグラフィックスのプレーン数は限定するものではないが、説明に要するものは1プレーンである。画素数は本実施形態では表示装置23の画素数に一致させるようにしている。一致していない場合は、画素数変換器を入れて一致させる必要がある。
The
第1の混合器17は、グラフィックス生成器16の出力信号Gsと、スケーラ15の出力信号S1とを、制御値α1により混合割合を制御して混合する。具体的には、下記式で出力信号M1oが表される。
M1o=α1・S1+(1−α1)・Gs
制御値α1は、「0」から「1」の間の値に設定され、制御値α1を大きくするとスケーラ出力信号S1の割合が大きくなり、グラフィックス生成器出力信号Gsの割合が小さくなる。混合器の例としてはこれに限らないが、本実施形態では、入力される2系統の信号情報が入っていれば同様の効果が得られる。
The
M1o = α1 · S1 + (1−α1) · Gs
The control value α1 is set to a value between “0” and “1”. When the control value α1 is increased, the proportion of the scaler output signal S1 increases and the proportion of the graphics generator output signal Gs decreases. The example of the mixer is not limited to this, but in the present embodiment, the same effect can be obtained as long as two types of input signal information are included.
検出部19は、第1の検出器31,第2の検出器32,第3の検出器33,第4の検出器34,…からなる。検出部19に含まれる検出器は数を特定するものではなく、グラフィックス生成器16で生成されるメニュー画面と連携した制御内容を表すプッシュボタン(パソコンではマウスでクリック操作する操作ボタンに該当)の数に対応して変動する。
The
制御情報判断器(CPU)20は、検出部19から出力されるデータの解析を行い、各種制御信号を出力する。制御情報判断器(CPU)20の処理内容は、ソフトウェアで実現するものとなり、アルゴリズムについては詳細に記述する。本実施形態では、ハードウェア(各機能ブロック)による処理と、ソフト(CPU上で展開)処理が混在するが、特にここで示す切り分けに限定するものではない。
The control information determination unit (CPU) 20 analyzes data output from the
画素数変換器21は、外部から入力される外部入力信号の画素数と表示装置23の画素数を合わせるための画素数変換を行う。外部入力信号は、放送されてくるテレビ信号(データ放送なども含む)やビデオ(VTR)入力などテレビジョン受像機の外部から入力されてくる信号を想定している。外部入力信号の同期系については、ここでの説明から省いてあるが、同期信号(水平及び垂直)を取得し、基準同期発生器11にて同期を一致させている。
The
第2の混合器22は、第1の混合器17と同様の機能を有する。すなわち、第1の混合器17の出力信号M1oと、画素数変換器21の出力信号S2とを制御値α2で混合割合を制御して混合する。具体的には、下記式で出力信号M2oが表される。
M2o=α2・M1o+(1−α2)・S2
制御値α2は、「0」から「1」の間の値に設定され、制御値α2を大きくすると第1の混合器出力信号M1oの割合が大きくなり、画素数変換器出力信号S2の割合が小さくなる。混合器の例としてはこれに限らないが、本実施形態では、入力される2系統の信号情報が入っていれば同様の効果が得られる。
The
M2o = α2 · M1o + (1-α2) · S2
The control value α2 is set to a value between “0” and “1”. When the control value α2 is increased, the ratio of the first mixer output signal M1o is increased and the ratio of the pixel number converter output signal S2 is increased. Get smaller. The example of the mixer is not limited to this, but in the present embodiment, the same effect can be obtained as long as two types of input signal information are included.
表示装置23は、CRT(陰極線管)、LCD(液晶ディスプレイ)、PDP(プラズマディスプレイ)、あるいはプロジェクションディスプレイなどを想定しているが、ディスプレイの表示方式を限定するものではない。表示装置23の入力信号は、輝度信号Yと、色差信号R−Y及びB−Yであり、表示装置23の内部にてRGB原色信号にマトリクス変換されて表示される。
The
以上のように構成されたテレビジョン受像機1の動作を、視聴者(ユーザ)の動作を交えて説明する。図4は、グラフィックス画像41と、ビデオカメラ画像を鏡像変換し、スケーリングによりグラフィックス画像41と画素数を一致させたスケーラ出力画像43とを示しており、二つの画像41及び43に対応する信号が、第1の混合器17で混合される。グラフィックス画像41は、制御を行うためのメニュー画面を形成しており、四角形の42はプッシュボタン(操作ボタン)を表す。一方のスケーラ出力画像43は、ユーザを撮影し、鏡と同じように表示するものである。スケーラ出力画像43の中の破線の四角形44は、複数の検出器31,32等からなる検出部19の検出エリアを表したもので、グラフィックス画像41上のプッシュボタン42と同一の位置に配置されている。
The operation of the
図5は、第1の混合器17における混合処理を説明するためのイメージ図である。図5(A)はグラフィックス生成器16で生成される制御メニュー画面を表したものであり、プッシュボタン(1−1)〜(1−8)が含まれている。図5(B)は、ビデオカメラ2でユーザを捉えた画面(鏡像変換、及びスケーラ処理済み)で、検出部19の各検出器に対応する検出エリア(2−1)〜(2−8)が含まれている。第1の混合器17にて、図5(A)及び(B)に示す画面を制御値α1に対応する混合割合で混合した画面が、図5(C)に示されている。なお、図5(C)に表示されるユーザの画像は、実際には、図5(B)に示される画像より、制御値α1に対応して輝度及びコントラストが低下したものとなる。
FIG. 5 is an image diagram for explaining the mixing process in the
このように表示装置23には、ユーザの画像が鏡と同様に映ると共に、制御のメニュー画面も重畳されて表示される。これによりユーザ本人は、自分の動きと制御メニューの位置を認識することが出来る。制御は、ユーザが画面を見て、画面上のプッシュボタンに触れるように手(身体)を動かすことにより行う。言い換えれば手をプッシュボタン上に位置するように画面を見てユーザが動作することにより、制御を行う。そして手を触れた(該当する)プッシュボタンと1:1になっている検出エリア内の手を検出すれば、該当するプッシュボタンを押したことが認識できる。したがって制御情報判断器(CPU)20から該当プッシュボタンの制御内容に相当する制御信号を出力することができる。その際グラフィック状のメニュー画面のプッシュボタンは形状及び/または色を変化させて、動作が認識されたことを表示上に表す。例えばプッシュボタンが押されたように画像を変化させる。
In this way, the user's image is displayed on the
図6は、ビデオカメラ2からの画像上に設定している検出エリア(2−1)〜(2−8)と、検出部19の検出器31〜34との対応関係を示し、さらに検出エリア(2−1)及び(2−8)を特定するタイミングパルス(水平垂直)を示す。
FIG. 6 shows the correspondence between the detection areas (2-1) to (2-8) set on the image from the
各検出器31〜34は、図7に示すように、オブジェクト抽出器51と、タイミングゲート器52と、オブジェクト特徴データ検出部53とを備えている。タイミングゲート器52は、図6に示したタイミングパルスでビデオカメラ2からの画像信号の通過を制御する。通過する領域は図6に破線の四角形で示す検出エリア内である。この検出エリア内に限定した信号を、さらにさまざまなフィルタ処理してビデオカメラ2で捉えたユーザの手を抽出する。
As shown in FIG. 7, each of the
オブジェクト抽出器51は、画像の特徴に添ったフィルタを備えており、本実施形態ではユーザの手を検出するために、特に肌色に着目したフィルタ処理を行う。オブジェクト抽出器51は、具体的には、図8に示されるように、特定色フィルタ71と、階調限定器72と、合成器73と、オブジェクトゲート74とを備えている。特定色フィルタ71を、図9を参照して説明する。図9は、色差平面図で、縦軸をR−Y、横軸をB−Yとしたものである。テレビ信号のすべての色信号はこの座標上のベクトルで表すことができ、極座標で評価できる。特定色フィルタ71は、色差信号で入力される色信号の色相と色の濃さ(飽和度)を限定するものである。これを特定するために色相は、第1象限のB−Y軸を基準(零度)として左回りの角度で表現するものとする。また飽和度は、ベクトルのスカラ量となり、色差平面の原点が飽和度零で色がない状態となり、原点から離れるにしたがい飽和度が大きくなり色が濃いことを示す。
The
図9では、特定色フィルタ71により抽出される範囲は、等色相線L1に対応する角度θ1より小さくかつ等色相線L2に対応する角度θ2の範囲に設定され、また色の濃さは等飽和度線S2より小さくS1より大きい範囲に設定されている。第2象限のこの範囲は本実施形態で抽出する人間の手の色である肌色の領域に相当するが、特にこれに限定するものではない。特定色フィルタ71は、ビデオカメラ2からくる色差信号(R−Y、B−Y)が等色相線と等飽和度線で囲まれた領域に入っているか否かを検出する。そのためには色差信号から角度と飽和度を算出して判定する。
In FIG. 9, the range extracted by the
角度算出は、一例として図10に示すような処理によって、入力画素それぞれについて、図9に示す色差平面上でなす角度を算出する。図10は、角度算出処理をフローチャートにて図示しているが、角度算出処理はソフトウェア、ハードウェアのいずれで実現してもよい。本実施形態では、ハードウェアで実現するようにしている。図10のステップS401にて、入力画素それぞれの色差信号R−Y,B−Y成分の符号より、入力画素の色相が、色差平面上の第何象限に位置しているかを検出する。ステップS402にて、色差信号R−Y,B−Y成分それぞれの絶対値の大きい方をA、小さい方をBとして算出する。 In the angle calculation, for example, an angle formed on the color difference plane shown in FIG. 9 is calculated for each input pixel by a process as shown in FIG. FIG. 10 illustrates the angle calculation process in a flowchart, but the angle calculation process may be realized by either software or hardware. In the present embodiment, it is realized by hardware. In step S401 in FIG. 10, it is detected from the sign of the color difference signal RY, BY component of each input pixel that the hue of the input pixel is located in the first quadrant on the color difference plane. In step S402, the larger one of the absolute values of the color difference signals RY and BY components is calculated as A, and the smaller one is calculated as B.
そして、ステップS403にて、B/Aより角度T1を検出する。この角度T1は、ステップS402の処理より明らかなように、0〜45°となる。角度T1は、折れ線近似やROMテーブルによって算出することができる。ステップS404にて、Aが|R−Y|であるか、即ち、|R−Y|>|B−Y|であるか否かを判定する。|R−Y|>|B−Y|でなければ、そのままステップS406に進む。|R−Y|>|B−Y|であれば、ステップS405にて、角度T1を、(90−T1)に置き換える。これによって、tan-1((R−Y)/(B−Y))が求められる。 In step S403, the angle T1 is detected from B / A. This angle T1 is 0 to 45 °, as is apparent from the processing in step S402. The angle T1 can be calculated by broken line approximation or a ROM table. In step S404, it is determined whether A is | R−Y |, that is, whether or not | R−Y |> | B−Y |. If not | R−Y |> | B−Y |, the process directly proceeds to step S406. If | R−Y |> | B−Y |, the angle T1 is replaced with (90−T1) in step S405. Thus, tan −1 ((R−Y) / (B−Y)) is obtained.
ステップS403において検出する角度T1を0〜45°としているのは、tan-1((R−Y)/(B−Y))のカーブは45°を超えると急激に勾配が大きくなり、角度の算出に不適であるからである。
さらに、ステップS406にて、ステップS401にて検出した象限のデータを用いて第2象限か否かを判定し、第2象限であれば、ステップS407にて、T=180−T1を算出する。第2象限でなければ、ステップS408にて、第3象限か否かを判定し、第3象限であれば、ステップS409にて、T=180+T1を算出する。第3象限でなければ、ステップS410にて、第4象限か否かを判定し、第4象限であれば、ステップS411にて、T=360−T1を算出する。第4象限でもない、すなわち第1象限であるときは、角度TをT1とする(ステップS412)。そして、最終的に、ステップS413にて、入力画素それぞれの図9の色差平面上でなす角度Tを出力する。
The angle T1 detected in step S403 is set to 0 to 45 ° because the tan −1 ((RY) / (BY)) curve suddenly increases when the angle exceeds 45 °. This is because it is unsuitable for calculation.
Further, at step S406, it is determined whether or not the second quadrant is used by using the quadrant data detected at step S401. If it is the second quadrant, T = 180−T1 is calculated at step S407. If it is not the second quadrant, it is determined in step S408 whether it is the third quadrant, and if it is the third quadrant, T = 180 + T1 is calculated in step S409. If it is not the third quadrant, it is determined in step S410 whether or not it is the fourth quadrant, and if it is the fourth quadrant, T = 360−T1 is calculated in step S411. If it is not the fourth quadrant, that is, the first quadrant, the angle T is set to T1 (step S412). Finally, in step S413, the angle T formed on the color difference plane of FIG. 9 for each input pixel is output.
以上の処理により、入力された色差信号R−Y,B−Yの色差平面上での角度を0〜360°の範囲で求めることができる。ステップS404〜S411は、ステップS403にて検出した角度T1を角度Tに補正する処理である。また、ステップS404〜S411は、角度T1を、第1〜第4象限に応じて補正している。 Through the above processing, the angle of the input color difference signals RY and BY on the color difference plane can be obtained in the range of 0 to 360 °. Steps S404 to S411 are processes for correcting the angle T1 detected in step S403 to the angle T. In steps S404 to S411, the angle T1 is corrected according to the first to fourth quadrants.
次に色の濃さである飽和度の算出は、下記の式により行われる。
Vc=sqrt(Cr×Cr+Cb×Cb)
但し、Crは、図9に示すように色信号の(R−Y)軸成分であり、Cbは(B−Y)軸成分である。またsqrt( )は平方根の演算を行う演算子である。
Next, the saturation, which is the color density, is calculated by the following equation.
Vc = sqrt (Cr × Cr + Cb × Cb)
However, Cr is the (RY) axis component of the color signal as shown in FIG. 9, and Cb is the (BY) axis component. Sqrt () is an operator that performs a square root operation.
ここでの処理はソフトウェアまたはハードウェアを特定するものではないが、乗算と平方根はハードウェアでは実現が容易でなく、またソフトでも演算のステップが多く好ましくないので以下のように近似することも出来る。
Vc=max(|Cr|,|Cb|)
+0.4×min(|Cr|,|Cb|)
但し、max(|Cr|,|Cb|)は、|Cr|と|Cb|のうち、大きい方を選択する演算処理であり、min(|Cr|,|Cb|)は、|Cr|と|Cb|のうち、小さい方を選択する処理である。またVcはベクトルのスカラー量であり、ここでは飽和度を表す。
The processing here does not specify software or hardware, but multiplication and square root are not easy to implement in hardware, and software is not preferable because of many operation steps, so it can be approximated as follows: .
Vc = max (| Cr |, | Cb |)
+ 0.4 × min (| Cr |, | Cb |)
However, max (| Cr |, | Cb |) is an arithmetic process for selecting the larger one of | Cr | and | Cb |, and min (| Cr |, | Cb |) is | Cr | This is the process of selecting the smaller of | Cb |. Further, Vc is a vector scalar quantity, and here represents saturation.
以上より求めた角度(色相)Tと飽和度Vcが、等色相線の角度θ1からθ2の範囲、色の濃さは等飽和度線S2より小さくかつS1より大きい範囲に入っているか否かを評価する。範囲に入っている信号を通過させるのが、図8に示す特定色フィルタ71の役割である。
Whether or not the angle (hue) T and the degree of saturation Vc obtained from the above are within the range of the angle of the uniform hue line θ1 to θ2, and the color density is smaller than the equal saturation line S2 and larger than S1. evaluate. It is the role of the
図8の階調限定器72は、図11に示すように、輝度信号の特定の階調を限定するものである。8ビットデジタル信号の場合、0〜255までの256階調を有するが、この範囲の階調を限定する最大レベルLmax及び最小レベルLminを設定し、レベルがその間にある輝度信号を出力する。
As shown in FIG. 11, the
合成器73は、特定色フィルタ71と階調限定器72から入力される信号を、領域パルスに変換する。すなわち、特定色フィルタ71を通過した信号と、階調限定器72を通過した信号の両方が存在(AND)する場合に、高レベルとなるパルスを出力する。
The
合成器73で生成された領域パルスは、オブジェクトゲート74に供給される。オブジェクトゲート74は、領域パルスが高レベルであるとき、輝度信号と色差信号を通過させる。領域パルス外の範囲(領域パルスが低レベルであるとき)、すなわち入力信号を通過させない場合は、規定した値の信号を出力する。本実施形態では、通過させない範囲では、黒レベルの輝度信号、及び飽和度ゼロの色差信号を出力する。
The region pulse generated by the
このオブジェクト抽出器51の働きは、特定色フィルタ71で色信号の色相(角度)と飽和度を限定したものをさらに輝度信号レベルで限定するものである。特定色フィルタ71で色相と飽和度を限定することで人の肌色に絞ることは出来るが、人の肌は日焼け具合で変化し、また人種によっても異なる。これら肌色と言ってもさまざまであるが、色相、飽和度、輝度信号の階調限定の範囲を調整すれば概ね人の手を検出することが出来る。本実施形態では人の手を対象にしているが、その他の色相と階調を適切に調整すれば、本実施形態におけるパラメータの変更の範疇で同様にして他のものと区別することが出来る。
The function of the
図12(A)及び図13(A)は、ビデオカメラ2から入力されてくる画像に対してプッシュボタンの領域(破線四角)が設定されていることを表す。本発明はビデオカメラ画像に手をかざしその動作を制御情報として判別するものである。図12(B)及び図13(B)は、その手の動きを示す。図12(B)は、手をプッシュボタンにかざしたところを示し、図13(B)は、手の指を折り曲げた状態を示す。本実施形態では、この指を折り曲げる動作を2度繰り返すことでプッシュボタンを押したことを認識するようにしている。手をかざしただけでも、1度でも3度以上の動作でも、同様の効果を得ることが出来ることはいうまでもない。
FIGS. 12A and 13A show that a push button area (broken line square) is set for an image input from the
次に図14を参照して、手の動作を時間軸に添って説明する。指を伸ばしている状態から折り曲げた状態までの経過時間をTmとする。図は説明を分かり易くするためにこれを動作の最小単位としてT0,T1,…,T6と時間を区切っている。以下に時間経過に添って説明する。 Next, with reference to FIG. 14, the operation of the hand will be described along the time axis. The elapsed time from the state where the finger is extended to the state where the finger is bent is defined as Tm. In order to make the explanation easy to understand, the time is divided from T0, T1,..., T6 with this as the minimum unit of operation. The following will be described along with the passage of time.
時刻T−1では、手が存在しない状態が示され、時刻T0では、手を所望のプッシュボタンに手をかざした状態が示され、時刻T1から、手を最低Tm期間保持し、時刻T2では、手の指を折り曲げた状態が示され、時刻T3では、手の指を折り曲げた状態から手の指を伸ばした状態が示され、時刻T4では、再度手の指を折り曲げた状態が示され、時刻T5では、折り曲げた手の指を再度伸ばした状態が示され、時刻T6から、手の指を伸ばした状態を最低Tm期間保持し、時刻T7では、手が存在しない場合が示されている。 At time T-1, a state where no hand is present is shown, at time T0, a state where the hand is held over a desired push button is shown, and from time T1, the hand is held for a minimum Tm period, and at time T2, The hand finger is folded, and at time T3, the hand finger is folded from the folded state, and at time T4, the hand finger is folded again. At time T5, a state in which the finger of the folded hand is extended again is shown. From time T6, the state in which the finger of the hand is extended is held for a minimum Tm period, and at time T7, a case where no hand is present is shown. Yes.
以上がプッシュボタン上での手の動きである。図14の上側の波形図は、下側にモデル化して描いたプッシュボタン上の手のひらの投影面積の変化を示す。この波形を解析し、手の動きを特定することで制御動作を捉えることができる。 The above is the movement of the hand on the push button. The waveform diagram on the upper side of FIG. 14 shows changes in the projected area of the palm on the push button that is modeled and drawn on the lower side. By analyzing this waveform and identifying the movement of the hand, the control action can be captured.
図15に、オブジェクト抽出器51の出力信号に対応する画像を示す。オブジェクト抽出器51を通過した信号は、タイミングゲートでプッシュボタンの領域が限定され、それ以外の領域は無視される。タイミングゲート内は特定色フィルタ71で色が特定され、ここでは手の肌色領域のみが通過となり、また階調方向にも限定され、限定された領域のみが通過となり、それ以外の領域が黒(輝度信号色信号ともに零)とされる。したがって、図15に示すように手の指以外が黒(ハッチングを施して示す)となる。図15(A)は指をかざした状態を示し、図15(B)は指を折り曲げた状態を示している。ここで肌色領域以外の領域を黒に設定したのはあくまでも後段の検出器での検出精度を上げるためであり、検出すべき対象物によって最適レベル(特定のレベル)を設定することになる。
FIG. 15 shows an image corresponding to the output signal of the
この図15からさらに画像の特徴を検出する。図7に示すオブジェクト特徴データ検出部53は、画像からさまざまな特徴を検出する機能ブロック、すなわち、ヒストグラム検出器61、平均輝度(APL)検出器62、高域頻度検出器63、最小値検出器64、及び最大値検出器65からなる。この他にも画像を特徴づける項目はあるが本実施形態では、これらの内容にて手であることを判別すると共にその動作を認識する。
The feature of the image is further detected from FIG. The object feature
これらの検出器61〜65は、本実施形態ではハードウェアにて構成され、空間内の検出枠内の状態を画面単位(フィールド及びフレーム単位:垂直周期単位)のデータに加工して、制御情報判断器(CPU)20のバスヘ送出する。制御情報判断器(CPU)20は、ソフトウェア上で変数に格納し、データ処理を行う。
These
ヒストグラム検出器61は、輝度信号の階調を8ステップに区切って各ステップに存在する画素の数をカウントし、1画面(フィールドまたはフレーム画面)ごとに各ステップの頻度の値を制御情報判断器(CPU)20へ出力するものである。APL検出器62は、同様に1画面内の輝度レベルを加算し、画素数で割った1画面の平均輝度値を制御情報判断器(CPU)20へ出力する。高域頻度検出器63は、空間フィルタ(2次元フィルタ)にて高域成分を抽出し、その高域成分の頻度を1画面単位で制御情報判断器(CPU)20に出力する。最小値検出器64は、1画面の輝度信号の最小階調値を、また最大値検出器65は1画面内の輝度信号の最大階調値を制御情報判断器(CPU)20へ出力する。
The
制御情報判断器(CPU)20は、受け取ったデータを変数に格納し、ソフトウェア処理する。ここから以降は本実施形態においてはソフトウェア処理となる。 The control information determination unit (CPU) 20 stores the received data in a variable and performs software processing. From this point onward, software processing is performed in the present embodiment.
図16〜図21は、ヒストグラム検出器61及び平均輝度検出器62の出力データを示す図である。これは階調のヒストグラムと、平均輝度(APL)を示し、APLについては大きさを感覚的に分かるように矢印で示している。これらの図においては、縦紬に頻度を示し、横軸に階調(明るさ)を8ステップに区切って示している。ケース1とケース2は手の明るさが異なるもので、ケース1が特定のステップに手の頻度が集中している場合であり、ケース2は二つのステップにまたがっている場合を表している。図16〜図21は、図14に表した各時刻T−1,T0〜T6に対応したヒストグラムである。オブジェクト抽出器51にて特定色肌色で且つ階調を限定し、その他の部分が黒にされているので、ヒストグラム上の頻度は黒の部分と階調を限定した部分に集中する。
16 to 21 are diagrams showing output data of the
以下、時間経過に添ってヒストグラムとAPLの値の変遷を説明する。
図16,時刻T−1:手が存在しない場合で基本的には頻度は存在しないが、カメラで捉える背景などに存在する肌色でかつ限定した階調の領域に入る成分の頻度を表している。またAPLは低い。
Hereinafter, the transition of the histogram and the value of APL will be described with time.
FIG. 16, time T-1: When there is no hand, there is basically no frequency, but it represents the frequency of a component that is in the skin tone and in the limited gradation area that exists in the background captured by the camera. . APL is low.
図17,時刻T0:手を所望のプッシュボタンに手をかざした状態で、ケース1ではステップ5の階調の頻度が大きくなることを表している。ケース2ではステップ5,6の領域にまたがっているため、ケース1ほど頻度は大きくならないが、ステップ5,6の合計の量はほぼ同じだけ増加していることを表している。またAPLは手の面積が大きくなるのでそれに比例する。
FIG. 17, time T0: In the state where the hand is held over the desired push button,
図18,時刻T1:手を最低Tm期間保持したときで、時刻T0と同様である。
図19,時刻T2:手の指を折り曲げた状態で、黒の領域が拡大しステップ5の頻度が減少する。またAPLについても減少する。
図20,時刻T3:折り曲げてから手の指を伸ばした状態で、時刻T0と同様である。
図21,時刻T4:再度手の指を折り曲げた状態で、時刻T2と同様である。
図22,時刻T5:折り曲げた手の指を再度伸ばした状態で、時刻T0と同様である。
図23,時刻T6:手を伸ばした状態を最低Tm期間保持した状態で、時刻T0と同様である。
FIG. 18, time T1: When the hand is held for a minimum Tm period, it is the same as time T0.
FIG. 19, time T2: With the finger of the hand folded, the black area expands and the frequency of
FIG. 20, time T3: The state in which the finger of the hand is extended after being bent is the same as that at time T0.
FIG. 21, time T4: Same as time T2, with the finger of the hand bent again.
FIG. 22, time T5: The same as time T0, with the finger of the folded hand extended again.
FIG. 23, time T6: The state in which the hand is stretched out is held for the minimum Tm period, and is the same as at time T0.
ヒストグラムのデータ処理では、本実施形態ではオブジェクトとして抽出されなかった部分を黒にしているので、ステップ1は黒の領域であり、評価対象から外して考える。評価の仕方はいろいろ考えられるが、直接の手の情報は本実施形態では階調を限定した範囲に入るステップ4,5,6,7であるので、これを合計してその値を評価する。
In the histogram data processing, since the portion that has not been extracted as an object in this embodiment is black,
ヒストグラムの合計値の変動はAPLの変動と近い内容になり、値のスケールが異なるだけで同様の解析で手の動作が判別できる。判別の確度を上げるために、異なる検出手段を用いて評価し判定する。前記した高域頻度検出器63、最小値検出器64、最大値検出器65などの検出データも同様に評価し、より多くの異なる検出データから判別をすることで精度を向上させることが出来る。本実施形態では、高域頻度検出は指と背景の黒とのエッジ成分の頻度を検出するものであり、図15から分かるように指を折り曲げたときはエッジ成分が少なくなり、その変動はヒストグラムやAPLと同様である。しかし、最大値検出は指のどこかがプッシュボタンのどこかに入っていたなら、大きく変化はなく検出精度が悪いものになる。また今回はオブジェクト抽出範囲から外れた部分は黒にしているので最小値検出は変化しないため全く意味をなさない。しかしビデオカメラで捉える対象物の色や階調によっては、オブジェクト抽出範囲から外れた部分を、逆に白にする方がよい場合もある。対象とするオブジェクトに対してコントラストのある色や白をオブジェクト抽出範囲から外れた部分に適用することで判別の精度が増すことになる。
The fluctuation of the total value of the histogram is similar to the fluctuation of APL, and the hand motion can be determined by the same analysis only by changing the value scale. In order to increase the accuracy of discrimination, evaluation is performed using different detection means. The detection data of the
判別に向けた評価の仕方は、決められた手の動作を判別するものであり、そのアルゴリズムの基本は同じで、検出項目によってスケールが異なる。前記図7に示すオブジェクト特徴データ検出部53の出力は、CPUバスを介して、制御情報判断器(CPU)20に転送される。制御情報判断器(CPU)20は、動作検出を行い、適切な制御信号を出力する。図24は、制御情報判断器(CPU)20の動作を説明するための機能ブロック図であり、制御情報判断器(CPU)20は、ヒストグラム検出器61に対応する第1の動作検出器201、平均輝度(APL)検出器62に対応する第2の動作検出器202、高域頻度検出器63に対応する第3の動作検出器203、最小値検出器64に対応する第4の動作検出器204、最大値検出器65に対応する第5の動作検出器205、及び制御情報生成器210を備えている。なおこれらの動作検出器201〜205及び制御情報生成器210の機能は、実際にはソフト処理により実現される。
The evaluation method for discrimination is to discriminate the movement of a predetermined hand, the basics of the algorithm are the same, and the scale differs depending on the detection item. The output of the object feature
動作検出器201〜205は、対応する検出器61〜65の検出結果に応じて検出フラグを出力し、制御情報発生器210に供給する。制御情報発生器210は、入力される検出フラグの内容を評価し、適切な制御情報を出力する。ここでの評価は、コンピュータ言語の演算子、例えば、論理和、論理積、排他的論理和、>、<などを活用して行われ、これらの演算子を含む演算式が満たされた場合に制御信号が出力される。本実施形態では、すべての動作検出器201〜205の出力の論理和、すなわち、少なくとも1つ以上の動作検出器が検出フラグを出力したときに制御情報を出力するようにしている。
The
前記動作検出器201〜205について詳しく説明する。ここではヒストグラムの限定されたステップの合計データから動作を検出する場合である。図25は、ヒストグラムから得られるデータの変動を示している。この図に示す時刻T0〜T6は、図14に示す時刻T0〜T6に対応している。図25(A)は、ヒストグラムの限定された4〜6ステップを合計した値の変動である。黒以外の部分に相当し、手が占める面積を表している。同図(B)はオフセット成分を除去したもので、Tm期間中変化がない場合、値が零となる。同図(C)は、同図(B)のデータを自乗したもので指の折り曲げ動作が正弦波に近く、その自乗なので周期が1/2の正弦波になる。同図(D)は、同図(A)の波形を積分したもので、手の動きを判別するためのゲートパルスを矢印で表したものである。同図(E)は、同図(C)の波形をデジタルフィルタで相互相関をかけて、手の動きとの相関を見ている。さらに同図(D)(E)間にわたって、最終判断すなわちユーザがプッシュボタンを操作したことを確定に導く過程を表している。
The
図25について以下詳細に説明する。
(A)は図14で手の動作と一緒に表した波形と同じである。特に判別に寄与しない部分は省いている。ここで手を伸ばしている状態から、折り曲げたところまでにかかる期間をTmとして、手の動作の基準期間(時間間隔)として考える。時刻T0からT1までは、手をかざした期間であり、ここでは約Tm期間かざして該当のプッシュボタンを活性化させる判別を行う。時刻T1からT2は、手の指を折り曲げていく過程である。時刻T2からT3は、手の指を伸ばしていく過程を表す。時刻T3〜T4は、再び手の指を折り曲げていく過程である。時刻T4〜T5は再び手の指を伸ばしていく過程である。時刻T5〜T6は指が伸び、そこで約Tm期間保持している状態である。この一連の動作は、マウスのダブルクリックに似ており、人にとって無理なく動作が出来るものである。
FIG. 25 will be described in detail below.
(A) is the same as the waveform shown with the hand movement in FIG. In particular, portions that do not contribute to discrimination are omitted. Here, let Tm be the period from when the hand is stretched to when it is bent, and consider it as the reference period (time interval) for hand movement. The period from time T0 to T1 is a period in which the hand is held, and here, it is determined that the corresponding push button is activated for about Tm period. Time T1 to T2 is a process of bending the finger of the hand. Times T2 to T3 represent the process of extending the finger of the hand. Time T3 to T4 is a process of bending the finger of the hand again. Time T4 to T5 is a process of extending the finger of the hand again. At time T5 to T6, the finger is stretched and held there for about Tm period. This series of actions is similar to a mouse double-click and can be operated without difficulty for humans.
(B)はDCオフセット成分を除去したものである。除去するフィルタの構成例を、図26に示す。このフィルタは、時間Tmだけ入力信号を遅延させる遅延器81と、遅延器81の出力信号から入力信号を減算する減算器82と、信号レベルを1/2に減衰させる減衰器83とからなり、Tm期間前後で(−1/2,1/2)のタップ係数を要する高域通過のデジタルフィルタである。Tm期間の遅延は、手の動作の波形を通過させるためのものである。デジタルフィルタの形態は特にこれに限定するものではないが、ここでは一番簡単な構成で、しかも絶対遅延量が小さいものを採用した。またタップ係数の符号は、(1/2,−1/2)のように入れ替わると、出力される波形が反転するが、この後の処理には影響するものではなく、どちらを用いても同じ効果となる。
(B) is obtained by removing the DC offset component. A configuration example of the filter to be removed is shown in FIG. This filter includes a
(C)は前記したとおり(B)の波形を自乗したもので、正弦波的な波形と考えると周期が1/2となる。この(C)の波形をデジタルフィルタで相関計算したものが(E)であるが、それを詳細に示したものが図27である。図27(A)(B)(C)は、図25と同様である。その下側に描いたものが相互相関デジタルフィルタである。四角にDと記載しているものは1垂直周期のディレイを表し、デジタル回路で使うDフリップフロップ(以降DFFと記載)に相当する。次にk0,k1,…,k8はデジタルフィルタのタップ係数を表す。Σはタップ係数出力の総和演算を意味し、その出力に相互相関計算値Y(nτ)を得る。相互相関をとる手の動作の波形は、(C)を加工したもので、一方の波形はタップ係数の値として存在し、手の動作とタップ係数間の相互相関で、波形の形が完全に一致または近い値のときに相互相関のデジタルフィルタ出力が最大値となる。 (C) is the square of the waveform of (B) as described above, and the period is halved when considered as a sinusoidal waveform. FIG. 27 shows details of the waveform of (C) obtained by correlation calculation with a digital filter, which is shown in detail in FIG. 27A, 27B, and 27C are the same as FIG. What is drawn below is a cross-correlation digital filter. What is described as D in the square represents a delay of one vertical cycle, and corresponds to a D flip-flop (hereinafter referred to as DFF) used in a digital circuit. K0, k1,..., K8 represent tap coefficients of the digital filter. Σ means a sum operation of tap coefficient outputs, and a cross-correlation calculation value Y (nτ) is obtained at the output. The waveform of the hand motion that takes the cross-correlation is the result of processing (C), and one waveform exists as the value of the tap coefficient, and the shape of the waveform is completely due to the cross-correlation between the hand motion and the tap coefficient. When the values match or are close to each other, the cross-correlation digital filter output becomes the maximum value.
図27に示すデジタルフィルタによる演算処理を以下の数式で表すことができる。図27の構成例では、Nは「9」である。
図27に示すデジタルフィルタは、右側から(C)に描く波形が入力される。このように右から信号が入力されるように描いたのは、(C)に示す各波形がDFFに入ったときに時間的に一致(一部矢印)するようにしているためである。したがって最後の手の動作が遅延していない一番右側に来る。そして相互相関の係数は(C)の波形をそのまま盛り込めばよい。但しスケールについてはここでは言及しない。また係数値がDC的に偏るのは好ましくないので、(C)の波形のレベルの中心を基準として、出来るだけDCオフセットがつかないようにする。係数値は手の動作との相関を計算するものであるので、ここで規定している動作の内容が変わればそれに添って係数値を変えれば、また異なった動作で制御できる制御装置となる。またいくつかの相関値を持っていてデジタルフィルタを複数走らせ、各々に違った意味を持たせることも出来る。ここでのタップ係数は9タップあるので9垂直周期となる。1秒に60垂直周期有するビデオ信号の場合、約1/7秒となり、手の動作としては少し速いが、遅くするためにはタップ係数を増やせば遅くなり調整が取れるものであるので、実際には実験により最適なタップ係数の数を設定すればよい。 The digital filter shown in FIG. 27 receives a waveform drawn in (C) from the right side. The reason that the signal is input from the right is because the waveforms shown in (C) coincide with each other (partly arrows) when they enter the DFF. Therefore the last hand movement comes to the far right side without delay. The coefficient of cross correlation may be included in the waveform (C) as it is. However, scale is not mentioned here. In addition, since it is not preferable that the coefficient value is biased in terms of DC, the DC offset should be prevented as much as possible with reference to the center of the waveform level of (C). Since the coefficient value is used to calculate the correlation with the motion of the hand, if the content of the motion defined here is changed, the coefficient value is changed accordingly, and the control device can be controlled with a different motion. You can also run multiple digital filters with several correlation values, each with a different meaning. Since there are 9 tap coefficients here, there are 9 vertical periods. In the case of a video signal having 60 vertical periods per second, it is about 1/7 second, and the hand movement is a little faster, but in order to slow it down, it can be slowed and adjusted by increasing the tap coefficient. The optimal number of tap coefficients may be set by experiment.
また、ここでは(C)の波形を相関計数値として考えているが(B)に示す波形の時刻T1〜T5までの波形を用いてもよい。ただし、(C)の波形を用いた方がより精度が高くなる。 Here, the waveform of (C) is considered as the correlation count value, but the waveform from time T1 to T5 of the waveform shown in (B) may be used. However, the accuracy is higher when the waveform (C) is used.
図25に戻り(E)の波形について説明する。(E)の波形は(C)の波形が前記相互相関デジタルフィルタに入力されて、その出力に現れる値をモデル化して表したものである。時刻が進むにつれて手の動作がタップ係数との一致度が増しピークが大きくなる。この波形の評価は、負の領域を矢印で示しているとおり、絶対値化して、さらに積分し(図では包絡線)、閾値TH4を上回ったところで制御させるべき手の動作であることを確定する。ここでの絶対値化は図28に示すように自乗してから積分しても同様である。 Returning to FIG. 25, the waveform (E) will be described. The waveform (E) is obtained by modeling the value appearing at the output when the waveform (C) is input to the cross-correlation digital filter. As the time advances, the degree of coincidence of the hand movement with the tap coefficient increases and the peak increases. The evaluation of this waveform is converted into an absolute value as indicated by an arrow, integrated further (envelope in the figure), and it is determined that it is a hand action to be controlled when the threshold value TH4 is exceeded. . The absolute value here is the same even if it is integrated after squaring as shown in FIG.
ここで、(C)に示す波形の大きさは最初のヒストグラムデータに基づくものであり、この大きさで判定の精度が変わってくる。また積分すなわち累積加算していくにあたっての初期化(リセット)が必要である。これを果たしているのが(D)に示す波形である。さらに検出精度を上げるための意味のない情報を抑制する処理が必要である。 Here, the size of the waveform shown in (C) is based on the first histogram data, and the accuracy of determination varies depending on this size. Also, initialization (reset) is required for integration, that is, cumulative addition. The waveform shown in (D) fulfills this. Furthermore, the process which suppresses the meaningless information for raising detection accuracy is required.
(D)の波形は(A)のヒストグラムからのデータを時間軸に添って積分したものである。時刻T1までの期間は手をかざした期間であり、(B)は(A)が変化しないとき零になるすなわち高域成分のみをピックアップしたものである。これは手をかざしているときは静止状態であることを意味する。当然人間の動作であるので変動はあるが、大きな動作からすると静止と見なせるものとし、処理についても容易に実現できる不感帯を設定するなどして切り捨てればよい。したがって、(B)が閾値TH1a,TH1b間にあるときでかつ(A)が閾値TH0以上のとき積分されて積分値が大きくなっていく。その波形が(D)である。また積分を始める初期状態は(A)の波形が、閾値TH0以下のときに初期化を行う。(D)に示す積分値が、閾値TH2を越えると活性化する。ここまでの領域を検出領域と呼ぶ。 The waveform (D) is obtained by integrating the data from the histogram (A) along the time axis. The period up to time T1 is a period in which the hand is held up, and (B) is zero when (A) does not change, that is, only the high frequency component is picked up. This means that it is still when you hold your hand. Naturally, it is a human motion, but there are fluctuations. However, if it is a large motion, it can be regarded as still, and the processing can be cut off by setting a dead zone that can be easily realized. Therefore, when (B) is between the threshold values TH1a and TH1b and (A) is equal to or greater than the threshold value TH0, integration is performed and the integrated value increases. The waveform is (D). In the initial state where the integration is started, initialization is performed when the waveform of (A) is less than or equal to the threshold value TH0. When the integral value shown in (D) exceeds the threshold value TH2, it is activated. The area so far is called a detection area.
(D)に示す積分値が、閾値TH2を越えてから矢印Y1のように特定の時定数を持った期間を設定し、その後の判定領域に入るまでを活性領域と呼ぶ。活性領域とは相関計算している領域である。判定領域は前記相関計算の結果をもって手の動作を制御状態と判断する領域で、相互相関デジタルフィルタ出力を絶対値化して積分した値が、閾値TH4を越えた時点からはじまる。(D)の波形に対してはもう一つの閾値TH3を設けている。閾値TH3は、閾値TH2よりも小さな値であり、その閾値TH3を越えた矢印Y2−1で示す期間を判定に使う。手の指の折り曲げ動作は最後指を伸ばして終了する。閾値TH3はその最後の動作を確認するものである。矢印Y2−1と逆の領域である矢印Y2−2の期間は判定を禁止する期間として考え、誤認識を避けるようにしている。そして矢印Y1、矢印Y2−1、矢印Y3が揃った時点で、判定領域で手の動作が制御情報であることを確定する。 A period having a specific time constant is set as indicated by an arrow Y1 after the integral value shown in (D) exceeds the threshold value TH2, and the period until the subsequent determination area is entered is called an active area. The active region is a region for which correlation calculation is performed. The determination area is an area where the hand movement is determined as the control state based on the result of the correlation calculation, and starts when the cross-correlation digital filter output is converted into an absolute value and integrated exceeds the threshold value TH4. Another threshold TH3 is provided for the waveform of (D). The threshold value TH3 is a value smaller than the threshold value TH2, and the period indicated by the arrow Y2-1 exceeding the threshold value TH3 is used for the determination. The bending operation of the finger of the hand is finished by extending the last finger. The threshold value TH3 is for confirming the last operation. A period indicated by an arrow Y2-2, which is an area opposite to the arrow Y2-1, is considered as a period during which the determination is prohibited, and misrecognition is avoided. When the arrow Y1, the arrow Y2-1, and the arrow Y3 are aligned, it is determined that the hand movement is control information in the determination area.
この検出領域は、手をかざされたことを認識する領域で、この領域を越えた時点で、グラフィックスの制御画像の色や形状を変えて、ユーザを積極的に誘導することができる。また、活性領域を完了した時点及び判定領域で確定した時点で同様にグラフィックスの制御画像の色や形状を変えてユーザにそのことを認知させることができる。これはユーザに再試行させるなどの手間をかけないメリットがある。 This detection area is an area for recognizing that the hand is held over, and when the area is exceeded, the color and shape of the graphics control image can be changed to actively guide the user. Similarly, when the active area is completed and when it is determined in the determination area, it is possible to change the color and shape of the graphics control image to make the user recognize it. This has the advantage of not requiring the user to try again.
次に閾値TH3の絶対レベルについて説明する。相互相関デジタルフィルタの出力値は手をかざす領域の範囲によって大きさが変わってくる。特に固定でも人がそれに合わせて必要な領域に手をかざせばよいが、人の曖昧さを吸収することも必要である。ここでは閾値TH2までの積分領域にかかる時間Trを見て、これによって調整する。期間Trは手をかざす面積が大きければ大きいほど期間が短くなり、逆に面積が小さいときは時間が長くなる。したがって時間Trが大きいときは閾値TH3とTH4を大きくし、時間Trが小さいときは閾値TH3とTH4を小さくするように補正する。この適応制御によって手のかざす面積に対する依存性を抑制し、正確な認識を行うことが可能となる。 Next, the absolute level of the threshold value TH3 will be described. The size of the output value of the cross-correlation digital filter varies depending on the range of the area where the hand is held. In particular, even if it is fixed, it is only necessary for the person to hold his / her hand over the necessary area, but it is also necessary to absorb the ambiguity of the person. Here, the time Tr required for the integration region up to the threshold value TH2 is seen and adjusted accordingly. In the period Tr, the larger the area where the hand is held, the shorter the period, and conversely, the time becomes longer when the area is small. Therefore, when the time Tr is large, the threshold values TH3 and TH4 are increased, and when the time Tr is small, the threshold values TH3 and TH4 are corrected to be small. This adaptive control suppresses the dependence on the hand-held area and enables accurate recognition.
本実施形態の操作方法では、ビデオカメラの撮影の画角に対して、人の位置によっては手の大きさが小さかったり、プッシュボタンの位置まで届かなかったりすることが考えられる。この場合は、図2に示すスケーラ15で画像を「拡大」「縮小」「位相(位置)」を調整して人を画面上に適切な大きさにする必要がある。図29は、これを説明するための図である。図29(A)に示す例は、人の姿が小さく制御しにくい画面である。この場合はスケーラ15を制御して「拡大」し、画面の中心に人が位置するように「位相」を調整することにより、同図(B)のように適切な大きさで適切な位置にユーザを表示させることができる。
In the operation method of the present embodiment, it is conceivable that the hand size is small or the push button position is not reached depending on the position of the person with respect to the angle of view of the video camera. In this case, it is necessary to adjust the “enlargement”, “reduction”, and “phase (position)” of the image with the
また図30は、スケーラ15を制御して「縮小」し、人が画面の中心に来るように「位相」を調整した例を示したものである。
他の手法としては、図31に示すように、ビデオカメラ2を雲台に取り付け、雲台による画角制御、及びビデオカメラ2のズーム制御により、ユーザの画像を適切な大きさ及び位置に表示させるようにしてもよい。
FIG. 30 shows an example in which the
As another method, as shown in FIG. 31, the
また本発明の操作方法は、表示装置に映されたグラフィックス上に展開される制御画像をそれに重ね合わされた自分の鏡像を見ながら操作するものであるが、画像を重ね合わせるので見にくい場合がある。その場合は、図6に示した検出器の画面上の領域を特定するタイミングパルス(水平垂直)で、第1の混合器17または第2の混合器22の混合割合を制御して見やすいようにする。例えば制御画像であるプッシュボタンを見やすくするためには第1の混合器17にて、制御値α1の値を小さくするようにタイミングパルスで制御すればよい。このように混合器をきめ細かく制御することによって視聴者と、制御画像(プッシュボタン)の関係を分かり易くすることができる。
The operation method of the present invention is to operate while looking at the mirror image superimposed on the control image developed on the graphics displayed on the display device, but it may be difficult to see because the images are superimposed. . In that case, the mixing ratio of the
以上説明した本発明の実施形態では、ハードウェアとソフトウェアで切り分けて記載しているが、その切り分けの仕方はどのように行ってもよい。
本実施形態の操作方法は、人の手を使って対称となるグラフィックス上に描かれたプッシュボタンを触れるように操作するものである。対象となるプッシュボタンの意味する操作内容が「電源」「チャンネル」「音量」「入力切替」「上」「下」「左」「右」「決定」など従来のリモコンが備えていたものはすべて置き換えることが可能である。
In the embodiment of the present invention described above, the hardware and software are described separately. However, the method of the separation may be any way.
The operation method of the present embodiment is an operation in which a push button drawn on a symmetrical graphic is touched using a human hand. All the operations that the conventional push buttons have, such as “Power”, “Channel”, “Volume”, “Input switch”, “Up”, “Down”, “Left”, “Right”, “Determine”, etc. It is possible to replace it.
以上のような操作方法を用いることにより、リモコンのような制御機器を用いることなく制御対象の制御が可能となる。したがって電池切れや接点不良などのリモコンに関するトラブルが解消される。また複数の機器のリモコンがある場合、被制御機器のリモコンを探さなければならなかったが、本発明の操作方法では、人の身体があればよく、このような問題も解消される。 By using the operation method as described above, it is possible to control a control target without using a control device such as a remote controller. Therefore, troubles related to the remote control such as battery exhaustion and contact failure are eliminated. In addition, when there are a plurality of remote control devices, it has been necessary to search for a remote control device to be controlled. However, in the operation method of the present invention, it is sufficient if there is a human body, and such a problem is solved.
また画面上に制御内容が示されるので、さまざまな制御機器の取り扱いが可能となる。これはネットワーク化された環境では重要であり、表示装置を有する機器を通じてネットワーク機器を制御する、言い換えれば、ネットワークにつながる機器の制御画面をネットワークを通じて表示装置を有する機器に転送することにより、表示装置の画面が制御画面になるため、どのような制御画面であっても対応できる。 In addition, since the control content is displayed on the screen, it is possible to handle various control devices. This is important in a networked environment, and controls a network device through a device having a display device, in other words, by transferring a control screen of a device connected to the network to a device having a display device through the network. Since this screen becomes the control screen, any control screen can be supported.
またリモコンでメニュー画面から制御するためには、手元のボタンを何度も押下しながらメニュー画面上のプッシュボタンを選ぶ動作をするため、手元と画面を何度も繰り返し見ながら操作する必要がある。これに対し、本発明の操作方法によれば、ユーザ自身が操作画面上にオーバラップして映るため、常に画面を見て操作ができ、素速く操作ができるだけでなく、目が疲れ難く使い勝手を向上させることができる。 Also, to control from the menu screen with the remote control, it is necessary to operate while repeatedly viewing the hand and the screen because the operation of selecting the push button on the menu screen while pressing the button on the hand many times . On the other hand, according to the operation method of the present invention, the user himself / herself overlaps on the operation screen so that the user can always see and operate the screen, not only can the operation be performed quickly, but the eyes are hard to be tired. Can be improved.
また、手の動作はパソコンのマウスを操るのと近い操作が可能である。本実施形態ではダブルクリック的に手の指を折り曲げる動作を採用した。パソコンは、現代において広く普及しており、パソコンの操作に近いことは、多くのユーザにとって取り扱いが容易となり、情報リテラシー上好ましい。 In addition, hand movement can be similar to that of a personal computer mouse. In this embodiment, the operation of bending the finger of the hand in a double click manner is adopted. Personal computers are widespread in modern times, and being close to the operation of personal computers is easy for many users to handle and is preferable in terms of information literacy.
なお本発明は上述した実施形態に限るものではなく、種々の変形が可能である。例えば、図2に示した第1の混合器17及び第2の混合器22の混合割合を、レベル方向、空間方向、時間方向に効果的に組み合わせるようにしてもよい。これにより、ビデオカメラ2からの画像と生成されるグラフィックスのメニュー画面と、放送番組の映像の多様な組み合わせ方が可能となり、同時に多様な情報のやり取りが出来る。
また本発明の操作対象となる電子機器は、テレビジョン受像機に限るものではなく、パーソナルコンピュータや、テレビジョン受像機とビデオディスク録画装置の組み合わせや、テレビジョン受像機とビデオテープレコーダとの組み合わせなど、表示装置を有するものであればよい。
The present invention is not limited to the embodiment described above, and various modifications can be made. For example, the mixing ratios of the
The electronic device to be operated according to the present invention is not limited to a television receiver, but a personal computer, a combination of a television receiver and a video disk recorder, or a combination of a television receiver and a video tape recorder. Any device having a display device may be used.
1 テレビジョン受像機(電子機器)
2 ビデオカメラ
4 ユーザ(操作者)
12 タイミングパルス発生器
14 鏡像変換器(鏡像変換手段)
15 スケーラ
16 グラフィックス生成器
17 第1の混合器(第1の混合手段)
19 検出部(検出手段)
20 制御情報判断器(CPU)(制御手段)
22 第2の混合器(第2の混合手段)
23 表示装置
51 タイミングゲート器(位置判定手段)
52 オブジェクト抽出器(対象物特定手段)
53 オブジェクト特徴データ検出部(変化検出手段)
1 Television receiver (electronic equipment)
2
12
15
19 Detection unit (detection means)
20 Control information judging device (CPU) (control means)
22 Second mixer (second mixing means)
23
52 Object extractor (object identification means)
53 Object feature data detection unit (change detection means)
Claims (1)
対象物を撮像し、
前記電子機器を制御するための制御用画像を前記表示装置に表示し、
前記制御用画像に対して前記対象物が所定の動作を行った際の前記対象物を撮像した撮像画像の変化を示す検出信号を生成し、
前記検出信号の信号波形の周期が、予め定めた周期と一致する度合いを求め、
前記一致する度合いが予め定めた値以上となったとき、前記電子機器を制御することを確定することを特徴とする電子機器の制御方法。 In a control method for controlling an electronic device having a display device,
Image the object,
Displaying a control image for controlling the electronic device on the display device;
Generating a detection signal indicating a change in a captured image obtained by capturing the target object when the target object performs a predetermined operation on the control image;
Obtain the degree to which the period of the signal waveform of the detection signal matches a predetermined period,
A method for controlling an electronic device, comprising: determining that the electronic device is to be controlled when the degree of coincidence is equal to or greater than a predetermined value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009169922A JP2010003303A (en) | 2009-07-21 | 2009-07-21 | Controller for electronic equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009169922A JP2010003303A (en) | 2009-07-21 | 2009-07-21 | Controller for electronic equipment |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004272706A Division JP4419768B2 (en) | 2004-09-21 | 2004-09-21 | Control device for electronic equipment |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010003303A true JP2010003303A (en) | 2010-01-07 |
Family
ID=41584928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009169922A Pending JP2010003303A (en) | 2009-07-21 | 2009-07-21 | Controller for electronic equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010003303A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3809046A1 (en) * | 2019-10-16 | 2021-04-21 | E.G.O. Elektro-Gerätebau GmbH | Control system for an electric domestic appliance and method for operating an electric domestic appliance |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02108330A (en) * | 1988-10-18 | 1990-04-20 | Nippon Telegr & Teleph Corp <Ntt> | Transmission path restoration remote controller |
JPH06153017A (en) * | 1992-11-02 | 1994-05-31 | Sanyo Electric Co Ltd | Remote controller for equipment |
JPH08212327A (en) * | 1995-02-06 | 1996-08-20 | Mitsubishi Electric Corp | Gesture recognition device |
JPH08315154A (en) * | 1995-02-21 | 1996-11-29 | Mitsubishi Electric Res Lab Inc | Gesture recognition system |
JPH0981307A (en) * | 1995-09-08 | 1997-03-28 | Clarion Co Ltd | Equipment controller |
JP2000075991A (en) * | 1998-08-28 | 2000-03-14 | Aqueous Research:Kk | Information input device |
JP2001307107A (en) * | 2000-04-21 | 2001-11-02 | Sony Corp | Image processor, its method and recording medium |
JP2002149302A (en) * | 2000-11-09 | 2002-05-24 | Sharp Corp | Interface device and recording medium with interface processing program recorded |
JP2002196855A (en) * | 2000-10-06 | 2002-07-12 | Sony Computer Entertainment Inc | Image processor, image processing method, recording medium, computer program and semiconductor device |
-
2009
- 2009-07-21 JP JP2009169922A patent/JP2010003303A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02108330A (en) * | 1988-10-18 | 1990-04-20 | Nippon Telegr & Teleph Corp <Ntt> | Transmission path restoration remote controller |
JPH06153017A (en) * | 1992-11-02 | 1994-05-31 | Sanyo Electric Co Ltd | Remote controller for equipment |
JPH08212327A (en) * | 1995-02-06 | 1996-08-20 | Mitsubishi Electric Corp | Gesture recognition device |
JPH08315154A (en) * | 1995-02-21 | 1996-11-29 | Mitsubishi Electric Res Lab Inc | Gesture recognition system |
JPH0981307A (en) * | 1995-09-08 | 1997-03-28 | Clarion Co Ltd | Equipment controller |
JP2000075991A (en) * | 1998-08-28 | 2000-03-14 | Aqueous Research:Kk | Information input device |
JP2001307107A (en) * | 2000-04-21 | 2001-11-02 | Sony Corp | Image processor, its method and recording medium |
JP2002196855A (en) * | 2000-10-06 | 2002-07-12 | Sony Computer Entertainment Inc | Image processor, image processing method, recording medium, computer program and semiconductor device |
JP2002149302A (en) * | 2000-11-09 | 2002-05-24 | Sharp Corp | Interface device and recording medium with interface processing program recorded |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3809046A1 (en) * | 2019-10-16 | 2021-04-21 | E.G.O. Elektro-Gerätebau GmbH | Control system for an electric domestic appliance and method for operating an electric domestic appliance |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4419768B2 (en) | Control device for electronic equipment | |
JP4650381B2 (en) | Electronics | |
JP4569555B2 (en) | Electronics | |
US10671175B2 (en) | Image processing apparatus, image processing method, and program product to control a display to display an image generated based on a manipulation target image | |
US8144121B2 (en) | Method and apparatus for controlling electronic appliance | |
JP4720738B2 (en) | Electronics | |
US9704028B2 (en) | Image processing apparatus and program | |
US20140247216A1 (en) | Trigger and control method and system of human-computer interaction operation command and laser emission device | |
JP2007087100A (en) | Electronic device system | |
RU2598598C2 (en) | Information processing device, information processing system and information processing method | |
CN109614902A (en) | Face image processing process, device, electronic equipment and computer storage medium | |
JP2012238293A (en) | Input device | |
JP2009087095A (en) | Electronic device control device, control method and control program | |
EP2790086A1 (en) | Information processing device, information processing method, and recording medium | |
JP2010003303A (en) | Controller for electronic equipment | |
JP2009010849A (en) | Control device for electronic apparatus | |
KR101288590B1 (en) | Apparatus and method for motion control using infrared radiation camera | |
JP2008118633A (en) | Method and apparatus for controlling electronic appliance | |
KR101227875B1 (en) | Display device based on user motion | |
JP4544195B2 (en) | Electronics | |
CN113852756A (en) | Image acquisition method, device, equipment and storage medium | |
JP4049708B2 (en) | Drawing support apparatus and drawing system | |
Wong et al. | Gesture-based control of the scanning electron microscope using a low-cost webcam sensor | |
CN114791784A (en) | Blind person auxiliary image browsing method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110922 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20111012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120306 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120426 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120731 |