JP2010003303A - Controller for electronic equipment - Google Patents

Controller for electronic equipment Download PDF

Info

Publication number
JP2010003303A
JP2010003303A JP2009169922A JP2009169922A JP2010003303A JP 2010003303 A JP2010003303 A JP 2010003303A JP 2009169922 A JP2009169922 A JP 2009169922A JP 2009169922 A JP2009169922 A JP 2009169922A JP 2010003303 A JP2010003303 A JP 2010003303A
Authority
JP
Japan
Prior art keywords
hand
image
control
signal
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009169922A
Other languages
Japanese (ja)
Inventor
Masahiro Kitaura
正博 北浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2009169922A priority Critical patent/JP2010003303A/en
Publication of JP2010003303A publication Critical patent/JP2010003303A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a controller for electronic equipment for achieving both flexibility to various electronic equipment and the convenience of a remote operation and for eliminating the need to use equipment for a remote operation such as a remote controller at hand. <P>SOLUTION: The controller for electronic equipment 1 images a target object, displays an image for control for controlling electronic equipment on a display device 23, generates a detection signal showing a change in an imaged image obtained by imaging the target object when the target object performs a prescribed operation to the image for control, calculates the degree that the cycle of a signal waveform of the detection signal coincides with a predetermined cycle, and decides that the electronic equipment is controlled when the degree of coincidence becomes equal to or greater than the predetermined value. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、電子機器の制御装置に関し、特にテレビジョン受像機やパーソナルコンピュータのように表示装置を有する電子機器の遠隔操作を行うための制御装置に関する。   The present invention relates to a control device for an electronic device, and more particularly to a control device for remotely operating an electronic device having a display device such as a television receiver or a personal computer.

1980年代に赤外線リモートコントローラ(通称リモコン)がテレビジョン受像機をはじめとする家電機器に付属するようになり、手元で制御できるユーザインターフェースが広く普及し、家電製品の利用形態を大きく変貌させた。現在においてもこの操作形態が主流であるが、リモコンは1機能を1押しで実行する仕組みが基本となっており、例えばテレビジョン受像機では、「電源」「チャンネル」「音量」「入力切替」などのキーがそれに該当し、これまでのテレビジョン受像機にとって大変便利な遠隔の操作方法であった。   In the 1980s, infrared remote controllers (commonly known as remote controllers) came to be attached to household appliances such as television receivers, and user interfaces that could be controlled at hand became widespread, greatly changing the usage of household appliances. At present, this type of operation is still mainstream, but the remote control is based on a mechanism that executes one function with one push. For example, in a television receiver, “power”, “channel”, “volume”, “input switching”. Such a key corresponds to this, and it has been a very convenient remote operation method for a conventional television receiver.

しかしながら、最近始まったデータ放送は、所望のメニュー画面を選択するために、リモコンの「上下左右」や「決定」キーを何度も押下することになり、煩雑で使いづらくなっている。また、EPG(電子プログラムガイド)は、マトリクスに配列された案内画面から所望の位置を選択してキーを押下するため、同様の課題を有していた。   However, recently started data broadcasting is complicated and difficult to use because the “up / down / left / right” and “decision” keys of the remote controller are pressed many times in order to select a desired menu screen. Further, EPG (Electronic Program Guide) has a similar problem because it selects a desired position from a guide screen arranged in a matrix and presses a key.

特許文献1には、このような課題を解決するために、マウスまたはこれに類似する位置指定操作装置により得られる位置指定情報を、キー押下信号の時系列パターンであるキー押下時系列符号に符号化し、そのキー押下時系列符号をテレビジョン受像機に送信するようにした制御装置が提案されている。   In Patent Document 1, in order to solve such a problem, position designation information obtained by a mouse or a position designation operation device similar thereto is encoded into a key depression time series code which is a time series pattern of a key depression signal. A control device has been proposed in which the key press time-series code is transmitted to a television receiver.

特開2003−283866号公報JP 2003-283866 A 特開2002−196855号公報JP 2002-196855 A 特開平6−153017号公報JP-A-6-153017 特開2001−307107号公報JP 2001-307107 A 特開2002−149302号公報JP 2002-149302 A 特開平8−212327号公報JP-A-8-212327 特開2000−075991号公報JP 2000-075991 A 特開2000−196914号公報JP 2000-196914 A 特開平8−044490号公報JP-A-8-044490 特開平9−081307号公報JP-A-9-081307 特開2001−282456号公報JP 2001-282456 A

特許文献1に示された制御装置は、パーソナルコンピュータ(パソコン)の操作と酷似したポインティングの操作により、テレビジョン受像機を遠隔操作するものである。したがって、パソコンを利用しない人にとっては使いづらいもので、情報リテラシー(情報を使いこなす能力)の観点から、パソコンの使い勝手をそのまま導入することは無理がある。遠隔操作が求められる今日のテレビジョン受像機の利用形態にマッチした新たな操作手段が必要になっている。   The control device disclosed in Patent Document 1 remotely operates a television receiver by a pointing operation very similar to that of a personal computer (personal computer). Therefore, it is difficult for those who do not use a personal computer, and it is impossible to introduce usability of a personal computer as it is from the viewpoint of information literacy (ability to use information). There is a need for a new operation means that matches the usage pattern of today's television receivers that require remote operation.

さらにネットワーク化の進展は、宅内のストレージメディアや宅外のインターネットから得られる多様な情報を、テレビジョン受像機やパソコンのディスプレイに表示することで情報を受容することになる。この場合の操作形態は情報源に依存するため、多様な操作形態に対応する必要があり、家電機器に付属する現状のリモコンでは充分な対応が出来なかった。   Furthermore, the progress of networking will accept information by displaying various information obtained from storage media in the house and the Internet outside the house on the display of a television receiver or a personal computer. Since the operation form in this case depends on the information source, it is necessary to cope with various operation forms, and the current remote control attached to the home electric appliance cannot cope with it.

以上説明したように、従来のリモコンでは、テレビジョン受像機などの機能の多様化と複雑化に対して、リモコンを肥大化させる。データ放送などのメニュー画面の選択操作を従来のリモコンで行うと、ポインティング装置としての役割がより重要となるため、従来のリモコンでは使い勝手の面で難点が多い。またネットワーク化は、ネットワークにつながるあらゆる機器の機能を、表示装置を介して制御することになり、つながる機器の数に比例してリモコンの数が増える問題がある。この問題は、テレビジョン受像機につながるVTR・ビデオディスク・その他オーディオ機器などでも現実にどのリモコンが該当のリモコンであるか判別がつかなくなるようなことで、現状でもよく経験している現象である。さらにインターネットに至っては、あらゆるウェッブサイトの情報を選択制御することになり、もはや従来のリモコンの形態では限界に達していることは自明である。   As described above, the conventional remote controller enlarges the remote controller with respect to the diversification and complication of functions of the television receiver and the like. When the selection operation of the menu screen such as data broadcasting is performed with a conventional remote controller, the role as a pointing device becomes more important, so the conventional remote controller has many drawbacks in terms of usability. In addition, networking has a problem that the functions of all devices connected to the network are controlled via a display device, and the number of remote controllers increases in proportion to the number of connected devices. This problem is a phenomenon that is often experienced in the present situation because it is impossible to determine which remote controller is actually the corresponding remote controller even in a VTR, video disc, or other audio device connected to the television receiver. . Furthermore, in the Internet, it is obvious that information on all websites is selected and controlled, and it is no longer in the form of the conventional remote control.

本発明は上述した点に着目してなされたものであり、多様な電子機器に対する柔軟性と遠隔操作の利便性を両立させると共に、リモコンのような遠隔操作用機器を手元で利用することを不要とした電子機器の制御装置を提供することを目的とする。   The present invention has been made paying attention to the above-described points, and achieves both flexibility and convenience of remote operation for various electronic devices, and does not require the use of a remote operation device such as a remote control at hand. An object of the present invention is to provide a control device for electronic equipment.

本発明は、上述した従来の技術の課題を解決するため、次の電子機器の制御方法を提供するものである。
表示装置23を有する電子機器1を制御する制御方法において、対象物を撮像し、前記電子機器を制御するための制御用画像を前記表示装置に表示し、前記制御用画像に対して前記対象物が所定の動作を行った際の前記対象物を撮像した撮像画像の変化を示す検出信号を生成し、前記検出信号の信号波形の周期が、予め定めた周期と一致する度合いを求め、前記一致する度合いが予め定めた値以上となったとき、前記電子機器を制御することを確定することを特徴とする電子機器の制御方法。
The present invention provides the following electronic device control method in order to solve the above-described problems of the prior art.
In the control method for controlling the electronic device 1 having the display device 23, an object is imaged, a control image for controlling the electronic device is displayed on the display device, and the target object is displayed with respect to the control image. Generates a detection signal indicating a change in a captured image obtained by capturing the target object when performing a predetermined operation, obtains a degree of coincidence of a period of a signal waveform of the detection signal with a predetermined period, and A control method for an electronic device, comprising: confirming that the electronic device is to be controlled when a degree to be performed is equal to or greater than a predetermined value.

本発明によれば、操作者がビデオカメラで撮影され、鏡像変換された鏡像変換画像信号と、操作ボタンを含む操作用画像信号とが混合されて、すなわち重ね合わされて表示装置に表示される。その状態で画面に表示された操作者が操作用画像を指し示したことを検出し、さらに操作者が操作用画像を操作したことを検出した場合に、操作用画像に対応した電子機器の制御動作が実行される。より具体的には、鏡像変換画像信号における操作ボタンに対応する操作領域を指し示す操作者の手の領域が抽出され、操作領域の画像信号に占める手の領域の画像信号の変化を示すデータが検出される。そして、検出されたデータに基づいた波形が生成され、この波形と予め設定されている波形のデータとを比較して求めた一致度に基づいて操作者が操作用画像を操作したことを検出すると、操作用画像に対応した電子機器の制御動作が実行される。したがって、リモコンのような遠隔操作装置を用いることなく、電子機器の遠隔操作が可能となる。この場合、操作用画像は、選択すべき操作、あるいは情報の内容に応じて適宜設定できるので、多様な電子機器に対する柔軟性と遠隔操作の利便性を両立させることができる。   According to the present invention, the mirror image conversion image signal obtained by the operator shooting with the video camera and subjected to mirror image conversion and the operation image signal including the operation button are mixed, that is, superimposed and displayed on the display device. Control operation of the electronic device corresponding to the operation image when it is detected that the operator displayed on the screen in this state points to the operation image, and further that the operator has operated the operation image. Is executed. More specifically, an area of the operator's hand indicating the operation area corresponding to the operation button in the mirror image conversion image signal is extracted, and data indicating a change in the image signal of the hand area in the image signal of the operation area is detected. Is done. Then, a waveform based on the detected data is generated, and when it is detected that the operator has operated the operation image based on the degree of coincidence obtained by comparing this waveform with data of a preset waveform. Then, the control operation of the electronic device corresponding to the operation image is executed. Therefore, it is possible to remotely control the electronic device without using a remote control device such as a remote controller. In this case, the operation image can be appropriately set according to the operation to be selected or the content of information, so that both flexibility for various electronic devices and convenience of remote operation can be achieved.

本発明の電子機器操作方法の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the electronic device operating method of this invention. 本発明の一実施形態にかかる電子機器(テレビジョン受像機)の要部の構成を示すブロック図である。It is a block diagram which shows the structure of the principal part of the electronic device (television receiver) concerning one Embodiment of this invention. 画像の鏡像変換の方法を説明するための図である。It is a figure for demonstrating the method of the mirror image conversion of an image. 操作者の画像と、操作用画像とを示す図である。It is a figure which shows an operator's image and the image for operation. 操作者の画像と、操作用画像とを重畳(混合)した状態を説明するための図である。It is a figure for demonstrating the state on which the operator's image and the image for operation were superimposed (mixed). 図2に示す検出器と、表示装置の画面上の検出領域との対応を説明するための図である。It is a figure for demonstrating a response | compatibility with the detector shown in FIG. 2, and the detection area on the screen of a display apparatus. 図2に示す検出器の構成を示すブロック図である。It is a block diagram which shows the structure of the detector shown in FIG. 図7に示すオブジェクト抽出器の構成を示すブロック図である。It is a block diagram which shows the structure of the object extractor shown in FIG. オブジェクト抽出器で抽出する対象物の色相及び飽和度を説明するための図である。It is a figure for demonstrating the hue and saturation of the target object which are extracted with an object extractor. 色差信号から色相を算出する処理のフローチャートである。It is a flowchart of the process which calculates a hue from a color difference signal. オブジェクト抽出器で抽出する対象物の輝度信号レベルを示す図である。It is a figure which shows the luminance signal level of the target object extracted with an object extractor. 画面上の操作ボタンに手をかざした状態を示す図である。It is a figure which shows the state which held the hand on the operation button on the screen. 画面上の操作ボタンの上で指を曲げた状態を示す図である。It is a figure which shows the state which bent the finger | toe on the operation button on a screen. 指を曲げる動作を2回行った場合における、手の画面上への投影面積の変化を示すタイムチャートである。It is a time chart which shows the change of the projection area on the screen of a hand in case the operation | movement which bends a finger twice is performed. 操作ボタンと手の画像とが重なった状態を示す図である。It is a figure which shows the state with which the operation button and the image of the hand overlapped. 図14に示す時刻T−1における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。It is a figure which shows the frequency distribution and average luminance level (APL) of the brightness in the time T-1 shown in FIG. 図14に示す時刻T0における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。It is a figure which shows the frequency distribution and average luminance level (APL) of the brightness in the time T0 shown in FIG. 図14に示す時刻T1における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。It is a figure which shows the frequency distribution and average luminance level (APL) of the brightness in the time T1 shown in FIG. 図14に示す時刻T2における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。It is a figure which shows the frequency distribution and average luminance level (APL) of the brightness in the time T2 shown in FIG. 図14に示す時刻T3における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。It is a figure which shows the frequency distribution of brightness and the average luminance level (APL) in the time T3 shown in FIG. 図14に示す時刻T4における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。It is a figure which shows the frequency distribution of brightness and the average luminance level (APL) in the time T4 shown in FIG. 図14に示す時刻T5における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。It is a figure which shows the frequency distribution and average luminance level (APL) of the brightness in the time T5 shown in FIG. 図14に示す時刻T6における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。It is a figure which shows the frequency distribution and average luminance level (APL) of the brightness in the time T6 shown in FIG. 図2に示す制御情報判断器(CPU)の動作を説明するための機能ブロック図である。It is a functional block diagram for demonstrating operation | movement of the control information judgment device (CPU) shown in FIG. 操作ボタンを選択する動作を確定するためのデータ処理を説明するためのタイムチャートである。It is a time chart for demonstrating the data processing for determining operation | movement which selects an operation button. DCオフセット成分を除去するためのディジタルフィルタの構成を示すブロック図である。It is a block diagram which shows the structure of the digital filter for removing a DC offset component. 図26に示すディジタルフィルタの具体的な構成と、処理波形との関係を説明するための図である。It is a figure for demonstrating the specific structure of the digital filter shown in FIG. 26, and the relationship with a processing waveform. 検出される動作と、所定選択動作との相互相関計算値の推移を示すタイムチャートである。It is a time chart which shows transition of the cross correlation calculation value of operation detected and predetermined selection operation. ビデオカメラで撮影した操作者の画像が小さすぎる場合の処理を説明するための図である。It is a figure for demonstrating the process when the image of the operator image | photographed with the video camera is too small. ビデオカメラで撮影した操作者の画像が大きすぎる場合の処理を説明するための図である。It is a figure for demonstrating the process when the image of the operator image | photographed with the video camera is too large. ビデオカメラ、及びその画角を変更するための装置を示す図である。It is a figure which shows the apparatus for changing a video camera and its angle of view.

以下本発明の実施の形態を図面を参照して説明する。
図1は、従来のリモコン装置による操作形態と、本発明の操作形態との違いを説明するための図である。視聴者(ユーザ)3が、テレビジョン受像機1を操作する場合、従来は視聴者3がリモコン装置4を手に持って所望の機能を働かせるキーをテレビジョン受像機1に向けて押下することによって操作する。したがって、リモコン装置4が無ければ操作が出来ず、不便を強いられる場合を時々経験する。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram for explaining a difference between an operation mode of a conventional remote controller and an operation mode of the present invention. When the viewer (user) 3 operates the television receiver 1, conventionally, the viewer 3 holds the remote control device 4 in his hand and presses a key for performing a desired function toward the television receiver 1. Operate by. Therefore, if the remote control device 4 is not provided, the operation cannot be performed and the user is sometimes inconvenienced.

これに対し、本実施形態では、テレビジョン受像機1にビデオカメラ2が設けられており、ビデオカメラ2により視聴者3が撮影され、ビデオカメラ2の画像から視聴者3の動作を得て、テレビジョン受像機1及びそれに関連する機器の操作が行われる。視聴者3の動作とは、具相的にはテレビジョン受像機1に表示されるメニュー画面から所望のボタンを選択する身体(手、足、顔など)の動きのことである。またテレビジョン受像機1の周囲が暗いときは、身体以外のもの、例えばペンライトを使えば同様の効果が得られる。本実施形態ではもっとも現実的な手の動きで操作する手法が採用されている。   On the other hand, in the present embodiment, the television receiver 1 is provided with the video camera 2, the viewer 3 is photographed by the video camera 2, and the operation of the viewer 3 is obtained from the image of the video camera 2, The television receiver 1 and related devices are operated. The operation of the viewer 3 is specifically the movement of the body (hand, foot, face, etc.) that selects a desired button from the menu screen displayed on the television receiver 1. Further, when the surroundings of the television receiver 1 are dark, the same effect can be obtained by using something other than the body, for example, a pen light. In the present embodiment, the most realistic hand movement method is employed.

図2は、テレビジョン受像機1の構成を示すブロック図であり、テレビジョン受像機1は、基準同期発生器11、タイミングパルス発生器12、グラフィックス生成器16、ビデオカメラ2、鏡像変換器14、スケーラ15、第1の混合器17、画素数変換器21、第2の混合器22、表示装置23、検出部19、及び制御情報判断器(CPU)20を備えている。   FIG. 2 is a block diagram showing a configuration of the television receiver 1. The television receiver 1 includes a reference synchronization generator 11, a timing pulse generator 12, a graphics generator 16, a video camera 2, and a mirror image converter. 14, a scaler 15, a first mixer 17, a pixel number converter 21, a second mixer 22, a display device 23, a detection unit 19, and a control information determination device (CPU) 20.

基準同期発生器11は、テレビジョン受像機1の基準になる水平周期パルスと垂直周期パルスを発生させる。テレビジョン放送受信時や外部の機器から映像信号が入力されている場合は、その入力信号の同期信号に同期するパルスを生成する。タイミングパルス発生器12は、図に示す各ブロックで必要とする水平方向と垂直方向の任意の位相と幅を有するパルスを生成する。ビデオカメラ2は、図1に示すようにテレビジョン受像機1の前面に位置して視聴者(ユーザ)3、またはテレビジョン受像機前の映像を撮影する。ビデオカメラ2の出力信号は、輝度(Y)信号、及び色差(R−Y、B−Y)信号で、基準同期発生器11から出力される水平周期パルス及び垂直周期パルスに同期している。また、本実施形態では、ビデオカメラ2で撮像される画像の画素数は、表示装置23の画素数と一致しているものとする。なお、画素数が一致していない場合は画素数変換器を挿入すればよい。   The reference synchronization generator 11 generates a horizontal period pulse and a vertical period pulse that serve as a reference for the television receiver 1. When a video signal is input when a television broadcast is received or from an external device, a pulse that is synchronized with the synchronization signal of the input signal is generated. The timing pulse generator 12 generates a pulse having an arbitrary phase and width in the horizontal and vertical directions required for each block shown in the figure. As shown in FIG. 1, the video camera 2 is positioned in front of the television receiver 1 and shoots an image in front of the viewer (user) 3 or the television receiver. The output signal of the video camera 2 is a luminance (Y) signal and a color difference (R−Y, B−Y) signal, and is synchronized with the horizontal period pulse and the vertical period pulse output from the reference synchronization generator 11. In the present embodiment, it is assumed that the number of pixels of the image captured by the video camera 2 matches the number of pixels of the display device 23. If the number of pixels does not match, a pixel number converter may be inserted.

鏡像変換器14は、ビデオカメラ2で撮影した被写体像を表示装置23上に鏡と同じように左右を反転して表示するためのものである。したがって、文字を表示する場合は鏡と同じように左右が反転することになる。これについては図3に示すとおり、水平周期でデータの書き込み及び読み出しを行う第1のメモリと第2のメモリを用いてアドレス操作を行うことにより、容易に実現できる。例えば1水平周期をN画素とした場合、二つのメモリの書き込みアドレス0〜N−1まで1水平周期ごと交互に入力信号を書き込み、書き込み動作と排他的に読み出しを行い、書き込みアドレスと逆にN−1〜0へと辿り、水平方向の画像を左右に反転させる。なお、本実施形態では、メモリを活用して水平方向の画像を反転させる手法を採用したが、表示装置23としてCRT(Cathode Ray Tube)を用いる場合には、水平偏向を逆に操作することで同様の効果が得られる。その場合には、グラフィックスやその他混合する側の画像をあらかじめ水平方向に左右逆転しておく必要がある。   The mirror image converter 14 is for displaying the subject image photographed by the video camera 2 on the display device 23 with the left and right reversed like a mirror. Therefore, when displaying characters, the left and right are reversed in the same way as a mirror. As shown in FIG. 3, this can be easily realized by performing an address operation using the first memory and the second memory for writing and reading data in the horizontal period. For example, when one horizontal period is N pixels, the input signal is alternately written for each horizontal period from the write addresses 0 to N-1 of the two memories, the read operation is performed exclusively with the write operation, and N is opposite to the write address. Trace from -1 to 0 and flip the image in the horizontal direction left and right. In this embodiment, a method of inverting the image in the horizontal direction using the memory is adopted. However, when a CRT (Cathode Ray Tube) is used as the display device 23, the horizontal deflection is operated in reverse. Similar effects can be obtained. In that case, it is necessary to reverse the graphics and other images on the mixing side in the horizontal direction in advance.

スケーラ15は、ビデオカメラ2により撮影した被写体像の大きさを調整するもので、制御情報判断器(CPU)20の制御で拡大率と縮小率を2次元で調整する。また、拡大縮小を行わずに、水平と垂直の位相調整を行うこともできる。これの利用の仕方について後で詳しく述べる。   The scaler 15 adjusts the size of the subject image photographed by the video camera 2, and adjusts the enlargement ratio and the reduction ratio two-dimensionally under the control of the control information determination unit (CPU) 20. Also, horizontal and vertical phase adjustments can be performed without performing enlargement / reduction. How to use this will be described in detail later.

グラフィックス生成器16は、制御情報判断器(CPU)20から転送されるメニュー画面を展開するもので、メモリ上の信号がR(赤)信号、G(緑)信号、B(青)信号の原色信号で展開されていても、後段で映像信号と合成または混合される出力信号は、Y(輝度)信号と色差信号(R−Y、B−Y)とする。また生成されるグラフィックスのプレーン数は限定するものではないが、説明に要するものは1プレーンである。画素数は本実施形態では表示装置23の画素数に一致させるようにしている。一致していない場合は、画素数変換器を入れて一致させる必要がある。   The graphics generator 16 develops the menu screen transferred from the control information determination unit (CPU) 20, and the signals on the memory are R (red) signal, G (green) signal, B (blue) signal. Even if the primary color signal is developed, the output signal synthesized or mixed with the video signal in the subsequent stage is a Y (luminance) signal and a color difference signal (RY, BY). The number of graphics planes to be generated is not limited, but only one plane is necessary for explanation. In this embodiment, the number of pixels is made to match the number of pixels of the display device 23. If they do not match, it is necessary to add a pixel number converter to match.

第1の混合器17は、グラフィックス生成器16の出力信号Gsと、スケーラ15の出力信号S1とを、制御値α1により混合割合を制御して混合する。具体的には、下記式で出力信号M1oが表される。
M1o=α1・S1+(1−α1)・Gs
制御値α1は、「0」から「1」の間の値に設定され、制御値α1を大きくするとスケーラ出力信号S1の割合が大きくなり、グラフィックス生成器出力信号Gsの割合が小さくなる。混合器の例としてはこれに限らないが、本実施形態では、入力される2系統の信号情報が入っていれば同様の効果が得られる。
The first mixer 17 mixes the output signal Gs of the graphics generator 16 and the output signal S1 of the scaler 15 by controlling the mixing ratio with the control value α1. Specifically, the output signal M1o is expressed by the following equation.
M1o = α1 · S1 + (1−α1) · Gs
The control value α1 is set to a value between “0” and “1”. When the control value α1 is increased, the proportion of the scaler output signal S1 increases and the proportion of the graphics generator output signal Gs decreases. The example of the mixer is not limited to this, but in the present embodiment, the same effect can be obtained as long as two types of input signal information are included.

検出部19は、第1の検出器31,第2の検出器32,第3の検出器33,第4の検出器34,…からなる。検出部19に含まれる検出器は数を特定するものではなく、グラフィックス生成器16で生成されるメニュー画面と連携した制御内容を表すプッシュボタン(パソコンではマウスでクリック操作する操作ボタンに該当)の数に対応して変動する。   The detection unit 19 includes a first detector 31, a second detector 32, a third detector 33, a fourth detector 34,. The number of detectors included in the detection unit 19 does not specify the number, but is a push button that represents the control contents linked with the menu screen generated by the graphics generator 16 (corresponds to an operation button that is clicked with a mouse on a personal computer). It fluctuates corresponding to the number of.

制御情報判断器(CPU)20は、検出部19から出力されるデータの解析を行い、各種制御信号を出力する。制御情報判断器(CPU)20の処理内容は、ソフトウェアで実現するものとなり、アルゴリズムについては詳細に記述する。本実施形態では、ハードウェア(各機能ブロック)による処理と、ソフト(CPU上で展開)処理が混在するが、特にここで示す切り分けに限定するものではない。   The control information determination unit (CPU) 20 analyzes data output from the detection unit 19 and outputs various control signals. The processing content of the control information judging device (CPU) 20 is realized by software, and the algorithm will be described in detail. In the present embodiment, processing by hardware (each functional block) and software (development on the CPU) are mixed, but the present invention is not particularly limited to the separation shown here.

画素数変換器21は、外部から入力される外部入力信号の画素数と表示装置23の画素数を合わせるための画素数変換を行う。外部入力信号は、放送されてくるテレビ信号(データ放送なども含む)やビデオ(VTR)入力などテレビジョン受像機の外部から入力されてくる信号を想定している。外部入力信号の同期系については、ここでの説明から省いてあるが、同期信号(水平及び垂直)を取得し、基準同期発生器11にて同期を一致させている。   The pixel number converter 21 performs pixel number conversion for matching the number of pixels of the external input signal input from the outside with the number of pixels of the display device 23. The external input signal is assumed to be a signal input from the outside of the television receiver such as a broadcast TV signal (including data broadcast) and a video (VTR) input. Although the synchronization system of the external input signal is omitted from the description here, the synchronization signal (horizontal and vertical) is acquired, and the reference synchronization generator 11 matches the synchronization.

第2の混合器22は、第1の混合器17と同様の機能を有する。すなわち、第1の混合器17の出力信号M1oと、画素数変換器21の出力信号S2とを制御値α2で混合割合を制御して混合する。具体的には、下記式で出力信号M2oが表される。
M2o=α2・M1o+(1−α2)・S2
制御値α2は、「0」から「1」の間の値に設定され、制御値α2を大きくすると第1の混合器出力信号M1oの割合が大きくなり、画素数変換器出力信号S2の割合が小さくなる。混合器の例としてはこれに限らないが、本実施形態では、入力される2系統の信号情報が入っていれば同様の効果が得られる。
The second mixer 22 has the same function as the first mixer 17. That is, the output signal M1o of the first mixer 17 and the output signal S2 of the pixel number converter 21 are mixed by controlling the mixing ratio with the control value α2. Specifically, the output signal M2o is expressed by the following equation.
M2o = α2 · M1o + (1-α2) · S2
The control value α2 is set to a value between “0” and “1”. When the control value α2 is increased, the ratio of the first mixer output signal M1o is increased and the ratio of the pixel number converter output signal S2 is increased. Get smaller. The example of the mixer is not limited to this, but in the present embodiment, the same effect can be obtained as long as two types of input signal information are included.

表示装置23は、CRT(陰極線管)、LCD(液晶ディスプレイ)、PDP(プラズマディスプレイ)、あるいはプロジェクションディスプレイなどを想定しているが、ディスプレイの表示方式を限定するものではない。表示装置23の入力信号は、輝度信号Yと、色差信号R−Y及びB−Yであり、表示装置23の内部にてRGB原色信号にマトリクス変換されて表示される。   The display device 23 is assumed to be a CRT (cathode ray tube), an LCD (liquid crystal display), a PDP (plasma display), a projection display, or the like, but the display method of the display is not limited. The input signals of the display device 23 are a luminance signal Y and color difference signals RY and BY, and are converted into RGB primary color signals and displayed inside the display device 23.

以上のように構成されたテレビジョン受像機1の動作を、視聴者(ユーザ)の動作を交えて説明する。図4は、グラフィックス画像41と、ビデオカメラ画像を鏡像変換し、スケーリングによりグラフィックス画像41と画素数を一致させたスケーラ出力画像43とを示しており、二つの画像41及び43に対応する信号が、第1の混合器17で混合される。グラフィックス画像41は、制御を行うためのメニュー画面を形成しており、四角形の42はプッシュボタン(操作ボタン)を表す。一方のスケーラ出力画像43は、ユーザを撮影し、鏡と同じように表示するものである。スケーラ出力画像43の中の破線の四角形44は、複数の検出器31,32等からなる検出部19の検出エリアを表したもので、グラフィックス画像41上のプッシュボタン42と同一の位置に配置されている。   The operation of the television receiver 1 configured as described above will be described along with the operation of the viewer (user). FIG. 4 shows a graphics image 41 and a scaler output image 43 in which the video camera image is mirror-image transformed and the number of pixels is matched with that of the graphics image 41 by scaling, and corresponds to the two images 41 and 43. The signal is mixed in the first mixer 17. The graphics image 41 forms a menu screen for performing control, and a square 42 represents a push button (operation button). One scaler output image 43 is a photograph of the user and displayed in the same manner as a mirror. A broken-line square 44 in the scaler output image 43 represents a detection area of the detection unit 19 including a plurality of detectors 31 and 32 and is arranged at the same position as the push button 42 on the graphics image 41. Has been.

図5は、第1の混合器17における混合処理を説明するためのイメージ図である。図5(A)はグラフィックス生成器16で生成される制御メニュー画面を表したものであり、プッシュボタン(1−1)〜(1−8)が含まれている。図5(B)は、ビデオカメラ2でユーザを捉えた画面(鏡像変換、及びスケーラ処理済み)で、検出部19の各検出器に対応する検出エリア(2−1)〜(2−8)が含まれている。第1の混合器17にて、図5(A)及び(B)に示す画面を制御値α1に対応する混合割合で混合した画面が、図5(C)に示されている。なお、図5(C)に表示されるユーザの画像は、実際には、図5(B)に示される画像より、制御値α1に対応して輝度及びコントラストが低下したものとなる。   FIG. 5 is an image diagram for explaining the mixing process in the first mixer 17. FIG. 5A shows a control menu screen generated by the graphics generator 16 and includes push buttons (1-1) to (1-8). FIG. 5B is a screen (mirror image conversion and scaler processed) that captures the user with the video camera 2, and detection areas (2-1) to (2-8) corresponding to the detectors of the detection unit 19. It is included. FIG. 5C shows a screen obtained by mixing the screens shown in FIGS. 5A and 5B at the mixing ratio corresponding to the control value α1 in the first mixer 17. Note that the user image displayed in FIG. 5C actually has a lower brightness and contrast than the image shown in FIG. 5B corresponding to the control value α1.

このように表示装置23には、ユーザの画像が鏡と同様に映ると共に、制御のメニュー画面も重畳されて表示される。これによりユーザ本人は、自分の動きと制御メニューの位置を認識することが出来る。制御は、ユーザが画面を見て、画面上のプッシュボタンに触れるように手(身体)を動かすことにより行う。言い換えれば手をプッシュボタン上に位置するように画面を見てユーザが動作することにより、制御を行う。そして手を触れた(該当する)プッシュボタンと1:1になっている検出エリア内の手を検出すれば、該当するプッシュボタンを押したことが認識できる。したがって制御情報判断器(CPU)20から該当プッシュボタンの制御内容に相当する制御信号を出力することができる。その際グラフィック状のメニュー画面のプッシュボタンは形状及び/または色を変化させて、動作が認識されたことを表示上に表す。例えばプッシュボタンが押されたように画像を変化させる。   In this way, the user's image is displayed on the display device 23 in the same manner as a mirror, and the control menu screen is also displayed superimposed. Thereby, the user himself / herself can recognize his / her movement and the position of the control menu. The control is performed by moving the hand (body) so that the user looks at the screen and touches the push button on the screen. In other words, control is performed by the user operating while looking at the screen so that the hand is positioned on the push button. If the push button touched (applicable) and the hand in the detection area 1: 1 are detected, it can be recognized that the corresponding push button has been pressed. Therefore, a control signal corresponding to the control content of the corresponding push button can be output from the control information determination device (CPU) 20. At that time, the push button on the graphic menu screen changes its shape and / or color to indicate on the display that the operation has been recognized. For example, the image is changed as if the push button was pressed.

図6は、ビデオカメラ2からの画像上に設定している検出エリア(2−1)〜(2−8)と、検出部19の検出器31〜34との対応関係を示し、さらに検出エリア(2−1)及び(2−8)を特定するタイミングパルス(水平垂直)を示す。   FIG. 6 shows the correspondence between the detection areas (2-1) to (2-8) set on the image from the video camera 2 and the detectors 31 to 34 of the detection unit 19, and further shows the detection area. Timing pulses (horizontal and vertical) that specify (2-1) and (2-8) are shown.

各検出器31〜34は、図7に示すように、オブジェクト抽出器51と、タイミングゲート器52と、オブジェクト特徴データ検出部53とを備えている。タイミングゲート器52は、図6に示したタイミングパルスでビデオカメラ2からの画像信号の通過を制御する。通過する領域は図6に破線の四角形で示す検出エリア内である。この検出エリア内に限定した信号を、さらにさまざまなフィルタ処理してビデオカメラ2で捉えたユーザの手を抽出する。   As shown in FIG. 7, each of the detectors 31 to 34 includes an object extractor 51, a timing gate device 52, and an object feature data detector 53. The timing gate unit 52 controls the passage of the image signal from the video camera 2 with the timing pulse shown in FIG. The passing area is in the detection area indicated by a broken-line rectangle in FIG. The user's hand captured by the video camera 2 is extracted by further filtering the signal limited within the detection area.

オブジェクト抽出器51は、画像の特徴に添ったフィルタを備えており、本実施形態ではユーザの手を検出するために、特に肌色に着目したフィルタ処理を行う。オブジェクト抽出器51は、具体的には、図8に示されるように、特定色フィルタ71と、階調限定器72と、合成器73と、オブジェクトゲート74とを備えている。特定色フィルタ71を、図9を参照して説明する。図9は、色差平面図で、縦軸をR−Y、横軸をB−Yとしたものである。テレビ信号のすべての色信号はこの座標上のベクトルで表すことができ、極座標で評価できる。特定色フィルタ71は、色差信号で入力される色信号の色相と色の濃さ(飽和度)を限定するものである。これを特定するために色相は、第1象限のB−Y軸を基準(零度)として左回りの角度で表現するものとする。また飽和度は、ベクトルのスカラ量となり、色差平面の原点が飽和度零で色がない状態となり、原点から離れるにしたがい飽和度が大きくなり色が濃いことを示す。   The object extractor 51 includes a filter according to the characteristics of the image. In the present embodiment, in order to detect the user's hand, the object extractor 51 performs a filter process that pays particular attention to the skin color. Specifically, as shown in FIG. 8, the object extractor 51 includes a specific color filter 71, a gradation limiter 72, a combiner 73, and an object gate 74. The specific color filter 71 will be described with reference to FIG. FIG. 9 is a color difference plan view, in which the vertical axis is RY and the horizontal axis is BY. All color signals of a television signal can be represented by vectors on this coordinate and can be evaluated in polar coordinates. The specific color filter 71 limits the hue and color density (saturation degree) of the color signal input as the color difference signal. In order to specify this, the hue is expressed by a counterclockwise angle with the BY axis in the first quadrant as a reference (zero degree). The saturation is a vector scalar quantity, indicating that the origin of the color difference plane is zero and no color is present, and the saturation increases as the distance from the origin increases and the color is dark.

図9では、特定色フィルタ71により抽出される範囲は、等色相線L1に対応する角度θ1より小さくかつ等色相線L2に対応する角度θ2の範囲に設定され、また色の濃さは等飽和度線S2より小さくS1より大きい範囲に設定されている。第2象限のこの範囲は本実施形態で抽出する人間の手の色である肌色の領域に相当するが、特にこれに限定するものではない。特定色フィルタ71は、ビデオカメラ2からくる色差信号(R−Y、B−Y)が等色相線と等飽和度線で囲まれた領域に入っているか否かを検出する。そのためには色差信号から角度と飽和度を算出して判定する。   In FIG. 9, the range extracted by the specific color filter 71 is set to an angle θ2 that is smaller than the angle θ1 corresponding to the equal hue line L1 and corresponding to the equal hue line L2, and the color density is equal saturation. It is set in a range smaller than the degree line S2 and larger than S1. This range of the second quadrant corresponds to a skin color region which is the color of the human hand extracted in the present embodiment, but is not particularly limited thereto. The specific color filter 71 detects whether or not the color difference signals (R−Y, B−Y) coming from the video camera 2 are in an area surrounded by the equal hue line and the equal saturation line. For this purpose, the angle and the saturation are calculated from the color difference signal and determined.

角度算出は、一例として図10に示すような処理によって、入力画素それぞれについて、図9に示す色差平面上でなす角度を算出する。図10は、角度算出処理をフローチャートにて図示しているが、角度算出処理はソフトウェア、ハードウェアのいずれで実現してもよい。本実施形態では、ハードウェアで実現するようにしている。図10のステップS401にて、入力画素それぞれの色差信号R−Y,B−Y成分の符号より、入力画素の色相が、色差平面上の第何象限に位置しているかを検出する。ステップS402にて、色差信号R−Y,B−Y成分それぞれの絶対値の大きい方をA、小さい方をBとして算出する。   In the angle calculation, for example, an angle formed on the color difference plane shown in FIG. 9 is calculated for each input pixel by a process as shown in FIG. FIG. 10 illustrates the angle calculation process in a flowchart, but the angle calculation process may be realized by either software or hardware. In the present embodiment, it is realized by hardware. In step S401 in FIG. 10, it is detected from the sign of the color difference signal RY, BY component of each input pixel that the hue of the input pixel is located in the first quadrant on the color difference plane. In step S402, the larger one of the absolute values of the color difference signals RY and BY components is calculated as A, and the smaller one is calculated as B.

そして、ステップS403にて、B/Aより角度T1を検出する。この角度T1は、ステップS402の処理より明らかなように、0〜45°となる。角度T1は、折れ線近似やROMテーブルによって算出することができる。ステップS404にて、Aが|R−Y|であるか、即ち、|R−Y|>|B−Y|であるか否かを判定する。|R−Y|>|B−Y|でなければ、そのままステップS406に進む。|R−Y|>|B−Y|であれば、ステップS405にて、角度T1を、(90−T1)に置き換える。これによって、tan-1((R−Y)/(B−Y))が求められる。 In step S403, the angle T1 is detected from B / A. This angle T1 is 0 to 45 °, as is apparent from the processing in step S402. The angle T1 can be calculated by broken line approximation or a ROM table. In step S404, it is determined whether A is | R−Y |, that is, whether or not | R−Y |> | B−Y |. If not | R−Y |> | B−Y |, the process directly proceeds to step S406. If | R−Y |> | B−Y |, the angle T1 is replaced with (90−T1) in step S405. Thus, tan −1 ((R−Y) / (B−Y)) is obtained.

ステップS403において検出する角度T1を0〜45°としているのは、tan-1((R−Y)/(B−Y))のカーブは45°を超えると急激に勾配が大きくなり、角度の算出に不適であるからである。
さらに、ステップS406にて、ステップS401にて検出した象限のデータを用いて第2象限か否かを判定し、第2象限であれば、ステップS407にて、T=180−T1を算出する。第2象限でなければ、ステップS408にて、第3象限か否かを判定し、第3象限であれば、ステップS409にて、T=180+T1を算出する。第3象限でなければ、ステップS410にて、第4象限か否かを判定し、第4象限であれば、ステップS411にて、T=360−T1を算出する。第4象限でもない、すなわち第1象限であるときは、角度TをT1とする(ステップS412)。そして、最終的に、ステップS413にて、入力画素それぞれの図9の色差平面上でなす角度Tを出力する。
The angle T1 detected in step S403 is set to 0 to 45 ° because the tan −1 ((RY) / (BY)) curve suddenly increases when the angle exceeds 45 °. This is because it is unsuitable for calculation.
Further, at step S406, it is determined whether or not the second quadrant is used by using the quadrant data detected at step S401. If it is the second quadrant, T = 180−T1 is calculated at step S407. If it is not the second quadrant, it is determined in step S408 whether it is the third quadrant, and if it is the third quadrant, T = 180 + T1 is calculated in step S409. If it is not the third quadrant, it is determined in step S410 whether or not it is the fourth quadrant, and if it is the fourth quadrant, T = 360−T1 is calculated in step S411. If it is not the fourth quadrant, that is, the first quadrant, the angle T is set to T1 (step S412). Finally, in step S413, the angle T formed on the color difference plane of FIG. 9 for each input pixel is output.

以上の処理により、入力された色差信号R−Y,B−Yの色差平面上での角度を0〜360°の範囲で求めることができる。ステップS404〜S411は、ステップS403にて検出した角度T1を角度Tに補正する処理である。また、ステップS404〜S411は、角度T1を、第1〜第4象限に応じて補正している。   Through the above processing, the angle of the input color difference signals RY and BY on the color difference plane can be obtained in the range of 0 to 360 °. Steps S404 to S411 are processes for correcting the angle T1 detected in step S403 to the angle T. In steps S404 to S411, the angle T1 is corrected according to the first to fourth quadrants.

次に色の濃さである飽和度の算出は、下記の式により行われる。
Vc=sqrt(Cr×Cr+Cb×Cb)
但し、Crは、図9に示すように色信号の(R−Y)軸成分であり、Cbは(B−Y)軸成分である。またsqrt( )は平方根の演算を行う演算子である。
Next, the saturation, which is the color density, is calculated by the following equation.
Vc = sqrt (Cr × Cr + Cb × Cb)
However, Cr is the (RY) axis component of the color signal as shown in FIG. 9, and Cb is the (BY) axis component. Sqrt () is an operator that performs a square root operation.

ここでの処理はソフトウェアまたはハードウェアを特定するものではないが、乗算と平方根はハードウェアでは実現が容易でなく、またソフトでも演算のステップが多く好ましくないので以下のように近似することも出来る。
Vc=max(|Cr|,|Cb|)
+0.4×min(|Cr|,|Cb|)
但し、max(|Cr|,|Cb|)は、|Cr|と|Cb|のうち、大きい方を選択する演算処理であり、min(|Cr|,|Cb|)は、|Cr|と|Cb|のうち、小さい方を選択する処理である。またVcはベクトルのスカラー量であり、ここでは飽和度を表す。
The processing here does not specify software or hardware, but multiplication and square root are not easy to implement in hardware, and software is not preferable because of many operation steps, so it can be approximated as follows: .
Vc = max (| Cr |, | Cb |)
+ 0.4 × min (| Cr |, | Cb |)
However, max (| Cr |, | Cb |) is an arithmetic process for selecting the larger one of | Cr | and | Cb |, and min (| Cr |, | Cb |) is | Cr | This is the process of selecting the smaller of | Cb |. Further, Vc is a vector scalar quantity, and here represents saturation.

以上より求めた角度(色相)Tと飽和度Vcが、等色相線の角度θ1からθ2の範囲、色の濃さは等飽和度線S2より小さくかつS1より大きい範囲に入っているか否かを評価する。範囲に入っている信号を通過させるのが、図8に示す特定色フィルタ71の役割である。   Whether or not the angle (hue) T and the degree of saturation Vc obtained from the above are within the range of the angle of the uniform hue line θ1 to θ2, and the color density is smaller than the equal saturation line S2 and larger than S1. evaluate. It is the role of the specific color filter 71 shown in FIG. 8 to pass signals within the range.

図8の階調限定器72は、図11に示すように、輝度信号の特定の階調を限定するものである。8ビットデジタル信号の場合、0〜255までの256階調を有するが、この範囲の階調を限定する最大レベルLmax及び最小レベルLminを設定し、レベルがその間にある輝度信号を出力する。   As shown in FIG. 11, the gradation limiter 72 of FIG. 8 limits a specific gradation of the luminance signal. The 8-bit digital signal has 256 gradations from 0 to 255. A maximum level Lmax and a minimum level Lmin that limit gradations in this range are set, and a luminance signal with the level in between is output.

合成器73は、特定色フィルタ71と階調限定器72から入力される信号を、領域パルスに変換する。すなわち、特定色フィルタ71を通過した信号と、階調限定器72を通過した信号の両方が存在(AND)する場合に、高レベルとなるパルスを出力する。   The synthesizer 73 converts the signals input from the specific color filter 71 and the gradation limiter 72 into region pulses. That is, when both the signal that has passed through the specific color filter 71 and the signal that has passed through the gradation limiter 72 exist (AND), a high level pulse is output.

合成器73で生成された領域パルスは、オブジェクトゲート74に供給される。オブジェクトゲート74は、領域パルスが高レベルであるとき、輝度信号と色差信号を通過させる。領域パルス外の範囲(領域パルスが低レベルであるとき)、すなわち入力信号を通過させない場合は、規定した値の信号を出力する。本実施形態では、通過させない範囲では、黒レベルの輝度信号、及び飽和度ゼロの色差信号を出力する。   The region pulse generated by the synthesizer 73 is supplied to the object gate 74. The object gate 74 passes the luminance signal and the color difference signal when the region pulse is at a high level. When the range outside the region pulse (when the region pulse is at a low level), that is, when the input signal is not allowed to pass, a signal having a specified value is output. In the present embodiment, a black level luminance signal and a saturation zero color difference signal are output within a range that does not pass.

このオブジェクト抽出器51の働きは、特定色フィルタ71で色信号の色相(角度)と飽和度を限定したものをさらに輝度信号レベルで限定するものである。特定色フィルタ71で色相と飽和度を限定することで人の肌色に絞ることは出来るが、人の肌は日焼け具合で変化し、また人種によっても異なる。これら肌色と言ってもさまざまであるが、色相、飽和度、輝度信号の階調限定の範囲を調整すれば概ね人の手を検出することが出来る。本実施形態では人の手を対象にしているが、その他の色相と階調を適切に調整すれば、本実施形態におけるパラメータの変更の範疇で同様にして他のものと区別することが出来る。   The function of the object extractor 51 is to limit the color signal hue (angle) and saturation level of the specific color filter 71 with the luminance signal level. By limiting the hue and saturation with the specific color filter 71, it can be narrowed down to the human skin color, but the human skin changes depending on the sunburn, and also varies depending on the race. Although these skin colors are various, human hands can generally be detected by adjusting the hue, saturation, and the gradation-limited range of the luminance signal. In this embodiment, human hands are targeted. However, if other hues and gradations are appropriately adjusted, they can be distinguished from others in the same manner in the parameter change category in this embodiment.

図12(A)及び図13(A)は、ビデオカメラ2から入力されてくる画像に対してプッシュボタンの領域(破線四角)が設定されていることを表す。本発明はビデオカメラ画像に手をかざしその動作を制御情報として判別するものである。図12(B)及び図13(B)は、その手の動きを示す。図12(B)は、手をプッシュボタンにかざしたところを示し、図13(B)は、手の指を折り曲げた状態を示す。本実施形態では、この指を折り曲げる動作を2度繰り返すことでプッシュボタンを押したことを認識するようにしている。手をかざしただけでも、1度でも3度以上の動作でも、同様の効果を得ることが出来ることはいうまでもない。   FIGS. 12A and 13A show that a push button area (broken line square) is set for an image input from the video camera 2. In the present invention, a hand is held over a video camera image, and the operation is discriminated as control information. 12B and 13B show the movement of the hand. FIG. 12B shows the hand held over the push button, and FIG. 13B shows a state where the finger of the hand is bent. In the present embodiment, the operation of bending the finger is repeated twice to recognize that the push button has been pressed. It goes without saying that the same effect can be obtained even if the hand is held up or the operation is performed once or three times or more.

次に図14を参照して、手の動作を時間軸に添って説明する。指を伸ばしている状態から折り曲げた状態までの経過時間をTmとする。図は説明を分かり易くするためにこれを動作の最小単位としてT0,T1,…,T6と時間を区切っている。以下に時間経過に添って説明する。   Next, with reference to FIG. 14, the operation of the hand will be described along the time axis. The elapsed time from the state where the finger is extended to the state where the finger is bent is defined as Tm. In order to make the explanation easy to understand, the time is divided from T0, T1,..., T6 with this as the minimum unit of operation. The following will be described along with the passage of time.

時刻T−1では、手が存在しない状態が示され、時刻T0では、手を所望のプッシュボタンに手をかざした状態が示され、時刻T1から、手を最低Tm期間保持し、時刻T2では、手の指を折り曲げた状態が示され、時刻T3では、手の指を折り曲げた状態から手の指を伸ばした状態が示され、時刻T4では、再度手の指を折り曲げた状態が示され、時刻T5では、折り曲げた手の指を再度伸ばした状態が示され、時刻T6から、手の指を伸ばした状態を最低Tm期間保持し、時刻T7では、手が存在しない場合が示されている。   At time T-1, a state where no hand is present is shown, at time T0, a state where the hand is held over a desired push button is shown, and from time T1, the hand is held for a minimum Tm period, and at time T2, The hand finger is folded, and at time T3, the hand finger is folded from the folded state, and at time T4, the hand finger is folded again. At time T5, a state in which the finger of the folded hand is extended again is shown. From time T6, the state in which the finger of the hand is extended is held for a minimum Tm period, and at time T7, a case where no hand is present is shown. Yes.

以上がプッシュボタン上での手の動きである。図14の上側の波形図は、下側にモデル化して描いたプッシュボタン上の手のひらの投影面積の変化を示す。この波形を解析し、手の動きを特定することで制御動作を捉えることができる。   The above is the movement of the hand on the push button. The waveform diagram on the upper side of FIG. 14 shows changes in the projected area of the palm on the push button that is modeled and drawn on the lower side. By analyzing this waveform and identifying the movement of the hand, the control action can be captured.

図15に、オブジェクト抽出器51の出力信号に対応する画像を示す。オブジェクト抽出器51を通過した信号は、タイミングゲートでプッシュボタンの領域が限定され、それ以外の領域は無視される。タイミングゲート内は特定色フィルタ71で色が特定され、ここでは手の肌色領域のみが通過となり、また階調方向にも限定され、限定された領域のみが通過となり、それ以外の領域が黒(輝度信号色信号ともに零)とされる。したがって、図15に示すように手の指以外が黒(ハッチングを施して示す)となる。図15(A)は指をかざした状態を示し、図15(B)は指を折り曲げた状態を示している。ここで肌色領域以外の領域を黒に設定したのはあくまでも後段の検出器での検出精度を上げるためであり、検出すべき対象物によって最適レベル(特定のレベル)を設定することになる。   FIG. 15 shows an image corresponding to the output signal of the object extractor 51. The signal passing through the object extractor 51 is limited to the push button area by the timing gate, and the other areas are ignored. In the timing gate, the color is specified by the specific color filter 71, where only the skin color region of the hand is passed, and also limited to the gradation direction, only the limited region is passed, and the other regions are black ( Both the luminance signal and the color signal are zero). Therefore, as shown in FIG. 15, the fingers other than the fingers of the hand are black (shown with hatching). FIG. 15A shows a state where a finger is held over, and FIG. 15B shows a state where the finger is bent. Here, the reason why the area other than the skin color area is set to black is to increase the detection accuracy of the subsequent detector, and the optimum level (specific level) is set according to the object to be detected.

この図15からさらに画像の特徴を検出する。図7に示すオブジェクト特徴データ検出部53は、画像からさまざまな特徴を検出する機能ブロック、すなわち、ヒストグラム検出器61、平均輝度(APL)検出器62、高域頻度検出器63、最小値検出器64、及び最大値検出器65からなる。この他にも画像を特徴づける項目はあるが本実施形態では、これらの内容にて手であることを判別すると共にその動作を認識する。   The feature of the image is further detected from FIG. The object feature data detection unit 53 shown in FIG. 7 is a functional block that detects various features from an image, that is, a histogram detector 61, an average luminance (APL) detector 62, a high frequency detector 63, and a minimum value detector. 64 and a maximum value detector 65. There are other items that characterize the image, but in this embodiment, it is determined that the user is a hand based on these contents, and the action is recognized.

これらの検出器61〜65は、本実施形態ではハードウェアにて構成され、空間内の検出枠内の状態を画面単位(フィールド及びフレーム単位:垂直周期単位)のデータに加工して、制御情報判断器(CPU)20のバスヘ送出する。制御情報判断器(CPU)20は、ソフトウェア上で変数に格納し、データ処理を行う。   These detectors 61 to 65 are configured by hardware in this embodiment, and process the state in the detection frame in the space into data in a screen unit (field and frame unit: vertical cycle unit) to control information. The data is sent to the bus of the judgment device (CPU) 20. A control information determination unit (CPU) 20 stores the data in a variable and performs data processing.

ヒストグラム検出器61は、輝度信号の階調を8ステップに区切って各ステップに存在する画素の数をカウントし、1画面(フィールドまたはフレーム画面)ごとに各ステップの頻度の値を制御情報判断器(CPU)20へ出力するものである。APL検出器62は、同様に1画面内の輝度レベルを加算し、画素数で割った1画面の平均輝度値を制御情報判断器(CPU)20へ出力する。高域頻度検出器63は、空間フィルタ(2次元フィルタ)にて高域成分を抽出し、その高域成分の頻度を1画面単位で制御情報判断器(CPU)20に出力する。最小値検出器64は、1画面の輝度信号の最小階調値を、また最大値検出器65は1画面内の輝度信号の最大階調値を制御情報判断器(CPU)20へ出力する。   The histogram detector 61 divides the gradation of the luminance signal into 8 steps and counts the number of pixels present in each step, and determines the frequency value of each step for each screen (field or frame screen). (CPU) 20 to output. Similarly, the APL detector 62 adds the luminance levels in one screen, and outputs the average luminance value of one screen divided by the number of pixels to the control information determination unit (CPU) 20. The high frequency detector 63 extracts a high frequency component by a spatial filter (two-dimensional filter), and outputs the frequency of the high frequency component to the control information determination unit (CPU) 20 in units of one screen. The minimum value detector 64 outputs the minimum gradation value of the luminance signal in one screen, and the maximum value detector 65 outputs the maximum gradation value of the luminance signal in one screen to the control information determination unit (CPU) 20.

制御情報判断器(CPU)20は、受け取ったデータを変数に格納し、ソフトウェア処理する。ここから以降は本実施形態においてはソフトウェア処理となる。   The control information determination unit (CPU) 20 stores the received data in a variable and performs software processing. From this point onward, software processing is performed in the present embodiment.

図16〜図21は、ヒストグラム検出器61及び平均輝度検出器62の出力データを示す図である。これは階調のヒストグラムと、平均輝度(APL)を示し、APLについては大きさを感覚的に分かるように矢印で示している。これらの図においては、縦紬に頻度を示し、横軸に階調(明るさ)を8ステップに区切って示している。ケース1とケース2は手の明るさが異なるもので、ケース1が特定のステップに手の頻度が集中している場合であり、ケース2は二つのステップにまたがっている場合を表している。図16〜図21は、図14に表した各時刻T−1,T0〜T6に対応したヒストグラムである。オブジェクト抽出器51にて特定色肌色で且つ階調を限定し、その他の部分が黒にされているので、ヒストグラム上の頻度は黒の部分と階調を限定した部分に集中する。   16 to 21 are diagrams showing output data of the histogram detector 61 and the average luminance detector 62. FIG. This indicates a gradation histogram and average luminance (APL), and the APL is indicated by an arrow so that the size can be sensibly understood. In these figures, the frequency is shown in the vertical axis, and the gradation (brightness) is shown in eight steps on the horizontal axis. Case 1 and case 2 have different hand brightness, and case 1 is a case where the frequency of the hand is concentrated on a specific step, and case 2 represents a case where the hand straddles two steps. 16 to 21 are histograms corresponding to the times T-1 and T0 to T6 shown in FIG. Since the object extractor 51 has a specific skin color and the gradation is limited and the other portions are black, the frequency on the histogram is concentrated on the black portion and the gradation limited portion.

以下、時間経過に添ってヒストグラムとAPLの値の変遷を説明する。
図16,時刻T−1:手が存在しない場合で基本的には頻度は存在しないが、カメラで捉える背景などに存在する肌色でかつ限定した階調の領域に入る成分の頻度を表している。またAPLは低い。
Hereinafter, the transition of the histogram and the value of APL will be described with time.
FIG. 16, time T-1: When there is no hand, there is basically no frequency, but it represents the frequency of a component that is in the skin tone and in the limited gradation area that exists in the background captured by the camera. . APL is low.

図17,時刻T0:手を所望のプッシュボタンに手をかざした状態で、ケース1ではステップ5の階調の頻度が大きくなることを表している。ケース2ではステップ5,6の領域にまたがっているため、ケース1ほど頻度は大きくならないが、ステップ5,6の合計の量はほぼ同じだけ増加していることを表している。またAPLは手の面積が大きくなるのでそれに比例する。   FIG. 17, time T0: In the state where the hand is held over the desired push button, Case 1 represents that the frequency of the gradation in Step 5 increases. In case 2, since it extends over the regions of steps 5 and 6, the frequency does not increase as much as in case 1, but the total amount of steps 5 and 6 increases by almost the same amount. APL is proportional to the hand area because it increases.

図18,時刻T1:手を最低Tm期間保持したときで、時刻T0と同様である。
図19,時刻T2:手の指を折り曲げた状態で、黒の領域が拡大しステップ5の頻度が減少する。またAPLについても減少する。
図20,時刻T3:折り曲げてから手の指を伸ばした状態で、時刻T0と同様である。
図21,時刻T4:再度手の指を折り曲げた状態で、時刻T2と同様である。
図22,時刻T5:折り曲げた手の指を再度伸ばした状態で、時刻T0と同様である。
図23,時刻T6:手を伸ばした状態を最低Tm期間保持した状態で、時刻T0と同様である。
FIG. 18, time T1: When the hand is held for a minimum Tm period, it is the same as time T0.
FIG. 19, time T2: With the finger of the hand folded, the black area expands and the frequency of step 5 decreases. APL also decreases.
FIG. 20, time T3: The state in which the finger of the hand is extended after being bent is the same as that at time T0.
FIG. 21, time T4: Same as time T2, with the finger of the hand bent again.
FIG. 22, time T5: The same as time T0, with the finger of the folded hand extended again.
FIG. 23, time T6: The state in which the hand is stretched out is held for the minimum Tm period, and is the same as at time T0.

ヒストグラムのデータ処理では、本実施形態ではオブジェクトとして抽出されなかった部分を黒にしているので、ステップ1は黒の領域であり、評価対象から外して考える。評価の仕方はいろいろ考えられるが、直接の手の情報は本実施形態では階調を限定した範囲に入るステップ4,5,6,7であるので、これを合計してその値を評価する。   In the histogram data processing, since the portion that has not been extracted as an object in this embodiment is black, Step 1 is a black region and is excluded from the evaluation target. There are various ways of evaluation. In this embodiment, since the information of the direct hand is steps 4, 5, 6, and 7 that fall within the range in which the gradation is limited, these are summed to evaluate the value.

ヒストグラムの合計値の変動はAPLの変動と近い内容になり、値のスケールが異なるだけで同様の解析で手の動作が判別できる。判別の確度を上げるために、異なる検出手段を用いて評価し判定する。前記した高域頻度検出器63、最小値検出器64、最大値検出器65などの検出データも同様に評価し、より多くの異なる検出データから判別をすることで精度を向上させることが出来る。本実施形態では、高域頻度検出は指と背景の黒とのエッジ成分の頻度を検出するものであり、図15から分かるように指を折り曲げたときはエッジ成分が少なくなり、その変動はヒストグラムやAPLと同様である。しかし、最大値検出は指のどこかがプッシュボタンのどこかに入っていたなら、大きく変化はなく検出精度が悪いものになる。また今回はオブジェクト抽出範囲から外れた部分は黒にしているので最小値検出は変化しないため全く意味をなさない。しかしビデオカメラで捉える対象物の色や階調によっては、オブジェクト抽出範囲から外れた部分を、逆に白にする方がよい場合もある。対象とするオブジェクトに対してコントラストのある色や白をオブジェクト抽出範囲から外れた部分に適用することで判別の精度が増すことになる。   The fluctuation of the total value of the histogram is similar to the fluctuation of APL, and the hand motion can be determined by the same analysis only by changing the value scale. In order to increase the accuracy of discrimination, evaluation is performed using different detection means. The detection data of the high frequency detector 63, the minimum value detector 64, the maximum value detector 65 and the like described above are evaluated in the same manner, and the accuracy can be improved by discriminating from more different detection data. In this embodiment, the high frequency detection detects the frequency of the edge component between the finger and the black background, and as can be seen from FIG. 15, the edge component decreases when the finger is bent, and the fluctuation is a histogram. And similar to APL. However, in the maximum value detection, if any part of the finger is in any part of the push button, there is no significant change and the detection accuracy is poor. In addition, since the portion outside the object extraction range is black this time, the minimum value detection does not change, so it does not make any sense. However, depending on the color and gradation of the object captured by the video camera, it may be better to make the portion out of the object extraction range white. The accuracy of determination is increased by applying a color or white having a contrast to the target object to a portion outside the object extraction range.

判別に向けた評価の仕方は、決められた手の動作を判別するものであり、そのアルゴリズムの基本は同じで、検出項目によってスケールが異なる。前記図7に示すオブジェクト特徴データ検出部53の出力は、CPUバスを介して、制御情報判断器(CPU)20に転送される。制御情報判断器(CPU)20は、動作検出を行い、適切な制御信号を出力する。図24は、制御情報判断器(CPU)20の動作を説明するための機能ブロック図であり、制御情報判断器(CPU)20は、ヒストグラム検出器61に対応する第1の動作検出器201、平均輝度(APL)検出器62に対応する第2の動作検出器202、高域頻度検出器63に対応する第3の動作検出器203、最小値検出器64に対応する第4の動作検出器204、最大値検出器65に対応する第5の動作検出器205、及び制御情報生成器210を備えている。なおこれらの動作検出器201〜205及び制御情報生成器210の機能は、実際にはソフト処理により実現される。   The evaluation method for discrimination is to discriminate the movement of a predetermined hand, the basics of the algorithm are the same, and the scale differs depending on the detection item. The output of the object feature data detection unit 53 shown in FIG. 7 is transferred to the control information determination unit (CPU) 20 via the CPU bus. The control information judging device (CPU) 20 detects an operation and outputs an appropriate control signal. FIG. 24 is a functional block diagram for explaining the operation of the control information determination unit (CPU) 20. The control information determination unit (CPU) 20 includes a first operation detector 201 corresponding to the histogram detector 61, A second motion detector 202 corresponding to the average luminance (APL) detector 62, a third motion detector 203 corresponding to the high frequency detector 63, and a fourth motion detector corresponding to the minimum value detector 64 204, a fifth motion detector 205 corresponding to the maximum value detector 65, and a control information generator 210. The functions of the motion detectors 201 to 205 and the control information generator 210 are actually realized by software processing.

動作検出器201〜205は、対応する検出器61〜65の検出結果に応じて検出フラグを出力し、制御情報発生器210に供給する。制御情報発生器210は、入力される検出フラグの内容を評価し、適切な制御情報を出力する。ここでの評価は、コンピュータ言語の演算子、例えば、論理和、論理積、排他的論理和、>、<などを活用して行われ、これらの演算子を含む演算式が満たされた場合に制御信号が出力される。本実施形態では、すべての動作検出器201〜205の出力の論理和、すなわち、少なくとも1つ以上の動作検出器が検出フラグを出力したときに制御情報を出力するようにしている。   The motion detectors 201 to 205 output detection flags according to the detection results of the corresponding detectors 61 to 65 and supply the detection flags to the control information generator 210. The control information generator 210 evaluates the contents of the input detection flag and outputs appropriate control information. The evaluation here is performed using an operator in a computer language, such as logical sum, logical product, exclusive logical sum,>, <, etc., and an arithmetic expression including these operators is satisfied. A control signal is output. In this embodiment, the logical sum of the outputs of all the motion detectors 201 to 205, that is, control information is output when at least one motion detector outputs a detection flag.

前記動作検出器201〜205について詳しく説明する。ここではヒストグラムの限定されたステップの合計データから動作を検出する場合である。図25は、ヒストグラムから得られるデータの変動を示している。この図に示す時刻T0〜T6は、図14に示す時刻T0〜T6に対応している。図25(A)は、ヒストグラムの限定された4〜6ステップを合計した値の変動である。黒以外の部分に相当し、手が占める面積を表している。同図(B)はオフセット成分を除去したもので、Tm期間中変化がない場合、値が零となる。同図(C)は、同図(B)のデータを自乗したもので指の折り曲げ動作が正弦波に近く、その自乗なので周期が1/2の正弦波になる。同図(D)は、同図(A)の波形を積分したもので、手の動きを判別するためのゲートパルスを矢印で表したものである。同図(E)は、同図(C)の波形をデジタルフィルタで相互相関をかけて、手の動きとの相関を見ている。さらに同図(D)(E)間にわたって、最終判断すなわちユーザがプッシュボタンを操作したことを確定に導く過程を表している。   The motion detectors 201 to 205 will be described in detail. Here, the operation is detected from the total data of the limited steps of the histogram. FIG. 25 shows the fluctuation of data obtained from the histogram. Times T0 to T6 shown in this figure correspond to times T0 to T6 shown in FIG. FIG. 25A shows the fluctuation of the total value of 4 to 6 steps limited in the histogram. It corresponds to the part other than black and represents the area occupied by the hand. FIG. 5B is obtained by removing the offset component. If there is no change during the Tm period, the value becomes zero. FIG. 6C is the result of squaring the data of FIG. 5B, and the finger bending action is close to a sine wave, and the square is a sine wave having a period of ½. FIG. 4D is an integration of the waveform of FIG. 2A, and shows a gate pulse for discriminating hand movements with arrows. FIG. 6E shows the correlation with hand movement by cross-correlating the waveform of FIG. Furthermore, the final judgment, that is, the process of guiding the user to operate the push button is shown over (D) and (E) in FIG.

図25について以下詳細に説明する。
(A)は図14で手の動作と一緒に表した波形と同じである。特に判別に寄与しない部分は省いている。ここで手を伸ばしている状態から、折り曲げたところまでにかかる期間をTmとして、手の動作の基準期間(時間間隔)として考える。時刻T0からT1までは、手をかざした期間であり、ここでは約Tm期間かざして該当のプッシュボタンを活性化させる判別を行う。時刻T1からT2は、手の指を折り曲げていく過程である。時刻T2からT3は、手の指を伸ばしていく過程を表す。時刻T3〜T4は、再び手の指を折り曲げていく過程である。時刻T4〜T5は再び手の指を伸ばしていく過程である。時刻T5〜T6は指が伸び、そこで約Tm期間保持している状態である。この一連の動作は、マウスのダブルクリックに似ており、人にとって無理なく動作が出来るものである。
FIG. 25 will be described in detail below.
(A) is the same as the waveform shown with the hand movement in FIG. In particular, portions that do not contribute to discrimination are omitted. Here, let Tm be the period from when the hand is stretched to when it is bent, and consider it as the reference period (time interval) for hand movement. The period from time T0 to T1 is a period in which the hand is held, and here, it is determined that the corresponding push button is activated for about Tm period. Time T1 to T2 is a process of bending the finger of the hand. Times T2 to T3 represent the process of extending the finger of the hand. Time T3 to T4 is a process of bending the finger of the hand again. Time T4 to T5 is a process of extending the finger of the hand again. At time T5 to T6, the finger is stretched and held there for about Tm period. This series of actions is similar to a mouse double-click and can be operated without difficulty for humans.

(B)はDCオフセット成分を除去したものである。除去するフィルタの構成例を、図26に示す。このフィルタは、時間Tmだけ入力信号を遅延させる遅延器81と、遅延器81の出力信号から入力信号を減算する減算器82と、信号レベルを1/2に減衰させる減衰器83とからなり、Tm期間前後で(−1/2,1/2)のタップ係数を要する高域通過のデジタルフィルタである。Tm期間の遅延は、手の動作の波形を通過させるためのものである。デジタルフィルタの形態は特にこれに限定するものではないが、ここでは一番簡単な構成で、しかも絶対遅延量が小さいものを採用した。またタップ係数の符号は、(1/2,−1/2)のように入れ替わると、出力される波形が反転するが、この後の処理には影響するものではなく、どちらを用いても同じ効果となる。   (B) is obtained by removing the DC offset component. A configuration example of the filter to be removed is shown in FIG. This filter includes a delay unit 81 that delays the input signal by time Tm, a subtracter 82 that subtracts the input signal from the output signal of the delay unit 81, and an attenuator 83 that attenuates the signal level by half. This is a high-pass digital filter that requires a tap coefficient of (−1/2, 1/2) before and after the Tm period. The delay in the Tm period is for passing the hand movement waveform. The form of the digital filter is not particularly limited to this, but here, the simplest configuration and a small absolute delay amount are adopted. When the sign of the tap coefficient is changed to (1/2, -1/2), the output waveform is inverted, but this does not affect the subsequent processing, and either is used. It will be effective.

(C)は前記したとおり(B)の波形を自乗したもので、正弦波的な波形と考えると周期が1/2となる。この(C)の波形をデジタルフィルタで相関計算したものが(E)であるが、それを詳細に示したものが図27である。図27(A)(B)(C)は、図25と同様である。その下側に描いたものが相互相関デジタルフィルタである。四角にDと記載しているものは1垂直周期のディレイを表し、デジタル回路で使うDフリップフロップ(以降DFFと記載)に相当する。次にk0,k1,…,k8はデジタルフィルタのタップ係数を表す。Σはタップ係数出力の総和演算を意味し、その出力に相互相関計算値Y(nτ)を得る。相互相関をとる手の動作の波形は、(C)を加工したもので、一方の波形はタップ係数の値として存在し、手の動作とタップ係数間の相互相関で、波形の形が完全に一致または近い値のときに相互相関のデジタルフィルタ出力が最大値となる。   (C) is the square of the waveform of (B) as described above, and the period is halved when considered as a sinusoidal waveform. FIG. 27 shows details of the waveform of (C) obtained by correlation calculation with a digital filter, which is shown in detail in FIG. 27A, 27B, and 27C are the same as FIG. What is drawn below is a cross-correlation digital filter. What is described as D in the square represents a delay of one vertical cycle, and corresponds to a D flip-flop (hereinafter referred to as DFF) used in a digital circuit. K0, k1,..., K8 represent tap coefficients of the digital filter. Σ means a sum operation of tap coefficient outputs, and a cross-correlation calculation value Y (nτ) is obtained at the output. The waveform of the hand motion that takes the cross-correlation is the result of processing (C), and one waveform exists as the value of the tap coefficient, and the shape of the waveform is completely due to the cross-correlation between the hand motion and the tap coefficient. When the values match or are close to each other, the cross-correlation digital filter output becomes the maximum value.

図27に示すデジタルフィルタによる演算処理を以下の数式で表すことができる。図27の構成例では、Nは「9」である。

Figure 2010003303
The arithmetic processing by the digital filter shown in FIG. 27 can be expressed by the following mathematical formula. In the configuration example of FIG. 27, N is “9”.
Figure 2010003303

図27に示すデジタルフィルタは、右側から(C)に描く波形が入力される。このように右から信号が入力されるように描いたのは、(C)に示す各波形がDFFに入ったときに時間的に一致(一部矢印)するようにしているためである。したがって最後の手の動作が遅延していない一番右側に来る。そして相互相関の係数は(C)の波形をそのまま盛り込めばよい。但しスケールについてはここでは言及しない。また係数値がDC的に偏るのは好ましくないので、(C)の波形のレベルの中心を基準として、出来るだけDCオフセットがつかないようにする。係数値は手の動作との相関を計算するものであるので、ここで規定している動作の内容が変わればそれに添って係数値を変えれば、また異なった動作で制御できる制御装置となる。またいくつかの相関値を持っていてデジタルフィルタを複数走らせ、各々に違った意味を持たせることも出来る。ここでのタップ係数は9タップあるので9垂直周期となる。1秒に60垂直周期有するビデオ信号の場合、約1/7秒となり、手の動作としては少し速いが、遅くするためにはタップ係数を増やせば遅くなり調整が取れるものであるので、実際には実験により最適なタップ係数の数を設定すればよい。   The digital filter shown in FIG. 27 receives a waveform drawn in (C) from the right side. The reason that the signal is input from the right is because the waveforms shown in (C) coincide with each other (partly arrows) when they enter the DFF. Therefore the last hand movement comes to the far right side without delay. The coefficient of cross correlation may be included in the waveform (C) as it is. However, scale is not mentioned here. In addition, since it is not preferable that the coefficient value is biased in terms of DC, the DC offset should be prevented as much as possible with reference to the center of the waveform level of (C). Since the coefficient value is used to calculate the correlation with the motion of the hand, if the content of the motion defined here is changed, the coefficient value is changed accordingly, and the control device can be controlled with a different motion. You can also run multiple digital filters with several correlation values, each with a different meaning. Since there are 9 tap coefficients here, there are 9 vertical periods. In the case of a video signal having 60 vertical periods per second, it is about 1/7 second, and the hand movement is a little faster, but in order to slow it down, it can be slowed and adjusted by increasing the tap coefficient. The optimal number of tap coefficients may be set by experiment.

また、ここでは(C)の波形を相関計数値として考えているが(B)に示す波形の時刻T1〜T5までの波形を用いてもよい。ただし、(C)の波形を用いた方がより精度が高くなる。   Here, the waveform of (C) is considered as the correlation count value, but the waveform from time T1 to T5 of the waveform shown in (B) may be used. However, the accuracy is higher when the waveform (C) is used.

図25に戻り(E)の波形について説明する。(E)の波形は(C)の波形が前記相互相関デジタルフィルタに入力されて、その出力に現れる値をモデル化して表したものである。時刻が進むにつれて手の動作がタップ係数との一致度が増しピークが大きくなる。この波形の評価は、負の領域を矢印で示しているとおり、絶対値化して、さらに積分し(図では包絡線)、閾値TH4を上回ったところで制御させるべき手の動作であることを確定する。ここでの絶対値化は図28に示すように自乗してから積分しても同様である。   Returning to FIG. 25, the waveform (E) will be described. The waveform (E) is obtained by modeling the value appearing at the output when the waveform (C) is input to the cross-correlation digital filter. As the time advances, the degree of coincidence of the hand movement with the tap coefficient increases and the peak increases. The evaluation of this waveform is converted into an absolute value as indicated by an arrow, integrated further (envelope in the figure), and it is determined that it is a hand action to be controlled when the threshold value TH4 is exceeded. . The absolute value here is the same even if it is integrated after squaring as shown in FIG.

ここで、(C)に示す波形の大きさは最初のヒストグラムデータに基づくものであり、この大きさで判定の精度が変わってくる。また積分すなわち累積加算していくにあたっての初期化(リセット)が必要である。これを果たしているのが(D)に示す波形である。さらに検出精度を上げるための意味のない情報を抑制する処理が必要である。   Here, the size of the waveform shown in (C) is based on the first histogram data, and the accuracy of determination varies depending on this size. Also, initialization (reset) is required for integration, that is, cumulative addition. The waveform shown in (D) fulfills this. Furthermore, the process which suppresses the meaningless information for raising detection accuracy is required.

(D)の波形は(A)のヒストグラムからのデータを時間軸に添って積分したものである。時刻T1までの期間は手をかざした期間であり、(B)は(A)が変化しないとき零になるすなわち高域成分のみをピックアップしたものである。これは手をかざしているときは静止状態であることを意味する。当然人間の動作であるので変動はあるが、大きな動作からすると静止と見なせるものとし、処理についても容易に実現できる不感帯を設定するなどして切り捨てればよい。したがって、(B)が閾値TH1a,TH1b間にあるときでかつ(A)が閾値TH0以上のとき積分されて積分値が大きくなっていく。その波形が(D)である。また積分を始める初期状態は(A)の波形が、閾値TH0以下のときに初期化を行う。(D)に示す積分値が、閾値TH2を越えると活性化する。ここまでの領域を検出領域と呼ぶ。   The waveform (D) is obtained by integrating the data from the histogram (A) along the time axis. The period up to time T1 is a period in which the hand is held up, and (B) is zero when (A) does not change, that is, only the high frequency component is picked up. This means that it is still when you hold your hand. Naturally, it is a human motion, but there are fluctuations. However, if it is a large motion, it can be regarded as still, and the processing can be cut off by setting a dead zone that can be easily realized. Therefore, when (B) is between the threshold values TH1a and TH1b and (A) is equal to or greater than the threshold value TH0, integration is performed and the integrated value increases. The waveform is (D). In the initial state where the integration is started, initialization is performed when the waveform of (A) is less than or equal to the threshold value TH0. When the integral value shown in (D) exceeds the threshold value TH2, it is activated. The area so far is called a detection area.

(D)に示す積分値が、閾値TH2を越えてから矢印Y1のように特定の時定数を持った期間を設定し、その後の判定領域に入るまでを活性領域と呼ぶ。活性領域とは相関計算している領域である。判定領域は前記相関計算の結果をもって手の動作を制御状態と判断する領域で、相互相関デジタルフィルタ出力を絶対値化して積分した値が、閾値TH4を越えた時点からはじまる。(D)の波形に対してはもう一つの閾値TH3を設けている。閾値TH3は、閾値TH2よりも小さな値であり、その閾値TH3を越えた矢印Y2−1で示す期間を判定に使う。手の指の折り曲げ動作は最後指を伸ばして終了する。閾値TH3はその最後の動作を確認するものである。矢印Y2−1と逆の領域である矢印Y2−2の期間は判定を禁止する期間として考え、誤認識を避けるようにしている。そして矢印Y1、矢印Y2−1、矢印Y3が揃った時点で、判定領域で手の動作が制御情報であることを確定する。   A period having a specific time constant is set as indicated by an arrow Y1 after the integral value shown in (D) exceeds the threshold value TH2, and the period until the subsequent determination area is entered is called an active area. The active region is a region for which correlation calculation is performed. The determination area is an area where the hand movement is determined as the control state based on the result of the correlation calculation, and starts when the cross-correlation digital filter output is converted into an absolute value and integrated exceeds the threshold value TH4. Another threshold TH3 is provided for the waveform of (D). The threshold value TH3 is a value smaller than the threshold value TH2, and the period indicated by the arrow Y2-1 exceeding the threshold value TH3 is used for the determination. The bending operation of the finger of the hand is finished by extending the last finger. The threshold value TH3 is for confirming the last operation. A period indicated by an arrow Y2-2, which is an area opposite to the arrow Y2-1, is considered as a period during which the determination is prohibited, and misrecognition is avoided. When the arrow Y1, the arrow Y2-1, and the arrow Y3 are aligned, it is determined that the hand movement is control information in the determination area.

この検出領域は、手をかざされたことを認識する領域で、この領域を越えた時点で、グラフィックスの制御画像の色や形状を変えて、ユーザを積極的に誘導することができる。また、活性領域を完了した時点及び判定領域で確定した時点で同様にグラフィックスの制御画像の色や形状を変えてユーザにそのことを認知させることができる。これはユーザに再試行させるなどの手間をかけないメリットがある。   This detection area is an area for recognizing that the hand is held over, and when the area is exceeded, the color and shape of the graphics control image can be changed to actively guide the user. Similarly, when the active area is completed and when it is determined in the determination area, it is possible to change the color and shape of the graphics control image to make the user recognize it. This has the advantage of not requiring the user to try again.

次に閾値TH3の絶対レベルについて説明する。相互相関デジタルフィルタの出力値は手をかざす領域の範囲によって大きさが変わってくる。特に固定でも人がそれに合わせて必要な領域に手をかざせばよいが、人の曖昧さを吸収することも必要である。ここでは閾値TH2までの積分領域にかかる時間Trを見て、これによって調整する。期間Trは手をかざす面積が大きければ大きいほど期間が短くなり、逆に面積が小さいときは時間が長くなる。したがって時間Trが大きいときは閾値TH3とTH4を大きくし、時間Trが小さいときは閾値TH3とTH4を小さくするように補正する。この適応制御によって手のかざす面積に対する依存性を抑制し、正確な認識を行うことが可能となる。   Next, the absolute level of the threshold value TH3 will be described. The size of the output value of the cross-correlation digital filter varies depending on the range of the area where the hand is held. In particular, even if it is fixed, it is only necessary for the person to hold his / her hand over the necessary area, but it is also necessary to absorb the ambiguity of the person. Here, the time Tr required for the integration region up to the threshold value TH2 is seen and adjusted accordingly. In the period Tr, the larger the area where the hand is held, the shorter the period, and conversely, the time becomes longer when the area is small. Therefore, when the time Tr is large, the threshold values TH3 and TH4 are increased, and when the time Tr is small, the threshold values TH3 and TH4 are corrected to be small. This adaptive control suppresses the dependence on the hand-held area and enables accurate recognition.

本実施形態の操作方法では、ビデオカメラの撮影の画角に対して、人の位置によっては手の大きさが小さかったり、プッシュボタンの位置まで届かなかったりすることが考えられる。この場合は、図2に示すスケーラ15で画像を「拡大」「縮小」「位相(位置)」を調整して人を画面上に適切な大きさにする必要がある。図29は、これを説明するための図である。図29(A)に示す例は、人の姿が小さく制御しにくい画面である。この場合はスケーラ15を制御して「拡大」し、画面の中心に人が位置するように「位相」を調整することにより、同図(B)のように適切な大きさで適切な位置にユーザを表示させることができる。   In the operation method of the present embodiment, it is conceivable that the hand size is small or the push button position is not reached depending on the position of the person with respect to the angle of view of the video camera. In this case, it is necessary to adjust the “enlargement”, “reduction”, and “phase (position)” of the image with the scaler 15 shown in FIG. FIG. 29 is a diagram for explaining this. The example shown in FIG. 29A is a screen that is small and difficult to control. In this case, the scaler 15 is controlled to “enlarge”, and the “phase” is adjusted so that the person is located at the center of the screen, so that an appropriate size and an appropriate position as shown in FIG. Users can be displayed.

また図30は、スケーラ15を制御して「縮小」し、人が画面の中心に来るように「位相」を調整した例を示したものである。
他の手法としては、図31に示すように、ビデオカメラ2を雲台に取り付け、雲台による画角制御、及びビデオカメラ2のズーム制御により、ユーザの画像を適切な大きさ及び位置に表示させるようにしてもよい。
FIG. 30 shows an example in which the scaler 15 is controlled to “reduce” and the “phase” is adjusted so that a person comes to the center of the screen.
As another method, as shown in FIG. 31, the video camera 2 is attached to the camera platform, and the user's image is displayed in an appropriate size and position by controlling the angle of view by the camera platform and zooming control of the video camera 2. You may make it make it.

また本発明の操作方法は、表示装置に映されたグラフィックス上に展開される制御画像をそれに重ね合わされた自分の鏡像を見ながら操作するものであるが、画像を重ね合わせるので見にくい場合がある。その場合は、図6に示した検出器の画面上の領域を特定するタイミングパルス(水平垂直)で、第1の混合器17または第2の混合器22の混合割合を制御して見やすいようにする。例えば制御画像であるプッシュボタンを見やすくするためには第1の混合器17にて、制御値α1の値を小さくするようにタイミングパルスで制御すればよい。このように混合器をきめ細かく制御することによって視聴者と、制御画像(プッシュボタン)の関係を分かり易くすることができる。   The operation method of the present invention is to operate while looking at the mirror image superimposed on the control image developed on the graphics displayed on the display device, but it may be difficult to see because the images are superimposed. . In that case, the mixing ratio of the first mixer 17 or the second mixer 22 is controlled with the timing pulse (horizontal and vertical) for specifying the region on the detector screen shown in FIG. To do. For example, in order to make it easy to see the push button as the control image, the first mixer 17 may be controlled with a timing pulse so as to reduce the value of the control value α1. By finely controlling the mixer as described above, the relationship between the viewer and the control image (push button) can be easily understood.

以上説明した本発明の実施形態では、ハードウェアとソフトウェアで切り分けて記載しているが、その切り分けの仕方はどのように行ってもよい。
本実施形態の操作方法は、人の手を使って対称となるグラフィックス上に描かれたプッシュボタンを触れるように操作するものである。対象となるプッシュボタンの意味する操作内容が「電源」「チャンネル」「音量」「入力切替」「上」「下」「左」「右」「決定」など従来のリモコンが備えていたものはすべて置き換えることが可能である。
In the embodiment of the present invention described above, the hardware and software are described separately. However, the method of the separation may be any way.
The operation method of the present embodiment is an operation in which a push button drawn on a symmetrical graphic is touched using a human hand. All the operations that the conventional push buttons have, such as “Power”, “Channel”, “Volume”, “Input switch”, “Up”, “Down”, “Left”, “Right”, “Determine”, etc. It is possible to replace it.

以上のような操作方法を用いることにより、リモコンのような制御機器を用いることなく制御対象の制御が可能となる。したがって電池切れや接点不良などのリモコンに関するトラブルが解消される。また複数の機器のリモコンがある場合、被制御機器のリモコンを探さなければならなかったが、本発明の操作方法では、人の身体があればよく、このような問題も解消される。   By using the operation method as described above, it is possible to control a control target without using a control device such as a remote controller. Therefore, troubles related to the remote control such as battery exhaustion and contact failure are eliminated. In addition, when there are a plurality of remote control devices, it has been necessary to search for a remote control device to be controlled. However, in the operation method of the present invention, it is sufficient if there is a human body, and such a problem is solved.

また画面上に制御内容が示されるので、さまざまな制御機器の取り扱いが可能となる。これはネットワーク化された環境では重要であり、表示装置を有する機器を通じてネットワーク機器を制御する、言い換えれば、ネットワークにつながる機器の制御画面をネットワークを通じて表示装置を有する機器に転送することにより、表示装置の画面が制御画面になるため、どのような制御画面であっても対応できる。   In addition, since the control content is displayed on the screen, it is possible to handle various control devices. This is important in a networked environment, and controls a network device through a device having a display device, in other words, by transferring a control screen of a device connected to the network to a device having a display device through the network. Since this screen becomes the control screen, any control screen can be supported.

またリモコンでメニュー画面から制御するためには、手元のボタンを何度も押下しながらメニュー画面上のプッシュボタンを選ぶ動作をするため、手元と画面を何度も繰り返し見ながら操作する必要がある。これに対し、本発明の操作方法によれば、ユーザ自身が操作画面上にオーバラップして映るため、常に画面を見て操作ができ、素速く操作ができるだけでなく、目が疲れ難く使い勝手を向上させることができる。   Also, to control from the menu screen with the remote control, it is necessary to operate while repeatedly viewing the hand and the screen because the operation of selecting the push button on the menu screen while pressing the button on the hand many times . On the other hand, according to the operation method of the present invention, the user himself / herself overlaps on the operation screen so that the user can always see and operate the screen, not only can the operation be performed quickly, but the eyes are hard to be tired. Can be improved.

また、手の動作はパソコンのマウスを操るのと近い操作が可能である。本実施形態ではダブルクリック的に手の指を折り曲げる動作を採用した。パソコンは、現代において広く普及しており、パソコンの操作に近いことは、多くのユーザにとって取り扱いが容易となり、情報リテラシー上好ましい。   In addition, hand movement can be similar to that of a personal computer mouse. In this embodiment, the operation of bending the finger of the hand in a double click manner is adopted. Personal computers are widespread in modern times, and being close to the operation of personal computers is easy for many users to handle and is preferable in terms of information literacy.

なお本発明は上述した実施形態に限るものではなく、種々の変形が可能である。例えば、図2に示した第1の混合器17及び第2の混合器22の混合割合を、レベル方向、空間方向、時間方向に効果的に組み合わせるようにしてもよい。これにより、ビデオカメラ2からの画像と生成されるグラフィックスのメニュー画面と、放送番組の映像の多様な組み合わせ方が可能となり、同時に多様な情報のやり取りが出来る。
また本発明の操作対象となる電子機器は、テレビジョン受像機に限るものではなく、パーソナルコンピュータや、テレビジョン受像機とビデオディスク録画装置の組み合わせや、テレビジョン受像機とビデオテープレコーダとの組み合わせなど、表示装置を有するものであればよい。
The present invention is not limited to the embodiment described above, and various modifications can be made. For example, the mixing ratios of the first mixer 17 and the second mixer 22 shown in FIG. 2 may be effectively combined in the level direction, the space direction, and the time direction. As a result, various combinations of images from the video camera 2 and the generated graphics menu screen and broadcast program video are possible, and various information can be exchanged at the same time.
The electronic device to be operated according to the present invention is not limited to a television receiver, but a personal computer, a combination of a television receiver and a video disk recorder, or a combination of a television receiver and a video tape recorder. Any device having a display device may be used.

1 テレビジョン受像機(電子機器)
2 ビデオカメラ
4 ユーザ(操作者)
12 タイミングパルス発生器
14 鏡像変換器(鏡像変換手段)
15 スケーラ
16 グラフィックス生成器
17 第1の混合器(第1の混合手段)
19 検出部(検出手段)
20 制御情報判断器(CPU)(制御手段)
22 第2の混合器(第2の混合手段)
23 表示装置
51 タイミングゲート器(位置判定手段)
52 オブジェクト抽出器(対象物特定手段)
53 オブジェクト特徴データ検出部(変化検出手段)
1 Television receiver (electronic equipment)
2 Video camera 4 User (operator)
12 Timing pulse generator 14 Mirror image converter (mirror image conversion means)
15 Scaler 16 Graphics Generator 17 First Mixer (First Mixing Means)
19 Detection unit (detection means)
20 Control information judging device (CPU) (control means)
22 Second mixer (second mixing means)
23 display device 51 timing gate device (position determination means)
52 Object extractor (object identification means)
53 Object feature data detection unit (change detection means)

Claims (1)

表示装置を有する電子機器を制御する制御方法において、
対象物を撮像し、
前記電子機器を制御するための制御用画像を前記表示装置に表示し、
前記制御用画像に対して前記対象物が所定の動作を行った際の前記対象物を撮像した撮像画像の変化を示す検出信号を生成し、
前記検出信号の信号波形の周期が、予め定めた周期と一致する度合いを求め、
前記一致する度合いが予め定めた値以上となったとき、前記電子機器を制御することを確定することを特徴とする電子機器の制御方法。
In a control method for controlling an electronic device having a display device,
Image the object,
Displaying a control image for controlling the electronic device on the display device;
Generating a detection signal indicating a change in a captured image obtained by capturing the target object when the target object performs a predetermined operation on the control image;
Obtain the degree to which the period of the signal waveform of the detection signal matches a predetermined period,
A method for controlling an electronic device, comprising: determining that the electronic device is to be controlled when the degree of coincidence is equal to or greater than a predetermined value.
JP2009169922A 2009-07-21 2009-07-21 Controller for electronic equipment Pending JP2010003303A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009169922A JP2010003303A (en) 2009-07-21 2009-07-21 Controller for electronic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009169922A JP2010003303A (en) 2009-07-21 2009-07-21 Controller for electronic equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004272706A Division JP4419768B2 (en) 2004-09-21 2004-09-21 Control device for electronic equipment

Publications (1)

Publication Number Publication Date
JP2010003303A true JP2010003303A (en) 2010-01-07

Family

ID=41584928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009169922A Pending JP2010003303A (en) 2009-07-21 2009-07-21 Controller for electronic equipment

Country Status (1)

Country Link
JP (1) JP2010003303A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3809046A1 (en) * 2019-10-16 2021-04-21 E.G.O. Elektro-Gerätebau GmbH Control system for an electric domestic appliance and method for operating an electric domestic appliance

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02108330A (en) * 1988-10-18 1990-04-20 Nippon Telegr & Teleph Corp <Ntt> Transmission path restoration remote controller
JPH06153017A (en) * 1992-11-02 1994-05-31 Sanyo Electric Co Ltd Remote controller for equipment
JPH08212327A (en) * 1995-02-06 1996-08-20 Mitsubishi Electric Corp Gesture recognition device
JPH08315154A (en) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc Gesture recognition system
JPH0981307A (en) * 1995-09-08 1997-03-28 Clarion Co Ltd Equipment controller
JP2000075991A (en) * 1998-08-28 2000-03-14 Aqueous Research:Kk Information input device
JP2001307107A (en) * 2000-04-21 2001-11-02 Sony Corp Image processor, its method and recording medium
JP2002149302A (en) * 2000-11-09 2002-05-24 Sharp Corp Interface device and recording medium with interface processing program recorded
JP2002196855A (en) * 2000-10-06 2002-07-12 Sony Computer Entertainment Inc Image processor, image processing method, recording medium, computer program and semiconductor device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02108330A (en) * 1988-10-18 1990-04-20 Nippon Telegr & Teleph Corp <Ntt> Transmission path restoration remote controller
JPH06153017A (en) * 1992-11-02 1994-05-31 Sanyo Electric Co Ltd Remote controller for equipment
JPH08212327A (en) * 1995-02-06 1996-08-20 Mitsubishi Electric Corp Gesture recognition device
JPH08315154A (en) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc Gesture recognition system
JPH0981307A (en) * 1995-09-08 1997-03-28 Clarion Co Ltd Equipment controller
JP2000075991A (en) * 1998-08-28 2000-03-14 Aqueous Research:Kk Information input device
JP2001307107A (en) * 2000-04-21 2001-11-02 Sony Corp Image processor, its method and recording medium
JP2002196855A (en) * 2000-10-06 2002-07-12 Sony Computer Entertainment Inc Image processor, image processing method, recording medium, computer program and semiconductor device
JP2002149302A (en) * 2000-11-09 2002-05-24 Sharp Corp Interface device and recording medium with interface processing program recorded

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3809046A1 (en) * 2019-10-16 2021-04-21 E.G.O. Elektro-Gerätebau GmbH Control system for an electric domestic appliance and method for operating an electric domestic appliance

Similar Documents

Publication Publication Date Title
JP4419768B2 (en) Control device for electronic equipment
JP4650381B2 (en) Electronics
JP4569555B2 (en) Electronics
US10671175B2 (en) Image processing apparatus, image processing method, and program product to control a display to display an image generated based on a manipulation target image
US8144121B2 (en) Method and apparatus for controlling electronic appliance
JP4720738B2 (en) Electronics
US9704028B2 (en) Image processing apparatus and program
US20140247216A1 (en) Trigger and control method and system of human-computer interaction operation command and laser emission device
JP2007087100A (en) Electronic device system
RU2598598C2 (en) Information processing device, information processing system and information processing method
CN109614902A (en) Face image processing process, device, electronic equipment and computer storage medium
JP2012238293A (en) Input device
JP2009087095A (en) Electronic device control device, control method and control program
EP2790086A1 (en) Information processing device, information processing method, and recording medium
JP2010003303A (en) Controller for electronic equipment
JP2009010849A (en) Control device for electronic apparatus
KR101288590B1 (en) Apparatus and method for motion control using infrared radiation camera
JP2008118633A (en) Method and apparatus for controlling electronic appliance
KR101227875B1 (en) Display device based on user motion
JP4544195B2 (en) Electronics
CN113852756A (en) Image acquisition method, device, equipment and storage medium
JP4049708B2 (en) Drawing support apparatus and drawing system
Wong et al. Gesture-based control of the scanning electron microscope using a low-cost webcam sensor
CN114791784A (en) Blind person auxiliary image browsing method and system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110922

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20111012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120731