JP4968922B2 - Device control apparatus and control method - Google Patents
Device control apparatus and control method Download PDFInfo
- Publication number
- JP4968922B2 JP4968922B2 JP2007161806A JP2007161806A JP4968922B2 JP 4968922 B2 JP4968922 B2 JP 4968922B2 JP 2007161806 A JP2007161806 A JP 2007161806A JP 2007161806 A JP2007161806 A JP 2007161806A JP 4968922 B2 JP4968922 B2 JP 4968922B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- finger
- target object
- display
- operation item
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Details Of Television Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Selective Calling Equipment (AREA)
- Image Analysis (AREA)
Description
本発明は、機器制御装置及び制御方法に関する。 The present invention relates to a device control apparatus and a control method.
家庭用機器や業務用機器を制御する制御装置として、赤外線を利用したワイヤレスリモートコントローラ(以下リモコンとする)がある。送信側の処理としては、機器制御用のコマンド信号を変調した赤外光信号を送信する。受信側の処理としては、その赤外光信号を受光して復調し、コマンドを実行する。 As a control device for controlling household equipment and business equipment, there is a wireless remote controller (hereinafter referred to as a remote controller) using infrared rays. As processing on the transmission side, an infrared light signal obtained by modulating a command signal for device control is transmitted. As processing on the receiving side, the infrared light signal is received and demodulated, and a command is executed.
しかしながら、このリモコンが、使用したいときに見当たらない等の理由で操作者の手元に無い場合は、機器を制御するコマンドを送信することができない問題があった。また、リモコンは、電池による駆動の場合が多く、電池切れで、電池のストックが無い場合にもコマンドを送信することができない問題があった。 However, there is a problem that a command for controlling the device cannot be transmitted when the remote controller is not at hand for the reason of not being found when it is desired to use it. The remote controller is often driven by a battery, and there is a problem that a command cannot be transmitted even when the battery is exhausted and there is no battery stock.
そこで、リモコンを用いてコマンドを送受信するのと同等の機能を実現する方法として、以下のような提案がなされている。 Therefore, the following proposals have been made as a method for realizing a function equivalent to transmitting / receiving a command using a remote controller.
まず、ディスプレイ装置に、メニューと、カーソルとを表示する。そして、撮像装置では、ユーザーを含む画像を撮像し、動きベクトルを検出する。そして、制御装置では、その動きに対応してカーソルを移動させ、メニューの中のユーザーが所望する選択肢が選択されると、その選択肢に対応して、ディスプレイ装置を制御する(例えば、特許文献1参照)。 First, a menu and a cursor are displayed on the display device. And in an imaging device, the image containing a user is imaged and a motion vector is detected. Then, in the control device, the cursor is moved in accordance with the movement, and when an option desired by the user in the menu is selected, the display device is controlled in accordance with the option (for example, Patent Document 1). reference).
また、撮影手段と、撮影画像の動きや形状を認識する手段とを持つことにより、ユーザーの手等の動作を認識して機器を操作する技術がある(例えば、特許文献2参照)。 In addition, there is a technique for operating a device by recognizing an action of a user's hand or the like by having a photographing means and a means for recognizing the movement and shape of a photographed image (for example, see Patent Document 2).
しかしながら、特許文献1では、ユーザーが操作した動作を動きベクトルのみの検出(動きベクトルが最大のもの)で行なっている。そのため、複数の人が画像に含まれている場合や背景が動いている場合には、ユーザーが意図する動作か否かを判定するのが困難な問題がある。即ち、テレビを複数人で視聴している場合に誤動作が生じやすい問題があった。 However, in Patent Document 1, the operation operated by the user is performed by detecting only the motion vector (the one having the largest motion vector). Therefore, when a plurality of people are included in the image or when the background is moving, there is a problem that it is difficult to determine whether or not the operation is intended by the user. That is, there has been a problem that malfunction is likely to occur when a plurality of people are watching the television.
また、特許文献2では、ユーザー操作への反応が操作結果の実動作のみである。よって、操作途中では、操作が機器に受け入れられているか否か、ユーザーがわかりづらいという問題があった。また、コマンドに係る動作や形状をユーザーが覚える必要があり、使いづらい問題があった。更には、コマンドとなる動作や形状をユーザーが覚えられる数には限りがあるため、コマンドの数が限定されるという問題もあった。
In
本発明はこのような問題点に鑑みなされたもので、リモコンが手元にない場合や故障等して使用できない場合でも操作性よく対象機器を制御することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to control a target device with good operability even when the remote control is not at hand or cannot be used due to failure or the like.
そこで、本発明の機器制御装置は、撮像装置において撮像された画像から対象物体の画像を背景画像として検出する背景画像検出手段と、撮像装置において撮像された画像から前記対象物体に係る指画像を検出する指画像検出手段と、前記対象物体に対する指示動作に係る指示位置を、前記背景画像として検出された対象物体の形状画像と、前記指画像と、の相対位置関係から算出する算出手段と、前記背景画像として検出された対象物体の形状画像を表示装置に表示する形状画像表示手段と、前記表示装置に表示されている物体の形状画像内に操作項目を表示する操作項目表示手段と、前記算出手段において算出された指示位置に前記指画像に係る画像を表示する指示画像表示手段と、前記操作項目表示手段で表示された前記操作項目に対して、所定時間、前記指示画像表示手段で表示された前記指画像に係る画像が滞留したか否かに応じて、対象機器の操作に係る操作項目が選択されたか否かを判定する判定手段と、前記判定手段において操作項目が選択されたと判定された場合、選択された操作項目に係る制御コマンドを前記対象機器に送信するコマンド送信手段と、を有することを特徴とする。 Therefore, the device control apparatus of the present invention includes a background image detection unit that detects an image of the target object as a background image from an image captured by the imaging apparatus, and a finger image related to the target object from the image captured by the imaging apparatus. Finger image detection means for detecting; calculation means for calculating an instruction position related to an instruction operation for the target object from a relative positional relationship between the shape image of the target object detected as the background image and the finger image; Shape image display means for displaying a shape image of the target object detected as the background image on a display device, operation item display means for displaying operation items in the shape image of the object displayed on the display device, Instruction image display means for displaying an image related to the finger image at the indicated position calculated by the calculation means, and the operation items displayed by the operation item display means Te, a predetermined time, depending on whether the image of the displayed the finger image staying in the instruction image display means, determining means for determining whether operation items according to the operation of the target device has been selected And a command transmission unit that transmits a control command related to the selected operation item to the target device when the determination unit determines that the operation item is selected.
また、本発明は、機器制御装置における制御方法であって、撮像装置において撮像された画像から対象物体の画像を背景画像として検出する背景画像検出ステップと、撮像装置において撮像された画像から前記対象物体に係る指画像を検出する指画像検出ステップと、前記対象物体に対する指示動作に係る指示位置を、前記背景画像として検出された対象物体の形状画像と、前記指画像と、の相対位置関係から算出する算出ステップと、前記背景画像として検出された対象物体の形状画像を表示装置に表示する形状画像表示ステップと、前記表示装置に表示されている物体の形状画像内に操作項目を表示する操作項目表示ステップと、前記算出ステップにおいて算出された指示位置に前記指画像に係る画像を表示する指示画像表示ステップと、前記操作項目表示ステップで表示された前記操作項目に対して、所定時間、前記指示画像表示ステップで表示された前記指画像に係る画像が滞留したか否かに応じて、対象機器の操作に係る操作項目が選択されたか否かを判定する判定ステップと、前記判定ステップにおいて操作項目が選択されたと判定された場合、選択された操作項目に係る制御コマンドを前記対象機器に送信するコマンド送信ステップと、を含むことを特徴とする。 The present invention is also a control method in the device control apparatus, the background image detecting step of detecting an image of the target object as a background image from the image captured by the imaging apparatus, and the target from the image captured by the imaging apparatus. A finger image detection step for detecting a finger image related to an object, and an instruction position related to an instruction operation for the target object based on a relative positional relationship between the shape image of the target object detected as the background image and the finger image A calculating step for calculating, a shape image displaying step for displaying a shape image of the target object detected as the background image on a display device, and an operation for displaying an operation item in the shape image of the object displayed on the display device An item display step, and an instruction image display step for displaying an image related to the finger image at the instruction position calculated in the calculation step; To the operation items displayed in the operation item display step, predetermined time, depending on whether the image according to the finger image displayed staying in the instruction image display step, according to the operation of the target device A determination step for determining whether or not an operation item has been selected; and a command transmission step for transmitting a control command related to the selected operation item to the target device when it is determined that the operation item has been selected in the determination step; , Including.
本発明によれば、リモコンが手元にない場合や故障等して使用できない場合でも操作性よく対象機器を制御することができる。 According to the present invention, the target device can be controlled with good operability even when the remote control is not at hand or cannot be used due to failure or the like.
以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<機器制御装置101の構成の説明>
図1は、機器制御装置101の構成を説明するための図である。
図1において、撮像装置1、撮像装置3は、CCDやCMOSカメラ等で構成される。フレームメモリ2は、撮像装置1で撮像された画像データを保存する。フレームメモリ4は、撮像装置3で撮像された画像データを保存する。制御機器5は、機器制御装置101全体を制御するためのマイクロコンピュータ等から構成される。
<Description of Configuration of
FIG. 1 is a diagram for explaining the configuration of the
In FIG. 1, an imaging device 1 and an
距離画像生成器6は、撮像装置1及び撮像装置3で得られた画像(画像データ、又は画像情報)から視差計測(ステレオ視)を用いて距離計測し、距離に応じて領域分割した画像(以下、距離画像という)を得る。
The distance image generator 6 measures the distance from the images (image data or image information) obtained by the imaging device 1 and the
形状認識器7は、画像データから特徴点を抽出し、顔の画像等の人間の部分的な形状認識や、パターン認識による様々な物体の認識を行なう。動き検出器8は、撮像された画像の動きを検出し、動きのある部分を抽出する。モード判定器9は、機器制御装置101を有効にするモードか否かを画像データ等から判定する。
The shape recognizer 7 extracts feature points from the image data, and recognizes a partial shape of a human such as a face image and various objects by pattern recognition. The motion detector 8 detects the motion of the captured image and extracts a portion having motion. The mode determiner 9 determines from the image data or the like whether the
コマンド生成器10は、機器制御装置101に接続された機器(操作対象機器)に対して送信する制御コマンドを生成する。操作対象機器11は、機器制御装置101に接続され、機器制御装置101より制御コマンドを受信し、その制御コマンドに応じて制御を実行可能な機器である。指示位置合成器12は、形状認識器7で認識された画像データに対して操作者が指示する指示位置に対応する画像を合成する。
The
表示装置13は、指示位置合成器12で合成された画像を表示する。なお、距離画像生成器6、形状認識器7、動き検出器8、モード判定器9は、例えば、画像処理を行なうDSPやFPGA等のプロセッサで構成される。ここで、DSPとは、Digital Signal Processorの略である。また、FPGAとは、Field Programmable Gate Arrayの略である。
The
機器制御装置101は、操作者が選択した任意の物体を指示領域として、物体に対して指示する動作を撮像装置1、撮像装置3で捉えることにより、対象となる機器(操作対象機器)に制御コマンドを送信することができる。なお、機器制御装置101を用いて対象となる機器(操作対象機器)に制御コマンドを送信するモードを便宜上、仮想リモコンモードと呼ぶ。
The
図2は、機器制御装置101をテレビ21に組み込んだ一例を示した図である。図2に示すように撮像装置1、撮像装置3は、テレビ21の上部に所定距離の間隔をあけて22、23のように配置されている。これは、上述したように2つの撮像装置1、撮像装置3による視差画像を利用して距離画像を得るためである。また、テレビ21に機器制御装置101を組み込んだ場合、操作対象機器11及び表示装置13もテレビ21になる。
FIG. 2 is a diagram illustrating an example in which the
操作者は、仮想リモコンモードを使用する場合は、機器制御装置101(又はテレビ21)に仮想リモコンモードに入るためのトリガとなる動作を行なう必要がある。なお、モードの判定は、上述したようにモード判定器9が行なう。モード判定器9は、仮想リモコンモードに入るトリガを検出する。このトリガとなる入力は、例えば操作者のジェスチャ入力によって行なわれる。ジェスチャの一例として、撮像装置1、撮像装置3に対して、操作者が手を振る等の動作が考えられる。このように、一定以上の動きベクトルの検出を行なった場合、モード判定器9は、仮想リモコンモードに入ると判定する。なお、動きベクトルの検出は、動き検出器8で検出された後、モード判定器9で処理される。
When using the virtual remote control mode, the operator needs to perform an operation that triggers the device control apparatus 101 (or the television 21) to enter the virtual remote control mode. The mode is determined by the mode determiner 9 as described above. The mode determiner 9 detects a trigger for entering the virtual remote control mode. This trigger input is performed, for example, by an operator's gesture input. As an example of the gesture, an operation such as an operator's hand shaking with respect to the imaging device 1 and the
また、モード判定器9は、操作者の顔の横(或いは下等)で、顔画像に対して、距離画像生成器6で生成される距離画像が、所定距離範囲内の画像であり、これらの条件の下、物体のエッジが観測された場合には、仮想リモコンモードになるよう動作してもよい。 In addition, the mode determination unit 9 is located next to (or below) the face of the operator, and the distance image generated by the distance image generator 6 with respect to the face image is an image within a predetermined distance range. When the edge of the object is observed under the above conditions, the virtual remote control mode may be set.
つまり、機器制御装置101は、顔と所定距離範囲内に所定以上の大きさの物体のエッジを検出した場合には、操作者が仮想リモコンを利用する動作をしたと判断する。そして、機器制御装置101は、画面にエッジ検出した対象物体(つまり、背景画像)の形状画像(対象物体形状画像)と、対象機器の操作メニュー(操作項目)とを表示するように動作する。
That is, when the
なお、上述したジェスチャ入力以外でも、操作者が意図的に仮想リモコンモードに切り替える動作を機器制御装置101側に伝えることができればよく、機器制御装置101は、例えば、操作者の音声により、トリガ信号を検出し、モードを切り替えてもよい。
In addition to the gesture input described above, it is only necessary for the operator to be able to inform the
仮想リモコンモードに入った場合、上述の撮像装置1、撮像装置3で得られた画像に対して、距離画像が距離画像生成器6で生成される。そして、その距離画像又は、距離画像に変換する前のオリジナルの画像情報について、様々な形状の認識処理が形状認識器7で実行される。
When the virtual remote control mode is entered, a distance image is generated by the distance image generator 6 for the images obtained by the imaging device 1 and the
まず、機器制御装置101は、検出された画像の中から操作者を特定する必要がある。そして、機器制御装置101は、対象となる操作者が所持する物体の形状を認識し、更に操作者がこの物体に対して指示動作をした画像を認識する。機器制御装置101で検出された画像の一例を図3に示す。図3は、機器制御装置101が検出した画像の一例を示す図である。
First, the
なお、操作者は、操作対象機器11と一体又は別体の表示装置13に表示される前述の物体の形状(対象物体形状画像)と、操作対象機器の操作メニューと、更には、指示位置に係る指画像(又は指画像に係る画像)と、を見ながら指示動作を行なう。つまり、機器制御装置101は、指示位置が操作者に分かるように表示を行なう。図4は、表示装置13に表示される画像の一例を示す図である。
It should be noted that the operator can display the object shape (target object shape image) displayed on the
<操作者の特定に関する説明>
機器制御装置101は、撮像装置1、撮像装置3で得られた画像情報から、操作者を特定する。より具体的に説明すると、機器制御装置101は、画像内から顔画像を抽出して画像内の人間の概略の位置を特定し、操作者を認識(特定)する。機器制御装置101は、顔の輪郭、目、鼻、口、耳等の距離間隔、肌の色情報等を取得し、人間の顔と認識する(図3の32)。
<Explanation regarding operator identification>
The
なお、操作者を特定する精度を向上させる手法として、操作者は画面の方を向いていると考えられるので、撮像装置1、撮像装置3の近傍に近赤外線を発光可能な装置を配置(不図示)してもよい。そして、機器制御装置101は、瞳孔の反射を利用して、画像内の顔の位置を特定してもよい。機器制御装置101は、このようにして、人物を検知することによって、人間以外の動く物体の排除を行うことができる。なお、画像内に複数の人が存在する場合には、機器制御装置101は、先に検出したトリガ情報を用いて、動きベクトル領域の大きな画像領域に近い人間を操作者と特定する。
As a technique for improving the accuracy of specifying the operator, it is considered that the operator is facing the screen. Therefore, a device capable of emitting near-infrared light is disposed in the vicinity of the imaging device 1 and the
<指示領域(背景画像)の切り出しに関する説明>
操作者は任意の物体を対象物体と決定して、撮像装置1、撮像装置3に向けてその旨の動作行為をする。すると、機器制御装置101は、画像内から対象物体の画像を背景画像(図3の34)として検出する処理を実行する。機器制御装置101は、この処理を、距離画像における顔画像に近接した領域における形状のエッジ(輪郭又は線成分)を検出することによって行う。なお、機器制御装置101は、顔画像から所定距離が離れているエッジ(図3の33)は無視する。
<Explanation about cutting out designated area (background image)>
The operator determines an arbitrary object as a target object, and performs an operation action to that effect toward the imaging device 1 and the
ここで、機器制御装置101は、画像の不連続部分をエッジとして抽出し、このエッジを境界線として画像をいくつかの連続領域に分割する。つまり、機器制御装置101は、画像情報の輝度の変化点を抽出することにより対象物のエッジを検出する。より具体的な手法としては、2次微分処理、ハフ変換等がある。
Here, the
つまり、上述したように、機器制御装置101は、操作者が任意に対象物体して選択した物体を一旦認識すると、認識対象物体を1つの塊として(背景画像の形状画像として)切り出す処理を実行する。機器制御装置101は、この認識対象物体を1つの塊として切り出す領域の特定に、領域の形状特徴情報と、領域内部の画像統計的特徴情報とを用いる。形状特徴情報は、幾何学的特徴(対象となる画像の距離、面積、重心、中心等)である。統計的特徴情報は、画像の輝度分布のパラメータ(平均輝度、分散値等)、カラー等である。
In other words, as described above, the
機器制御装置101は、対象物体(認識対象物体)の画像(形状画像)を、仮想リモコンモードの間はパターンマッチングの標準パターンとして例えば装置内のフレームメモリ等に保存する。そして、機器制御装置101は、撮像装置1のフレーム、撮像装置3のフレームごとに標準パターンと比較する。このことによって、機器制御装置101は、対象物体か否かの判定を行ない、仮想リモコンモードの間は、対象物体の追跡処理を行なう。
The
ここで、対象物体は、操作者の動きによっては、傾きや回転が生ずる場合がある。しかしながら、機器制御装置101は、標準パターンとして登録する際に所定のフレーム数の間で面積が最大となるエッジ領域を検出して、この背景画像の形状画像を標準パターンとして登録する。このことにより、機器制御装置101は、入力時の画像に対して、対象となる領域を回転等の補正をしてパターンマッチングを行なうことができる。よって、機器制御装置101は、対象物体(認識対象物体)の追跡処理を継続することができる。
Here, the target object may be tilted or rotated depending on the movement of the operator. However, when registering as a standard pattern, the
なお、複雑な模様の対象物体等の場合には、エッジが多数検出されてしまう場合があるが、この場合、機器制御装置101は、距離画像による所定距離範囲内のものについて外側の境界を対象物体の形状の画像として検出するようにすればよい。
In the case of a target object having a complicated pattern, a large number of edges may be detected. In this case, the
<背景画像における指の認識に関する説明>
次に、機器制御装置101は、対象物体のエッジ検出で検出した領域内の画像(背景画像)中の「指」(図3の35)の位置を操作者の指示位置として認識する処理を実行する。機器制御装置101は、背景画像に対する指示位置を、背景画像に係る形状画像の頂点(基準点)に対する座標として算出する。
つまり、機器制御装置101は、対象物体に対する指示動作に係る指示位置を、対象物体の形状画像(より具体的には左上の頂点(基準点52))と、指の画像(指画像)(より具体的には53の位置)と、の相対的位置関係から算出する。なお、機器制御装置101は、予めデータベースとして幾つかのパターンの手の画像を取り込んでおくことによって、このパターンとのパターンマッチングで更に手(又は指)の認識の速度や精度等を向上させることができる。
<Explanation about finger recognition in background image>
Next, the
In other words, the
<操作メニューの画面表示に関する説明>
指示位置合成器12は、対象物体のエッジ画像(形状画像)と、操作対象機器の操作メニューと、指示位置に係る指画像と、を合成し、合成した画像を表示装置13に出力する。なお、図4には、背景画像の形状画像と、操作メニュー(ボタン類)とが表示されている一例が示されている。
<Explanation on screen display of operation menu>
The designated
なお、対象物体の背景画像は、操作者が実際は動かしているが、画面に表示される形状画像は固定である。また、この形状画像の表示装置13における表示は、操作者から見て鏡に写る向きと同じ向きに表示される。また、操作メニューのボタンの色は操作者に対して2段階(指示操作と、ボタンを押す操作と)で指示位置に対応してフィードバックされる(図4参照)(指示画像表示)。
The background image of the target object is actually moved by the operator, but the shape image displayed on the screen is fixed. Further, the display of the shape image on the
なお、形状画像内において一定時間以上の間、所定範囲内に指示位置が滞留した場合、機器制御装置101は、該当するメニュー(操作メニュー、又は操作メニューに応じた処理)を実行するよう動作する。
Note that if the designated position stays within a predetermined range in the shape image for a certain time or longer, the
また、形状画像内において一定時間以上の間、指画像が検出されない、即ち指示操作が行なわれない場合、機器制御装置101は、操作者が指示操作を終了したと判断して、表示装置13における操作メニューの表示を終了する。
If the finger image is not detected for a certain time or longer in the shape image, that is, if the instruction operation is not performed, the
なお、機器制御装置101は、操作メニューの表示において、メニューボタンの配列として、形状画像に対応して配置を変更したり、拡大や縮小表示を行なったりしてもよい。また、操作メニューの表示位置は、図4では、表示装置13の画面内で右下としたが、画面内のどこに表示してもよい。また、機器制御装置101は、操作者の動作に応じて操作メニューの表示位置を変更するようにしてもよい。また、機器制御装置101は、操作メニューに透過する形で指画像を表示してもよい。なお、背景画像が、操作メニューを表示する大きさとしては、小さすぎる場合や、背景画像を選択できない場合、機器制御装置101は、その旨を操作者に知らせるメッセージを表示装置13に出力するようにしてもよい。
Note that the
以上の動作は、機器制御装置101の制御機器5で制御され、各ブロックで処理が実行される。この制御機器5の動作を図6のフローチャートを用いて説明する。
The above operation is controlled by the
図6は、制御機器5の動作の一例を説明するためのフローチャートである。
ステップS102において、制御機器5は、仮想リモコンモードに入るトリガの検出を行なう。このトリガ検出は上述したように、例えば、操作者のジェスチャを動き検出器8で検出処理することによって判断される。
FIG. 6 is a flowchart for explaining an example of the operation of the
In step S102, the
そして、ステップS103において、制御機器5は、トリガを検出したか否かの判断処理を実行する。トリガが検出された場合は、ステップS104に進み、制御機器5は、検出された画像情報から顔画像を認識する等して人間を選択する動作を行なう。一方、トリガが検出されない場合には、ステップS102に進み、制御機器5は、再びトリガの検出を行なう。
In step S <b> 103, the
ステップS105において、制御機器5は、画像から顔認識及び形状認識を実行し、画像の顔の位置に近接する物体のエッジ情報を検出する。続いて、ステップS106において、制御機器5は、形状認識したエッジ情報から背景画像の選択(背景画像検出)を行ない、例えば数フレームにおいて面積が最大となる背景画像の形状画像を標準パターンとして決定する。
In step S105, the
ステップS107において、制御機器5は、画像内に存在する人間が1人か否かを、顔認識結果等に基づき判定する。そして、複数の候補が存在すると判定した場合には、ステップS108に進み、制御機器5は、複数の候補から1人を選択する処理を実行する。制御機器5は、例えば距離画像において、動きベクトルの最大の人を選択する。
In step S107, the
ステップS109では、制御機器5は、ステップS106で選択した背景画像、即ち形状認識した対象物体の形状画像(エッジ情報の画像)を表示装置13に出力する(形状画像表示)。そして、ステップS110において、制御機器5は、対象物体の形状画像(対象物体形状画像)に操作の対象となる機器の操作メニューを表示する(操作メニュー表示、又は操作項目表示)。
In step S109, the
次にステップS111において、制御機器5は、ステップS106で決定された背景画像の標準パターンに係る追跡処理を実行する。そしてステップS112において、制御機器5は、背景画像と、標準パターンとの形状や輝度分布等の相関をとり、相関があると判断した場合には、ステップS114に進む。制御機器5は、相関がないと判断した場合には、ステップS113に進み、仮想リモコンモードを継続するか否かの判断を実行する。ここで、制御機器5は、予め決められた回数のフレーム数の間は、仮想リモコンモードを継続すると判断し、ステップS111に進み、背景画像の追跡処理が実行するが、それ以降は、仮想リモコンモードを終了すると判断し、ステップS117に進む。
In step S111, the
次に、ステップS114において、制御機器5は、撮像装置1、撮像装置3で撮像された画像を検証し、指画像を認識する処理を実行する(指画像検出)。そして、ステップS115において、制御機器5は、対象物体の画像(背景画像)中に指画像が検出されたか否かの判断処理を実行する。指画像が検出されたと判断した場合には、制御機器5は、ステップS118に進む。一方、指画像が検出されないと判断した場合には、制御機器5は、ステップS116に進み、仮想リモコンモードを継続するか否かの判断処理を実行する。この判断処理は、ステップS113における判断処理と同様である。
Next, in step S114, the
続いて、ステップS118において、制御機器5は、指画像の位置(指示位置)を算出する。制御機器5は、上述したように、対象物体に対する指示動作に係る指示位置を、対象物体の形状画像と、指の画像(指画像)と、の相対的位置関係から算出する。なお、制御機器5は、背景画像を標準パターンに対して正規化し、背景差分法を用いて手を認識し、更に形状認識により指の位置を認識する。指の先端、即ち指示位置の算出処理を終えると、次にステップS119において、制御機器5は、対象物体形状画像と、操作メニューの画像と、ステップS118で計算した指示位置の画像(又は指画像)と、を合成させ、表示装置13に表示させる。
Subsequently, in step S118, the
ステップS120において、制御機器5は、操作者が操作メニューの選択動作をしたか検出する処理を実行する。制御機器5は、表示されている操作メニューのボタンに対して所定時間、指示位置(指画像)が滞留したか否かで判断する。
In step S120, the
ステップS121において、制御機器5は、操作メニュー決定処理が実行されたか否かの判断処理を実行する。操作メニューが決定されたと判断した場合には、制御機器5は、ステップS122に進む。一方、操作メニューが決定されないと判断した場合には、制御機器5は、ステップS116に進み、リモコンモードを継続するか否かの判断処理を実行する。
In step S121, the
ステップS122において、制御機器5は、選択された操作メニューに係るコマンドを送信する処理を実行する(コマンド送信)。そして、ステップS110に進み、制御機器5は、仮想リモコンモードを継続する間は、ステップS110以降の処理を繰り返す。
In step S122, the
以上のように、本実施形態によれば、操作者が任意の物体に対して指示する動作の画像を認識し、機器のリモコンとして使用することができる。また、物体の形状画像と、指示動作に係る指示動作画像(指画像)と、の相対位置関係から物体に対する指示動作に係る指示位置を算出するため、認識率が向上する。また、更に、形状画像の画面表示により、ユーザーインターフェースが向上する。そのため操作性良く機器を制御することができる。 As described above, according to the present embodiment, an image of an operation instructed by an operator on an arbitrary object can be recognized and used as a device remote control. In addition, since the instruction position related to the instruction operation for the object is calculated from the relative positional relationship between the shape image of the object and the instruction operation image (finger image) related to the instruction operation, the recognition rate is improved. Further, the user interface is improved by displaying the shape image on the screen. Therefore, the device can be controlled with good operability.
つまり、リモコンが手元にない場合や故障等して使用できない場合でも操作性よく対象機器を制御することができる。 That is, the target device can be controlled with good operability even when the remote control is not at hand or cannot be used due to failure or the like.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
5 制御機器
11 操作対象機器
13 表示装置
101 機器制御装置
5
Claims (4)
撮像装置において撮像された画像から前記対象物体に係る指画像を検出する指画像検出手段と、
前記対象物体に対する指示動作に係る指示位置を、前記背景画像として検出された対象物体の形状画像と、前記指画像と、の相対位置関係から算出する算出手段と、
前記背景画像として検出された対象物体の形状画像を表示装置に表示する形状画像表示手段と、
前記表示装置に表示されている物体の形状画像内に操作項目を表示する操作項目表示手段と、
前記算出手段において算出された指示位置に前記指画像に係る画像を表示する指示画像表示手段と、
前記操作項目表示手段で表示された前記操作項目に対して、所定時間、前記指示画像表示手段で表示された前記指画像に係る画像が滞留したか否かに応じて、対象機器の操作に係る操作項目が選択されたか否かを判定する判定手段と、
前記判定手段において操作項目が選択されたと判定された場合、選択された操作項目に係る制御コマンドを前記対象機器に送信するコマンド送信手段と、
を有することを特徴とする機器制御装置。 Background image detection means for detecting an image of a target object as a background image from an image captured by the imaging device;
Finger image detection means for detecting a finger image related to the target object from an image captured by the imaging device;
Calculating means for calculating an instruction position related to an instruction operation on the target object from a relative positional relationship between a shape image of the target object detected as the background image and the finger image;
Shape image display means for displaying a shape image of the target object detected as the background image on a display device;
Operation item display means for displaying operation items in the shape image of the object displayed on the display device;
Instruction image display means for displaying an image related to the finger image at the indicated position calculated by the calculation means;
Depending on whether or not the image related to the finger image displayed on the instruction image display means stays for a predetermined time with respect to the operation item displayed on the operation item display means. Determining means for determining whether an operation item has been selected;
If it is determined that the operation item is selected by the determination unit, a command transmission unit that transmits a control command related to the selected operation item to the target device;
A device control apparatus comprising:
前記背景画像検出手段は、前記距離画像生成手段において生成された画像を用いて背景画像を検出する処理を行い、
前記指画像検出手段は、前記距離画像生成手段において生成された画像を用いて指画像を検出する処理を行うことを特徴とする請求項1に記載の機器制御装置。 A distance image generating means for generating an image obtained by dividing an area corresponding to the distance from the imaging device from an image captured by the imaging device;
The background image detection means performs a process of detecting a background image using the image generated by the distance image generation means,
The device control apparatus according to claim 1, wherein the finger image detection unit performs a process of detecting a finger image using the image generated by the distance image generation unit .
撮像装置において撮像された画像から対象物体の画像を背景画像として検出する背景画像検出ステップと、 A background image detection step of detecting an image of the target object as a background image from an image captured by the imaging device;
撮像装置において撮像された画像から前記対象物体に係る指画像を検出する指画像検出ステップと、 A finger image detection step of detecting a finger image related to the target object from an image captured by the imaging device;
前記対象物体に対する指示動作に係る指示位置を、前記背景画像として検出された対象物体の形状画像と、前記指画像と、の相対位置関係から算出する算出ステップと、 A calculation step of calculating an instruction position related to an instruction operation on the target object from a relative positional relationship between the shape image of the target object detected as the background image and the finger image;
前記背景画像として検出された対象物体の形状画像を表示装置に表示する形状画像表示ステップと、 A shape image display step of displaying a shape image of the target object detected as the background image on a display device;
前記表示装置に表示されている物体の形状画像内に操作項目を表示する操作項目表示ステップと、 An operation item display step for displaying an operation item in the shape image of the object displayed on the display device;
前記算出ステップにおいて算出された指示位置に前記指画像に係る画像を表示する指示画像表示ステップと、 An instruction image display step of displaying an image related to the finger image at the instruction position calculated in the calculation step;
前記操作項目表示ステップで表示された前記操作項目に対して、所定時間、前記指示画像表示ステップで表示された前記指画像に係る画像が滞留したか否かに応じて、対象機器の操作に係る操作項目が選択されたか否かを判定する判定ステップと、 Depending on whether or not the image related to the finger image displayed in the instruction image display step stays for a predetermined time with respect to the operation item displayed in the operation item display step, A determination step for determining whether or not an operation item has been selected;
前記判定ステップにおいて操作項目が選択されたと判定された場合、選択された操作項目に係る制御コマンドを前記対象機器に送信するコマンド送信ステップと、 If it is determined that the operation item is selected in the determination step, a command transmission step of transmitting a control command related to the selected operation item to the target device;
を含むことを特徴とする制御方法。The control method characterized by including.
前記背景画像検出ステップでは、前記距離画像生成ステップにおいて生成された画像を用いて背景画像を検出する処理を行い、 In the background image detection step, a process of detecting a background image using the image generated in the distance image generation step is performed.
前記指画像検出ステップでは、前記距離画像生成ステップにおいて生成された画像を用いて指画像を検出する処理を行うことを特徴とする請求項3に記載の制御方法。 The control method according to claim 3, wherein in the finger image detection step, processing for detecting a finger image is performed using the image generated in the distance image generation step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007161806A JP4968922B2 (en) | 2007-06-19 | 2007-06-19 | Device control apparatus and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007161806A JP4968922B2 (en) | 2007-06-19 | 2007-06-19 | Device control apparatus and control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009003576A JP2009003576A (en) | 2009-01-08 |
JP4968922B2 true JP4968922B2 (en) | 2012-07-04 |
Family
ID=40319920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007161806A Expired - Fee Related JP4968922B2 (en) | 2007-06-19 | 2007-06-19 | Device control apparatus and control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4968922B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010154405A (en) * | 2008-12-26 | 2010-07-08 | Toshiba Corp | Video image reproducing device, control signal generating device, and method of generating control signal |
JP5525165B2 (en) * | 2009-02-03 | 2014-06-18 | パナソニック株式会社 | Operation display device |
JP2010204730A (en) * | 2009-02-27 | 2010-09-16 | Seiko Epson Corp | System of controlling device in response to gesture |
JP2012098771A (en) * | 2010-10-29 | 2012-05-24 | Sony Corp | Image forming apparatus and image forming method, and program |
JP5439347B2 (en) * | 2010-12-06 | 2014-03-12 | 日立コンシューマエレクトロニクス株式会社 | Operation control device |
RU2605349C2 (en) * | 2011-02-04 | 2016-12-20 | Конинклейке Филипс Н.В. | Gesture controllable system using proprioception to create absolute frame of reference |
JP6106983B2 (en) | 2011-11-30 | 2017-04-05 | 株式会社リコー | Image display device, image display system, method and program |
JP2013172211A (en) * | 2012-02-17 | 2013-09-02 | Sharp Corp | Remote control device and remote control system |
JP6509027B2 (en) * | 2015-05-12 | 2019-05-08 | キヤノン株式会社 | Object tracking device, optical apparatus, imaging device, control method of object tracking device, program |
JP2017091298A (en) * | 2015-11-12 | 2017-05-25 | 日本電信電話株式会社 | Image processing device, image processing method and image processing program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0844490A (en) * | 1994-07-28 | 1996-02-16 | Matsushita Electric Ind Co Ltd | Interface device |
JP5048890B2 (en) * | 1998-10-13 | 2012-10-17 | ソニー エレクトロニクス インク | Motion detection interface |
JP2003283865A (en) * | 2002-03-26 | 2003-10-03 | Matsushita Electric Ind Co Ltd | Apparatus controller |
-
2007
- 2007-06-19 JP JP2007161806A patent/JP4968922B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009003576A (en) | 2009-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4968922B2 (en) | Device control apparatus and control method | |
US10606380B2 (en) | Display control apparatus, display control method, and display control program | |
JP6598617B2 (en) | Information processing apparatus, information processing method, and program | |
JP6601417B2 (en) | Information processing apparatus, information processing method, and program | |
US11579904B2 (en) | Learning data collection device, learning data collection system, and learning data collection method | |
EP2991027B1 (en) | Image processing program, image processing method and information terminal | |
WO2021035646A1 (en) | Wearable device and control method therefor, gesture recognition method, and control system | |
JP2010009558A (en) | Image recognition device, electrical device operation control unit, electric appliance, image recognition program, and semiconductor device | |
JP5613741B2 (en) | Image processing apparatus, method, and program | |
JP2011028366A (en) | Operation control device and operation control method | |
CN104364733A (en) | Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program | |
JP2010086336A (en) | Image control apparatus, image control program, and image control method | |
JPH06261863A (en) | Sight line direction measuring instrument | |
KR20170022078A (en) | Display apparatus and controlling method thereof | |
JP2015106252A (en) | Face direction detection device and three-dimensional measurement device | |
KR101256046B1 (en) | Method and system for body tracking for spatial gesture recognition | |
JP2008059283A (en) | Operation detection device and program therefor | |
JP6716028B2 (en) | Control device, information processing system, control method, and program | |
JP6507252B2 (en) | DEVICE OPERATION DEVICE, DEVICE OPERATION METHOD, AND ELECTRONIC DEVICE SYSTEM | |
JP2011095985A (en) | Image display apparatus | |
KR101961266B1 (en) | Gaze Tracking Apparatus and Method | |
JP2000056916A (en) | Hand pointing device | |
JP6319220B2 (en) | Transparent wearable terminal, data processing apparatus, and data processing system | |
JP2019164216A (en) | Instruction position transmission system and instruction position transmission method | |
JP6982656B2 (en) | Eye-pointing system operated by the eye |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120306 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120402 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150413 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4968922 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150413 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |