JP2012238293A - Input device - Google Patents

Input device Download PDF

Info

Publication number
JP2012238293A
JP2012238293A JP2011139984A JP2011139984A JP2012238293A JP 2012238293 A JP2012238293 A JP 2012238293A JP 2011139984 A JP2011139984 A JP 2011139984A JP 2011139984 A JP2011139984 A JP 2011139984A JP 2012238293 A JP2012238293 A JP 2012238293A
Authority
JP
Japan
Prior art keywords
movement
image
cursor
input device
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011139984A
Other languages
Japanese (ja)
Inventor
taisuke Sakamoto
堪亮 坂本
Masanori Takami
正憲 高見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nextedge Tech Inc
NEXTEDGE TECHNOLOGY Inc
Original Assignee
Nextedge Tech Inc
NEXTEDGE TECHNOLOGY Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nextedge Tech Inc, NEXTEDGE TECHNOLOGY Inc filed Critical Nextedge Tech Inc
Priority to JP2011139984A priority Critical patent/JP2012238293A/en
Publication of JP2012238293A publication Critical patent/JP2012238293A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an input device that discriminates between an operator and a background which becomes noise and does not malfunction even if a person other than the operator is present within a photographic range of a camera and moves a hand.SOLUTION: A right eye imaging device A and a left eye imaging device B are disposed side by side, and a distance to a subject of which images have been taken by the imaging devices A and B is measured by a binocular parallax method by distance measurement means C. Subject discrimination means D compares the measured distance with a previously set depth distance that is identified by the binocular parallax method based on an interval between the imaging devices A and B, and when the distance to the subject and the depth distance coincide with each other within a predetermined acceptable range, operation instruction generating means E detects movement of the subject and generates an operation instruction depending on the result of the detection.

Description

本発明は、情報端末装置やパーソナルコンピュータなどの情報機器に接続されて使用され、カメラ等による撮像装置によって操作者の動作画像を取り込み、情報機器のカーソル操作やアプリケーションプログラムの選択及び実行などを制御する入力装置に関する。   The present invention is used by being connected to an information device such as an information terminal device or a personal computer, takes an operation image of an operator by an imaging device such as a camera, and controls cursor operation of the information device and selection and execution of an application program. It relates to an input device.

近年、カメラで操作者を撮影して画像解析し、この画像解析結果を使用してオーディオ装置、エアコンなどの機器を操作する入力装置が種々、提案されている。   In recent years, various input devices have been proposed in which an operator is photographed with a camera, image analysis is performed, and an audio device, an air conditioner, or the like is operated using the image analysis result.

例えば、カメラ等の撮像装置が撮影した画像から手領域を抽出すると共に、その手の形状がどのような形状(手を傾ける、指を曲げるなど)になっているかを判定し、この判定内容に対応する手操作指示を音声、又はプロジェクト画像などで操作者に知らせるものである。   For example, a hand region is extracted from an image captured by an imaging device such as a camera, and the shape of the hand (such as tilting a hand or bending a finger) is determined. A corresponding manual operation instruction is notified to the operator by voice or a project image.

ところで、カメラにより操作者の動作を捉える此の種の入力装置では、操作者とノイズとなる背景とを正確に識別しなければならない。そのため、余分な背景を画像に取り込まないような技術が従来から提案されている。   By the way, in this type of input device that captures the operation of the operator by the camera, it is necessary to accurately identify the operator and the background that causes noise. For this reason, techniques that do not capture an excessive background in an image have been proposed.

例えば、赤外光を照射し、これと同期した動作をするイメージセンサを用いて、物体反射光のみを画像として取り出す入力装置が知られている。反射光の強さは一般的に物体までの距離の2乗に反比例するために、距離のある背景の物体は反射光が届かないことから、近くの物体が遠くの背景から容易に区別することができることを利用して、関係ない動きなどによる誤動作を小さくしようとするものである(例えば、特許文献1を参照)。   For example, an input device that extracts only object reflected light as an image using an image sensor that irradiates infrared light and operates in synchronization with the infrared light is known. Because the intensity of the reflected light is generally inversely proportional to the square of the distance to the object, objects in the background with a distance do not reach the reflected light, so nearby objects can be easily distinguished from the background in the distance. It is intended to reduce malfunctions due to unrelated movements by utilizing the fact that it can be performed (see, for example, Patent Document 1).

また、赤外線カメラを用いて遠赤外線は撮像範囲の温度分布を撮像する装置を有する入力装置も知られている。この従来技術は、手を赤外線カメラの前にかざすと、手から放射されて赤外線カメラに入射する手の表面の温度に対応した遠赤外線は、手が近いほど赤外線カメラへの入射光量が増え、遠くなるほど入射光量が少なくなって、手と赤外線カメラとの距離の2乗に反比例することを利用して余分な背景を取り込まないようにするものである(例えば、特許文献2を参照)。   There is also known an input device having a device for imaging the temperature distribution of the imaging range of far-infrared rays using an infrared camera. In this conventional technology, when the hand is held in front of the infrared camera, the far infrared ray corresponding to the temperature of the surface of the hand that is emitted from the hand and enters the infrared camera increases the amount of incident light to the infrared camera as the hand is closer, Increasing the distance reduces the amount of incident light and uses the fact that it is inversely proportional to the square of the distance between the hand and the infrared camera so as not to capture an extra background (see, for example, Patent Document 2).

特開2001−216069号公報JP 2001-216069 A 特開2005−50177号公報Japanese Patent Laid-Open No. 2005-50177

上記した従来技術においては、特殊なセンサやカメラを必要とし、しかも操作者と背景とが接近している場合には背景もノイズとして取り込むために、誤動作を引き起こす問題点がある。   The above-described prior art requires a special sensor or camera, and when the operator and the background are close to each other, the background is also captured as noise, which causes a malfunction.

よって本発明は、操作者とノイズとなる背景とを正確に識別して、カメラの撮影範囲内で操作者に近い位置にいる人が手を動かした場合でも、誤動作しない入力装置を提供することを目的としている。   Therefore, the present invention provides an input device that accurately identifies an operator and a background that causes noise and does not malfunction even when a person close to the operator moves within the shooting range of the camera. It is an object.

上記課題を達成するため本発明は、撮像装置で得られた操作者の画像を処理して、操作者の動作内容に応じた操作指示を生成する入力装置であって、右眼用撮像装置と、前記右眼用撮像装置から所定の間隔を置いた位置に、前記右眼用撮像装置と並んで配置される左眼用撮像装置と、被写体に対する前記右眼用撮像装置と前記左眼用撮像装置の画像から両眼視差法により前記被写体までの距離を測定する距離測定手段と、前記右眼用撮像装置と前記左眼用撮像装置との間の前記間隔に基づいて両眼視差法により割り出して予め設定してある奥行き距離と前記距離測定手段が測定した前記被写体までの距離とを比較し、前記被写体までの距離と前記奥行き距離とが所定の許容範囲内で一致している前記被写体を選択して前記操作者と判別する被写体判別手段と、前記被写体判別手段が判別した前記被写体の動きを検出し、この検出結果に応じた操作指示を生成する操作指示生成手段と、を備えたことを特徴としている。   In order to achieve the above object, the present invention is an input device that processes an operator's image obtained by an imaging device and generates an operation instruction according to the operation content of the operator. , A left-eye imaging device arranged in parallel with the right-eye imaging device at a predetermined distance from the right-eye imaging device, the right-eye imaging device and the left-eye imaging for a subject A distance measuring unit that measures a distance from the image of the apparatus to the subject by a binocular parallax method, and an index by the binocular parallax method based on the interval between the right eye imaging device and the left eye imaging device The depth distance set in advance and the distance to the subject measured by the distance measuring means are compared, and the subject in which the distance to the subject and the depth distance match within a predetermined allowable range is determined. Select the target to be identified as the operator And body determination means, said detecting movement of the subject object determining means has determined, is characterized by comprising an operation instruction generating means for generating an operation instruction corresponding to the detection result.

そして、前記操作指示の認識結果を表示するディスプレイ部を具備し、前記操作指示生成手段は、カーソルの表示待機中に前記操作者の手若しくは指による第1の形態の動きを検出すると前記ディスプレイ部に前記仮想カーソルを第1の状態で表示し、該第1の状態での表示中に前記手若しくは指による前記第1の動きが停止又は前記第1の動きが小さくなるのを検出すると前記仮想カーソルを第2の状態で表示すると共に、実カーソルを表示するカーソル表示制御手段を備えたことを特徴としている。   A display unit configured to display a recognition result of the operation instruction, and the operation instruction generation unit detects the movement of the first form by the operator's hand or finger while waiting to display a cursor; The virtual cursor is displayed in the first state, and when the first movement by the hand or finger is stopped or the first movement is detected during the display in the first state, the virtual cursor is displayed. In addition to displaying the cursor in the second state, a cursor display control means for displaying the actual cursor is provided.

そして、前記操作指示生成手段は、前記仮想カーソルが前記第2の状態で表示されているときに、前記手若しくは指が前記第1の形態の動きをすると、その手若しくは指の位置に前記カーソルの移動を指示する第1の信号を生成するカーソル移動制御手段を備えたことを特徴としている。   Then, when the hand or finger moves in the first form when the virtual cursor is displayed in the second state, the operation instruction generating means moves the cursor to the position of the hand or finger. Cursor movement control means for generating a first signal for instructing the movement is provided.

そして、前記操作指示生成手段は、前記仮想カーソルが前記第1の状態で表示されているときに、前記手若しくは指による第2の形態の動きを検出するとクリック操作と認識する第2の信号を生成し、第2の形態の動きに続く第3の形態の動きを検出するとダブルクリック操作と認識する第3の信号を生成するクリック制御手段を備えたことを特徴としている。   Then, the operation instruction generating means generates a second signal that recognizes a click operation when detecting the movement of the second form by the hand or the finger when the virtual cursor is displayed in the first state. When the movement of the third form following the movement of the second form is detected, click control means for generating a third signal that is recognized as a double click operation is provided.

そして、前記操作指示生成手段は、前記仮想カーソルが前記第1の状態で表示されているときに、前記手若しくは指による第4の形態の動きを検出すると、前記ディスプレイ部の画面スクロールを指示する第4の信号を生成する画面スクロール制御手段を備えたことを特徴としている。   Then, the operation instruction generating means instructs to scroll the screen of the display unit when detecting the movement of the fourth form by the hand or the finger when the virtual cursor is displayed in the first state. A screen scroll control means for generating a fourth signal is provided.

そして、前記操作指示生成手段は、前記ディスプレイ部に表示されたオブジェクトに前記実カーソルが重ねられた状態で前記手若しくは指による第5の形態の動きを検出すると前記オブジェクトがドラッグの対象オブジェクトであることを認識し、認識後の前記手若しくは指による移動に追随した前記オブジェクトの移動を指示する第5の信号を生成し、続いて前記手若しくは指による前記第1形態での動きを検出すると前記オブジェクトのドロップを指示する第6の信号を生成するドラッグアンドドロップ制御手段を備えたことを特徴としている。   When the operation instruction generating unit detects the movement of the fifth form by the hand or the finger while the real cursor is superimposed on the object displayed on the display unit, the object is a drag target object. And when the movement of the first form by the hand or finger is detected, the fifth signal instructing the movement of the object following the movement by the hand or finger after the recognition is generated. A drag-and-drop control means for generating a sixth signal instructing to drop the object is provided.

そして、前記操作指示生成手段は、2つの前記手若しくは指がそれぞれ前記第1の形態の動きを行うのを検出すると2点カーソルを表示し、前記第1の形態の動きを行う前記手若しくは指の間隔が拡大又は縮小されるのに応じて前記2点カーソルの間隔を拡大又は縮小表示し、前記第1の形態の動きの停止にて前記2点カーソルの間隔に応じて前記ディスプレイ部の拡大表示又は縮小表示を指示する第7の信号を生成する画面拡大・縮小制御手段を備えたことを特徴としている。   When the operation instruction generating unit detects that the two hands or fingers perform the movement of the first form, the operation instruction generating unit displays a two-point cursor, and the hand or finger performing the movement of the first form. The interval between the two-point cursors is enlarged or reduced according to the interval between the two points being enlarged or reduced, and the display unit is enlarged according to the interval between the two-point cursors when the movement of the first mode is stopped. A screen enlargement / reduction control means for generating a seventh signal instructing display or reduction display is provided.

そして、前記操作指示生成手段は、2つの前記手若しくは指がそれぞれ前記第1の形態の動きを行うのを検出すると前記2点カーソルを表示すると共に、前記第1の形態の動きを行う前記手若しくは指の相対位置の上下の変化に応じて前記2点カーソルの相対位置を上下に変化させて表示し、前記第1の形態の動きの停止にて前記2点カーソルの上下の位置関係に応じて前記ディスプレイ部の表示の右回転又は左回転を指示する第8の信号を生成する画面回転制御手段を備えたことを特徴としている。   Then, the operation instruction generating means displays the two-point cursor when detecting that the two hands or fingers respectively perform the movement of the first form and displays the two-point cursor and the hand performing the movement of the first form. Alternatively, the relative position of the two-point cursor is changed up and down in accordance with the up-and-down change in the relative position of the finger, and depending on the up-and-down positional relationship of the two-point cursor when the movement of the first form is stopped. And a screen rotation control means for generating an eighth signal for instructing a right rotation or a left rotation of the display on the display unit.

また、前記ディスプレイ部は、前記撮像装置による前記操作者の画像を透過表示することを特徴としている。更に、前記ディスプレイ部は、前記操作者が操作指示の動きをしているとき前記画像を透過表示することを特徴としている。   Further, the display unit displays the operator's image by the imaging device in a transparent manner. Further, the display unit is characterized in that the image is transparently displayed when the operator is moving the operation instruction.

また、前記ディスプレイ部は、前記操作者が前記手若しくは指の動きにて行う操作指示のエフェクトを表示することを特徴としている。   The display unit may display an effect of an operation instruction performed by the operator by the movement of the hand or finger.

本発明の入力装置は、ビデオカメラで得られた操作者の画像を処理して、操作者の動作内容に応じた操作指示を生成する入力装置であって、右眼用カラーカメラと、前記右眼用カラーカメラから所定距離だけ離れた位置に、前記右眼用カラーカメラと並んで配置される左眼用カラーカメラと、被写体を捉えた前記右眼用カラーカメラから出力されるカラー画像に対し、グレー化処理、画像分割/2値化処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を行い、前記操作者の右眼側活動矩形領域を抽出する右眼側画像処理プログラムと、前記被写体を捉えた前記左眼用カラーカメラから出力されるカラー画像に対し、グレー化処理、画像分割/2値化処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を行い、前記操作者の左眼側活動矩形領域を抽出する左眼側画像処理プログラムと、前記右眼側画像処理プログラムで得られた右眼側活動矩形領域の座標軸と前記左眼側画像処理プログラムで得られた左眼側活動矩形領域の座標軸との中心座標距離を演算することで両眼視差法による前記被写体までの距離を測定し、測定した前記被写体までの距離を前記右眼用撮像装置と前記左眼用撮像装置との間の前記間隔に基づいて両眼視差法により割り出して予め設定してある奥行き距離と比較し、前記被写体までの距離と前記奥行き距離とが所定の許容範囲内で一致している前記右眼活動矩形領域及び前記左眼活動矩形領域を前記操作者による活動矩形領域として選択する活動領域選択処理プログラムと、前記活動領域選択処理プログラムにて選択された活動矩形領域に対し、仮想カーソル制御処理/画面制御処理を行って、前記被写体の手、又は指先の動きを検出し、この検出結果に応じた操作指示を生成する画像処理プログラムと、を備えたことを特徴としている。   An input device according to the present invention is an input device that processes an operator's image obtained by a video camera and generates an operation instruction according to an operation content of the operator, and includes a right-eye color camera and the right eye For a color image output from the color camera for the left eye that is arranged alongside the color camera for the right eye at a position that is a predetermined distance away from the color camera for the eye, and the color image for the right eye that captures the subject A right eye side image processing program for performing graying processing, image division / binarization processing, inter-frame difference processing, histogram processing, activity rectangle area extraction processing, and extracting the right eye side activity rectangle area of the operator; Gray image processing, image segmentation / binarization processing, inter-frame difference processing, histogram processing, active rectangular area extraction processing for a color image output from the left-eye color camera capturing the subject A left-eye side image processing program for extracting the left-eye side activity rectangular region of the operator, a coordinate axis of the right-eye side activity rectangular region obtained by the right-eye side image processing program, and the left-eye side image processing program The distance to the subject is measured by the binocular parallax method by calculating the center coordinate distance with the coordinate axis of the left-eye side active rectangular area obtained in step, and the measured distance to the subject is the right-eye imaging device. The distance to the subject and the depth distance are within a predetermined allowable range compared with the depth distance that is determined by the binocular parallax method based on the distance between the imaging device for the left eye and the left-eye imaging device. Selected by the activity region selection processing program and the activity region selection processing program for selecting the right-eye activity rectangular region and the left-eye activity rectangular region that are coincident with each other as the activity rectangular region by the operator An image processing program for performing a virtual cursor control process / screen control process on the active rectangle area detected to detect the movement of the hand or fingertip of the subject and to generate an operation instruction according to the detection result; It is characterized by having prepared.

そして、前記仮想カーソル制御処理/画面制御処理は、仮想カーソル活動領域画像上に活動矩形領域群が1つあるとき、その形状、移動有無に基づき、カールソル制御指示、又は画面スクロール指示を生成することを特徴としている。一方、前記仮想カーソル制御処理/画面制御処理は、仮想カーソル活動領域画像上に活動矩形領域群が2つあるとき、その移動方向に基づき、画面回転指示、画面拡大指示、画面縮小指示の何れかを生成することを特徴としている。   In the virtual cursor control process / screen control process, when there is one active rectangular area group on the virtual cursor active area image, a Carlsol control instruction or a screen scroll instruction is generated based on the shape and presence / absence of movement. It is characterized by. On the other hand, when there are two active rectangle area groups on the virtual cursor active area image, the virtual cursor control process / screen control process is any one of the screen rotation instruction, the screen enlargement instruction, and the screen reduction instruction based on the moving direction. It is characterized by generating.

そして、前記活動矩形領域抽出処理は、ヒストグラムの統計処理結果を使用して、前記ヒストグラムから仮想カーソル活動領域画像を作成することを特徴としている。また、前記活動矩形領域抽出処理は、前記仮想カーソル活動領域画像に対し、多段階矩形オブジェクト抽出処理を行い、ノイズ成分を除去することを特徴としている。   The active rectangular area extracting process is characterized in that a virtual cursor active area image is created from the histogram using a histogram statistical processing result. The active rectangular area extraction process is characterized in that a multi-stage rectangular object extraction process is performed on the virtual cursor active area image to remove noise components.

また、拡大/縮小矩形マスク作成処理を付加し、前記拡大/縮小矩形マスク作成処理によって、前記カラーカメラで得られたカラー画像の中から、前記仮想カーソル活動領域画像上の変化領域矩形に対応する画像を抽出し、それ以外の画像をカットして、ノイズ成分を除去することを特徴としている。   Further, an enlargement / reduction rectangle mask creation process is added, and a change area rectangle on the virtual cursor active area image is selected from the color images obtained by the color camera by the enlargement / reduction rectangle mask creation process. It is characterized by extracting an image and cutting other images to remove noise components.

本発明の入力装置は、ビデオカメラで得られた操作者の画像を処理して、操作者の動作内容に応じた操作指示を生成し、遠隔操作対象機器の動作を制御する入力装置であって、箱形に形成される入力装置筐体と、この入力装置筐体の前面左側に取り付けられる右眼用カラーカメラ本体と、前記入力装置筐体の前面右側に取り付けられる左眼用カラーカメラ本体と、前記入力装置筐体内に配置され、グレー化処理回路、画像分割/2値化処理回路、フレーム間差分処理回路、ヒストグラム処理回路、活動矩形領域抽出処理回路によって、前記右眼用カラーカメラ本体から出力されるカラー画像を処理して、前記操作者の右眼側活動矩形領域を抽出する右眼側画像処理基板と、前記入力装置筐体内に配置され、グレー化処理回路、画像分割/2値化処理回路、フレーム間差分処理回路、ヒストグラム処理回路、活動矩形領域抽出処理回路によって、前記左眼用カラーカメラ本体から出力されるカラー画像を処理して、前記操作者の左眼側活動矩形領域を抽出する左眼側画像処理基板と、前記入力装置筐体内に配置され、活動矩形領域選択処理回路、仮想カーソル制御処理/画面制御処理回路によって、両眼視差法を使用して、前記右眼側画像処理プログラムで得られた右眼側活動矩形領域の座標軸と前記左眼側画像処理プログラムで得られた左眼側活動矩形領域の座標軸とから被写体までの距離を演算することで両眼視差法による前記被写体までの距離を測定し、前記被写体までの距離を前記右眼用撮像装置と前記左眼用撮像装置との間の前記間隔に基づいて両眼視差法により割り出して予め設定してある奥行き距離と比較し、前記被写体までの距離と前記奥行き距離とが所定の許容範囲内で一致している前記右眼活動矩形領域及び前記左眼活動矩形領域を前記操作者による活動矩形領域として選択し、選択した前記活動矩形領域に仮想カーソル制御処理/画面制御処理を行って、前記被写体の手、又は指先の動きを検出し、この検出結果に応じたポインティングデータを生成し、遠隔操作対象機器の動作を制御する共通処理基板と、を備えることを特徴としている。   An input device according to the present invention is an input device that processes an image of an operator obtained by a video camera, generates an operation instruction according to the operation content of the operator, and controls the operation of a remote operation target device. An input device housing formed in a box shape, a color camera body for the right eye attached to the front left side of the input device housing, and a color camera body for the left eye attached to the front right side of the input device housing Arranged in the housing of the input device and separated from the right-eye color camera body by a graying processing circuit, an image division / binarization processing circuit, an inter-frame difference processing circuit, a histogram processing circuit, and an active rectangular area extraction processing circuit. A right eye side image processing board that processes the output color image and extracts the right eye side activity rectangular area of the operator, and is arranged in the input device casing, and is a graying processing circuit, image segmentation / binary value A color image output from the color camera body for the left eye is processed by a processing circuit, an inter-frame difference processing circuit, a histogram processing circuit, and an active rectangular area extraction processing circuit, and the left-eye active rectangular area of the operator is processed. Left eye side image processing board to be extracted and placed in the input device casing, and the right eye side using binocular parallax method by an active rectangular area selection processing circuit, virtual cursor control processing / screen control processing circuit Binocular disparity method by calculating the distance from the coordinate axis of the right eye side activity rectangular area obtained by the image processing program and the coordinate axis of the left eye side activity rectangular area obtained by the left eye side image processing program to the subject The distance to the subject is measured by the binocular parallax method based on the distance between the right-eye imaging device and the left-eye imaging device. The right eye activity rectangular area and the left eye activity rectangular area in which the distance to the subject and the depth distance match within a predetermined tolerance range are compared with the depth distance set in advance by the operator. Select as the activity rectangular area, perform virtual cursor control processing / screen control processing on the selected activity rectangular area, detect the movement of the hand or fingertip of the subject, and generate pointing data according to the detection result And a common processing board for controlling the operation of the remote operation target device.

本発明によると、操作者の動作を認知するカメラの視野内での空間の奥行きを狭く設定することで操作者と背景とを確実に識別するために、操作者以外の人の手の動きにて誤って入力されることがない。しかも、カメラ視野を設定することでかかる識別を行うために、特殊なセンサやカメラを用いずに通常のカメラにて精度の高い入力装置が提供される。   According to the present invention, in order to reliably identify the operator and the background by setting the depth of the space in the field of view of the camera for recognizing the operation of the operator, the movement of the hand of a person other than the operator is detected. Will not be entered by mistake. In addition, in order to perform such identification by setting the camera field of view, a highly accurate input device is provided with a normal camera without using a special sensor or camera.

本発明による入力装置の第1の実施形態のブロック図を示す。1 shows a block diagram of a first embodiment of an input device according to the invention. 操作者とパソコンと撮像装置との位置関係の模式図を示す。The schematic diagram of the positional relationship of an operator, a personal computer, and an imaging device is shown. 図1による入力装置の具体的な構成例のブロック図を示す。The block diagram of the specific structural example of the input device by FIG. 1 is shown. カメラ視野からの仮想タッチスクリーン画面と、パソコンのディスプレイ部に対する操作者視野からの仮想タッチスクリーン画面とを説明する模式図を示す。The schematic diagram explaining the virtual touch screen screen from a camera visual field and the virtual touch screen screen from the operator visual field with respect to the display part of a personal computer is shown. 操作者視野からの仮想タッチスクリーンの平面モデルを初期設定するときの詳細な動作例を示すフローチャートを示す。7 is a flowchart illustrating a detailed operation example when initially setting a plane model of a virtual touch screen from the operator's field of view. 操作者視野からの仮想タッチスクリーンの平面モデルを初期設定する演算に用いるパラメータを説明する模式図を示す。The schematic diagram explaining the parameter used for the calculation which initializes the plane model of the virtual touch screen from an operator visual field is shown. 図3に示す入力装置の詳細な動作例のフローチャートを示す。Fig. 4 shows a flowchart of a detailed operation example of the input device shown in Fig. 3. 図7に示すグレー化/2値化画像処理の詳細な動作例のフローチャートを示す。FIG. 8 shows a flowchart of a detailed operation example of grayed / binarized image processing shown in FIG. 7. FIG. 図7に示すフレーム間差分/ヒストグラム作成処理の詳細な動作例のフローチャートを示す。8 is a flowchart of a detailed operation example of the inter-frame difference / histogram creation process shown in FIG. 7. 図7に示す活動矩形領域抽出処理の詳細な動作例のフローチャートを示す。8 shows a flowchart of a detailed operation example of the activity rectangular area extraction process shown in FIG. 7. 図10に示すフローチャートのステップ41に代えて処理するステップ41’を示している。FIG. 11 shows a step 41 ′ to be processed instead of the step 41 in the flowchart shown in FIG. 10. 図10に示すフローチャートのステップ43に代えて処理するステップ43’を示している。Step 43 ′ is shown in place of step 43 in the flowchart shown in FIG. 10. 図7に示す活動矩形領域選択処理の詳細な動作例のフローチャートを示す。The flowchart of the detailed operation example of the active rectangle area | region selection process shown in FIG. 7 is shown. 図13に示すフローチャートのステップ57に代えて処理するステップ57’を示している。FIG. 14 shows a step 57 ′ to be processed instead of the step 57 in the flowchart shown in FIG. 13. 図7に示す仮想カーソル制御処理、画面制御処理の詳細な動作例のフローチャートを示す。8 is a flowchart of a detailed operation example of the virtual cursor control process and the screen control process shown in FIG. 図3に示す入力装置で使用される元のヒストグラム例と、変化領域抽出後のヒストグラム例との模式図を示す。FIG. 4 is a schematic diagram of an original histogram example used in the input device shown in FIG. 3 and a histogram example after extraction of a changed region. 図3に示す入力装置で使用される変化領域抽出後のヒストグラム例と、仮想カーソル活動領域画像例との模式図を示す。The schematic diagram of the example of a histogram after the change area extraction used with the input device shown in FIG. 3, and a virtual cursor active area image example is shown. 図3に示す入力装置で使用される変化領域抽出後のヒストグラム例と、仮想カーソル活動領域画像例との模式図を示す。The schematic diagram of the example of a histogram after the change area extraction used with the input device shown in FIG. 3, and a virtual cursor active area image example is shown. 図3に示す入力装置において、活動矩形領域選択処理で選択された活動矩形領域群の一例の模式図を示す。In the input device shown in FIG. 3, the schematic diagram of an example of the active rectangular area group selected by the active rectangular area selection process is shown. 図3に示す入力装置において、活動矩形領域選択処理で選択された活動矩形領域群の一例の模式図を示す。In the input device shown in FIG. 3, the schematic diagram of an example of the active rectangular area group selected by the active rectangular area selection process is shown. 図3に示す入力装置で使用される多段階オブジェクト抽出処理の一例の模式図を示す。The schematic diagram of an example of the multistage object extraction process used with the input device shown in FIG. 3 is shown. 図3に示す入力装置で使用される多段階オブジェクト抽出処理の一例の模式図を示す。The schematic diagram of an example of the multistage object extraction process used with the input device shown in FIG. 3 is shown. 図3に示す入力装置で使用される両眼視差法の概要の模式図を示す。The schematic diagram of the outline | summary of the binocular parallax method used with the input device shown in FIG. 3 is shown. 図3に示す入力装置において、両眼視差法による補正を行う前の右活動矩形領域、左活動矩形領域の関係の模式図を示す。In the input device shown in FIG. 3, the schematic diagram of the relationship between the right active rectangular area and the left active rectangular area before performing correction by the binocular parallax method is shown. 図3に示す入力装置において、両眼視差法による補正を行った後の右活動矩形領域、左活動矩形領域の関係の模式図を示す。In the input device shown in FIG. 3, the schematic diagram of the relationship between the right active rectangular area and the left active rectangular area after correcting by the binocular parallax method is shown. 図3に示す入力装置において、両眼視差法による補正を行った後の右活動矩形領域、左活動矩形領域の実例の模式図を示す。In the input device shown in FIG. 3, the schematic diagram of the example of the right active rectangular area after correction | amendment by a binocular parallax method and a left active rectangular area is shown. 図3に示す入力装置によって撮影される操作者の手の動きと、仮想カーソルとの関係例の模式図を示す。The schematic diagram of the example of a relationship between the motion of the operator's hand image | photographed with the input device shown in FIG. 3, and a virtual cursor is shown. 図3に示す入力装置によって撮影される操作者の手の動きと、仮想カーソルとの関係例の模式図を示す。The schematic diagram of the example of a relationship between the motion of the operator's hand image | photographed with the input device shown in FIG. 3, and a virtual cursor is shown. 図3に示す入力装置によって制御される実カーソルの微調整動作例の模式図を示す。FIG. 4 is a schematic diagram illustrating an example of a fine adjustment operation of an actual cursor controlled by the input device illustrated in FIG. 3. 図3に示す入力装置によって制御される仮想カーソルの色制御例の模式図を示す。The schematic diagram of the example of color control of the virtual cursor controlled by the input device shown in FIG. 3 is shown. 図3に示す入力装置で使用される変化領域抽出後のヒストグラム例と、仮想カーソル活動領域画像例との模式図を示す。The schematic diagram of the example of a histogram after the change area extraction used with the input device shown in FIG. 3, and a virtual cursor active area image example is shown. 図3に示す入力装置によって撮影される操作者の手の動きと、クリック動作との関係例の模式図を示す。The schematic diagram of the example of a relationship between the motion of the operator's hand image | photographed with the input device shown in FIG. 3, and click motion is shown. 図3に示す入力装置によって得られる仮想カーソル活動領域画像上に2つの各活動矩形領域群があるときの一例の模式図を示す。The schematic diagram of an example when there exist two each active rectangle area | region groups on the virtual cursor active area image obtained by the input device shown in FIG. 図3に示す入力装置によって得られる仮想カーソル活動領域画像上にある各活動矩形領域群の位置関係例の模式図を示す。The schematic diagram of the positional relationship example of each active rectangular area group on the virtual cursor active area image obtained by the input device shown in FIG. 3 is shown. 図3に示す入力装置によって得られる仮想カーソル活動領域画像上に2つの各活動矩形領域群があるときの一例の模式図を示す。The schematic diagram of an example when there exist two each active rectangle area | region groups on the virtual cursor active area image obtained by the input device shown in FIG. 図3に示す入力装置によって得られる仮想カーソル活動領域画像上にある各活動矩形領域群の位置関係例の模式図を示す。The schematic diagram of the positional relationship example of each active rectangular area group on the virtual cursor active area image obtained by the input device shown in FIG. 3 is shown. 図3に示す入力装置において、抽出活動領域において操作者の意図しない動作により発生したものをノイズとして除去する動作を説明する模式図を示す。In the input device shown in FIG. 3, the schematic diagram explaining the operation | movement which removes as a noise what generate | occur | produced by the operation | movement which an operator does not intend in the extraction activity area | region is shown. 1台のカメラでのカメラ視野角と被写体の幅と被写体までの距離の関係を説明する模式図を示す。FIG. 2 is a schematic diagram for explaining the relationship between the camera viewing angle, the subject width, and the distance to the subject in one camera. 図1に示す入力装置の2台のカメラによる両眼視差法にて、カメラから被写体までの正確な距離の測定を説明する模式図を示す。The schematic diagram explaining the measurement of the exact distance from a camera to a to-be-photographed object by the binocular parallax method by the two cameras of the input device shown in FIG. 本発明による入力装置の第2の実施形態のブロック図を示す。2 shows a block diagram of a second embodiment of an input device according to the invention. FIG. 本発明による入力装置の他の実施形態のフローチャートを示す。6 shows a flowchart of another embodiment of an input device according to the present invention. 図41に示すフローチャートの動作例の模式図を示す。FIG. 42 shows a schematic diagram of an operation example of the flowchart shown in FIG. 41. 指先によるタッピング動作の説明図を示す。An explanatory view of tapping operation by a fingertip is shown. フィードバックから仮想カーソルの表示までの説明図を示す。An explanatory view from feedback to display of a virtual cursor is shown. 仮想カーソルがロック状態となる状態の説明図を示す。An explanatory view of a state where a virtual cursor will be in a locked state is shown. 仮想カーソルの表示を指示する掌の動きの説明図を示す。FIG. 5 is an explanatory diagram of palm movement for instructing display of a virtual cursor. クリック操作の手の動きの説明図を示す。The explanatory view of the hand movement of click operation is shown. ダブルクリック操作の手の動きの説明図を示す。An explanatory view of hand movement of a double click operation is shown. フリップ操作の手の動きの説明図を示す。The explanatory view of the movement of the hand of flip operation is shown. ドラッグアンドドロップ操作の手の動きの説明図を示す。An explanatory view of hand movement of a drag and drop operation is shown. 画面の拡大/縮小を指示する操作の手の動きの説明図を示す。FIG. 4 is an explanatory diagram of a hand movement of an operation for instructing enlargement / reduction of a screen. 画面の回転を指示する操作の手の動きの説明図を示す。An explanatory view of a hand movement of an operation instructing rotation of a screen is shown.

図1は、本発明による入力装置1aの第1の実施の形態を示すブロック図で、Aは被写体を撮影するウェブカメラ或いはビデオカメラなどの可視光カメラによる右眼用撮像装置、Bはこの右眼用撮像装置Aから所定の間隔を置いた位置に、右眼用撮像装置と並んで配置され、被写体を撮影するウェブカメラ或いはビデオカメラなどの可視光カメラによる左眼用撮像装置である。Cは右眼用撮像装置A及び左眼用撮像装置Bから取り込んだ被写体の画像から両眼視差によりこの被写体までの距離を測定する距離測定手段、Dは右眼用撮像装置A及び左眼用撮像装置Bとの間の間隔に基づいて予め設定してある両眼視差法による奥行き距離と距離測定手段Cが測定した被写体までの距離とを比較することで被写体が操作者であるかを判定する被写体判別手段である。そして、Eは被写体判別手段Dが被写体を操作者と判定したとき、被写体の手、又は指先の動きを検出し、この検出結果に応じた操作指示を生成する操作指示生成手段である。   FIG. 1 is a block diagram showing a first embodiment of an input device 1a according to the present invention, in which A is a right-eye imaging device using a visible light camera such as a web camera or a video camera for photographing a subject, and B is this right This is a left-eye imaging device using a visible light camera, such as a web camera or a video camera, that is arranged alongside the right-eye imaging device at a position spaced from the eye imaging device A by a predetermined distance. C is a distance measuring unit that measures the distance from the image of the subject captured from the right-eye imaging device A and the left-eye imaging device B to the subject by binocular parallax, and D is the right-eye imaging device A and left-eye imaging device. It is determined whether the subject is an operator by comparing the depth distance based on the binocular parallax method set in advance based on the distance between the imaging device B and the distance to the subject measured by the distance measuring means C. Subject discrimination means. E is an operation instruction generation unit that detects the movement of the hand or fingertip of the subject when the subject determination unit D determines that the subject is an operator, and generates an operation instruction according to the detection result.

本発明の入力装置1aは、右眼用撮像装置A及び左眼用撮像装置Bからの視野内での空間の奥行きを狭く設定するために、横方向に並べて配置した右眼用撮像装置A及び左眼用撮像装置Bの間隔から両眼視差により割り出した被写体までの奥行き距離を予め検知領域に設定している。そして、右眼用撮像装置A及び左眼用撮像装置Bが実際の被写体を捉えると、距離測定手段Cは撮像装置A、Bから取り込んだ被写体の画像から両眼視差によりこの被写体までの距離を測定する。そして、被写体判別手段Dは、距離測定手段Cが測定した被写体めでの距離と予め設定している奥行き距離とを比較し、許容誤差範囲内で一致していればこの被写体は操作者であると判断し、操作指示生成手段Eは、操作者の手、又は指先の動きを検出し、この検出結果に応じたパソコン(図示せず)への操作指示を生成する。   The input device 1a of the present invention includes a right-eye image pickup device A and a right-eye image pickup device A arranged side by side in order to narrow the depth of the space in the field of view from the right-eye image pickup device A and the left-eye image pickup device B. The depth distance from the left-eye imaging device B to the subject determined by binocular parallax is set in advance in the detection area. Then, when the right-eye imaging device A and the left-eye imaging device B capture an actual subject, the distance measuring unit C calculates the distance to the subject by binocular parallax from the images of the subject captured from the imaging devices A and B. taking measurement. Then, the subject discrimination means D compares the distance to the subject measured by the distance measurement means C with a preset depth distance, and if the subject is within an allowable error range, the subject is an operator. The operation instruction generation means E determines the movement of the operator's hand or fingertip, and generates an operation instruction to a personal computer (not shown) according to the detection result.

このように本発明による入力装置1aは、両眼視差法で得られた被写体までの距離を評価することで背景画像と区別して、操作者が撮像装置から一定の距離範囲で手や指先を動かしたかどうかを判別するものである。   As described above, the input device 1a according to the present invention evaluates the distance to the subject obtained by the binocular parallax method to distinguish it from the background image, and the operator moves the hand or fingertip within a certain distance range from the imaging device. It is determined whether or not.

被写体(操作者)とパソコンと撮像装置A、Bとの位置関係を模式的に示す図2にて更に説明すると、図2の(ア)部は、各撮像装置A、Bの設置位置から所定距離範囲、例えば“0.3m”〜“0.8m”の範囲内にいる操作者とそれ以外の距離にいる他の人を区別している。そして、図2の(イ)部及び(ウ)部で示すように、距離範囲dを小さくしていくと、操作者の手、指先などの動きを検知する領域が空間から平面へと近づく。そして、距離dを、右眼用撮像装置A及び左眼用撮像装置Bの間隔から両眼視差法により割り出した被写体までの奥行き距離に略一致するまで小さく設定すると、図2の(ウ)部にて示されるような仮想タッチスクリーンFが操作者と撮像装置A、Bとの間に形成される。仮想タッチスクリーンFは、撮像装置からの視野内の平面に操作者が指先を差し込むことでその座標を検出し、パソコン2のディスプレイ部にマッピングするのと同じような機能を達成する。   The positional relationship among the subject (operator), the personal computer, and the imaging devices A and B will be further described with reference to FIG. 2, where (a) in FIG. An operator who is in a distance range, for example, “0.3 m” to “0.8 m”, is distinguished from other persons who are at other distances. Then, as shown by (a) and (c) in FIG. 2, when the distance range d is reduced, the region for detecting the movement of the operator's hand, fingertip, etc. approaches from the space to the plane. When the distance d is set to be small until it substantially matches the depth distance from the interval between the right-eye imaging device A and the left-eye imaging device B to the subject determined by the binocular parallax method, Is formed between the operator and the imaging devices A and B. The virtual touch screen F achieves a function similar to that when the operator inserts a fingertip into a plane in the field of view from the imaging device to detect the coordinates and map the coordinates on the display unit of the personal computer 2.

従って、奥行き距離を外れた空間で操作者が手、指先などを動かし、この画像が撮像装置A、Bで撮像されても、仮想タッチスクリーンFへの入力動作とは見做さず、被写体判別手段Dでは無視されるために操作判定手段Eでは入力動作として検出されることがない。このような仮想タッチスクリーンを備えた入力装置1aは、仮想タッチスクリーンF上での以外の背景の動作は全て無効となるために、入力装置としての動作が確実となる。両眼視差法に依ると、横方向に並べた撮像装置A、Bの間隔が凡そ5cmで奥行き距離は1cmとなる。   Therefore, even if the operator moves his / her hand, fingertip, etc. in a space outside the depth distance and this image is picked up by the image pickup devices A and B, it is not regarded as an input operation to the virtual touch screen F, and subject discrimination is performed. Since it is ignored by the means D, it is not detected as an input operation by the operation determination means E. Since the input device 1a having such a virtual touch screen has all background operations other than those on the virtual touch screen F disabled, the operation as the input device is ensured. According to the binocular parallax method, the distance between the imaging devices A and B arranged in the horizontal direction is about 5 cm and the depth distance is 1 cm.

図3は図1による入力装置1aの具体的な構成例をブロック図にて示している。この図に示す入力装置1aは、パソコン2のディスプレイ部3に設けられる左眼用撮像装置である内蔵型のウェブカメラ4と、パソコン2内に設けられるビデオキャプチャ5と、パソコン2のディスプレイ部3に設けられる右眼用撮像装置である外付け型のウェブカメラ6と、パソコン2内に設けられるUSBインタフェース7と、パソコン2内に設けられるハードディスク8と、パソコン2内に設けられるCPU9と、パソコン2内に設けられるメモリ10とによって構成されている。入力装置1aは、各ウェブカメラ4,6で得られたカラー画像について両眼視差法を用いて解析し、各ウェブカメラ4、6の設置位置からの距離に基づいて、操作者とそれ以外の距離にいる他の人とを区別しながら、操作者の手、指先などの動きのみを検出し、パソコン2のディスプレイ部3に表示された仮想カーソル25〔図27の(b)参照〕、操作対象画面(OS画面、アプリケーション画面)などを制御し、現在、起動中のアプリケーションをコントロールする。   FIG. 3 is a block diagram showing a specific configuration example of the input device 1a according to FIG. The input device 1a shown in this figure includes a built-in web camera 4 that is a left-eye imaging device provided in a display unit 3 of a personal computer 2, a video capture 5 provided in the personal computer 2, and a display unit 3 of the personal computer 2. An external web camera 6 that is an imaging device for the right eye provided in the computer, a USB interface 7 provided in the personal computer 2, a hard disk 8 provided in the personal computer 2, a CPU 9 provided in the personal computer 2, and a personal computer. 2 and a memory 10 provided in 2. The input device 1a analyzes the color images obtained by the web cameras 4 and 6 using the binocular parallax method, and based on the distance from the installation position of the web cameras 4 and 6, the operator and the others A virtual cursor 25 (see FIG. 27B) displayed on the display unit 3 of the personal computer 2 is detected by detecting only the movement of the operator's hand, fingertips, etc. while distinguishing it from other people at a distance. The target screen (OS screen, application screen) and the like are controlled, and the currently running application is controlled.

ウェブカメラ4は、320画素×240画素程度の解像度を持つカラーカメラであり、ビデオキャプチャ5から撮影指示が出されているとき、操作者を撮影して得られたカラービデオ信号をビデオキャプチャ5に供給する。   The web camera 4 is a color camera having a resolution of about 320 pixels × 240 pixels. When a shooting instruction is issued from the video capture 5, the color video signal obtained by shooting the operator is sent to the video capture 5. Supply.

ビデオキャプチャ5は、システムバス12を介して、CPU9から撮影指示が出されているとき、ウェブカメラ4を制御して操作者を撮影すると共に、撮影動作で得られたカラービデオ信号を取り込み、RGB信号形式のカラー画像に変換してCPU9に供給する。   When a shooting instruction is issued from the CPU 9 via the system bus 12, the video capture 5 controls the web camera 4 to shoot an operator, captures a color video signal obtained by the shooting operation, The signal is converted to a color image and supplied to the CPU 9.

また、ウェブカメラ6は、ウェブカメラ4から水平方向に所定距離だけ離れてディスプレイ部3の上縁などに取り付けられた、320画素×240画素程度の解像度を持つカラーカメラであり、USBインタフェース7から撮影指示が出されているとき、操作者を撮影して得られたYUV信号をUSBインタフェース7に供給する。   The web camera 6 is a color camera having a resolution of about 320 pixels × 240 pixels attached to the upper edge of the display unit 3 at a predetermined distance in the horizontal direction from the web camera 4. When the photographing instruction is issued, the YUV signal obtained by photographing the operator is supplied to the USB interface 7.

USBインタフェース7は、システムバス12を介して、CPU9から撮影指示が出されているとき、ウェブカメラ6を制御して操作者の画像を撮影すると共に、撮影動作で得られたYUV信号を取り込んでCPU9に供給し、RGB信号形式のカラー画像に変換する。   The USB interface 7 controls the web camera 6 to take an image of the operator and captures a YUV signal obtained by the shooting operation when a shooting instruction is issued from the CPU 9 via the system bus 12. The data is supplied to the CPU 9 and converted into a color image in the RGB signal format.

ハードディスク8は、OS(Operating System)、定数データなどが格納されるOS格納エリア13と、インターネットエクスプローラプログラム、ブラウザプログラムなどのアプリケーションプログラムが格納されるアプリケーション格納エリア14と、本発明で使用する右眼側画像処理プログラム・左眼側画像処理プログラム・画像処理プログラムが格納される画像処理プログラム格納エリア15と、HSV(色相・彩度・明度)方式で、予め設定されている特定色(例えば、肌色)のカラー画像を抽出するのに必要なカラーマスク、2値化画像、ヒストグラム、仮想カーソル活動領域画像27(図17参照)、仮想ボタンクリック活動領域画像などが格納される画像格納エリア16とを備えている。そして、CPU9から読み出し指示が出力されたとき、システムバス12を介してこれを取り込み、指定されたエリアに格納されているOS、定数データ、アプリケーションプログラム、画像処理プログラム、2値化画像、ヒストグラム、仮想カーソル活動領域画像27、仮想ボタンクリック活動領域画像などを読み出し、システムバス12を介してCPU9に供給する。また、CPU9から書き込み指示、データが出力されたとき、システムバス12を介してこれらを取り込み、書き込み指示で指定されたエリア、例えば画像格納エリア16などにデータを記憶させる。   The hard disk 8 includes an OS storage area 13 in which an OS (Operating System) and constant data are stored, an application storage area 14 in which application programs such as an Internet Explorer program and a browser program are stored, and a right eye used in the present invention. A side image processing program, a left eye side image processing program, an image processing program storage area 15 in which the image processing program is stored, and a specific color (for example, skin color) preset in HSV (hue / saturation / lightness) method And an image storage area 16 for storing a color mask, a binarized image, a histogram, a virtual cursor activity area image 27 (see FIG. 17), a virtual button click activity area image, etc. I have. When a read instruction is output from the CPU 9, the CPU 9 captures this via the system bus 12 and stores the OS, constant data, application program, image processing program, binary image, histogram, The virtual cursor activity area image 27, the virtual button click activity area image, and the like are read out and supplied to the CPU 9 via the system bus 12. Further, when a write instruction and data are output from the CPU 9, these are taken in via the system bus 12 and stored in an area designated by the write instruction, for example, the image storage area 16.

CPU9は、ハードディスク8に格納されているOS、定数データ、アプリケーションプログラムなどで指定された表示データを生成してシステムバス12に接続された表示インタフェース11に供給し、ディスプレイ部3に操作対象画面を表示させる。また、右眼側画像処理プログラム、左眼側画像処理プログラム、画像処理プログラムなどで記述された画像処理を行い、操作対象画面に表示されている仮想カーソルのサイズ、位置などの制御、クリック制御、スクロール制御、画面回転制御、画面拡大制御、画面縮小制御などを行う。   The CPU 9 generates display data specified by the OS, constant data, application program and the like stored in the hard disk 8 and supplies the display data to the display interface 11 connected to the system bus 12, and displays the operation target screen on the display unit 3. Display. In addition, the image processing described in the right eye side image processing program, the left eye side image processing program, the image processing program, etc. is performed, the control of the size and position of the virtual cursor displayed on the operation target screen, click control, Scroll control, screen rotation control, screen enlargement control, screen reduction control, etc.

メモリ10は、数百メガバイト〜数ギガバイト程度の容量を持ち、CPU9がアプリケーションプログラム、右眼側画像処理プログラム、左眼側画像処理プログラム、画像処理プログラムなどで指定された処理を行うときの一時データ格納エリアとして使用される。   The memory 10 has a capacity of about several hundred megabytes to several gigabytes, and temporary data when the CPU 9 performs processing specified by an application program, a right eye side image processing program, a left eye side image processing program, an image processing program, or the like. Used as storage area.

本発明による入力装置1aは操作者とウェブカメラ4,6との間に仮想タッチスクリーンを形成するものであるが、操作者はパソコン2のディスプレイ部3に向けて操作を行うために、操作者側から見ると操作者とディスプレイ部3との間に仮想タッチスクリーンが形成されていることになる。したがって、ウェブカメラ4,6の取り付け位置によっては、両方の仮想タッチスクリーンの位置が大きく異なるという問題がある。   The input device 1a according to the present invention forms a virtual touch screen between the operator and the web cameras 4 and 6, but the operator operates the display unit 3 of the personal computer 2 to operate the operator. When viewed from the side, a virtual touch screen is formed between the operator and the display unit 3. Therefore, depending on the attachment positions of the web cameras 4 and 6, there is a problem that the positions of both virtual touch screens are greatly different.

例えば、ウェブカメラ4,6を天井から極端に下を向けた図4の(a)部で示すような場合などにおいては、カメラ視野からの仮想タッチスクリーン画面S1とディスプレイ部3に対する操作者視野からの仮想タッチスクリーン画面S2との座標軸が大きく異なるために、ウェブカメラ4,6からの画像を入力する入力装置1aは操作者がディスプレイ部3に向けて行う動作を正確に捉えることができないことがある。   For example, in the case where the web cameras 4 and 6 are shown as part (a) in FIG. 4 with the ceiling facing down from the ceiling, the virtual touch screen screen S1 from the camera field of view and the operator field of view on the display unit 3 are viewed. Since the coordinate axis of the virtual touch screen screen S2 is greatly different, the input device 1a that inputs the images from the web cameras 4 and 6 may not accurately capture the operation performed by the operator toward the display unit 3. is there.

したがってウェブカメラ4,6の取り付け位置によっては、図4の(b)部で示すように、両眼のウェブカメラ4,6により得られたカメラ視野からの仮想タッチスクリーン画面S1の平面座標Pin=(x,y,d)を、操作者視野からの仮想タッチスクリーン画面S2の平面座標Pin=(X,Y,D)へ変換するのが好ましい。以下、この変換方法について説明する。   Therefore, depending on the attachment position of the web cameras 4 and 6, as shown in FIG. 4B, the plane coordinates Pin = of the virtual touch screen screen S1 from the camera field of view obtained by the binocular web cameras 4 and 6 are obtained. It is preferable to convert (x, y, d) to the plane coordinates Pin = (X, Y, D) of the virtual touch screen screen S2 from the operator's field of view. Hereinafter, this conversion method will be described.

カメラ視野からの仮想タッチスクリーン画面S1の平面座標Pin=(x,y,d)を、操作者視野からの仮想タッチスクリーン画面S2の平面座標Pin=(X,Y,D)に変換を行うには、入力装置1aは操作者視野からの仮想タッチスクリーン画面S2の平面モデルを初期設定するための校正動作を行う必要がある。   The plane coordinate Pin = (x, y, d) of the virtual touch screen screen S1 from the camera view is converted into the plane coordinate Pin = (X, Y, D) of the virtual touch screen screen S2 from the operator view. The input device 1a needs to perform a calibration operation for initial setting of the planar model of the virtual touch screen screen S2 from the operator's field of view.

《平面モデルの初期設定》
操作者がディスプレイ部3の前面に仮想タッチスクリーンがあると仮定して操作を行う平面モデルの初期設定について、図5のフローチャート及び図6の模式図に基づき説明する。
<Initial setting of planar model>
The initial setting of the planar model that the operator operates assuming that there is a virtual touch screen in front of the display unit 3 will be described based on the flowchart of FIG. 5 and the schematic diagram of FIG.

まず操作者は、視野上に見えるパソコン2のディスプレイ部3の画面上の左上、右上、左下の順番で3点P1,P2,P3をタップするが、CPU9はこれによりウェブカメラ4,6視野からの仮想タッチスクリーン画面S1上でのP1=(x1,y1,d1)、P2=(x2,y2,d2)、P3=(x3,y3,d3)をそれぞれ測定する(ステップS101)。ここで、x,y,dは次の通り。
x:ウェブカメラの画像上の横軸値
y:ウェブカメラの画像上の縦軸値
d:ウェブカメラからの距離
First, the operator taps three points P1, P2, and P3 in the order of upper left, upper right, and lower left on the screen of the display unit 3 of the personal computer 2 that can be seen in the field of view. P1 = (x1, y1, d1), P2 = (x2, y2, d2), and P3 = (x3, y3, d3) are measured on the virtual touch screen screen S1 (step S101). Here, x, y, d are as follows.
x: Horizontal axis value on the webcam image y: Vertical axis value on the webcam image d: Distance from the webcam

そして、CPU9は、仮想タッチスクリーン画面S1平面の法線ベクトルnを求める(ステップS102)。平面の法線ベクトルnは、入力3点を含む平面に直交するので、同時に3点内の任意の2点を結ぶベクトルに直交する。よって法線ベクトルnは、次式で求まる。最後にはノルムを1のベクトルに正規化する。
n=(P−P)×(P−P) (×は外積計算を示す)
And CPU9 calculates | requires the normal vector n of virtual touch screen screen S1 plane (step S102). Since the normal vector n of the plane is orthogonal to the plane including the three input points, it is orthogonal to the vector connecting any two of the three points simultaneously. Therefore, the normal vector n is obtained by the following equation. Finally, the norm is normalized to a vector of 1.
n = (P 1 −P 2 ) × (P 1 −P 3 ) (× indicates outer product calculation)

次に、CPU9は、仮想タッチスクリーン画面S1平面の位置ベクトルpを求める(ステップS103)。平面の位置ベクトルpは、平面上のどの点へのベクトルでも良いが、ここでは、仮想スクリーンの中心へのベクトルとなるように設定する。そのためには、入力点P1を平面の位置ベクトルと仮に定め、この位置ベクトルと、ウェブカメラ4,6から仮想タッチスクリーン画面S1平面に直行する直線に関するその位置ベクトルp=(0,0,0)及び方向ベクトルd1=(0,0,1)との交点cを求める。 Next, the CPU 9 obtains a position vector p of the virtual touch screen screen S1 plane (step S103). The plane position vector p may be a vector to any point on the plane, but here it is set to be a vector to the center of the virtual screen. For this purpose, the input point P1 is tentatively determined as a plane position vector, and this position vector and its position vector p l = (0, 0, 0) with respect to a straight line perpendicular to the virtual touch screen screen S1 plane from the webcams 4 and 6 ) And the direction vector d 1 = (0, 0, 1).

交点cは、直線の位置ベクトルpと方向ベクトルd、平面の位置ベクトルpと法線ベクトルnを用いて、以下の数式のように求められる。尚、式中の・は内積計算を表している。 The intersection point c is obtained by using the straight line position vector p l and the direction vector d l , the plane position vector p p and the normal vector n p as follows. In the equation, · represents inner product calculation.

Figure 2012238293
Figure 2012238293

そして、CPU9は、仮想タッチスクリーン画面S2のX、Y軸の基底ベクトルを求める(ステップS104)。基底ベクトルは、新たな入力点を仮想タッチスクリーン画面S2に射影したときの座標X,Y,Dを計算するときに用いるもので、Dの基底ベクトルは平面の法線ベクトルを使用するため、新たに作成するのはX,Y軸のみである。   Then, the CPU 9 obtains X and Y axis basis vectors of the virtual touch screen screen S2 (step S104). The basis vector is used when calculating coordinates X, Y, and D when a new input point is projected onto the virtual touch screen screen S2, and the basis vector of D uses a normal vector of the plane. Only the X and Y axes are created.

X軸の基底ベクトルnは、平面の位置ベクトルpからX軸(p=(0,0,0)、d=(1,0,0))と平面が交わる点へのベクトルを計算すればよい。Y軸の基底ベクトルnは、平面の位置ベクトルpからY軸(p=(0,0,0)、d=(0,1,0))と平面が交わる点へのベクトルを計算すればよい。すなわち、それぞれ平面の位置ベクトルpで減算し、pからの方向ベクトルとする。 Basis vector n x of the X-axis, X-axis from the position vector p of the plane (p l = (0,0,0), d l = (1,0,0)) and a vector calculation to that plane intersects do it. Y-axis basis vector n y is calculated from a plane position vector p to a point where the plane intersects the Y-axis (p 1 = (0, 0, 0), d 1 = (0, 1, 0)). do it. That is, each is subtracted by a plane position vector p to obtain a direction vector from p.

そして、求めた基底ベクトルn、nを平面のパラメータに追加する。最後にnとnはノルム1に正規化する。 Then, add the determined basis vectors n x, a n y in the parameter plane. Finally n x and n y are normalized to norm 1.

以上により、操作者がパソコン2に指示を与えるべく仮想タッチスクリーンに指先を差し込むと、ウェブカメラ4,6にて検出される仮想タッチスクリーン画面S1上の点Pin=(x,y,d)は、平面のパラメータの法線ベクトルn,位置ベクトルp,基底ベクトルn,基底ベクトルnを用いてCPU9が次の計算を行うことで、仮想タッチスクリーン画面S2上の点Pin=(X,Y,D)に変換することができる。
X=n・(Pin−p)
Y=n・(Pin−p)
D=n・(Pin−p)
(・は内積計算を表す)
As described above, when the operator inserts a fingertip into the virtual touch screen to give an instruction to the personal computer 2, the point Pin = (x, y, d) on the virtual touch screen screen S1 detected by the web cameras 4 and 6 is , the normal vector n of the plane parameters, the position vector p, basis vectors n x, using a base vector n y CPU 9 is by performing the following calculation, point Pin = (X on the virtual touch screen screen S2, Y , D).
X = n x · (P in −p)
Y = ny · (P in −p)
D = n · (P in −p)
(・ Represents inner product calculation)

以上のような補正を行うことにより、カメラ視野からの仮想タッチスクリーンと操作者視野からの仮想タッチスクリーンとを一致させることができ、ウェブカメラ4,6の設置場所がより柔軟な入力装置が提供される。尚、操作者視野からの仮想タッチスクリーン上の座標でのタップに有効な矩形領域を予め保持しておき、その領域値に基づきX軸を0〜320、Y軸を0〜240などに変換し、続く被写体判別後の処理が扱いやすい値に設定している。   By performing the correction as described above, the virtual touch screen from the camera field of view and the virtual touch screen from the operator field of view can be matched, and an input device with more flexible installation locations of the webcams 4 and 6 is provided. Is done. It should be noted that a rectangular area effective for tapping with coordinates on the virtual touch screen from the operator's field of view is held in advance, and the X axis is converted to 0 to 320, the Y axis is converted to 0 to 240, etc. based on the area values. The subsequent processing after subject determination is set to a value that is easy to handle.

次に、入力装置1aへの入力動作について画像処理動作、カーソル制御動作、画面制御動作などを説明する。   Next, an image processing operation, a cursor control operation, a screen control operation, and the like will be described for an input operation to the input device 1a.

《2値化画像生成、格納》
まず、パソコン2の電源が投入されて、アプリケーションプログラム、右眼側画像処理プログラム、左眼側画像処理プログラム、画像処理プログラムが起動されると、図7のフローチャートに示すようにCPU9によって、ビデオキャプチャ5が制御されて、ウェブカメラ4の撮影動作で得られたカラービデオ信号が取り込まれると共に、RGB信号形式のカラー画像に変換されてメモリ10などに一時記憶される(ステップS1)。
<< Binary image generation and storage >>
First, when the personal computer 2 is turned on and an application program, a right eye side image processing program, a left eye side image processing program, and an image processing program are started, the video capture is performed by the CPU 9 as shown in the flowchart of FIG. 5 is controlled, the color video signal obtained by the photographing operation of the web camera 4 is taken in, and is converted into a color image in the RGB signal format and temporarily stored in the memory 10 or the like (step S1).

また、この動作と並行し、CPU9によってUSBインタフェース7が制御されて、ウェブカメラ6の撮影動作で得られたYUV信号が取り込まれると共に、RGB信号形式のカラー画像に変換されてメモリ10などに一時記憶される(ステップS2)。   In parallel with this operation, the USB interface 7 is controlled by the CPU 9 so that the YUV signal obtained by the photographing operation of the web camera 6 is taken in and converted into a color image in the RGB signal format and temporarily stored in the memory 10 or the like. Stored (step S2).

また、これらの各動作と並行し、CPU9によってメモリ10などに一時記憶されている各カラー画像(各ウェブカメラ4,6の撮影動作で得られたカラー画像)のうち、パソコン2側から操作者を見たとき右眼に対応するウェブカメラ、例えば外付け型のウェブカメラ6で得られたカラー画像が読み取られる(ステップS3)。   In parallel with these operations, among the color images (color images obtained by the shooting operations of the web cameras 4 and 6) temporarily stored in the memory 10 or the like by the CPU 9, the operator from the personal computer 2 side. The color image obtained by the web camera corresponding to the right eye, for example, the external web camera 6 is read (step S3).

この後、CPU9によってグレー化/2値化画像処理が開始される(ステップS4)。即ち、図8のフローチャートに示すようにハードディスク8の画像格納エリア16に格納されているカラーマスクで、外付け型のウェブカメラ6で得られたカラー画像がマスクされ、カラー画像の中から予め設定されている特定色(例えば、肌色)のカラー画像(肌色画像)が抽出されると共に(ステップS21)、外付け型のウェブカメラ6で得られたカラー画像がグレー処理化されて、予め設定されている階調のモノクロ画像に変換され、1フレーム分の画像容量を低減させる(ステップS22)。   Thereafter, the CPU 9 starts graying / binarized image processing (step S4). That is, as shown in the flowchart of FIG. 8, the color mask obtained by the external web camera 6 is masked by the color mask stored in the image storage area 16 of the hard disk 8 and set in advance from the color image. A color image (skin color image) of a specific color (for example, skin color) is extracted (step S21), and the color image obtained by the external web camera 6 is gray-processed and set in advance. The image is converted into a monochrome image of a certain gradation, and the image capacity for one frame is reduced (step S22).

そして、CPU9によって画面分割指示が設定されているかどうかがチェックされ、画面分割指示があればモノクロ画像が複数のエリア(各エリアは各々、数個〜数十個の画素によって構成される)に分割され、また画面分割指示がなければ分割処理がスキップされた後、最大尤度しきい値法でモノクロ画像が2値化され、2値化画像が作成される(ステップS23)。   Then, the CPU 9 checks whether or not a screen division instruction is set. If there is a screen division instruction, the monochrome image is divided into a plurality of areas (each area is composed of several to several tens of pixels). If there is no screen division instruction, the division process is skipped, and then the monochrome image is binarized by the maximum likelihood threshold method to create a binarized image (step S23).

次いで、CPU9によって2値化画像と肌色画像との論理和が取られて、2値化画像中の肌色部分が抽出され(ステップS24)、これが1フレーム分の2値化画像(右眼側の2値化画像)としてハードディスク8の画像格納エリア16に格納される(ステップS25)。   Next, the logical sum of the binarized image and the skin color image is taken by the CPU 9 and the skin color portion in the binarized image is extracted (step S24), and this is the binarized image for one frame (on the right eye side). (Binary image) is stored in the image storage area 16 of the hard disk 8 (step S25).

この後、CPU9によって図7のフローチャートに示すようにメモリ10などに一時記憶されている各カラー画像(各ウェブカメラ4,6の撮影動作で得られた各カラー画像)のうち、パソコン2側から操作者を見たとき左眼に対応するウェブカメラ、例えば内蔵型のウェブカメラ4で得られたカラー画像が読み取られる(ステップS5)。   Thereafter, among the color images (color images obtained by the photographing operations of the web cameras 4 and 6) temporarily stored in the memory 10 or the like by the CPU 9 as shown in the flowchart of FIG. When the operator is viewed, the color image obtained by the web camera corresponding to the left eye, for example, the built-in web camera 4 is read (step S5).

次いで、CPU9によってグレー化/2値化画像処理が開始される(ステップS6)。即ち、図8のフローチャートに示すようにハードディスク8の画像格納エリア16に格納されているカラーマスクで内蔵型のウェブカメラ4で得られたカラー画像がマスクされ、カラー画像の中から予め設定されている特定色(例えば、肌色)のカラー画像(肌色画像)が抽出されると共に(ステップS21)、内蔵型のウェブカメラ4で得られたカラー画像がグレー処理化されて、予め設定されている階調のモノクロ画像に変換され、1フレーム分の画像容量を低減させる(ステップS22)。   Next, the CPU 9 starts graying / binarized image processing (step S6). That is, as shown in the flowchart of FIG. 8, the color image obtained by the built-in web camera 4 is masked by the color mask stored in the image storage area 16 of the hard disk 8 and preset from the color image. A color image (skin color image) of a specific color (for example, skin color) is extracted (step S21), and the color image obtained by the built-in web camera 4 is subjected to gray processing, and is set in advance. The image is converted into a tone monochrome image, and the image capacity for one frame is reduced (step S22).

そして、CPU9によって画面分割指示が設定されているかどうかがチェックされ、画面分割指示があればモノクロ画像が複数のエリア(各エリアは各々、数個〜数十個の画素によって構成される)に分割され、また画面分割指示がなければ分割処理がスキップされた後、最大尤度しきい値法でモノクロ画像が2値化され、2値化画像が作成される(ステップS23)。   Then, the CPU 9 checks whether or not a screen division instruction is set. If there is a screen division instruction, the monochrome image is divided into a plurality of areas (each area is composed of several to several tens of pixels). If there is no screen division instruction, the division process is skipped, and then the monochrome image is binarized by the maximum likelihood threshold method to create a binarized image (step S23).

次いで、CPU9によって2値化画像と肌色画像との論理和が取られて、2値化画像中の肌色部分が抽出され(ステップS24)、これが1フレーム分の2値化画像(左眼側の2値化画像)としてハードディスク8の画像格納エリア16に格納される(ステップS25)。   Next, the logical sum of the binarized image and the skin color image is obtained by the CPU 9 and the skin color portion in the binarized image is extracted (step S24), and this is converted into a binarized image for one frame (on the left eye side). (Binary image) is stored in the image storage area 16 of the hard disk 8 (step S25).

以下、上述した画像処理が繰り返され、FIFO(First・In・First・Out)形式でハードディスク8の画像格納エリア16に右眼側の2値化画像、左眼側の2値化画像が各々数フレーム分〜数十フレーム分蓄積される。   Thereafter, the above-described image processing is repeated, and the right eye side binarized image and the left eye side binarized image are in the image storage area 16 of the hard disk 8 in FIFO (First / In / First / Out) format. A frame to several tens of frames are accumulated.

《フレーム間差分、ヒストグラム作成》
また、この動作と並行し図7のフローチャートに示すように、CPU9によってハードディスク13の画像格納エリア16に格納されている数フレーム分〜数十フレーム分の2値化画像の中から、右眼側に対応する最新の2値化画像を含む連続する数フレームの2値化画像が順次読み出される(ステップS7)。
《Difference between frames, creation of histogram》
In parallel with this operation, as shown in the flowchart of FIG. 7, the right eye side is selected from the binarized images for several frames to several tens of frames stored in the image storage area 16 of the hard disk 13 by the CPU 9. Several consecutive frames of binarized images including the latest binarized image corresponding to are sequentially read (step S7).

そして、CPU9によって読み出すことができた2値化画像のフレーム数がチェックされ、所定数以上のフレーム数であれば(ステップS8)、フレーム間差分/ヒストグラム作成処理が開始される(ステップS9)。即ち、図9のフローチャートに示すように、各2値化画像のうち、連続する2フレーム分の2値化画像に対しフレーム間差分処理が行われると共に(ステップS31、S32)、このフレーム間差分処理で得られた各差分画像が各分割エリア毎に累積加算されて右眼側のヒストグラムが作成され、ハードディスク8の画像格納エリア16に格納される(ステップS33、S34)。   Then, the number of frames of the binarized image that can be read out by the CPU 9 is checked. If the number of frames is equal to or greater than the predetermined number (step S8), the interframe difference / histogram creation process is started (step S9). That is, as shown in the flowchart of FIG. 9, inter-frame difference processing is performed on the binarized images for two consecutive frames among the respective binarized images (steps S31 and S32), and the inter-frame difference is performed. Each difference image obtained by the process is cumulatively added for each divided area to create a right-eye histogram and stored in the image storage area 16 of the hard disk 8 (steps S33 and S34).

次いで、図7のフローチャートに示すように、CPU9によってハードディスク13の画像格納エリア16に格納されている数フレーム分〜数十フレーム分の2値化画像の中から左眼側に対応する最新の2値化画像を含む、連続する数フレームの2値化画像が順次読み出される(ステップS10)。   Next, as shown in the flowchart of FIG. 7, the latest 2 corresponding to the left eye side from among the binary images for several frames to several tens of frames stored in the image storage area 16 of the hard disk 13 by the CPU 9. Several consecutive frames of binarized images including the binarized image are sequentially read out (step S10).

そして、CPU9によって読み出すことができた2値化画像のフレーム数がチェックされ、所定数以上のフレーム数であれば(ステップS11)、フレーム間差分/ヒストグラム作成処理が開始される(ステップS12)。即ち、図9のフローチャートに示すように、各2値化画像のうち、連続する2フレーム分の2値化画像に対しフレーム間差分処理が行われると共に(ステップS31、S32)、このフレーム間差分処理で得られた各差分画像が各分割エリア毎に累積加算されて左眼側のヒストグラムが作成され、ハードディスク8の画像格納エリア16に格納される(ステップS33、S34)。   Then, the number of frames of the binarized image that can be read out by the CPU 9 is checked. If the number of frames is equal to or greater than the predetermined number (step S11), the inter-frame difference / histogram creation process is started (step S12). That is, as shown in the flowchart of FIG. 9, inter-frame difference processing is performed on the binarized images for two consecutive frames among the respective binarized images (steps S31 and S32), and the inter-frame difference is performed. Each difference image obtained by the process is cumulatively added for each divided area to create a left eye side histogram and stored in the image storage area 16 of the hard disk 8 (steps S33 and S34).

《統計処理、仮想カーソルの活動領域決定、変化領域抽出》
この後、図7のフローチャートに示すように、CPU9によってハードディスク8の画像格納エリア16に格納されている右眼側のヒストグラムが読み出されて(ステップS13)、活動矩形領域抽出処理が開始される(ステップS14)。即ち、図10のフローチャートに示すように、ヒストグラムの各分割エリアの濃度値に対する統計処理が行われ、平均値、濃度分散値、最大値、偏差(±1σ、±2σ)などが演算される(ステップS41)。
《Statistical processing, virtual cursor activity area determination, change area extraction》
Thereafter, as shown in the flowchart of FIG. 7, the right-eye histogram stored in the image storage area 16 of the hard disk 8 is read by the CPU 9 (step S13), and the active rectangular area extraction process is started. (Step S14). That is, as shown in the flowchart of FIG. 10, statistical processing is performed on the density value of each divided area of the histogram, and an average value, density variance value, maximum value, deviation (± 1σ, ± 2σ), and the like are calculated ( Step S41).

次いで、CPU9によってヒストグラムの各分割エリアの中から、変化領域矩形抽出用のしきい値(例えば、平均値−1σ)より大きい濃度値になっている各分割エリアが抽出され、これらの各分割エリア(活動分割エリア)を含むように矩形状の変化領域矩形(図17、図18参照)が決定されて、ハードディスク8の画像格納エリア16に格納される。   Next, the CPU 9 extracts from the divided areas of the histogram each divided area having a density value larger than the threshold value for extracting the change area rectangle (for example, the average value −1σ). A rectangular change area rectangle (see FIGS. 17 and 18) is determined so as to include (activity division area), and is stored in the image storage area 16 of the hard disk 8.

また、この動作と並行し、CPU9によって図13の3次元濃度分布図に示すようにヒストグラムを構成している各分割エリア20(図17、図18参照)のうち、仮想カーソル矩形抽出用のしきい値(例えば、最大値−1σ)より大きい濃度値になっている分割エリア(活動分割エリア21)が抽出される。   In parallel with this operation, the CPU 9 extracts the virtual cursor rectangle out of each divided area 20 (see FIGS. 17 and 18) constituting the histogram as shown in the three-dimensional density distribution diagram of FIG. A divided area (activity divided area 21) having a density value larger than a threshold value (for example, maximum value −1σ) is extracted.

これにより、操作者が指先を大きく回しているとき、図17に示す通り各活動分割エリア21を含むように矩形状の活動矩形領域26が決定されると共に、この決定結果に基づき図19に示すような右眼側の仮想カーソル活動領域画面27が作成されて、ハードディスク8の画像格納エリア16に格納される。   As a result, when the operator turns the fingertip greatly, the rectangular activity rectangular area 26 is determined so as to include each activity division area 21 as shown in FIG. Such a virtual cursor activity area screen 27 on the right eye side is created and stored in the image storage area 16 of the hard disk 8.

また、操作者が両手を動かしているときには、図18に示す通り各活動分割エリア21を含むように矩形状の活動矩形領域26が決定されて、図20に示すような右眼側の仮想カーソル活動領域画像27が作成され、ハードディスク8の画像格納エリア16に格納される(ステップS42)。   Further, when the operator moves both hands, a rectangular activity rectangular area 26 is determined so as to include each activity division area 21 as shown in FIG. 18, and a virtual cursor on the right eye side as shown in FIG. An active area image 27 is created and stored in the image storage area 16 of the hard disk 8 (step S42).

《仮想ボタンクリックの活動領域決定》
この後、CPU9によってハードディスク8の画像格納エリア16に格納されている右眼側のヒストグラムが読み出されて、各分割エリア20のうち仮想ボタンクリック矩形抽出用のしきい値(例えば、最大値−2σ)より大きい濃度値になっている分割エリア(活動分割エリア)が抽出されると共に、これらの各活動分割エリアを含むように矩形状の活動矩形領域が決定されて、右眼側の仮想ボタンクリック活動領域画像(図示は省略する)が作成され、ハードディスク8の画像格納エリア16に格納される(ステップS43)。
《Determine activity area for virtual button click》
Thereafter, the CPU 9 reads the right-eye histogram stored in the image storage area 16 of the hard disk 8 and extracts a threshold value (for example, the maximum value − 2)) divided areas (activity divided areas) having a density value greater than 2σ) are extracted, and a rectangular activity rectangular area is determined so as to include each of these activity divided areas, and a virtual button on the right eye side is determined. A click activity area image (not shown) is created and stored in the image storage area 16 of the hard disk 8 (step S43).

《多段階矩形オブジェクト抽出処理、影の影響除去》
次いで、CPU9によって仮想カーソル矩形抽出用のしきい値(例えば、最大値−1σ)を使用して得られた右眼側の仮想カーソル活動領域画像27、仮想ボタンクリック矩形抽出用のしきい値(例えば、最大値−2σ)を使用して得られた右眼側の仮想ボタンクリック活動領域画像に対し、各々活動矩形領域26が左右に分割可能かどうかチェックされ、左右に分割可能であれば、図21に示すように活動矩形領域26の水平方向中心点“A”が求められると共に、水平方向中心点“A”から左側にある非活動領域と、活動領域(例えば、活動分割エリア21)との境界点“B”と、水平方向中心点“A”から右側にある非活動領域と、活動領域(例えば、活動分割エリア21)との境界点“C”とが検知され、これら境界点“B”、“C”を含む領域が各活動矩形領域26と判定され、それ以外の活動領域が操作者の影などによる不要な活動領域と判定され、無効とされる(2点抽出処理)。
《Multi-stage rectangular object extraction processing, shadow effect removal》
Subsequently, the CPU 9 uses the virtual cursor rectangle extraction threshold value (for example, the maximum value-1σ) (for example, the virtual cursor active region image 27 on the right eye side obtained by using the virtual cursor rectangle extraction threshold value). For example, with respect to the virtual button click activity region image on the right eye side obtained using the maximum value −2σ), it is checked whether each of the activity rectangular regions 26 can be divided into left and right. As shown in FIG. 21, the horizontal center point “A” of the active rectangular area 26 is obtained, and an inactive area on the left side of the horizontal center point “A”, an active area (for example, an active division area 21), Boundary point “B”, a non-active area on the right side of the horizontal center point “A”, and a boundary point “C” between the active area (for example, the active division area 21) are detected. B ”,“ C ” Are determined as the respective activity rectangular areas 26, and the other active areas are determined as unnecessary active areas due to the shadow of the operator and are invalidated (two-point extraction process).

この後、CPU9によって、2点抽出処理が終了した各活動矩形領域26に対し、各々活動矩形領域26が上下に分割可能かどうかチェックされ、上下分割可能であれば図22に示すように活動矩形領域26の上下方向中心点“A”が求められると共に、上下方向中心点“A”から上側にある非活動領域と、活動領域(例えば、活動分割エリア21)との境界点“B”が検知され、これら境界点“B”を含む領域が活動矩形領域26と判定され、下の活動領域が操作者の影などによる不要な活動領域と判定され、無効とされる(最小化処理)(ステップS44)。   Thereafter, the CPU 9 checks whether or not each of the activity rectangular areas 26 for which the two-point extraction processing has been completed can be divided vertically, and if it can be divided vertically, as shown in FIG. The vertical center point “A” of the area 26 is obtained, and the boundary point “B” between the inactive area above the vertical center point “A” and the active area (for example, the active division area 21) is detected. Then, the area including the boundary point “B” is determined as the active rectangular area 26, and the lower active area is determined as an unnecessary active area due to the shadow of the operator or the like, and is invalidated (minimization process) (step) S44).

次いで、CPU9によって、これら2点抽出処理、最小化処理によって構成される多段階矩形オブジェクト抽出処理で得られた活動矩形領域26を含む右眼側の仮想カーソル活動領域画像27、右眼側の仮想ボタンクリック活動領域画像が、ハードディスク8の画像格納エリア16に格納される(ステップS45)。   Subsequently, the CPU 9 performs a virtual cursor activity region image 27 on the right eye side including the activity rectangular region 26 obtained by the multi-stage rectangular object extraction process constituted by the two-point extraction process and the minimization process, and the right-eye virtual image. The button click activity area image is stored in the image storage area 16 of the hard disk 8 (step S45).

《統計処理、仮想カーソルの活動領域決定、変化領域抽出》
この後、図7のフローチャートに示すようにCPU9によって、ハードディスク8の画像格納エリア16に格納されている左眼側のヒストグラムが読み出されて(ステップS15)、活動矩形領域抽出処理が開始される(ステップS16)。即ち、図10のフローチャートに示すように、ヒストグラムの各分割エリアの濃度値に対する統計処理が行われ、平均値、濃度分散値、最大値、偏差(±1σ、±2σ)などが演算される(ステップS41)。
《Statistical processing, virtual cursor activity area determination, change area extraction》
After that, as shown in the flowchart of FIG. 7, the CPU 9 reads the left eye side histogram stored in the image storage area 16 of the hard disk 8 (step S15), and starts the active rectangular area extraction process. (Step S16). That is, as shown in the flowchart of FIG. 10, statistical processing is performed on the density value of each divided area of the histogram, and an average value, density variance value, maximum value, deviation (± 1σ, ± 2σ), and the like are calculated ( Step S41).

次いで、CPU9によって変化領域矩形抽出用のしきい値(例えば、平均値−1σ)より大きい濃度値になっている各分割エリア20が抽出されて、これらの各分割エリア(活動分割エリア)を含むように矩形状の変化領域矩形が(図17、図18参照)決定され、ハードディスク8の画像格納エリア16に格納される。   Next, the CPU 9 extracts each divided area 20 having a density value larger than the threshold for extracting the change area rectangle (for example, average value −1σ), and includes each of these divided areas (activity divided areas). Thus, a rectangular change area rectangle (see FIGS. 17 and 18) is determined and stored in the image storage area 16 of the hard disk 8.

また、この動作と並行しCPU9によって、図16の3次元濃度分布図に示すようにヒストグラムを構成している各分割エリア20(図17、図18参照)のうち、仮想カーソル矩形抽出用のしきい値(例えば、最大値−1σ)より大きい濃度値になっている分割エリア(活動分割エリア21)が抽出される。   In parallel with this operation, the CPU 9 uses the CPU 9 to extract a virtual cursor rectangle from the divided areas 20 (see FIGS. 17 and 18) constituting the histogram as shown in the three-dimensional density distribution diagram of FIG. A divided area (activity divided area 21) having a density value larger than a threshold value (for example, maximum value −1σ) is extracted.

これにより、操作者が指先を大きく回しているとき、図17に示す通り各活動分割エリア21を含むように矩形状の活動矩形領域26が決定されると共に、この決定結果に基づき図19に示すような左眼側の仮想カーソル活動領域画面27が作成されて、ハードディスク8の画像格納エリア16に格納される。   As a result, when the operator turns the fingertip greatly, the rectangular activity rectangular area 26 is determined so as to include each activity division area 21 as shown in FIG. Such a left-eye virtual cursor activity area screen 27 is created and stored in the image storage area 16 of the hard disk 8.

また、操作者が両手を動かしているときには、図18に示す通り各活動分割エリア21を含むように矩形状の活動矩形領域26が決定されて、図20に示すような左眼側の仮想カーソル活動領域画像27が作成され、ハードディスク8の画像格納エリア16に格納される(ステップS42)。   Further, when the operator moves both hands, a rectangular activity rectangular area 26 is determined so as to include each activity division area 21 as shown in FIG. 18, and the left-eye virtual cursor as shown in FIG. An active area image 27 is created and stored in the image storage area 16 of the hard disk 8 (step S42).

《仮想ボタンクリックの活動領域決定》
次いで、CPU9によってハードディスク8の画像格納エリア16に格納されている左眼側のヒストグラムが読み出されて、各分割エリア20のうち仮想ボタンクリック矩形抽出用のしきい値(例えば、最大値−2σ)より大きい濃度値になっている分割エリア(活動分割エリア)が抽出されると共に、これらの各活動分割エリアを含むように矩形状の活動矩形領域が決定されて、左眼側の仮想ボタンクリック活動領域画像(図示は省略する)が作成され、ハードディスク8の画像格納エリア16に格納される(ステップS43)。
《Determine activity area for virtual button click》
Next, the left-eye histogram stored in the image storage area 16 of the hard disk 8 is read out by the CPU 9, and a threshold value for extracting a virtual button click rectangle in each divided area 20 (for example, the maximum value −2σ) ) A divided area (activity divided area) having a larger density value is extracted, and a rectangular activity rectangular area is determined so as to include each of these activity divided areas, and a virtual button click on the left eye side is clicked An active area image (not shown) is created and stored in the image storage area 16 of the hard disk 8 (step S43).

《多段階矩形オブジェクト抽出処理、影の影響除去》
次いで、CPU9によって仮想カーソル矩形抽出用のしきい値(例えば、最大値−1σ)を使用して得られた左眼側の仮想カーソル活動領域画像27、仮想ボタンクリック矩形抽出用のしきい値(例えば、最大値−2σ)を使用して得られた左眼側の仮想ボタンクリック活動領域画像に対し、各々活動矩形領域26が左右に分割可能かどうかチェックされ、左右に分割可能であれば、図21に示すように活動矩形領域26の水平方向中心点“A”が求められると共に、水平方向中心点“A”から左側にある非活動領域と、活動領域(例えば、活動分割エリア21)との境界点“B”と、水平方向中心点“A”から右側にある非活動領域と、活動領域(例えば、活動分割エリア21)との境界点“C”とが検知され、これら境界点“B”、“C”を含む領域が各活動矩形領域26と判定され、それ以外の活動領域が操作者の影などによる不要な活動領域と判定され、無効とされる(2点抽出処理)。
《Multi-stage rectangular object extraction processing, shadow effect removal》
Next, the virtual cursor click area extraction threshold value 27 for the left-eye virtual cursor active region image 27 obtained by the CPU 9 using the threshold value for virtual cursor rectangle extraction (for example, the maximum value −1σ) ( For example, with respect to the virtual button click activity region image on the left eye side obtained using the maximum value −2σ), it is checked whether each of the activity rectangular regions 26 can be divided into left and right. As shown in FIG. 21, the horizontal center point “A” of the active rectangular area 26 is obtained, and an inactive area on the left side of the horizontal center point “A”, an active area (for example, an active division area 21), Boundary point “B”, a non-active area on the right side of the horizontal center point “A”, and a boundary point “C” between the active area (for example, the active division area 21) are detected. B ”,“ C ” Are determined as the respective activity rectangular areas 26, and the other active areas are determined as unnecessary active areas due to the shadow of the operator and are invalidated (two-point extraction process).

この後、CPU9によって、2点抽出処理が終了した各活動矩形領域26に対し各々活動矩形領域26が上下に分割可能かどうかチェックされ、上下分割可能であれば図22に示すように活動矩形領域26の上下方向中心点“A”が求められると共に、上下方向中心点“A”から上側にある非活動領域と活動領域(例えば、活動分割エリア21)との境界点“B”が検知され、これら境界点“B”を含む領域が活動矩形領域26、下の活動領域が操作者の影などによる不要な活動領域と判定され、無効とされる(最小化処理)(ステップS44)。   Thereafter, the CPU 9 checks whether or not the activity rectangular area 26 can be divided vertically with respect to each of the activity rectangular areas 26 for which the two-point extraction processing has been completed. 26, the center point “A” in the vertical direction is obtained, and the boundary point “B” between the inactive region and the active region (for example, the active division area 21) above the vertical center point “A” is detected. The area including the boundary point “B” is determined to be the active rectangular area 26, and the lower active area is determined to be an unnecessary active area due to the shadow of the operator and is invalidated (minimization process) (step S44).

次いで、CPU9によってこれら2点抽出処理、最小化処理によって構成される多段階矩形オブジェクト抽出処理で得られた活動矩形領域26を含む左眼側の仮想カーソル活動領域画像27、左眼側の仮想ボタンクリック活動領域画像が、ハードディスク8の画像格納エリア16に格納される(ステップS45)。   Next, the left eye-side virtual cursor activity region image 27 including the activity rectangle region 26 obtained by the multi-step rectangular object extraction process constituted by the two-point extraction process and the minimization process by the CPU 9, and the left-eye virtual button The click activity area image is stored in the image storage area 16 of the hard disk 8 (step S45).

上記した如く操作者の手による動きを右眼と左眼の各仮想領域活動領域画像27及び仮想ボタンクリック活動領域画像で捉えることができるが、このとき入力装置1aが操作者の意図しない手の動きを検知できるようにするとさらに良い。ヒストグラム化した活動領域を多段階で抽出した結果の活動矩形領域26が操作者の意図したポインティング、またはタッピングでない動作、例えば手を左右に振っている場合もヒストグラム化されたデータ上に活動領域が抽出される。よって、これが操作者の意図したポインティング動作によるものではないことを判断できれば、入力装置1aとしての信頼性が高まる。   As described above, the movement of the operator's hand can be captured by the virtual area activity area image 27 and the virtual button click activity area image of the right eye and the left eye. It would be even better if motion could be detected. The activity rectangular area 26 obtained as a result of extracting the activity area in the form of a histogram in multiple stages is an action area on the histogram-formed data even when the movement is not pointing or tapping intended by the operator, for example, when the hand is shaken from side to side. Extracted. Therefore, if it can be determined that this is not due to the pointing operation intended by the operator, the reliability of the input device 1a increases.

抽出された活動矩形領域が有効かどうかを判断するためには、以下の処理を行う。すなわち、図10のステップS41の処理においては、図11に示すステップS41’の処理を行い、CPU9はヒストグラム化された多段階の差分画像データのうち、最新の差分データから活動矩形領域26を抽出し、それらの点を追跡しながら一定時間保持する。   In order to determine whether or not the extracted activity rectangular area is valid, the following processing is performed. That is, in the process of step S41 in FIG. 10, the process of step S41 ′ shown in FIG. 11 is performed, and the CPU 9 extracts the active rectangular area 26 from the latest difference data among the multi-stage difference image data that is made into a histogram. And hold for a certain time while tracking those points.

次に、図10のステップS43の処理においては、図12に示すステップS43’の処理を行い、CPU9は仮想ボタンクリックの活動領域(最大値−2σ)が抽出されたら、ステップS41’で記憶している活動矩形領域26と比較し、該当する追跡を求めてその追跡結果が特定の大きさの領域に亘って活動している場合には、無効な活動矩形領域26と判断する。   Next, in the process of step S43 in FIG. 10, the process of step S43 ′ shown in FIG. 12 is performed, and the CPU 9 stores the virtual button click activity area (maximum value −2σ) in step S41 ′. When the corresponding tracking is obtained and the tracking result is active over an area of a specific size, it is determined that the activity rectangular area 26 is invalid.

図37は操作者が手を右下から左上、さらに左下、次に右上に移動した場合に抽出される活動領域を示しているが、活動矩形領域26の追跡データから生成された活動領域は大きな動きの中で生成されたもの判断してノイズとして無視する。   FIG. 37 shows an activity region extracted when the operator moves his / her hand from the lower right to the upper left, further to the lower left, and then to the upper right. The activity region generated from the tracking data of the activity rectangular region 26 is large. Judge what was generated in motion and ignore it as noise.

CPU9による上記処理にて抽出活動領域が操作者の意図しない動作により発生したものはノイズとして除去することが可能となり、操作性が向上する。   In the above processing by the CPU 9, the extraction activity region generated by the operation not intended by the operator can be removed as noise, and the operability is improved.

《活動矩形領域選択》
この後、図7のフローチャートに示すように、CPU9によって活動矩形領域選択処理が開始される(ステップS17)。即ち、図13のフローチャートに示すようにハードディスク8の画像格納エリア16に格納されている右眼側の仮想カーソル活動領域画像27、右眼側の仮想ボタンクリック活動領域画像が読み出され、これら右眼側の仮想カーソル活動領域画像27、右眼側の仮想ボタンクリック活動領域画像に含まれている各活動矩形領域26に対し、図23の模式図に示すように両眼視差法による位置補正が行われ、各ウェブカメラ4,6の取り付け位置(水平距離“B”、上下距離など)、各ウェブカメラ4,6の焦点距離“f”などと対応するように各活動矩形領域26の中心座標“P(X、Y)”が補正された後、大きさ順に番号が付加される(ステップS51、S52)。
《Activity rectangular area selection》
Thereafter, as shown in the flowchart of FIG. 7, the active rectangle area selection process is started by the CPU 9 (step S17). That is, as shown in the flowchart of FIG. 13, the virtual cursor activity area image 27 on the right eye side and the virtual button click activity area image on the right eye side stored in the image storage area 16 of the hard disk 8 are read out. As shown in the schematic diagram of FIG. 23, position correction by the binocular parallax method is performed for each active rectangular area 26 included in the virtual cursor activity area image 27 on the eye side and the virtual button click activity area image on the right eye side. The center coordinates of each active rectangular area 26 so as to correspond to the attachment position (horizontal distance “B”, vertical distance, etc.) of each webcam 4, 6, the focal length “f” of each webcam 4, 6, etc. After “P R (X R , Y R )” is corrected, numbers are added in order of magnitude (steps S51 and S52).

次いで、CPU9によってハードディスク8の画像格納エリア16に格納されている左眼側の仮想カーソル活動領域画像27、左眼側の仮想ボタンクリック活動領域画像が読み出され、これら左眼側の仮想カーソル活動領域画像27、左眼側の仮想ボタンクリック活動領域画像の各活動矩形領域26に対し、操作者の手の位置の座標P(X,Y,D)に基づき図23の模式図に示すように両眼視差法による位置補正が行われ、各ウェブカメラ4,6の取り付け位置(水平距離“B”、上下距離など)、各ウェブカメラ4,6の焦点距離“f”などと対応するように各活動矩形領域26の座標“P(X、Y)”が補正された後、大きさ順に番号が付加される(ステップS53、S54)。 Next, the CPU 9 reads the left eye side virtual cursor activity region image 27 and the left eye side virtual button click activity region image stored in the image storage area 16 of the hard disk 8, and these left eye side virtual cursor activity regions are read out. As shown in the schematic diagram of FIG. 23 based on the coordinates P (X, Y, D) of the position of the operator's hand with respect to each active rectangular area 26 of the area image 27 and the virtual button click activity area image on the left eye side. Position correction by the binocular parallax method is performed so as to correspond to the attachment position (horizontal distance “B”, vertical distance, etc.) of each webcam 4, 6, the focal length “f”, etc. of each webcam 4, 6. After the coordinates “P L (X L , Y L )” of each active rectangular area 26 are corrected, numbers are added in order of size (steps S53 and S54).

このように両眼視差法による位置補正を行うことで、各ウェブカメラ4,6の焦点距離などと対応したピント位置、例えば各ウェブカメラ4,6から離れた位置に操作者の手があり、両眼視差法による位置補正を行う前、図24の模式図に示すように右眼側の各活動矩形領域26と左眼側の各活動矩形領域26とが位置がずれていても、両眼視差法による位置補正を行うことにより、図25の模式図に示すように右眼側の各活動矩形領域26と左眼側の各活動矩形領域26とを完全一致(又は、ほぼ一致)させることができる。   By performing position correction by the binocular parallax method in this way, the operator's hand is at a focus position corresponding to the focal length of each web camera 4, 6, for example, a position away from each web camera 4, 6, Before performing position correction by the binocular parallax method, as shown in the schematic diagram of FIG. 24, even if the positions of the activity rectangle areas 26 on the right eye side and the activity rectangle areas 26 on the left eye side are misaligned, By performing position correction by the parallax method, as shown in the schematic diagram of FIG. 25, each activity rectangle area 26 on the right eye side and each activity rectangle area 26 on the left eye side are completely matched (or almost matched). Can do.

この後、CPU9によって図26の模式図に示すように、番号“1”が付与された右眼側に対応する活動矩形領域26の中心座標“X、Y”と、左眼側に対応する活動矩形領域26の中心座標“X、Y”との距離(中心座標距離)が演算されて、これが番号“1”と共に、メモリ10に記憶される。 Thereafter, as shown in the schematic diagram of FIG. 26 by the CPU 9, the center coordinates “X R , Y R ” of the active rectangular area 26 corresponding to the right eye side to which the number “1” is assigned correspond to the left eye side. The distance (center coordinate distance) with the center coordinates “X L , Y L ” of the active rectangular area 26 is calculated and stored in the memory 10 together with the number “1”.

尚、操作者の手の位置の座標P(X,Y,D)に基づき両眼視差法による位置補正が行うことを説明したが、P(X,Y,D)は操作者からの仮想タッチスクリーン画面S2上の座標であるが、このとき図4において説明したように、CPU9は平面モデルの初期設定により予め算出している平面のパラメータの方向ベクトルd,位置ベクトルn,基底ベクトルn,基底ベクトルnを用いて次の演算を行うことにより、ウェブカメラ4,6視野からの仮想タッチスクリーン画面S1上の座標P(x,y,d)から変換している。かかる演算による補正を行えば、ウェブカメラ4,6の設置場所がパソコン2のディスプレイ部3とかけ離れている場合でも、ディスプレイ部3に対する操作者視野での位置を検出することができる。
X=n・(Pin−p)
Y=n・(Pin−p)
D=n・(Pin−p)
Although it has been described that the position correction by the binocular parallax method is performed based on the coordinates P (X, Y, D) of the position of the operator's hand, P (X, Y, D) is a virtual touch from the operator. The coordinates on the screen screen S2 are as follows. As described with reference to FIG. 4, the CPU 9 at this time uses the plane vector direction vector d, position vector n, base vector n x , by performing the following calculation using the base vector n y, coordinates P on the virtual touch panel screen S1 from webcam 4,6 field (x, y, d) is converted from. If correction by such calculation is performed, even when the installation location of the web cameras 4 and 6 is far from the display unit 3 of the personal computer 2, the position of the display unit 3 in the field of view of the operator can be detected.
X = n x · (P in −p)
Y = ny · (P in −p)
D = n · (P in −p)

次いで、ステップS55、S56の処理においては、CPU9によって次の番号“2”〜最後の番号“N”が付与された右眼側に対応する活動矩形領域26の中心座標“X、Y”と、左眼側に対応する活動矩形領域26の中心座標“X、Y”との距離(中心座標距離)が順次演算されて、これらが次の番号“2”〜最後の番号“N”と共にメモリ10に記憶される。 Next, in the processing of steps S55 and S56, the central coordinates “X R , Y R ” of the active rectangular region 26 corresponding to the right eye side to which the next number “2” to the last number “N” are assigned by the CPU 9 are displayed. And the distance (center coordinate distance) from the center coordinates “X L , Y L ” of the activity rectangular area 26 corresponding to the left eye side are sequentially calculated, and these are calculated from the next number “2” to the last number “N”. Is stored in the memory 10 together.

このステップ55の処理は、図1で説明した距離測定手段Cとしての動作である。すなわち、ウェブカメラ4,6の間隔と焦点距離fを予め設定すると、被写体までの距離は|X−X|と相関関係にあるために、中心座標距離の演算は被写体までの距離を測定していることになる。 The processing in step 55 is an operation as the distance measuring means C described in FIG. That is, if the distance between the web cameras 4 and 6 and the focal length f are set in advance, the distance to the subject is correlated with | X L −X R |, so the calculation of the center coordinate distance measures the distance to the subject. Will be.

そして、これらの処理が終了したとき、CPU9によって、メモリ10に記憶されている各中心座標距離(|X−X|)が順次読み出されて、予め設定してある奥行き距離を示す所定値と比較する。この奥行き距離とは、ウェブカメラ4,6の間隔に基づいて予め設定してある両眼視差法による奥行き距離である。そして、中心座標距離と奥行き距離との比較の結果、許容範囲内で一致していると、この中心座標距離の右眼側の活動矩形領域26、左眼側の活動矩形領域26は有効な活動矩形領域と判断される。 When these processes are completed, the CPU 9 sequentially reads out the respective central coordinate distances (| X L −X R |) stored in the memory 10 and indicates a predetermined depth distance. Compare with the value. This depth distance is a depth distance based on the binocular parallax method set in advance based on the interval between the web cameras 4 and 6. As a result of the comparison between the center coordinate distance and the depth distance, if the values match within the allowable range, the activity rectangle area 26 on the right eye side and the activity rectangle area 26 on the left eye side at this center coordinate distance are effective activities. It is determined as a rectangular area.

各ウェブカメラ4,6から予め設定してある奥行き距離から許容範囲内の位置に操作者の手があるとき、操作者の手に対応する右眼側の活動矩形領域26、左眼側の活動矩形領域26が、それぞれ有効な活動矩形領域26であると判定される。このことは、予め設定してある奥行き距離に仮想タッチスクリーンが形成されていることになり、それ以外は仮想タッチスクリーン上の操作ではないものとして、右眼側の活動矩形領域26、左眼側の活動矩形領域26はそれぞれ無効な活動矩形領域26であると判定される(ステップS57)。このとき中心座標距離と奥行き距離との比較を行う場合の許容範囲を狭く設定することで、より平面的な仮想タッチスクリーンが形成されることになり、操作者による操作以外の背景の動きを捉えることがなくなり、入力装置として動作が確実となる。   When the operator's hand is at a position within an allowable range from a preset depth distance from each of the web cameras 4 and 6, the right-eye activity rectangular area 26 corresponding to the operator's hand, the left-eye activity Each rectangular area 26 is determined to be a valid active rectangular area 26. This means that the virtual touch screen is formed at a preset depth distance, and the other is not an operation on the virtual touch screen. It is determined that each of the activity rectangle areas 26 is an invalid activity rectangle area 26 (step S57). At this time, by setting a narrow allowable range when comparing the center coordinate distance and the depth distance, a flatter virtual touch screen is formed, and the background movement other than the operation by the operator is captured. As a result, the operation as an input device is ensured.

このステップ57の処理は、図1で説明した被写体判別手段Dとしての動作である。すなわち、距離測定手段Cであるステップ55の処理にて測定した被写体までの距離と予め設定してある奥行き距離とを比較して、許容範囲内で一致しない場合にその活動矩形領域を無効とすることで、操作者による仮想タッチスクリーン上での手に対応する活動矩形領域のみを選択する。   The processing in step 57 is an operation as the subject discrimination means D described in FIG. That is, the distance to the subject measured in the process of step 55 which is the distance measuring means C is compared with the preset depth distance, and if it does not match within the allowable range, the active rectangular area is invalidated. Thus, only the active rectangular area corresponding to the hand on the virtual touch screen by the operator is selected.

このように両眼視差法を用いて、活動矩形領域の位置補正を行ないながら右眼及び左眼の各活動矩形領域26の中心点間の横方向での座標距離(中心座標距離)から被写体までの距離を測定することにより活動領域26の有効性判定を精度良く行うことができるのである。しかしながら、ウェブカメラ4,6の視野で被写体の中心部分と端の部分は誤差が発生するが、これの補正について説明する。   Thus, using the binocular parallax method, while correcting the position of the active rectangular area, the coordinate distance in the horizontal direction (center coordinate distance) between the center points of the active rectangular areas 26 of the right eye and the left eye to the subject. Therefore, the effectiveness of the active area 26 can be determined with high accuracy. However, an error occurs in the center portion and the end portion of the subject in the field of view of the web cameras 4 and 6, and correction of this will be described.

距離の測定は、予め測定したカメラ視野角を定数として活動領域がウェブカメラ4,6の視野のそれぞれの活動矩形領域26における中心座標距離から補正値を計算するものであるが、以下、この原理について説明する。   The distance is measured by calculating a correction value from the center coordinate distance in the active rectangular area 26 of each of the fields of view of the webcams 4 and 6 with the camera viewing angle measured in advance as a constant. Will be described.

図38は1台のウェブカメラ4Aの視野角から距離の変換について説明するもので、三角関数の定義から、[数2]の数式の関係が成立する。   FIG. 38 explains the conversion of the distance from the viewing angle of one web camera 4A. From the definition of the trigonometric function, the relationship of the formula [Equation 2] is established.

Figure 2012238293
w:画像上での被写体の幅[pixel]
img_w:カメラ画像の横画素数[pixel]
d:カメラと被写体までの距離[m]
δ:被写体の幅/2[m]
θw:カメラの視野角/2[rad](予め計測)
但し、wと(img_w)は、それぞれ画像中の大きさのため物理量としては「角度」となる。
Figure 2012238293
w: Width of the subject on the image [pixel]
img_w: Number of horizontal pixels of the camera image [pixel]
d: Distance between camera and subject [m]
δ: Subject width / 2 [m]
θw: Camera viewing angle / 2 [rad] (measured in advance)
However, w and (img_w) are “angles” as physical quantities because of their sizes in the image.

これをdについて解くと[数3]の数式となる。   Solving this with respect to d yields the formula [Equation 3].

Figure 2012238293
Figure 2012238293

[数3]の数式において、θwとimg_wは定数であるので、求めたい値である距離dはδとwに依存する。ここでδは映る被写体60によって変化するため、δに依存せずに距離dを求める必要がある。   In Equation (3), θw and img_w are constants, so the distance d, which is a value to be obtained, depends on δ and w. Here, since δ varies depending on the subject 60 to be reflected, it is necessary to obtain the distance d without depending on δ.

そこで2台のウェブカメラ4,6を用いる本発明では、δに依存せずに距離dを求めることが可能である。図39はメインとサブの2台のウェブカメラの視野角から距離の変換について説明するもので、距離dは[数4]の数式にて示される。   Therefore, in the present invention using two web cameras 4 and 6, the distance d can be obtained without depending on δ. FIG. 39 explains distance conversion from the viewing angles of the two main and sub webcams. The distance d is expressed by the equation [Equation 4].

Figure 2012238293
w’:サブカメラの画像上での被写体の中心の横座標[pixel]と、メインカメラの画像上での被写体の中心横座標[pixel]の差の絶対値 (|X−X|)
δ’:被写体の位置で、サブカメラの中心視線とメインカメラの中心視線が交差する2点間の距離[m](両眼の視線が平行ならば、δ’は常に一定)
Figure 2012238293
w ′: absolute value of the difference between the abscissa [pixel] of the center of the subject on the sub-camera image and the center abscissa [pixel] of the subject on the image of the main camera (| X L −X R |)
δ ′: Distance [m] between two points at which the center line of sight of the sub camera and the center line of sight of the main camera intersect at the position of the subject (when both eyes are parallel, δ ′ is always constant)

[数4]の数式において、両眼の中心視線が平行である場合は一定であるから距離dはδ’に依存しなくなる。尚、dはδ’より十分大きく(d>>δ’)、被写体60が画像の端に存在していても近似的に成り立つ。   In the formula of [Equation 4], the distance d does not depend on δ ′ because it is constant when the central line of sight of both eyes is parallel. Note that d is sufficiently larger than δ ′ (d >> δ ′), and even if the subject 60 exists at the edge of the image, it is approximately established.

上記から2台のカメラを用いれば[数5]の数式にて表すように、距離dはw’のみに依存することになる。よって、dは画素値から計算され、離散値であるため各w’のd(w’)を予め計算しておきテーブルに保存することで被写体60までの距離(d)の補正を高速にて処理することができる。   From the above, if two cameras are used, the distance d depends only on w ', as represented by the equation of [Equation 5]. Therefore, since d is calculated from the pixel value and is a discrete value, d (w ′) of each w ′ is calculated in advance and stored in a table, thereby correcting the distance (d) to the subject 60 at high speed. Can be processed.

Figure 2012238293
Figure 2012238293

以上の原理をCPU9による活動領域26の有効性の判断に取り込めば判定の精度を更に高めることができる。この場合、CPU9はステップS57の処理において、図14に示すステップ57’の処理を行い、中心座標距離w’(|X−X|)を演算してメモリ10に格納しているテーブルデータと照合することで被写体60までの正確な距離を測定し、この距離が予め設定してある奥行き距離の許容範囲内であるかを判定することで、活動矩形領域26の有効・無効の判断を行うものである。 If the above principle is incorporated in the determination of the effectiveness of the activity area 26 by the CPU 9, the accuracy of the determination can be further improved. In this case, the CPU 9 performs the process of step 57 ′ shown in FIG. 14 in the process of step S57, calculates the center coordinate distance w ′ (| X L −X R |), and stores the table data in the memory 10. Is checked to determine the validity / invalidity of the active rectangular area 26 by measuring the exact distance to the subject 60 and determining whether this distance is within the preset allowable depth distance range. Is what you do.

これにより、右眼側の各活動矩形領域26、左眼側の各活動矩形領域26が図26の模式図に示す関係になっていれば、中心座標距離が所定値以上になっている番号“1”に対応した右眼側の活動矩形領域(OR1)26、左眼側の活動矩形領域(OL1)26が無効と判定され、中心座標距離がほぼ“0”になっている番号“2”に対応した右眼側の活動矩形領域(OR2)26、左眼側の活動矩形領域(OL2)26が有効と判定される。 As a result, if each activity rectangular area 26 on the right eye side and each activity rectangle area 26 on the left eye side have the relationship shown in the schematic diagram of FIG. 26, the number “the center coordinate distance is equal to or greater than a predetermined value”. The number “0” is determined to be invalid for the right-eye side active rectangle area (O R1 ) 26 and the left-eye side active rectangle area (O L1 ) 26 corresponding to “1”. It is determined that the right-eye active rectangular area (O R2 ) 26 and the left-eye active rectangular area (O L2 ) 26 corresponding to 2 ″ are valid.

次いで、CPU9によって、有効と判定された右眼側の活動矩形領域(OR2)26、有効と判定された左眼側の活動矩形領域(OL2)26のうち、予め指定されている方、例えば有効と判定された左眼側の活動矩形領域(OL2)26が残され、それ以外の活動矩形領域26が削除された仮想カーソル活動領域画像27、仮想ボタンクリック活動領域画像が作成され、これが両眼視差法によって操作者の手前にいる人の動き、及び背後にいる人の動きが除去された仮想カーソル活動領域画像27、仮想ボタンクリック活動領域画像としてハードディスク8の画像格納エリア16に格納される(ステップS57)。 Next, the right-side active rectangular area (O R2 ) 26 determined to be valid by the CPU 9 and the left-side active rectangular area (O L2 ) 26 determined to be valid are previously designated, For example, a virtual cursor activity region image 27 and a virtual button click activity region image in which the activity rectangle region ( OL2 ) on the left eye side determined to be valid is left and the other activity rectangle regions 26 are deleted are created, This is stored in the image storage area 16 of the hard disk 8 as a virtual cursor activity area image 27 from which the movement of the person in front of the operator and the movement of the person behind are removed by the binocular parallax method, and the virtual button click activity area image. (Step S57).

《片手ジェスチャによる仮想カーソルの位置、大きさ、色制御》
この後、図7のフローチャートに示すように、CPU9によって仮想カーソル制御処理/画面制御処理が開始される(ステップS18)。この処理は、図1で説明した操作指示生成手段Eとしての動作であり、ステップS17にて操作者の動作と判定した手、又は指先の動きを検出し、この検出結果に応じた操作指示を生成する。
《Position, size, and color control of virtual cursor by one hand gesture》
Thereafter, as shown in the flowchart of FIG. 7, the CPU 9 starts the virtual cursor control process / screen control process (step S18). This process is the operation as the operation instruction generating means E described in FIG. 1, and detects the movement of the hand or fingertip determined to be the operation of the operator in step S17, and issues an operation instruction according to the detection result. Generate.

図15のフローチャートに示すように、ハードディスク8の画像格納エリア16に格納されている各仮想カーソル活動領域画像(両眼視差法によって、操作者の手前にいる人の動き、及び背後にいる人の動きが除去された各仮想カーソル活動領域画像)27のうち、最新の活動矩形領域26を含む数フレーム分の仮想カーソル活動領域画像27が読み出され(ステップS61)、近接した1つ以上の活動矩形領域26によって構成される活動矩形領域群が仮想カーソル活動領域画像27内に存在しているかどうかチェックされる。   As shown in the flowchart of FIG. 15, each virtual cursor activity area image stored in the image storage area 16 of the hard disk 8 (the movement of the person in front of the operator and the background of the person behind the operator by the binocular parallax method). Among the virtual cursor activity region images 27) from which movement is removed, several frames of virtual cursor activity region images 27 including the latest activity rectangle region 26 are read (step S61), and one or more adjacent activities are read out. It is checked whether an active rectangular area group constituted by the rectangular areas 26 exists in the virtual cursor active area image 27.

そして、最新の仮想カーソル活動領域画像27内に活動矩形領域群が存在し、その数が“1”であり、且つ、略矩形であれば(ステップS62、S63)、CPU9によって活動矩形領域群の大きさ、移動方向が判定され、判定結果に対応するように仮想カーソル制御が行われる(ステップS64)。   If there are active rectangular area groups in the latest virtual cursor active area image 27, and the number thereof is “1” and approximately rectangular (steps S62 and S63), the CPU 9 causes the active rectangular area groups to be displayed. The size and moving direction are determined, and virtual cursor control is performed so as to correspond to the determination result (step S64).

例えば、図27(a)に示すように、前回とほぼ同じ、高さ、左右位置で、操作者が指先を大きく回し、これに対応して前回の処理で得られた大きな活動矩形領域群の位置と同じ位置で、大きな活動矩形領域群が得られているとき、CPU9によって仮想カーソルの表示指示であると判定されて、図27(b)に示すようにディスプレイ部3に大きなサイズ、白色の仮想カーソル25が表示される。   For example, as shown in FIG. 27 (a), the operator turns the fingertips largely at the same height and left and right positions as in the previous time, and correspondingly, a large active rectangular area group obtained in the previous process When a large active rectangular area group is obtained at the same position as the position, the CPU 9 determines that it is a virtual cursor display instruction, and the display unit 3 has a large size and white color as shown in FIG. A virtual cursor 25 is displayed.

また、操作者が指先を大きく回しながら上下方向、又は左右方向に移動させ、これに対応して前回の処理で得られた位置から移動する大きな活動矩形領域群が得られているとき、CPU9によって仮想カーソルの移動指示であると判定されて、指先の移動方向に対応するようにディスプレイ部3に表示されている大きなサイズ、白色の仮想カーソル25を移動させる。   When the operator moves the fingertips up and down or left and right, and correspondingly, a large group of active rectangular areas moving from the position obtained in the previous process is obtained, the CPU 9 The virtual cursor movement instruction is determined, and the large size, white virtual cursor 25 displayed on the display unit 3 is moved so as to correspond to the moving direction of the fingertip.

また、図28(a)に示すように、前回とほぼ同じ、高さ、左右位置で、操作者が指先を小さく回し、これに対応して前回の処理で得られた大きな活動矩形領域群の位置と同じ位置で、小さな活動矩形領域群が得られているとき、CPU9によって仮想カーソルの移動停止であると判定されて、図28(b)に示すようにディスプレイ部3に表示されている仮想カーソル25の移動を停止させると共に、サイズを小さくする。   Further, as shown in FIG. 28 (a), the operator turns the fingertip small at substantially the same height and left and right positions as in the previous time, and correspondingly, the large active rectangular area group obtained in the previous process. When a small group of active rectangular areas is obtained at the same position as the position, the CPU 9 determines that the movement of the virtual cursor is stopped, and the virtual displayed on the display unit 3 as shown in FIG. The movement of the cursor 25 is stopped and the size is reduced.

この状態で一定時間が経過すれば、CPU9によって仮想カーソル25の色が赤色に変更され大きな移動が禁止されると共に、OS側にカーソル移動指示が出されて、仮想カーソル25内に実カーソル28を移動させる。   If a certain time has passed in this state, the CPU 9 changes the color of the virtual cursor 25 to red and prohibits a large movement, and a cursor movement instruction is issued to the OS side, and the real cursor 28 is placed in the virtual cursor 25. Move.

この後、操作者が指先を少し移動させれば、CPU9によってこれが検知されて、ディスプレイ部3に表示されている仮想カーソル25の位置が微調整されると共に、OS側にカーソル位置調整指示が出されて、図29に示すように実カーソル28の位置が微調整される。   Thereafter, when the operator moves the fingertip slightly, this is detected by the CPU 9, and the position of the virtual cursor 25 displayed on the display unit 3 is finely adjusted, and a cursor position adjustment instruction is issued to the OS side. Then, the position of the real cursor 28 is finely adjusted as shown in FIG.

次いで、操作者が指先を動かすのを止めれば、CPU9によってこれが検知され、一定時間後に、図30に示すようにディスプレイ部3に表示されている仮想カーソル25の位置が固定されると共に、仮想カーソル25の色が赤色からグレー色に変更され、操作者にクリック可能になったことを知らせる。   Next, if the operator stops moving the fingertip, this is detected by the CPU 9, and after a certain time, the position of the virtual cursor 25 displayed on the display unit 3 is fixed as shown in FIG. The color of 25 is changed from red to gray to inform the operator that it can be clicked.

この状態でも、操作者が指先を再度大きく回せば、CPU9によってこれが検知されて、ディスプレイ部3に表示されている仮想カーソル25の色が白色に戻され、仮想カーソル25が移動可能な状態に戻される。   Even in this state, if the operator turns the fingertip again to a large extent, this is detected by the CPU 9, the color of the virtual cursor 25 displayed on the display unit 3 is returned to white, and the virtual cursor 25 is returned to a movable state. It is.

《片手ジェスチャによるスクロール制御》
また、上述した仮想カーソル活動領域画像27に活動矩形領域群が存在するかどうかなどをチェックしたとき、図31に示すように活動矩形領域群の数が“1”で水平方向に長ければ(ステップS62、S63)、CPU9によって前回の活動矩形領域群に対しどちらの方向に長くなったか判定すると共に、長くなった方向に応じた右スクロール指示(又は、左スクロール指示)が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が右方向(又は、左方向)にスクロールされる(ステップS64)。
《Scroll control with one hand gesture》
When it is checked whether or not there is an active rectangular area group in the virtual cursor active area image 27 described above, if the number of active rectangular area groups is “1” as shown in FIG. In S62, S63), the CPU 9 determines which direction is longer than the previous active rectangular area group, and generates a right scroll instruction (or left scroll instruction) corresponding to the longer direction to the application side. The application screen (operation target screen) displayed on the display unit 3 is scrolled rightward (or leftward) (step S64).

また、上述した仮想カーソル活動領域画像27に活動矩形領域群が存在するかどうかなどをチェックしたとき、活動矩形領域群の数が“1”で上下方向に長ければ(ステップS62、S63)、CPU9によって前回の活動矩形領域群に対しどちらの方向に長くなったか判定すると共に、長くなった方向に応じた上スクロール指示(又は、下スクロール指示)が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が上方向(又は、下方向)にスクロールされる(ステップS64)。   If it is checked whether or not there is an active rectangular area group in the virtual cursor active area image 27 described above, if the number of active rectangular area groups is “1” and is long in the vertical direction (steps S62 and S63), the CPU 9 Is used to determine which direction is longer than the previous active rectangular area group, and an upward scroll instruction (or downward scroll instruction) corresponding to the longer direction is generated and passed to the application side, and the display unit 3 The application screen (operation target screen) displayed on the screen is scrolled upward (or downward) (step S64).

《片手ジェスチャによる実カーソルのクリック制御》
この後、CPU9によって仮想カーソル25の色がグレーかどうかチェックされ、仮想カーソル25の色がグレーであれば、ハードディスク8の画像格納エリア16に格納されている仮想ボタンクリック活動領域画像のうち、最新の活動矩形領域を含む数フレーム分の仮想ボタンクリック活動領域画像が読み出される(ステップS66)。
《Real cursor click control by one hand gesture》
Thereafter, the CPU 9 checks whether the color of the virtual cursor 25 is gray. If the color of the virtual cursor 25 is gray, the latest virtual button click activity area image stored in the image storage area 16 of the hard disk 8 is checked. The virtual button click activity region images for several frames including the activity rectangle region are read out (step S66).

次いで、CPU9によって仮想ボタンクリック活動領域画像内に近接した1つ以上の活動矩形領域26によって構成される活動矩形領域群が存在し、形状が変化しているかどうかチェックされ、活動矩形領域群の数が“1”であり活動矩形領域群が予め設定された変化、例えば図32(a)に示すように操作者が指さし状態から、1回だけ手を広げ、活動矩形領域群が1回だけ“小”から“大”に変化していれば(ステップS67)、シングルクリックであると判定され、OS側にシングルクリック指示が出されて、図32(b)に示すように仮想カーソル25内にある実カーソル28によってアイコンなどがシングルクリックされる(ステップS68)。   Next, the CPU 9 checks whether there is an active rectangular area group composed of one or more active rectangular areas 26 in the virtual button click active area image, and whether the shape has changed. Is a change in which the active rectangular area group is set in advance, for example, as shown in FIG. 32A, the operator spreads his hand once from the state of pointing, and the active rectangular area group is only once. If it has changed from “small” to “large” (step S67), it is determined that it is a single click, a single click instruction is issued to the OS side, and the virtual cursor 25 is entered as shown in FIG. An icon or the like is single-clicked with a certain real cursor 28 (step S68).

また、操作者が指さし状態から2回以上手を広げたり縮めたりし、活動矩形領域群が複数回“大”から“小”、“小”から“大”に変化していれば(ステップS67)、CPU9によってダブルクリックであると判定され、OS側にダブルクリック指示が出されて、実カーソル28の位置にあるアイコンなどがダブルクリックされる(ステップS68)。   In addition, if the operator spreads his / her hand more than twice from the pointing state and the activity rectangular area group changes from “large” to “small” and “small” to “large” a plurality of times (step S67). ), It is determined by the CPU 9 that it is a double click, a double click instruction is issued to the OS side, and the icon or the like at the position of the real cursor 28 is double clicked (step S68).

《両手ジェスチャによる画面拡大、縮小制御》
また、各ウェブカメラ4,6のピント位置に操作者が右手、左手を出して、これら右手、左手を動かし、上述した仮想カーソル活動領域画像27に活動矩形領域群が存在するかどうかなどをチェックしたとき、活動矩形領域群の数が“2”になり、各々矩形になっていれば(ステップS63)、CPU9によってこれが検知されて、これら各活動矩形領域群の動きに応じてディスプレイ部3に表示されている操作対象画面の拡大、縮小、回転などが行われる(ステップS65)。
《Screen enlargement and reduction control using two-hand gestures》
In addition, the operator puts out his right hand and left hand at the focus position of each of the webcams 4 and 6, moves these right hand and left hand, and checks whether or not there is an active rectangular area group in the virtual cursor active area image 27 described above. When the number of activity rectangular area groups becomes “2” and each is rectangular (step S63), this is detected by the CPU 9 and is displayed on the display unit 3 according to the movement of each of these activity rectangular area groups. The displayed operation target screen is enlarged, reduced or rotated (step S65).

例えば、各ウェブカメラ4,6のピント位置に操作者が右手と左手を出して、その右手と左手を互いに離れる方向に移動させ、これに対応して図33に示す2つの活動矩形領域群が存在し、図34(a)に示すように前回より広くなる方向に移動してこれら各活動矩形領域群の距離が前回より長くなったとき、CPU9によって画面拡大指示が入力されたと判定され、活動矩形領域群の距離変化比に応じた拡大率の画面拡大指示が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が拡大される。   For example, the operator puts out his right hand and left hand at the focus positions of the web cameras 4 and 6 and moves the right hand and left hand away from each other. As shown in FIG. 34 (a), when the distance between each of the activity rectangular areas becomes longer than the previous time when moving in the direction wider than the previous time, the CPU 9 determines that the screen enlargement instruction has been input, and the activity A screen enlargement instruction with an enlargement ratio corresponding to the distance change ratio of the rectangular area group is generated and passed to the application side, and the application screen (operation target screen) displayed on the display unit 3 is enlarged.

また、各ウェブカメラ4,6のピント位置に操作者が右手と左手を出して、その右手と左手を互いに近づく方向に移動させ、これに対応して2つの活動矩形領域群が図34(b)に示すように前回より狭くなる方向に移動し、これら各活動矩形領域群の距離が前回より短くなったとき、CPU9によって画面縮小指示が入力されたと判定され、活動矩形領域群の距離変化比に応じた縮小率の画面縮小指示が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が縮小される。   Further, the operator puts out his right hand and left hand at the focus positions of the web cameras 4 and 6 and moves the right hand and left hand in a direction approaching each other. Correspondingly, two active rectangular area groups are shown in FIG. ), When the distance between each of the active rectangular area groups is shorter than the previous distance, it is determined that the screen reduction instruction is input by the CPU 9, and the distance change ratio of the active rectangular area groups is determined. A screen reduction instruction with a reduction ratio corresponding to the above is generated and passed to the application side, and the application screen (operation target screen) displayed on the display unit 3 is reduced.

《両手ジェスチャによる画面回転制御》
また、各ウェブカメラ4,6のピント位置に操作者が右手と左手を出して、これら右手と左手の一方を上に他方を下に移動させ、これに対応して図35に示す2つの活動矩形領域群のうち少なくとも一方が上方向(又は、下方向)に移動したとき、CPU9によって画面回転指示が入力されたと判定され、下側の活動矩形領域群に対する上側の活動矩形領域群の角度に応じた回転角度の画面回転指示が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が回転される。
《Screen rotation control using two-hand gestures》
Also, the operator puts his right hand and left hand at the focus positions of the webcams 4 and 6, and moves one of the right hand and left hand up and the other down, corresponding to the two activities shown in FIG. When at least one of the rectangular area groups moves upward (or downward), the CPU 9 determines that a screen rotation instruction has been input and determines the angle of the upper active rectangular area group relative to the lower active rectangular area group. A screen rotation instruction with a corresponding rotation angle is generated and passed to the application side, and the application screen (operation target screen) displayed on the display unit 3 is rotated.

この際、図36(a)に示すように各活動矩形領域群の左右距離が狭い状態で、一方が大きく上方に移動し下側の活動矩形領域群に対する上側の活動矩形領域群の角度が大きいとき、CPU9によって大きな回転角度の画面回転指示が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が大きく回転される。   At this time, as shown in FIG. 36 (a), in the state where the left and right distances of the respective active rectangular area groups are narrow, one of the active rectangular area groups moves upward and the angle of the upper active rectangular area group with respect to the lower active rectangular area group is large. At this time, a screen rotation instruction with a large rotation angle is generated by the CPU 9 and passed to the application side, and the application screen (operation target screen) displayed on the display unit 3 is largely rotated.

また、図36(b)に示すように各活動矩形領域群の左右距離が広い状態で、一方が小さく上方に移動し下側の活動矩形領域群に対する上側の活動矩形領域群の角度が小さいとき、CPU9によって小さな回転角度の画面回転指示が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が小さく回転される。   In addition, as shown in FIG. 36B, when the left and right distances of the respective active rectangular area groups are wide, when one of the active rectangular area groups is small and moves upward, the angle of the upper active rectangular area group with respect to the lower active rectangular area group is small. The CPU 9 generates a screen rotation instruction with a small rotation angle and passes it to the application side, and the application screen (operation target screen) displayed on the display unit 3 is rotated small.

このように、本発明の第1の実施形態においては、各ウェブカメラ4,6によって操作者を撮影して得られた低解像度のカラー画像に対し、グレー化処理、画像分割/2値化処理、色フィルタリング処理、フレームバッファ処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理、活動矩形領域選択処理、仮想カーソル制御処理/画面制御処理を行い操作者の手の動きを検知し、仮想カーソル25のサイズ制御、位置制御、色制御、クリック制御、操作対象画面の拡大制御、縮小制御、回転制御、上下スクロール制御、左右スクロール制御などを行うようにしているので、次に述べる効果を得ることができる。   As described above, in the first embodiment of the present invention, a graying process and an image division / binarization process are performed on a low-resolution color image obtained by photographing the operator with the web cameras 4 and 6. , Color filtering processing, frame buffer processing, inter-frame difference processing, histogram processing, active rectangular area extraction processing, active rectangular area selection processing, virtual cursor control processing / screen control processing to detect the movement of the operator's hand, virtual Since the size control, position control, color control, click control, enlargement control, reduction control, rotation control, up / down scroll control, left / right scroll control, etc. of the operation target screen are performed, the following effects are obtained. be able to.

また、各ウェブカメラ4,6によって操作者を撮影して得られたカラー画像に対し、グレー化処理、画像分割/2値化処理、色フィルタリング処理を施して得られた2値化画像を画像格納エリア16に格納するため、ハードディスク8の容量が小さい場合にも入力装置1aを構成することができ、装置全体のコストを低く抑えることができる。   In addition, a binarized image obtained by performing graying processing, image segmentation / binarization processing, and color filtering processing on a color image obtained by photographing the operator with each of the web cameras 4 and 6 is displayed as an image. Since the data is stored in the storage area 16, the input device 1a can be configured even when the capacity of the hard disk 8 is small, and the cost of the entire device can be kept low.

また、各ウェブカメラ4,6によって操作者を撮影して得られたカラー画像に対し、グレー化処理、画像分割/2値化処理、色フィルタリング処理など、少ない段数の画像処理を施して1フレーム分の2値化画像を得るようにしているので、CPU9に大きな負担をかけることを防ぎ、これによって処理速度が速くない安価なCPU9を使用した場合でもほぼリアルタイムで操作者の動きに対応するように、仮想カーソル25のサイズ制御、位置制御、色制御、クリック制御、操作対象画面の拡大制御、縮小制御、回転制御、上下スクロール制御、左右スクロール制御などを行うことができ、装置全体のコストを低く抑えることができる。   Further, a color image obtained by photographing the operator with each of the web cameras 4 and 6 is subjected to a small number of stages of image processing such as graying processing, image division / binarization processing, color filtering processing, etc. Since the binarized image is obtained, it is possible to prevent the CPU 9 from being subjected to a large burden, and to cope with the movement of the operator almost in real time even when the inexpensive CPU 9 whose processing speed is not fast is used. In addition, size control, position control, color control, click control, enlargement control, reduction control, rotation control, up / down scroll control, left / right scroll control, and the like of the operation target screen can be performed. It can be kept low.

また、各ウェブカメラ4,6によって操作者を撮影して得られた右眼側の各活動矩形領域26と左眼側の各活動矩形領域26とに対し、両眼視差法で中心座標位置を補正した後、大きさ順に番号を付けて中心座標位置を比較し、この比較結果に基づきピント位置に対応する右眼側の各活動矩形領域26と左眼側の各活動矩形領域26とを選択するようにしているので、各ウェブカメラ4,6のピント位置にある操作者の手以外のもの、例えば操作者の後ろに人がいて動いていても、これに影響されることなく操作者の手の動きのみを抽出して、仮想カーソル25のサイズ制御、位置制御、色制御、クリック制御、操作対象画面の拡大制御、縮小制御、回転制御、上下スクロール制御、左右スクロール制御などを行うことができる。   Further, the center coordinate position is determined by the binocular parallax method with respect to each activity rectangular area 26 on the right eye side and each activity rectangle area 26 on the left eye side obtained by photographing the operator with each of the web cameras 4 and 6. After the correction, numbers are assigned in order of size, and the center coordinate positions are compared. Based on the comparison result, the right-side active rectangular area 26 and the left-eye active rectangular area 26 corresponding to the focus position are selected. Therefore, even if there is a person other than the operator's hand at the focus position of each of the webcams 4 and 6, for example, a person behind the operator and moving, the operator's hand is not affected by this. By extracting only the movement of the hand, size control, position control, color control, click control, enlargement control, reduction control, rotation control, up / down scroll control, left / right scroll control, etc. of the operation target screen can be performed. it can.

また、本発明の第1の実施形態では、操作者が片手だけを動かしているとき仮想カーソル制御指示、又は操作対象画面のスクロール制御であると判定し、仮想カーソル25のサイズ制御、位置制御、色制御、クリック制御、操作対象画面のスクロール制御などを行うようにしているので、片手だけでディスプレイ部3に表示されている仮想カーソル25のサイズ、位置、色、クリック、操作対象画面のスクロールなどを遠隔操作することができる。   In the first embodiment of the present invention, when the operator is moving only one hand, it is determined that the control is a virtual cursor control instruction or a scroll control of the operation target screen, and the size control, position control, Since color control, click control, scroll control of the operation target screen, etc. are performed, the size, position, color, click, scroll of the operation target screen, etc. of the virtual cursor 25 displayed on the display unit 3 with only one hand. Can be operated remotely.

また、本発明の第1の実施形態では、操作者が両手を動かしているとき、右手の動き、左手の動きを各々検出し、操作対象画面の拡大/縮小制御指示、又は操作対象画面の回転制御指示であると判定するようにしているので、操作者が右手、左手を動かすだけでディスプレイ部3に表示されているアプリケーション画面(操作対象画面)を拡大、縮小、回転させることができる。   In the first embodiment of the present invention, when the operator moves both hands, the movement of the right hand and the movement of the left hand are detected, and the enlargement / reduction control instruction of the operation target screen or the rotation of the operation target screen is detected. Since the control instruction is determined, the application screen (operation target screen) displayed on the display unit 3 can be enlarged, reduced, and rotated by simply moving the right hand and the left hand by the operator.

また、本発明の第1の実施形態では、活動矩形領域抽出処理においてヒストグラムを統計処理して得られた結果を使用し、ヒストグラムから仮想カーソル活動領域画像27、仮想ボタンクリック活動領域画像を作成するようにしているので、操作者の手など動いている部分を正確に検知することができ、安定した仮想カーソル制御、クリック制御、操作対象画面制御を行うことができる。   In the first embodiment of the present invention, a virtual cursor activity region image 27 and a virtual button click activity region image are created from the histogram using the results obtained by statistically processing the histogram in the activity rectangular region extraction process. Therefore, a moving part such as an operator's hand can be accurately detected, and stable virtual cursor control, click control, and operation target screen control can be performed.

また、本発明の第1の実施形態では、活動矩形領域抽出処理において仮想カーソル活動領域画像27、仮想ボタンクリック活動領域画像に対し、多段階矩形オブジェクト抽出処理を行うようにしているので、操作者の影などに起因する誤動作を防止し、安定した仮想カーソル制御、クリック制御、操作対象画面制御を行うことができる。   In the first embodiment of the present invention, the multi-step rectangular object extraction process is performed on the virtual cursor activity area image 27 and the virtual button click activity area image in the activity rectangular area extraction process. Malfunction caused by the shadow of the camera can be prevented, and stable virtual cursor control, click control, and operation target screen control can be performed.

図40は、本発明による入力装置の第2の実施形態を示すブロック図である。この図に示す入力装置1bは、箱形に形成されたプラスチック部材などによって構成され、パソコン、テレビ、エアコン、大画面スクリーン装置などの遠隔操作対象機器の近傍に配置される入力装置筐体(図示は省略する)と、入力装置筐体の前面左側に取り付けられ、操作者を撮影してカラー画像信号を出力する右眼用撮像装置である右眼用ビデオカメラ本体(カラーカメラ本体)30と、入力装置筐体内に配置され、右眼用ビデオカメラ本体30で撮影されたカラー画像を処理して、右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像を生成する右眼側画像処理基板31と、入力装置筐体の前面右側に取り付けられ、操作者を撮影してカラー画像信号を出力する左眼用撮像装置である左眼用ビデオカメラ本体32と、入力装置筐体内に配置され、左眼用ビデオカメラ本体(カラーカメラ本体)32で撮影されたカラー画像を処理して、左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を生成する左眼側画像処理基板33と、入力装置筐体内に配置され、右眼側画像処理基板31から出力される右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左眼側画像処理基板32から出力される左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を画像処理して操作者の手の動きに対応するポインティングデータを生成し、USBケーブル、信号接続ケーブルなどのケーブルを介して、パソコン、テレビ、エアコン、大画面スクリーン装置などの遠隔操作対象機器などに供給する共通処理基板34とを備えている。   FIG. 40 is a block diagram showing a second embodiment of the input device according to the present invention. An input device 1b shown in this figure is composed of a plastic member or the like formed in a box shape, and is an input device housing (illustrated) disposed in the vicinity of a remote operation target device such as a personal computer, a television, an air conditioner, or a large screen screen device. And a right-eye video camera main body (color camera main body) 30 that is attached to the front left side of the input device casing and that captures the operator and outputs a color image signal. A right image that is arranged in the input device casing and processes a color image taken by the video camera body 30 for the right eye to generate a virtual cursor activity area image on the right eye side and a virtual button click activity area image on the right eye side Left-eye video camera main body, which is an eye-side image processing board 31 and a left-eye imaging device that is attached to the front right side of the input device casing and that captures an operator and outputs a color image signal 2 and a color image placed in the input device casing and photographed by the left-eye video camera body (color camera body) 32, the left-eye side virtual cursor activity region image, the left-eye side virtual button A left-eye image processing board 33 that generates a click activity area image, a right-eye virtual cursor activity area image that is arranged in the input device housing and is output from the right-eye image processing board 31, and a right-eye virtual The button click activity region image, the left eye side virtual cursor activity region image output from the left eye side image processing board 32, and the left eye side virtual button click activity region image are processed to correspond to the movement of the operator's hand. Generate pointing data to be used, and remotely operated devices such as personal computers, televisions, air conditioners, and large screen devices via cables such as USB cables and signal connection cables. And a common substrate 34 supplies.

そして、操作者を撮影して得られたカラー画像を解析して、影などの影響、操作者の手前側にいる人、及び背後にいる人の影響などを取り除きながら、操作者の手の動きに対応したポインティングデータを生成し、入力装置1b→ケーブル→遠隔操作対象機器なる経路でポインティングデータを遠隔操作対象機器に供給し、この遠隔操作対象機器の動作を制御する。   Then, by analyzing the color image obtained by photographing the operator, the movement of the operator's hand while removing the influence of shadows, the influence of the person on the front side of the operator, and the influence of the person behind. Pointing data is generated, and the pointing data is supplied to the remote operation target device through the path of the input device 1b → cable → remote operation target device, and the operation of the remote operation target device is controlled.

右眼用ビデオカメラ本体30は、320画素×240画素程度の解像度を持つカラーカメラによって構成されており、右眼側画像処理基板31から電源電圧、クロック信号などが出されているとき操作者を撮影し、これによって得られたカラービデオ信号を右眼側画像処理基板31に供給する。   The right-eye video camera main body 30 is composed of a color camera having a resolution of about 320 pixels × 240 pixels. When the power supply voltage, the clock signal, etc. are output from the right-eye image processing board 31, the operator is selected. The color video signal obtained by photographing is supplied to the right eye image processing board 31.

右眼側画像処理基板31は、右眼用ビデオカメラ本体から出力されるカラービデオ信号をRGB形式のカラー画像に変換した後、HSV(色相・彩度・明度)方式で予め設定されている特定色(例えば、肌色)のカラー画像を抽出するのに必要なカラーマスクを使用して、カラー画像中の肌色画像を抽出する肌色画像抽出回路35と、右眼用ビデオカメラ本体30から出力されるカラービデオ信号をRGB形式のカラー画像に変換した後、予め設定されている階調のモノクロ画像に変換するグレー化処理回路36と、グレー化処理回路36から出力されるモノクロ画像を予め設定されている画面分割数で分割する(但し、画面分割設定されていないときこの画面分割処理はスキップされる)と共に、最大尤度しきい値法で2値化して2値化画像にする画像分割/2値化処理回路37と、画像分割/2値化処理回路37から出力される2値化画像と肌色画像抽出回路35から出力される肌色画像との論理和を取り、2値化画像中の肌色部分を抽出する色フィルタリング処理回路38とを備えている。   The right eye side image processing board 31 converts the color video signal output from the video camera body for the right eye into a color image in RGB format, and then is specified in advance by the HSV (Hue / Saturation / Brightness) method. Using a color mask necessary for extracting a color image of a color (for example, skin color), the skin color image extracting circuit 35 for extracting the skin color image in the color image and the video camera body 30 for the right eye are output. After the color video signal is converted into a color image in RGB format, a graying processing circuit 36 for converting the color video signal into a monochrome image having a preset gradation, and a monochrome image output from the graying processing circuit 36 are set in advance. The screen is divided by the number of screen divisions (however, this screen division processing is skipped when screen division is not set) and binarized by the maximum likelihood threshold method. The logical division of the image division / binarization processing circuit 37, the binarized image output from the image division / binarization processing circuit 37, and the skin color image output from the skin color image extraction circuit 35 is performed. And a color filtering processing circuit 38 for extracting a skin color portion in the digitized image.

さらに、右眼側画像処理基板31は、色フィルタリング処理回路38から出力される2値化画像を数フレーム分〜数十フレーム分、一時記憶するフレームバッファ回路39と、フレームバッファ回路39に記憶されている2値化画像を順次読み出しながらフレーム間差分処理を行い、差分画像を生成するフレーム間差分処理回路40と、フレーム間差分処理回路40からフレーム単位で出力される各差分画像を各分割エリア毎に積算して、ヒストグラムを生成するヒストグラム処理回路41と、ヒストグラム処理回路41から出力されるヒストグラムに対し統計処理を行うと共に、統計処理結果を用いて仮想カーソル活動領域判定処理、仮想ボタンクリック活動領域判定処理、多段階矩形オブジェクト抽出処理などを行って、影などの影響を取り除いた右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像を生成する活動矩形領域抽出処理回路42とを備えている。   Further, the right-eye image processing board 31 is stored in the frame buffer circuit 39 and the frame buffer circuit 39 for temporarily storing the binary image output from the color filtering processing circuit 38 for several frames to several tens of frames. The inter-frame difference processing circuit 40 that performs the inter-frame difference processing while sequentially reading the binarized images, and generates the difference image, and the difference images output in units of frames from the inter-frame difference processing circuit 40 are divided into the divided areas. The histogram processing circuit 41 that accumulates each time to generate a histogram, and performs statistical processing on the histogram output from the histogram processing circuit 41, and also uses the statistical processing result to determine virtual cursor activity area determination processing, virtual button click activity Perform area determination processing, multi-step rectangular object extraction processing, etc. Ri has been removed right eye of the virtual cursor activity area image, and a work rectangular area extraction processing circuit 42 for generating a virtual button click activity area image of the right eye side.

さらに、活動矩形領域抽出処理回路42は、ヒストグラム処理回路41にて生成した多段階の差分画像データの最新の差分画像データから抽出した活動矩形領域と、前記仮想ボタンクリック活動領域画像とを比較し、抽出した活動矩形領域が仮想ボタンクリック活動領域の範囲を超えている場合は、これら抽出活動矩形領域を無効判定する処理を行うことにより、操作者が入力操作に意図していない動きをノイズとして無視することができる。   Furthermore, the activity rectangular area extraction processing circuit 42 compares the activity rectangular area extracted from the latest difference image data of the multi-stage difference image data generated by the histogram processing circuit 41 with the virtual button click activity area image. When the extracted activity rectangle area exceeds the range of the virtual button click activity area, the extraction activity rectangle area is determined to be invalid so that the movement that the operator does not intend for the input operation is regarded as noise. Can be ignored.

そして、右眼用ビデオカメラ本体30から出力されるカラービデオ信号に対し、グレー化処理、画面分割/2値化処理、色フィルタリング処理、フレームバッファ処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を順次施して、右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像を生成し、共通処理基板34に供給する。   For the color video signal output from the right-eye video camera body 30, graying processing, screen division / binarization processing, color filtering processing, frame buffer processing, inter-frame difference processing, histogram processing, active rectangular area Extraction processing is sequentially performed to generate a virtual cursor activity region image on the right eye side and a virtual button click activity region image on the right eye side, which are supplied to the common processing board 34.

また、左眼用ビデオカメラ本体32は、320画素×240画素程度の解像度を持つカラーカメラによって構成されており、左眼側画像処理基板33から電源電圧、クロック信号などが出されているとき操作者を撮影し、これによって得られたカラービデオ信号を左眼側画像処理基板33に供給する。   The left-eye video camera main body 32 is composed of a color camera having a resolution of about 320 pixels × 240 pixels, and is operated when a power supply voltage, a clock signal, etc. are output from the left-eye image processing board 33. The person is photographed, and the color video signal obtained thereby is supplied to the left eye side image processing board 33.

左眼側画像処理基板33は、左眼用ビデオカメラ本体32から出力されるカラービデオ信号をRGB形式のカラー画像に変換した後、HSV(色相・彩度・明度)方式で、予め設定されている特定色(例えば、肌色)のカラー画像を抽出するのに必要なカラーマスクを使用して、カラー画像中の肌色画像を抽出する肌色画像抽出回路43と、左眼用ビデオカメラ本体32から出力されるカラービデオ信号をRGB形式のカラー画像に変換した後、予め設定されている階調のモノクロ画像に変換するグレー化処理回路44と、グレー化処理回路44から出力されるモノクロ画像を予め設定されている画面分割数で分割する(但し、画面分割設定されていないとき、この画面分割処理はスキップされる)と共に、最大尤度しきい値法で2値化して、2値化画像にする画像分割/2値化処理回路45と、画像分割/2値化処理回路45から出力される2値化画像と肌色画像抽出回路43から出力される肌色画像との論理和を取り、2値化画像中の肌色部分を抽出する色フィルタリング処理回路46とを備えている。   The left-eye-side image processing board 33 converts the color video signal output from the left-eye video camera body 32 into a color image in RGB format, and is preset in the HSV (Hue / Saturation / Brightness) method. A skin color image extraction circuit 43 that extracts a skin color image in a color image using a color mask necessary for extracting a color image of a specific color (for example, skin color) and an output from the left-eye video camera main body 32 After converting the color video signal to be converted into a color image in RGB format, a graying processing circuit 44 for converting to a monochrome image having a preset gradation, and a monochrome image output from the graying processing circuit 44 are set in advance. (However, when screen division is not set, this screen division processing is skipped) and binarization is performed using the maximum likelihood threshold method. Logical sum of the image division / binarization processing circuit 45 to be a binarized image, the binarized image output from the image division / binarization processing circuit 45 and the skin color image output from the skin color image extraction circuit 43 And a color filtering processing circuit 46 for extracting a skin color portion in the binarized image.

さらに、左眼側画像処理基板33は、色フィルタリング処理回路46から出力される2値化画像を数フレーム分〜数十フレーム分、一時記憶するフレームバッファ回路47と、フレームバッファ回路47に記憶されている2値化画像を順次読み出しながらフレーム間差分処理を行い、差分画像を生成するフレーム間差分処理回路48と、フレーム間差分処理回路48からフレーム単位で出力される各差分画像を各分割エリア毎に積算して、ヒストグラムを生成するヒストグラム処理回路49と、ヒストグラム処理回路49から出力されるヒストグラムに対し統計処理を行うと共に、統計処理結果を用いて仮想カーソル活動領域判定処理、仮想ボタンクリック活動領域判定処理、多段階矩形オブジェクト抽出処理などを行って、影などの影響を取り除いた左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を生成する活動矩形領域抽出処理回路50とを備えている。   Further, the left eye side image processing board 33 is stored in the frame buffer circuit 47 and the frame buffer circuit 47 for temporarily storing the binarized image output from the color filtering processing circuit 46 for several frames to several tens of frames. The inter-frame difference processing circuit 48 that performs the inter-frame difference processing while sequentially reading the binarized images, and generates the difference image, and the difference images output in units of frames from the inter-frame difference processing circuit 48 are divided into the divided areas. A histogram processing circuit 49 that accumulates each time and generates a histogram, and performs statistical processing on the histogram output from the histogram processing circuit 49, and also uses the statistical processing result to determine virtual cursor activity area determination processing and virtual button click activity Perform area determination processing, multi-step rectangular object extraction processing, etc. Ri except the left eye side of the virtual cursor activity area image, and a work rectangular area extraction processing circuit 50 for generating a virtual button click activity area image of the left eye side.

さらに、活動矩形領域抽出処理回路50は、ヒストグラム処理回路49にて生成した多段階の差分画像データの最新の差分画像データから抽出した活動矩形領域と、前記仮想ボタンクリック活動領域画像とを比較し、前述した図38に示すように、抽出した活動矩形領域が仮想ボタンクリック活動領域の範囲を超えている場合は、これら抽出活動矩形領域を無効判定する処理を行うことにより、操作者が入力操作に意図していない動きをノイズとして無視することができる。   Further, the activity rectangular area extraction processing circuit 50 compares the activity rectangular area extracted from the latest difference image data of the multi-stage difference image data generated by the histogram processing circuit 49 with the virtual button click activity area image. As shown in FIG. 38 described above, when the extracted activity rectangular area exceeds the range of the virtual button click activity area, the operator performs an input operation by performing a process of determining invalidity of these extracted activity rectangular areas. Unintentional movement can be ignored as noise.

そして、左眼用ビデオカメラ本体32から出力されるカラービデオ信号に対し、グレー化処理、画面分割/2値化処理、色フィルタリング処理、フレームバッファ処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を順次施して、左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を生成し、共通処理基板34に供給する。   For the color video signal output from the left-eye video camera main body 32, graying processing, screen division / binarization processing, color filtering processing, frame buffer processing, inter-frame difference processing, histogram processing, active rectangular area Extraction processing is sequentially performed to generate a virtual cursor activity region image on the left eye side and a virtual button click activity region image on the left eye side, and supply them to the common processing board 34.

共通処理基板34は、両眼視差法による位置補正に必要な右眼用ウェブカメラ30、左眼用ウェブカメラ32の取り付け位置データ(水平距離“B”、上下距離など)、右眼用ウェブカメラ30、左眼用ウェブカメラ32の焦点距離“f”などの撮影条件情報が設定される撮影条件設定回路51と、右眼側画像処理基板31から出力される右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左眼側画像処理基板33から出力される左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像に活動矩形領域が含まれるとき、撮影条件設定回路51に設定されている撮影条件情報を用いて両眼視差法で各活動矩形領域の位置を補正する処理、大きさ順に各活動矩形領域に番号を付加する処理、同じ番号が付加された各活動矩形領域の中心座標間の距離(中心座標距離)を演算する処理、所定値以下になっている各中心座標距離に対応する活動矩形領域を選択する処理、選択した活動矩形領域のみを含み、選択していない活動矩形領域を含まない左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を作成する処理などを行って、右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像に含まれる操作者の手前にいる人、及び背後にいる人の動きなどの影響を取り除いた後、左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を数画像分〜数十画像分保持する活動矩形領域選択処理回路52とを備えている。   The common processing board 34 includes right-eye web camera 30 and left-eye web camera 32 attachment position data (horizontal distance “B”, vertical distance, etc.) necessary for position correction by the binocular parallax method, right-eye web camera. 30, a shooting condition setting circuit 51 in which shooting condition information such as the focal length “f” of the left-eye web camera 32 is set, and a right-eye virtual cursor activity region image output from the right-eye image processing board 31 The right eye side virtual button click activity region image, the left eye side virtual cursor activity region image output from the left eye side image processing board 33, and the left eye side virtual button click activity region image include an activity rectangular region. A process of correcting the position of each active rectangular area by binocular parallax using the shooting condition information set in the shooting condition setting circuit 51, a process of adding numbers to each active rectangular area in order of size, Processing to calculate the distance between the center coordinates (center coordinate distance) of each activity rectangular area to which the same number is added, processing to select the activity rectangle area corresponding to each center coordinate distance that is less than or equal to the predetermined value, and selected Perform a process such as creating a virtual cursor activity area image on the left eye side that contains only the activity rectangle area and not an unselected activity rectangle area, and a virtual button click activity area image on the left eye side. Virtual cursor activity region image, right eye side virtual button click activity region image, left eye side virtual cursor activity region image, left eye side virtual button click activity region image, a person in front of the operator, and behind After removing the influence of the movement of the person in the area, the active rectangle area that holds several to several tens of virtual cursor activity area images on the left eye side and virtual button click activity area images on the left eye side And a-option processing circuit 52.

さらに、活動矩形領域選択処理回路52は、ウェブカメラ30、32の視野角を定数として右眼活動矩形領域と左眼活動矩形領域の中心点間の横方向での中心座標距離に応じて、カラーカメラから被写体までの距離を補正することでより正確に操作者の手前にいる人、及び背後にいる人の動きなどの影響を取り除くことができる。この補正の原理及び補正の演算式については、前述した図39及び[数5]の式の通りである。活動矩形領域選択処理回路52は、中心座標距離に応じて予め演算した被写体までの距離をテーブルデータで保持しておくことで高速処理を実現できる。   Furthermore, the activity rectangular area selection processing circuit 52 uses the viewing angles of the web cameras 30 and 32 as constants to change the color according to the center coordinate distance in the horizontal direction between the center points of the right eye activity rectangular area and the left eye activity rectangle area. By correcting the distance from the camera to the subject, it is possible to more accurately remove the influence of the movement of the person in front of the operator and the person behind. The principle of the correction and the calculation formula for the correction are as shown in FIG. 39 and [Formula 5]. The active rectangular area selection processing circuit 52 can realize high-speed processing by holding the distance to the subject calculated in advance according to the center coordinate distance as table data.

斯かる活動矩形領域選択処理回路52の処理動作において、同じ番号が付加された各活動矩形領域の中心座標間の距離(中心座標距離)を演算する処理は、図1の距離測定手段Cの作用に相当する。すなわち、ウェブカメラ30、32の間隔と焦点距離fを予め設定すると、被写体までの距離は|X−X|と相関関係にあるために、中心座標距離の演算は被写体までの距離を測定していることになる。 In the processing operation of the activity rectangular area selection processing circuit 52, the process of calculating the distance (center coordinate distance) between the center coordinates of each activity rectangular area to which the same number is added is the function of the distance measuring means C in FIG. It corresponds to. That is, if the distance between the web cameras 30 and 32 and the focal length f are set in advance, the distance to the subject is correlated with | X L −X R |, so the calculation of the center coordinate distance measures the distance to the subject. Will be.

また、活動矩形領域選択処理回路52が操作者の手前にいる人、及び背後にいる人の動きなどの影響を取り除く処理は、図1の被写体判別手段Dの作用に相当する。すなわち、中心座標距離の演算処理にて測定した被写体までの距離と予め設定してある奥行き距離とを比較して、許容範囲内で一致しない場合にその活動矩形領域を無効とすることで、予め設定してある奥行き距離に仮想タッチスクリーンが形成されて、操作者による仮想タッチスクリーン上での手に対応する活動矩形領域のみを選択する。   Further, the process in which the activity rectangular area selection processing circuit 52 removes the influence of the movement of the person in front of the operator and the person behind is equivalent to the action of the subject discrimination means D in FIG. That is, by comparing the distance to the subject measured by the calculation processing of the center coordinate distance and the preset depth distance, and invalidating the active rectangular area when it does not match within the allowable range, A virtual touch screen is formed at the set depth distance, and only the active rectangular area corresponding to the hand on the virtual touch screen by the operator is selected.

さらに、共通処理基板34は、活動矩形領域選択処理回路52に保持されている左眼側の各仮想カーソル活動領域画像のうち、最新の仮想カーソル活動領域画像に活動矩形領域群が存在するとき、活動矩形領域群の数、形状、移動有無、移動方向などに基づき、仮想カーソル位置指示、仮想カーソル形状指示、仮想カーソル色指示、操作対象画面スクロール指示、操作対象画面拡大指示、操作対象画面縮小指示、操作対象画面回転指示などのポインティングデータを生成すると共に、仮想カーソルがクリック可能な状態になっているとき、活動矩形領域選択処理回路52に保持されている各仮想ボタンクリック活動領域画像のうち、最新の仮想ボタンクリック活動領域画像に活動矩形領域群が存在しているかどうかをチェックし、活動矩形領域群が存在しているとき、活動矩形領域群の形状などに基づきシングルクリック指示、ダブルクリック指示などのポインティングデータを生成する仮想カーソル制御処理/画面制御処理回路53を備えている。仮想カーソル制御処理/画面制御処理回路53のポインティングデータを生成する処理は、図1の操作指示生成手段Eの作用に相当する。   Further, the common processing board 34, when the active rectangle area group exists in the latest virtual cursor activity area image among the virtual cursor activity area images on the left eye side held in the activity rectangle area selection processing circuit 52, Virtual cursor position instruction, virtual cursor shape instruction, virtual cursor color instruction, operation target screen scroll instruction, operation target screen enlargement instruction, operation target screen reduction instruction based on the number of active rectangle areas, shape, movement presence / absence, movement direction, etc. In addition to generating pointing data such as an operation target screen rotation instruction, and when the virtual cursor is in a clickable state, among the virtual button click activity area images held in the activity rectangular area selection processing circuit 52, Checks whether there is an activity rectangle area group in the latest virtual button click activity area image, and the activity rectangle area When the group is present, a work such as a single click instruction based on the rectangular region group shape, the virtual cursor control processing / display control processing circuit 53 for generating a pointing data such as a double-click instruction. The processing for generating pointing data in the virtual cursor control processing / screen control processing circuit 53 corresponds to the operation of the operation instruction generating means E in FIG.

そして、右眼側画像処理基板31から出力される右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左眼側画像処理基板32から出力される左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像に活動矩形領域が含まれるとき、操作者の前にいる人の動き、操作者の背後にいる人の動きなどに起因するノイズを取り除きながら操作者の各手がどのように動いているかを判定し、この判定結果に応じて仮想カーソル位置指示、仮想カーソル形状指示、仮想カーソル色指示、操作対象画面スクロール指示、操作対象画面拡大指示、操作対象画面縮小指示、操作対象画面回転指示などのポインティングデータを生成し、遠隔操作対象機器となっているパソコン、テレビ、エアコン、大画面スクリーン装置などに供給する。   Then, the right eye side virtual cursor activity region image output from the right eye side image processing substrate 31, the right eye side virtual button click activity region image, and the left eye side virtual output from the left eye side image processing substrate 32. When an active rectangle is included in the cursor activity area image or virtual button click activity area image on the left eye side, noise caused by the movement of the person in front of the operator or the movement of the person behind the operator is removed. While determining how each hand of the operator is moving, according to the determination result, virtual cursor position instruction, virtual cursor shape instruction, virtual cursor color instruction, operation target screen scroll instruction, operation target screen enlargement instruction, Pointing data such as operation target screen reduction instructions and operation target screen rotation instructions are generated, and the PC, TV, air conditioner, large screen Supplied to such lean apparatus.

このように、この第2の実施形態では、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32によって操作者を撮影して得られた低解像度のカラー画像に対し、色フィルタリング処理、グレー化処理、画像分割/2値化処理、フレームバッファ処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理、活動矩形領域選択処理、仮想カーソル制御処理/画面制御処理などを行い操作者の手の動きを検知し、仮想カーソル位置指示、仮想カーソル形状指示、仮想カーソル色指示、操作対象画面スクロール指示、操作対象画面拡大指示、操作対象画面縮小指示、操作対象画面回転指示などのポインティングデータを生成し、遠隔操作対象機器に供給するようにしているので、遠隔操作対象機器側の仮想カーソルサイズ、仮想カーソル位置、仮想カーソル色、クリック、操作対象画面の上下スクロール、左右スクロール、拡大、縮小、回転などを遠隔操作することができる。   As described above, in the second embodiment, the color filtering process, gray level is applied to the low-resolution color image obtained by photographing the operator by the right-eye video camera body 30 and the left-eye video camera body 32. The operator's hand performs image processing / image segmentation / binarization processing, frame buffer processing, inter-frame difference processing, histogram processing, active rectangular region extraction processing, active rectangular region selection processing, virtual cursor control processing / screen control processing, etc. Point data, virtual cursor position instruction, virtual cursor shape instruction, virtual cursor color instruction, operation target screen scroll instruction, operation target screen enlargement instruction, operation target screen reduction instruction, operation target screen rotation instruction, etc. are generated Therefore, the virtual cursor size and virtual cursor on the remote operation target device side are supplied to the remote operation target device. Sol position, the virtual cursor color, click, scroll up and down of the operation target screen, left and right scrolling, enlargement, reduction, rotation, etc., can be remotely operated.

さらに、この第2の実施形態では、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32によって操作者を撮影して得られた低解像度のカラー画像に対し、グレー化処理、画像分割/2値化処理、色フィルタリング処理、フレームバッファ処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理、活動矩形領域選択処理、仮想カーソル制御処理/画面制御処理など、少ない段数の画像処理を施してポインティングデータを生成するようにしているので、肌色画像抽出理回路35、43、グレー化処理回路36、44、画像分割/2値化処理回路37、45、色フィルタリング処理回路38、46、フレームバッファ処理回路36、47、フレーム間差分処理回路40、48、ヒストグラム処理回路41、49、活動矩形領域抽出処理回路42、50、活動矩形領域選択回路52、仮想カーソル制御処理/画面制御処理回路53として、処理速度があまり速くない素子の使用を可能にして装置全体のコストを低く抑えながら、ほぼリアルタイムで操作者の動きを検知し、遠隔操作対象機器を制御することができる。   Further, in the second embodiment, the low-resolution color image obtained by photographing the operator with the right-eye video camera main body 30 and the left-eye video camera main body 32 is subjected to graying processing, image division / Image processing with a small number of stages such as binarization processing, color filtering processing, frame buffer processing, inter-frame difference processing, histogram processing, active rectangular area extraction processing, active rectangular area selection processing, virtual cursor control processing / screen control processing, etc. Since the pointing data is generated, the flesh color image extraction circuits 35 and 43, the graying processing circuits 36 and 44, the image division / binarization processing circuits 37 and 45, the color filtering processing circuits 38 and 46, the frame Buffer processing circuits 36, 47, inter-frame difference processing circuits 40, 48, histogram processing circuits 41, 49, active rectangle As the area extraction processing circuits 42 and 50, the active rectangular area selection circuit 52, and the virtual cursor control processing / screen control processing circuit 53, it is possible to use an element whose processing speed is not so fast and keep the cost of the entire apparatus low. It is possible to detect the movement of the operator in real time and control the remote operation target device.

また、この第2の実施形態では、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32によって操作者を撮影して得られた右眼側の各活動矩形領域と、左眼側の各活動矩形領域とに対し、両眼視差法で中心座標位置を補正した後、大きさ順に番号を付けて中心座標位置を比較し、この比較結果に基づきピント位置に対応する右眼側の各活動矩形領域と、左眼側の各活動矩形領域とを選択するようにしているので、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32のピント位置にある操作者の手以外のもの、例えば操作者の後ろに人がいて動いていても、これに影響されることなく操作者の手の動きのみを抽出して、仮想カーソルのサイズ制御、位置制御、色制御、クリック制御、操作対象画面の拡大制御、縮小制御、回転制御、上下スクロール制御、左右スクロール制御などを行うことができる)。   In the second embodiment, the right-eye active rectangular area obtained by photographing the operator with the right-eye video camera main body 30 and the left-eye video camera main body 32 and the left-eye side After correcting the center coordinate position with the binocular parallax method for the activity rectangular area, the center coordinate position is compared in the order of size, and each activity on the right eye side corresponding to the focus position based on this comparison result Since the rectangular area and each active rectangular area on the left eye side are selected, the right hand video camera main body 30 and the left eye video camera main body 32 other than the operator's hand at the focus position, For example, even if there is a person behind the operator and moving, only the movement of the operator's hand is extracted without being affected by this, and the size control, position control, color control, click control, and operation target of the virtual cursor are extracted. Screen enlargement control, reduction control, rotation control , Vertical scroll control can be performed such as horizontally scrolling control).

そして、この第2の実施形態においても、上述した第1の実施形態と同様に、操作者が片手だけを動かしているとき、仮想カーソル制御指示、クリック制御指示、スクロール制御指示の何れかであると判定し、仮想カーソルサイズ指示、仮想カーソル位置指示、仮想カーソル色指示、スクロール制御指示、クリック指示などを示すポインティングデータを生成するようにしているので、片手だけで遠隔操作対象機器側のディスプレイに表示されている仮想カーソルのサイズ、位置、色、クリック動作、操作対象画面のスクロールなどを遠隔操作することができる。   In the second embodiment, as in the first embodiment described above, when the operator moves only one hand, it is one of the virtual cursor control instruction, the click control instruction, and the scroll control instruction. And pointing data indicating virtual cursor size instructions, virtual cursor position instructions, virtual cursor color instructions, scroll control instructions, click instructions, etc. are generated. The displayed virtual cursor can be remotely operated such as the size, position, color, click operation, and scrolling of the operation target screen.

また、この第2の実施形態においても、上述した第1の実施形態と同様に、操作者が両手を動かしているとき、右手の動き、左手の動きを各々検出して操作対象画面の制御指示であると判定し、操作対象画面拡大指示、操作対象画面縮小指示、操作対象画面回転指示などを示すポインティングデータを生成するようにしているので、操作者が右手、左手を動かすだけで遠隔操作対象機器側のディスプレイに表示されている操作対象画面を拡大、縮小、回転させることができる。   Also in the second embodiment, as in the first embodiment described above, when the operator moves both hands, the right hand movement and the left hand movement are detected to control the operation target screen. Since the pointing data indicating the operation target screen enlargement instruction, operation target screen reduction instruction, operation target screen rotation instruction, etc. is generated, the operator can move the right hand and the left hand. The operation target screen displayed on the display on the device side can be enlarged, reduced or rotated.

また、本発明の第2の実施形態では、活動矩形領域抽出処理回路42、50においてヒストグラムを統計処理すると共に、統計処理結果を使用してヒストグラムから右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左側の仮想カーソル活動領域画像、左側の仮想ボタンクリック活動領域画像を作成するようにしているので、操作者の手など動いている部分を正確に検知することができ、安定した仮想カーソル制御、クリック制御、操作対象画面制御を行うことができる。   Further, in the second embodiment of the present invention, the active rectangular area extraction processing circuits 42 and 50 statistically process the histogram, and using the statistical processing result, the virtual cursor active area image on the right eye side from the histogram, the right eye Side virtual button click activity area image, left virtual cursor activity area image, left virtual button click activity area image are created so that moving parts such as the operator's hand can be accurately detected It is possible to perform stable virtual cursor control, click control, and operation target screen control.

また、本発明の第2の実施形態では、活動矩形領域抽出処理回路42、50において、右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左側の仮想カーソル活動領域画像、左側の仮想ボタンクリック活動領域画像に対し、多段階矩形オブジェクト抽出処理を行うようにしているので、操作者の影などに起因する誤動作を防止し、安定した仮想カーソル制御、クリック制御、操作対象画面制御を行うことができる。   In the second embodiment of the present invention, in the active rectangle area extraction processing circuits 42 and 50, the right eye side virtual cursor activity area image, the right eye side virtual button click activity area image, and the left virtual cursor activity area Multi-step rectangular object extraction processing is performed on the image and the virtual button click activity area image on the left side to prevent malfunctions caused by the shadow of the operator, stable virtual cursor control, click control, and operation Target screen control can be performed.

上述した各実施形態では、各ウェブカメラ4,6、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32で得られたカラー画像の全領域をグレー化し、2値化するようにしているが、図41のフローチャート、図42の模式図に示すようにヒストグラムを統計処理、活動矩形領域抽出処理で得られた変化領域矩形(活動矩形領域を含む矩形)65に対し、指定された拡大縮小率(例えば拡大率“10%”)で拡大/縮小した拡大/縮小矩形マスク66を作成すると共に(ステップS71)、次フレームのカラー画像全領域をグレー化して得られたモノクロ画像の中から拡大/縮小矩形マスク66に対応する部分(モノクロ画像に含まれる活動領域部分の画像67)だけを抽出して、2値化処理するようにしても良い(ステップS72)。   In each of the above-described embodiments, the entire area of the color image obtained by each of the web cameras 4 and 6, the right-eye video camera main body 30, and the left-eye video camera main body 32 is grayed out and binarized. However, as shown in the flowchart of FIG. 41 and the schematic diagram of FIG. 42, the specified enlargement / reduction for the change area rectangle (rectangle including the active rectangle area) 65 obtained by the statistical processing of the histogram and the active rectangle area extraction process is shown. An enlargement / reduction rectangular mask 66 enlarged / reduced at a rate (eg, enlargement rate “10%”) is created (step S71), and the entire color image area of the next frame is enlarged from the monochrome image obtained. / Only the portion corresponding to the reduced rectangular mask 66 (the image 67 of the active region portion included in the monochrome image) may be extracted and binarized (step S72).

このようにすれば、モノクロ画像などの中から活動領域より少し広い範囲に含まれる画像のみを有効にし、それ以外の領域にある画像を無効にして、変化領域以外の部分に存在するノイズを除去することができる。   In this way, only the image included in the area slightly wider than the active area from the monochrome image etc. is enabled, the image in the other area is disabled, and the noise existing in the part other than the change area is removed. can do.

また、上述した第1の実施形態、及び第2の実施形態では、CPU9による色フィルタリング処理、又は色フィルタリング処理回路38、46によって、肌色のカラー画像を抽出するようにしているが、操作者が特定色の操作器、例えば赤ペンなどを使用して仮想カーソルの位置、クリック、操作対象画面のスクロール、操作対象画面の拡大、操作対象画面の縮小、操作対象画面の回転などを制御する場合には、赤色抽出用のカラーマスクを使用し、CPU9による色フィルタリング処理、又は色フィルタリング処理回路38、46によって赤色のカラー画像を抽出するようにしても良い。   Further, in the first embodiment and the second embodiment described above, the skin color image is extracted by the color filtering processing by the CPU 9 or the color filtering processing circuits 38 and 46. When controlling the position, click, scrolling of the operation target screen, enlargement of the operation target screen, reduction of the operation target screen, rotation of the operation target screen, etc. using a specific color operation device such as a red pen May use a color mask for red extraction and extract a red color image by the color filtering processing by the CPU 9 or the color filtering processing circuits 38 and 46.

これにより、各ウェブカメラ4,6、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32の撮影範囲に複数の人がいても、操作者が持つ操作器の色に対応するカラー画像を抽出して仮想カーソルのサイズ制御、位置制御、クリック制御、操作対象画面のスクロール制御、拡大制御、縮小制御、回転制御などを行うことができる。   Thereby, even if there are a plurality of people in the shooting range of each of the web cameras 4, 6, the right-eye video camera main body 30, and the left-eye video camera main body 32, a color image corresponding to the color of the operator's operating device is obtained Extraction can be performed to perform size control, position control, click control, scroll control, enlargement control, reduction control, rotation control, and the like of the operation target screen.

また、このような色フィルタリング処理は、各ウェブカメラ4,6、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32から出力されるカラービデオ信号に含まれる操作者の手など、動いている画像を抽出するために行っている処理であることから、操作者が居る場所の照明条件が良好で、操作者の手などが動いている画像と背景画像とのコントラストが大きいとき、色フィルタリング処理を省略するようにしても良い。   Further, such color filtering processing is performed by moving each web camera 4, 6, the right-eye video camera body 30, and the operator's hand included in the color video signal output from the left-eye video camera body 32. Color filtering when the lighting conditions in the place where the operator is located are good and the contrast between the image where the operator's hand is moving and the background image is large. Processing may be omitted.

本発明の入力装置に係るタッチレスインタフェース操作の好適な実施例を示す。タッチレスインタフェースは、実施例1でも説明したように、CPU9が図7のフローチャートにおけるステップS18の仮想カーソル制御処理/画面制御処理において実行される。すなわち、ウェブカメラ4,6からの画像を処理して活動領域群の形状から操作者の動作を検出して、その動きに応じた操作者からの指示を認識するのであるが、以下、具体的な操作指示方法について説明する。   The suitable Example of the touchless interface operation which concerns on the input device of this invention is shown. As described in the first embodiment, the touchless interface is executed by the CPU 9 in the virtual cursor control process / screen control process in step S18 in the flowchart of FIG. That is, the images from the web cameras 4 and 6 are processed to detect the operation of the operator from the shape of the active region group, and the instruction from the operator according to the movement is recognized. A simple operation instruction method will be described.

(仮想カーソルの表示操作)
操作者が図43に示すように、人指し指のみ又は人指し指と中指の両方を上下に動かす動作(タッピング動作)を行うと、CPU9は、前記したステップS64(図15)の処理にて活動領域群の形状からこの動作を検出しカーソル表示制御を開始する。
(Virtual cursor display operation)
As shown in FIG. 43, when the operator performs an operation (tapping operation) to move only the index finger or both the index finger and the middle finger up and down (tapping operation), the CPU 9 performs the process of step S64 (FIG. 15). This operation is detected from the shape and cursor display control is started.

CPU9は、先ず画面上に仮想カーソル表示開始の応答表示(フィードバック)を行なうようディスプレイ部3を制御する。このフィードバックは、例えば図44の(a)部と(b)部で示すように、グレー色のサークルを小から大へと波紋が広がるよう画面上に順次表示するものである。   First, the CPU 9 controls the display unit 3 so as to perform a response display (feedback) of the virtual cursor display start on the screen. For example, as shown in FIGS. 44 (a) and 44 (b), this feedback sequentially displays gray circles on the screen so that ripples spread from small to large.

フィードバック表示の後、CPU9は、図44の(c)部で示すように仮想カーソル25Aをグレー色の第1の状態で表示するようディスプレイ部3を制御する。   After the feedback display, the CPU 9 controls the display unit 3 to display the virtual cursor 25A in the gray first state as shown in FIG. 44 (c).

(仮想カーソルのロック操作)
そして、このグレー色での仮想カーソル25Aの表示中に、操作者がタッピング動作を停止又はその動作を小さくするのをCPU9が検出すると、CPU9は、仮想カーソル25Aを赤色の第2の状態での表示に切り換えて実カーソル28Aを表示するようディスプレイ部3を制御する(図45)。
(Virtual cursor lock operation)
When the CPU 9 detects that the operator stops the tapping operation or reduces the operation while the gray virtual cursor 25A is displayed, the CPU 9 displays the virtual cursor 25A in the red second state. The display unit 3 is controlled to display the actual cursor 28A by switching to the display (FIG. 45).

本実施例では、カーソル表示は操作者によるタッピング動作に応答して行うが、実施例1では指先の旋回により行っている。また、ウェブカメラ4,6に遠い位置に手又は指先による操作が有効となる空間を設定している場合は、指先のタッピング動作より図46に示すような掌を正面に向けて横に振る動き(バイバイのように)、または掌を手招きのように縦に振る動作が認識する上で好ましい。   In this embodiment, the cursor is displayed in response to the tapping operation by the operator, but in the first embodiment, the cursor is displayed by turning the fingertip. In addition, when a space where the operation by the hand or the fingertip is effective at a position far from the web cameras 4 and 6, a movement of swinging the palm toward the front as shown in FIG. 46 by the tapping operation of the fingertip. It is preferable for recognizing an action of swinging the palm vertically (such as bye-bye) or beckoning.

(実カーソルの移動操作)
CPU9は、図45で示すように仮想カーソル25Aが赤色の第2の状態にて表示されているときに、操作者が上下左右の目的の位置で上記のタッピング動作を行うのを検出するとカーソル移動制御を行う。このときCPU9は、第1の信号を生成して、ディスプレイ部3が仮想カーソル25Aをその位置まで移動して表示するよう制御する。仮想カーソル25Aが赤色の第2の状態で表示していることで、操作者は仮想カーソル25Aが移動可能であることを認識できる。
(Actual cursor movement operation)
When the virtual cursor 25A is displayed in the red second state as shown in FIG. 45, the CPU 9 moves the cursor when it detects that the operator performs the above-described tapping operation at the target position in the vertical and horizontal directions. Take control. At this time, the CPU 9 generates a first signal and controls the display unit 3 to move and display the virtual cursor 25A to that position. Since the virtual cursor 25A is displayed in the red second state, the operator can recognize that the virtual cursor 25A is movable.

このように、ディスプレイ部3の任意の座標位置をタッピング動作にてポインティングすることでその座標位置までカーソルを移動させることができる。   In this way, by pointing an arbitrary coordinate position on the display unit 3 by a tapping operation, the cursor can be moved to that coordinate position.

(クリック操作及びダブルクリック操作)
CPU9は、仮想カーソル25Aがグレー色の第1の状態で表示されているときに、操作者が、図47に示すように人指し指だけを立てている状態(図47の(a)部)から全ての指を立てて掌を広げる状態(図47の(b)部)に変化させる第2の形態の動き、或いは図48に示すように人指し指だけを立てている状態(図48の(a)部)から掌を広げた状態(図48の(b)部)、そして再び人指し指だけを立てる状態(図48の(c)部)へと変化させる第3の形態の動きを行うのを検出するとクリック制御を行う。
(Click operation and double click operation)
When the virtual cursor 25A is displayed in the first gray state, the CPU 9 starts from the state where the operator stands only with the index finger as shown in FIG. 47 (part (a) in FIG. 47). The movement of the second form which changes to the state where the finger is raised and the palm is expanded (part (b) in FIG. 47), or the state where only the index finger is raised as shown in FIG. 48 (part (a) in FIG. 48) ) To expand the palm (part (b) of FIG. 48), and click again to detect the movement of the third form that changes to the state where only the index finger is raised (part (c) of FIG. 48). Take control.

このときCPU9は、第2の形態の動作を検出したときはシングルクリック操作と認識して第2の信号を生成し、第3の形態の動作を検出したときはダブルクリック操作と認識して第3の信号を生成する。CPU9が第2の信号や第3の信号を生成することで、シングルクリック又はダブルクリックを認識したことを仮想カーソル25Aの色や形状、および音にて操作者に知らせることができる。そして、ディスプレイ部3の画面上のリンクやアプリケーションの選択ボタン上に実カーソル28Aを重ねた状態で第3の信号が発生すると、リンク先へのジャンプやアプリケーションの実行が開始される。実施例1の場合、シングルクリック及びダブルクリックは、操作者が一本の指での指差し状態から掌を広げ、そして指差し状態に戻す動作を行うことで認識している。   At this time, the CPU 9 recognizes a single click operation when it detects the second form of operation and generates a second signal, and recognizes a double click operation when it detects the operation of the third form. 3 signal is generated. By generating the second signal or the third signal, the CPU 9 can notify the operator that the single click or the double click has been recognized by the color, shape, and sound of the virtual cursor 25A. When the third signal is generated with the real cursor 28A over the link or application selection button on the screen of the display unit 3, the jump to the link destination or the execution of the application is started. In the case of the first embodiment, single click and double click are recognized by the operator performing an operation of expanding the palm from the pointing state with one finger and returning to the pointing state.

以上、カーソルの表示と移動、及びクリック操作に関して、別の例として、カメラ4,6に掌または所定の認識オブジェクトを向ける動きで仮想カーソルを表示して、その掌が移動するのに応じて仮想カーソルを移動させ、目的の位置で掌の移動の停止にて仮想カーソルをロックして、次に掌を左右に振ることでクリックする操作方法もある。   As described above, regarding the display and movement of the cursor and the click operation, as another example, the virtual cursor is displayed by moving the palm or a predetermined recognition object toward the cameras 4 and 6, and the virtual moves as the palm moves. There is also an operation method in which the cursor is moved, the virtual cursor is locked by stopping the movement of the palm at the target position, and then the user clicks by swinging the palm left and right.

(フリップ操作)
CPU9は、仮想カーソル25Aが赤色の第2の状態にて表示されている図49の(a)部で示す状態のときに、操作者が、図49の(b)部から(c)部で示すように、掌を本のページを捲るように右または左に振る第4の形態の動きを行うのを検出すると画面スクロール制御を行う。このときCPU9は第4の信号を生成して、ディスプレイ部3の画面表示のスクロール動作を制御する。図49で(b)部から(c)部への動作は右方向へのフリップ操作であり、画面は左から右へとスクロールされる。
(Flip operation)
When the virtual cursor 25A is displayed in the red second state as shown in FIG. 49 (a), the CPU 9 moves from (b) to (c) in FIG. As shown in the figure, when it is detected that the movement of the fourth form in which the palm is swung to the right or left so as to turn the page of the book, screen scroll control is performed. At this time, the CPU 9 generates a fourth signal and controls the scroll operation of the screen display of the display unit 3. In FIG. 49, the operation from the portion (b) to the portion (c) is a flip operation in the right direction, and the screen is scrolled from the left to the right.

操作者は、フリップ操作前に、仮想カーソル25Aがグレー色の第1の状態で表示しているときは、図49の(a)部で示すようにタッピング動作を行い、仮想カーソル25Aが赤色の第2の状態にて表示されてからフリップ操作を行うことでスクロールが行われる。   When the virtual cursor 25A is displayed in the gray first state before the flip operation, the operator performs a tapping operation as shown in FIG. 49 (a), and the virtual cursor 25A is red. Scrolling is performed by performing a flip operation after being displayed in the second state.

(ドラッグアンドドロップ操作)
CPU9は、操作者がディスプレイ部3の画面上における目的のオブジェクトまたは画面位置で指先によるタッピング動作を検出すると、ドラッグアンドドロップ制御を行う。このときCPU9は、仮想カーソル25Aがその場所で赤色の第2の状態で表示し(図50の(a)部)、続いて、掌を画面に向けて左右に振る第5の形態の動き(図50の(b)部)を検出するとドラッグ操作を認識する。CPU9は、更に掌を画面に向けた状態で目的の位置まで移動するのを検出すると第5の信号を生成し、アイコン70を表示して掌の移動に追随して表示するようディスプレイ部3を制御する(図50の(c)部)。そして、CPU9は、操作者が指にてタップするか(図50の(d)部)、または移動を止めて数秒待ってから手を離す第6の形態の動きを検出すると、第6の信号を生成してオブジェクトのドロップを表示するようディスプレイ部3を制御する。
(Drag and drop operation)
When the operator detects a tapping operation by a fingertip at a target object or screen position on the screen of the display unit 3, the CPU 9 performs drag and drop control. At this time, the CPU 9 displays the virtual cursor 25A in the red second state at that location (part (a) of FIG. 50), and then moves the palm to the screen to the left and right in the fifth form ( When the (b) part of FIG. 50 is detected, the drag operation is recognized. When the CPU 9 further detects that the palm is moved to the target position with the palm facing the screen, the CPU 9 generates a fifth signal, displays the icon 70 and displays the icon 3 so as to follow the movement of the palm. Control (part (c) of FIG. 50). Then, when the CPU 9 detects the movement of the sixth form in which the operator taps with a finger (part (d) in FIG. 50) or stops moving and waits for a few seconds and then releases the hand, the sixth signal And the display unit 3 is controlled to display the drop of the object.

このように、ドラッグアンドドロップ操作は、オブジェクト上でタッピング動作することでオブジェクトをクリックし、次に掌を左右に振ることでオブジェクトを捕え、捕えたことをアイコン70の表示にて認識すると、掌を目的の位置まで移動させ、そして指によるタッピング動作を行うことで実行される。   In this way, the drag-and-drop operation performs a tapping operation on the object, clicks on the object, then shakes the palm to the left and right to catch the object, and if the catch is recognized by the icon 70 display, Is moved to a target position and a tapping operation with a finger is performed.

以上は操作者が片腕の手若しくは指の動きにより行う操作指示であるが、両腕による手若しくは指の動きにより行う操作指示について説明する。   The above is the operation instruction given by the movement of the hand or finger of one arm by the operator. The operation instruction given by the movement of the hand or finger by both arms will be described.

(画面拡大/縮小操作)
CPU9は、ステップS65(図15)において、活動領域群の形状から操作者が両手若しくは両手の指にて2点で同時にタッピング動作するのを検出すると、2点カーソル71を表示(図51の(a)部)するようディスプレイ部3を制御する。そして、CPU9は、操作者がタッピング動作を行う両手若しくは両手の指の間隔が拡大又は縮小するのを検出すると画面拡大・縮小制御を行う。
(Screen enlarge / reduce operation)
In step S65 (FIG. 15), the CPU 9 displays a two-point cursor 71 when it detects from the shape of the active region group that the operator performs a tapping operation at two points with both hands or fingers of both hands (FIG. 51 (( a) control the display unit 3 to When the CPU 9 detects that the operator performs the tapping operation or the interval between the fingers of both hands is enlarged or reduced, the CPU 9 performs screen enlargement / reduction control.

このときCPU9は、操作者がタッピング動作を行う両手若しくは両手の指の間隔が拡大又は縮小されるのに応じて、2点カーソル71の間隔を拡大(図51の(b)部)又は縮小(図51の(c)部)して表示するようディスプレイ部3を制御する。そして、CPU9は、2点でのタッピング動作が停止されたとき第7の信号を生成し、2点カーソル71の間隔に応じて画面の拡大表示又は縮小表示を行うようディスプレイ部3を制御する。   At this time, the CPU 9 enlarges or reduces the interval of the two-point cursor 71 (part (b) in FIG. 51) or reduces (reduces) the interval between the two hands or fingers of both hands where the operator performs the tapping operation. The display unit 3 is controlled so as to be displayed as shown in FIG. Then, the CPU 9 generates a seventh signal when the tapping operation at the two points is stopped, and controls the display unit 3 to perform the enlarged display or the reduced display of the screen according to the interval of the two-point cursor 71.

(画面回転操作)
一方、CPU9は、操作者の両手若しくは両手の指による2点での同時のタッピング動作を検出して2点カーソル71を表示(図52の(a)部)しているとき、タッピング動作を行う両手若しくは両手の指の相対位置が上下に変化するのを検出すると画面回転制御を行う。
(Screen rotation operation)
On the other hand, the CPU 9 detects the simultaneous tapping operation at two points with both hands of the operator or the fingers of both hands and displays the two-point cursor 71 (part (a) in FIG. 52), and performs the tapping operation. When it is detected that the relative position of both hands or fingers of both hands changes up and down, screen rotation control is performed.

このとき、CPU9は、操作者がタッピング動作を行う両手若しくは両手の指の上下の相対位置関係に応じて2点カーソル71を上下に幅を持たせて表示するようディスプレイ部3を制御する。そして、CPU9は、2点でのタッピング動作が停止されたとき第8の信号を生成し、2点カーソル71の上下の位置関係に応じて画面の表示を右回転又は左回転させて表示するようディスプレイ部3を制御する。すなわち、左カーソルが右カーソルより高い位置(図52の(b)部)にあるときは右回転させ、その逆(図52の(c)部)のときは左回転させる。   At this time, the CPU 9 controls the display unit 3 so that the two-point cursor 71 is displayed with a width in the vertical direction in accordance with the relative positional relationship between the upper and lower hands of the two hands or fingers of both hands where the operator performs the tapping operation. Then, the CPU 9 generates an eighth signal when the tapping operation at the two points is stopped, and displays the screen by rotating the screen to the right or left according to the vertical positional relationship of the two-point cursor 71. The display unit 3 is controlled. That is, when the left cursor is at a position higher than the right cursor (part (b) in FIG. 52), it is rotated to the right, and when it is opposite (part (c) in FIG. 52), it is rotated to the left.

本実施例では両手でのタッピング動作により画面拡大・縮小指示や画面回転指示を行うが、実施例1の画面拡大・縮小指示や画面回転指示の場合と比べて、タッピング動作を取り入れることで操作に対する認識率がより高まる。   In this embodiment, a screen enlargement / reduction instruction or a screen rotation instruction is performed by a tapping operation with both hands. Compared with the case of the screen enlargement / reduction instruction or the screen rotation instruction of the first embodiment, the tapping operation is incorporated to perform an operation. The recognition rate is further increased.

上記した如く、操作者が手又は指の動きにて操作指示を与える場合に、操作者に画面上の位置を知らせることが操作性の向上につながる。そのためには次の2つの方法がある。   As described above, when an operator gives an operation instruction by the movement of a hand or a finger, notifying the operator of the position on the screen leads to an improvement in operability. There are the following two methods for this purpose.

1つは、ウェブカメラ4,6に映った操作者自身をディスプレイ部3の画面上に透過表示するもので、CPU9はビデオキャプチャ5を制御して取り込んだ操作者の映像信号を表示I/F11を通してディスプレイ部3に出力して表示する。   One is to transparently display the operator himself / herself reflected on the web cameras 4 and 6 on the screen of the display unit 3. The CPU 9 controls the video capture 5 to display the video signal of the operator captured by the display I / F 11. To be output to the display unit 3 and displayed.

これにより、操作者は直感的に画面位置をポインティングすることができる。また、操作者の動きに合わせて、操作者自身を画面上に透過表示したり、しなかったりすることで、透過表示に邪魔されずに画面上のコンテンツを操作者が見ることができる。例えば、CPU9はステップS63の処理において、操作者による操作が停止して活動領域群が無いことを検出すると透過表示を行わず、一方操作が行われていて活動領域群の有りを検出したときは、透過表示を行うようディスプレイ部3への映像信号の出力を制御する。   Thus, the operator can intuitively point the screen position. In addition, the operator can see the content on the screen without being disturbed by the transparent display by transparently displaying the operator himself / herself on the screen according to the movement of the operator. For example, when the CPU 9 detects that the operation by the operator is stopped and there is no active area group in the process of step S63, the CPU 9 does not perform the transparent display, and on the other hand, when the operation is performed and the presence of the active area group is detected. The output of the video signal to the display unit 3 is controlled so as to perform transmissive display.

もう1つは、操作者の手先の動きを検出し、それに応じたエフェクトをディスプレイ部3の画面上に透過表示するものである。CPU9は、ステップS64若しくはステップS65の処理にて活動領域群の形状から操作者の手の動きを認識すると、その操作に応じたエフェクトを表示する。   The other is to detect the movement of the operator's hand and transparently display an effect corresponding to the movement on the screen of the display unit 3. When the CPU 9 recognizes the movement of the operator's hand from the shape of the active area group in the process of step S64 or step S65, the CPU 9 displays an effect corresponding to the operation.

例えば、CPU9は、図49の(b)部から(c)部で示すような掌を右または左に振るフリップの動きを検出すると、予め画像格納エリア16に格納しているフリップのエフェクト画像を表示I/F11を通してディスプレイ部3に出力する。このようにエフェクトを表示することにより、操作者は現在ポインティングしている位置を知ることができる。   For example, when the CPU 9 detects a flip movement in which the palm is shaken to the right or left as shown in the (b) to (c) parts of FIG. 49, the flip effect image stored in the image storage area 16 in advance is displayed. The data is output to the display unit 3 through the display I / F 11. By displaying the effect in this way, the operator can know the position currently pointing.

こうした2通りの方法を同時に用いたり、或いは操作指示の動作の内容に応じて何れか一方を選択的に使い分けることで操作者にとって操作がしやすくなり、ユーザインタフェースの優れた入力装置が提供される。   By using either of these two methods at the same time or selectively using either one according to the contents of the operation instruction operation, the operator can easily operate, and an input device with an excellent user interface is provided. .

本発明は、情報端末装置やパーソナルコンピュータなどの情報機器に接続されて使用され、カメラによる操作者の動作画像から仮想タッチスクリーン上での動作を取り込み、その動きの形態から情報機器のカーソル操作やアプリケーションプログラムの選択及び実行などを制御する入力装置に関するものであり、産業上の利用可能性を有する。   The present invention is used by being connected to an information device such as an information terminal device or a personal computer, capturing an operation on a virtual touch screen from an operation image of an operator by a camera, The present invention relates to an input device that controls selection and execution of an application program, and has industrial applicability.

A 右眼用撮像装置
B 左眼用撮像装置
C 距離測定手段
D 被写体判別手段
E 操作指示生成手段
1a、1b 入力装置
2 パソコン
3 ディスプレイ部
4 ウェブカメラ(左眼用カラーカメラ)
5 ビデオキャプチャ
6 ウェブカメラ(右眼用カラーカメラ)
9 CPU
25、25A 仮想カーソル
26 活動矩形領域
27 仮想カーソル活動領域画像
28、28A 実カーソル
30 右眼用ビデオカメラ本体(右眼用カラーカメラ本体)
31 右眼側画像処理基板
32 左眼用ビデオカメラ本体(左眼用カラーカメラ本体)
33 左眼側画像処理基板
34 共通処理基板
35 肌色画像抽出回路
36 グレー化処理回路
37 画像分割/2値化処理回路
38 色フィルタリング処理回路
39 フレームバッファ回路
40 フレーム間差分処理回路
41 ヒストグラム処理回路
42 活動矩形領域抽出処理回路
43 肌色画像抽出回路
44 グレー化処理回路
45 画像分割/2値化処理回路
46 色フィルタリング処理回路
47 フレームバッファ回路
48 フレーム間差分処理回路
49 ヒストグラム処理回路
50 活動矩形領域抽出処理回路
51 撮影条件設定回路
52 活動矩形領域選択処理回路
53 仮想カーソル制御処理/画面制御処理回路
65 変化領域矩形
66 拡大/縮小矩形マスク
67 マスク後の画像
A imaging device for the right eye B imaging device for the left eye C distance measurement means D subject determination means E operation instruction generation means 1a, 1b input device 2 personal computer 3 display unit 4 web camera (color camera for left eye)
5 Video capture 6 Web camera (color camera for right eye)
9 CPU
25, 25A Virtual cursor 26 Activity rectangle area 27 Virtual cursor activity area image 28, 28A Real cursor 30 Right-eye video camera body (right-eye color camera body)
31 Right-eye image processing board 32 Left-eye video camera body (left-eye color camera body)
33 Left-eye image processing board 34 Common processing board 35 Skin color image extraction circuit 36 Graying processing circuit 37 Image segmentation / binarization processing circuit 38 Color filtering processing circuit 39 Frame buffer circuit 40 Inter-frame difference processing circuit 41 Histogram processing circuit 42 Activity rectangular area extraction processing circuit 43 Skin color image extraction circuit 44 Graying processing circuit 45 Image segmentation / binarization processing circuit 46 Color filtering processing circuit 47 Frame buffer circuit 48 Inter-frame difference processing circuit 49 Histogram processing circuit 50 Activity rectangular area extraction processing Circuit 51 Imaging condition setting circuit 52 Active rectangular area selection processing circuit 53 Virtual cursor control processing / screen control processing circuit 65 Change area rectangle 66 Enlarged / reduced rectangle mask 67 Image after masking

Claims (43)

撮像装置で得られた操作者の画像を処理して、操作者の動作内容に応じた操作指示を生成する入力装置であって、
右眼用撮像装置と、
前記右眼用撮像装置から所定の間隔を置いた位置に、前記右眼用撮像装置と並んで配置される左眼用撮像装置と、
被写体に対する前記右眼用撮像装置と前記左眼用撮像装置の画像から両眼視差法により前記被写体までの距離を測定する距離測定手段と、
前記右眼用撮像装置と前記左眼用撮像装置との間の前記間隔に基づいて両眼視差法により割り出して予め設定してある奥行き距離と前記距離測定手段が測定した前記被写体までの距離とを比較し、前記被写体までの距離と前記奥行き距離とが所定の許容範囲内で一致している前記被写体を選択して前記操作者と判別する被写体判別手段と、
前記被写体判別手段が判別した前記被写体の動きを検出し、この検出結果に応じた操作指示を生成する操作指示生成手段と、
を備えたことを特徴とする入力装置。
An input device that processes an operator's image obtained by an imaging device and generates an operation instruction according to the operation content of the operator,
An imaging device for the right eye;
A left-eye imaging device arranged in parallel with the right-eye imaging device at a predetermined interval from the right-eye imaging device;
Distance measuring means for measuring a distance to the subject from the images of the right-eye imaging device and the left-eye imaging device with respect to the subject by a binocular parallax method;
Based on the distance between the imaging device for the right eye and the imaging device for the left eye, a depth distance determined by a binocular parallax method and set in advance, and a distance to the subject measured by the distance measuring unit, A subject discriminating means for selecting the subject in which the distance to the subject and the depth distance match within a predetermined allowable range and discriminating from the operator;
An operation instruction generating means for detecting the movement of the subject determined by the subject determining means and generating an operation instruction according to the detection result;
An input device comprising:
前記操作指示の認識結果を表示するディスプレイ部を具備し、
前記操作指示生成手段は、カーソルの表示待機中に前記操作者の手若しくは指による第1の形態の動きを検出すると前記ディスプレイ部に前記仮想カーソルを第1の状態で表示し、該第1の状態での表示中に前記手若しくは指による前記第1の動きが停止又は前記第1の動きが小さくなるのを検出すると前記仮想カーソルを第2の状態で表示すると共に、実カーソルを表示するカーソル表示制御手段を備えたことを特徴とする請求項1に記載の入力装置。
A display unit for displaying a recognition result of the operation instruction;
The operation instruction generation means displays the virtual cursor in the first state on the display unit when detecting the movement of the first form by the operator's hand or finger while waiting for the cursor to be displayed. A cursor that displays the virtual cursor in the second state and displays the real cursor when it is detected that the first movement by the hand or finger is stopped or the first movement is reduced during the display in the state The input device according to claim 1, further comprising display control means.
前記操作指示生成手段は、前記仮想カーソルが前記第2の状態で表示されているときに、前記手若しくは指が前記第1の形態の動きをすると、その手若しくは指の位置に前記カーソルの移動を指示する第1の信号を生成するカーソル移動制御手段を備えたことを特徴とする請求項2に記載の入力装置。   The operation instruction generation means moves the cursor to the position of the hand or finger when the hand or finger moves in the first form when the virtual cursor is displayed in the second state. 3. The input device according to claim 2, further comprising cursor movement control means for generating a first signal for instructing. 前記操作指示生成手段は、前記仮想カーソルが前記第1の状態で表示されているときに、前記手若しくは指による第2の形態の動きを検出するとクリック操作と認識する第2の信号を生成し、第2の形態の動きに続く第3の形態の動きを検出するとダブルクリック操作と認識する第3の信号を生成するクリック制御手段を備えたことを特徴とする請求項2又は請求項3に記載の入力装置。   The operation instruction generation unit generates a second signal that recognizes a click operation when detecting the movement of the second form by the hand or the finger when the virtual cursor is displayed in the first state. 4. A click control means for generating a third signal for recognizing a double click operation when a movement of the third form following the movement of the second form is detected. The input device described. 前記操作指示生成手段は、前記仮想カーソルが前記第1の状態で表示されているときに、前記手若しくは指による第4の形態の動きを検出すると、前記ディスプレイ部の画面スクロールを指示する第4の信号を生成する画面スクロール制御手段を備えたことを特徴とする請求項2乃至請求項4の何れか一つに記載の入力装置。   When the virtual cursor is displayed in the first state and the movement of the fourth form by the hand or finger is detected when the virtual cursor is displayed in the first state, the operation instruction generation unit instructs the screen scroll of the display unit The input device according to claim 2, further comprising a screen scroll control unit that generates the signal. 前記操作指示生成手段は、前記ディスプレイ部に表示されたオブジェクトに前記実カーソルが重ねられた状態で前記手若しくは指による第5の形態の動きを検出すると前記オブジェクトがドラッグの対象オブジェクトであることを認識し、認識後の前記手若しくは指による移動に追随した前記オブジェクトの移動を指示する第5の信号を生成し、続いて前記手若しくは指による前記第1形態での動きを検出すると前記オブジェクトのドロップを指示する第6の信号を生成するドラッグアンドドロップ制御手段を備えたことを特徴とする請求項2乃至請求項5の何れか一つに記載の入力装置。   The operation instruction generating means detects that the object is a drag target object when detecting the movement of the fifth form by the hand or finger in a state where the real cursor is superimposed on the object displayed on the display unit. Recognizing and generating a fifth signal instructing movement of the object following movement by the hand or finger after recognition, and then detecting movement of the object in the first form by the hand or finger. 6. The input device according to claim 2, further comprising drag and drop control means for generating a sixth signal for instructing dropping. 前記操作指示生成手段は、2つの前記手若しくは指がそれぞれ前記第1の形態の動きを行うのを検出すると2点カーソルを表示し、前記第1の形態の動きを行う前記手若しくは指の間隔が拡大又は縮小されるのに応じて前記2点カーソルの間隔を拡大又は縮小表示し、前記第1の形態の動きの停止にて前記2点カーソルの間隔に応じて前記ディスプレイ部の拡大表示又は縮小表示を指示する第7の信号を生成する画面拡大・縮小制御手段を備えたことを特徴とする請求項2乃至請求項6の何れか一つに記載の入力装置。   The operation instruction generating unit displays a two-point cursor when detecting that the two hands or fingers perform the movement of the first form, and the interval between the hands or fingers performing the movement of the first form. The interval between the two-point cursors is enlarged or reduced according to the enlargement or reduction of the image, and the display unit is enlarged or reduced according to the interval between the two-point cursors when the movement of the first mode is stopped. The input device according to claim 2, further comprising a screen enlargement / reduction control unit that generates a seventh signal instructing reduction display. 前記操作指示生成手段は、2つの前記手若しくは指がそれぞれ前記第1の形態の動きを行うのを検出すると前記2点カーソルを表示すると共に、前記第1の形態の動きを行う前記手若しくは指の相対位置の上下の変化に応じて前記2点カーソルの相対位置を上下に変化させて表示し、前記第1の形態の動きの停止にて前記2点カーソルの上下の位置関係に応じて前記ディスプレイ部の表示の右回転又は左回転を指示する第8の信号を生成する画面回転制御手段を備えたことを特徴とする請求項2乃至請求項7の何れか一つに記載の入力装置。   The operation instruction generating means displays the two-point cursor when detecting that the two hands or fingers respectively perform the movement of the first form, and also displays the two-point cursor and the hand or fingers performing the movement of the first form. The relative position of the two-point cursor is changed up and down according to the up-and-down change in the relative position, and the two-point cursor is moved according to the up-and-down positional relationship when the movement of the first mode is stopped. The input device according to claim 2, further comprising a screen rotation control unit that generates an eighth signal instructing a right rotation or a left rotation of display on the display unit. 前記ディスプレイ部は、前記撮像装置による前記操作者の画像を透過表示することを特徴とする請求項2乃至請求項8の何れか一つに記載の入力装置。   The input device according to claim 2, wherein the display unit transparently displays an image of the operator by the imaging device. 前記ディスプレイ部は、前記操作者が操作指示の動きをしているとき前記画像を透過表示することを特徴とする請求項9に記載の入力装置。   The input device according to claim 9, wherein the display unit transparently displays the image when the operator is performing an operation instruction. 前記ディスプレイ部は、前記操作者が前記手若しくは指の動きにて行う操作指示のエフェクトを表示することを特徴とする請求項2乃至請求項10の何れか一つに記載の入力装置。   The input device according to claim 2, wherein the display unit displays an effect of an operation instruction performed by the operator by the movement of the hand or the finger. ビデオカメラで得られた操作者の画像を処理して、操作者の動作内容に応じた操作指示を生成する入力装置であって、
右眼用カラーカメラと、
前記右眼用カラーカメラから所定距離だけ離れた位置に、前記右眼用カラーカメラと並んで配置される左眼用カラーカメラと、
被写体を捉えた前記右眼用カラーカメラから出力されるカラー画像に対し、グレー化処理、画像分割/2値化処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を行い、前記操作者の右眼側活動矩形領域を抽出する右眼側画像処理プログラムと、
前記被写体を捉えた前記左眼用カラーカメラから出力されるカラー画像に対し、グレー化処理、画像分割/2値化処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を行い、前記操作者の左眼側活動矩形領域を抽出する左眼側画像処理プログラムと、
前記右眼側画像処理プログラムで得られた右眼側活動矩形領域の座標軸と前記左眼側画像処理プログラムで得られた左眼側活動矩形領域の座標軸との中心座標距離を演算することで両眼視差法による前記被写体までの距離を測定し、測定した前記被写体までの距離を前記右眼用撮像装置と前記左眼用撮像装置との間の前記間隔に基づいて両眼視差法により割り出して予め設定してある奥行き距離と比較し、前記被写体までの距離と前記奥行き距離とが所定の許容範囲内で一致している前記右眼活動矩形領域及び前記左眼活動矩形領域を前記操作者による活動矩形領域として選択する活動領域選択処理プログラムと、
前記活動領域選択処理プログラムにて選択された活動矩形領域に対し、仮想カーソル制御処理/画面制御処理を行って、前記被写体の手、又は指先の動きを検出し、この検出結果に応じた操作指示を生成する画像処理プログラムと、
を備えたことを特徴とする入力装置。
An input device that processes an operator's image obtained by a video camera and generates an operation instruction according to the operation content of the operator,
A right-eye color camera,
A left-eye color camera arranged side by side with the right-eye color camera at a position away from the right-eye color camera by a predetermined distance;
The operator performs graying processing, image division / binarization processing, inter-frame difference processing, histogram processing, and active rectangular area extraction processing on the color image output from the right-eye color camera that captures the subject. A right eye side image processing program for extracting a right eye side activity rectangular region of
The color image output from the left-eye color camera capturing the subject is subjected to graying processing, image segmentation / binarization processing, inter-frame difference processing, histogram processing, and active rectangular area extraction processing, and the operation Left eye side image processing program for extracting the left eye side activity rectangular area of the person,
By calculating the center coordinate distance between the coordinate axis of the right eye side active rectangular area obtained by the right eye side image processing program and the coordinate axis of the left eye side active rectangular area obtained by the left eye side image processing program, both are calculated. The distance to the subject is measured by an eye parallax method, and the measured distance to the subject is determined by a binocular parallax method based on the interval between the right eye imaging device and the left eye imaging device. The right eye activity rectangular area and the left eye activity rectangular area in which the distance to the subject and the depth distance match within a predetermined tolerance range are compared with the depth distance set in advance by the operator. An activity area selection processing program to be selected as an activity rectangle area;
A virtual cursor control process / screen control process is performed on the active rectangular area selected by the active area selection processing program to detect the movement of the hand or fingertip of the subject, and an operation instruction corresponding to the detection result An image processing program for generating
An input device comprising:
前記仮想カーソル制御処理/画面制御処理は、仮想カーソル活動領域画像上に活動矩形領域群が1つあるとき、その形状、移動有無に基づき、カールソル制御指示、又は画面スクロール指示を生成することを特徴とする請求項12に記載の入力装置。   In the virtual cursor control process / screen control process, when there is one active rectangular area group on the virtual cursor active area image, a Carlsol control instruction or a screen scroll instruction is generated based on the shape and presence / absence of movement. The input device according to claim 12. 前記仮想カーソル制御処理/画面制御処理は、仮想カーソル活動領域画像上に活動矩形領域群が2つあるとき、その移動方向に基づき、画面回転指示、画面拡大指示、画面縮小指示の何れかを生成することを特徴とする請求項12又は請求項13に記載の入力装置。   The virtual cursor control process / screen control process generates one of a screen rotation instruction, a screen enlargement instruction, and a screen reduction instruction based on the moving direction when there are two active rectangular area groups on the virtual cursor active area image. The input device according to claim 12 or 13, characterized in that: 前記活動矩形領域抽出処理は、ヒストグラムの統計処理結果を使用して、前記ヒストグラムから仮想カーソル活動領域画像を作成することを特徴とする請求項12乃至請求項14の何れか一つに記載の入力装置。   15. The input according to claim 12, wherein the activity rectangular area extraction processing creates a virtual cursor activity area image from the histogram using a histogram statistical processing result. apparatus. 前記活動矩形領域抽出処理は、前記仮想カーソル活動領域画像に対し、多段階矩形オブジェクト抽出処理を行い、ノイズ成分を除去することを特徴とする請求項12乃至請求項15の何れか一つに記載の入力装置。   16. The active rectangle area extracting process performs a multi-stage rectangular object extracting process on the virtual cursor active area image to remove a noise component. Input device. 拡大/縮小矩形マスク作成処理を付加し、前記拡大/縮小矩形マスク作成処理によって、前記カラーカメラで得られたカラー画像の中から、前記仮想カーソル活動領域画像上の変化領域矩形に対応する画像を抽出し、それ以外の画像をカットして、ノイズ成分を除去することを特徴とする請求項12乃至請求項16の何れか一つに記載の入力装置。   An enlargement / reduction rectangle mask creation process is added, and an image corresponding to the change area rectangle on the virtual cursor activity area image is selected from the color images obtained by the color camera by the enlargement / reduction rectangle mask creation process. The input device according to any one of claims 12 to 16, wherein a noise component is removed by extracting and cutting other images. 前記操作指示の認識結果を表示するディスプレイ部を具備し、
前記画像処理プログラムは、カーソルの表示待機中に前記操作者の手若しくは指による第1の形態の動きを検出すると前記ディスプレイ部に前記仮想カーソルを第1の状態で表示し、該第1の状態での表示中に前記手若しくは指による前記第1の動きが停止又は前記第1の動きが小さくなるのを検出すると前記仮想カーソルを第2の状態で表示すると共に、実カーソルを表示するカーソル表示制御のステップを備えたことを特徴とする請求項12乃至請求項17の何れか一つに記載の入力装置。
A display unit for displaying a recognition result of the operation instruction;
The image processing program displays the virtual cursor in the first state on the display unit when detecting the movement of the first form by the operator's hand or finger while waiting to display the cursor. Cursor display for displaying the virtual cursor in the second state and displaying the real cursor when it is detected that the first movement by the hand or finger is stopped or the first movement is reduced during display The input device according to any one of claims 12 to 17, further comprising a control step.
前記画像処理プログラムは、前記仮想カーソルが前記第2の状態で表示されているときに、前記手若しくは指が前記第1の形態の動きをすると、その手若しくは指の位置に前記カーソルの移動を指示する第1の信号を生成するカーソル移動制御のステップを備えたことを特徴とする請求項18に記載の入力装置。   When the virtual cursor is displayed in the second state and the hand or finger moves in the first form, the image processing program moves the cursor to the position of the hand or finger. 19. The input device according to claim 18, further comprising a cursor movement control step of generating a first signal to be instructed. 前記画像処理プログラムは、前記仮想カーソルが前記第1の状態で表示されているときに、前記手若しくは指による第2の形態の動きを検出するとクリック操作と認識する第2の信号を生成し、第2の形態の動きに続く第3の形態の動きを検出するとダブルクリック操作と認識する第3の信号を生成するクリック制御のステップを備えたことを特徴とする請求項18又は請求項19に記載の入力装置。   The image processing program generates a second signal for recognizing a click operation when detecting the movement of the second form by the hand or finger when the virtual cursor is displayed in the first state, 20. A click control step of generating a third signal for recognizing a double-click operation when a movement of the third form following the movement of the second form is detected is provided. The input device described. 前記画像処理プログラムは、前記仮想カーソルが前記第1の状態で表示されているときに、前記手若しくは指による第4の形態の動きを検出すると、前記ディスプレイ部の表示のフリップを指示する第4の信号を生成する画面スクロール制御のステップを備えたことを特徴とする請求項18乃至請求項20の何れか一つに記載の入力装置。   When the virtual cursor is displayed in the first state and the movement of the fourth form by the hand or finger is detected, the image processing program instructs the display unit to flip display. 21. The input device according to claim 18, further comprising a step of screen scroll control for generating the signal. 前記画像処理プログラムは、前記ディスプレイ部に表示されたオブジェクトに前記実カーソルが重ねられた状態で前記手若しくは指による第5の形態の動きを検出すると前記オブジェクトがドラッグの対象オブジェクトであることを認識し、認識後の前記手若しくは指による移動に追随した前記オブジェクトの移動を指示する第5の信号を生成し、続いて前記手若しくは指による前記第1形態での動きを検出すると前記オブジェクトのドロップを指示する第6の信号を生成するドラッグアンドドロップ制御のステップを備えたことを特徴とする請求項18乃至請求項21の何れか一つに記載の入力装置。   The image processing program recognizes that the object is the object to be dragged when detecting the movement of the fifth form by the hand or finger in a state where the real cursor is superimposed on the object displayed on the display unit When the fifth signal for instructing the movement of the object following the movement by the hand or finger after recognition is generated, and the movement of the first form by the hand or finger is subsequently detected, the object is dropped. The input device according to any one of claims 18 to 21, further comprising a step of drag-and-drop control for generating a sixth signal instructing the control signal. 前記画像処理プログラムは、2つの前記手若しくは指がそれぞれ前記第1の形態の動きを行うのを検出すると2点カーソルを表示し、前記第1の形態の動きを行う前記手若しくは指の間隔が拡大又は縮小されるのに応じて前記2点カーソルの間隔を拡大又は縮小表示し、前記第1の形態の動きの停止にて前記2点カーソルの間隔に応じて前記ディスプレイ部の拡大表示又は縮小表示を指示する第7の信号を生成する画面拡大・縮小制御のステップを備えたことを特徴とする請求項18乃至請求項22の何れか一つに記載の入力装置。   When the image processing program detects that the two hands or fingers perform the movement of the first form, a two-point cursor is displayed, and an interval between the hands or fingers performing the movement of the first form is displayed. The interval between the two-point cursors is enlarged or reduced according to the enlargement or reduction, and the display unit is enlarged or reduced according to the interval between the two-point cursors when the movement of the first mode is stopped. The input device according to any one of claims 18 to 22, further comprising a screen enlargement / reduction control step of generating a seventh signal for instructing display. 前記画像処理プログラムは、2つの前記手若しくは指がそれぞれ前記第1の形態の動きを行うのを検出すると前記2点カーソルを表示すると共に、前記第1の形態の動きを行う前記手若しくは指の相対位置の上下の変化に応じて前記2点カーソルの相対位置を上下に変化させて表示し、前記第1の形態の動きの停止にて前記2点カーソルの上下の位置関係に応じて前記ディスプレイ部の表示の右回転又は左回転を指示する第8の信号を生成する画面回転制御のステップを備えたことを特徴とする請求項18乃至請求項23の何れか一つに記載の入力装置。   The image processing program displays the two-point cursor when detecting that the two hands or fingers perform the movement of the first form, respectively, and also displays the two-point cursor of the hand or finger performing the movement of the first form. Displaying the relative position of the two-point cursor up and down in accordance with the up-and-down change in the relative position, and displaying the display in accordance with the up-and-down positional relationship of the two-point cursor when the movement of the first mode is stopped The input device according to any one of claims 18 to 23, further comprising a screen rotation control step of generating an eighth signal instructing a right rotation or a left rotation of the display of the unit. 前記ディスプレイ部は、前記カラーカメラによる前記操作者の画像を透過表示することを特徴とする請求項18乃至請求項24の何れか一つに記載の入力装置。   The input device according to any one of claims 18 to 24, wherein the display unit transparently displays an image of the operator by the color camera. 前記ディスプレイ部は、前記操作者が操作指示の動きをしているとき前記画像を透過表示することを特徴とする請求項25に記載の入力装置。   26. The input device according to claim 25, wherein the display unit transparently displays the image when the operator is performing an operation instruction. 前記ディスプレイ部は、前記操作者が前記手若しくは指の動きにて行う操作指示のエフェクトを表示することを特徴とする請求項18乃至請求項26の何れか一つに記載の入力装置。   The input device according to any one of claims 18 to 26, wherein the display unit displays an effect of an operation instruction performed by the operator by the movement of the hand or the finger. ビデオカメラで得られた操作者の画像を処理して、操作者の動作内容に応じた操作指示を生成し、遠隔操作対象機器の動作を制御する入力装置であって、
箱形に形成される入力装置筐体と、
この入力装置筐体の前面左側に取り付けられる右眼用カラーカメラ本体と、
前記入力装置筐体の前面右側に取り付けられる左眼用カラーカメラ本体と、
前記入力装置筐体内に配置され、グレー化処理回路、画像分割/2値化処理回路、フレーム間差分処理回路、ヒストグラム処理回路、活動矩形領域抽出処理回路によって、前記右眼用カラーカメラ本体から出力されるカラー画像を処理して、前記操作者の右眼側活動矩形領域を抽出する右眼側画像処理基板と、
前記入力装置筐体内に配置され、グレー化処理回路、画像分割/2値化処理回路、フレーム間差分処理回路、ヒストグラム処理回路、活動矩形領域抽出処理回路によって、前記左眼用カラーカメラ本体から出力されるカラー画像を処理して、前記操作者の左眼側活動矩形領域を抽出する左眼側画像処理基板と、
前記入力装置筐体内に配置され、活動矩形領域選択処理回路、仮想カーソル制御処理/画面制御処理回路によって、両眼視差法を使用して、前記右眼側画像処理プログラムで得られた右眼側活動矩形領域の座標軸と前記左眼側画像処理プログラムで得られた左眼側活動矩形領域の座標軸とから被写体までの距離を演算することで両眼視差法による前記被写体までの距離を測定し、前記被写体までの距離を前記右眼用撮像装置と前記左眼用撮像装置との間の前記間隔に基づいて両眼視差法により割り出して予め設定してある奥行き距離と比較し、前記被写体までの距離と前記奥行き距離とが所定の許容範囲内で一致している前記右眼活動矩形領域及び前記左眼活動矩形領域を前記操作者による活動矩形領域として選択し、選択した前記活動矩形領域に仮想カーソル制御処理/画面制御処理を行って、前記被写体の手、又は指先の動きを検出し、この検出結果に応じたポインティングデータを生成し、遠隔操作対象機器の動作を制御する共通処理基板と、
を備えることを特徴とする入力装置。
An input device that processes an image of an operator obtained by a video camera, generates an operation instruction according to the operation content of the operator, and controls the operation of the remote operation target device,
An input device housing formed in a box shape;
A color camera body for the right eye attached to the front left side of the input device housing;
A color camera body for the left eye attached to the front right side of the input device housing;
Output from the right-eye color camera body by the graying processing circuit, the image segmentation / binarization processing circuit, the inter-frame difference processing circuit, the histogram processing circuit, and the active rectangular area extraction processing circuit which are arranged in the input device casing. A right eye side image processing board that processes the color image to be extracted and extracts the right eye side activity rectangular region of the operator;
Output from the left-eye color camera body by the graying processing circuit, image segmentation / binarization processing circuit, inter-frame difference processing circuit, histogram processing circuit, and active rectangular area extraction processing circuit, which is arranged in the input device casing. A left eye side image processing board that processes the color image to be extracted and extracts the left eye side activity rectangular region of the operator;
The right eye side obtained by the right eye side image processing program using the binocular parallax method by the active rectangle area selection processing circuit, the virtual cursor control processing / screen control processing circuit, which is arranged in the input device casing Measure the distance to the subject by binocular parallax method by calculating the distance from the coordinate axis of the activity rectangular area and the coordinate axis of the left eye side activity rectangular area obtained by the left eye side image processing program, The distance to the subject is determined by a binocular parallax method based on the distance between the right-eye imaging device and the left-eye imaging device, and compared with a preset depth distance, The right-eye activity rectangular region and the left-eye activity rectangular region in which the distance and the depth distance coincide within a predetermined allowable range are selected as the activity rectangle region by the operator, and the selected activity rectangle Common processing for performing virtual cursor control processing / screen control processing on the area, detecting movement of the hand or fingertip of the subject, generating pointing data according to the detection result, and controlling the operation of the remote operation target device A substrate,
An input device comprising:
前記仮想カーソル制御処理/画面制御処理回路は、仮想カーソル活動領域画像上に活動矩形領域群が1つあるとき、その形状、移動有無に基づき、カールソル制御指示、又は画面スクロール指示を生成することを特徴とする請求項28に記載の入力装置。   The virtual cursor control processing / screen control processing circuit generates a Carl Sol control instruction or a screen scroll instruction based on the shape and presence / absence of movement when there is one active rectangular area group on the virtual cursor active area image. The input device according to claim 28, characterized in that: 前記仮想カーソル制御処理/画面制御処理回路は、仮想カーソル活動領域画像上に活動矩形領域群が2つあるとき、その移動方向に基づき、画面回転指示、画面拡大指示、画面縮小指示の何れかを生成することを特徴とする請求項28又は請求項29に記載の入力装置。   The virtual cursor control processing / screen control processing circuit, when there are two active rectangular area groups on the virtual cursor active area image, selects one of a screen rotation instruction, a screen enlargement instruction, and a screen reduction instruction based on the moving direction. 30. The input device according to claim 28, wherein the input device is generated. 前記活動矩形領域抽出処理は、ヒストグラムの統計処理結果を使用して、前記ヒストグラムから仮想ボタンクリック活動領域画像を作成することを特徴とする請求項28乃至請求項30の何れか一つに記載の入力装置。   31. The activity rectangular area extraction process according to claim 28, wherein a virtual button click activity area image is created from the histogram using a histogram statistical processing result. Input device. 前記活動矩形領域抽出処理は、前記仮想ボタンクリック活動領域画像に対し、多段階矩形オブジェクト抽出処理を行い、ノイズ成分を除去することを特徴とする請求項28乃至請求項31の何れか一つに記載の入力装置。   32. The activity rectangle area extraction process according to claim 28, wherein a noise component is removed by performing a multi-stage rectangle object extraction process on the virtual button click activity area image. The input device described. 拡大/縮小矩形マスク作成処理回路を付加し、前記拡大/縮小矩形マスク作成処理回路によって、前記カラーカメラ、前記カラーカメラ本体で得られたカラー画像の中から、前記仮想ボタンクリック活動領域画像の変化領域矩形に対応する画像を抽出し、それ以外の画像をカットして、ノイズ成分を除去することを特徴とする請求項28乃至請求項32の何れか一つに記載の入力装置。   An enlargement / reduction rectangular mask creation processing circuit is added, and the virtual button click activity region image is changed from among the color images obtained by the color camera and the color camera body by the enlargement / reduction rectangular mask creation processing circuit. The input device according to any one of claims 28 to 32, wherein an image corresponding to a region rectangle is extracted, and other images are cut to remove noise components. 前記操作指示の認識結果を表示するディスプレイ部を具備し、
前記共通処理基板は、カーソルの表示待機中に前記操作者の手若しくは指による第1の形態の動きを検出すると前記ディスプレイ部に前記仮想カーソルを第1の状態で表示し、該第1の状態での表示中に前記手若しくは指による前記第1の動きが停止又は前記第1の動きが小さくなるのを検出すると前記仮想カーソルを第2の状態で表示すると共に、実カーソルを表示するカーソル表示制御部を備えたことを特徴とする請求項28乃至請求項33の何れか一つに記載の入力装置。
A display unit for displaying a recognition result of the operation instruction;
The common processing board displays the virtual cursor in the first state on the display unit when detecting the movement of the first form by the hand or finger of the operator while waiting for the cursor to be displayed. Cursor display for displaying the virtual cursor in the second state and displaying the real cursor when it is detected that the first movement by the hand or finger is stopped or the first movement is reduced during display 34. The input device according to claim 28, further comprising a control unit.
前記共通処理基板は、前記仮想カーソルが前記第2の状態で表示されているときに、前記手若しくは指が前記第1の形態の動きをすると、その手若しくは指の位置に前記カーソルの移動を指示する第1の前記ポインティングデータを生成するカーソル移動制御部を備えたことを特徴とする請求項34に記載の入力装置。   The common processing board moves the cursor to the position of the hand or finger when the hand or finger moves in the first form when the virtual cursor is displayed in the second state. 35. The input device according to claim 34, further comprising a cursor movement control unit that generates the first pointing data to be instructed. 前記共通処理基板は、前記仮想カーソルが前記第1の状態で表示されているときに、前記手若しくは指による第2の形態の動きを検出するとクリック操作であることを示す第2の前記ポインティングデータを生成し、第2の形態の動きに続く第3の形態の動きを検出するとダブルクリック操作であることを示す第3の前記ポインティングデータを生成するクリック制御部を備えたことを特徴とする請求項34又は請求項35に記載の入力装置。   The second pointing data indicating that the common processing board is a click operation when the movement of the second form by the hand or the finger is detected when the virtual cursor is displayed in the first state. And a click control unit for generating the third pointing data indicating a double click operation when the movement of the third form following the movement of the second form is detected. Item 36. The input device according to item 34 or 35. 前記共通処理基板は、前記仮想カーソルが前記第1の状態で表示されているときに、前記手若しくは指による第4の形態の動きを検出すると、前記ディスプレイ部の画面スクロールを指示する第4の前記ポインティングデータを生成する画面スクロール制御部を備えたことを特徴とする請求項34乃至請求項36の何れか一つに記載の入力装置。   The common processing board, when detecting the movement of the fourth form by the hand or the finger when the virtual cursor is displayed in the first state, instructs the display unit to scroll the screen. 37. The input device according to claim 34, further comprising a screen scroll control unit that generates the pointing data. 前記共通処理基板は、前記ディスプレイ部に表示されたオブジェクトに前記実カーソルが重ねられた状態で前記手若しくは指による第5の形態の動きを検出すると前記オブジェクトがドラッグの対象オブジェクトであることを認識し、認識後の前記手若しくは指による移動に追随した前記オブジェクトの移動を指示する第5の前記ポインティングデータを生成し、続いて前記手若しくは指による前記第1形態での動きを検出すると前記オブジェクトのドロップを指示する第6の前記ポインティングデータを生成するドラッグアンドドロップ制御部を備えたことを特徴とする請求項34乃至請求項37の何れか一つに記載の入力装置。   The common processing board recognizes that the object is the object to be dragged when the movement of the fifth form by the hand or the finger is detected in a state where the real cursor is superimposed on the object displayed on the display unit. When the fifth pointing data for instructing the movement of the object following the movement by the hand or finger after recognition is generated, and the movement of the first form by the hand or finger is subsequently detected, the object is detected. 38. The input device according to claim 34, further comprising a drag-and-drop control unit that generates the sixth pointing data for instructing a drop. 前記共通処理基板は、2つの前記手若しくは指がそれぞれ前記第1の形態の動きを行うのを検出すると2点カーソルを表示し、前記第1の形態の動きを行う前記手若しくは指の間隔が拡大又は縮小されるのに応じて前記2点カーソルの間隔を拡大又は縮小表示し、前記第1の形態の動きの停止にて前記2点カーソルの間隔に応じて前記ディスプレイ部の拡大表示又は縮小表示を指示する第7の前記ポインティングデータを生成する画面拡大・縮小制御部を備えたことを特徴とする請求項34乃至請求項38の何れか一つに記載の入力装置。   The common processing board displays a two-point cursor when it detects that the two hands or fingers perform the movement of the first form, and the distance between the hands or fingers performing the movement of the first form is The interval between the two-point cursors is enlarged or reduced according to the enlargement or reduction, and the display unit is enlarged or reduced according to the interval between the two-point cursors when the movement of the first mode is stopped. 39. The input apparatus according to claim 34, further comprising a screen enlargement / reduction control unit that generates the seventh pointing data for instructing display. 前記共通処理基板は、2つの前記手若しくは指がそれぞれ前記第1の形態の動きを行うのを検出すると前記2点カーソルを表示すると共に、前記第1の形態の動きを行う前記手若しくは指の相対位置の上下の変化に応じて前記2点カーソルの相対位置を上下に変化させて表示し、前記第1の形態の動きの停止にて前記2点カーソルの上下の位置関係に応じて前記ディスプレイ部の表示の右回転又は左回転を指示する第8の前記ポインティングデータを生成する画面回転制御部を備えたことを特徴とする請求項34乃至請求項39の何れか一つに記載の入力装置。   The common processing board displays the two-point cursor when detecting that the two hands or fingers perform the movement of the first form, respectively, and also displays the two-point cursor of the hands or fingers performing the movement of the first form. Displaying the relative position of the two-point cursor up and down in accordance with the up-and-down change in the relative position, and displaying the display in accordance with the up-and-down positional relationship of the two-point cursor when the movement of the first mode is stopped 40. The input device according to claim 34, further comprising a screen rotation control unit that generates the eighth pointing data for instructing a right rotation or a left rotation of the display of the unit. . 前記ディスプレイ部は、前記撮像装置による前記操作者の画像を透過表示することを特徴とする請求項34乃至請求項40の何れか一つに記載の入力装置。   41. The input device according to claim 34, wherein the display unit transparently displays an image of the operator by the imaging device. 前記ディスプレイ部は、前記操作者が操作指示の動きをしているとき前記画像を透過表示することを特徴とする請求項41に記載の入力装置。   42. The input device according to claim 41, wherein the display unit transparently displays the image when the operator is performing an operation instruction. 前記ディスプレイ部は、前記操作者が前記手若しくは指の動きにて行う操作指示のエフェクトを表示することを特徴とする請求項34乃至請求項42の何れか一つに記載の入力装置。   The input device according to any one of claims 34 to 42, wherein the display unit displays an effect of an operation instruction performed by the operator by the movement of the hand or the finger.
JP2011139984A 2011-04-28 2011-06-24 Input device Withdrawn JP2012238293A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011139984A JP2012238293A (en) 2011-04-28 2011-06-24 Input device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011101395 2011-04-28
JP2011101395 2011-04-28
JP2011139984A JP2012238293A (en) 2011-04-28 2011-06-24 Input device

Publications (1)

Publication Number Publication Date
JP2012238293A true JP2012238293A (en) 2012-12-06

Family

ID=47461102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011139984A Withdrawn JP2012238293A (en) 2011-04-28 2011-06-24 Input device

Country Status (1)

Country Link
JP (1) JP2012238293A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041381A (en) * 2013-08-21 2015-03-02 株式会社リコー Method and system of detecting moving object
WO2015030264A1 (en) * 2013-08-30 2015-03-05 国立大学法人山梨大学 Device, method, and program for detecting click operation
WO2015075767A1 (en) * 2013-11-19 2015-05-28 日立マクセル株式会社 Projection-type video display device
WO2016103769A1 (en) * 2014-12-26 2016-06-30 株式会社ネクステッジテクノロジー Manipulation input device, manipulation input method, and program
JP2016186656A (en) * 2016-07-13 2016-10-27 日立マクセル株式会社 Projection type image display apparatus
WO2018048043A1 (en) * 2016-09-09 2018-03-15 주식회사 토비스 Space touch recognition method and space touch recognition device using same
WO2018105246A1 (en) * 2016-12-07 2018-06-14 ソニーセミコンダクタソリューションズ株式会社 Image sensor
WO2018105248A1 (en) * 2016-12-07 2018-06-14 ソニーセミコンダクタソリューションズ株式会社 Image sensor
CN115376394A (en) * 2022-08-09 2022-11-22 苏州华恒展览设计营造有限公司 Virtual electronic page turning system

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041381A (en) * 2013-08-21 2015-03-02 株式会社リコー Method and system of detecting moving object
WO2015030264A1 (en) * 2013-08-30 2015-03-05 国立大学法人山梨大学 Device, method, and program for detecting click operation
CN108664173A (en) * 2013-11-19 2018-10-16 麦克赛尔株式会社 projection-type image display device
WO2015075767A1 (en) * 2013-11-19 2015-05-28 日立マクセル株式会社 Projection-type video display device
JP5973087B2 (en) * 2013-11-19 2016-08-23 日立マクセル株式会社 Projection-type image display device
US10191594B2 (en) 2013-11-19 2019-01-29 Maxell, Ltd. Projection-type video display device
US9927923B2 (en) 2013-11-19 2018-03-27 Hitachi Maxell, Ltd. Projection-type video display device
US9836130B2 (en) 2014-12-26 2017-12-05 Nextedge Technology K.K. Operation input device, operation input method, and program
JPWO2016103769A1 (en) * 2014-12-26 2017-11-02 株式会社ネクステッジテクノロジー Operation input device, operation input method and program
WO2016103769A1 (en) * 2014-12-26 2016-06-30 株式会社ネクステッジテクノロジー Manipulation input device, manipulation input method, and program
JP2016186656A (en) * 2016-07-13 2016-10-27 日立マクセル株式会社 Projection type image display apparatus
WO2018048043A1 (en) * 2016-09-09 2018-03-15 주식회사 토비스 Space touch recognition method and space touch recognition device using same
WO2018105246A1 (en) * 2016-12-07 2018-06-14 ソニーセミコンダクタソリューションズ株式会社 Image sensor
WO2018105248A1 (en) * 2016-12-07 2018-06-14 ソニーセミコンダクタソリューションズ株式会社 Image sensor
US10904429B2 (en) 2016-12-07 2021-01-26 Sony Semiconductor Solutions Corporation Image sensor
CN115376394A (en) * 2022-08-09 2022-11-22 苏州华恒展览设计营造有限公司 Virtual electronic page turning system
CN115376394B (en) * 2022-08-09 2024-03-26 苏州华恒展览设计营造有限公司 Virtual electronic page turning system

Similar Documents

Publication Publication Date Title
US20220382379A1 (en) Touch Free User Interface
JP2012238293A (en) Input device
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
JP6372487B2 (en) Information processing apparatus, control method, program, and storage medium
US10234955B2 (en) Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program
US20140184494A1 (en) User Centric Interface for Interaction with Visual Display that Recognizes User Intentions
US20140240225A1 (en) Method for touchless control of a device
US20150145762A1 (en) Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program
CN115016678A (en) Display device
US9544556B2 (en) Projection control apparatus and projection control method
JP6344530B2 (en) Input device, input method, and program
US9836130B2 (en) Operation input device, operation input method, and program
US9081430B2 (en) Pointing control device, integrated circuit thereof and pointing control method
WO2021097600A1 (en) Inter-air interaction method and apparatus, and device
EP3617851B1 (en) Information processing device, information processing method, and recording medium
US20150277570A1 (en) Providing Onscreen Visualizations of Gesture Movements
WO2011096571A1 (en) Input device
KR101426378B1 (en) System and Method for Processing Presentation Event Using Depth Information
WO2018150569A1 (en) Gesture recognition device, gesture recognition method, projector equipped with gesture recognition device and video signal supply device
TWI499938B (en) Touch control system
US20220244788A1 (en) Head-mounted display
TW201709022A (en) Non-contact control system and method
TW201925989A (en) Interactive system
KR20160045945A (en) Bidirectional interactive user interface based on projector
KR20150137908A (en) Holography touch method and Projector touch method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902