JP2012238293A - Input device - Google Patents
Input device Download PDFInfo
- Publication number
- JP2012238293A JP2012238293A JP2011139984A JP2011139984A JP2012238293A JP 2012238293 A JP2012238293 A JP 2012238293A JP 2011139984 A JP2011139984 A JP 2011139984A JP 2011139984 A JP2011139984 A JP 2011139984A JP 2012238293 A JP2012238293 A JP 2012238293A
- Authority
- JP
- Japan
- Prior art keywords
- movement
- image
- cursor
- input device
- operator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、情報端末装置やパーソナルコンピュータなどの情報機器に接続されて使用され、カメラ等による撮像装置によって操作者の動作画像を取り込み、情報機器のカーソル操作やアプリケーションプログラムの選択及び実行などを制御する入力装置に関する。 The present invention is used by being connected to an information device such as an information terminal device or a personal computer, takes an operation image of an operator by an imaging device such as a camera, and controls cursor operation of the information device and selection and execution of an application program. It relates to an input device.
近年、カメラで操作者を撮影して画像解析し、この画像解析結果を使用してオーディオ装置、エアコンなどの機器を操作する入力装置が種々、提案されている。 In recent years, various input devices have been proposed in which an operator is photographed with a camera, image analysis is performed, and an audio device, an air conditioner, or the like is operated using the image analysis result.
例えば、カメラ等の撮像装置が撮影した画像から手領域を抽出すると共に、その手の形状がどのような形状(手を傾ける、指を曲げるなど)になっているかを判定し、この判定内容に対応する手操作指示を音声、又はプロジェクト画像などで操作者に知らせるものである。 For example, a hand region is extracted from an image captured by an imaging device such as a camera, and the shape of the hand (such as tilting a hand or bending a finger) is determined. A corresponding manual operation instruction is notified to the operator by voice or a project image.
ところで、カメラにより操作者の動作を捉える此の種の入力装置では、操作者とノイズとなる背景とを正確に識別しなければならない。そのため、余分な背景を画像に取り込まないような技術が従来から提案されている。 By the way, in this type of input device that captures the operation of the operator by the camera, it is necessary to accurately identify the operator and the background that causes noise. For this reason, techniques that do not capture an excessive background in an image have been proposed.
例えば、赤外光を照射し、これと同期した動作をするイメージセンサを用いて、物体反射光のみを画像として取り出す入力装置が知られている。反射光の強さは一般的に物体までの距離の2乗に反比例するために、距離のある背景の物体は反射光が届かないことから、近くの物体が遠くの背景から容易に区別することができることを利用して、関係ない動きなどによる誤動作を小さくしようとするものである(例えば、特許文献1を参照)。 For example, an input device that extracts only object reflected light as an image using an image sensor that irradiates infrared light and operates in synchronization with the infrared light is known. Because the intensity of the reflected light is generally inversely proportional to the square of the distance to the object, objects in the background with a distance do not reach the reflected light, so nearby objects can be easily distinguished from the background in the distance. It is intended to reduce malfunctions due to unrelated movements by utilizing the fact that it can be performed (see, for example, Patent Document 1).
また、赤外線カメラを用いて遠赤外線は撮像範囲の温度分布を撮像する装置を有する入力装置も知られている。この従来技術は、手を赤外線カメラの前にかざすと、手から放射されて赤外線カメラに入射する手の表面の温度に対応した遠赤外線は、手が近いほど赤外線カメラへの入射光量が増え、遠くなるほど入射光量が少なくなって、手と赤外線カメラとの距離の2乗に反比例することを利用して余分な背景を取り込まないようにするものである(例えば、特許文献2を参照)。 There is also known an input device having a device for imaging the temperature distribution of the imaging range of far-infrared rays using an infrared camera. In this conventional technology, when the hand is held in front of the infrared camera, the far infrared ray corresponding to the temperature of the surface of the hand that is emitted from the hand and enters the infrared camera increases the amount of incident light to the infrared camera as the hand is closer, Increasing the distance reduces the amount of incident light and uses the fact that it is inversely proportional to the square of the distance between the hand and the infrared camera so as not to capture an extra background (see, for example, Patent Document 2).
上記した従来技術においては、特殊なセンサやカメラを必要とし、しかも操作者と背景とが接近している場合には背景もノイズとして取り込むために、誤動作を引き起こす問題点がある。 The above-described prior art requires a special sensor or camera, and when the operator and the background are close to each other, the background is also captured as noise, which causes a malfunction.
よって本発明は、操作者とノイズとなる背景とを正確に識別して、カメラの撮影範囲内で操作者に近い位置にいる人が手を動かした場合でも、誤動作しない入力装置を提供することを目的としている。 Therefore, the present invention provides an input device that accurately identifies an operator and a background that causes noise and does not malfunction even when a person close to the operator moves within the shooting range of the camera. It is an object.
上記課題を達成するため本発明は、撮像装置で得られた操作者の画像を処理して、操作者の動作内容に応じた操作指示を生成する入力装置であって、右眼用撮像装置と、前記右眼用撮像装置から所定の間隔を置いた位置に、前記右眼用撮像装置と並んで配置される左眼用撮像装置と、被写体に対する前記右眼用撮像装置と前記左眼用撮像装置の画像から両眼視差法により前記被写体までの距離を測定する距離測定手段と、前記右眼用撮像装置と前記左眼用撮像装置との間の前記間隔に基づいて両眼視差法により割り出して予め設定してある奥行き距離と前記距離測定手段が測定した前記被写体までの距離とを比較し、前記被写体までの距離と前記奥行き距離とが所定の許容範囲内で一致している前記被写体を選択して前記操作者と判別する被写体判別手段と、前記被写体判別手段が判別した前記被写体の動きを検出し、この検出結果に応じた操作指示を生成する操作指示生成手段と、を備えたことを特徴としている。 In order to achieve the above object, the present invention is an input device that processes an operator's image obtained by an imaging device and generates an operation instruction according to the operation content of the operator. , A left-eye imaging device arranged in parallel with the right-eye imaging device at a predetermined distance from the right-eye imaging device, the right-eye imaging device and the left-eye imaging for a subject A distance measuring unit that measures a distance from the image of the apparatus to the subject by a binocular parallax method, and an index by the binocular parallax method based on the interval between the right eye imaging device and the left eye imaging device The depth distance set in advance and the distance to the subject measured by the distance measuring means are compared, and the subject in which the distance to the subject and the depth distance match within a predetermined allowable range is determined. Select the target to be identified as the operator And body determination means, said detecting movement of the subject object determining means has determined, is characterized by comprising an operation instruction generating means for generating an operation instruction corresponding to the detection result.
そして、前記操作指示の認識結果を表示するディスプレイ部を具備し、前記操作指示生成手段は、カーソルの表示待機中に前記操作者の手若しくは指による第1の形態の動きを検出すると前記ディスプレイ部に前記仮想カーソルを第1の状態で表示し、該第1の状態での表示中に前記手若しくは指による前記第1の動きが停止又は前記第1の動きが小さくなるのを検出すると前記仮想カーソルを第2の状態で表示すると共に、実カーソルを表示するカーソル表示制御手段を備えたことを特徴としている。 A display unit configured to display a recognition result of the operation instruction, and the operation instruction generation unit detects the movement of the first form by the operator's hand or finger while waiting to display a cursor; The virtual cursor is displayed in the first state, and when the first movement by the hand or finger is stopped or the first movement is detected during the display in the first state, the virtual cursor is displayed. In addition to displaying the cursor in the second state, a cursor display control means for displaying the actual cursor is provided.
そして、前記操作指示生成手段は、前記仮想カーソルが前記第2の状態で表示されているときに、前記手若しくは指が前記第1の形態の動きをすると、その手若しくは指の位置に前記カーソルの移動を指示する第1の信号を生成するカーソル移動制御手段を備えたことを特徴としている。 Then, when the hand or finger moves in the first form when the virtual cursor is displayed in the second state, the operation instruction generating means moves the cursor to the position of the hand or finger. Cursor movement control means for generating a first signal for instructing the movement is provided.
そして、前記操作指示生成手段は、前記仮想カーソルが前記第1の状態で表示されているときに、前記手若しくは指による第2の形態の動きを検出するとクリック操作と認識する第2の信号を生成し、第2の形態の動きに続く第3の形態の動きを検出するとダブルクリック操作と認識する第3の信号を生成するクリック制御手段を備えたことを特徴としている。 Then, the operation instruction generating means generates a second signal that recognizes a click operation when detecting the movement of the second form by the hand or the finger when the virtual cursor is displayed in the first state. When the movement of the third form following the movement of the second form is detected, click control means for generating a third signal that is recognized as a double click operation is provided.
そして、前記操作指示生成手段は、前記仮想カーソルが前記第1の状態で表示されているときに、前記手若しくは指による第4の形態の動きを検出すると、前記ディスプレイ部の画面スクロールを指示する第4の信号を生成する画面スクロール制御手段を備えたことを特徴としている。 Then, the operation instruction generating means instructs to scroll the screen of the display unit when detecting the movement of the fourth form by the hand or the finger when the virtual cursor is displayed in the first state. A screen scroll control means for generating a fourth signal is provided.
そして、前記操作指示生成手段は、前記ディスプレイ部に表示されたオブジェクトに前記実カーソルが重ねられた状態で前記手若しくは指による第5の形態の動きを検出すると前記オブジェクトがドラッグの対象オブジェクトであることを認識し、認識後の前記手若しくは指による移動に追随した前記オブジェクトの移動を指示する第5の信号を生成し、続いて前記手若しくは指による前記第1形態での動きを検出すると前記オブジェクトのドロップを指示する第6の信号を生成するドラッグアンドドロップ制御手段を備えたことを特徴としている。 When the operation instruction generating unit detects the movement of the fifth form by the hand or the finger while the real cursor is superimposed on the object displayed on the display unit, the object is a drag target object. And when the movement of the first form by the hand or finger is detected, the fifth signal instructing the movement of the object following the movement by the hand or finger after the recognition is generated. A drag-and-drop control means for generating a sixth signal instructing to drop the object is provided.
そして、前記操作指示生成手段は、2つの前記手若しくは指がそれぞれ前記第1の形態の動きを行うのを検出すると2点カーソルを表示し、前記第1の形態の動きを行う前記手若しくは指の間隔が拡大又は縮小されるのに応じて前記2点カーソルの間隔を拡大又は縮小表示し、前記第1の形態の動きの停止にて前記2点カーソルの間隔に応じて前記ディスプレイ部の拡大表示又は縮小表示を指示する第7の信号を生成する画面拡大・縮小制御手段を備えたことを特徴としている。 When the operation instruction generating unit detects that the two hands or fingers perform the movement of the first form, the operation instruction generating unit displays a two-point cursor, and the hand or finger performing the movement of the first form. The interval between the two-point cursors is enlarged or reduced according to the interval between the two points being enlarged or reduced, and the display unit is enlarged according to the interval between the two-point cursors when the movement of the first mode is stopped. A screen enlargement / reduction control means for generating a seventh signal instructing display or reduction display is provided.
そして、前記操作指示生成手段は、2つの前記手若しくは指がそれぞれ前記第1の形態の動きを行うのを検出すると前記2点カーソルを表示すると共に、前記第1の形態の動きを行う前記手若しくは指の相対位置の上下の変化に応じて前記2点カーソルの相対位置を上下に変化させて表示し、前記第1の形態の動きの停止にて前記2点カーソルの上下の位置関係に応じて前記ディスプレイ部の表示の右回転又は左回転を指示する第8の信号を生成する画面回転制御手段を備えたことを特徴としている。 Then, the operation instruction generating means displays the two-point cursor when detecting that the two hands or fingers respectively perform the movement of the first form and displays the two-point cursor and the hand performing the movement of the first form. Alternatively, the relative position of the two-point cursor is changed up and down in accordance with the up-and-down change in the relative position of the finger, and depending on the up-and-down positional relationship of the two-point cursor when the movement of the first form is stopped. And a screen rotation control means for generating an eighth signal for instructing a right rotation or a left rotation of the display on the display unit.
また、前記ディスプレイ部は、前記撮像装置による前記操作者の画像を透過表示することを特徴としている。更に、前記ディスプレイ部は、前記操作者が操作指示の動きをしているとき前記画像を透過表示することを特徴としている。 Further, the display unit displays the operator's image by the imaging device in a transparent manner. Further, the display unit is characterized in that the image is transparently displayed when the operator is moving the operation instruction.
また、前記ディスプレイ部は、前記操作者が前記手若しくは指の動きにて行う操作指示のエフェクトを表示することを特徴としている。 The display unit may display an effect of an operation instruction performed by the operator by the movement of the hand or finger.
本発明の入力装置は、ビデオカメラで得られた操作者の画像を処理して、操作者の動作内容に応じた操作指示を生成する入力装置であって、右眼用カラーカメラと、前記右眼用カラーカメラから所定距離だけ離れた位置に、前記右眼用カラーカメラと並んで配置される左眼用カラーカメラと、被写体を捉えた前記右眼用カラーカメラから出力されるカラー画像に対し、グレー化処理、画像分割/2値化処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を行い、前記操作者の右眼側活動矩形領域を抽出する右眼側画像処理プログラムと、前記被写体を捉えた前記左眼用カラーカメラから出力されるカラー画像に対し、グレー化処理、画像分割/2値化処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を行い、前記操作者の左眼側活動矩形領域を抽出する左眼側画像処理プログラムと、前記右眼側画像処理プログラムで得られた右眼側活動矩形領域の座標軸と前記左眼側画像処理プログラムで得られた左眼側活動矩形領域の座標軸との中心座標距離を演算することで両眼視差法による前記被写体までの距離を測定し、測定した前記被写体までの距離を前記右眼用撮像装置と前記左眼用撮像装置との間の前記間隔に基づいて両眼視差法により割り出して予め設定してある奥行き距離と比較し、前記被写体までの距離と前記奥行き距離とが所定の許容範囲内で一致している前記右眼活動矩形領域及び前記左眼活動矩形領域を前記操作者による活動矩形領域として選択する活動領域選択処理プログラムと、前記活動領域選択処理プログラムにて選択された活動矩形領域に対し、仮想カーソル制御処理/画面制御処理を行って、前記被写体の手、又は指先の動きを検出し、この検出結果に応じた操作指示を生成する画像処理プログラムと、を備えたことを特徴としている。 An input device according to the present invention is an input device that processes an operator's image obtained by a video camera and generates an operation instruction according to an operation content of the operator, and includes a right-eye color camera and the right eye For a color image output from the color camera for the left eye that is arranged alongside the color camera for the right eye at a position that is a predetermined distance away from the color camera for the eye, and the color image for the right eye that captures the subject A right eye side image processing program for performing graying processing, image division / binarization processing, inter-frame difference processing, histogram processing, activity rectangle area extraction processing, and extracting the right eye side activity rectangle area of the operator; Gray image processing, image segmentation / binarization processing, inter-frame difference processing, histogram processing, active rectangular area extraction processing for a color image output from the left-eye color camera capturing the subject A left-eye side image processing program for extracting the left-eye side activity rectangular region of the operator, a coordinate axis of the right-eye side activity rectangular region obtained by the right-eye side image processing program, and the left-eye side image processing program The distance to the subject is measured by the binocular parallax method by calculating the center coordinate distance with the coordinate axis of the left-eye side active rectangular area obtained in step, and the measured distance to the subject is the right-eye imaging device. The distance to the subject and the depth distance are within a predetermined allowable range compared with the depth distance that is determined by the binocular parallax method based on the distance between the imaging device for the left eye and the left-eye imaging device. Selected by the activity region selection processing program and the activity region selection processing program for selecting the right-eye activity rectangular region and the left-eye activity rectangular region that are coincident with each other as the activity rectangular region by the operator An image processing program for performing a virtual cursor control process / screen control process on the active rectangle area detected to detect the movement of the hand or fingertip of the subject and to generate an operation instruction according to the detection result; It is characterized by having prepared.
そして、前記仮想カーソル制御処理/画面制御処理は、仮想カーソル活動領域画像上に活動矩形領域群が1つあるとき、その形状、移動有無に基づき、カールソル制御指示、又は画面スクロール指示を生成することを特徴としている。一方、前記仮想カーソル制御処理/画面制御処理は、仮想カーソル活動領域画像上に活動矩形領域群が2つあるとき、その移動方向に基づき、画面回転指示、画面拡大指示、画面縮小指示の何れかを生成することを特徴としている。 In the virtual cursor control process / screen control process, when there is one active rectangular area group on the virtual cursor active area image, a Carlsol control instruction or a screen scroll instruction is generated based on the shape and presence / absence of movement. It is characterized by. On the other hand, when there are two active rectangle area groups on the virtual cursor active area image, the virtual cursor control process / screen control process is any one of the screen rotation instruction, the screen enlargement instruction, and the screen reduction instruction based on the moving direction. It is characterized by generating.
そして、前記活動矩形領域抽出処理は、ヒストグラムの統計処理結果を使用して、前記ヒストグラムから仮想カーソル活動領域画像を作成することを特徴としている。また、前記活動矩形領域抽出処理は、前記仮想カーソル活動領域画像に対し、多段階矩形オブジェクト抽出処理を行い、ノイズ成分を除去することを特徴としている。 The active rectangular area extracting process is characterized in that a virtual cursor active area image is created from the histogram using a histogram statistical processing result. The active rectangular area extraction process is characterized in that a multi-stage rectangular object extraction process is performed on the virtual cursor active area image to remove noise components.
また、拡大/縮小矩形マスク作成処理を付加し、前記拡大/縮小矩形マスク作成処理によって、前記カラーカメラで得られたカラー画像の中から、前記仮想カーソル活動領域画像上の変化領域矩形に対応する画像を抽出し、それ以外の画像をカットして、ノイズ成分を除去することを特徴としている。 Further, an enlargement / reduction rectangle mask creation process is added, and a change area rectangle on the virtual cursor active area image is selected from the color images obtained by the color camera by the enlargement / reduction rectangle mask creation process. It is characterized by extracting an image and cutting other images to remove noise components.
本発明の入力装置は、ビデオカメラで得られた操作者の画像を処理して、操作者の動作内容に応じた操作指示を生成し、遠隔操作対象機器の動作を制御する入力装置であって、箱形に形成される入力装置筐体と、この入力装置筐体の前面左側に取り付けられる右眼用カラーカメラ本体と、前記入力装置筐体の前面右側に取り付けられる左眼用カラーカメラ本体と、前記入力装置筐体内に配置され、グレー化処理回路、画像分割/2値化処理回路、フレーム間差分処理回路、ヒストグラム処理回路、活動矩形領域抽出処理回路によって、前記右眼用カラーカメラ本体から出力されるカラー画像を処理して、前記操作者の右眼側活動矩形領域を抽出する右眼側画像処理基板と、前記入力装置筐体内に配置され、グレー化処理回路、画像分割/2値化処理回路、フレーム間差分処理回路、ヒストグラム処理回路、活動矩形領域抽出処理回路によって、前記左眼用カラーカメラ本体から出力されるカラー画像を処理して、前記操作者の左眼側活動矩形領域を抽出する左眼側画像処理基板と、前記入力装置筐体内に配置され、活動矩形領域選択処理回路、仮想カーソル制御処理/画面制御処理回路によって、両眼視差法を使用して、前記右眼側画像処理プログラムで得られた右眼側活動矩形領域の座標軸と前記左眼側画像処理プログラムで得られた左眼側活動矩形領域の座標軸とから被写体までの距離を演算することで両眼視差法による前記被写体までの距離を測定し、前記被写体までの距離を前記右眼用撮像装置と前記左眼用撮像装置との間の前記間隔に基づいて両眼視差法により割り出して予め設定してある奥行き距離と比較し、前記被写体までの距離と前記奥行き距離とが所定の許容範囲内で一致している前記右眼活動矩形領域及び前記左眼活動矩形領域を前記操作者による活動矩形領域として選択し、選択した前記活動矩形領域に仮想カーソル制御処理/画面制御処理を行って、前記被写体の手、又は指先の動きを検出し、この検出結果に応じたポインティングデータを生成し、遠隔操作対象機器の動作を制御する共通処理基板と、を備えることを特徴としている。 An input device according to the present invention is an input device that processes an image of an operator obtained by a video camera, generates an operation instruction according to the operation content of the operator, and controls the operation of a remote operation target device. An input device housing formed in a box shape, a color camera body for the right eye attached to the front left side of the input device housing, and a color camera body for the left eye attached to the front right side of the input device housing Arranged in the housing of the input device and separated from the right-eye color camera body by a graying processing circuit, an image division / binarization processing circuit, an inter-frame difference processing circuit, a histogram processing circuit, and an active rectangular area extraction processing circuit. A right eye side image processing board that processes the output color image and extracts the right eye side activity rectangular area of the operator, and is arranged in the input device casing, and is a graying processing circuit, image segmentation / binary value A color image output from the color camera body for the left eye is processed by a processing circuit, an inter-frame difference processing circuit, a histogram processing circuit, and an active rectangular area extraction processing circuit, and the left-eye active rectangular area of the operator is processed. Left eye side image processing board to be extracted and placed in the input device casing, and the right eye side using binocular parallax method by an active rectangular area selection processing circuit, virtual cursor control processing / screen control processing circuit Binocular disparity method by calculating the distance from the coordinate axis of the right eye side activity rectangular area obtained by the image processing program and the coordinate axis of the left eye side activity rectangular area obtained by the left eye side image processing program to the subject The distance to the subject is measured by the binocular parallax method based on the distance between the right-eye imaging device and the left-eye imaging device. The right eye activity rectangular area and the left eye activity rectangular area in which the distance to the subject and the depth distance match within a predetermined tolerance range are compared with the depth distance set in advance by the operator. Select as the activity rectangular area, perform virtual cursor control processing / screen control processing on the selected activity rectangular area, detect the movement of the hand or fingertip of the subject, and generate pointing data according to the detection result And a common processing board for controlling the operation of the remote operation target device.
本発明によると、操作者の動作を認知するカメラの視野内での空間の奥行きを狭く設定することで操作者と背景とを確実に識別するために、操作者以外の人の手の動きにて誤って入力されることがない。しかも、カメラ視野を設定することでかかる識別を行うために、特殊なセンサやカメラを用いずに通常のカメラにて精度の高い入力装置が提供される。 According to the present invention, in order to reliably identify the operator and the background by setting the depth of the space in the field of view of the camera for recognizing the operation of the operator, the movement of the hand of a person other than the operator is detected. Will not be entered by mistake. In addition, in order to perform such identification by setting the camera field of view, a highly accurate input device is provided with a normal camera without using a special sensor or camera.
図1は、本発明による入力装置1aの第1の実施の形態を示すブロック図で、Aは被写体を撮影するウェブカメラ或いはビデオカメラなどの可視光カメラによる右眼用撮像装置、Bはこの右眼用撮像装置Aから所定の間隔を置いた位置に、右眼用撮像装置と並んで配置され、被写体を撮影するウェブカメラ或いはビデオカメラなどの可視光カメラによる左眼用撮像装置である。Cは右眼用撮像装置A及び左眼用撮像装置Bから取り込んだ被写体の画像から両眼視差によりこの被写体までの距離を測定する距離測定手段、Dは右眼用撮像装置A及び左眼用撮像装置Bとの間の間隔に基づいて予め設定してある両眼視差法による奥行き距離と距離測定手段Cが測定した被写体までの距離とを比較することで被写体が操作者であるかを判定する被写体判別手段である。そして、Eは被写体判別手段Dが被写体を操作者と判定したとき、被写体の手、又は指先の動きを検出し、この検出結果に応じた操作指示を生成する操作指示生成手段である。
FIG. 1 is a block diagram showing a first embodiment of an
本発明の入力装置1aは、右眼用撮像装置A及び左眼用撮像装置Bからの視野内での空間の奥行きを狭く設定するために、横方向に並べて配置した右眼用撮像装置A及び左眼用撮像装置Bの間隔から両眼視差により割り出した被写体までの奥行き距離を予め検知領域に設定している。そして、右眼用撮像装置A及び左眼用撮像装置Bが実際の被写体を捉えると、距離測定手段Cは撮像装置A、Bから取り込んだ被写体の画像から両眼視差によりこの被写体までの距離を測定する。そして、被写体判別手段Dは、距離測定手段Cが測定した被写体めでの距離と予め設定している奥行き距離とを比較し、許容誤差範囲内で一致していればこの被写体は操作者であると判断し、操作指示生成手段Eは、操作者の手、又は指先の動きを検出し、この検出結果に応じたパソコン(図示せず)への操作指示を生成する。
The
このように本発明による入力装置1aは、両眼視差法で得られた被写体までの距離を評価することで背景画像と区別して、操作者が撮像装置から一定の距離範囲で手や指先を動かしたかどうかを判別するものである。
As described above, the
被写体(操作者)とパソコンと撮像装置A、Bとの位置関係を模式的に示す図2にて更に説明すると、図2の(ア)部は、各撮像装置A、Bの設置位置から所定距離範囲、例えば“0.3m”〜“0.8m”の範囲内にいる操作者とそれ以外の距離にいる他の人を区別している。そして、図2の(イ)部及び(ウ)部で示すように、距離範囲dを小さくしていくと、操作者の手、指先などの動きを検知する領域が空間から平面へと近づく。そして、距離dを、右眼用撮像装置A及び左眼用撮像装置Bの間隔から両眼視差法により割り出した被写体までの奥行き距離に略一致するまで小さく設定すると、図2の(ウ)部にて示されるような仮想タッチスクリーンFが操作者と撮像装置A、Bとの間に形成される。仮想タッチスクリーンFは、撮像装置からの視野内の平面に操作者が指先を差し込むことでその座標を検出し、パソコン2のディスプレイ部にマッピングするのと同じような機能を達成する。
The positional relationship among the subject (operator), the personal computer, and the imaging devices A and B will be further described with reference to FIG. 2, where (a) in FIG. An operator who is in a distance range, for example, “0.3 m” to “0.8 m”, is distinguished from other persons who are at other distances. Then, as shown by (a) and (c) in FIG. 2, when the distance range d is reduced, the region for detecting the movement of the operator's hand, fingertip, etc. approaches from the space to the plane. When the distance d is set to be small until it substantially matches the depth distance from the interval between the right-eye imaging device A and the left-eye imaging device B to the subject determined by the binocular parallax method, Is formed between the operator and the imaging devices A and B. The virtual touch screen F achieves a function similar to that when the operator inserts a fingertip into a plane in the field of view from the imaging device to detect the coordinates and map the coordinates on the display unit of the
従って、奥行き距離を外れた空間で操作者が手、指先などを動かし、この画像が撮像装置A、Bで撮像されても、仮想タッチスクリーンFへの入力動作とは見做さず、被写体判別手段Dでは無視されるために操作判定手段Eでは入力動作として検出されることがない。このような仮想タッチスクリーンを備えた入力装置1aは、仮想タッチスクリーンF上での以外の背景の動作は全て無効となるために、入力装置としての動作が確実となる。両眼視差法に依ると、横方向に並べた撮像装置A、Bの間隔が凡そ5cmで奥行き距離は1cmとなる。
Therefore, even if the operator moves his / her hand, fingertip, etc. in a space outside the depth distance and this image is picked up by the image pickup devices A and B, it is not regarded as an input operation to the virtual touch screen F, and subject discrimination is performed. Since it is ignored by the means D, it is not detected as an input operation by the operation determination means E. Since the
図3は図1による入力装置1aの具体的な構成例をブロック図にて示している。この図に示す入力装置1aは、パソコン2のディスプレイ部3に設けられる左眼用撮像装置である内蔵型のウェブカメラ4と、パソコン2内に設けられるビデオキャプチャ5と、パソコン2のディスプレイ部3に設けられる右眼用撮像装置である外付け型のウェブカメラ6と、パソコン2内に設けられるUSBインタフェース7と、パソコン2内に設けられるハードディスク8と、パソコン2内に設けられるCPU9と、パソコン2内に設けられるメモリ10とによって構成されている。入力装置1aは、各ウェブカメラ4,6で得られたカラー画像について両眼視差法を用いて解析し、各ウェブカメラ4、6の設置位置からの距離に基づいて、操作者とそれ以外の距離にいる他の人とを区別しながら、操作者の手、指先などの動きのみを検出し、パソコン2のディスプレイ部3に表示された仮想カーソル25〔図27の(b)参照〕、操作対象画面(OS画面、アプリケーション画面)などを制御し、現在、起動中のアプリケーションをコントロールする。
FIG. 3 is a block diagram showing a specific configuration example of the
ウェブカメラ4は、320画素×240画素程度の解像度を持つカラーカメラであり、ビデオキャプチャ5から撮影指示が出されているとき、操作者を撮影して得られたカラービデオ信号をビデオキャプチャ5に供給する。
The
ビデオキャプチャ5は、システムバス12を介して、CPU9から撮影指示が出されているとき、ウェブカメラ4を制御して操作者を撮影すると共に、撮影動作で得られたカラービデオ信号を取り込み、RGB信号形式のカラー画像に変換してCPU9に供給する。
When a shooting instruction is issued from the CPU 9 via the
また、ウェブカメラ6は、ウェブカメラ4から水平方向に所定距離だけ離れてディスプレイ部3の上縁などに取り付けられた、320画素×240画素程度の解像度を持つカラーカメラであり、USBインタフェース7から撮影指示が出されているとき、操作者を撮影して得られたYUV信号をUSBインタフェース7に供給する。
The
USBインタフェース7は、システムバス12を介して、CPU9から撮影指示が出されているとき、ウェブカメラ6を制御して操作者の画像を撮影すると共に、撮影動作で得られたYUV信号を取り込んでCPU9に供給し、RGB信号形式のカラー画像に変換する。
The
ハードディスク8は、OS(Operating System)、定数データなどが格納されるOS格納エリア13と、インターネットエクスプローラプログラム、ブラウザプログラムなどのアプリケーションプログラムが格納されるアプリケーション格納エリア14と、本発明で使用する右眼側画像処理プログラム・左眼側画像処理プログラム・画像処理プログラムが格納される画像処理プログラム格納エリア15と、HSV(色相・彩度・明度)方式で、予め設定されている特定色(例えば、肌色)のカラー画像を抽出するのに必要なカラーマスク、2値化画像、ヒストグラム、仮想カーソル活動領域画像27(図17参照)、仮想ボタンクリック活動領域画像などが格納される画像格納エリア16とを備えている。そして、CPU9から読み出し指示が出力されたとき、システムバス12を介してこれを取り込み、指定されたエリアに格納されているOS、定数データ、アプリケーションプログラム、画像処理プログラム、2値化画像、ヒストグラム、仮想カーソル活動領域画像27、仮想ボタンクリック活動領域画像などを読み出し、システムバス12を介してCPU9に供給する。また、CPU9から書き込み指示、データが出力されたとき、システムバス12を介してこれらを取り込み、書き込み指示で指定されたエリア、例えば画像格納エリア16などにデータを記憶させる。
The hard disk 8 includes an
CPU9は、ハードディスク8に格納されているOS、定数データ、アプリケーションプログラムなどで指定された表示データを生成してシステムバス12に接続された表示インタフェース11に供給し、ディスプレイ部3に操作対象画面を表示させる。また、右眼側画像処理プログラム、左眼側画像処理プログラム、画像処理プログラムなどで記述された画像処理を行い、操作対象画面に表示されている仮想カーソルのサイズ、位置などの制御、クリック制御、スクロール制御、画面回転制御、画面拡大制御、画面縮小制御などを行う。
The CPU 9 generates display data specified by the OS, constant data, application program and the like stored in the hard disk 8 and supplies the display data to the
メモリ10は、数百メガバイト〜数ギガバイト程度の容量を持ち、CPU9がアプリケーションプログラム、右眼側画像処理プログラム、左眼側画像処理プログラム、画像処理プログラムなどで指定された処理を行うときの一時データ格納エリアとして使用される。
The
本発明による入力装置1aは操作者とウェブカメラ4,6との間に仮想タッチスクリーンを形成するものであるが、操作者はパソコン2のディスプレイ部3に向けて操作を行うために、操作者側から見ると操作者とディスプレイ部3との間に仮想タッチスクリーンが形成されていることになる。したがって、ウェブカメラ4,6の取り付け位置によっては、両方の仮想タッチスクリーンの位置が大きく異なるという問題がある。
The
例えば、ウェブカメラ4,6を天井から極端に下を向けた図4の(a)部で示すような場合などにおいては、カメラ視野からの仮想タッチスクリーン画面S1とディスプレイ部3に対する操作者視野からの仮想タッチスクリーン画面S2との座標軸が大きく異なるために、ウェブカメラ4,6からの画像を入力する入力装置1aは操作者がディスプレイ部3に向けて行う動作を正確に捉えることができないことがある。
For example, in the case where the
したがってウェブカメラ4,6の取り付け位置によっては、図4の(b)部で示すように、両眼のウェブカメラ4,6により得られたカメラ視野からの仮想タッチスクリーン画面S1の平面座標Pin=(x,y,d)を、操作者視野からの仮想タッチスクリーン画面S2の平面座標Pin=(X,Y,D)へ変換するのが好ましい。以下、この変換方法について説明する。
Therefore, depending on the attachment position of the
カメラ視野からの仮想タッチスクリーン画面S1の平面座標Pin=(x,y,d)を、操作者視野からの仮想タッチスクリーン画面S2の平面座標Pin=(X,Y,D)に変換を行うには、入力装置1aは操作者視野からの仮想タッチスクリーン画面S2の平面モデルを初期設定するための校正動作を行う必要がある。
The plane coordinate Pin = (x, y, d) of the virtual touch screen screen S1 from the camera view is converted into the plane coordinate Pin = (X, Y, D) of the virtual touch screen screen S2 from the operator view. The
《平面モデルの初期設定》
操作者がディスプレイ部3の前面に仮想タッチスクリーンがあると仮定して操作を行う平面モデルの初期設定について、図5のフローチャート及び図6の模式図に基づき説明する。
<Initial setting of planar model>
The initial setting of the planar model that the operator operates assuming that there is a virtual touch screen in front of the display unit 3 will be described based on the flowchart of FIG. 5 and the schematic diagram of FIG.
まず操作者は、視野上に見えるパソコン2のディスプレイ部3の画面上の左上、右上、左下の順番で3点P1,P2,P3をタップするが、CPU9はこれによりウェブカメラ4,6視野からの仮想タッチスクリーン画面S1上でのP1=(x1,y1,d1)、P2=(x2,y2,d2)、P3=(x3,y3,d3)をそれぞれ測定する(ステップS101)。ここで、x,y,dは次の通り。
x:ウェブカメラの画像上の横軸値
y:ウェブカメラの画像上の縦軸値
d:ウェブカメラからの距離
First, the operator taps three points P1, P2, and P3 in the order of upper left, upper right, and lower left on the screen of the display unit 3 of the
x: Horizontal axis value on the webcam image y: Vertical axis value on the webcam image d: Distance from the webcam
そして、CPU9は、仮想タッチスクリーン画面S1平面の法線ベクトルnを求める(ステップS102)。平面の法線ベクトルnは、入力3点を含む平面に直交するので、同時に3点内の任意の2点を結ぶベクトルに直交する。よって法線ベクトルnは、次式で求まる。最後にはノルムを1のベクトルに正規化する。
n=(P1−P2)×(P1−P3) (×は外積計算を示す)
And CPU9 calculates | requires the normal vector n of virtual touch screen screen S1 plane (step S102). Since the normal vector n of the plane is orthogonal to the plane including the three input points, it is orthogonal to the vector connecting any two of the three points simultaneously. Therefore, the normal vector n is obtained by the following equation. Finally, the norm is normalized to a vector of 1.
n = (P 1 −P 2 ) × (P 1 −P 3 ) (× indicates outer product calculation)
次に、CPU9は、仮想タッチスクリーン画面S1平面の位置ベクトルpを求める(ステップS103)。平面の位置ベクトルpは、平面上のどの点へのベクトルでも良いが、ここでは、仮想スクリーンの中心へのベクトルとなるように設定する。そのためには、入力点P1を平面の位置ベクトルと仮に定め、この位置ベクトルと、ウェブカメラ4,6から仮想タッチスクリーン画面S1平面に直行する直線に関するその位置ベクトルpl=(0,0,0)及び方向ベクトルd1=(0,0,1)との交点cを求める。
Next, the CPU 9 obtains a position vector p of the virtual touch screen screen S1 plane (step S103). The plane position vector p may be a vector to any point on the plane, but here it is set to be a vector to the center of the virtual screen. For this purpose, the input point P1 is tentatively determined as a plane position vector, and this position vector and its position vector p l = (0, 0, 0) with respect to a straight line perpendicular to the virtual touch screen screen S1 plane from the
交点cは、直線の位置ベクトルplと方向ベクトルdl、平面の位置ベクトルppと法線ベクトルnpを用いて、以下の数式のように求められる。尚、式中の・は内積計算を表している。 The intersection point c is obtained by using the straight line position vector p l and the direction vector d l , the plane position vector p p and the normal vector n p as follows. In the equation, · represents inner product calculation.
そして、CPU9は、仮想タッチスクリーン画面S2のX、Y軸の基底ベクトルを求める(ステップS104)。基底ベクトルは、新たな入力点を仮想タッチスクリーン画面S2に射影したときの座標X,Y,Dを計算するときに用いるもので、Dの基底ベクトルは平面の法線ベクトルを使用するため、新たに作成するのはX,Y軸のみである。 Then, the CPU 9 obtains X and Y axis basis vectors of the virtual touch screen screen S2 (step S104). The basis vector is used when calculating coordinates X, Y, and D when a new input point is projected onto the virtual touch screen screen S2, and the basis vector of D uses a normal vector of the plane. Only the X and Y axes are created.
X軸の基底ベクトルnxは、平面の位置ベクトルpからX軸(pl=(0,0,0)、dl=(1,0,0))と平面が交わる点へのベクトルを計算すればよい。Y軸の基底ベクトルnyは、平面の位置ベクトルpからY軸(pl=(0,0,0)、dl=(0,1,0))と平面が交わる点へのベクトルを計算すればよい。すなわち、それぞれ平面の位置ベクトルpで減算し、pからの方向ベクトルとする。 Basis vector n x of the X-axis, X-axis from the position vector p of the plane (p l = (0,0,0), d l = (1,0,0)) and a vector calculation to that plane intersects do it. Y-axis basis vector n y is calculated from a plane position vector p to a point where the plane intersects the Y-axis (p 1 = (0, 0, 0), d 1 = (0, 1, 0)). do it. That is, each is subtracted by a plane position vector p to obtain a direction vector from p.
そして、求めた基底ベクトルnx、nyを平面のパラメータに追加する。最後にnxとnyはノルム1に正規化する。
Then, add the determined basis vectors n x, a n y in the parameter plane. Finally n x and n y are normalized to
以上により、操作者がパソコン2に指示を与えるべく仮想タッチスクリーンに指先を差し込むと、ウェブカメラ4,6にて検出される仮想タッチスクリーン画面S1上の点Pin=(x,y,d)は、平面のパラメータの法線ベクトルn,位置ベクトルp,基底ベクトルnx,基底ベクトルnyを用いてCPU9が次の計算を行うことで、仮想タッチスクリーン画面S2上の点Pin=(X,Y,D)に変換することができる。
X=nx・(Pin−p)
Y=ny・(Pin−p)
D=n・(Pin−p)
(・は内積計算を表す)
As described above, when the operator inserts a fingertip into the virtual touch screen to give an instruction to the
X = n x · (P in −p)
Y = ny · (P in −p)
D = n · (P in −p)
(・ Represents inner product calculation)
以上のような補正を行うことにより、カメラ視野からの仮想タッチスクリーンと操作者視野からの仮想タッチスクリーンとを一致させることができ、ウェブカメラ4,6の設置場所がより柔軟な入力装置が提供される。尚、操作者視野からの仮想タッチスクリーン上の座標でのタップに有効な矩形領域を予め保持しておき、その領域値に基づきX軸を0〜320、Y軸を0〜240などに変換し、続く被写体判別後の処理が扱いやすい値に設定している。
By performing the correction as described above, the virtual touch screen from the camera field of view and the virtual touch screen from the operator field of view can be matched, and an input device with more flexible installation locations of the
次に、入力装置1aへの入力動作について画像処理動作、カーソル制御動作、画面制御動作などを説明する。
Next, an image processing operation, a cursor control operation, a screen control operation, and the like will be described for an input operation to the
《2値化画像生成、格納》
まず、パソコン2の電源が投入されて、アプリケーションプログラム、右眼側画像処理プログラム、左眼側画像処理プログラム、画像処理プログラムが起動されると、図7のフローチャートに示すようにCPU9によって、ビデオキャプチャ5が制御されて、ウェブカメラ4の撮影動作で得られたカラービデオ信号が取り込まれると共に、RGB信号形式のカラー画像に変換されてメモリ10などに一時記憶される(ステップS1)。
<< Binary image generation and storage >>
First, when the
また、この動作と並行し、CPU9によってUSBインタフェース7が制御されて、ウェブカメラ6の撮影動作で得られたYUV信号が取り込まれると共に、RGB信号形式のカラー画像に変換されてメモリ10などに一時記憶される(ステップS2)。
In parallel with this operation, the
また、これらの各動作と並行し、CPU9によってメモリ10などに一時記憶されている各カラー画像(各ウェブカメラ4,6の撮影動作で得られたカラー画像)のうち、パソコン2側から操作者を見たとき右眼に対応するウェブカメラ、例えば外付け型のウェブカメラ6で得られたカラー画像が読み取られる(ステップS3)。
In parallel with these operations, among the color images (color images obtained by the shooting operations of the
この後、CPU9によってグレー化/2値化画像処理が開始される(ステップS4)。即ち、図8のフローチャートに示すようにハードディスク8の画像格納エリア16に格納されているカラーマスクで、外付け型のウェブカメラ6で得られたカラー画像がマスクされ、カラー画像の中から予め設定されている特定色(例えば、肌色)のカラー画像(肌色画像)が抽出されると共に(ステップS21)、外付け型のウェブカメラ6で得られたカラー画像がグレー処理化されて、予め設定されている階調のモノクロ画像に変換され、1フレーム分の画像容量を低減させる(ステップS22)。
Thereafter, the CPU 9 starts graying / binarized image processing (step S4). That is, as shown in the flowchart of FIG. 8, the color mask obtained by the
そして、CPU9によって画面分割指示が設定されているかどうかがチェックされ、画面分割指示があればモノクロ画像が複数のエリア(各エリアは各々、数個〜数十個の画素によって構成される)に分割され、また画面分割指示がなければ分割処理がスキップされた後、最大尤度しきい値法でモノクロ画像が2値化され、2値化画像が作成される(ステップS23)。 Then, the CPU 9 checks whether or not a screen division instruction is set. If there is a screen division instruction, the monochrome image is divided into a plurality of areas (each area is composed of several to several tens of pixels). If there is no screen division instruction, the division process is skipped, and then the monochrome image is binarized by the maximum likelihood threshold method to create a binarized image (step S23).
次いで、CPU9によって2値化画像と肌色画像との論理和が取られて、2値化画像中の肌色部分が抽出され(ステップS24)、これが1フレーム分の2値化画像(右眼側の2値化画像)としてハードディスク8の画像格納エリア16に格納される(ステップS25)。
Next, the logical sum of the binarized image and the skin color image is taken by the CPU 9 and the skin color portion in the binarized image is extracted (step S24), and this is the binarized image for one frame (on the right eye side). (Binary image) is stored in the
この後、CPU9によって図7のフローチャートに示すようにメモリ10などに一時記憶されている各カラー画像(各ウェブカメラ4,6の撮影動作で得られた各カラー画像)のうち、パソコン2側から操作者を見たとき左眼に対応するウェブカメラ、例えば内蔵型のウェブカメラ4で得られたカラー画像が読み取られる(ステップS5)。
Thereafter, among the color images (color images obtained by the photographing operations of the
次いで、CPU9によってグレー化/2値化画像処理が開始される(ステップS6)。即ち、図8のフローチャートに示すようにハードディスク8の画像格納エリア16に格納されているカラーマスクで内蔵型のウェブカメラ4で得られたカラー画像がマスクされ、カラー画像の中から予め設定されている特定色(例えば、肌色)のカラー画像(肌色画像)が抽出されると共に(ステップS21)、内蔵型のウェブカメラ4で得られたカラー画像がグレー処理化されて、予め設定されている階調のモノクロ画像に変換され、1フレーム分の画像容量を低減させる(ステップS22)。
Next, the CPU 9 starts graying / binarized image processing (step S6). That is, as shown in the flowchart of FIG. 8, the color image obtained by the built-in
そして、CPU9によって画面分割指示が設定されているかどうかがチェックされ、画面分割指示があればモノクロ画像が複数のエリア(各エリアは各々、数個〜数十個の画素によって構成される)に分割され、また画面分割指示がなければ分割処理がスキップされた後、最大尤度しきい値法でモノクロ画像が2値化され、2値化画像が作成される(ステップS23)。 Then, the CPU 9 checks whether or not a screen division instruction is set. If there is a screen division instruction, the monochrome image is divided into a plurality of areas (each area is composed of several to several tens of pixels). If there is no screen division instruction, the division process is skipped, and then the monochrome image is binarized by the maximum likelihood threshold method to create a binarized image (step S23).
次いで、CPU9によって2値化画像と肌色画像との論理和が取られて、2値化画像中の肌色部分が抽出され(ステップS24)、これが1フレーム分の2値化画像(左眼側の2値化画像)としてハードディスク8の画像格納エリア16に格納される(ステップS25)。
Next, the logical sum of the binarized image and the skin color image is obtained by the CPU 9 and the skin color portion in the binarized image is extracted (step S24), and this is converted into a binarized image for one frame (on the left eye side). (Binary image) is stored in the
以下、上述した画像処理が繰り返され、FIFO(First・In・First・Out)形式でハードディスク8の画像格納エリア16に右眼側の2値化画像、左眼側の2値化画像が各々数フレーム分〜数十フレーム分蓄積される。
Thereafter, the above-described image processing is repeated, and the right eye side binarized image and the left eye side binarized image are in the
《フレーム間差分、ヒストグラム作成》
また、この動作と並行し図7のフローチャートに示すように、CPU9によってハードディスク13の画像格納エリア16に格納されている数フレーム分〜数十フレーム分の2値化画像の中から、右眼側に対応する最新の2値化画像を含む連続する数フレームの2値化画像が順次読み出される(ステップS7)。
《Difference between frames, creation of histogram》
In parallel with this operation, as shown in the flowchart of FIG. 7, the right eye side is selected from the binarized images for several frames to several tens of frames stored in the
そして、CPU9によって読み出すことができた2値化画像のフレーム数がチェックされ、所定数以上のフレーム数であれば(ステップS8)、フレーム間差分/ヒストグラム作成処理が開始される(ステップS9)。即ち、図9のフローチャートに示すように、各2値化画像のうち、連続する2フレーム分の2値化画像に対しフレーム間差分処理が行われると共に(ステップS31、S32)、このフレーム間差分処理で得られた各差分画像が各分割エリア毎に累積加算されて右眼側のヒストグラムが作成され、ハードディスク8の画像格納エリア16に格納される(ステップS33、S34)。
Then, the number of frames of the binarized image that can be read out by the CPU 9 is checked. If the number of frames is equal to or greater than the predetermined number (step S8), the interframe difference / histogram creation process is started (step S9). That is, as shown in the flowchart of FIG. 9, inter-frame difference processing is performed on the binarized images for two consecutive frames among the respective binarized images (steps S31 and S32), and the inter-frame difference is performed. Each difference image obtained by the process is cumulatively added for each divided area to create a right-eye histogram and stored in the
次いで、図7のフローチャートに示すように、CPU9によってハードディスク13の画像格納エリア16に格納されている数フレーム分〜数十フレーム分の2値化画像の中から左眼側に対応する最新の2値化画像を含む、連続する数フレームの2値化画像が順次読み出される(ステップS10)。
Next, as shown in the flowchart of FIG. 7, the latest 2 corresponding to the left eye side from among the binary images for several frames to several tens of frames stored in the
そして、CPU9によって読み出すことができた2値化画像のフレーム数がチェックされ、所定数以上のフレーム数であれば(ステップS11)、フレーム間差分/ヒストグラム作成処理が開始される(ステップS12)。即ち、図9のフローチャートに示すように、各2値化画像のうち、連続する2フレーム分の2値化画像に対しフレーム間差分処理が行われると共に(ステップS31、S32)、このフレーム間差分処理で得られた各差分画像が各分割エリア毎に累積加算されて左眼側のヒストグラムが作成され、ハードディスク8の画像格納エリア16に格納される(ステップS33、S34)。
Then, the number of frames of the binarized image that can be read out by the CPU 9 is checked. If the number of frames is equal to or greater than the predetermined number (step S11), the inter-frame difference / histogram creation process is started (step S12). That is, as shown in the flowchart of FIG. 9, inter-frame difference processing is performed on the binarized images for two consecutive frames among the respective binarized images (steps S31 and S32), and the inter-frame difference is performed. Each difference image obtained by the process is cumulatively added for each divided area to create a left eye side histogram and stored in the
《統計処理、仮想カーソルの活動領域決定、変化領域抽出》
この後、図7のフローチャートに示すように、CPU9によってハードディスク8の画像格納エリア16に格納されている右眼側のヒストグラムが読み出されて(ステップS13)、活動矩形領域抽出処理が開始される(ステップS14)。即ち、図10のフローチャートに示すように、ヒストグラムの各分割エリアの濃度値に対する統計処理が行われ、平均値、濃度分散値、最大値、偏差(±1σ、±2σ)などが演算される(ステップS41)。
《Statistical processing, virtual cursor activity area determination, change area extraction》
Thereafter, as shown in the flowchart of FIG. 7, the right-eye histogram stored in the
次いで、CPU9によってヒストグラムの各分割エリアの中から、変化領域矩形抽出用のしきい値(例えば、平均値−1σ)より大きい濃度値になっている各分割エリアが抽出され、これらの各分割エリア(活動分割エリア)を含むように矩形状の変化領域矩形(図17、図18参照)が決定されて、ハードディスク8の画像格納エリア16に格納される。
Next, the CPU 9 extracts from the divided areas of the histogram each divided area having a density value larger than the threshold value for extracting the change area rectangle (for example, the average value −1σ). A rectangular change area rectangle (see FIGS. 17 and 18) is determined so as to include (activity division area), and is stored in the
また、この動作と並行し、CPU9によって図13の3次元濃度分布図に示すようにヒストグラムを構成している各分割エリア20(図17、図18参照)のうち、仮想カーソル矩形抽出用のしきい値(例えば、最大値−1σ)より大きい濃度値になっている分割エリア(活動分割エリア21)が抽出される。 In parallel with this operation, the CPU 9 extracts the virtual cursor rectangle out of each divided area 20 (see FIGS. 17 and 18) constituting the histogram as shown in the three-dimensional density distribution diagram of FIG. A divided area (activity divided area 21) having a density value larger than a threshold value (for example, maximum value −1σ) is extracted.
これにより、操作者が指先を大きく回しているとき、図17に示す通り各活動分割エリア21を含むように矩形状の活動矩形領域26が決定されると共に、この決定結果に基づき図19に示すような右眼側の仮想カーソル活動領域画面27が作成されて、ハードディスク8の画像格納エリア16に格納される。
As a result, when the operator turns the fingertip greatly, the rectangular activity
また、操作者が両手を動かしているときには、図18に示す通り各活動分割エリア21を含むように矩形状の活動矩形領域26が決定されて、図20に示すような右眼側の仮想カーソル活動領域画像27が作成され、ハードディスク8の画像格納エリア16に格納される(ステップS42)。
Further, when the operator moves both hands, a rectangular activity
《仮想ボタンクリックの活動領域決定》
この後、CPU9によってハードディスク8の画像格納エリア16に格納されている右眼側のヒストグラムが読み出されて、各分割エリア20のうち仮想ボタンクリック矩形抽出用のしきい値(例えば、最大値−2σ)より大きい濃度値になっている分割エリア(活動分割エリア)が抽出されると共に、これらの各活動分割エリアを含むように矩形状の活動矩形領域が決定されて、右眼側の仮想ボタンクリック活動領域画像(図示は省略する)が作成され、ハードディスク8の画像格納エリア16に格納される(ステップS43)。
《Determine activity area for virtual button click》
Thereafter, the CPU 9 reads the right-eye histogram stored in the
《多段階矩形オブジェクト抽出処理、影の影響除去》
次いで、CPU9によって仮想カーソル矩形抽出用のしきい値(例えば、最大値−1σ)を使用して得られた右眼側の仮想カーソル活動領域画像27、仮想ボタンクリック矩形抽出用のしきい値(例えば、最大値−2σ)を使用して得られた右眼側の仮想ボタンクリック活動領域画像に対し、各々活動矩形領域26が左右に分割可能かどうかチェックされ、左右に分割可能であれば、図21に示すように活動矩形領域26の水平方向中心点“A”が求められると共に、水平方向中心点“A”から左側にある非活動領域と、活動領域(例えば、活動分割エリア21)との境界点“B”と、水平方向中心点“A”から右側にある非活動領域と、活動領域(例えば、活動分割エリア21)との境界点“C”とが検知され、これら境界点“B”、“C”を含む領域が各活動矩形領域26と判定され、それ以外の活動領域が操作者の影などによる不要な活動領域と判定され、無効とされる(2点抽出処理)。
《Multi-stage rectangular object extraction processing, shadow effect removal》
Subsequently, the CPU 9 uses the virtual cursor rectangle extraction threshold value (for example, the maximum value-1σ) (for example, the virtual cursor
この後、CPU9によって、2点抽出処理が終了した各活動矩形領域26に対し、各々活動矩形領域26が上下に分割可能かどうかチェックされ、上下分割可能であれば図22に示すように活動矩形領域26の上下方向中心点“A”が求められると共に、上下方向中心点“A”から上側にある非活動領域と、活動領域(例えば、活動分割エリア21)との境界点“B”が検知され、これら境界点“B”を含む領域が活動矩形領域26と判定され、下の活動領域が操作者の影などによる不要な活動領域と判定され、無効とされる(最小化処理)(ステップS44)。
Thereafter, the CPU 9 checks whether or not each of the activity
次いで、CPU9によって、これら2点抽出処理、最小化処理によって構成される多段階矩形オブジェクト抽出処理で得られた活動矩形領域26を含む右眼側の仮想カーソル活動領域画像27、右眼側の仮想ボタンクリック活動領域画像が、ハードディスク8の画像格納エリア16に格納される(ステップS45)。
Subsequently, the CPU 9 performs a virtual cursor
《統計処理、仮想カーソルの活動領域決定、変化領域抽出》
この後、図7のフローチャートに示すようにCPU9によって、ハードディスク8の画像格納エリア16に格納されている左眼側のヒストグラムが読み出されて(ステップS15)、活動矩形領域抽出処理が開始される(ステップS16)。即ち、図10のフローチャートに示すように、ヒストグラムの各分割エリアの濃度値に対する統計処理が行われ、平均値、濃度分散値、最大値、偏差(±1σ、±2σ)などが演算される(ステップS41)。
《Statistical processing, virtual cursor activity area determination, change area extraction》
After that, as shown in the flowchart of FIG. 7, the CPU 9 reads the left eye side histogram stored in the
次いで、CPU9によって変化領域矩形抽出用のしきい値(例えば、平均値−1σ)より大きい濃度値になっている各分割エリア20が抽出されて、これらの各分割エリア(活動分割エリア)を含むように矩形状の変化領域矩形が(図17、図18参照)決定され、ハードディスク8の画像格納エリア16に格納される。
Next, the CPU 9 extracts each divided
また、この動作と並行しCPU9によって、図16の3次元濃度分布図に示すようにヒストグラムを構成している各分割エリア20(図17、図18参照)のうち、仮想カーソル矩形抽出用のしきい値(例えば、最大値−1σ)より大きい濃度値になっている分割エリア(活動分割エリア21)が抽出される。 In parallel with this operation, the CPU 9 uses the CPU 9 to extract a virtual cursor rectangle from the divided areas 20 (see FIGS. 17 and 18) constituting the histogram as shown in the three-dimensional density distribution diagram of FIG. A divided area (activity divided area 21) having a density value larger than a threshold value (for example, maximum value −1σ) is extracted.
これにより、操作者が指先を大きく回しているとき、図17に示す通り各活動分割エリア21を含むように矩形状の活動矩形領域26が決定されると共に、この決定結果に基づき図19に示すような左眼側の仮想カーソル活動領域画面27が作成されて、ハードディスク8の画像格納エリア16に格納される。
As a result, when the operator turns the fingertip greatly, the rectangular activity
また、操作者が両手を動かしているときには、図18に示す通り各活動分割エリア21を含むように矩形状の活動矩形領域26が決定されて、図20に示すような左眼側の仮想カーソル活動領域画像27が作成され、ハードディスク8の画像格納エリア16に格納される(ステップS42)。
Further, when the operator moves both hands, a rectangular activity
《仮想ボタンクリックの活動領域決定》
次いで、CPU9によってハードディスク8の画像格納エリア16に格納されている左眼側のヒストグラムが読み出されて、各分割エリア20のうち仮想ボタンクリック矩形抽出用のしきい値(例えば、最大値−2σ)より大きい濃度値になっている分割エリア(活動分割エリア)が抽出されると共に、これらの各活動分割エリアを含むように矩形状の活動矩形領域が決定されて、左眼側の仮想ボタンクリック活動領域画像(図示は省略する)が作成され、ハードディスク8の画像格納エリア16に格納される(ステップS43)。
《Determine activity area for virtual button click》
Next, the left-eye histogram stored in the
《多段階矩形オブジェクト抽出処理、影の影響除去》
次いで、CPU9によって仮想カーソル矩形抽出用のしきい値(例えば、最大値−1σ)を使用して得られた左眼側の仮想カーソル活動領域画像27、仮想ボタンクリック矩形抽出用のしきい値(例えば、最大値−2σ)を使用して得られた左眼側の仮想ボタンクリック活動領域画像に対し、各々活動矩形領域26が左右に分割可能かどうかチェックされ、左右に分割可能であれば、図21に示すように活動矩形領域26の水平方向中心点“A”が求められると共に、水平方向中心点“A”から左側にある非活動領域と、活動領域(例えば、活動分割エリア21)との境界点“B”と、水平方向中心点“A”から右側にある非活動領域と、活動領域(例えば、活動分割エリア21)との境界点“C”とが検知され、これら境界点“B”、“C”を含む領域が各活動矩形領域26と判定され、それ以外の活動領域が操作者の影などによる不要な活動領域と判定され、無効とされる(2点抽出処理)。
《Multi-stage rectangular object extraction processing, shadow effect removal》
Next, the virtual cursor click area
この後、CPU9によって、2点抽出処理が終了した各活動矩形領域26に対し各々活動矩形領域26が上下に分割可能かどうかチェックされ、上下分割可能であれば図22に示すように活動矩形領域26の上下方向中心点“A”が求められると共に、上下方向中心点“A”から上側にある非活動領域と活動領域(例えば、活動分割エリア21)との境界点“B”が検知され、これら境界点“B”を含む領域が活動矩形領域26、下の活動領域が操作者の影などによる不要な活動領域と判定され、無効とされる(最小化処理)(ステップS44)。
Thereafter, the CPU 9 checks whether or not the activity
次いで、CPU9によってこれら2点抽出処理、最小化処理によって構成される多段階矩形オブジェクト抽出処理で得られた活動矩形領域26を含む左眼側の仮想カーソル活動領域画像27、左眼側の仮想ボタンクリック活動領域画像が、ハードディスク8の画像格納エリア16に格納される(ステップS45)。
Next, the left eye-side virtual cursor
上記した如く操作者の手による動きを右眼と左眼の各仮想領域活動領域画像27及び仮想ボタンクリック活動領域画像で捉えることができるが、このとき入力装置1aが操作者の意図しない手の動きを検知できるようにするとさらに良い。ヒストグラム化した活動領域を多段階で抽出した結果の活動矩形領域26が操作者の意図したポインティング、またはタッピングでない動作、例えば手を左右に振っている場合もヒストグラム化されたデータ上に活動領域が抽出される。よって、これが操作者の意図したポインティング動作によるものではないことを判断できれば、入力装置1aとしての信頼性が高まる。
As described above, the movement of the operator's hand can be captured by the virtual area
抽出された活動矩形領域が有効かどうかを判断するためには、以下の処理を行う。すなわち、図10のステップS41の処理においては、図11に示すステップS41’の処理を行い、CPU9はヒストグラム化された多段階の差分画像データのうち、最新の差分データから活動矩形領域26を抽出し、それらの点を追跡しながら一定時間保持する。
In order to determine whether or not the extracted activity rectangular area is valid, the following processing is performed. That is, in the process of step S41 in FIG. 10, the process of step S41 ′ shown in FIG. 11 is performed, and the CPU 9 extracts the active
次に、図10のステップS43の処理においては、図12に示すステップS43’の処理を行い、CPU9は仮想ボタンクリックの活動領域(最大値−2σ)が抽出されたら、ステップS41’で記憶している活動矩形領域26と比較し、該当する追跡を求めてその追跡結果が特定の大きさの領域に亘って活動している場合には、無効な活動矩形領域26と判断する。
Next, in the process of step S43 in FIG. 10, the process of step S43 ′ shown in FIG. 12 is performed, and the CPU 9 stores the virtual button click activity area (maximum value −2σ) in step S41 ′. When the corresponding tracking is obtained and the tracking result is active over an area of a specific size, it is determined that the activity
図37は操作者が手を右下から左上、さらに左下、次に右上に移動した場合に抽出される活動領域を示しているが、活動矩形領域26の追跡データから生成された活動領域は大きな動きの中で生成されたもの判断してノイズとして無視する。
FIG. 37 shows an activity region extracted when the operator moves his / her hand from the lower right to the upper left, further to the lower left, and then to the upper right. The activity region generated from the tracking data of the activity
CPU9による上記処理にて抽出活動領域が操作者の意図しない動作により発生したものはノイズとして除去することが可能となり、操作性が向上する。 In the above processing by the CPU 9, the extraction activity region generated by the operation not intended by the operator can be removed as noise, and the operability is improved.
《活動矩形領域選択》
この後、図7のフローチャートに示すように、CPU9によって活動矩形領域選択処理が開始される(ステップS17)。即ち、図13のフローチャートに示すようにハードディスク8の画像格納エリア16に格納されている右眼側の仮想カーソル活動領域画像27、右眼側の仮想ボタンクリック活動領域画像が読み出され、これら右眼側の仮想カーソル活動領域画像27、右眼側の仮想ボタンクリック活動領域画像に含まれている各活動矩形領域26に対し、図23の模式図に示すように両眼視差法による位置補正が行われ、各ウェブカメラ4,6の取り付け位置(水平距離“B”、上下距離など)、各ウェブカメラ4,6の焦点距離“f”などと対応するように各活動矩形領域26の中心座標“PR(XR、YR)”が補正された後、大きさ順に番号が付加される(ステップS51、S52)。
《Activity rectangular area selection》
Thereafter, as shown in the flowchart of FIG. 7, the active rectangle area selection process is started by the CPU 9 (step S17). That is, as shown in the flowchart of FIG. 13, the virtual cursor
次いで、CPU9によってハードディスク8の画像格納エリア16に格納されている左眼側の仮想カーソル活動領域画像27、左眼側の仮想ボタンクリック活動領域画像が読み出され、これら左眼側の仮想カーソル活動領域画像27、左眼側の仮想ボタンクリック活動領域画像の各活動矩形領域26に対し、操作者の手の位置の座標P(X,Y,D)に基づき図23の模式図に示すように両眼視差法による位置補正が行われ、各ウェブカメラ4,6の取り付け位置(水平距離“B”、上下距離など)、各ウェブカメラ4,6の焦点距離“f”などと対応するように各活動矩形領域26の座標“PL(XL、YL)”が補正された後、大きさ順に番号が付加される(ステップS53、S54)。
Next, the CPU 9 reads the left eye side virtual cursor
このように両眼視差法による位置補正を行うことで、各ウェブカメラ4,6の焦点距離などと対応したピント位置、例えば各ウェブカメラ4,6から離れた位置に操作者の手があり、両眼視差法による位置補正を行う前、図24の模式図に示すように右眼側の各活動矩形領域26と左眼側の各活動矩形領域26とが位置がずれていても、両眼視差法による位置補正を行うことにより、図25の模式図に示すように右眼側の各活動矩形領域26と左眼側の各活動矩形領域26とを完全一致(又は、ほぼ一致)させることができる。
By performing position correction by the binocular parallax method in this way, the operator's hand is at a focus position corresponding to the focal length of each
この後、CPU9によって図26の模式図に示すように、番号“1”が付与された右眼側に対応する活動矩形領域26の中心座標“XR、YR”と、左眼側に対応する活動矩形領域26の中心座標“XL、YL”との距離(中心座標距離)が演算されて、これが番号“1”と共に、メモリ10に記憶される。
Thereafter, as shown in the schematic diagram of FIG. 26 by the CPU 9, the center coordinates “X R , Y R ” of the active
尚、操作者の手の位置の座標P(X,Y,D)に基づき両眼視差法による位置補正が行うことを説明したが、P(X,Y,D)は操作者からの仮想タッチスクリーン画面S2上の座標であるが、このとき図4において説明したように、CPU9は平面モデルの初期設定により予め算出している平面のパラメータの方向ベクトルd,位置ベクトルn,基底ベクトルnx,基底ベクトルnyを用いて次の演算を行うことにより、ウェブカメラ4,6視野からの仮想タッチスクリーン画面S1上の座標P(x,y,d)から変換している。かかる演算による補正を行えば、ウェブカメラ4,6の設置場所がパソコン2のディスプレイ部3とかけ離れている場合でも、ディスプレイ部3に対する操作者視野での位置を検出することができる。
X=nx・(Pin−p)
Y=ny・(Pin−p)
D=n・(Pin−p)
Although it has been described that the position correction by the binocular parallax method is performed based on the coordinates P (X, Y, D) of the position of the operator's hand, P (X, Y, D) is a virtual touch from the operator. The coordinates on the screen screen S2 are as follows. As described with reference to FIG. 4, the CPU 9 at this time uses the plane vector direction vector d, position vector n, base vector n x , by performing the following calculation using the base vector n y, coordinates P on the virtual touch panel screen S1 from
X = n x · (P in −p)
Y = ny · (P in −p)
D = n · (P in −p)
次いで、ステップS55、S56の処理においては、CPU9によって次の番号“2”〜最後の番号“N”が付与された右眼側に対応する活動矩形領域26の中心座標“XR、YR”と、左眼側に対応する活動矩形領域26の中心座標“XL、YL”との距離(中心座標距離)が順次演算されて、これらが次の番号“2”〜最後の番号“N”と共にメモリ10に記憶される。
Next, in the processing of steps S55 and S56, the central coordinates “X R , Y R ” of the active
このステップ55の処理は、図1で説明した距離測定手段Cとしての動作である。すなわち、ウェブカメラ4,6の間隔と焦点距離fを予め設定すると、被写体までの距離は|XL−XR|と相関関係にあるために、中心座標距離の演算は被写体までの距離を測定していることになる。
The processing in
そして、これらの処理が終了したとき、CPU9によって、メモリ10に記憶されている各中心座標距離(|XL−XR|)が順次読み出されて、予め設定してある奥行き距離を示す所定値と比較する。この奥行き距離とは、ウェブカメラ4,6の間隔に基づいて予め設定してある両眼視差法による奥行き距離である。そして、中心座標距離と奥行き距離との比較の結果、許容範囲内で一致していると、この中心座標距離の右眼側の活動矩形領域26、左眼側の活動矩形領域26は有効な活動矩形領域と判断される。
When these processes are completed, the CPU 9 sequentially reads out the respective central coordinate distances (| X L −X R |) stored in the
各ウェブカメラ4,6から予め設定してある奥行き距離から許容範囲内の位置に操作者の手があるとき、操作者の手に対応する右眼側の活動矩形領域26、左眼側の活動矩形領域26が、それぞれ有効な活動矩形領域26であると判定される。このことは、予め設定してある奥行き距離に仮想タッチスクリーンが形成されていることになり、それ以外は仮想タッチスクリーン上の操作ではないものとして、右眼側の活動矩形領域26、左眼側の活動矩形領域26はそれぞれ無効な活動矩形領域26であると判定される(ステップS57)。このとき中心座標距離と奥行き距離との比較を行う場合の許容範囲を狭く設定することで、より平面的な仮想タッチスクリーンが形成されることになり、操作者による操作以外の背景の動きを捉えることがなくなり、入力装置として動作が確実となる。
When the operator's hand is at a position within an allowable range from a preset depth distance from each of the
このステップ57の処理は、図1で説明した被写体判別手段Dとしての動作である。すなわち、距離測定手段Cであるステップ55の処理にて測定した被写体までの距離と予め設定してある奥行き距離とを比較して、許容範囲内で一致しない場合にその活動矩形領域を無効とすることで、操作者による仮想タッチスクリーン上での手に対応する活動矩形領域のみを選択する。
The processing in
このように両眼視差法を用いて、活動矩形領域の位置補正を行ないながら右眼及び左眼の各活動矩形領域26の中心点間の横方向での座標距離(中心座標距離)から被写体までの距離を測定することにより活動領域26の有効性判定を精度良く行うことができるのである。しかしながら、ウェブカメラ4,6の視野で被写体の中心部分と端の部分は誤差が発生するが、これの補正について説明する。
Thus, using the binocular parallax method, while correcting the position of the active rectangular area, the coordinate distance in the horizontal direction (center coordinate distance) between the center points of the active
距離の測定は、予め測定したカメラ視野角を定数として活動領域がウェブカメラ4,6の視野のそれぞれの活動矩形領域26における中心座標距離から補正値を計算するものであるが、以下、この原理について説明する。
The distance is measured by calculating a correction value from the center coordinate distance in the active
図38は1台のウェブカメラ4Aの視野角から距離の変換について説明するもので、三角関数の定義から、[数2]の数式の関係が成立する。
FIG. 38 explains the conversion of the distance from the viewing angle of one
img_w:カメラ画像の横画素数[pixel]
d:カメラと被写体までの距離[m]
δ:被写体の幅/2[m]
θw:カメラの視野角/2[rad](予め計測)
但し、wと(img_w)は、それぞれ画像中の大きさのため物理量としては「角度」となる。
img_w: Number of horizontal pixels of the camera image [pixel]
d: Distance between camera and subject [m]
δ: Subject width / 2 [m]
θw: Camera viewing angle / 2 [rad] (measured in advance)
However, w and (img_w) are “angles” as physical quantities because of their sizes in the image.
これをdについて解くと[数3]の数式となる。 Solving this with respect to d yields the formula [Equation 3].
[数3]の数式において、θwとimg_wは定数であるので、求めたい値である距離dはδとwに依存する。ここでδは映る被写体60によって変化するため、δに依存せずに距離dを求める必要がある。 In Equation (3), θw and img_w are constants, so the distance d, which is a value to be obtained, depends on δ and w. Here, since δ varies depending on the subject 60 to be reflected, it is necessary to obtain the distance d without depending on δ.
そこで2台のウェブカメラ4,6を用いる本発明では、δに依存せずに距離dを求めることが可能である。図39はメインとサブの2台のウェブカメラの視野角から距離の変換について説明するもので、距離dは[数4]の数式にて示される。
Therefore, in the present invention using two
δ’:被写体の位置で、サブカメラの中心視線とメインカメラの中心視線が交差する2点間の距離[m](両眼の視線が平行ならば、δ’は常に一定)
δ ′: Distance [m] between two points at which the center line of sight of the sub camera and the center line of sight of the main camera intersect at the position of the subject (when both eyes are parallel, δ ′ is always constant)
[数4]の数式において、両眼の中心視線が平行である場合は一定であるから距離dはδ’に依存しなくなる。尚、dはδ’より十分大きく(d>>δ’)、被写体60が画像の端に存在していても近似的に成り立つ。 In the formula of [Equation 4], the distance d does not depend on δ ′ because it is constant when the central line of sight of both eyes is parallel. Note that d is sufficiently larger than δ ′ (d >> δ ′), and even if the subject 60 exists at the edge of the image, it is approximately established.
上記から2台のカメラを用いれば[数5]の数式にて表すように、距離dはw’のみに依存することになる。よって、dは画素値から計算され、離散値であるため各w’のd(w’)を予め計算しておきテーブルに保存することで被写体60までの距離(d)の補正を高速にて処理することができる。 From the above, if two cameras are used, the distance d depends only on w ', as represented by the equation of [Equation 5]. Therefore, since d is calculated from the pixel value and is a discrete value, d (w ′) of each w ′ is calculated in advance and stored in a table, thereby correcting the distance (d) to the subject 60 at high speed. Can be processed.
以上の原理をCPU9による活動領域26の有効性の判断に取り込めば判定の精度を更に高めることができる。この場合、CPU9はステップS57の処理において、図14に示すステップ57’の処理を行い、中心座標距離w’(|XL−XR|)を演算してメモリ10に格納しているテーブルデータと照合することで被写体60までの正確な距離を測定し、この距離が予め設定してある奥行き距離の許容範囲内であるかを判定することで、活動矩形領域26の有効・無効の判断を行うものである。
If the above principle is incorporated in the determination of the effectiveness of the
これにより、右眼側の各活動矩形領域26、左眼側の各活動矩形領域26が図26の模式図に示す関係になっていれば、中心座標距離が所定値以上になっている番号“1”に対応した右眼側の活動矩形領域(OR1)26、左眼側の活動矩形領域(OL1)26が無効と判定され、中心座標距離がほぼ“0”になっている番号“2”に対応した右眼側の活動矩形領域(OR2)26、左眼側の活動矩形領域(OL2)26が有効と判定される。
As a result, if each activity
次いで、CPU9によって、有効と判定された右眼側の活動矩形領域(OR2)26、有効と判定された左眼側の活動矩形領域(OL2)26のうち、予め指定されている方、例えば有効と判定された左眼側の活動矩形領域(OL2)26が残され、それ以外の活動矩形領域26が削除された仮想カーソル活動領域画像27、仮想ボタンクリック活動領域画像が作成され、これが両眼視差法によって操作者の手前にいる人の動き、及び背後にいる人の動きが除去された仮想カーソル活動領域画像27、仮想ボタンクリック活動領域画像としてハードディスク8の画像格納エリア16に格納される(ステップS57)。
Next, the right-side active rectangular area (O R2 ) 26 determined to be valid by the CPU 9 and the left-side active rectangular area (O L2 ) 26 determined to be valid are previously designated, For example, a virtual cursor
《片手ジェスチャによる仮想カーソルの位置、大きさ、色制御》
この後、図7のフローチャートに示すように、CPU9によって仮想カーソル制御処理/画面制御処理が開始される(ステップS18)。この処理は、図1で説明した操作指示生成手段Eとしての動作であり、ステップS17にて操作者の動作と判定した手、又は指先の動きを検出し、この検出結果に応じた操作指示を生成する。
《Position, size, and color control of virtual cursor by one hand gesture》
Thereafter, as shown in the flowchart of FIG. 7, the CPU 9 starts the virtual cursor control process / screen control process (step S18). This process is the operation as the operation instruction generating means E described in FIG. 1, and detects the movement of the hand or fingertip determined to be the operation of the operator in step S17, and issues an operation instruction according to the detection result. Generate.
図15のフローチャートに示すように、ハードディスク8の画像格納エリア16に格納されている各仮想カーソル活動領域画像(両眼視差法によって、操作者の手前にいる人の動き、及び背後にいる人の動きが除去された各仮想カーソル活動領域画像)27のうち、最新の活動矩形領域26を含む数フレーム分の仮想カーソル活動領域画像27が読み出され(ステップS61)、近接した1つ以上の活動矩形領域26によって構成される活動矩形領域群が仮想カーソル活動領域画像27内に存在しているかどうかチェックされる。
As shown in the flowchart of FIG. 15, each virtual cursor activity area image stored in the
そして、最新の仮想カーソル活動領域画像27内に活動矩形領域群が存在し、その数が“1”であり、且つ、略矩形であれば(ステップS62、S63)、CPU9によって活動矩形領域群の大きさ、移動方向が判定され、判定結果に対応するように仮想カーソル制御が行われる(ステップS64)。
If there are active rectangular area groups in the latest virtual cursor
例えば、図27(a)に示すように、前回とほぼ同じ、高さ、左右位置で、操作者が指先を大きく回し、これに対応して前回の処理で得られた大きな活動矩形領域群の位置と同じ位置で、大きな活動矩形領域群が得られているとき、CPU9によって仮想カーソルの表示指示であると判定されて、図27(b)に示すようにディスプレイ部3に大きなサイズ、白色の仮想カーソル25が表示される。
For example, as shown in FIG. 27 (a), the operator turns the fingertips largely at the same height and left and right positions as in the previous time, and correspondingly, a large active rectangular area group obtained in the previous process When a large active rectangular area group is obtained at the same position as the position, the CPU 9 determines that it is a virtual cursor display instruction, and the display unit 3 has a large size and white color as shown in FIG. A
また、操作者が指先を大きく回しながら上下方向、又は左右方向に移動させ、これに対応して前回の処理で得られた位置から移動する大きな活動矩形領域群が得られているとき、CPU9によって仮想カーソルの移動指示であると判定されて、指先の移動方向に対応するようにディスプレイ部3に表示されている大きなサイズ、白色の仮想カーソル25を移動させる。
When the operator moves the fingertips up and down or left and right, and correspondingly, a large group of active rectangular areas moving from the position obtained in the previous process is obtained, the CPU 9 The virtual cursor movement instruction is determined, and the large size, white
また、図28(a)に示すように、前回とほぼ同じ、高さ、左右位置で、操作者が指先を小さく回し、これに対応して前回の処理で得られた大きな活動矩形領域群の位置と同じ位置で、小さな活動矩形領域群が得られているとき、CPU9によって仮想カーソルの移動停止であると判定されて、図28(b)に示すようにディスプレイ部3に表示されている仮想カーソル25の移動を停止させると共に、サイズを小さくする。
Further, as shown in FIG. 28 (a), the operator turns the fingertip small at substantially the same height and left and right positions as in the previous time, and correspondingly, the large active rectangular area group obtained in the previous process. When a small group of active rectangular areas is obtained at the same position as the position, the CPU 9 determines that the movement of the virtual cursor is stopped, and the virtual displayed on the display unit 3 as shown in FIG. The movement of the
この状態で一定時間が経過すれば、CPU9によって仮想カーソル25の色が赤色に変更され大きな移動が禁止されると共に、OS側にカーソル移動指示が出されて、仮想カーソル25内に実カーソル28を移動させる。
If a certain time has passed in this state, the CPU 9 changes the color of the
この後、操作者が指先を少し移動させれば、CPU9によってこれが検知されて、ディスプレイ部3に表示されている仮想カーソル25の位置が微調整されると共に、OS側にカーソル位置調整指示が出されて、図29に示すように実カーソル28の位置が微調整される。
Thereafter, when the operator moves the fingertip slightly, this is detected by the CPU 9, and the position of the
次いで、操作者が指先を動かすのを止めれば、CPU9によってこれが検知され、一定時間後に、図30に示すようにディスプレイ部3に表示されている仮想カーソル25の位置が固定されると共に、仮想カーソル25の色が赤色からグレー色に変更され、操作者にクリック可能になったことを知らせる。
Next, if the operator stops moving the fingertip, this is detected by the CPU 9, and after a certain time, the position of the
この状態でも、操作者が指先を再度大きく回せば、CPU9によってこれが検知されて、ディスプレイ部3に表示されている仮想カーソル25の色が白色に戻され、仮想カーソル25が移動可能な状態に戻される。
Even in this state, if the operator turns the fingertip again to a large extent, this is detected by the CPU 9, the color of the
《片手ジェスチャによるスクロール制御》
また、上述した仮想カーソル活動領域画像27に活動矩形領域群が存在するかどうかなどをチェックしたとき、図31に示すように活動矩形領域群の数が“1”で水平方向に長ければ(ステップS62、S63)、CPU9によって前回の活動矩形領域群に対しどちらの方向に長くなったか判定すると共に、長くなった方向に応じた右スクロール指示(又は、左スクロール指示)が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が右方向(又は、左方向)にスクロールされる(ステップS64)。
《Scroll control with one hand gesture》
When it is checked whether or not there is an active rectangular area group in the virtual cursor
また、上述した仮想カーソル活動領域画像27に活動矩形領域群が存在するかどうかなどをチェックしたとき、活動矩形領域群の数が“1”で上下方向に長ければ(ステップS62、S63)、CPU9によって前回の活動矩形領域群に対しどちらの方向に長くなったか判定すると共に、長くなった方向に応じた上スクロール指示(又は、下スクロール指示)が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が上方向(又は、下方向)にスクロールされる(ステップS64)。
If it is checked whether or not there is an active rectangular area group in the virtual cursor
《片手ジェスチャによる実カーソルのクリック制御》
この後、CPU9によって仮想カーソル25の色がグレーかどうかチェックされ、仮想カーソル25の色がグレーであれば、ハードディスク8の画像格納エリア16に格納されている仮想ボタンクリック活動領域画像のうち、最新の活動矩形領域を含む数フレーム分の仮想ボタンクリック活動領域画像が読み出される(ステップS66)。
《Real cursor click control by one hand gesture》
Thereafter, the CPU 9 checks whether the color of the
次いで、CPU9によって仮想ボタンクリック活動領域画像内に近接した1つ以上の活動矩形領域26によって構成される活動矩形領域群が存在し、形状が変化しているかどうかチェックされ、活動矩形領域群の数が“1”であり活動矩形領域群が予め設定された変化、例えば図32(a)に示すように操作者が指さし状態から、1回だけ手を広げ、活動矩形領域群が1回だけ“小”から“大”に変化していれば(ステップS67)、シングルクリックであると判定され、OS側にシングルクリック指示が出されて、図32(b)に示すように仮想カーソル25内にある実カーソル28によってアイコンなどがシングルクリックされる(ステップS68)。
Next, the CPU 9 checks whether there is an active rectangular area group composed of one or more active
また、操作者が指さし状態から2回以上手を広げたり縮めたりし、活動矩形領域群が複数回“大”から“小”、“小”から“大”に変化していれば(ステップS67)、CPU9によってダブルクリックであると判定され、OS側にダブルクリック指示が出されて、実カーソル28の位置にあるアイコンなどがダブルクリックされる(ステップS68)。
In addition, if the operator spreads his / her hand more than twice from the pointing state and the activity rectangular area group changes from “large” to “small” and “small” to “large” a plurality of times (step S67). ), It is determined by the CPU 9 that it is a double click, a double click instruction is issued to the OS side, and the icon or the like at the position of the
《両手ジェスチャによる画面拡大、縮小制御》
また、各ウェブカメラ4,6のピント位置に操作者が右手、左手を出して、これら右手、左手を動かし、上述した仮想カーソル活動領域画像27に活動矩形領域群が存在するかどうかなどをチェックしたとき、活動矩形領域群の数が“2”になり、各々矩形になっていれば(ステップS63)、CPU9によってこれが検知されて、これら各活動矩形領域群の動きに応じてディスプレイ部3に表示されている操作対象画面の拡大、縮小、回転などが行われる(ステップS65)。
《Screen enlargement and reduction control using two-hand gestures》
In addition, the operator puts out his right hand and left hand at the focus position of each of the
例えば、各ウェブカメラ4,6のピント位置に操作者が右手と左手を出して、その右手と左手を互いに離れる方向に移動させ、これに対応して図33に示す2つの活動矩形領域群が存在し、図34(a)に示すように前回より広くなる方向に移動してこれら各活動矩形領域群の距離が前回より長くなったとき、CPU9によって画面拡大指示が入力されたと判定され、活動矩形領域群の距離変化比に応じた拡大率の画面拡大指示が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が拡大される。
For example, the operator puts out his right hand and left hand at the focus positions of the
また、各ウェブカメラ4,6のピント位置に操作者が右手と左手を出して、その右手と左手を互いに近づく方向に移動させ、これに対応して2つの活動矩形領域群が図34(b)に示すように前回より狭くなる方向に移動し、これら各活動矩形領域群の距離が前回より短くなったとき、CPU9によって画面縮小指示が入力されたと判定され、活動矩形領域群の距離変化比に応じた縮小率の画面縮小指示が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が縮小される。
Further, the operator puts out his right hand and left hand at the focus positions of the
《両手ジェスチャによる画面回転制御》
また、各ウェブカメラ4,6のピント位置に操作者が右手と左手を出して、これら右手と左手の一方を上に他方を下に移動させ、これに対応して図35に示す2つの活動矩形領域群のうち少なくとも一方が上方向(又は、下方向)に移動したとき、CPU9によって画面回転指示が入力されたと判定され、下側の活動矩形領域群に対する上側の活動矩形領域群の角度に応じた回転角度の画面回転指示が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が回転される。
《Screen rotation control using two-hand gestures》
Also, the operator puts his right hand and left hand at the focus positions of the
この際、図36(a)に示すように各活動矩形領域群の左右距離が狭い状態で、一方が大きく上方に移動し下側の活動矩形領域群に対する上側の活動矩形領域群の角度が大きいとき、CPU9によって大きな回転角度の画面回転指示が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が大きく回転される。 At this time, as shown in FIG. 36 (a), in the state where the left and right distances of the respective active rectangular area groups are narrow, one of the active rectangular area groups moves upward and the angle of the upper active rectangular area group with respect to the lower active rectangular area group is large. At this time, a screen rotation instruction with a large rotation angle is generated by the CPU 9 and passed to the application side, and the application screen (operation target screen) displayed on the display unit 3 is largely rotated.
また、図36(b)に示すように各活動矩形領域群の左右距離が広い状態で、一方が小さく上方に移動し下側の活動矩形領域群に対する上側の活動矩形領域群の角度が小さいとき、CPU9によって小さな回転角度の画面回転指示が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が小さく回転される。 In addition, as shown in FIG. 36B, when the left and right distances of the respective active rectangular area groups are wide, when one of the active rectangular area groups is small and moves upward, the angle of the upper active rectangular area group with respect to the lower active rectangular area group is small. The CPU 9 generates a screen rotation instruction with a small rotation angle and passes it to the application side, and the application screen (operation target screen) displayed on the display unit 3 is rotated small.
このように、本発明の第1の実施形態においては、各ウェブカメラ4,6によって操作者を撮影して得られた低解像度のカラー画像に対し、グレー化処理、画像分割/2値化処理、色フィルタリング処理、フレームバッファ処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理、活動矩形領域選択処理、仮想カーソル制御処理/画面制御処理を行い操作者の手の動きを検知し、仮想カーソル25のサイズ制御、位置制御、色制御、クリック制御、操作対象画面の拡大制御、縮小制御、回転制御、上下スクロール制御、左右スクロール制御などを行うようにしているので、次に述べる効果を得ることができる。
As described above, in the first embodiment of the present invention, a graying process and an image division / binarization process are performed on a low-resolution color image obtained by photographing the operator with the
また、各ウェブカメラ4,6によって操作者を撮影して得られたカラー画像に対し、グレー化処理、画像分割/2値化処理、色フィルタリング処理を施して得られた2値化画像を画像格納エリア16に格納するため、ハードディスク8の容量が小さい場合にも入力装置1aを構成することができ、装置全体のコストを低く抑えることができる。
In addition, a binarized image obtained by performing graying processing, image segmentation / binarization processing, and color filtering processing on a color image obtained by photographing the operator with each of the
また、各ウェブカメラ4,6によって操作者を撮影して得られたカラー画像に対し、グレー化処理、画像分割/2値化処理、色フィルタリング処理など、少ない段数の画像処理を施して1フレーム分の2値化画像を得るようにしているので、CPU9に大きな負担をかけることを防ぎ、これによって処理速度が速くない安価なCPU9を使用した場合でもほぼリアルタイムで操作者の動きに対応するように、仮想カーソル25のサイズ制御、位置制御、色制御、クリック制御、操作対象画面の拡大制御、縮小制御、回転制御、上下スクロール制御、左右スクロール制御などを行うことができ、装置全体のコストを低く抑えることができる。
Further, a color image obtained by photographing the operator with each of the
また、各ウェブカメラ4,6によって操作者を撮影して得られた右眼側の各活動矩形領域26と左眼側の各活動矩形領域26とに対し、両眼視差法で中心座標位置を補正した後、大きさ順に番号を付けて中心座標位置を比較し、この比較結果に基づきピント位置に対応する右眼側の各活動矩形領域26と左眼側の各活動矩形領域26とを選択するようにしているので、各ウェブカメラ4,6のピント位置にある操作者の手以外のもの、例えば操作者の後ろに人がいて動いていても、これに影響されることなく操作者の手の動きのみを抽出して、仮想カーソル25のサイズ制御、位置制御、色制御、クリック制御、操作対象画面の拡大制御、縮小制御、回転制御、上下スクロール制御、左右スクロール制御などを行うことができる。
Further, the center coordinate position is determined by the binocular parallax method with respect to each activity
また、本発明の第1の実施形態では、操作者が片手だけを動かしているとき仮想カーソル制御指示、又は操作対象画面のスクロール制御であると判定し、仮想カーソル25のサイズ制御、位置制御、色制御、クリック制御、操作対象画面のスクロール制御などを行うようにしているので、片手だけでディスプレイ部3に表示されている仮想カーソル25のサイズ、位置、色、クリック、操作対象画面のスクロールなどを遠隔操作することができる。
In the first embodiment of the present invention, when the operator is moving only one hand, it is determined that the control is a virtual cursor control instruction or a scroll control of the operation target screen, and the size control, position control, Since color control, click control, scroll control of the operation target screen, etc. are performed, the size, position, color, click, scroll of the operation target screen, etc. of the
また、本発明の第1の実施形態では、操作者が両手を動かしているとき、右手の動き、左手の動きを各々検出し、操作対象画面の拡大/縮小制御指示、又は操作対象画面の回転制御指示であると判定するようにしているので、操作者が右手、左手を動かすだけでディスプレイ部3に表示されているアプリケーション画面(操作対象画面)を拡大、縮小、回転させることができる。 In the first embodiment of the present invention, when the operator moves both hands, the movement of the right hand and the movement of the left hand are detected, and the enlargement / reduction control instruction of the operation target screen or the rotation of the operation target screen is detected. Since the control instruction is determined, the application screen (operation target screen) displayed on the display unit 3 can be enlarged, reduced, and rotated by simply moving the right hand and the left hand by the operator.
また、本発明の第1の実施形態では、活動矩形領域抽出処理においてヒストグラムを統計処理して得られた結果を使用し、ヒストグラムから仮想カーソル活動領域画像27、仮想ボタンクリック活動領域画像を作成するようにしているので、操作者の手など動いている部分を正確に検知することができ、安定した仮想カーソル制御、クリック制御、操作対象画面制御を行うことができる。
In the first embodiment of the present invention, a virtual cursor
また、本発明の第1の実施形態では、活動矩形領域抽出処理において仮想カーソル活動領域画像27、仮想ボタンクリック活動領域画像に対し、多段階矩形オブジェクト抽出処理を行うようにしているので、操作者の影などに起因する誤動作を防止し、安定した仮想カーソル制御、クリック制御、操作対象画面制御を行うことができる。
In the first embodiment of the present invention, the multi-step rectangular object extraction process is performed on the virtual cursor
図40は、本発明による入力装置の第2の実施形態を示すブロック図である。この図に示す入力装置1bは、箱形に形成されたプラスチック部材などによって構成され、パソコン、テレビ、エアコン、大画面スクリーン装置などの遠隔操作対象機器の近傍に配置される入力装置筐体(図示は省略する)と、入力装置筐体の前面左側に取り付けられ、操作者を撮影してカラー画像信号を出力する右眼用撮像装置である右眼用ビデオカメラ本体(カラーカメラ本体)30と、入力装置筐体内に配置され、右眼用ビデオカメラ本体30で撮影されたカラー画像を処理して、右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像を生成する右眼側画像処理基板31と、入力装置筐体の前面右側に取り付けられ、操作者を撮影してカラー画像信号を出力する左眼用撮像装置である左眼用ビデオカメラ本体32と、入力装置筐体内に配置され、左眼用ビデオカメラ本体(カラーカメラ本体)32で撮影されたカラー画像を処理して、左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を生成する左眼側画像処理基板33と、入力装置筐体内に配置され、右眼側画像処理基板31から出力される右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左眼側画像処理基板32から出力される左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を画像処理して操作者の手の動きに対応するポインティングデータを生成し、USBケーブル、信号接続ケーブルなどのケーブルを介して、パソコン、テレビ、エアコン、大画面スクリーン装置などの遠隔操作対象機器などに供給する共通処理基板34とを備えている。
FIG. 40 is a block diagram showing a second embodiment of the input device according to the present invention. An
そして、操作者を撮影して得られたカラー画像を解析して、影などの影響、操作者の手前側にいる人、及び背後にいる人の影響などを取り除きながら、操作者の手の動きに対応したポインティングデータを生成し、入力装置1b→ケーブル→遠隔操作対象機器なる経路でポインティングデータを遠隔操作対象機器に供給し、この遠隔操作対象機器の動作を制御する。
Then, by analyzing the color image obtained by photographing the operator, the movement of the operator's hand while removing the influence of shadows, the influence of the person on the front side of the operator, and the influence of the person behind. Pointing data is generated, and the pointing data is supplied to the remote operation target device through the path of the
右眼用ビデオカメラ本体30は、320画素×240画素程度の解像度を持つカラーカメラによって構成されており、右眼側画像処理基板31から電源電圧、クロック信号などが出されているとき操作者を撮影し、これによって得られたカラービデオ信号を右眼側画像処理基板31に供給する。
The right-eye video camera
右眼側画像処理基板31は、右眼用ビデオカメラ本体から出力されるカラービデオ信号をRGB形式のカラー画像に変換した後、HSV(色相・彩度・明度)方式で予め設定されている特定色(例えば、肌色)のカラー画像を抽出するのに必要なカラーマスクを使用して、カラー画像中の肌色画像を抽出する肌色画像抽出回路35と、右眼用ビデオカメラ本体30から出力されるカラービデオ信号をRGB形式のカラー画像に変換した後、予め設定されている階調のモノクロ画像に変換するグレー化処理回路36と、グレー化処理回路36から出力されるモノクロ画像を予め設定されている画面分割数で分割する(但し、画面分割設定されていないときこの画面分割処理はスキップされる)と共に、最大尤度しきい値法で2値化して2値化画像にする画像分割/2値化処理回路37と、画像分割/2値化処理回路37から出力される2値化画像と肌色画像抽出回路35から出力される肌色画像との論理和を取り、2値化画像中の肌色部分を抽出する色フィルタリング処理回路38とを備えている。
The right eye side
さらに、右眼側画像処理基板31は、色フィルタリング処理回路38から出力される2値化画像を数フレーム分〜数十フレーム分、一時記憶するフレームバッファ回路39と、フレームバッファ回路39に記憶されている2値化画像を順次読み出しながらフレーム間差分処理を行い、差分画像を生成するフレーム間差分処理回路40と、フレーム間差分処理回路40からフレーム単位で出力される各差分画像を各分割エリア毎に積算して、ヒストグラムを生成するヒストグラム処理回路41と、ヒストグラム処理回路41から出力されるヒストグラムに対し統計処理を行うと共に、統計処理結果を用いて仮想カーソル活動領域判定処理、仮想ボタンクリック活動領域判定処理、多段階矩形オブジェクト抽出処理などを行って、影などの影響を取り除いた右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像を生成する活動矩形領域抽出処理回路42とを備えている。
Further, the right-eye
さらに、活動矩形領域抽出処理回路42は、ヒストグラム処理回路41にて生成した多段階の差分画像データの最新の差分画像データから抽出した活動矩形領域と、前記仮想ボタンクリック活動領域画像とを比較し、抽出した活動矩形領域が仮想ボタンクリック活動領域の範囲を超えている場合は、これら抽出活動矩形領域を無効判定する処理を行うことにより、操作者が入力操作に意図していない動きをノイズとして無視することができる。
Furthermore, the activity rectangular area
そして、右眼用ビデオカメラ本体30から出力されるカラービデオ信号に対し、グレー化処理、画面分割/2値化処理、色フィルタリング処理、フレームバッファ処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を順次施して、右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像を生成し、共通処理基板34に供給する。
For the color video signal output from the right-eye
また、左眼用ビデオカメラ本体32は、320画素×240画素程度の解像度を持つカラーカメラによって構成されており、左眼側画像処理基板33から電源電圧、クロック信号などが出されているとき操作者を撮影し、これによって得られたカラービデオ信号を左眼側画像処理基板33に供給する。
The left-eye video camera
左眼側画像処理基板33は、左眼用ビデオカメラ本体32から出力されるカラービデオ信号をRGB形式のカラー画像に変換した後、HSV(色相・彩度・明度)方式で、予め設定されている特定色(例えば、肌色)のカラー画像を抽出するのに必要なカラーマスクを使用して、カラー画像中の肌色画像を抽出する肌色画像抽出回路43と、左眼用ビデオカメラ本体32から出力されるカラービデオ信号をRGB形式のカラー画像に変換した後、予め設定されている階調のモノクロ画像に変換するグレー化処理回路44と、グレー化処理回路44から出力されるモノクロ画像を予め設定されている画面分割数で分割する(但し、画面分割設定されていないとき、この画面分割処理はスキップされる)と共に、最大尤度しきい値法で2値化して、2値化画像にする画像分割/2値化処理回路45と、画像分割/2値化処理回路45から出力される2値化画像と肌色画像抽出回路43から出力される肌色画像との論理和を取り、2値化画像中の肌色部分を抽出する色フィルタリング処理回路46とを備えている。
The left-eye-side
さらに、左眼側画像処理基板33は、色フィルタリング処理回路46から出力される2値化画像を数フレーム分〜数十フレーム分、一時記憶するフレームバッファ回路47と、フレームバッファ回路47に記憶されている2値化画像を順次読み出しながらフレーム間差分処理を行い、差分画像を生成するフレーム間差分処理回路48と、フレーム間差分処理回路48からフレーム単位で出力される各差分画像を各分割エリア毎に積算して、ヒストグラムを生成するヒストグラム処理回路49と、ヒストグラム処理回路49から出力されるヒストグラムに対し統計処理を行うと共に、統計処理結果を用いて仮想カーソル活動領域判定処理、仮想ボタンクリック活動領域判定処理、多段階矩形オブジェクト抽出処理などを行って、影などの影響を取り除いた左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を生成する活動矩形領域抽出処理回路50とを備えている。
Further, the left eye side
さらに、活動矩形領域抽出処理回路50は、ヒストグラム処理回路49にて生成した多段階の差分画像データの最新の差分画像データから抽出した活動矩形領域と、前記仮想ボタンクリック活動領域画像とを比較し、前述した図38に示すように、抽出した活動矩形領域が仮想ボタンクリック活動領域の範囲を超えている場合は、これら抽出活動矩形領域を無効判定する処理を行うことにより、操作者が入力操作に意図していない動きをノイズとして無視することができる。
Further, the activity rectangular area
そして、左眼用ビデオカメラ本体32から出力されるカラービデオ信号に対し、グレー化処理、画面分割/2値化処理、色フィルタリング処理、フレームバッファ処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を順次施して、左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を生成し、共通処理基板34に供給する。
For the color video signal output from the left-eye video camera
共通処理基板34は、両眼視差法による位置補正に必要な右眼用ウェブカメラ30、左眼用ウェブカメラ32の取り付け位置データ(水平距離“B”、上下距離など)、右眼用ウェブカメラ30、左眼用ウェブカメラ32の焦点距離“f”などの撮影条件情報が設定される撮影条件設定回路51と、右眼側画像処理基板31から出力される右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左眼側画像処理基板33から出力される左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像に活動矩形領域が含まれるとき、撮影条件設定回路51に設定されている撮影条件情報を用いて両眼視差法で各活動矩形領域の位置を補正する処理、大きさ順に各活動矩形領域に番号を付加する処理、同じ番号が付加された各活動矩形領域の中心座標間の距離(中心座標距離)を演算する処理、所定値以下になっている各中心座標距離に対応する活動矩形領域を選択する処理、選択した活動矩形領域のみを含み、選択していない活動矩形領域を含まない左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を作成する処理などを行って、右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像に含まれる操作者の手前にいる人、及び背後にいる人の動きなどの影響を取り除いた後、左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を数画像分〜数十画像分保持する活動矩形領域選択処理回路52とを備えている。
The
さらに、活動矩形領域選択処理回路52は、ウェブカメラ30、32の視野角を定数として右眼活動矩形領域と左眼活動矩形領域の中心点間の横方向での中心座標距離に応じて、カラーカメラから被写体までの距離を補正することでより正確に操作者の手前にいる人、及び背後にいる人の動きなどの影響を取り除くことができる。この補正の原理及び補正の演算式については、前述した図39及び[数5]の式の通りである。活動矩形領域選択処理回路52は、中心座標距離に応じて予め演算した被写体までの距離をテーブルデータで保持しておくことで高速処理を実現できる。
Furthermore, the activity rectangular area
斯かる活動矩形領域選択処理回路52の処理動作において、同じ番号が付加された各活動矩形領域の中心座標間の距離(中心座標距離)を演算する処理は、図1の距離測定手段Cの作用に相当する。すなわち、ウェブカメラ30、32の間隔と焦点距離fを予め設定すると、被写体までの距離は|XL−XR|と相関関係にあるために、中心座標距離の演算は被写体までの距離を測定していることになる。
In the processing operation of the activity rectangular area
また、活動矩形領域選択処理回路52が操作者の手前にいる人、及び背後にいる人の動きなどの影響を取り除く処理は、図1の被写体判別手段Dの作用に相当する。すなわち、中心座標距離の演算処理にて測定した被写体までの距離と予め設定してある奥行き距離とを比較して、許容範囲内で一致しない場合にその活動矩形領域を無効とすることで、予め設定してある奥行き距離に仮想タッチスクリーンが形成されて、操作者による仮想タッチスクリーン上での手に対応する活動矩形領域のみを選択する。
Further, the process in which the activity rectangular area
さらに、共通処理基板34は、活動矩形領域選択処理回路52に保持されている左眼側の各仮想カーソル活動領域画像のうち、最新の仮想カーソル活動領域画像に活動矩形領域群が存在するとき、活動矩形領域群の数、形状、移動有無、移動方向などに基づき、仮想カーソル位置指示、仮想カーソル形状指示、仮想カーソル色指示、操作対象画面スクロール指示、操作対象画面拡大指示、操作対象画面縮小指示、操作対象画面回転指示などのポインティングデータを生成すると共に、仮想カーソルがクリック可能な状態になっているとき、活動矩形領域選択処理回路52に保持されている各仮想ボタンクリック活動領域画像のうち、最新の仮想ボタンクリック活動領域画像に活動矩形領域群が存在しているかどうかをチェックし、活動矩形領域群が存在しているとき、活動矩形領域群の形状などに基づきシングルクリック指示、ダブルクリック指示などのポインティングデータを生成する仮想カーソル制御処理/画面制御処理回路53を備えている。仮想カーソル制御処理/画面制御処理回路53のポインティングデータを生成する処理は、図1の操作指示生成手段Eの作用に相当する。
Further, the
そして、右眼側画像処理基板31から出力される右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左眼側画像処理基板32から出力される左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像に活動矩形領域が含まれるとき、操作者の前にいる人の動き、操作者の背後にいる人の動きなどに起因するノイズを取り除きながら操作者の各手がどのように動いているかを判定し、この判定結果に応じて仮想カーソル位置指示、仮想カーソル形状指示、仮想カーソル色指示、操作対象画面スクロール指示、操作対象画面拡大指示、操作対象画面縮小指示、操作対象画面回転指示などのポインティングデータを生成し、遠隔操作対象機器となっているパソコン、テレビ、エアコン、大画面スクリーン装置などに供給する。
Then, the right eye side virtual cursor activity region image output from the right eye side
このように、この第2の実施形態では、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32によって操作者を撮影して得られた低解像度のカラー画像に対し、色フィルタリング処理、グレー化処理、画像分割/2値化処理、フレームバッファ処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理、活動矩形領域選択処理、仮想カーソル制御処理/画面制御処理などを行い操作者の手の動きを検知し、仮想カーソル位置指示、仮想カーソル形状指示、仮想カーソル色指示、操作対象画面スクロール指示、操作対象画面拡大指示、操作対象画面縮小指示、操作対象画面回転指示などのポインティングデータを生成し、遠隔操作対象機器に供給するようにしているので、遠隔操作対象機器側の仮想カーソルサイズ、仮想カーソル位置、仮想カーソル色、クリック、操作対象画面の上下スクロール、左右スクロール、拡大、縮小、回転などを遠隔操作することができる。
As described above, in the second embodiment, the color filtering process, gray level is applied to the low-resolution color image obtained by photographing the operator by the right-eye
さらに、この第2の実施形態では、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32によって操作者を撮影して得られた低解像度のカラー画像に対し、グレー化処理、画像分割/2値化処理、色フィルタリング処理、フレームバッファ処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理、活動矩形領域選択処理、仮想カーソル制御処理/画面制御処理など、少ない段数の画像処理を施してポインティングデータを生成するようにしているので、肌色画像抽出理回路35、43、グレー化処理回路36、44、画像分割/2値化処理回路37、45、色フィルタリング処理回路38、46、フレームバッファ処理回路36、47、フレーム間差分処理回路40、48、ヒストグラム処理回路41、49、活動矩形領域抽出処理回路42、50、活動矩形領域選択回路52、仮想カーソル制御処理/画面制御処理回路53として、処理速度があまり速くない素子の使用を可能にして装置全体のコストを低く抑えながら、ほぼリアルタイムで操作者の動きを検知し、遠隔操作対象機器を制御することができる。
Further, in the second embodiment, the low-resolution color image obtained by photographing the operator with the right-eye video camera
また、この第2の実施形態では、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32によって操作者を撮影して得られた右眼側の各活動矩形領域と、左眼側の各活動矩形領域とに対し、両眼視差法で中心座標位置を補正した後、大きさ順に番号を付けて中心座標位置を比較し、この比較結果に基づきピント位置に対応する右眼側の各活動矩形領域と、左眼側の各活動矩形領域とを選択するようにしているので、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32のピント位置にある操作者の手以外のもの、例えば操作者の後ろに人がいて動いていても、これに影響されることなく操作者の手の動きのみを抽出して、仮想カーソルのサイズ制御、位置制御、色制御、クリック制御、操作対象画面の拡大制御、縮小制御、回転制御、上下スクロール制御、左右スクロール制御などを行うことができる)。
In the second embodiment, the right-eye active rectangular area obtained by photographing the operator with the right-eye video camera
そして、この第2の実施形態においても、上述した第1の実施形態と同様に、操作者が片手だけを動かしているとき、仮想カーソル制御指示、クリック制御指示、スクロール制御指示の何れかであると判定し、仮想カーソルサイズ指示、仮想カーソル位置指示、仮想カーソル色指示、スクロール制御指示、クリック指示などを示すポインティングデータを生成するようにしているので、片手だけで遠隔操作対象機器側のディスプレイに表示されている仮想カーソルのサイズ、位置、色、クリック動作、操作対象画面のスクロールなどを遠隔操作することができる。 In the second embodiment, as in the first embodiment described above, when the operator moves only one hand, it is one of the virtual cursor control instruction, the click control instruction, and the scroll control instruction. And pointing data indicating virtual cursor size instructions, virtual cursor position instructions, virtual cursor color instructions, scroll control instructions, click instructions, etc. are generated. The displayed virtual cursor can be remotely operated such as the size, position, color, click operation, and scrolling of the operation target screen.
また、この第2の実施形態においても、上述した第1の実施形態と同様に、操作者が両手を動かしているとき、右手の動き、左手の動きを各々検出して操作対象画面の制御指示であると判定し、操作対象画面拡大指示、操作対象画面縮小指示、操作対象画面回転指示などを示すポインティングデータを生成するようにしているので、操作者が右手、左手を動かすだけで遠隔操作対象機器側のディスプレイに表示されている操作対象画面を拡大、縮小、回転させることができる。 Also in the second embodiment, as in the first embodiment described above, when the operator moves both hands, the right hand movement and the left hand movement are detected to control the operation target screen. Since the pointing data indicating the operation target screen enlargement instruction, operation target screen reduction instruction, operation target screen rotation instruction, etc. is generated, the operator can move the right hand and the left hand. The operation target screen displayed on the display on the device side can be enlarged, reduced or rotated.
また、本発明の第2の実施形態では、活動矩形領域抽出処理回路42、50においてヒストグラムを統計処理すると共に、統計処理結果を使用してヒストグラムから右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左側の仮想カーソル活動領域画像、左側の仮想ボタンクリック活動領域画像を作成するようにしているので、操作者の手など動いている部分を正確に検知することができ、安定した仮想カーソル制御、クリック制御、操作対象画面制御を行うことができる。
Further, in the second embodiment of the present invention, the active rectangular area
また、本発明の第2の実施形態では、活動矩形領域抽出処理回路42、50において、右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左側の仮想カーソル活動領域画像、左側の仮想ボタンクリック活動領域画像に対し、多段階矩形オブジェクト抽出処理を行うようにしているので、操作者の影などに起因する誤動作を防止し、安定した仮想カーソル制御、クリック制御、操作対象画面制御を行うことができる。
In the second embodiment of the present invention, in the active rectangle area
上述した各実施形態では、各ウェブカメラ4,6、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32で得られたカラー画像の全領域をグレー化し、2値化するようにしているが、図41のフローチャート、図42の模式図に示すようにヒストグラムを統計処理、活動矩形領域抽出処理で得られた変化領域矩形(活動矩形領域を含む矩形)65に対し、指定された拡大縮小率(例えば拡大率“10%”)で拡大/縮小した拡大/縮小矩形マスク66を作成すると共に(ステップS71)、次フレームのカラー画像全領域をグレー化して得られたモノクロ画像の中から拡大/縮小矩形マスク66に対応する部分(モノクロ画像に含まれる活動領域部分の画像67)だけを抽出して、2値化処理するようにしても良い(ステップS72)。
In each of the above-described embodiments, the entire area of the color image obtained by each of the
このようにすれば、モノクロ画像などの中から活動領域より少し広い範囲に含まれる画像のみを有効にし、それ以外の領域にある画像を無効にして、変化領域以外の部分に存在するノイズを除去することができる。 In this way, only the image included in the area slightly wider than the active area from the monochrome image etc. is enabled, the image in the other area is disabled, and the noise existing in the part other than the change area is removed. can do.
また、上述した第1の実施形態、及び第2の実施形態では、CPU9による色フィルタリング処理、又は色フィルタリング処理回路38、46によって、肌色のカラー画像を抽出するようにしているが、操作者が特定色の操作器、例えば赤ペンなどを使用して仮想カーソルの位置、クリック、操作対象画面のスクロール、操作対象画面の拡大、操作対象画面の縮小、操作対象画面の回転などを制御する場合には、赤色抽出用のカラーマスクを使用し、CPU9による色フィルタリング処理、又は色フィルタリング処理回路38、46によって赤色のカラー画像を抽出するようにしても良い。
Further, in the first embodiment and the second embodiment described above, the skin color image is extracted by the color filtering processing by the CPU 9 or the color
これにより、各ウェブカメラ4,6、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32の撮影範囲に複数の人がいても、操作者が持つ操作器の色に対応するカラー画像を抽出して仮想カーソルのサイズ制御、位置制御、クリック制御、操作対象画面のスクロール制御、拡大制御、縮小制御、回転制御などを行うことができる。
Thereby, even if there are a plurality of people in the shooting range of each of the
また、このような色フィルタリング処理は、各ウェブカメラ4,6、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32から出力されるカラービデオ信号に含まれる操作者の手など、動いている画像を抽出するために行っている処理であることから、操作者が居る場所の照明条件が良好で、操作者の手などが動いている画像と背景画像とのコントラストが大きいとき、色フィルタリング処理を省略するようにしても良い。
Further, such color filtering processing is performed by moving each
本発明の入力装置に係るタッチレスインタフェース操作の好適な実施例を示す。タッチレスインタフェースは、実施例1でも説明したように、CPU9が図7のフローチャートにおけるステップS18の仮想カーソル制御処理/画面制御処理において実行される。すなわち、ウェブカメラ4,6からの画像を処理して活動領域群の形状から操作者の動作を検出して、その動きに応じた操作者からの指示を認識するのであるが、以下、具体的な操作指示方法について説明する。
The suitable Example of the touchless interface operation which concerns on the input device of this invention is shown. As described in the first embodiment, the touchless interface is executed by the CPU 9 in the virtual cursor control process / screen control process in step S18 in the flowchart of FIG. That is, the images from the
(仮想カーソルの表示操作)
操作者が図43に示すように、人指し指のみ又は人指し指と中指の両方を上下に動かす動作(タッピング動作)を行うと、CPU9は、前記したステップS64(図15)の処理にて活動領域群の形状からこの動作を検出しカーソル表示制御を開始する。
(Virtual cursor display operation)
As shown in FIG. 43, when the operator performs an operation (tapping operation) to move only the index finger or both the index finger and the middle finger up and down (tapping operation), the CPU 9 performs the process of step S64 (FIG. 15). This operation is detected from the shape and cursor display control is started.
CPU9は、先ず画面上に仮想カーソル表示開始の応答表示(フィードバック)を行なうようディスプレイ部3を制御する。このフィードバックは、例えば図44の(a)部と(b)部で示すように、グレー色のサークルを小から大へと波紋が広がるよう画面上に順次表示するものである。 First, the CPU 9 controls the display unit 3 so as to perform a response display (feedback) of the virtual cursor display start on the screen. For example, as shown in FIGS. 44 (a) and 44 (b), this feedback sequentially displays gray circles on the screen so that ripples spread from small to large.
フィードバック表示の後、CPU9は、図44の(c)部で示すように仮想カーソル25Aをグレー色の第1の状態で表示するようディスプレイ部3を制御する。
After the feedback display, the CPU 9 controls the display unit 3 to display the
(仮想カーソルのロック操作)
そして、このグレー色での仮想カーソル25Aの表示中に、操作者がタッピング動作を停止又はその動作を小さくするのをCPU9が検出すると、CPU9は、仮想カーソル25Aを赤色の第2の状態での表示に切り換えて実カーソル28Aを表示するようディスプレイ部3を制御する(図45)。
(Virtual cursor lock operation)
When the CPU 9 detects that the operator stops the tapping operation or reduces the operation while the gray
本実施例では、カーソル表示は操作者によるタッピング動作に応答して行うが、実施例1では指先の旋回により行っている。また、ウェブカメラ4,6に遠い位置に手又は指先による操作が有効となる空間を設定している場合は、指先のタッピング動作より図46に示すような掌を正面に向けて横に振る動き(バイバイのように)、または掌を手招きのように縦に振る動作が認識する上で好ましい。
In this embodiment, the cursor is displayed in response to the tapping operation by the operator, but in the first embodiment, the cursor is displayed by turning the fingertip. In addition, when a space where the operation by the hand or the fingertip is effective at a position far from the
(実カーソルの移動操作)
CPU9は、図45で示すように仮想カーソル25Aが赤色の第2の状態にて表示されているときに、操作者が上下左右の目的の位置で上記のタッピング動作を行うのを検出するとカーソル移動制御を行う。このときCPU9は、第1の信号を生成して、ディスプレイ部3が仮想カーソル25Aをその位置まで移動して表示するよう制御する。仮想カーソル25Aが赤色の第2の状態で表示していることで、操作者は仮想カーソル25Aが移動可能であることを認識できる。
(Actual cursor movement operation)
When the
このように、ディスプレイ部3の任意の座標位置をタッピング動作にてポインティングすることでその座標位置までカーソルを移動させることができる。 In this way, by pointing an arbitrary coordinate position on the display unit 3 by a tapping operation, the cursor can be moved to that coordinate position.
(クリック操作及びダブルクリック操作)
CPU9は、仮想カーソル25Aがグレー色の第1の状態で表示されているときに、操作者が、図47に示すように人指し指だけを立てている状態(図47の(a)部)から全ての指を立てて掌を広げる状態(図47の(b)部)に変化させる第2の形態の動き、或いは図48に示すように人指し指だけを立てている状態(図48の(a)部)から掌を広げた状態(図48の(b)部)、そして再び人指し指だけを立てる状態(図48の(c)部)へと変化させる第3の形態の動きを行うのを検出するとクリック制御を行う。
(Click operation and double click operation)
When the
このときCPU9は、第2の形態の動作を検出したときはシングルクリック操作と認識して第2の信号を生成し、第3の形態の動作を検出したときはダブルクリック操作と認識して第3の信号を生成する。CPU9が第2の信号や第3の信号を生成することで、シングルクリック又はダブルクリックを認識したことを仮想カーソル25Aの色や形状、および音にて操作者に知らせることができる。そして、ディスプレイ部3の画面上のリンクやアプリケーションの選択ボタン上に実カーソル28Aを重ねた状態で第3の信号が発生すると、リンク先へのジャンプやアプリケーションの実行が開始される。実施例1の場合、シングルクリック及びダブルクリックは、操作者が一本の指での指差し状態から掌を広げ、そして指差し状態に戻す動作を行うことで認識している。
At this time, the CPU 9 recognizes a single click operation when it detects the second form of operation and generates a second signal, and recognizes a double click operation when it detects the operation of the third form. 3 signal is generated. By generating the second signal or the third signal, the CPU 9 can notify the operator that the single click or the double click has been recognized by the color, shape, and sound of the
以上、カーソルの表示と移動、及びクリック操作に関して、別の例として、カメラ4,6に掌または所定の認識オブジェクトを向ける動きで仮想カーソルを表示して、その掌が移動するのに応じて仮想カーソルを移動させ、目的の位置で掌の移動の停止にて仮想カーソルをロックして、次に掌を左右に振ることでクリックする操作方法もある。
As described above, regarding the display and movement of the cursor and the click operation, as another example, the virtual cursor is displayed by moving the palm or a predetermined recognition object toward the
(フリップ操作)
CPU9は、仮想カーソル25Aが赤色の第2の状態にて表示されている図49の(a)部で示す状態のときに、操作者が、図49の(b)部から(c)部で示すように、掌を本のページを捲るように右または左に振る第4の形態の動きを行うのを検出すると画面スクロール制御を行う。このときCPU9は第4の信号を生成して、ディスプレイ部3の画面表示のスクロール動作を制御する。図49で(b)部から(c)部への動作は右方向へのフリップ操作であり、画面は左から右へとスクロールされる。
(Flip operation)
When the
操作者は、フリップ操作前に、仮想カーソル25Aがグレー色の第1の状態で表示しているときは、図49の(a)部で示すようにタッピング動作を行い、仮想カーソル25Aが赤色の第2の状態にて表示されてからフリップ操作を行うことでスクロールが行われる。
When the
(ドラッグアンドドロップ操作)
CPU9は、操作者がディスプレイ部3の画面上における目的のオブジェクトまたは画面位置で指先によるタッピング動作を検出すると、ドラッグアンドドロップ制御を行う。このときCPU9は、仮想カーソル25Aがその場所で赤色の第2の状態で表示し(図50の(a)部)、続いて、掌を画面に向けて左右に振る第5の形態の動き(図50の(b)部)を検出するとドラッグ操作を認識する。CPU9は、更に掌を画面に向けた状態で目的の位置まで移動するのを検出すると第5の信号を生成し、アイコン70を表示して掌の移動に追随して表示するようディスプレイ部3を制御する(図50の(c)部)。そして、CPU9は、操作者が指にてタップするか(図50の(d)部)、または移動を止めて数秒待ってから手を離す第6の形態の動きを検出すると、第6の信号を生成してオブジェクトのドロップを表示するようディスプレイ部3を制御する。
(Drag and drop operation)
When the operator detects a tapping operation by a fingertip at a target object or screen position on the screen of the display unit 3, the CPU 9 performs drag and drop control. At this time, the CPU 9 displays the
このように、ドラッグアンドドロップ操作は、オブジェクト上でタッピング動作することでオブジェクトをクリックし、次に掌を左右に振ることでオブジェクトを捕え、捕えたことをアイコン70の表示にて認識すると、掌を目的の位置まで移動させ、そして指によるタッピング動作を行うことで実行される。
In this way, the drag-and-drop operation performs a tapping operation on the object, clicks on the object, then shakes the palm to the left and right to catch the object, and if the catch is recognized by the
以上は操作者が片腕の手若しくは指の動きにより行う操作指示であるが、両腕による手若しくは指の動きにより行う操作指示について説明する。 The above is the operation instruction given by the movement of the hand or finger of one arm by the operator. The operation instruction given by the movement of the hand or finger by both arms will be described.
(画面拡大/縮小操作)
CPU9は、ステップS65(図15)において、活動領域群の形状から操作者が両手若しくは両手の指にて2点で同時にタッピング動作するのを検出すると、2点カーソル71を表示(図51の(a)部)するようディスプレイ部3を制御する。そして、CPU9は、操作者がタッピング動作を行う両手若しくは両手の指の間隔が拡大又は縮小するのを検出すると画面拡大・縮小制御を行う。
(Screen enlarge / reduce operation)
In step S65 (FIG. 15), the CPU 9 displays a two-
このときCPU9は、操作者がタッピング動作を行う両手若しくは両手の指の間隔が拡大又は縮小されるのに応じて、2点カーソル71の間隔を拡大(図51の(b)部)又は縮小(図51の(c)部)して表示するようディスプレイ部3を制御する。そして、CPU9は、2点でのタッピング動作が停止されたとき第7の信号を生成し、2点カーソル71の間隔に応じて画面の拡大表示又は縮小表示を行うようディスプレイ部3を制御する。
At this time, the CPU 9 enlarges or reduces the interval of the two-point cursor 71 (part (b) in FIG. 51) or reduces (reduces) the interval between the two hands or fingers of both hands where the operator performs the tapping operation. The display unit 3 is controlled so as to be displayed as shown in FIG. Then, the CPU 9 generates a seventh signal when the tapping operation at the two points is stopped, and controls the display unit 3 to perform the enlarged display or the reduced display of the screen according to the interval of the two-
(画面回転操作)
一方、CPU9は、操作者の両手若しくは両手の指による2点での同時のタッピング動作を検出して2点カーソル71を表示(図52の(a)部)しているとき、タッピング動作を行う両手若しくは両手の指の相対位置が上下に変化するのを検出すると画面回転制御を行う。
(Screen rotation operation)
On the other hand, the CPU 9 detects the simultaneous tapping operation at two points with both hands of the operator or the fingers of both hands and displays the two-point cursor 71 (part (a) in FIG. 52), and performs the tapping operation. When it is detected that the relative position of both hands or fingers of both hands changes up and down, screen rotation control is performed.
このとき、CPU9は、操作者がタッピング動作を行う両手若しくは両手の指の上下の相対位置関係に応じて2点カーソル71を上下に幅を持たせて表示するようディスプレイ部3を制御する。そして、CPU9は、2点でのタッピング動作が停止されたとき第8の信号を生成し、2点カーソル71の上下の位置関係に応じて画面の表示を右回転又は左回転させて表示するようディスプレイ部3を制御する。すなわち、左カーソルが右カーソルより高い位置(図52の(b)部)にあるときは右回転させ、その逆(図52の(c)部)のときは左回転させる。
At this time, the CPU 9 controls the display unit 3 so that the two-
本実施例では両手でのタッピング動作により画面拡大・縮小指示や画面回転指示を行うが、実施例1の画面拡大・縮小指示や画面回転指示の場合と比べて、タッピング動作を取り入れることで操作に対する認識率がより高まる。 In this embodiment, a screen enlargement / reduction instruction or a screen rotation instruction is performed by a tapping operation with both hands. Compared with the case of the screen enlargement / reduction instruction or the screen rotation instruction of the first embodiment, the tapping operation is incorporated to perform an operation. The recognition rate is further increased.
上記した如く、操作者が手又は指の動きにて操作指示を与える場合に、操作者に画面上の位置を知らせることが操作性の向上につながる。そのためには次の2つの方法がある。 As described above, when an operator gives an operation instruction by the movement of a hand or a finger, notifying the operator of the position on the screen leads to an improvement in operability. There are the following two methods for this purpose.
1つは、ウェブカメラ4,6に映った操作者自身をディスプレイ部3の画面上に透過表示するもので、CPU9はビデオキャプチャ5を制御して取り込んだ操作者の映像信号を表示I/F11を通してディスプレイ部3に出力して表示する。
One is to transparently display the operator himself / herself reflected on the
これにより、操作者は直感的に画面位置をポインティングすることができる。また、操作者の動きに合わせて、操作者自身を画面上に透過表示したり、しなかったりすることで、透過表示に邪魔されずに画面上のコンテンツを操作者が見ることができる。例えば、CPU9はステップS63の処理において、操作者による操作が停止して活動領域群が無いことを検出すると透過表示を行わず、一方操作が行われていて活動領域群の有りを検出したときは、透過表示を行うようディスプレイ部3への映像信号の出力を制御する。 Thus, the operator can intuitively point the screen position. In addition, the operator can see the content on the screen without being disturbed by the transparent display by transparently displaying the operator himself / herself on the screen according to the movement of the operator. For example, when the CPU 9 detects that the operation by the operator is stopped and there is no active area group in the process of step S63, the CPU 9 does not perform the transparent display, and on the other hand, when the operation is performed and the presence of the active area group is detected. The output of the video signal to the display unit 3 is controlled so as to perform transmissive display.
もう1つは、操作者の手先の動きを検出し、それに応じたエフェクトをディスプレイ部3の画面上に透過表示するものである。CPU9は、ステップS64若しくはステップS65の処理にて活動領域群の形状から操作者の手の動きを認識すると、その操作に応じたエフェクトを表示する。 The other is to detect the movement of the operator's hand and transparently display an effect corresponding to the movement on the screen of the display unit 3. When the CPU 9 recognizes the movement of the operator's hand from the shape of the active area group in the process of step S64 or step S65, the CPU 9 displays an effect corresponding to the operation.
例えば、CPU9は、図49の(b)部から(c)部で示すような掌を右または左に振るフリップの動きを検出すると、予め画像格納エリア16に格納しているフリップのエフェクト画像を表示I/F11を通してディスプレイ部3に出力する。このようにエフェクトを表示することにより、操作者は現在ポインティングしている位置を知ることができる。
For example, when the CPU 9 detects a flip movement in which the palm is shaken to the right or left as shown in the (b) to (c) parts of FIG. 49, the flip effect image stored in the
こうした2通りの方法を同時に用いたり、或いは操作指示の動作の内容に応じて何れか一方を選択的に使い分けることで操作者にとって操作がしやすくなり、ユーザインタフェースの優れた入力装置が提供される。 By using either of these two methods at the same time or selectively using either one according to the contents of the operation instruction operation, the operator can easily operate, and an input device with an excellent user interface is provided. .
本発明は、情報端末装置やパーソナルコンピュータなどの情報機器に接続されて使用され、カメラによる操作者の動作画像から仮想タッチスクリーン上での動作を取り込み、その動きの形態から情報機器のカーソル操作やアプリケーションプログラムの選択及び実行などを制御する入力装置に関するものであり、産業上の利用可能性を有する。 The present invention is used by being connected to an information device such as an information terminal device or a personal computer, capturing an operation on a virtual touch screen from an operation image of an operator by a camera, The present invention relates to an input device that controls selection and execution of an application program, and has industrial applicability.
A 右眼用撮像装置
B 左眼用撮像装置
C 距離測定手段
D 被写体判別手段
E 操作指示生成手段
1a、1b 入力装置
2 パソコン
3 ディスプレイ部
4 ウェブカメラ(左眼用カラーカメラ)
5 ビデオキャプチャ
6 ウェブカメラ(右眼用カラーカメラ)
9 CPU
25、25A 仮想カーソル
26 活動矩形領域
27 仮想カーソル活動領域画像
28、28A 実カーソル
30 右眼用ビデオカメラ本体(右眼用カラーカメラ本体)
31 右眼側画像処理基板
32 左眼用ビデオカメラ本体(左眼用カラーカメラ本体)
33 左眼側画像処理基板
34 共通処理基板
35 肌色画像抽出回路
36 グレー化処理回路
37 画像分割/2値化処理回路
38 色フィルタリング処理回路
39 フレームバッファ回路
40 フレーム間差分処理回路
41 ヒストグラム処理回路
42 活動矩形領域抽出処理回路
43 肌色画像抽出回路
44 グレー化処理回路
45 画像分割/2値化処理回路
46 色フィルタリング処理回路
47 フレームバッファ回路
48 フレーム間差分処理回路
49 ヒストグラム処理回路
50 活動矩形領域抽出処理回路
51 撮影条件設定回路
52 活動矩形領域選択処理回路
53 仮想カーソル制御処理/画面制御処理回路
65 変化領域矩形
66 拡大/縮小矩形マスク
67 マスク後の画像
A imaging device for the right eye B imaging device for the left eye C distance measurement means D subject determination means E operation instruction generation means 1a,
5
9 CPU
25, 25A
31 Right-eye
33 Left-eye
Claims (43)
右眼用撮像装置と、
前記右眼用撮像装置から所定の間隔を置いた位置に、前記右眼用撮像装置と並んで配置される左眼用撮像装置と、
被写体に対する前記右眼用撮像装置と前記左眼用撮像装置の画像から両眼視差法により前記被写体までの距離を測定する距離測定手段と、
前記右眼用撮像装置と前記左眼用撮像装置との間の前記間隔に基づいて両眼視差法により割り出して予め設定してある奥行き距離と前記距離測定手段が測定した前記被写体までの距離とを比較し、前記被写体までの距離と前記奥行き距離とが所定の許容範囲内で一致している前記被写体を選択して前記操作者と判別する被写体判別手段と、
前記被写体判別手段が判別した前記被写体の動きを検出し、この検出結果に応じた操作指示を生成する操作指示生成手段と、
を備えたことを特徴とする入力装置。 An input device that processes an operator's image obtained by an imaging device and generates an operation instruction according to the operation content of the operator,
An imaging device for the right eye;
A left-eye imaging device arranged in parallel with the right-eye imaging device at a predetermined interval from the right-eye imaging device;
Distance measuring means for measuring a distance to the subject from the images of the right-eye imaging device and the left-eye imaging device with respect to the subject by a binocular parallax method;
Based on the distance between the imaging device for the right eye and the imaging device for the left eye, a depth distance determined by a binocular parallax method and set in advance, and a distance to the subject measured by the distance measuring unit, A subject discriminating means for selecting the subject in which the distance to the subject and the depth distance match within a predetermined allowable range and discriminating from the operator;
An operation instruction generating means for detecting the movement of the subject determined by the subject determining means and generating an operation instruction according to the detection result;
An input device comprising:
前記操作指示生成手段は、カーソルの表示待機中に前記操作者の手若しくは指による第1の形態の動きを検出すると前記ディスプレイ部に前記仮想カーソルを第1の状態で表示し、該第1の状態での表示中に前記手若しくは指による前記第1の動きが停止又は前記第1の動きが小さくなるのを検出すると前記仮想カーソルを第2の状態で表示すると共に、実カーソルを表示するカーソル表示制御手段を備えたことを特徴とする請求項1に記載の入力装置。 A display unit for displaying a recognition result of the operation instruction;
The operation instruction generation means displays the virtual cursor in the first state on the display unit when detecting the movement of the first form by the operator's hand or finger while waiting for the cursor to be displayed. A cursor that displays the virtual cursor in the second state and displays the real cursor when it is detected that the first movement by the hand or finger is stopped or the first movement is reduced during the display in the state The input device according to claim 1, further comprising display control means.
右眼用カラーカメラと、
前記右眼用カラーカメラから所定距離だけ離れた位置に、前記右眼用カラーカメラと並んで配置される左眼用カラーカメラと、
被写体を捉えた前記右眼用カラーカメラから出力されるカラー画像に対し、グレー化処理、画像分割/2値化処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を行い、前記操作者の右眼側活動矩形領域を抽出する右眼側画像処理プログラムと、
前記被写体を捉えた前記左眼用カラーカメラから出力されるカラー画像に対し、グレー化処理、画像分割/2値化処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を行い、前記操作者の左眼側活動矩形領域を抽出する左眼側画像処理プログラムと、
前記右眼側画像処理プログラムで得られた右眼側活動矩形領域の座標軸と前記左眼側画像処理プログラムで得られた左眼側活動矩形領域の座標軸との中心座標距離を演算することで両眼視差法による前記被写体までの距離を測定し、測定した前記被写体までの距離を前記右眼用撮像装置と前記左眼用撮像装置との間の前記間隔に基づいて両眼視差法により割り出して予め設定してある奥行き距離と比較し、前記被写体までの距離と前記奥行き距離とが所定の許容範囲内で一致している前記右眼活動矩形領域及び前記左眼活動矩形領域を前記操作者による活動矩形領域として選択する活動領域選択処理プログラムと、
前記活動領域選択処理プログラムにて選択された活動矩形領域に対し、仮想カーソル制御処理/画面制御処理を行って、前記被写体の手、又は指先の動きを検出し、この検出結果に応じた操作指示を生成する画像処理プログラムと、
を備えたことを特徴とする入力装置。 An input device that processes an operator's image obtained by a video camera and generates an operation instruction according to the operation content of the operator,
A right-eye color camera,
A left-eye color camera arranged side by side with the right-eye color camera at a position away from the right-eye color camera by a predetermined distance;
The operator performs graying processing, image division / binarization processing, inter-frame difference processing, histogram processing, and active rectangular area extraction processing on the color image output from the right-eye color camera that captures the subject. A right eye side image processing program for extracting a right eye side activity rectangular region of
The color image output from the left-eye color camera capturing the subject is subjected to graying processing, image segmentation / binarization processing, inter-frame difference processing, histogram processing, and active rectangular area extraction processing, and the operation Left eye side image processing program for extracting the left eye side activity rectangular area of the person,
By calculating the center coordinate distance between the coordinate axis of the right eye side active rectangular area obtained by the right eye side image processing program and the coordinate axis of the left eye side active rectangular area obtained by the left eye side image processing program, both are calculated. The distance to the subject is measured by an eye parallax method, and the measured distance to the subject is determined by a binocular parallax method based on the interval between the right eye imaging device and the left eye imaging device. The right eye activity rectangular area and the left eye activity rectangular area in which the distance to the subject and the depth distance match within a predetermined tolerance range are compared with the depth distance set in advance by the operator. An activity area selection processing program to be selected as an activity rectangle area;
A virtual cursor control process / screen control process is performed on the active rectangular area selected by the active area selection processing program to detect the movement of the hand or fingertip of the subject, and an operation instruction corresponding to the detection result An image processing program for generating
An input device comprising:
前記画像処理プログラムは、カーソルの表示待機中に前記操作者の手若しくは指による第1の形態の動きを検出すると前記ディスプレイ部に前記仮想カーソルを第1の状態で表示し、該第1の状態での表示中に前記手若しくは指による前記第1の動きが停止又は前記第1の動きが小さくなるのを検出すると前記仮想カーソルを第2の状態で表示すると共に、実カーソルを表示するカーソル表示制御のステップを備えたことを特徴とする請求項12乃至請求項17の何れか一つに記載の入力装置。 A display unit for displaying a recognition result of the operation instruction;
The image processing program displays the virtual cursor in the first state on the display unit when detecting the movement of the first form by the operator's hand or finger while waiting to display the cursor. Cursor display for displaying the virtual cursor in the second state and displaying the real cursor when it is detected that the first movement by the hand or finger is stopped or the first movement is reduced during display The input device according to any one of claims 12 to 17, further comprising a control step.
箱形に形成される入力装置筐体と、
この入力装置筐体の前面左側に取り付けられる右眼用カラーカメラ本体と、
前記入力装置筐体の前面右側に取り付けられる左眼用カラーカメラ本体と、
前記入力装置筐体内に配置され、グレー化処理回路、画像分割/2値化処理回路、フレーム間差分処理回路、ヒストグラム処理回路、活動矩形領域抽出処理回路によって、前記右眼用カラーカメラ本体から出力されるカラー画像を処理して、前記操作者の右眼側活動矩形領域を抽出する右眼側画像処理基板と、
前記入力装置筐体内に配置され、グレー化処理回路、画像分割/2値化処理回路、フレーム間差分処理回路、ヒストグラム処理回路、活動矩形領域抽出処理回路によって、前記左眼用カラーカメラ本体から出力されるカラー画像を処理して、前記操作者の左眼側活動矩形領域を抽出する左眼側画像処理基板と、
前記入力装置筐体内に配置され、活動矩形領域選択処理回路、仮想カーソル制御処理/画面制御処理回路によって、両眼視差法を使用して、前記右眼側画像処理プログラムで得られた右眼側活動矩形領域の座標軸と前記左眼側画像処理プログラムで得られた左眼側活動矩形領域の座標軸とから被写体までの距離を演算することで両眼視差法による前記被写体までの距離を測定し、前記被写体までの距離を前記右眼用撮像装置と前記左眼用撮像装置との間の前記間隔に基づいて両眼視差法により割り出して予め設定してある奥行き距離と比較し、前記被写体までの距離と前記奥行き距離とが所定の許容範囲内で一致している前記右眼活動矩形領域及び前記左眼活動矩形領域を前記操作者による活動矩形領域として選択し、選択した前記活動矩形領域に仮想カーソル制御処理/画面制御処理を行って、前記被写体の手、又は指先の動きを検出し、この検出結果に応じたポインティングデータを生成し、遠隔操作対象機器の動作を制御する共通処理基板と、
を備えることを特徴とする入力装置。 An input device that processes an image of an operator obtained by a video camera, generates an operation instruction according to the operation content of the operator, and controls the operation of the remote operation target device,
An input device housing formed in a box shape;
A color camera body for the right eye attached to the front left side of the input device housing;
A color camera body for the left eye attached to the front right side of the input device housing;
Output from the right-eye color camera body by the graying processing circuit, the image segmentation / binarization processing circuit, the inter-frame difference processing circuit, the histogram processing circuit, and the active rectangular area extraction processing circuit which are arranged in the input device casing. A right eye side image processing board that processes the color image to be extracted and extracts the right eye side activity rectangular region of the operator;
Output from the left-eye color camera body by the graying processing circuit, image segmentation / binarization processing circuit, inter-frame difference processing circuit, histogram processing circuit, and active rectangular area extraction processing circuit, which is arranged in the input device casing. A left eye side image processing board that processes the color image to be extracted and extracts the left eye side activity rectangular region of the operator;
The right eye side obtained by the right eye side image processing program using the binocular parallax method by the active rectangle area selection processing circuit, the virtual cursor control processing / screen control processing circuit, which is arranged in the input device casing Measure the distance to the subject by binocular parallax method by calculating the distance from the coordinate axis of the activity rectangular area and the coordinate axis of the left eye side activity rectangular area obtained by the left eye side image processing program, The distance to the subject is determined by a binocular parallax method based on the distance between the right-eye imaging device and the left-eye imaging device, and compared with a preset depth distance, The right-eye activity rectangular region and the left-eye activity rectangular region in which the distance and the depth distance coincide within a predetermined allowable range are selected as the activity rectangle region by the operator, and the selected activity rectangle Common processing for performing virtual cursor control processing / screen control processing on the area, detecting movement of the hand or fingertip of the subject, generating pointing data according to the detection result, and controlling the operation of the remote operation target device A substrate,
An input device comprising:
前記共通処理基板は、カーソルの表示待機中に前記操作者の手若しくは指による第1の形態の動きを検出すると前記ディスプレイ部に前記仮想カーソルを第1の状態で表示し、該第1の状態での表示中に前記手若しくは指による前記第1の動きが停止又は前記第1の動きが小さくなるのを検出すると前記仮想カーソルを第2の状態で表示すると共に、実カーソルを表示するカーソル表示制御部を備えたことを特徴とする請求項28乃至請求項33の何れか一つに記載の入力装置。 A display unit for displaying a recognition result of the operation instruction;
The common processing board displays the virtual cursor in the first state on the display unit when detecting the movement of the first form by the hand or finger of the operator while waiting for the cursor to be displayed. Cursor display for displaying the virtual cursor in the second state and displaying the real cursor when it is detected that the first movement by the hand or finger is stopped or the first movement is reduced during display 34. The input device according to claim 28, further comprising a control unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011139984A JP2012238293A (en) | 2011-04-28 | 2011-06-24 | Input device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011101395 | 2011-04-28 | ||
JP2011101395 | 2011-04-28 | ||
JP2011139984A JP2012238293A (en) | 2011-04-28 | 2011-06-24 | Input device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012238293A true JP2012238293A (en) | 2012-12-06 |
Family
ID=47461102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011139984A Withdrawn JP2012238293A (en) | 2011-04-28 | 2011-06-24 | Input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012238293A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015041381A (en) * | 2013-08-21 | 2015-03-02 | 株式会社リコー | Method and system of detecting moving object |
WO2015030264A1 (en) * | 2013-08-30 | 2015-03-05 | 国立大学法人山梨大学 | Device, method, and program for detecting click operation |
WO2015075767A1 (en) * | 2013-11-19 | 2015-05-28 | 日立マクセル株式会社 | Projection-type video display device |
WO2016103769A1 (en) * | 2014-12-26 | 2016-06-30 | 株式会社ネクステッジテクノロジー | Manipulation input device, manipulation input method, and program |
JP2016186656A (en) * | 2016-07-13 | 2016-10-27 | 日立マクセル株式会社 | Projection type image display apparatus |
WO2018048043A1 (en) * | 2016-09-09 | 2018-03-15 | 주식회사 토비스 | Space touch recognition method and space touch recognition device using same |
WO2018105246A1 (en) * | 2016-12-07 | 2018-06-14 | ソニーセミコンダクタソリューションズ株式会社 | Image sensor |
WO2018105248A1 (en) * | 2016-12-07 | 2018-06-14 | ソニーセミコンダクタソリューションズ株式会社 | Image sensor |
CN115376394A (en) * | 2022-08-09 | 2022-11-22 | 苏州华恒展览设计营造有限公司 | Virtual electronic page turning system |
-
2011
- 2011-06-24 JP JP2011139984A patent/JP2012238293A/en not_active Withdrawn
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015041381A (en) * | 2013-08-21 | 2015-03-02 | 株式会社リコー | Method and system of detecting moving object |
WO2015030264A1 (en) * | 2013-08-30 | 2015-03-05 | 国立大学法人山梨大学 | Device, method, and program for detecting click operation |
CN108664173A (en) * | 2013-11-19 | 2018-10-16 | 麦克赛尔株式会社 | projection-type image display device |
WO2015075767A1 (en) * | 2013-11-19 | 2015-05-28 | 日立マクセル株式会社 | Projection-type video display device |
JP5973087B2 (en) * | 2013-11-19 | 2016-08-23 | 日立マクセル株式会社 | Projection-type image display device |
US10191594B2 (en) | 2013-11-19 | 2019-01-29 | Maxell, Ltd. | Projection-type video display device |
US9927923B2 (en) | 2013-11-19 | 2018-03-27 | Hitachi Maxell, Ltd. | Projection-type video display device |
US9836130B2 (en) | 2014-12-26 | 2017-12-05 | Nextedge Technology K.K. | Operation input device, operation input method, and program |
JPWO2016103769A1 (en) * | 2014-12-26 | 2017-11-02 | 株式会社ネクステッジテクノロジー | Operation input device, operation input method and program |
WO2016103769A1 (en) * | 2014-12-26 | 2016-06-30 | 株式会社ネクステッジテクノロジー | Manipulation input device, manipulation input method, and program |
JP2016186656A (en) * | 2016-07-13 | 2016-10-27 | 日立マクセル株式会社 | Projection type image display apparatus |
WO2018048043A1 (en) * | 2016-09-09 | 2018-03-15 | 주식회사 토비스 | Space touch recognition method and space touch recognition device using same |
WO2018105246A1 (en) * | 2016-12-07 | 2018-06-14 | ソニーセミコンダクタソリューションズ株式会社 | Image sensor |
WO2018105248A1 (en) * | 2016-12-07 | 2018-06-14 | ソニーセミコンダクタソリューションズ株式会社 | Image sensor |
US10904429B2 (en) | 2016-12-07 | 2021-01-26 | Sony Semiconductor Solutions Corporation | Image sensor |
CN115376394A (en) * | 2022-08-09 | 2022-11-22 | 苏州华恒展览设计营造有限公司 | Virtual electronic page turning system |
CN115376394B (en) * | 2022-08-09 | 2024-03-26 | 苏州华恒展览设计营造有限公司 | Virtual electronic page turning system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220382379A1 (en) | Touch Free User Interface | |
JP2012238293A (en) | Input device | |
US10445887B2 (en) | Tracking processing device and tracking processing system provided with same, and tracking processing method | |
JP6372487B2 (en) | Information processing apparatus, control method, program, and storage medium | |
US10234955B2 (en) | Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program | |
US20140184494A1 (en) | User Centric Interface for Interaction with Visual Display that Recognizes User Intentions | |
US20140240225A1 (en) | Method for touchless control of a device | |
US20150145762A1 (en) | Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program | |
CN115016678A (en) | Display device | |
US9544556B2 (en) | Projection control apparatus and projection control method | |
JP6344530B2 (en) | Input device, input method, and program | |
US9836130B2 (en) | Operation input device, operation input method, and program | |
US9081430B2 (en) | Pointing control device, integrated circuit thereof and pointing control method | |
WO2021097600A1 (en) | Inter-air interaction method and apparatus, and device | |
EP3617851B1 (en) | Information processing device, information processing method, and recording medium | |
US20150277570A1 (en) | Providing Onscreen Visualizations of Gesture Movements | |
WO2011096571A1 (en) | Input device | |
KR101426378B1 (en) | System and Method for Processing Presentation Event Using Depth Information | |
WO2018150569A1 (en) | Gesture recognition device, gesture recognition method, projector equipped with gesture recognition device and video signal supply device | |
TWI499938B (en) | Touch control system | |
US20220244788A1 (en) | Head-mounted display | |
TW201709022A (en) | Non-contact control system and method | |
TW201925989A (en) | Interactive system | |
KR20160045945A (en) | Bidirectional interactive user interface based on projector | |
KR20150137908A (en) | Holography touch method and Projector touch method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140902 |