JP2013080266A - Input device - Google Patents
Input device Download PDFInfo
- Publication number
- JP2013080266A JP2013080266A JP2010025291A JP2010025291A JP2013080266A JP 2013080266 A JP2013080266 A JP 2013080266A JP 2010025291 A JP2010025291 A JP 2010025291A JP 2010025291 A JP2010025291 A JP 2010025291A JP 2013080266 A JP2013080266 A JP 2013080266A
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing
- area
- activity
- active
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、情報端末装置やパーソナルコンピュータなどの情報機器に接続されて使用され、カメラによって操作者(ユーザ)の動作画像を取り込み、情報機器のカーソル操作やアプリケーションプログラムの選択及び実行などを制御する入力装置であって、特に、アルゴリズムを簡素化すると共に処理データ量を極力少なくして演算量、メモリ使用量を低減すると共に、リアルタイムでパソコンのカーソルなどを制御するようにした、ビデオ映像による入力装置に関する。 The present invention is used by being connected to an information device such as an information terminal device or a personal computer, takes an operation image of an operator (user) by a camera, and controls cursor operation of the information device, selection and execution of an application program, and the like. An input device, in particular, video input that simplifies the algorithm and reduces the amount of processing data as much as possible to reduce the amount of computation and memory usage, as well as controlling the cursor of the personal computer in real time. Relates to the device.
近年、カメラでユーザを撮影して画像解析し、この画像解析結果を使用してオーディオ装置、エアコンなどの機器を操作する入力装置が種々、提案されている。 2. Description of the Related Art In recent years, various input devices have been proposed in which a user is photographed with a camera, image analysis is performed, and devices such as an audio device and an air conditioner are operated using the image analysis result.
図33は、このような従来の映像による入力装置を説明するための操作入力装置のブロック図である(特許文献1を参照)。 FIG. 33 is a block diagram of an operation input device for explaining such a conventional image input device (see Patent Document 1).
この図に示す操作入力装置101は、可視光カメラ106(図34参照)などを使用してユーザを撮影しカラー画像を出力する撮像手段102と、撮像手段102から出力されるカラー画像を解析し、ユーザの手の形状を検出する手領域検出手段103と、予め登録されている手形状と手領域検出手段103から出力される手形状とを比較し、操作指示内容を判定する手操作判定手段104と、手操作判定手段104の判定内容に基づき選択メニューを音声、又はプロジェクト画像などでユーザに知らせる選択メニュー表現手段105と、を備えている。
The
この操作入力装置101は、可視光カメラ106で撮影したカラー画像から手領域を抽出すると共に、その手の形状がどのような形状(例えば、手を傾ける、指を曲げるなど)になっているかを判定し、この判定内容に対応する手操作指示を音声、又はプロジェクト画像などでユーザに知らせるものである。
The
ところで、このような従来の操作入力装置101では、ユーザの手形状を正確に検出する必要があることから、可視光カメラ106として手の部分を詳細に撮影できる解像度の高いカメラを使用しなければならず、操作入力装置101全体が高価になってしまうという問題があった。
By the way, in such a conventional
また、従来の操作入力装置101では、手領域検出手段103によって処理される背景画像と現在の画像が共に解像度が高いため、ピクセル(画素)数、データ量が膨大だった。そのため、その分だけハードディスクの容量、メモリ容量などを大きくしなければならず、操作入力装置101全体が高価になってしまうという問題があった。
In the conventional
さらに、従来の操作入力装置101では、手領域検出手段103として図34に示すように、差分領域抽出手段110、肌色領域抽出手段111、2値化補正手段112、距離算出手段113、中央重点補正手段114、手領域候補検出手段115、輪郭長/面積算出手段116、手領域決定手段117などを備え、複雑な演算を行わなければならないのみならず、かなり高速なCPU、又は専用回路を使用しなければリアルタイムで手の形状を検出することができないという問題があった。
Further, in the conventional
このため、パソコンのカーソルなどを簡単に遠隔操作する入力装置として上記のような従来の操作入力装置101を使用することは難しく、安価なカメラが適用可能で、かつ少ない演算量、少ないメモリ量で遠隔操作入力できる入力装置の開発が強く望まれていた。
For this reason, it is difficult to use the above-described conventional
また、従来の操作入力装置101では、可視光カメラ106の撮影範囲内にユーザ以外の人が居て手を動かした場合に、これを検出して誤動作してしまうという問題があった。
Further, the conventional
本発明は、上記の事情に鑑み、請求項1では、解像度が低く安価なカメラの使用を可能にすると共に、演算量、メモリ量を大幅に少なくすることにより装置全体のコストを大幅に低減させながら、ユーザの動きを検知してパソコンのカーソルなどを遠隔操作することができ、さらにカメラの撮影範囲内にユーザ以外の人が居て手を動かした場合でも誤動作しない入力装置を提供することを目的とする。 In view of the above circumstances, the present invention enables the use of an inexpensive camera with a low resolution, and significantly reduces the cost of the entire apparatus by greatly reducing the amount of computation and memory. However, it is possible to provide an input device that can detect a user's movement and remotely control a cursor of a personal computer, and that does not malfunction even if a person other than the user moves within the shooting range of the camera. Objective.
また、請求項2では、パソコンなどから分離された解像度が低く安価なカメラの使用を可能にすると共に、回路規模を大幅に小さくすることにより装置全体のコストを大幅に低減させながら、ユーザの動きを検知してパソコンのカーソルなどを遠隔操作することができ、さらにカメラの撮影範囲内にユーザ以外の人が居て手を動かした場合でも誤動作しない入力装置を提供することを目的とする。 According to the second aspect of the present invention, it is possible to use a low-cost and low-resolution camera separated from a personal computer or the like, and the movement of the user while greatly reducing the cost of the entire apparatus by greatly reducing the circuit scale. It is an object of the present invention to provide an input device that can remotely detect a cursor of a personal computer and can operate a personal computer cursor and the like, and does not malfunction even when a person other than the user moves within the shooting range of the camera.
また、請求項3では、解像度が低く安価なカメラの使用を可能にすると共に、演算量、メモリ量、又は回路規模を大幅に小さくすることにより装置全体のコストを大幅に低減させながら、ユーザの片手動作を検知してパソコンのカーソル、操作対象画面のスクロールなどを遠隔操作することができ、さらにカメラの撮影範囲内にユーザ以外の人が居て手を動かした場合でも誤動作しない入力装置を提供することを目的とする。 Further, according to the third aspect of the present invention, it is possible to use an inexpensive camera with a low resolution, and by greatly reducing the calculation amount, the memory amount, or the circuit scale, the cost of the entire apparatus can be significantly reduced. Provides an input device that can detect one-hand movement and remotely control the cursor of the PC, scrolling the operation target screen, etc., and does not malfunction even if a person other than the user moves within the shooting range of the camera The purpose is to do.
また、請求項4では、解像度が低く安価なカメラの使用を可能にすると共に、演算量、メモリ量、又は回路規模を大幅に小さくすることにより装置全体のコストを大幅に低減させながら、ユーザの両手動作を検知して操作対象画面の拡大/縮小、操作対象画面の回転などを遠隔操作することができ、さらにカメラの撮影範囲内にユーザ以外の人が居て手を動かした場合でも誤動作しない入力装置を提供することを目的とする。 Further, in claim 4, it is possible to use an inexpensive camera with low resolution, and the cost of the entire apparatus is greatly reduced by greatly reducing the amount of calculation, the amount of memory, or the circuit scale, and It is possible to remotely control operations such as enlargement / reduction of the operation target screen, rotation of the operation target screen, etc. by detecting the movement of both hands, and it does not malfunction even if a person other than the user moves within the shooting range of the camera. An object is to provide an input device.
また、請求項5では、解像度が低く安価なカメラの使用を可能にすると共に、演算量、メモリ量、又は回路規模を大幅に小さくすることにより装置全体のコストを大幅に低減させながら、ユーザの手など動いている部分のみを正確に検知し、安定した仮想カーソル制御、クリック制御、操作対象画面制御を行い、さらにカメラの撮影範囲内にユーザ以外の人が居て手を動かした場合でも誤動作しない入力装置を提供することを目的とする。 Further, according to the fifth aspect of the present invention, it is possible to use an inexpensive camera with a low resolution, and by greatly reducing the calculation amount, the memory amount, or the circuit scale, the cost of the entire apparatus can be significantly reduced. Accurately detects only moving parts such as the hand, performs stable virtual cursor control, click control, and operation target screen control, and malfunctions even when someone other than the user moves within the shooting range of the camera An object of the present invention is to provide an input device that does not.
また、請求項6では、解像度が低く安価なカメラの使用を可能にすると共に、演算量、メモリ量、又は回路規模を大幅に小さくすることにより装置全体のコストを大幅に低減させながら、ユーザの影などに起因する誤動作を防止し、安定した仮想カーソル制御、クリック制御、操作対象画面制御を行い、さらにカメラの撮影範囲内にユーザ以外の人が居て手を動かした場合でも誤動作しない入力装置を提供することを目的とする。 According to the sixth aspect of the present invention, it is possible to use an inexpensive camera with a low resolution, and to significantly reduce the cost of the entire apparatus by significantly reducing the amount of calculation, the amount of memory, or the circuit scale. An input device that prevents malfunctions caused by shadows, etc., performs stable virtual cursor control, click control, operation target screen control, and does not malfunction even when a person other than the user moves within the shooting range of the camera The purpose is to provide.
また、請求項7では、解像度が低く安価なカメラの使用を可能にすると共に、演算量、メモリ量、又は回路規模を大幅に小さくすることにより装置全体のコストを大幅に低減させながら、カメラで得られた画像の中からユーザの手画像より少し広い範囲に含まれる画像のみを有効にし、それ以外の画像を無効にして変化領域以外の部分に存在するノイズを除去することができ、さらにカメラの撮影範囲内にユーザ以外の人が居て手を動かした場合でも誤動作しない入力装置を提供することを目的とする。 Further, according to the seventh aspect of the present invention, it is possible to use an inexpensive camera with a low resolution, and to significantly reduce the cost of the entire apparatus by greatly reducing the calculation amount, the memory amount, or the circuit scale. From the obtained images, only the image included in a slightly wider range than the user's hand image can be validated, the other images can be invalidated, and noise existing in parts other than the change area can be removed. It is an object of the present invention to provide an input device that does not malfunction even when a person other than the user is in the shooting range and moves his / her hand.
本発明は、上記の目的を達成するために、請求項1では、ビデオカメラで得られた操作者の画像を処理して、操作者の動作内容に応じた操作指示を生成する入力装置において、操作者を撮影する右眼用カラーカメラと、この右眼用カラーカメラから所定距離だけ離れた位置に、前記右眼用カラーカメラと並んで配置され、前記操作者を撮影する左眼用カラーカメラと、前記右眼用カラーカメラから出力されるカラー画像に対し、グレー化処理、画像分割/2値化処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を行い、前記操作者の右眼側活動矩形領域を抽出する右眼側画像処理プログラムと、前記左眼用カラーカメラから出力されるカラー画像に対し、グレー化処理、画像分割/2値化処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を行い、前記操作者の左眼側活動矩形領域を抽出する左眼側画像処理プログラムと、前記右眼側画像処理プログラムで得られた右眼側活動矩形領域、前記左眼側画像処理プログラムで得られた左眼側活動矩形領域に対し、両眼視差法を使用した活動矩形領域選択処理、仮想カーソル制御処理/画面制御処理を行って、前記操作者の手、又は指先の動きを検出し、この検出結果に応じた操作指示を生成する画像処理プログラムとを備えることを特徴としている。 In order to achieve the above object, the present invention provides an input device that processes an image of an operator obtained by a video camera and generates an operation instruction according to the operation content of the operator. A color camera for the right eye that shoots the operator, and a color camera for the left eye that is arranged side by side with the color camera for the right eye at a predetermined distance from the color camera for the right eye and shoots the operator The gray image, the image division / binarization process, the inter-frame difference process, the histogram process, and the active rectangular area extraction process are performed on the color image output from the right-eye color camera, and the operator's right A right eye side image processing program for extracting an eye side activity rectangular area and a color image output from the left eye color camera are subjected to graying processing, image division / binarization processing, inter-frame difference processing, A left-eye side image processing program for performing a tomogram processing, an activity rectangular region extraction process to extract the left-eye side activity rectangular region of the operator, and a right-eye side activity rectangular region obtained by the right-eye side image processing program, The left-eye side active rectangular area obtained by the left-eye side image processing program is subjected to an active rectangular area selection process using a binocular parallax method, a virtual cursor control process / screen control process, and the operator's hand Or an image processing program that detects the movement of the fingertip and generates an operation instruction according to the detection result.
また、請求項2では、ビデオカメラで得られた操作者の画像を処理して、操作者の動作内容に応じた操作指示を生成し、遠隔操作対象機器の動作を制御する入力装置において、箱形に形成される入力装置筐体と、この入力装置筐体の前面左側に取り付けられ、操作者の画像を撮影する右眼用カラーカメラ本体と、前記入力装置筐体の前面右側に取り付けられ、前記操作者の画像を撮影する左眼用カラーカメラ本体と、前記入力装置筐体内に配置され、グレー化処理回路、画像分割/2値化処理回路、フレーム間差分処理回路、ヒストグラム処理回路、活動矩形領域抽出処理回路によって、前記右眼用カラーカメラ本体から出力されるカラー画像を処理して、前記操作者の右眼側活動矩形領域を抽出する右眼側画像処理基板と、前記入力装置筐体内に配置され、グレー化処理回路、画像分割/2値化処理回路、フレーム間差分処理回路、ヒストグラム処理回路、活動矩形領域抽出処理回路によって、前記左眼用カラーカメラ本体から出力されるカラー画像を処理して、前記操作者の左眼側活動矩形領域を抽出する左眼側画像処理基板と、前記入力装置筐体内に配置され、活動矩形領域選択処理回路、仮想カーソル制御処理/画面制御処理回路によって、前記右眼側画像処理基板で得られた右眼側活動矩形領域、前記左眼側画像処理基板で得られた左眼側活動矩形領域に、両眼視差法を使用した活動矩形領域選択処理、仮想カーソル制御処理/画面制御処理を行って、前記操作者の手、又は指先の動きを検出し、この検出結果に応じたポインティングデータを生成し、遠隔操作対象機器の動作を制御する共通処理基板とを備えることを特徴としている。 According to a second aspect of the present invention, there is provided an input device that processes an image of an operator obtained by a video camera, generates an operation instruction according to the operation content of the operator, and controls the operation of the remote operation target device. An input device housing formed into a shape, attached to the front left side of the input device housing, and attached to the right-eye color camera body for taking an image of the operator, and the front right side of the input device housing, A color camera body for the left eye that captures an image of the operator, and a graying processing circuit, an image division / binarization processing circuit, an inter-frame difference processing circuit, a histogram processing circuit, an activity, which are arranged in the input device casing A rectangular area extraction processing circuit processes a color image output from the right-eye color camera body to extract a right-eye side active rectangular area of the operator, and the input device housing. A color image output from the color camera body for the left eye by a graying processing circuit, an image division / binarization processing circuit, an inter-frame difference processing circuit, a histogram processing circuit, and an active rectangular area extraction processing circuit. The left-eye side image processing board for extracting the left-eye side activity rectangular area of the operator, and the active-rectangle area selection processing circuit, virtual cursor control process / screen control process, which are arranged in the input device casing An active rectangular area using a binocular parallax method to a right eye side active rectangular area obtained on the right eye side image processing board and a left eye side active rectangular area obtained on the left eye side image processing board by a circuit Performs selection processing, virtual cursor control processing / screen control processing, detects the movement of the operator's hand or fingertip, generates pointing data according to the detection result, It is characterized in that it comprises a common substrate for controlling the operation.
また、請求項3では、請求項1、2の何れかに記載の入力装置において、前記仮想カーソル制御処理/画面制御処理、又は前記仮想カーソル制御処理/画面制御処理回路は、仮想カーソル活動領域画像上に活動矩形領域群が1つあるとき、その形状、移動有無に基づき、カールソル制御指示、又は画面スクロール指示を生成することを特徴としている。
In the input device according to any one of
また、請求項4では、請求項1、2、3の何れかに記載の入力装置において、前記仮想カーソル制御処理/画面制御処理、又は前記仮想カーソル制御処理/画面制御処理回路は、仮想カーソル活動領域画像上に活動矩形領域群が2つあるとき、その移動方向に基づき、画面回転指示、画面拡大指示、画面縮小指示の何れかを生成することを特徴としている。
Further, according to claim 4, in the input device according to
また、請求項5では、請求項1、2、3、4の何れかに記載の入力装置において、前記活動矩形領域抽出処理、又は前記活動矩形領域抽出処理回路は、ヒストグラムの統計処理結果を使用して、前記ヒストグラムから仮想カーソル活動領域画像、仮想ボタンクリック活動領域画像を作成することを特徴としている。
Further, in
また、請求項6では、請求項1、2、3、4、5の何れかに記載の入力装置において、前記活動矩形領域抽出処理、又は前記活動矩形領域抽出処理回路は、前記仮想カーソル活動領域画像、又は前記仮想ボタンクリック活動領域画像に対し、多段階矩形オブジェクト抽出処理を行い、ノイズ成分を除去することを特徴としている。
Also, in the input device according to any one of
また、請求項7では、請求項1、2、3、4、5、6の何れかに記載の入力装置において、拡大/縮小矩形マスク作成処理、又は拡大/縮小矩形マスク作成処理回路を付加し、前記拡大/縮小矩形マスク作成処理、又は前記拡大/縮小矩形マスク作成処理回路によって、前記カラーカメラ、前記カラーカメラ本体で得られたカラー画像の中から、前記仮想カーソル活動領域画像上の変化領域矩形、又は前記仮想ボタンクリック活動領域画像の変化領域矩形に対応する画像を抽出し、それ以外の画像をカットして、ノイズ成分を除去することを特徴としている。 According to a seventh aspect of the present invention, in the input device according to any one of the first, second, third, fourth, fifth, and sixth aspects, an enlargement / reduction rectangular mask creation process or an enlargement / reduction rectangle mask creation processing circuit is added. A change area on the virtual cursor active area image from among the color images obtained by the color camera and the color camera main body by the enlargement / reduction rectangular mask creation processing or the enlargement / reduction rectangle mask creation processing circuit. An image corresponding to a rectangle or a change region rectangle of the virtual button click activity region image is extracted, and other images are cut to remove noise components.
本発明によれば、解像度が低く安価なカメラの使用を可能にすると共に、演算量、メモリ量を大幅に少なくすることにより装置全体のコストを大幅に低減させながら、ユーザの動きを検知してパソコンのカーソルなどを遠隔操作することができ、さらにカメラの撮影範囲内にユーザ以外の人が居て手を動かした場合でも誤動作しない入力装置を実現することが可能となる。 According to the present invention, it is possible to use an inexpensive camera with low resolution, and to detect a user's movement while greatly reducing the cost of the entire apparatus by greatly reducing the amount of calculation and memory. An input device that can remotely control a cursor of a personal computer or the like and that does not malfunction even when a person other than the user moves within the shooting range of the camera and moves his / her hand can be realized.
1.第1の実施形態の説明
図1は、本発明による入力装置の第1の実施の形態を示すブロック図を示す。
この図に示す入力装置1aは、パソコン2のディスプレイ部3に設けられる内蔵型のウェブカメラ(請求項1の左眼用カラーカメラ)4と、パソコン2内に設けられるビデオキャプチャ5と、パソコン2のディスプレイ部3に設けられる外付け型のウェブカメラ(請求項1の右眼用カラーカメラ)6と、パソコン2内に設けられるUSBインタフェース7と、パソコン2内に設けられるハードディスク8と、パソコン2内に設けられるCPU9と、パソコン2内に設けられるメモリ10とによって構成されている。この入力装置1aは、各ウェブカメラ4、6で得られたカラー画像を解析して、各ウェブカメラ4、6の設置位置から所定距離範囲、例えば“0.3m”〜“0.8m”の範囲内にいるユーザとそれ以外の距離にいる他の人とを区別しながら、ユーザの手、指先などの動きのみを検出し、パソコン2のディスプレイ部3に表示された仮想カーソル25〔図20の(b)参照〕、操作対象画面(OS画面、アプリケーション画面)などを制御し、現在、起動中のアプリケーションをコントロールする。
1. Description of First Embodiment FIG. 1 is a block diagram showing a first embodiment of an input device according to the present invention.
The
ウェブカメラ4は、320画素×240画素程度の解像度を持つカラーカメラであり、ビデオキャプチャ5から撮影指示が出されているとき、ユーザを撮影して得られたカラービデオ信号をビデオキャプチャ5に供給する。
The web camera 4 is a color camera having a resolution of about 320 pixels × 240 pixels, and supplies the
ビデオキャプチャ5は、システムバス12を介して、CPU9から撮影指示が出されているとき、ウェブカメラ4を制御してユーザを撮影すると共に、撮影動作で得られたカラービデオ信号を取り込み、RGB信号形式のカラー画像に変換してCPU9に供給する。
When a shooting instruction is issued from the CPU 9 via the
また、ウェブカメラ6は、ウェブカメラ4から水平方向に所定距離だけ離れてディスプレイ部3の上縁などに取り付けられた、320画素×240画素程度の解像度を持つカラーカメラであり、USBインタフェース7から撮影指示が出されているとき、ユーザを撮影して得られたYUV信号をUSBインタフェース7に供給する。
The web camera 6 is a color camera having a resolution of about 320 pixels × 240 pixels attached to the upper edge of the
USBインタフェース7は、システムバス12を介して、CPU9から撮影指示が出されているとき、ウェブカメラ6を制御してユーザの画像を撮影すると共に、撮影動作で得られたYUV信号を取り込んでCPU9に供給し、RGB信号形式のカラー画像に変換する。
When a shooting instruction is issued from the CPU 9 via the
ハードディスク8は、OS(Operating System)、定数データなどが格納されるOS格納エリア13と、インターネットエクスプローラプログラム、ブラウザプログラムなどのアプリケーションプログラムが格納されるアプリケーション格納エリア14と、本発明で使用する画像処理プログラム(請求項1の右眼側画像処理プログラム、左眼側画像処理プログラム、画像処理プログラム)が格納される画像処理プログラム格納エリア15と、HSV(色相・彩度・明度)方式で、予め設定されている特定色(例えば、肌色)のカラー画像を抽出するのに必要なカラーマスク、2値化画像、ヒストグラム、仮想カーソル活動領域画像27(図9参照)、仮想ボタンクリック活動領域画像などが格納される画像格納エリア16とを備えている。そして、CPU9から読み出し指示が出力されたとき、システムバス12を介してこれを取り込み、指定されたエリアに格納されているOS、定数データ、アプリケーションプログラム、画像処理プログラム、2値化画像、ヒストグラム、仮想カーソル活動領域画像27、仮想ボタンクリック活動領域画像などを読み出し、システムバス12を介してCPU9に供給する。また、CPU9から書き込み指示、データが出力されたとき、システムバス12を介してこれらを取り込み、書き込み指示で指定されたエリア、例えば画像格納エリア16などにデータを記憶させる。
The
CPU9は、ハードディスク8に格納されているOS、定数データ、アプリケーションプログラムなどで指定された表示データを生成してシステムバス12に接続された表示インタフェース11に供給し、ディスプレイ部3に操作対象画面を表示させる。また、右眼側画像処理プログラム、左眼側画像処理プログラム、画像処理プログラムなどで記述された画像処理を行い、操作対象画面に表示されている仮想カーソルのサイズ、位置などの制御、クリック制御、スクロール制御、画面回転制御、画面拡大制御、画面縮小制御などを行う。
The CPU 9 generates display data specified by the OS, constant data, application program and the like stored in the
メモリ10は、数百メガバイト〜数ギガバイト程度の容量を持ち、CPU9がアプリケーションプログラム、右眼側画像処理プログラム、左眼側画像処理プログラム、画像処理プログラムなどで指定された処理を行うときの一時データ格納エリアとして使用される。
The
次に、図2〜図7に示す各フローチャート、図8〜図29に示す各模式図などを参照しながら、入力装置1aの画像処理動作、カーソル制御動作、画面制御動作などを説明する。
Next, an image processing operation, a cursor control operation, a screen control operation, and the like of the
《2値化画像生成、格納》
まず、パソコン2の電源が投入されて、アプリケーションプログラム、右眼側画像処理プログラム、左眼側画像処理プログラム、画像処理プログラムが起動されると、図2のフローチャートに示すようにCPU9によって、ビデオキャプチャ5が制御されて、ウェブカメラ4の撮影動作で得られたカラービデオ信号が取り込まれると共に、RGB信号形式のカラー画像に変換されてメモリ10などに一時記憶される(ステップS1)。
<< Binary image generation and storage >>
First, when the
また、この動作と並行し、CPU9によってUSBインタフェース7が制御されて、ウェブカメラ6の撮影動作で得られたYUV信号が取り込まれると共に、RGB信号形式のカラー画像に変換されてメモリ10などに一時記憶される(ステップS2)。
In parallel with this operation, the
また、これらの各動作と並行し、CPU9によってメモリ10などに一時記憶されている各カラー画像(各ウェブカメラ4、6の撮影動作で得られたカラー画像)のうち、パソコン2側からユーザを見たとき右眼に対応するウェブカメラ、例えば外付け型のウェブカメラ6で得られたカラー画像が読み取られる(ステップS3)。
In parallel with these operations, among the color images (color images obtained by the shooting operations of the web cameras 4 and 6) temporarily stored in the
この後、CPU9によってグレー化/2値化画像処理が開始される(ステップS4)。即ち、図3のフローチャートに示すようにハードディスク8の画像格納リア16に格納されているカラーマスクで、外付け型のウェブカメラ6で得られたカラー画像がマスクされ、カラー画像の中から予め設定されている特定色(例えば、肌色)のカラー画像(肌色画像)が抽出されると共に(ステップS21)、外付け型のウェブカメラ6で得られたカラー画像がグレー処理化されて、予め設定されている階調のモノクロ画像に変換され、1フレーム分の画像容量を低減させる(ステップS22)。
Thereafter, the CPU 9 starts graying / binarized image processing (step S4). That is, as shown in the flow chart of FIG. 3, the color image obtained by the external web camera 6 is masked by the color mask stored in the image storage rear 16 of the
そして、CPU9によって画面分割指示が設定されているかどうかがチェックされ、画面分割指示があればモノクロ画像が複数のエリア(各エリアは各々、数個〜数十個の画素によって構成される)に分割され、また画面分割指示がなければ分割処理がスキップされた後、最大尤度しきい値法でモノクロ画像が2値化され、2値化画像が作成される(ステップS23)。 Then, the CPU 9 checks whether or not a screen division instruction is set. If there is a screen division instruction, the monochrome image is divided into a plurality of areas (each area is composed of several to several tens of pixels). If there is no screen division instruction, the division process is skipped, and then the monochrome image is binarized by the maximum likelihood threshold method to create a binarized image (step S23).
次いで、CPU9によって2値化画像と肌色画像との論理和が取られて、2値化画像中の肌色部分が抽出され(ステップS24)、これが1フレーム分の2値化画像(右眼側の2値化画像)としてハードディスク8の画像格納エリア16に格納される(ステップS25)。
Next, the logical sum of the binarized image and the skin color image is taken by the CPU 9 and the skin color portion in the binarized image is extracted (step S24), and this is the binarized image for one frame (on the right eye side). (Binary image) is stored in the
この後、CPU9によって図2のフローチャートに示すようにメモリ10などに一時記憶されている各カラー画像(各ウェブカメラ4、6の撮影動作で得られた各カラー画像)のうち、パソコン2側からユーザを見たとき左眼に対応するウェブカメラ、例えば内蔵型のウェブカメラ4で得られたカラー画像が読み取られる(ステップS5)。
After that, among the color images (color images obtained by the shooting operations of the web cameras 4 and 6) temporarily stored in the
次いで、CPU9によってグレー化/2値化画像処理が開始される(ステップS6)。即ち、図3のフローチャートに示すようにハードディスク8の画像格納エリア16に格納されているカラーマスクで内蔵型のウェブカメラ4で得られたカラー画像がマスクされ、カラー画像の中から予め設定されている特定色(例えば、肌色)のカラー画像(肌色画像)が抽出されると共に(ステップS21)、内蔵型のウェブカメラ4で得られたカラー画像がグレー処理化されて、予め設定されている階調のモノクロ画像に変換され、1フレーム分の画像容量を低減させる(ステップS22)。
Next, the CPU 9 starts graying / binarized image processing (step S6). That is, as shown in the flowchart of FIG. 3, the color image obtained by the built-in web camera 4 is masked by the color mask stored in the
そして、CPU9によって画面分割指示が設定されているかどうかがチェックされ、画面分割指示があればモノクロ画像が複数のエリア(各エリアは各々、数個〜数十個の画素によって構成される)に分割され、また画面分割指示がなければ分割処理がスキップされた後、最大尤度しきい値法でモノクロ画像が2値化され、2値化画像が作成される(ステップS23)。 Then, the CPU 9 checks whether or not a screen division instruction is set. If there is a screen division instruction, the monochrome image is divided into a plurality of areas (each area is composed of several to several tens of pixels). If there is no screen division instruction, the division process is skipped, and then the monochrome image is binarized by the maximum likelihood threshold method to create a binarized image (step S23).
次いで、CPU9によって2値化画像と肌色画像との論理和が取られて、2値化画像中の肌色部分が抽出され(ステップS24)、これが1フレーム分の2値化画像(左眼側の2値化画像)としてハードディスク8の画像格納エリア16に格納される(ステップS25)。
Next, the logical sum of the binarized image and the skin color image is obtained by the CPU 9 and the skin color portion in the binarized image is extracted (step S24), and this is converted into a binarized image for one frame (on the left eye side). (Binary image) is stored in the
以下、上述した画像処理が繰り返され、FIFO(First・In・First・Out)形式でハードディスク8の画像格納エリア16に右眼側の2値化画像、左眼側の2値化画像が各々数フレーム分〜数十フレーム分蓄積される。
Thereafter, the above-described image processing is repeated, and the right eye side binarized image and the left eye side binarized image are in the
《フレーム間差分、ヒストグラム作成》
また、この動作と並行し図2のフローチャートに示すように、CPU9によってハードディスク13の画像格納エリア16に格納されている数フレーム分〜数十フレーム分の2値化画像の中から、右眼側に対応する最新の2値化画像を含む連続する数フレームの2値化画像が順次読み出される(ステップS7)。
《Difference between frames, creation of histogram》
In parallel with this operation, as shown in the flowchart of FIG. 2, the right eye side is selected from the binarized images for several frames to several tens of frames stored in the
そして、CPU9によって読み出すことができた2値化画像のフレーム数がチェックされ、所定数以上のフレーム数であれば(ステップS8)、フレーム間差分/ヒストグラム作成処理が開始される(ステップS9)。即ち、図4のフローチャートに示すように、各2値化画像のうち、連続する2フレーム分の2値化画像に対しフレーム間差分処理が行われると共に(ステップS31、S32)、このフレーム間差分処理で得られた各差分画像が各分割エリア毎に累積加算されて右眼側のヒストグラムが作成され、ハードディスク8の画像格納エリア16に格納される(ステップS33、S34)。
Then, the number of frames of the binarized image that can be read out by the CPU 9 is checked. If the number of frames is equal to or greater than the predetermined number (step S8), the interframe difference / histogram creation process is started (step S9). That is, as shown in the flowchart of FIG. 4, the inter-frame difference processing is performed on the binarized images for two consecutive frames among the respective binarized images (steps S31 and S32), and the inter-frame difference is performed. Each difference image obtained by the process is cumulatively added for each divided area to create a right-eye histogram and stored in the
次いで、図2のフローチャートに示すように、CPU9によってハードディスク13の画像格納エリア16に格納されている数フレーム分〜数十フレーム分の2値化画像の中から左眼側に対応する最新の2値化画像を含む、連続する数フレームの2値化画像が順次読み出される(ステップS10)。
Next, as shown in the flowchart of FIG. 2, the latest 2 corresponding to the left eye side among the binarized images of several frames to several tens of frames stored in the
そして、CPU9によって読み出すことができた2値化画像のフレーム数がチェックされ、所定数以上のフレーム数であれば(ステップS11)、フレーム間差分/ヒストグラム作成処理が開始される(ステップS12)。即ち、図4のフローチャートに示すように、各2値化画像のうち、連続する2フレーム分の2値化画像に対しフレーム間差分処理が行われると共に(ステップS31、S32)、このフレーム間差分処理で得られた各差分画像が各分割エリア毎に累積加算されて左眼側のヒストグラムが作成され、ハードディスク8の画像格納エリア16に格納される(ステップS33、S34)。
Then, the number of frames of the binarized image that can be read out by the CPU 9 is checked. If the number of frames is equal to or greater than the predetermined number (step S11), the inter-frame difference / histogram creation process is started (step S12). That is, as shown in the flowchart of FIG. 4, the inter-frame difference processing is performed on the binarized images for two consecutive frames among the respective binarized images (steps S31 and S32), and the inter-frame difference is performed. Each difference image obtained by the process is cumulatively added for each divided area to create a left eye side histogram and stored in the
《統計処理、仮想カーソルの活動領域決定、変化領域抽出》
この後、図2のフローチャートに示すように、CPU9によってハードディスク8の画像格納エリア16に格納されている右眼側のヒストグラムが読み出されて(ステップS13)、活動矩形領域抽出処理が開始される(ステップS14)。即ち、図5のフローチャートに示すように、ヒストグラムの各分割エリアの濃度値に対する統計処理が行われ、平均値、濃度分散値、最大値、偏差(±1σ、±2σ)などが演算される(ステップS41)。
《Statistical processing, virtual cursor activity area determination, change area extraction》
Thereafter, as shown in the flowchart of FIG. 2, the right-eye histogram stored in the
次いで、CPU9によってヒストグラムの各分割エリアの中から、変化領域矩形抽出用のしきい値(例えば、平均値−1σ)より大きい濃度値になっている各分割エリアが抽出され、これらの各分割エリア(活動分割エリア)を含むように矩形状の変化領域矩形65(図32参照)が決定されて、ハードディスク8の画像格納エリア16に格納される。
Next, the CPU 9 extracts from the divided areas of the histogram each divided area having a density value larger than the threshold value for extracting the change area rectangle (for example, the average value −1σ). A rectangular change area rectangle 65 (see FIG. 32) is determined so as to include (activity division area) and stored in the
また、この動作と並行し、CPU9によって図8、図10の3次元濃度分布図に示すようにヒストグラムを構成している各分割エリア20(図9、図11参照)のうち、仮想カーソル矩形抽出用のしきい値(例えば、最大値−1σ)より大きい濃度値になっている分割エリア(活動分割エリア21)が抽出される。 In parallel with this operation, the CPU 9 extracts the virtual cursor rectangle from the divided areas 20 (see FIGS. 9 and 11) constituting the histogram as shown in the three-dimensional density distribution diagrams of FIGS. A divided area (activity divided area 21) having a density value larger than the threshold value (for example, maximum value −1σ) is extracted.
これにより、ユーザが指先を大きく回しているとき、図9に示す通り各活動分割エリア21を含むように矩形状の活動矩形領域26が決定されると共に、この決定結果に基づき図12に示すような右眼側の仮想カーソル活動領域画面27が作成されて、ハードディスク8の画像格納エリア16に格納される。
As a result, when the user turns the fingertip greatly, a rectangular activity
また、ユーザが両手を動かしているときには、図11に示す通り各活動分割エリア21を含むように矩形状の活動矩形領域26が決定されて、図13に示すような右眼側の仮想カーソル活動領域画像27が作成され、ハードディスク8の画像格納エリア16に格納される(ステップS42)。
Further, when the user moves both hands, a rectangular activity
《仮想ボタンクリックの活動領域決定》
この後、CPU9によってハードディスク8の画像格納エリア16に格納されている右眼側のヒストグラムが読み出されて、各分割エリア20のうち仮想ボタンクリック矩形抽出用のしきい値(例えば、最大値−2σ)より大きい濃度値になっている分割エリア(活動分割エリア)が抽出されると共に、これらの各活動分割エリアを含むように矩形状の活動矩形領域が決定されて、右眼側の仮想ボタンクリック活動領域画像(図示は省略する)が作成され、ハードディスク8の画像格納エリア16に格納される(ステップS43)。
《Determine activity area for virtual button click》
Thereafter, the CPU 9 reads the right-eye histogram stored in the
《多段階矩形オブジェクト抽出処理、影の影響除去》
次いで、CPU9によって仮想カーソル矩形抽出用のしきい値(例えば、最大値−1σ)を使用して得られた右眼側の仮想カーソル活動領域画像27、仮想ボタンクリック矩形抽出用のしきい値(例えば、最大値−2σ)を使用して得られた右眼側の仮想ボタンクリック活動領域画像に対し、各々活動矩形領域26が左右に分割可能かどうかチェックされ、左右に分割可能であれば、図14に示すように活動矩形領域26の水平方向中心点“A”が求められると共に、水平方向中心点“A”から左側にある非活動領域と、活動領域(例えば、活動分割エリア21)との境界点“B”と、水平方向中心点“A”から右側にある非活動領域と、活動領域(例えば、活動分割エリア21)との境界点“C”とが検知され、これら境界点“B”、“C”を含む領域が各活動矩形領域26と判定され、それ以外の活動領域がユーザの影などによる不要な活動領域と判定され、無効とされる(2点抽出処理)。
《Multi-stage rectangular object extraction processing, shadow effect removal》
Subsequently, the CPU 9 uses the virtual cursor rectangle extraction threshold value (for example, the maximum value-1σ) (for example, the virtual cursor
この後、CPU9によって、2点抽出処理が終了した各活動矩形領域26に対し、各々活動矩形領域26が上下に分割可能かどうかチェックされ、上下分割可能であれば図15に示すように活動矩形領域26の上下方向中心点“A”が求められると共に、上下方向中心点“A”から上側にある非活動領域と、活動領域(例えば、活動分割エリア21)との境界点“B”が検知され、これら境界点“B”を含む領域が活動矩形領域26と判定され、下の活動領域がユーザの影などによる不要な活動領域と判定され、無効とされる(最小化処理)(ステップS44)。
Thereafter, the CPU 9 checks whether or not each of the activity
次いで、CPU9によって、これら2点抽出処理、最小化処理によって構成される多段階矩形オブジェクト抽出処理で得られた活動矩形領域26を含む右眼側の仮想カーソル活動領域画像27、右眼側の仮想ボタンクリック活動領域画像が、ハードディスク8の画像格納エリア16に格納される(ステップS45)。
Subsequently, the CPU 9 performs a virtual cursor
《統計処理、仮想カーソルの活動領域決定、変化領域抽出》
この後、図2のフローチャートに示すようにCPU9によって、ハードディスク8の画像格納エリア16に格納されている左眼側のヒストグラムが読み出されて(ステップS15)、活動矩形領域抽出処理が開始される(ステップS16)。即ち、図5のフローチャートに示すように、ヒストグラムの各分割エリアの濃度値に対する統計処理が行われ、平均値、濃度分散値、最大値、偏差(±1σ、±2σ)などが演算される(ステップS41)。
《Statistical processing, virtual cursor activity area determination, change area extraction》
Thereafter, as shown in the flowchart of FIG. 2, the CPU 9 reads the left eye side histogram stored in the
次いで、CPU9によって変化領域矩形抽出用のしきい値(例えば、平均値−1σ)より大きい濃度値になっている各分割エリア20が抽出されて、これらの各分割エリア(活動分割エリア)を含むように矩形状の変化領域矩形65(図32参照)が決定され、ハードディスク8の画像格納エリア16に格納される。
Next, the CPU 9 extracts each divided
また、この動作と並行しCPU9によって、図8、図10の3次元濃度分布図に示すようにヒストグラムを構成している各分割エリア20(図9、図11参照)のうち、仮想カーソル矩形抽出用のしきい値(例えば、最大値−1σ)より大きい濃度値になっている分割エリア(活動分割エリア21)が抽出される。 In parallel with this operation, the CPU 9 extracts the virtual cursor rectangle from the divided areas 20 (see FIGS. 9 and 11) constituting the histogram as shown in the three-dimensional density distribution diagrams of FIGS. A divided area (activity divided area 21) having a density value larger than the threshold value (for example, maximum value −1σ) is extracted.
これにより、ユーザが指先を大きく回しているとき、図9に示す通り各活動分割エリア21を含むように矩形状の活動矩形領域26が決定されると共に、この決定結果に基づき図12に示すような左眼側の仮想カーソル活動領域画面27が作成されて、ハードディスク8の画像格納エリア16に格納される。
As a result, when the user turns the fingertip greatly, a rectangular activity
また、ユーザが両手を動かしているときには、図11に示す通り各活動分割エリア21を含むように矩形状の活動矩形領域26が決定されて、図13に示すような左眼側の仮想カーソル活動領域画像27が作成され、ハードディスク8の画像格納エリア16に格納される(ステップS42)。
Further, when the user moves both hands, a rectangular activity
《仮想ボタンクリックの活動領域決定》
次いで、CPU9によってハードディスク8の画像格納エリア16に格納されている左眼側のヒストグラムが読み出されて、各分割エリア20のうち仮想ボタンクリック矩形抽出用のしきい値(例えば、最大値−2σ)より大きい濃度値になっている分割エリア(活動分割エリア)が抽出されると共に、これらの各活動分割エリアを含むように矩形状の活動矩形領域が決定されて、左眼側の仮想ボタンクリック活動領域画像(図示は省略する)が作成され、ハードディスク8の画像格納エリア16に格納される(ステップS43)。
《Determine activity area for virtual button click》
Next, the left-eye histogram stored in the
《多段階矩形オブジェクト抽出処理、影の影響除去》
次いで、CPU9によって仮想カーソル矩形抽出用のしきい値(例えば、最大値−1σ)を使用して得られた左眼側の仮想カーソル活動領域画像27、仮想ボタンクリック矩形抽出用のしきい値(例えば、最大値−2σ)を使用して得られた左眼側の仮想ボタンクリック活動領域画像に対し、各々活動矩形領域26が左右に分割可能かどうかチェックされ、左右に分割可能であれば、図14に示すように活動矩形領域26の水平方向中心点“A”が求められると共に、水平方向中心点“A”から左側にある非活動領域と、活動領域(例えば、活動分割エリア21)との境界点“B”と、水平方向中心点“A”から右側にある非活動領域と、活動領域(例えば、活動分割エリア21)との境界点“C”とが検知され、これら境界点“B”、“C”を含む領域が各活動矩形領域26と判定され、それ以外の活動領域がユーザの影などによる不要な活動領域と判定され、無効とされる(2点抽出処理)。
《Multi-stage rectangular object extraction processing, shadow effect removal》
Next, the virtual cursor click area
この後、CPU9によって、2点抽出処理が終了した各活動矩形領域26に対し各々活動矩形領域26が上下に分割可能かどうかチェックされ、上下分割可能であれば図15に示すように活動矩形領域26の上下方向中心点“A”が求められると共に、上下方向中心点“A”から上側にある非活動領域と活動領域(例えば、活動分割エリア21)との境界点“B”が検知され、これら境界点“B”を含む領域が活動矩形領域26、下の活動領域がユーザの影などによる不要な活動領域と判定され、無効とされる(最小化処理)(ステップS44)。
Thereafter, the CPU 9 checks whether or not each of the activity
次いで、CPU9によってこれら2点抽出処理、最小化処理によって構成される多段階矩形オブジェクト抽出処理で得られた活動矩形領域26を含む左眼側の仮想カーソル活動領域画像27、左眼側の仮想ボタンクリック活動領域画像が、ハードディスク8の画像格納エリア16に格納される(ステップS45)。
Next, the left eye-side virtual cursor
《活動矩形領域選択》
この後、図2のフローチャートに示すように、CPU9によって活動矩形領域選択処理が開始される(ステップS17)。即ち、図6のフローチャートに示すようにハードディスク8の画像格納エリア16に格納されている右眼側の仮想カーソル活動領域画像27、右眼側の仮想ボタンクリック活動領域画像が読み出され、これら右眼側の仮想カーソル活動領域画像27、右眼側の仮想ボタンクリック活動領域画像に含まれている各活動矩形領域26に対し、図16の模式図に示すように両眼視差法による位置補正が行われ、各ウェブカメラ4、6の取り付け位置(水平距離“B”、上下距離など)、各ウェブカメラ4、6の焦点距離“f”などと対応するように各活動矩形領域26の中心座標“PR(XR、YR)”が補正された後、大きさ順に番号が付加される(ステップS51、S52)。
《Activity rectangular area selection》
Thereafter, as shown in the flowchart of FIG. 2, the active rectangle area selection process is started by the CPU 9 (step S17). That is, as shown in the flowchart of FIG. 6, the right eye side virtual cursor
次いで、CPU9によってハードディスク8の画像格納エリア16に格納されている左眼側の仮想カーソル活動領域画像27、左眼側の仮想ボタンクリック活動領域画像が読み出され、これら左眼側の仮想カーソル活動領域画像27、左眼側の仮想ボタンクリック活動領域画像の各活動矩形領域26に対し、図16の模式図に示すように両眼視差法による位置補正が行われ、各ウェブカメラ4、6の取り付け位置(水平距離“B”、上下距離など)、各ウェブカメラ4、6の焦点距離“f”などと対応するように各活動矩形領域26の座標“PL(XL、YL)”が補正された後、大きさ順に番号が付加される(ステップS53、S54)。
Next, the CPU 9 reads the left eye side virtual cursor
これにより、各ウェブカメラ4、6の焦点距離などと対応したピント位置、例えば各ウェブカメラ4、6から“0.3m”〜“0.8m”離れた位置にユーザの手があり、両眼視差法による位置補正を行う前、図17の模式図に示すように右眼側の各活動矩形領域26と左眼側の各活動矩形領域26とが位置がずれていても、両眼視差法による位置補正を行うことにより、図18の模式図に示すように右眼側の各活動矩形領域26と左眼側の各活動矩形領域26とを完全一致(又は、ほぼ一致)させることができる。
As a result, the user's hand is at a focus position corresponding to the focal length of each of the webcams 4 and 6, for example, “0.3 m” to “0.8 m” away from each of the webcams 4 and 6. Before performing the position correction by the parallax method, as shown in the schematic diagram of FIG. 17, the binocular parallax method is used even if the positions of the
この後、CPU9によって図19の模式図に示すように、番号“1”が付与された右眼側に対応する活動矩形領域26の中心座標“XR、YR”と、左眼側に対応する活動矩形領域26の中心座標“XL、YL”との距離(中心座標距離)が演算されて、これが番号“1”と共に、メモリ10に記憶される。
Thereafter, as shown in the schematic diagram of FIG. 19 by the CPU 9, the center coordinates “X R , Y R ” of the activity
以下、CPU9によって次の番号“2”〜最後の番号“N”が付与された右眼側に対応する活動矩形領域26の中心座標“XR、YR”と、左眼側に対応する活動矩形領域26の中心座標“XL、YL”との距離(中心座標距離)が順次演算されて、これらが次の番号“2”〜最後の番号“N”と共にメモリ10に記憶される(ステップS55、S56)。
Hereinafter, the central coordinates “X R , Y R ” of the activity
そして、これらの処理が終了したとき、CPU9によって、メモリ10に記憶されている各中心座標距離が順次読み出されて所定値と比較され、所定値以下になっている各中心座標距離を持つ右眼側の活動矩形領域26、左眼側の活動矩形領域26があるとき、即ち各ウェブカメラ4、6から“0.3m”〜“0.8m”離れた位置にユーザの手があるとき、ユーザの手に対応する右眼側の活動矩形領域26、左眼側の活動矩形領域26が、有効な右眼側の活動矩形領域26、有効な左眼側の活動矩形領域26であると判定され、それ以外の右眼側の活動矩形領域26、左眼側の活動矩形領域26が無効な右眼側の活動矩形領域26、無効な左眼側の活動矩形領域26であると判定される。
When these processes are completed, the CPU 9 sequentially reads out the respective central coordinate distances stored in the
これにより、右眼側の各活動矩形領域26、左眼側の各活動矩形領域26が図19の模式図に示す関係になっていれば、中心座標距離が所定値以上になっている番号“1”に対応した右眼側の活動矩形領域(OR1)26、左眼側の活動矩形領域(OL1)26が無効と判定され、中心座標距離がほぼ“0”になっている番号“2”に対応した右眼側の活動矩形領域(OR2)26、左眼側の活動矩形領域(OL2)26が有効と判定される。
As a result, if each activity
次いで、CPU9によって、有効と判定された右眼側の活動矩形領域(OR2)26、有効と判定された左眼側の活動矩形領域(OL2)26のうち、予め指定されている方、例えば有効と判定された左眼側の活動矩形領域(OL2)26が残され、それ以外の活動矩形領域26が削除された仮想カーソル活動領域画像27、仮想ボタンクリック活動領域画像が作成され、これが両眼視差法によってユーザの手前にいる人の動き、及び背後にいる人の動きが除去された仮想カーソル活動領域画像27、仮想ボタンクリック活動領域画像としてハードディスク8の画像格納エリア16に格納される(ステップS57)。
Next, the right-side active rectangular area (O R2 ) 26 determined to be valid by the CPU 9 and the left-side active rectangular area (O L2 ) 26 determined to be valid are previously designated, For example, a virtual cursor
《片手ジェスチャによる仮想カーソルの位置、大きさ、色制御》
この後、図2のフローチャートに示すように、CPU9によって仮想カーソル制御処理/画面制御処理が開始される(ステップS18)。即ち、図7のフローチャートに示すように、ハードディスク8の画像格納エリア16に格納されている各仮想カーソル活動領域画像(両眼視差法によって、ユーザの手前にいる人の動き、及び背後にいる人の動きが除去された各仮想カーソル活動領域画像)27のうち、最新の活動矩形領域26を含む数フレーム分の仮想カーソル活動領域画像27が読み出され(ステップS61)、近接した1つ以上の活動矩形領域26によって構成される活動矩形領域群が仮想カーソル活動領域画像27内に存在しているかどうかチェックされる。
《Position, size, and color control of virtual cursor by one hand gesture》
Thereafter, as shown in the flowchart of FIG. 2, the virtual cursor control process / screen control process is started by the CPU 9 (step S18). That is, as shown in the flowchart of FIG. 7, each virtual cursor activity area image stored in the
そして、最新の仮想カーソル活動領域画像27内に活動矩形領域群が存在し、その数が“1”であり、かつほぼ矩形であれば(ステップS62、S63)、CPU9によって活動矩形領域群の大きさ、移動方向が判定され、判定結果に対応するように仮想カーソル制御が行われる(ステップS64)。
If there are active rectangular area groups in the latest virtual cursor
例えば、図20(a)に示すように、前回とほぼ同じ、高さ、左右位置で、ユーザが指先を大きく回し、これに対応して前回の処理で得られた大きな活動矩形領域群の位置と同じ位置で、大きな活動矩形領域群が得られているとき、CPU9によって仮想カーソルの表示指示であると判定されて、図20(b)に示すようにディスプレイ部3に大きなサイズ、白色の仮想カーソル25が表示される。
For example, as shown in FIG. 20 (a), the position of the large active rectangular region group obtained by the previous processing corresponding to the user turning the fingertip largely at the same height and left and right positions as in the previous time. When a large group of active rectangular areas is obtained at the same position, the CPU 9 determines that it is a virtual cursor display instruction, and the
また、ユーザが指先を大きく回しながら上下方向、又は左右方向に移動させ、これに対応して前回の処理で得られた位置から移動する大きな活動矩形領域群が得られているとき、CPU9によって仮想カーソルの移動指示であると判定されて、指先の移動方向に対応するようにディスプレイ部3に表示されている大きなサイズ、白色の仮想カーソル25を移動させる。
Further, when the user moves the fingertip up and down or left and right, and a large group of active rectangular areas moving from the position obtained in the previous process is obtained correspondingly, the CPU 9 performs virtual processing. The cursor movement instruction is determined, and the large size, white
また、図21(a)に示すように、前回とほぼ同じ、高さ、左右位置で、ユーザが指先を小さく回し、これに対応して前回の処理で得られた大きな活動矩形領域群の位置と同じ位置で、小さな活動矩形領域群が得られているとき、CPU9によって仮想カーソルの移動停止であると判定されて、図21(b)に示すようにディスプレイ部3に表示されている仮想カーソル25の移動を停止させると共に、サイズを小さくする。
Further, as shown in FIG. 21 (a), the position of the large active rectangular area group obtained by the previous process corresponding to the user turning the fingertip small at the same height and left and right positions as in the previous time. When a small group of active rectangular areas is obtained at the same position, the CPU 9 determines that the movement of the virtual cursor is stopped, and the virtual cursor displayed on the
この状態で一定時間が経過すれば、CPU9によって仮想カーソル25の色が赤色に変更され大きな移動が禁止されると共に、OS側にカーソル移動指示が出されて、仮想カーソル25内に実カーソル28を移動させる。
If a certain time has passed in this state, the CPU 9 changes the color of the
この後、ユーザが指先を少し移動させれば、CPU9によってこれが検知されて、ディスプレイ部3に表示されている仮想カーソル25の位置が微調整されると共に、OS側にカーソル位置調整指示が出されて、図22に示すように実カーソル28の位置が微調整される。
Thereafter, when the user moves the fingertip slightly, this is detected by the CPU 9 and the position of the
次いで、ユーザが指先を動かすのを止めれば、CPU9によってこれが検知され、一定時間後に、図23に示すようにディスプレイ部3に表示されている仮想カーソル25の位置が固定されると共に、仮想カーソル25の色が赤色からグレー色に変更され、ユーザにクリック可能になったことを知らせる。
Next, if the user stops moving the fingertip, the CPU 9 detects this, and after a certain time, the position of the
この状態でも、ユーザが指先を再度大きく回せば、CPU9によってこれが検知されて、ディスプレイ部3に表示されている仮想カーソル25の色が白色に戻され、仮想カーソル25が移動可能な状態に戻される。
Even in this state, if the user turns the fingertip again largely, this is detected by the CPU 9, the color of the
《片手ジェスチャによるスクロール制御》
また、上述した仮想カーソル活動領域画像27に活動矩形領域群が存在するかどうかなどをチェックしたとき、図24に示すように活動矩形領域群の数が“1”で水平方向に長ければ(ステップS62、S63)、CPU9によって前回の活動矩形領域群に対しどちらの方向に長くなったか判定すると共に、長くなった方向に応じた右スクロール指示(又は、左スクロール指示)が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が右方向(又は、左方向)にスクロールされる(ステップS64)。
《Scroll control with one hand gesture》
Further, when it is checked whether or not there is an active rectangular area group in the virtual cursor
また、上述した仮想カーソル活動領域画像27に活動矩形領域群が存在するかどうかなどをチェックしたとき、活動矩形領域群の数が“1”で上下方向に長ければ(ステップS62、S63)、CPU9によって前回の活動矩形領域群に対しどちらの方向に長くなったか判定すると共に、長くなった方向に応じた上スクロール指示(又は、下スクロール指示)が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が上方向(又は、下方向)にスクロールされる(ステップS64)。
If it is checked whether or not there is an active rectangular area group in the virtual cursor
《片手ジェスチャによる実カーソルのクリック制御》
この後、CPU9によって仮想カーソル25の色がグレーかどうかチェックされ、仮想カーソル25の色がグレーであれば、ハードディスク8の画像格納エリア16に格納されている仮想ボタンクリック活動領域画像のうち、最新の活動矩形領域を含む数フレーム分の仮想ボタンクリック活動領域画像が読み出される(ステップS66)。
《Real cursor click control by one hand gesture》
Thereafter, the CPU 9 checks whether the color of the
次いで、CPU9によって仮想ボタンクリック活動領域画像内に近接した1つ以上の活動矩形領域26によって構成される活動矩形領域群が存在し、形状が変化しているかどうかチェックされ、活動矩形領域群の数が“1”であり活動矩形領域群が予め設定された変化、例えば図25(a)に示すようにユーザが指さし状態から、1回だけ手を広げ、活動矩形領域群が1回だけ“小”から“大”に変化していれば(ステップS67)、シングルクリックであると判定され、OS側にシングルクリック指示が出されて、図25(b)に示すように仮想カーソル25内にある実カーソル28によってアイコンなどがシングルクリックされる(ステップS68)。
Next, the CPU 9 checks whether there is an active rectangular area group composed of one or more active
また、ユーザが指さし状態から2回以上手を広げたり縮めたりし、活動矩形領域群が複数回“大”から“小”、“小”から“大”に変化していれば(ステップS67)、CPU9によってダブルクリックであると判定され、OS側にダブルクリック指示が出されて、実カーソル28の位置にあるアイコンなどがダブルクリックされる(ステップS68)。
Also, if the user extends or shrinks his / her hand twice or more from the pointing state, and the activity rectangular area group has changed from “large” to “small” and “small” to “large” several times (step S67). The CPU 9 determines that it is a double click, and a double click instruction is issued to the OS side, and the icon or the like at the position of the
《両手ジェスチャによる画面拡大、縮小制御》
また、各ウェブカメラ4、6のピント位置にユーザが右手、左手を出して、これら右手、左手を動かし、上述した仮想カーソル活動領域画像27に活動矩形領域群が存在するかどうかなどをチェックしたとき、活動矩形領域群の数が“2”になり、各々矩形になっていれば(ステップS63)、CPU9によってこれが検知されて、これら各活動矩形領域群の動きに応じてディスプレイ部3に表示されている操作対象画面の拡大、縮小、回転などが行われる(ステップS65)。
《Screen enlargement and reduction control using two-hand gestures》
In addition, the user puts his right hand and left hand at the focus position of each of the webcams 4 and 6 and moves the right hand and left hand to check whether or not there is an active rectangular area group in the virtual cursor
例えば、各ウェブカメラ4、6のピント位置にユーザが右手、左手を出して、その右手、左手を互いに離れる方向に移動させ、これに対応して図26に示す2つの活動矩形領域群が存在し、図27(a)に示すように前回より広くなる方向に移動してこれら各活動矩形領域群の距離が前回より長くなったとき、CPU9によって画面拡大指示が入力されたと判定され、活動矩形領域群の距離変化比に応じた拡大率の画面拡大指示が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が拡大される。
For example, the user puts his right hand and left hand at the focus positions of the web cameras 4 and 6 and moves the right hand and left hand away from each other, and there are two groups of active rectangular areas shown in FIG. 26 corresponding thereto. Then, as shown in FIG. 27 (a), when the distance between each of the activity rectangle areas becomes longer than the previous time by moving in the direction wider than the previous time, it is determined that the screen enlargement instruction is input by the CPU 9, and the activity rectangle A screen enlargement instruction with an enlargement ratio corresponding to the distance change ratio of the region group is generated and passed to the application side, and the application screen (operation target screen) displayed on the
また、各ウェブカメラ4、6のピント位置にユーザが右手、左手を出して、その右手、左手を互いに近づく方向に移動させ、これに対応して2つの活動矩形領域群が図27(b)に示すように前回より狭くなる方向に移動し、これら各活動矩形領域群の距離が前回より短くなったとき、CPU9によって画面縮小指示が入力されたと判定され、活動矩形領域群の距離変化比に応じた縮小率の画面縮小指示が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が縮小される。
In addition, the user puts his right hand and left hand at the focus positions of the web cameras 4 and 6 and moves the right hand and left hand in a direction approaching each other. Correspondingly, two active rectangular area groups are shown in FIG. When the distance between each of the active rectangular area groups is shorter than the previous time, the CPU 9 determines that a screen reduction instruction has been input, and the distance change ratio of the active rectangular area groups is A screen reduction instruction with a corresponding reduction ratio is generated and passed to the application side, and the application screen (operation target screen) displayed on the
《両手ジェスチャによる画面回転制御》
また、各ウェブカメラ4、6のピント位置にユーザが右手、左手を出して、これら右手、左手の一方を上に他方を下に移動させ、これに対応して図28に示す2つの活動矩形領域群のうち少なくとも一方が上方向(又は、下方向)に移動したとき、CPU9によって画面回転指示が入力されたと判定され、下側の活動矩形領域群に対する上側の活動矩形領域群の角度に応じた回転角度の画面回転指示が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が回転される。
《Screen rotation control using two-hand gestures》
Also, the user puts out his right hand and left hand at the focus position of each of the webcams 4 and 6 and moves one of the right hand and left hand up and the other down, corresponding to the two activity rectangles shown in FIG. When at least one of the area groups moves upward (or downward), the CPU 9 determines that a screen rotation instruction has been input, and depends on the angle of the upper active rectangular area group with respect to the lower active rectangular area group A screen rotation instruction with the rotation angle is generated and passed to the application side, and the application screen (operation target screen) displayed on the
この際、図29(a)に示すように各活動矩形領域群の左右距離が狭い状態で、一方が大きく上方に移動し下側の活動矩形領域群に対する上側の活動矩形領域群の角度が大きいとき、CPU9によって大きな回転角度の画面回転指示が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が大きく回転される。
At this time, as shown in FIG. 29 (a), in a state where the left and right distances of the respective active rectangular area groups are narrow, one of them is moved upward greatly, and the angle of the upper active rectangular area group with respect to the lower active rectangular area group is large. At this time, a screen rotation instruction with a large rotation angle is generated by the CPU 9 and passed to the application side, and the application screen (operation target screen) displayed on the
また、図29(b)に示すように各活動矩形領域群の左右距離が広い状態で、一方が小さく上方に移動し下側の活動矩形領域群に対する上側の活動矩形領域群の角度が小さいとき、CPU9によって小さな回転角度の画面回転指示が生成されてアプリケーション側に渡され、ディスプレイ部3に表示されているアプリケーション画面(操作対象画面)が小さく回転される。
Also, as shown in FIG. 29 (b), when the left and right distances of the respective active rectangular area groups are wide, when one of them is small and moves upward, the angle of the upper active rectangular area group with respect to the lower active rectangular area group is small The CPU 9 generates a screen rotation instruction with a small rotation angle and passes it to the application side, and the application screen (operation target screen) displayed on the
このように、本発明の第1の実施形態においては、各ウェブカメラ4、6によってユーザを撮影して得られた低解像度のカラー画像に対し、グレー化処理、画像分割/2値化処理、色フィルタリング処理、フレームバッファ処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理、活動矩形領域選択処理、仮想カーソル制御処理/画面制御処理を行いユーザの手の動きを検知し、仮想カーソル25のサイズ制御、位置制御、色制御、クリック制御、操作対象画面の拡大制御、縮小制御、回転制御、上下スクロール制御、左右スクロール制御などを行うようにしているので、次に述べる効果を得ることができる。
As described above, in the first embodiment of the present invention, a graying process, an image division / binarization process, and the like for a low-resolution color image obtained by photographing a user with each of the web cameras 4 and 6, Color cursor processing, frame buffer processing, inter-frame difference processing, histogram processing, active rectangular region extraction processing, active rectangular region selection processing, virtual cursor control processing / screen control processing are performed to detect the movement of the user's hand, and
まず、解像度が高くない安価なウェブカメラ4、6を使用できることから、入力装置1aのコストを低く抑えることができる(請求項1の効果)。
First, since inexpensive web cameras 4 and 6 that do not have high resolution can be used, the cost of the
また、各ウェブカメラ4、6によってユーザを撮影して得られた低解像度のカラー画像に対し、グレー化処理、画像分割/2値化処理、色フィルタリング処理を施して得られた2値化画像を画像格納エリア16に格納するため、ハードディスク8の容量が小さい場合にも入力装置1aを構成することができ、装置全体のコストを低く抑えることができる(請求項1の効果)。
In addition, a binarized image obtained by performing graying processing, image division / binarization processing, and color filtering processing on a low-resolution color image obtained by photographing the user with the web cameras 4 and 6. Is stored in the
また、各ウェブカメラ4、6によってユーザを撮影して得られた低解像度のカラー画像に対し、グレー化処理、画像分割/2値化処理、色フィルタリング処理など、少ない段数の画像処理を施して1フレーム分の2値化画像を得るようにしているので、CPU9に大きな負担をかけることを防ぎ、これによって処理速度が速くない安価なCPU9を使用した場合でもほぼリアルタイムでユーザの動きに対応するように、仮想カーソル25のサイズ制御、位置制御、色制御、クリック制御、操作対象画面の拡大制御、縮小制御、回転制御、上下スクロール制御、左右スクロール制御などを行うことができ、装置全体のコストを低く抑えることができる(請求項1の効果)。 Further, low-resolution color images obtained by photographing the user with the web cameras 4 and 6 are subjected to a small number of image processing such as graying processing, image division / binarization processing, and color filtering processing. Since a binary image for one frame is obtained, it is possible to prevent the CPU 9 from being subjected to a large burden, and thus to respond to a user's movement almost in real time even when an inexpensive CPU 9 whose processing speed is not fast is used. As described above, the size control, position control, color control, click control, enlargement control, reduction control, rotation control, up / down scroll control, left / right scroll control, and the like of the operation target screen can be performed. Can be kept low (effect of claim 1).
また、各ウェブカメラ4、6によってユーザを撮影して得られた右眼側の各活動矩形領域26と左眼側の各活動矩形領域26とに対し、両眼視差法で中心座標位置を補正した後、大きさ順に番号を付けて中心座標位置を比較し、この比較結果に基づきピント位置に対応する右眼側の各活動矩形領域26と左眼側の各活動矩形領域26とを選択するようにしているので、各ウェブカメラ4、6のピント位置にあるユーザの手以外のもの、例えばユーザの後ろに人がいて動いていても、これに影響されることなくユーザの手の動きのみを抽出して、仮想カーソル25のサイズ制御、位置制御、色制御、クリック制御、操作対象画面の拡大制御、縮小制御、回転制御、上下スクロール制御、左右スクロール制御などを行うことができる(請求項1の効果)。
In addition, the center coordinate position is corrected by the binocular parallax method for each of the right-eye
また、本発明の第1の実施形態では、ユーザが片手だけを動かしているとき仮想カーソル制御指示、又は操作対象画面のスクロール制御であると判定し、仮想カーソル25のサイズ制御、位置制御、色制御、クリック制御、操作対象画面のスクロール制御などを行うようにしているので、片手だけでディスプレイ部3に表示されている仮想カーソル25のサイズ、位置、色、クリック、操作対象画面のスクロールなどを遠隔操作することができる(請求項3の効果)。
In the first embodiment of the present invention, when the user moves only one hand, it is determined that it is a virtual cursor control instruction or scroll control of the operation target screen, and the size control, position control, and color of the
また、本発明の第1の実施形態では、ユーザが両手を動かしているとき、右手の動き、左手の動きを各々検出し、操作対象画面の拡大/縮小制御指示、又は操作対象画面の回転制御指示であると判定するようにしているので、ユーザが右手、左手を動かすだけでディスプレイ部3に表示されているアプリケーション画面(操作対象画面)を拡大、縮小、回転させることができる(請求項4の効果)。
Further, in the first embodiment of the present invention, when the user moves both hands, the right hand movement and the left hand movement are detected, and the operation target screen enlargement / reduction control instruction or the operation target screen rotation control is detected. Since the instruction is determined to be an instruction, the application screen (operation target screen) displayed on the
また、本発明の第1の実施形態では、活動矩形領域抽出処理においてヒストグラムを統計処理して得られた結果を使用し、ヒストグラムから仮想カーソル活動領域画像27、仮想ボタンクリック活動領域画像を作成するようにしているので、ユーザの手など動いている部分を正確に検知することができ、安定した仮想カーソル制御、クリック制御、操作対象画面制御を行うことができる(請求項5の効果)。
In the first embodiment of the present invention, a virtual cursor
また、本発明の第1の実施形態では、活動矩形領域抽出処理において仮想カーソル活動領域画像27、仮想ボタンクリック活動領域画像に対し、多段階矩形オブジェクト抽出処理を行うようにしているので、ユーザの影などに起因する誤動作を防止し、安定した仮想カーソル制御、クリック制御、操作対象画面制御を行うことができる(請求項6の効果)。
In the first embodiment of the present invention, the multi-step rectangular object extraction process is performed on the virtual cursor
2.第2の実施形態の説明
図30は、本発明による入力装置の第2の実施形態を示すブロック図である。
この図に示す入力装置1bは、箱形に形成されたプラスチック部材などによって構成され、パソコン、テレビ、エアコン、大画面スクリーン装置などの遠隔操作対象機器の近傍に配置される入力装置筐体(図示は省略する)と、入力装置筐体の前面左側に取り付けられ、ユーザを撮影してカラー画像信号を出力する右眼用ビデオカメラ本体(請求項2のカラーカメラ本体)30と、入力装置筐体内に配置され、右眼用ビデオカメラ本体30で撮影されたカラー画像を処理して、右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像を生成する右眼側画像処理基板31と、入力装置筐体の前面右側に取り付けられ、ユーザを撮影してカラー画像信号を出力する左目用ビデオカメラ本体(請求項2のカラーカメラ本体)32と、入力装置筐体内に配置され、左眼用ビデオカメラ本体32で撮影されたカラー画像を処理して、左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を生成する左眼側画像処理基板33と、入力装置筐体内に配置され、右眼側画像処理基板31から出力される右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左眼側画像処理基板32から出力される左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を画像処理してユーザの手の動きに対応するポインティングデータを生成し、USBケーブル、信号接続ケーブルなどのケーブルを介して、パソコン、テレビ、エアコン、大画面スクリーン装置などの遠隔操作対象機器などに供給する共通処理基板34とを備えている。
2. Description of Second Embodiment FIG. 30 is a block diagram showing a second embodiment of the input device according to the present invention.
An input device 1b shown in this figure is composed of a plastic member or the like formed in a box shape, and is an input device housing (illustrated) disposed in the vicinity of a remote operation target device such as a personal computer, a television, an air conditioner, or a large screen screen device. Is attached to the left side of the front surface of the input device housing, and the right-eye video camera main body (color camera main body of claim 2) 30 that captures a user and outputs a color image signal, and the input device housing Right-eye image processing that generates a right-eye side virtual cursor activity region image and a right-eye side virtual button click activity region image by processing a color image captured by the right-eye video camera body 30 A left-eye video camera body that is attached to the
そして、ユーザを撮影して得られたカラー画像を解析して、影などの影響、ユーザの手前側にいる人、及び背後にいる人の影響などを取り除きながら、ユーザの手の動きに対応したポインティングデータを生成し、入力装置1b→ケーブル→遠隔操作対象機器なる経路でポインティングデータを遠隔操作対象機器に供給し、この遠隔操作対象機器の動作を制御する。 And, by analyzing the color image obtained by shooting the user, it responded to the movement of the user's hand while removing the effects of shadows, the effects of the people on the front side of the user and the people behind them Pointing data is generated, and the pointing data is supplied to the remote operation target device through the path of the input device 1b → cable → remote operation target device, and the operation of the remote operation target device is controlled.
右眼用ビデオカメラ本体30は、320画素×240画素程度の解像度を持つカラーカメラによって構成されており、右眼側画像処理基板31から電源電圧、クロック信号などが出されているときユーザを撮影し、これによって得られたカラービデオ信号を右眼側画像処理基板31に供給する。
The right-eye video camera
右眼側画像処理基板31は、右眼用ビデオカメラ本体から出力されるカラービデオ信号をRGB形式のカラー画像に変換した後、HSV(色相・彩度・明度)方式で予め設定されている特定色(例えば、肌色)のカラー画像を抽出するのに必要なカラーマスクを使用して、カラー画像中の肌色画像を抽出する肌色画像抽出回路35と、右眼用ビデオカメラ本体30から出力されるカラービデオ信号をRGB形式のカラー画像に変換した後、予め設定されている階調のモノクロ画像に変換するグレー化処理回路36と、グレー化処理回路36から出力されるモノクロ画像を予め設定されている画面分割数で分割する(但し、画面分割設定されていないときこの画面分割処理はスキップされる)と共に、最大尤度しきい値法で2値化して2値化画像にする画像分割/2値化処理回路37と、画像分割/2値化処理回路37から出力される2値化画像と肌色画像抽出回路35から出力される肌色画像との論理和を取り、2値化画像中の肌色部分を抽出する色フィルタリング処理回路38とを備えている。
The right eye side
さらに、右眼側画像処理基板31は、色フィルタリング処理回路38から出力される2値化画像を数フレーム分〜数十フレーム分、一時記憶するフレームバッファ回路39と、フレームバッファ回路39に記憶されている2値化画像を順次読み出しながらフレーム間差分処理を行い、差分画像を生成するフレーム間差分処理回路40と、フレーム間差分処理回路40からフレーム単位で出力される各差分画像を各分割エリア毎に積算して、ヒストグラムを生成するヒストグラム処理回路41と、ヒストグラム処理回路41から出力されるヒストグラムに対し統計処理を行うと共に、統計処理結果を用いて仮想カーソル活動領域判定処理、仮想ボタンクリック活動領域判定処理、多段階矩形オブジェクト抽出処理などを行って、影などの影響を取り除いた右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像を生成する活動矩形領域抽出処理回路42とを備えている。
Further, the right-eye
そして、右眼用ビデオカメラ本体30から出力されるカラービデオ信号に対し、グレー化処理、画面分割/2値化処理、色フィルタリング処理、フレームバッファ処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を順次施して、右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像を生成し、共通処理基板34に供給する。
For the color video signal output from the right-eye
また、左眼用ビデオカメラ本体32は、320画素×240画素程度の解像度を持つカラーカメラによって構成されており、左眼側画像処理基板33から電源電圧、クロック信号などが出されているときユーザを撮影し、これによって得られたカラービデオ信号を左眼側画像処理基板33に供給する。
The left-eye video camera
左眼側画像処理基板33は、左眼用ビデオカメラ本体32から出力されるカラービデオ信号をRGB形式のカラー画像に変換した後、HSV(色相・彩度・明度)方式で、予め設定されている特定色(例えば、肌色)のカラー画像を抽出するのに必要なカラーマスクを使用して、カラー画像中の肌色画像を抽出する肌色画像抽出回路43と、左眼用ビデオカメラ本体32から出力されるカラービデオ信号をRGB形式のカラー画像に変換した後、予め設定されている階調のモノクロ画像に変換するグレー化処理回路44と、グレー化処理回路44から出力されるモノクロ画像を予め設定されている画面分割数で分割する(但し、画面分割設定されていないとき、この画面分割処理はスキップされる)と共に、最大尤度しきい値法で2値化して、2値化画像にする画像分割/2値化処理回路45と、画像分割/2値化処理回路45から出力される2値化画像と肌色画像抽出回路43から出力される肌色画像との論理和を取り、2値化画像中の肌色部分を抽出する色フィルタリング処理回路46とを備えている。
The left-eye-side
さらに、左眼側画像処理基板33は、色フィルタリング処理回路46から出力される2値化画像を数フレーム分〜数十フレーム分、一時記憶するフレームバッファ回路47と、フレームバッファ回路47に記憶されている2値化画像を順次読み出しながらフレーム間差分処理を行い、差分画像を生成するフレーム間差分処理回路48と、フレーム間差分処理回路48からフレーム単位で出力される各差分画像を各分割エリア毎に積算して、ヒストグラムを生成するヒストグラム処理回路49と、ヒストグラム処理回路49から出力されるヒストグラムに対し統計処理を行うと共に、統計処理結果を用いて仮想カーソル活動領域判定処理、仮想ボタンクリック活動領域判定処理、多段階矩形オブジェクト抽出処理などを行って、影などの影響を取り除いた左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を生成する活動矩形領域抽出処理回路50とを備えている。
Further, the left eye side
そして、左眼用ビデオカメラ本体32から出力されるカラービデオ信号に対し、グレー化処理、画面分割/2値化処理、色フィルタリング処理、フレームバッファ処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を順次施して、左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を生成し、共通処理基板34に供給する。
For the color video signal output from the left-eye video camera
共通処理基板34は、両眼視差法による位置補正に必要な右眼用ウェブカメラ30、左眼用ウェブカメラ32の取り付け位置データ(水平距離“B”、上下距離など)、右眼用ウェブカメラ30、左眼用ウェブカメラ32の焦点距離“f”などの撮影条件情報が設定される撮影条件設定回路51と、右眼側画像処理基板31から出力される右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左眼側画像処理基板33から出力される左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像に活動矩形領域が含まれるとき、撮影条件設定回路51に設定されている撮影条件情報を用いて両眼視差法で各活動矩形領域の位置を補正する処理、大きさ順に各活動矩形領域に番号を付加する処理、同じ番号が付加された各活動矩形領域の中心座標間の距離(中心座標距離)を演算する処理、所定値以下になっている各中心座標距離に対応する活動矩形領域を選択する処理、選択した活動矩形領域のみを含み、選択していない活動矩形領域を含まない左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を作成する処理などを行って、右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像に含まれるユーザの手前にいる人、及び背後にいる人の動きなどの影響を取り除いた後、左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像を数画像分〜数十画像分保持する活動矩形領域選択処理回路52とを備えている。
The
さらに、共通処理基板34は、活動矩形領域選択処理回路52に保持されている左眼側の各仮想カーソル活動領域画像のうち、最新の仮想カーソル活動領域画像に活動矩形領域群が存在するとき、活動矩形領域群の数、形状、移動有無、移動方向などに基づき、仮想カーソル位置指示、仮想カーソル形状指示、仮想カーソル色指示、操作対象画面スクロール指示、操作対象画面拡大指示、操作対象画面縮小指示、操作対象画面回転指示などのポインティングデータを生成すると共に、仮想カーソルがクリック可能な状態になっているとき、活動矩形領域選択処理回路52に保持されている各仮想ボタンクリック活動領域画像のうち、最新の仮想ボタンクリック活動領域画像に活動矩形領域群が存在しているかどうかをチェックし、活動矩形領域群が存在しているとき、活動矩形領域群の形状などに基づきシングルクリック指示、ダブルクリック指示などのポインティングデータを生成する仮想カーソル制御処理/画面制御処理回路53を備えている。
Further, the
そして、右眼側画像処理基板31から出力される右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左眼側画像処理基板32から出力される左眼側の仮想カーソル活動領域画像、左眼側の仮想ボタンクリック活動領域画像に活動矩形領域が含まれるとき、ユーザの前にいる人の動き、ユーザの背後にいる人の動きなどに起因するノイズを取り除きながらユーザの各手がどのように動いているかを判定し、この判定結果に応じて仮想カーソル位置指示、仮想カーソル形状指示、仮想カーソル色指示、操作対象画面スクロール指示、操作対象画面拡大指示、操作対象画面縮小指示、操作対象画面回転指示などのポインティングデータを生成し、遠隔操作対象機器となっているパソコン、テレビ、エアコン、大画面スクリーン装置などに供給する。
Then, the right eye side virtual cursor activity region image output from the right eye side
このように、この第2の実施形態では、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32によってユーザを撮影して得られた低解像度のカラー画像に対し、色フィルタリング処理、グレー化処理、画像分割/2値化処理、フレームバッファ処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理、活動矩形領域選択処理、仮想カーソル制御処理/画面制御処理などを行いユーザの手の動きを検知し、仮想カーソル位置指示、仮想カーソル形状指示、仮想カーソル色指示、操作対象画面スクロール指示、操作対象画面拡大指示、操作対象画面縮小指示、操作対象画面回転指示などのポインティングデータを生成し、遠隔操作対象機器に供給するようにしているので、遠隔操作対象機器側の仮想カーソルサイズ、仮想カーソル位置、仮想カーソル色、クリック、操作対象画面の上下スクロール、左右スクロール、拡大、縮小、回転などを遠隔操作することができる(請求項2の効果)。
As described above, in the second embodiment, color filtering processing and graying are performed on a low-resolution color image obtained by photographing the user with the right-eye
また、この第2の実施形態では、解像度が高くない安価な右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32を使用できることから、入力装置1bのコストを低く抑えることができる(請求項2の効果)。
In the second embodiment, since the inexpensive right-eye video camera
また、この第2の実施形態では、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32によってユーザを撮影して得られた低解像度のカラー画像に対し、グレー化処理、画像分割/2値化処理、色フィルタリング処理を施して得られた2値化画像をフレームバッファ回路39、47に格納するようにしているので、フレームバッファ回路39、47の記憶容量が小さい場合にも入力装置1bを構成することができ、装置全体のコストを低く抑えることができる(請求項2の効果)。
In the second embodiment, the low-resolution color image obtained by photographing the user with the right-eye video camera
さらに、この第2の実施形態では、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32によってユーザを撮影して得られた低解像度のカラー画像に対し、グレー化処理、画像分割/2値化処理、色フィルタリング処理、フレームバッファ処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理、活動矩形領域選択処理、仮想カーソル制御処理/画面制御処理など、少ない段数の画像処理を施してポインティングデータを生成するようにしているので、肌色画像抽出理回路35、43、グレー化処理回路36、44、画像分割/2値化処理回路37、45、色フィルタリング処理回路38、46、フレームバッファ処理回路36、47、フレーム間差分処理回路40、48、ヒストグラム処理回路41、49、活動矩形領域抽出処理回路42、50、活動矩形領域選択回路52、仮想カーソル制御処理/画面制御処理回路53として、処理速度があまり速くない素子の使用を可能にして装置全体のコストを低く抑えながら、ほぼリアルタイムでユーザの動きを検知し、遠隔操作対象機器を制御することができる(請求項2の効果)。
Furthermore, in the second embodiment, graying processing, image division / 2 are performed on a low-resolution color image obtained by photographing the user with the right-eye
また、この第2の実施形態では、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32によってユーザを撮影して得られた右眼側の各活動矩形領域と、左眼側の各活動矩形領域とに対し、両眼視差法で中心座標位置を補正した後、大きさ順に番号を付けて中心座標位置を比較し、この比較結果に基づきピント位置に対応する右眼側の各活動矩形領域と、左眼側の各活動矩形領域とを選択するようにしているので、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32のピント位置にあるユーザの手以外のもの、例えばユーザの後ろに人がいて動いていても、これに影響されることなくユーザの手の動きのみを抽出して、仮想カーソルのサイズ制御、位置制御、色制御、クリック制御、操作対象画面の拡大制御、縮小制御、回転制御、上下スクロール制御、左右スクロール制御などを行うことができる(請求項2の効果)。
In the second embodiment, the right-eye activity rectangular area obtained by photographing the user with the right-eye video camera
そして、この第2の実施形態においても、上述した第1の実施形態と同様に、ユーザが片手だけを動かしているとき、仮想カーソル制御指示、クリック制御指示、スクロール制御指示の何れかであると判定し、仮想カーソルサイズ指示、仮想カーソル位置指示、仮想カーソル色指示、スクロール制御指示、クリック指示などを示すポインティングデータを生成するようにしているので、片手だけで遠隔操作対象機器側のディスプレイに表示されている仮想カーソルのサイズ、位置、色、クリック動作、操作対象画面のスクロールなどを遠隔操作することができる(請求項3の効果)。 Also in the second embodiment, as in the first embodiment described above, when the user is moving only one hand, it is any one of the virtual cursor control instruction, the click control instruction, and the scroll control instruction. Since pointing data is generated to indicate and indicate virtual cursor size instructions, virtual cursor position instructions, virtual cursor color instructions, scroll control instructions, click instructions, etc., display on the display on the remote operation target device side with only one hand It is possible to remotely control the size, position, color, click operation, scroll of the operation target screen, and the like of the virtual cursor being operated (effect of claim 3).
また、この第2の実施形態においても、上述した第1の実施形態と同様に、ユーザが両手を動かしているとき、右手の動き、左手の動きを各々検出して操作対象画面の制御指示であると判定し、操作対象画面拡大指示、操作対象画面縮小指示、操作対象画面回転指示などを示すポインティングデータを生成するようにしているので、ユーザが右手、左手を動かすだけで遠隔操作対象機器側のディスプレイに表示されている操作対象画面を拡大、縮小、回転させることができる(請求項4の効果)。 Also in the second embodiment, as in the first embodiment described above, when the user is moving both hands, the right hand movement and the left hand movement are detected, and control instructions on the operation target screen are displayed. Since it is determined that there is a pointing data that indicates an operation target screen enlargement instruction, an operation target screen reduction instruction, an operation target screen rotation instruction, etc., the user only needs to move the right hand and left hand to the remote operation target device side The operation target screen displayed on the display can be enlarged, reduced, and rotated (effect of claim 4).
また、本発明の第2の実施形態では、活動矩形領域抽出処理回路42、50においてヒストグラムを統計処理すると共に、統計処理結果を使用してヒストグラムから右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左側の仮想カーソル活動領域画像、左側の仮想ボタンクリック活動領域画像を作成するようにしているので、ユーザの手など動いている部分を正確に検知することができ、安定した仮想カーソル制御、クリック制御、操作対象画面制御を行うことができる(請求項5の効果)。
Further, in the second embodiment of the present invention, the active rectangular area
また、本発明の第2の実施形態では、活動矩形領域抽出処理回路42、50において、右眼側の仮想カーソル活動領域画像、右眼側の仮想ボタンクリック活動領域画像、左側の仮想カーソル活動領域画像、左側の仮想ボタンクリック活動領域画像に対し、多段階矩形オブジェクト抽出処理を行うようにしているので、ユーザの影などに起因する誤動作を防止し、安定した仮想カーソル制御、クリック制御、操作対象画面制御を行うことができる(請求項6の効果)。
In the second embodiment of the present invention, in the active rectangle area
3.他の実施形態の説明
上述した各実施形態では、各ウェブカメラ4、6、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32で得られたカラー画像の全領域をグレー化し、2値化するようにしているが、図31フローチャート、図32の模式図に示すようにヒストグラムを統計処理、活動矩形領域抽出処理で得られた変化領域矩形(活動矩形領域を含む矩形)65に対し、指定された拡大縮小率(例えば拡大率“10%”)で拡大/縮小した拡大/縮小矩形マスク66を作成すると共に(ステップS71)、次フレームのカラー画像全領域をグレー化して得られたモノクロ画像の中から拡大/縮小矩形マスク66に対応する部分(モノクロ画像に含まれる活動領域部分の画像67)だけを抽出して、2値化処理するようにしても良い(ステップS72)。
3. Description of Other Embodiments In each of the above-described embodiments, the entire area of the color image obtained by each web camera 4, 6, right-eye
このようにすれば、モノクロ画像などの中から活動領域より少し広い範囲に含まれる画像のみを有効にし、それ以外の領域にある画像を無効にして、変化領域以外の部分に存在するノイズを除去することができる(請求項7の効果)。 In this way, only the image included in the area slightly wider than the active area from the monochrome image etc. is enabled, the image in the other area is disabled, and the noise existing in the part other than the change area is removed. (Effect of claim 7).
また、上述した第1の実施形態、及び第2の実施形態では、CPU9による色フィルタリング処理、又は色フィルタリング処理回路38、46によって、肌色のカラー画像を抽出するようにしているが、ユーザが特定色の操作器、例えば赤ペンなどを使用して仮想カーソルの位置、クリック、操作対象画面のスクロール、操作対象画面の拡大、操作対象画面の縮小、操作対象画面の回転などを制御する場合には、赤色抽出用のカラーマスクを使用し、CPU9による色フィルタリング処理、又は色フィルタリング処理回路38、46によって赤色のカラー画像を抽出するようにしても良い。
Further, in the first embodiment and the second embodiment described above, the skin color image is extracted by the color filtering processing by the CPU 9 or the color
これにより、各ウェブカメラ4、6、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32の撮影範囲に複数の人がいても、ユーザが持つ操作器の色に対応するカラー画像を抽出して仮想カーソルのサイズ制御、位置制御、クリック制御、操作対象画面のスクロール制御、拡大制御、縮小制御、回転制御などを行うことができる。
Thereby, even if there are a plurality of people in the shooting range of each of the web cameras 4 and 6, the right-eye video camera
また、このような色フィルタリング処理は、各ウェブカメラ4、6、右眼用ビデオカメラ本体30、左眼用ビデオカメラ本体32から出力されるカラービデオ信号に含まれるユーザの手など、動いている画像を抽出するために行っている処理であることから、ユーザが居る場所の照明条件が良好で、ユーザの手などが動いている画像と背景画像とのコントラストが大きいとき、色フィルタリング処理を省略するようにしても良い。
In addition, such color filtering processing moves such as the user's hand included in the color video signals output from the web cameras 4 and 6, the right-eye
本発明は、情報端末装置やパーソナルコンピュータなどの情報機器に接続されて使用され、カメラによって操作者(ユーザ)の動作画像を取り込み、情報機器のカーソル操作やアプリケーションプログラムの選択及び実行などを制御する入力装置であって、特に、アルゴリズムを簡素化すると共に処理データ量を極力少なくして演算量、メモリ使用量を低減すると共に、リアルタイムでパソコンのカーソルなどを制御するようにした、ビデオ映像による入力装置に関するものであり、産業上の利用可能性を有する。 The present invention is used by being connected to an information device such as an information terminal device or a personal computer, takes an operation image of an operator (user) by a camera, and controls cursor operation of the information device, selection and execution of an application program, and the like. An input device, in particular, video input that simplifies the algorithm and reduces the amount of processing data as much as possible to reduce the amount of computation and memory usage, as well as controlling the cursor of the personal computer in real time. It relates to a device and has industrial applicability.
1a、1b:入力装置
2:パソコン
3:ディスプレイ部
4:ウェブカメラ(左眼用カラーカメラ)
5:ビデオキャプチャ
6:ウェブカメラ(右眼用カラーカメラ)
7:USBインタフェース
8:ハードディスク
9:CPU
10:メモリ
11:表示インタフェース
12:システムバス
13:OS格納エリア
14:アプリケーション格納エリア
15:画像処理プログラム格納エリア
16:画像格納エリア
20:分割エリア
21:活動分割エリア
25:仮想カーソル
26:活動矩形領域
27:仮想カーソル活動領域画像
28:実カーソル
30:右眼用ビデオカメラ本体(右眼用カラーカメラ本体)
31:右眼側画像処理基板
32:左眼用ビデオカメラ本体(左眼用カラーカメラ本体)
33:左眼側画像処理基板
34:共通処理基板
35:肌色画像抽出回路
36:グレー化処理回路
37:画像分割/2値化処理回路
38:色フィルタリング処理回路
39:フレームバッファ回路
40:フレーム間差分処理回路
41:ヒストグラム処理回路
42:活動矩形領域抽出処理回路
43:肌色画像抽出回路
44:グレー化処理回路
45:画像分割/2値化処理回路
46:色フィルタリング処理回路
47:フレームバッファ回路
48:フレーム間差分処理回路
49:ヒストグラム処理回路
50:活動矩形領域抽出処理回路
51:撮影条件設定回路
52:活動矩形領域選択処理回路
53:仮想カーソル制御処理/画面制御処理回路
65:変化領域矩形
66:拡大/縮小矩形マスク
67:マスク後の画像
1a, 1b: input device 2: personal computer 3: display unit 4: web camera (color camera for left eye)
5: Video capture 6: Web camera (color camera for right eye)
7: USB interface 8: Hard disk 9: CPU
10: Memory 11: Display interface 12: System bus 13: OS storage area 14: Application storage area 15: Image processing program storage area 16: Image storage area 20: Division area 21: Activity division area 25: Virtual cursor 26: Activity rectangle Area 27: Virtual cursor activity area image 28: Real cursor 30: Video camera body for right eye (color camera body for right eye)
31: Right-eye image processing board 32: Left-eye video camera body (left-eye color camera body)
33: Left eye side image processing board 34: Common processing board 35: Skin color image extraction circuit 36: Graying processing circuit 37: Image division / binarization processing circuit 38: Color filtering processing circuit 39: Frame buffer circuit 40: Between frames Difference processing circuit 41: Histogram processing circuit 42: Activity rectangular area extraction processing circuit 43: Skin color image extraction circuit 44: Graying processing circuit 45: Image division / binarization processing circuit 46: Color filtering processing circuit 47: Frame buffer circuit 48 : Frame difference processing circuit 49: Histogram processing circuit 50: Activity rectangular area extraction processing circuit 51: Shooting condition setting circuit 52: Activity rectangular area selection processing circuit 53: Virtual cursor control processing / screen control processing circuit 65: Change area rectangle 66 : Enlarged / reduced rectangular mask 67: Image after masking
Claims (7)
操作者を撮影する右眼用カラーカメラと、
この右眼用カラーカメラから所定距離だけ離れた位置に、前記右眼用カラーカメラと並んで配置され、前記操作者を撮影する左眼用カラーカメラと、
前記右眼用カラーカメラから出力されるカラー画像に対し、グレー化処理、画像分割/2値化処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を行い、前記操作者の右眼側活動矩形領域を抽出する右眼側画像処理プログラムと、
前記左眼用カラーカメラから出力されるカラー画像に対し、グレー化処理、画像分割/2値化処理、フレーム間差分処理、ヒストグラム処理、活動矩形領域抽出処理を行い、前記操作者の左眼側活動矩形領域を抽出する左眼側画像処理プログラムと、
前記右眼側画像処理プログラムで得られた右眼側活動矩形領域、前記左眼側画像処理プログラムで得られた左眼側活動矩形領域に対し、両眼視差法を使用した活動矩形領域選択処理、仮想カーソル制御処理/画面制御処理を行って、前記操作者の手、又は指先の動きを検出し、この検出結果に応じた操作指示を生成する画像処理プログラムと、
を備えることを特徴とする入力装置。 In an input device that processes an operator image obtained by a video camera and generates an operation instruction according to the operation content of the operator,
A color camera for the right eye to photograph the operator,
A color camera for the left eye that is arranged side by side with the color camera for the right eye at a position away from the color camera for the right eye by a predetermined distance,
The color image output from the right-eye color camera is subjected to graying processing, image division / binarization processing, interframe difference processing, histogram processing, and active rectangular area extraction processing, and the right eye side of the operator A right eye side image processing program for extracting an active rectangular area;
The color image output from the left-eye color camera is subjected to graying processing, image division / binarization processing, inter-frame difference processing, histogram processing, and active rectangular area extraction processing, and the left eye side of the operator A left eye side image processing program for extracting an active rectangular area;
Activity rectangle region selection processing using binocular parallax for the right eye side activity rectangular region obtained by the right eye side image processing program and the left eye side activity rectangle region obtained by the left eye side image processing program An image processing program that performs virtual cursor control processing / screen control processing to detect the movement of the operator's hand or fingertip, and generates an operation instruction according to the detection result;
An input device comprising:
箱形に形成される入力装置筐体と、
この入力装置筐体の前面左側に取り付けられ、操作者の画像を撮影する右眼用カラーカメラ本体と、
前記入力装置筐体の前面右側に取り付けられ、前記操作者の画像を撮影する左眼用カラーカメラ本体と、
前記入力装置筐体内に配置され、グレー化処理回路、画像分割/2値化処理回路、フレーム間差分処理回路、ヒストグラム処理回路、活動矩形領域抽出処理回路によって、前記右眼用カラーカメラ本体から出力されるカラー画像を処理して、前記操作者の右眼側活動矩形領域を抽出する右眼側画像処理基板と、
前記入力装置筐体内に配置され、グレー化処理回路、画像分割/2値化処理回路、フレーム間差分処理回路、ヒストグラム処理回路、活動矩形領域抽出処理回路によって、前記左眼用カラーカメラ本体から出力されるカラー画像を処理して、前記操作者の左眼側活動矩形領域を抽出する左眼側画像処理基板と、
前記入力装置筐体内に配置され、活動矩形領域選択処理回路、仮想カーソル制御処理/画面制御処理回路によって、前記右眼側画像処理基板で得られた右眼側活動矩形領域、前記左眼側画像処理基板で得られた左眼側活動矩形領域に、両眼視差法を使用した活動矩形領域選択処理、仮想カーソル制御処理/画面制御処理を行って、前記操作者の手、又は指先の動きを検出し、この検出結果に応じたポインティングデータを生成し、遠隔操作対象機器の動作を制御する共通処理基板と、
を備えることを特徴とする入力装置。 In the input device that processes the image of the operator obtained by the video camera, generates an operation instruction according to the operation content of the operator, and controls the operation of the remote operation target device.
An input device housing formed in a box shape;
A color camera body for the right eye that is attached to the left side of the front surface of the input device housing and captures an image of the operator,
A color camera body for the left eye that is attached to the front right side of the input device housing and captures an image of the operator;
Output from the right-eye color camera body by the graying processing circuit, the image segmentation / binarization processing circuit, the inter-frame difference processing circuit, the histogram processing circuit, and the active rectangular area extraction processing circuit which are arranged in the input device casing. A right eye side image processing board that processes the color image to be extracted and extracts the right eye side activity rectangular region of the operator;
Output from the left-eye color camera body by the graying processing circuit, image segmentation / binarization processing circuit, inter-frame difference processing circuit, histogram processing circuit, and active rectangular area extraction processing circuit, which is arranged in the input device casing. A left eye side image processing board that processes the color image to be extracted and extracts the left eye side activity rectangular region of the operator;
The right-eye side active rectangular area, the left-eye-side image, which is arranged in the input device casing and obtained on the right-eye side image processing board by the active rectangular area selection processing circuit and the virtual cursor control processing / screen control processing circuit. An activity rectangular area selection process using a binocular parallax method, a virtual cursor control process / a screen control process are performed on the left eye side activity rectangular area obtained on the processing board, and the movement of the operator's hand or fingertip is performed. A common processing board for detecting, generating pointing data according to the detection result, and controlling the operation of the remote operation target device;
An input device comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010025291A JP2013080266A (en) | 2010-02-08 | 2010-02-08 | Input device |
PCT/JP2011/052591 WO2011096571A1 (en) | 2010-02-08 | 2011-02-08 | Input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010025291A JP2013080266A (en) | 2010-02-08 | 2010-02-08 | Input device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013080266A true JP2013080266A (en) | 2013-05-02 |
Family
ID=44355563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010025291A Pending JP2013080266A (en) | 2010-02-08 | 2010-02-08 | Input device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2013080266A (en) |
WO (1) | WO2011096571A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107562351A (en) * | 2017-09-27 | 2018-01-09 | 努比亚技术有限公司 | A kind of method, terminal and computer-readable recording medium for controlling screen resolution |
WO2021162119A1 (en) * | 2020-02-14 | 2021-08-19 | 知能技術株式会社 | Method for generating trained model to be used for operation of terminal, trained model, program, terminal operation system, and terminal operation program |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IT1401130B1 (en) | 2010-07-16 | 2013-07-12 | Piaggio & C Spa | MOTORCYCLE SUSPENSION SYSTEM |
JP5936155B2 (en) * | 2012-07-27 | 2016-06-15 | Necソリューションイノベータ株式会社 | 3D user interface device and 3D operation method |
CN111753771A (en) * | 2020-06-29 | 2020-10-09 | 武汉虹信技术服务有限责任公司 | Gesture event recognition method, system and medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001070293A (en) * | 1999-09-06 | 2001-03-21 | Toshiba Corp | Radio-diagnostic device |
JP2004265222A (en) * | 2003-03-03 | 2004-09-24 | Nippon Telegr & Teleph Corp <Ntt> | Interface method, system, and program |
JP2009151516A (en) * | 2007-12-20 | 2009-07-09 | Yaskawa Information Systems Co Ltd | Information processor and operator designating point computing program for information processor |
JP4318056B1 (en) * | 2008-06-03 | 2009-08-19 | 島根県 | Image recognition apparatus and operation determination method |
-
2010
- 2010-02-08 JP JP2010025291A patent/JP2013080266A/en active Pending
-
2011
- 2011-02-08 WO PCT/JP2011/052591 patent/WO2011096571A1/en active Application Filing
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107562351A (en) * | 2017-09-27 | 2018-01-09 | 努比亚技术有限公司 | A kind of method, terminal and computer-readable recording medium for controlling screen resolution |
WO2021162119A1 (en) * | 2020-02-14 | 2021-08-19 | 知能技術株式会社 | Method for generating trained model to be used for operation of terminal, trained model, program, terminal operation system, and terminal operation program |
JP2021128643A (en) * | 2020-02-14 | 2021-09-02 | 知能技術株式会社 | Terminal operation system and terminal operation program |
Also Published As
Publication number | Publication date |
---|---|
WO2011096571A1 (en) | 2011-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI543610B (en) | Electronic device and image selection method thereof | |
US8896535B2 (en) | Image processing apparatus and method, and program therefor | |
JP4575829B2 (en) | Display screen position analysis device and display screen position analysis program | |
JP2012238293A (en) | Input device | |
US10990226B2 (en) | Inputting information using a virtual canvas | |
US20180240213A1 (en) | Information processing system, information processing method, and program | |
US10152137B2 (en) | Using natural movements of a hand-held device to manipulate digital content | |
US20120242566A1 (en) | Vision-Based User Interface and Related Method | |
US20120236180A1 (en) | Image adjustment method and electronics system using the same | |
CN110297545B (en) | Gesture control method, gesture control device and system, and storage medium | |
JP2004193933A (en) | Image enlargement display method, its apparatus, and medium program | |
KR20210010930A (en) | Method, system and computer program for remote control of a display device via head gestures | |
CN112367559B (en) | Video display method and device, electronic equipment, server and storage medium | |
WO2011096571A1 (en) | Input device | |
TWI465984B (en) | Method and control apparatus for determining control output in control domain | |
US20200311398A1 (en) | Scene controlling method, device and electronic equipment | |
US9838615B2 (en) | Image editing method and electronic device using the same | |
CN111986229A (en) | Video target detection method, device and computer system | |
KR101414362B1 (en) | Method and apparatus for space bezel interface using image recognition | |
TW201709022A (en) | Non-contact control system and method | |
KR102372711B1 (en) | Image photographing apparatus and control method thereof | |
US9761009B2 (en) | Motion tracking device control systems and methods | |
JP2011039594A (en) | Input device | |
JP6103942B2 (en) | Image data processing apparatus and image data processing program | |
WO2016044983A1 (en) | Image processing method and apparatus and electronic device |