JP2003316510A - Display device for displaying point instructed on display screen and display program - Google Patents

Display device for displaying point instructed on display screen and display program

Info

Publication number
JP2003316510A
JP2003316510A JP2002121164A JP2002121164A JP2003316510A JP 2003316510 A JP2003316510 A JP 2003316510A JP 2002121164 A JP2002121164 A JP 2002121164A JP 2002121164 A JP2002121164 A JP 2002121164A JP 2003316510 A JP2003316510 A JP 2003316510A
Authority
JP
Japan
Prior art keywords
display screen
pointing object
display device
operator
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002121164A
Other languages
Japanese (ja)
Inventor
Mitsuo Yamada
光穗 山田
Toshihiro Shimizu
俊宏 清水
Shigezumi Kuwajima
茂純 桑島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
VIEWPLUS Inc
Japan Broadcasting Corp
Original Assignee
VIEWPLUS Inc
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VIEWPLUS Inc, Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical VIEWPLUS Inc
Priority to JP2002121164A priority Critical patent/JP2003316510A/en
Publication of JP2003316510A publication Critical patent/JP2003316510A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display device and display program capable of highly precisely detecting the movement of an indicated object, and efficiently displaying an indicated point on a display screen. <P>SOLUTION: The display device for displaying an indicated point on a display screen measured by a stereo camera configured of an at least two-lens camera based on the position of an indicated object indicated on the display screen is provided with a detecting means for detecting the distance of the indicated object from each of stereo cameras arranged in the periphery of the display screen and a selecting means for selecting the stereo camera whose distance from the indicated object is the shortest. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、表示画面上に指示
されたポイントを表示する表示装置、及び表示プログラ
ムに係り、特に、2眼以上のカメラで構成されるステレ
オカメラを用いて、操作者の手や棒等の指示物体の動き
(ジェスチャー)を検出することにより、効率的に表示
画面に対して入力指示操作を行うことができる表示装
置、及び表示プログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a display device and a display program for displaying an instructed point on a display screen, and more particularly, to an operator using a stereo camera composed of two or more cameras. The present invention relates to a display device and a display program capable of efficiently performing an input instruction operation on a display screen by detecting a movement (gesture) of a pointing object such as a hand or a stick.

【0002】[0002]

【従来の技術】従来、表示画面上に表示されたメニュー
画面等を操作する方法においては、操作者が表示画面に
直接接触することにより操作を行うタッチパネル方式を
用いた方法が用いられている。
2. Description of the Related Art Conventionally, as a method for operating a menu screen or the like displayed on a display screen, a method using a touch panel method has been used in which an operator operates by directly touching the display screen.

【0003】ここで、上述の操作を行うための表示画面
について図を用いて説明する。
A display screen for performing the above operation will be described with reference to the drawings.

【0004】図1は、従来の表示画面の一例を示す図で
ある。
FIG. 1 is a diagram showing an example of a conventional display screen.

【0005】図1において、操作者は、表示画面10に
表示されたメニュー画面(図1(a))上にある画面選
択領域11から、希望する操作内容に該当する選択領域
の部分を触れることにより、次の画面に切り換わること
ができる。例えば、画面選択領域11−1を選択した場
合は、図1(b)のようなチャンネル選択画面が表示画
面10に表示され、チャンネル選択領域(12−1〜1
2−9)から視聴したいチャンネル(番組)を選択する
ことができる。また、画面選択領域11−2を選択した
場合は、図1(c)に示すような音量調整画面が表示さ
れ、大小調整領域13により音量を調整することができ
る。また、画面選択領域11−3を選択すれば、図1
(d)に示すようにデータ放送画面を視聴することがで
きる。
In FIG. 1, the operator touches the selection area corresponding to the desired operation content from the screen selection area 11 on the menu screen (FIG. 1A) displayed on the display screen 10. Can switch to the next screen. For example, when the screen selection area 11-1 is selected, a channel selection screen as shown in FIG. 1B is displayed on the display screen 10, and the channel selection areas (12-1 to 12-1
You can select the channel (program) you want to watch from 2-9). When the screen selection area 11-2 is selected, a volume adjustment screen as shown in FIG. 1C is displayed, and the volume can be adjusted by the volume adjustment area 13. If the screen selection area 11-3 is selected, the screen shown in FIG.
The data broadcast screen can be viewed as shown in (d).

【0006】しかしながら、視聴したい番組を見る場合
に視聴者は画面が触れる程度の距離に近づかなければな
らず、表示画面が大きい場合には、その場で視聴するこ
とは非常に困難になる。そこで、最近では、操作者が操
作する手や棒等の指示物体の動き(ジェスチャー)を認
識して操作する表示画面を有する表示装置等が必要にな
る。
[0006] However, when watching a program to be watched, the viewer must come close to a distance where the screen can be touched, and when the display screen is large, it becomes very difficult to watch on the spot. Therefore, recently, a display device or the like having a display screen for recognizing and operating a movement (gesture) of a pointing object such as a hand or a stick operated by an operator is required.

【0007】操作者のジェスチャーを認識して機器を操
作する方法方式は、未だ研究段階で実用化されたものは
ないが、両眼2台のカメラを用いて、例えば操作者の手
の奥行き方向のデータから手の動きだけを分離し、分離
した手の動きから手の座標を出して、その座標の位置と
表示画面の位置、パラメータ座標の間との距離を計算し
て手のジェスチャーを検出し表示装置の操作を行う方法
が考えられる。
The method of recognizing the gesture of the operator to operate the device has not been put into practical use at the research stage, but using two cameras for both eyes, for example, the depth direction of the operator's hand. Only the movement of the hand is separated from the data of the hand, the coordinate of the hand is calculated from the separated movement of the hand, and the distance between the position of the coordinate and the position of the display screen and the parameter coordinate is calculated to detect the hand gesture. Then, a method of operating the display device can be considered.

【0008】また、他の方法では、例えば、1台のカメ
ラを用いてジェスチャーを検出する場合は、手の色(例
えば、肌色)を検出して服の前にある手の動きを検出す
る方法や、手に白いマーキングを付け、他の背景画像と
分離し易くして、そのマーキングの移動内容を検出する
方法、又は、手に磁気センサを付けてコイルにより磁界
を発生させることにより動きを検出する方式等が用いら
れている。また、ジェスチャーだけでなく、音声による
表示画面への入力方法も用いられている。
In another method, for example, when a gesture is detected using one camera, a color of a hand (for example, skin color) is detected to detect a movement of a hand in front of clothes. Alternatively, you can put a white marking on your hand to make it easier to separate it from other background images and detect the movement of the marking, or you can attach a magnetic sensor to your hand and generate a magnetic field with a coil to detect the movement. The method to do is used. In addition to gestures, a method of inputting audio on a display screen is also used.

【0009】[0009]

【発明が解決しようとする課題】しかしながら、上述の
場合、指示物体の位置がカメラの検出範囲にあるときは
検出することができるが、検出範囲外の距離で指示した
場合には、指示内容が満足にできないという問題があっ
た。
However, in the above case, although the position of the pointing object can be detected when it is within the detection range of the camera, if the position is outside the detection range, the instruction content is not detected. There was a problem that I could not be satisfied.

【0010】また、ジェスチャーの検出に成功しても、
細かな体の動きのために、安定してメニューボタンのア
イコンが指示できない場合や、人が表示装置の前を通り
過ぎたときに指差ししてないのに指示されてしまう場合
がある。更に、一般的にカメラの奥行き方向の検出精度
があまりよくないために、アイコンのメニューの決定
に、音声等の別の手投を用いて判断させなければならな
い。また、複数の指示物体が同時にカメラの検出範囲内
にある場合には、どの指示物体を選んでいいのか判断で
きず正確な指示認識を行うことができないという問題が
あった。
Further, even if the gesture is successfully detected,
Due to the small movements of the body, the icon of the menu button may not be stably indicated, or the person may be instructed even if he / she is not pointing when passing by the display device. Furthermore, since the detection accuracy of the camera in the depth direction is generally not so good, it is necessary to use another manual throw such as voice to determine the icon menu. Further, when a plurality of pointing objects are simultaneously within the detection range of the camera, it is impossible to determine which pointing object to select, and it is not possible to perform accurate pointing recognition.

【0011】更に、カメラの検出範囲内に指示物体があ
る場合は、操作していなくてもメニュー画面が表示され
続けてしまい、画面全体を楽しむことができないという
問題があった。
Further, when the pointing object is within the detection range of the camera, there is a problem that the menu screen continues to be displayed even if it is not operated, and the entire screen cannot be enjoyed.

【0012】本発明は、上述した問題点に鑑みなされた
ものであり、2眼以上のカメラで構成されるステレオカ
メラを用いて、指示物体の動き(ジェスチャー)の検出
を高精度に行い、効率的に表示画面上に指示されたポイ
ントを表示させることができる表示装置、及び表示プロ
グラムを提供することを目的とする。
The present invention has been made in view of the above-mentioned problems, and detects a movement (gesture) of a pointing object with high accuracy by using a stereo camera including two or more cameras, thereby improving efficiency. It is an object of the present invention to provide a display device and a display program capable of displaying a designated point on a display screen.

【0013】[0013]

【課題を解決するための手段】上記課題を解決するため
に、本件発明は、以下の特徴を有する課題を解決するた
めの手段を採用している。
In order to solve the above problems, the present invention employs means for solving the problems having the following features.

【0014】請求項1に記載された発明は、2眼のカメ
ラで構成されるステレオカメラで測定した表示画面に対
して指示する指示物体の位置に基づいて、前記表示画面
上に指示されたポイントを表示する表示装置において、
複数の1眼カメラを表示画面の周辺に配置し、個々の1
眼カメラと前記指示物体の間の距離を検出する検出手段
と、前記検出手段で得られた前記指示物体の距離に基づ
いて、前記ステレオカメラのペアとなる2台の1眼カメ
ラを選択する選択手段とを有することを特徴とする。
According to the first aspect of the present invention, the point designated on the display screen is based on the position of the pointing object designated on the display screen measured by the stereo camera including the two-lens camera. In the display device that displays
Place multiple single-lens cameras around the display screen,
A detection unit that detects a distance between an eye camera and the pointing object, and a selection that selects two single-lens cameras that form a pair of the stereo cameras based on the distance between the pointing object obtained by the detection unit. And means.

【0015】なお、ステレオカメラとは、人間の左右の
目に対応する左右2台のカメラで構成されるが、最近で
は、多眼と称してより多くのカメラを用いる方式がカメ
ラ側から見て手前にある不透明物体がより遠方にある物
体を隠してしまうオクルージョンの問題を解決できるた
めよく用いられる。
A stereo camera is composed of two left and right cameras corresponding to the left and right eyes of a human, but recently, a system using more cameras called multiview is seen from the camera side. It is often used because it can solve the problem of occlusion in which an opaque object in the foreground obscures an object at a distance.

【0016】請求項1記載の発明によれば、指示物体に
位置に対応させて1眼カメラを選択しステレオカメラと
なるカメラを選択することができる。また、これにより
指示物体のジェスチャーを高精度に認識することがで
き、効率的に表示画面上にポイントを表示させることが
できる。
According to the first aspect of the present invention, it is possible to select the single-lens camera and the stereoscopic camera corresponding to the position of the pointing object. Further, by this, the gesture of the pointing object can be recognized with high accuracy, and the points can be efficiently displayed on the display screen.

【0017】請求項2に記載された発明は、前記選択手
段は、前記指示物体と前記1眼カメラの距離が所定距離
以内の場合は、距離が最も近い2台を選択し、所定距離
より外にある場合は、両端の2台を選択することを特徴
とする。
According to a second aspect of the invention, when the distance between the pointing object and the single-lens camera is within a predetermined distance, the selecting means selects the two units having the shortest distance and is outside the predetermined distance. In the case of, there is a feature that two units at both ends are selected.

【0018】請求項2記載の発明によれば、指示物体の
位置と1眼カメラの検出精度に応じて最適なカメラを選
択することができる。
According to the second aspect of the present invention, the optimum camera can be selected according to the position of the pointing object and the detection accuracy of the single-lens camera.

【0019】請求項3に記載された発明は、2眼以上の
カメラで構成されるステレオカメラで測定した表示画面
に対して指示する指示物体の位置に基づいて、前記表示
画面上に指示されたポイントを表示する表示装置におい
て、複数のステレオカメラを表示画面の周辺に配置し、
前記ステレオカメラの夫々から前記指示物体の距離を検
出する検出手段と、検出された距離において、前記指示
物体からの距離が最短のステレオカメラを選択する選択
手段とを有することを特徴とする。
According to the third aspect of the present invention, the instruction is given on the display screen based on the position of the pointing object which is pointed to the display screen, which is measured by the stereo camera including two or more cameras. In a display device that displays points, arrange multiple stereo cameras around the display screen,
The present invention is characterized by further comprising detection means for detecting the distance of the pointing object from each of the stereo cameras, and selection means for selecting a stereo camera having the shortest distance from the pointing object in the detected distances.

【0020】請求項3記載の発明によれば、指示物体の
位置に応じて、ジェスチャーを検出するステレオカメラ
を選択することができるため、高精度なジェスチャー検
出を行うことができる。また、効率的に表示画面上にポ
イントを表示させることができる。
According to the third aspect of the invention, it is possible to select a stereo camera that detects a gesture according to the position of the pointing object, so that highly accurate gesture detection can be performed. In addition, points can be efficiently displayed on the display screen.

【0021】請求項4に記載された発明は、前記検出手
段は、前記指示物体が予め設定された速度範囲にある場
合及び/又は予め設定された前後左右の移動範囲にある
場合に検出を行うことを特徴とする。
According to a fourth aspect of the present invention, the detection means performs detection when the pointing object is within a preset speed range and / or within a preset forward, backward, leftward and rightward movement range. It is characterized by

【0022】請求項4記載の発明によれば、検出手段は
指示物体の動きと同一にポインタを動かさずに非線形性
を持たせることができ、高精度なジェスチャー検出を行
うことができる。
According to the fourth aspect of the present invention, the detecting means can give the same nonlinearity as the movement of the pointing object without moving the pointer, and can perform highly accurate gesture detection.

【0023】請求項5に記載された発明は、前記検出手
段は、前記指示物体が凸形状である場合に、前記指示物
体の位置の検出を行うことを特徴とする。
The invention described in claim 5 is characterized in that the detecting means detects the position of the pointing object when the pointing object has a convex shape.

【0024】請求項5記載の発明によれば、凸形状以外
の指示物体がステレオカメラの検出範囲内に存在したと
しても無視することができ、高精度に指示物体の位置の
検出を行うことができる。また、これにより、高精度な
指示物体のジェスチャー検出を行うことができる。
According to the fifth aspect of the present invention, even if the pointing object other than the convex shape exists within the detection range of the stereo camera, it can be ignored, and the position of the pointing object can be detected with high accuracy. it can. Further, this enables highly accurate gesture detection of the pointing object.

【0025】請求項6に記載された発明は、前記指示物
体を操作する操作者の位置を測定する操作者位置測定手
段を有し、前記検出手段は、前記測定手段にて測定した
前記操作者位置に基づいた検出範囲において、前記指示
物体の位置の検出を行うことを特徴とする。
According to a sixth aspect of the present invention, there is provided operator position measuring means for measuring the position of the operator who operates the pointing object, and the detecting means is the operator measured by the measuring means. It is characterized in that the position of the pointing object is detected in a detection range based on the position.

【0026】請求項6記載の発明によれば、操作者の位
置に応じて最適な検出範囲を設定することができるた
め、高精度に指示物体の位置の検出を行うことができ
る。また、これにより、高精度な指示物体のジェスチャ
ー検出を行うことができる。
According to the sixth aspect of the invention, since the optimum detection range can be set according to the position of the operator, the position of the pointing object can be detected with high accuracy. Further, this enables highly accurate gesture detection of the pointing object.

【0027】請求項7に記載された発明は、前記検出手
段は、前記ステレオカメラで複数の指示物体が検出され
た場合は、前記表示画面に最も近い指示物体の位置を検
出することを特徴とする。
According to a seventh aspect of the invention, the detecting means detects the position of the pointing object closest to the display screen when a plurality of pointing objects are detected by the stereo camera. To do.

【0028】請求項7記載の発明によれば、ステレオカ
メラにより検出された複数の指示物体の中から1つに特
定することができる。また、これにより高精度な指示物
体のジェスチャー検出を行うことができる。
According to the seventh aspect of the present invention, it is possible to identify one of the plurality of pointing objects detected by the stereo camera. Further, this enables highly accurate gesture detection of the pointing object.

【0029】請求項8に記載された発明は、前記検出手
段は、前記ステレオカメラで複数の指示物体を検出され
た場合は、移動量及び/又は速度量が最大又は最小の指
示物体の位置を検出することを特徴とする。
In the invention described in claim 8, when the stereo camera detects a plurality of pointing objects, the detecting means detects the position of the pointing object having the maximum or minimum movement amount and / or speed amount. It is characterized by detecting.

【0030】請求項8記載の発明によれば、ステレオカ
メラにより検出された複数の指示物体の中から1つに特
定することができる。また、これにより高精度な指示物
体のジェスチャー検出を行うことができる。
According to the invention described in claim 8, it is possible to identify one of the plurality of pointing objects detected by the stereo camera. Further, this enables highly accurate gesture detection of the pointing object.

【0031】請求項9に記載された発明は、前記ステレ
オカメラの検出対象の指示物体が検出範囲外に位置した
ときに、前記表示画面上の設定を切り替える切替手段を
有することを特徴とする。
The invention described in claim 9 is characterized in that it has a switching means for switching the setting on the display screen when the pointing object to be detected by the stereo camera is located outside the detection range.

【0032】請求項9記載の発明によれば、容易に表示
画面上の設定を切り替えることができることができる。
According to the invention of claim 9, it is possible to easily switch the setting on the display screen.

【0033】請求項10に記載された発明は、前記ステ
レオカメラの検出対象の指示物体が検出範囲外に位置し
たときに、前記表示画面上のポインタ位置で指示決定す
る決定手段を有することを特徴とする。
According to a tenth aspect of the present invention, there is provided a deciding means for deciding an instruction at the pointer position on the display screen when the pointing object to be detected by the stereo camera is located outside the detection range. And

【0034】請求項10記載の発明によれば、容易に表
示画面上のポインタ位置で指示決定することができる。
According to the tenth aspect of the present invention, it is possible to easily determine the instruction at the pointer position on the display screen.

【0035】請求項11に記載された発明は、2眼以上
のカメラで構成されるステレオカメラで測定した表示画
面に対して指示する指示物体の位置に基づいて、前記表
示画面上に指示されたポイントを表示する表示装置にお
いて、複数のステレオカメラを表示画面の周辺に配置
し、前記ステレオカメラのうち所定のステレオカメラを
用いて前記指示物体を操作する操作者の顔を認識する認
識手段と、前記指示物体との距離が最短のステレオカメ
ラを用いて指示物体の位置の検出を行う検出手段と、前
記認識段階で認識した前記操作者の認識段階に基づい
て、操作者に関連した情報を出力するよう制御する制御
手段とを有することを特徴とする。
According to the eleventh aspect of the present invention, the instruction is given on the display screen based on the position of the pointing object pointed to the display screen measured by the stereo camera including two or more cameras. In a display device that displays points, a plurality of stereo cameras are arranged around a display screen, and a recognition unit that recognizes a face of an operator who operates the pointing object using a predetermined stereo camera among the stereo cameras, Based on the detection means for detecting the position of the pointing object using the stereo camera having the shortest distance to the pointing object, and the operator's recognition step recognized in the recognition step, the operator-related information is output. It has a control means for controlling so as to perform.

【0036】請求項11記載の発明によれば、操作者の
顔を認識することにより操作者に最適な表示画面を提供
することができる。また、これにより高精度な指示物体
のジェスチャー検出を行うことができる。
According to the eleventh aspect of the present invention, it is possible to provide the operator with an optimum display screen by recognizing the face of the operator. Further, this enables highly accurate gesture detection of the pointing object.

【0037】請求項12に記載された発明は、前記検出
手段は、前記認識手段で認識された操作者に対応した移
動検出速度及び又は検出位置範囲に基づいて、前記指示
物体の位置の検出を行うことを特徴とする。
According to a twelfth aspect of the present invention, the detection means detects the position of the pointing object based on the movement detection speed and / or the detection position range corresponding to the operator recognized by the recognition means. It is characterized by performing.

【0038】請求項12記載の発明によれば、操作者毎
に設定することができるため、高精度な指示物体の位置
の検出を行うことができる。また、これにより高精度な
指示物体のジェスチャー検出を行うことができる。
According to the twelfth aspect of the invention, since it can be set for each operator, the position of the pointing object can be detected with high accuracy. Further, this enables highly accurate gesture detection of the pointing object.

【0039】請求項13に記載された発明は、2眼のカ
メラで構成されるステレオカメラで測定した表示画面に
対して指示する指示物体の位置に基づいて、前記表示画
面上に指示されたポイントを表示する表示装置が具備す
るプログラムにおいて、複数の1眼カメラを表示画面の
周辺に配置し、個々の1眼カメラと前記指示物体の間の
距離を検出する検出処理と、前記検出手段で得られた前
記指示物体の距離に基づいて、前記ステレオカメラのペ
アとなる2台の1眼カメラを選択する選択処理とをコン
ピュータに実行させる。
The invention described in claim 13 is the point designated on the display screen based on the position of the pointing object which is designated on the display screen measured by the stereo camera including the two-lens camera. In a program included in a display device for displaying, a plurality of single-lens cameras are arranged around a display screen, and a detection process of detecting a distance between each single-lens camera and the pointing object, The computer is caused to execute a selection process of selecting two single-lens cameras that form a pair of the stereo cameras based on the distance of the designated object.

【0040】請求項13記載の発明によれば、指示物体
に位置に対応させて1眼カメラを選択しステレオカメラ
となるカメラを選択することができる。また、これによ
り指示物体のジェスチャーを高精度に認識することがで
き、効率的に表示画面上にポイントを表示させることが
できる。
According to the thirteenth aspect of the present invention, it is possible to select a single-lens camera and a stereo camera corresponding to the position of the pointing object. Further, by this, the gesture of the pointing object can be recognized with high accuracy, and the points can be efficiently displayed on the display screen.

【0041】請求項14に記載された発明は、2眼以上
のカメラで構成されるステレオカメラで測定した表示画
面に対して指示する指示物体の位置に基づいて、前記表
示画面上に指示されたポイントを表示する表示装置が具
備するプログラムにおいて、複数のステレオカメラを表
示画面の周辺に配置し、前記ステレオカメラの夫々から
前記指示物体の距離を検出する検出処理と、検出された
距離において、前記指示物体からの距離が最短のステレ
オカメラを選択する選択処理とをコンピュータに実行さ
せる。
According to the fourteenth aspect of the present invention, the instruction is given on the display screen based on the position of the pointing object pointed to the display screen measured by the stereo camera composed of two or more cameras. In a program included in a display device that displays points, a plurality of stereo cameras are arranged in the periphery of a display screen, a detection process of detecting the distance of the pointing object from each of the stereo cameras, and the detected distance, The computer is caused to execute a selection process of selecting a stereo camera having the shortest distance from the pointing object.

【0042】請求項14記載の発明によれば、指示物体
の位置に応じて、ジェスチャーを検出するステレオカメ
ラを選択することができるため、高精度なジェスチャー
検出を行うことができる。また、効率的に表示画面上に
ポイントを表示させることができる。
According to the fourteenth aspect of the invention, it is possible to select a stereo camera that detects a gesture according to the position of the pointing object, so that highly accurate gesture detection can be performed. In addition, points can be efficiently displayed on the display screen.

【0043】請求項15に記載された発明は、2眼以上
のカメラで構成されるステレオカメラで測定した表示画
面に対して指示する指示物体の位置に基づいて、前記表
示画面上に指示されたポイントを表示する表示装置が具
備するプログラムにおいて、複数のステレオカメラを表
示画面の周辺に配置し、前記ステレオカメラのうち所定
のステレオカメラを用いて前記指示物体を操作する操作
者の顔を認識する認識処理と、前記指示物体との距離が
最短のステレオカメラを用いて指示物体の検出を行う検
出処理と、前記認識段階で認識した前記操作者の認識段
階に基づいて、操作者に関連した情報を出力するよう制
御する制御処理とをコンピュータに実行させる。
In the invention described in claim 15, the instruction is given on the display screen based on the position of the pointing object which is instructed to the display screen, which is measured by a stereo camera including two or more cameras. In a program included in a display device that displays points, a plurality of stereo cameras are arranged around a display screen, and a face of an operator who operates the pointing object is recognized by using a predetermined stereo camera among the stereo cameras. Recognition processing, detection processing for detecting a pointing object using a stereo camera having the shortest distance to the pointing object, and information related to the operator based on the recognition step of the operator recognized in the recognition step. And causing the computer to execute a control process for controlling to output.

【0044】請求項15記載の発明によれば、操作者の
顔を認識することにより操作者に最適な表示画面を提供
することができる。また、これにより高精度な指示物体
のジェスチャー検出を行うことができる。
According to the fifteenth aspect of the present invention, it is possible to provide the operator with an optimum display screen by recognizing the face of the operator. Further, this enables highly accurate gesture detection of the pointing object.

【0045】[0045]

【発明の実施の形態】本発明は、表示画面の周辺に設置
された2眼以上のカメラで構成される複数のステレオカ
メラを用いて、表示画面を指示する指示物体の動き(ジ
ェスチャー)を認識する場合に、前記指示物体の位置に
応じてステレオカメラを選択してジェスチャー検出を行
うことにより、高精度なジェスチャー検出を行い、効率
的に表示画面上のポインティングを行うことを主眼とす
る。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention recognizes the movement (gesture) of a pointing object that points to a display screen by using a plurality of stereo cameras each of which has two or more cameras installed around the display screen. In this case, the main object is to select a stereo camera according to the position of the pointing object and perform gesture detection, thereby performing highly accurate gesture detection and efficiently performing pointing on the display screen.

【0046】次に、本発明における実施の形態を図を用
いて説明する。なお、本発明の内容を容易に説明するた
め、指示物体として操作者の手を用いるものとする。
Next, an embodiment of the present invention will be described with reference to the drawings. In order to easily explain the content of the present invention, the operator's hand is used as the pointing object.

【0047】図2は、本発明における表示装置の第一の
実施例である。
FIG. 2 shows a first embodiment of the display device according to the present invention.

【0048】図2の表示装置21−1は、表示画面22
−1と、カメラ1と、カメラ2と、カメラ3とを有する
よう構成されている。
The display device 21-1 shown in FIG.
-1, a camera 1, a camera 2, and a camera 3 are configured.

【0049】また、図3は、図2の表示装置における一
例のブロック構成図である。図3における表示装置は、
カメラ1と、カメラ2と、カメラ3と、画像処理部23
−1と、演算部24−1と、記憶部25−1と、制御部
26−1とを有するように構成されている。
FIG. 3 is a block diagram showing an example of the display device shown in FIG. The display device in FIG.
The camera 1, the camera 2, the camera 3, and the image processing unit 23
-1, a calculation unit 24-1, a storage unit 25-1, and a control unit 26-1.

【0050】第一の実施例は、表示装置21−1のフレ
ーム部に3台のカメラを設置し、3台の1眼カメラから
マッチングを行い、ステレオカメラとして使用する2台
のカメラを選択することで操作者の手や棒等の指示物体
の指し示す方向、手の動き全体を抽出し機器制御信号と
して出力する。
In the first embodiment, three cameras are installed in the frame portion of the display device 21-1, matching is performed from the three single-lens cameras, and two cameras to be used as stereo cameras are selected. As a result, the pointing direction of the pointing object such as the operator's hand or stick and the entire movement of the hand are extracted and output as a device control signal.

【0051】まず、カメラ1、カメラ2及びカメラ3に
て手が撮影されると、画像処理部23−1は、カメラ
1、カメラ2及びカメラ3から撮影された夫々のカメラ
の差分を求め両眼視差像を抽出する。ここで、LPF
(ローパスフィルタ)を通した左右像の差分からは大ま
かなオブジェクト(物体)の視差像を得ることができ、
HPF(ハイパスフィルタ)を通した左右像の差分から
は布の襞等細かな視差像を得ることができる。本発明で
は、手全体等の大まかな視差像を背景から抽出すればよ
く、LPFを通せばよいため画像メモリを節約すること
ができる。演算部24−1は、各カメラ間の間隔、画
角、解像度等のカメラパラメータが既知であれば、画像
処理部23−1から出力される両眼視差像から、対象と
する物体の実際の距離を算出する。
First, when a hand is photographed by the camera 1, the camera 2 and the camera 3, the image processing unit 23-1 obtains the difference between the cameras 1, 2 and 3 respectively. Extract the parallax image. Where LPF
It is possible to obtain a rough parallax image of an object from the difference between the left and right images that have passed through the (low-pass filter).
A fine parallax image such as a fold of cloth can be obtained from the difference between the left and right images that have passed through the HPF (high-pass filter). According to the present invention, a rough parallax image of the entire hand or the like may be extracted from the background, and the LPF may be used to save the image memory. If the camera parameters such as the interval between the cameras, the angle of view, the resolution, etc. are known, the calculation unit 24-1 uses the binocular parallax image output from the image processing unit 23-1 to determine the actual target object. Calculate the distance.

【0052】記憶部25−1では、数値やジェスチャー
検出に用いる手の動きを分離するアルゴリズムがデータ
として記憶されている。例えば、図1に示したメニュー
画面(図1(a))において、操作者のジェスチャーが
画面選択領域11のある部分を指した場合に、予め設定
した手の移動速度(例えば、50cm/秒)で、且つ予
め設定した範囲(例えば、画面選択領域11内で10c
m)以上、操作者の手が動かない時は、その選択領域分
から操作者の指差し位置を移動させないことにより、手
が震えても安定したジェスチャー認識ができるようにす
るためのパラメータや、カメラの検出範囲に対して、例
えば、10%〜30%(カメラの検出範囲が50cmの
場合には、5〜15cm)以上、奥行き方向に凸でない
物体がカメラ1、カメラ2、及びカメラ3の視野内に入
ったり通り過ぎても、無視することにより、手以外の物
体が通り過ぎても間違ってジェスチャーと認識されない
ようなパラメータ等が記憶されている。
The storage unit 25-1 stores, as data, an algorithm for separating numerical values and hand movements used for gesture detection. For example, in the menu screen shown in FIG. 1 (FIG. 1A), when the operator's gesture points to a portion of the screen selection area 11, a preset moving speed of the hand (for example, 50 cm / sec) And a preset range (for example, 10c in the screen selection area 11).
m) As above, when the operator's hand does not move, by not moving the operator's finger pointing position from the selected area, parameters for enabling stable gesture recognition even if the hand shakes, and the camera 10% to 30% (5 to 15 cm in the case where the detection range of the camera is 50 cm) or more, the objects that are not convex in the depth direction are the fields of view of the camera 1, the camera 2, and the camera 3. Parameters such as parameters that are not mistakenly recognized as a gesture even when an object other than the hand passes by are ignored, even if the object enters or passes by and is ignored.

【0053】演算部24−1は、上述した記憶部25−
1のデータを用いて、背景や体から手の動き部分を分離
して、動き量を制御信号として出力する。制御部26−
1は、演算部24−1から入力される制御信号と、記憶
部25−1から取得するジェスチャー検出に最も適した
ステレオペアのデータに基づいて、2台のカメラを選択
し、その2台のカメラに関する制御信号を出力する。
The calculation unit 24-1 is the storage unit 25-described above.
Using the data of 1, the moving part of the hand is separated from the background and the body, and the amount of motion is output as a control signal. Control unit 26-
1 selects two cameras based on the control signal input from the calculation unit 24-1 and the data of the stereo pair most suitable for the gesture detection acquired from the storage unit 25-1. Outputs control signals related to the camera.

【0054】ここで、制御部26−1の選択処理の一例
をフローチャートを用いて説明する。
Here, an example of the selection process of the control unit 26-1 will be described using a flowchart.

【0055】図4は、制御部におけるカメラ選択処理の
一例の動作フローチャートである。
FIG. 4 is an operation flowchart of an example of the camera selection process in the control unit.

【0056】図4において、カメラが操作者を検知する
と、カメラと手との距離から手の位置の座標を測定し
(S11)、その手の位置から使用するステレオペアを
選択する。例えば、操作者の手の位置が表示装置21−
1に近く且つ中央より左にある場合、カメラ1及びカメ
ラ2を用いてステレオペアを選択する(S12)。ま
た、手の位置が表示装置21−1に近く且つ中央より右
にある場合は、カメラ2及びカメラ3を選択する(S1
3)。更に、操作者の手が表示装置21−1より遠くに
ある場合は、両端にあるカメラ1及びカメラ3を選択
し、ステレオカメラの視差を大きくして検出精度を向上
させる。なお、操作者の手が表示装置21−1に近いか
否かの判断は、表示画面22−1の大きさ又は、各カメ
ラの設置間隔、カメラの検出精度により、設定され記憶
部に記憶されている。
In FIG. 4, when the camera detects the operator, the coordinates of the position of the hand are measured from the distance between the camera and the hand (S11), and the stereo pair to be used is selected from the position of the hand. For example, the position of the operator's hand is displayed on the display device 21-.
If it is close to 1 and to the left of the center, a stereo pair is selected using camera 1 and camera 2 (S12). If the position of the hand is close to the display device 21-1 and to the right of the center, the camera 2 and the camera 3 are selected (S1).
3). Further, when the operator's hand is farther than the display device 21-1, the cameras 1 and 3 at both ends are selected and the parallax of the stereo camera is increased to improve the detection accuracy. The determination as to whether the operator's hand is close to the display device 21-1 is set and stored in the storage unit according to the size of the display screen 22-1, the installation intervals of the cameras, and the detection accuracy of the cameras. ing.

【0057】これにより、操作者の操作内容の検出精度
を向上させることができ、操作者に何も取付けることな
く、また、表示画面22−1に直接触れることなく、手
のジェスチャーのみにより、画面操作を容易に行うこと
ができる。また、カメラの選定を行うことで、広い範囲
でジェスチャー検出を行うことができ、容易に表示画面
上に高精度にポイントを表示させることができる。
As a result, it is possible to improve the detection accuracy of the operation contents of the operator, and to attach the operator's screen to the display screen 22-1 without touching the display screen 22-1 with only hand gestures. The operation can be performed easily. In addition, by selecting the camera, it is possible to detect the gesture in a wide range and easily display the point on the display screen with high accuracy.

【0058】なお、上述した第一の実施例における表示
装置のブロック構成はこの限りではなく、表示装置21
−1に4台以上のカメラを設置してもよい。
The block configuration of the display device in the above-described first embodiment is not limited to this, and the display device 21 is not limited thereto.
-1 may be equipped with four or more cameras.

【0059】次に、本発明における第二の実施例につい
て説明する。
Next, a second embodiment of the present invention will be described.

【0060】図5は、本発明における表示装置の第二の
実施例である。
FIG. 5 shows a second embodiment of the display device according to the present invention.

【0061】図5の表示装置21−2は、表示画面22
−2と、ステレオカメラ4と、ステレオカメラ5と、ス
テレオカメラ6と、ステレオカメラ7とを有するように
構成されている。
The display device 21-2 shown in FIG.
-2, a stereo camera 4, a stereo camera 5, a stereo camera 6, and a stereo camera 7.

【0062】図5の表示装置21−2は、左右1組のス
テレオカメラを予め構成しておき、表示装置21−2の
フレーム部の4隅に設置し、この中で操作者の手が最も
近いステレオカメラを用いることにより、手の動き(ジ
ェスチャー)を高精度に検出することができる。また、
図6は、図5の表示装置における一例のブロック構成図
である。表示装置21−2は、ステレオカメラ4と、ス
テレオカメラ5と、ステレオカメラ6と、ステレオカメ
ラ7と、画像処理部23−2と、演算部24−2と、記
憶部25−2と、制御部26−2とを有するように構成
されている。
In the display device 21-2 of FIG. 5, one pair of left and right stereo cameras is pre-configured and installed at the four corners of the frame portion of the display device 21-2. By using a close stereo camera, the movement (gesture) of the hand can be detected with high accuracy. Also,
FIG. 6 is a block diagram of an example of the display device of FIG. The display device 21-2 includes a stereo camera 4, a stereo camera 5, a stereo camera 6, a stereo camera 7, an image processing unit 23-2, a calculation unit 24-2, a storage unit 25-2, and a control unit. And a portion 26-2.

【0063】図6において、画像処理部23−2では、
各ステレオカメラ(4〜7)の両眼視差像を検出する。
演算部24−2では、記憶部25−2からのデータに基
づいて動き量を制御信号として出力する。制御部26−
2では、記憶部25−2から得たデータに基づいて、ど
のステレオカメラを用いて操作者の手の動きの検出を行
うかの選択を行い、そのステレオカメラに関する制御信
号を出力する。
In FIG. 6, in the image processing section 23-2,
The binocular parallax image of each stereo camera (4 to 7) is detected.
The calculation unit 24-2 outputs the movement amount as a control signal based on the data from the storage unit 25-2. Control unit 26-
In 2, the operator selects which stereo camera to use to detect the movement of the operator's hand based on the data obtained from the storage unit 25-2, and outputs a control signal for the stereo camera.

【0064】ここで、ステレオカメラの選択基準として
は、例えば、カメラの位置から所定の位置(例えば、約
50cmの位置)に操作者が画面の操作を行う手を検出
することができるステレオカメラや、手に最も近いステ
レオカメラを用いることで、高精度な手の動作(ジェス
チャー)の検出を行うことができる。また、ステレオカ
メラの正面方向に対するずれ角等を測定し、ずれ角の小
さいステレオカメラを選択することもできる。なお、ス
テレオカメラの設置位置及び個数においては、この限り
ではない。
Here, the stereo camera selection criterion is, for example, a stereo camera capable of detecting the hand of the operator operating the screen from a position of the camera to a predetermined position (for example, a position of about 50 cm). , By using the stereo camera closest to the hand, it is possible to detect the hand motion (gesture) with high accuracy. It is also possible to measure a shift angle or the like with respect to the front direction of the stereo camera and select a stereo camera having a small shift angle. The installation position and the number of stereo cameras are not limited to this.

【0065】なお、画面を指示する手の位置が移動する
ため、移動される手の位置に応じて定期的に手の検出処
理を行い、手に最も近いステレオカメラを選択するよう
にする。
Since the position of the hand pointing the screen moves, the hand detection process is periodically performed according to the position of the moved hand, and the stereo camera closest to the hand is selected.

【0066】次に、上述した記憶部25に記憶された操
作者の手の動きを高精度に検出するために記憶される内
容について詳細に説明する。
Next, the contents stored in the above-mentioned storage unit 25 for detecting the movement of the operator's hand with high accuracy will be described in detail.

【0067】図7は、本発明における第一の検出基準の
一例の図である。
FIG. 7 is a diagram showing an example of the first detection criterion in the present invention.

【0068】図7では、上述したように、操作者のジェ
スチャーが画面選択領域11のある部分を指した場合
に、予め設定した手の移動速度(例えば、50cm/
秒)で、且つ予め設定した範囲(例えば、画面選択領域
11内で10cm)以上、操作者の手が動かない時は、
その設定された範囲から操作者の手が多少移動していた
としても、移動していると判断しないように設定する、
所謂非線形性を持たせることにより、安定したジェスチ
ャー検出ができる。
In FIG. 7, as described above, when the operator's gesture points to a portion of the screen selection area 11, a preset hand movement speed (for example, 50 cm /
Seconds), and when the operator's hand does not move within a preset range (for example, 10 cm in the screen selection area 11),
Even if the operator's hand has moved a little from the set range, it is set so that it is not judged to be moving.
By providing so-called non-linearity, stable gesture detection can be performed.

【0069】図7は、実際の手の動きを実線で示し、制
御部26から制御信号として出力される手の動きを示す
制御信号は点線にて示している。図7に示すように、設
定された速度範囲及び前後左右を含めた移動範囲の時に
手の動きを検出しないことにより、操作者の手が震えて
いるような場合でも、安定したポインタの表示を行うこ
とができる。
In FIG. 7, the actual movement of the hand is indicated by the solid line, and the control signal indicating the movement of the hand output as a control signal from the control unit 26 is indicated by the dotted line. As shown in FIG. 7, by not detecting the movement of the hand in the set speed range and the movement range including the front, rear, left, and right, even if the operator's hand is shaking, the stable pointer display can be achieved. It can be carried out.

【0070】なお、上述した予め決めた速度として約5
0cm/秒で、予め決めた範囲として誤差約10cm以
上、操作者の手が動いていない場合にはジェスチャー検
出を行わないことにより高精度なジェスチャーの検出が
できることがわかっている。
The above-mentioned predetermined speed is about 5
It has been known that highly accurate gesture detection can be performed by not performing gesture detection when the operator's hand is not moving and the error is about 10 cm or more as a predetermined range at 0 cm / sec.

【0071】また、1人又は複数の操作者により複数の
手で同時刻にステレオカメラに検出された場合は、夫々
の動き量を測定し動き量に基づいて検出対象となる手を
選択する。ここで、上述した内容を図を用いて説明す
る。
When one or a plurality of operators detect a plurality of hands with the stereo camera at the same time, the respective motion amounts are measured and the hands to be detected are selected based on the motion amounts. Here, the above contents will be described with reference to the drawings.

【0072】図8は、本発明における第二の検出基準の
一例の図である。図8において、例えば、手A及び手B
が同時に表示画面に対して操作を行っていた場合、夫々
の手の動き量を計算し比較を行う。比較の結果、動き量
が大きい方の手を検出対象とした場合、手Aの方が動き
量が大きいため手Aをジェスチャー検出対象として制御
信号を出力する。なお、上述した比較処理は制御部26
にて行う。また、検出条件は、この限りではなく、動き
量の小さい方を検出対象としてもよい。
FIG. 8 is a diagram showing an example of the second detection criterion in the present invention. In FIG. 8, for example, hand A and hand B
If both are operating on the display screen at the same time, the amount of movement of each hand is calculated and compared. As a result of comparison, when the hand with the larger movement amount is the detection target, the control signal is output with the hand A as the gesture detection target because the hand A has the larger movement amount. The comparison process described above is performed by the control unit 26.
Will be done at. Further, the detection condition is not limited to this, and the one having a smaller motion amount may be the detection target.

【0073】また、一般に表示画面を指すようなジェス
チャーを行う場合、背景や表示画面の前を人が通り過ぎ
た場合に、誤って検出されてしまうことがある。そこ
で、ステレオカメラの入力から奥行き量(ステレオカメ
ラに対して前後移動量)を算出し、奥行き量が予め設定
された値(閾値)以下の場合は、ジェスチャーの検出を
行わないようにすることで、検出精度を向上させること
ができる。ここで、上述の内容を図とフローチャートを
用いて説明する。
In general, when making a gesture that points to the display screen, when a person passes by in front of the background or the display screen, it may be erroneously detected. Therefore, the depth amount (the amount of forward and backward movement with respect to the stereo camera) is calculated from the input of the stereo camera, and if the depth amount is less than or equal to a preset value (threshold value), gesture detection is not performed. The detection accuracy can be improved. Here, the above contents will be described with reference to the drawings and the flowchart.

【0074】図9は、本発明における第三の検出基準の
一例の図である。また、図10は、図9における検出基
準の処理の一例の動作フローチャートである。
FIG. 9 is a diagram showing an example of the third detection criterion in the present invention. Further, FIG. 10 is an operation flowchart of an example of the detection reference process in FIG. 9.

【0075】図10において、既に設定されたステレオ
カメラからの映像信号を入力すると(S21)、奥行き
量の算出を演算部24で行う(S22)。算出された奥
行き量は、制御部26へ出力され、制御部26は、演算
部24からの奥行き量と、記憶部25に記憶してある奥
行き量の閾値との比較を行い(S23)、閾値以上の場
合は(S23にて、YES)、ジェスチャー検出を行う
(S24)。その結果、図9に示すように、奥行き量が
閾値以上については、ジェスチャー検出の対象とし、閾
値より少ない場合はジェスチャーを無視することによ
り、手の動きの精度を向上させることができる。なお、
上述した閾値の範囲としては、例えば、ステレオカメラ
の検出範囲に対して10%〜30%(検出範囲が50c
mの場合は、5〜15cm)等の設定を行う。
In FIG. 10, when the video signal from the stereo camera which has already been set is input (S21), the calculation of the depth amount is performed by the calculation unit 24 (S22). The calculated depth amount is output to the control unit 26, and the control unit 26 compares the depth amount from the calculation unit 24 with the threshold value of the depth amount stored in the storage unit 25 (S23), and the threshold value. In the above case (YES in S23), gesture detection is performed (S24). As a result, as shown in FIG. 9, when the depth amount is equal to or larger than the threshold value, the gesture detection target is set, and when the depth amount is smaller than the threshold value, the gesture is ignored, so that the accuracy of the hand movement can be improved. In addition,
As the range of the above-mentioned threshold value, for example, 10% to 30% (the detection range is 50 c
If m, 5 to 15 cm) is set.

【0076】更に、手の奥行き量を検出する場合、操作
者の位置によって手の検出範囲を適応的に変化させるこ
とにより、操作者と表示画面からの距離によらず、高精
度なジェスチャー検出を行うことができる。上述の内容
を図11の本発明における第四の検出基準の一例の図を
用いて説明する。
Further, when detecting the depth of the hand, the detection range of the hand is adaptively changed according to the position of the operator, so that highly accurate gesture detection can be performed regardless of the distance between the operator and the display screen. It can be carried out. The above contents will be described with reference to FIG. 11 showing an example of the fourth detection criterion in the present invention.

【0077】図11に示すように、例えば、時間t1〜
t2に操作者の体の位置がAの奥行き位置にいる場合、
ステレオカメラにおける操作者の手の検出範囲はA1〜
A2の位置とする。このように、体の奥行き量を測定
し、それに応じて手の検出範囲を測定することにより、
操作者が表示装置に対して奥行きの異なる位置に移動し
て指示した場合でも高精度な手の動きの検出を行うこと
ができる。
As shown in FIG. 11, for example, time t1.
When the position of the operator's body is at the depth position of A at t2,
The detection range of the operator's hand in the stereo camera is A1
Position A2. In this way, by measuring the depth amount of the body and measuring the detection range of the hand accordingly,
Even if the operator moves to a position having a different depth and gives an instruction to the display device, it is possible to detect the motion of the hand with high accuracy.

【0078】また、複数の手による操作を同時に行った
場合に、図8に示した手の動き量により、ジェスチャー
検出対象となる手を選択する他に、上述したように奥行
き量を測定して比較することにより、対象となる操作者
の手を選択することができる。上述の内容を図12の本
発明における第五の検出基準の一例の図を用いて説明す
る。
Further, when a plurality of hands are operated at the same time, the depth amount is measured as described above in addition to selecting the hand to be the gesture detection target according to the hand movement amount shown in FIG. By comparing, the target operator's hand can be selected. The above contents will be described with reference to FIG. 12 showing an example of the fifth detection criterion in the present invention.

【0079】図12に示すように、例えば、2つの手
(手A、手B)によるジェスチャーが行われていた場
合、演算部24は夫々の奥行き量を演算し、制御部26
は、演算結果を用いて、水平方向に対する奥行き量が最
も小さい方(表示装置に対して手前)の手(手B)をジ
ェスチャー検出用の手をする。なお、水平方向に対する
奥行き量が最も大きい方をジェスチャー検出用の手とし
てもよい。
As shown in FIG. 12, for example, when a gesture with two hands (hand A, hand B) is performed, the calculation unit 24 calculates the depth amount of each and the control unit 26.
Uses the calculation result to make the hand (hand B) having the smallest depth amount in the horizontal direction (front of the display device) the hand for gesture detection. The gesture detection hand may be the one having the largest depth amount in the horizontal direction.

【0080】上述したような検出基準は、記憶部25に
記憶され、制御部26は、記憶部25に記憶された検出
基準に基づいてステレオカメラの選択や手の位置の検出
を行うことにより高精度なジェスチャー検出を行うこと
ができ、表示画面22に手の位置に対応したポイントを
正確に表示することができる。
The detection reference as described above is stored in the storage unit 25, and the control unit 26 selects a stereo camera or detects the position of the hand based on the detection reference stored in the storage unit 25 to increase the detection standard. Accurate gesture detection can be performed, and the point corresponding to the position of the hand can be accurately displayed on the display screen 22.

【0081】また、操作者の手がステレオカメラの検出
範囲にあっても、表示されている画面に集中している操
作者が何もしない状態になることがある。その場合は、
操作者の手の動きが、ジェスチャー検出範囲にあり、且
つ一定時間以上操作していないときに、メニュー画面を
非表示に切り替える。この後、例えば、手が検出範囲外
に移動して再度ジェスチャー検出範囲内に入った場合
は、メニュー画面が表示される。
Even when the operator's hand is within the detection range of the stereo camera, the operator concentrated on the displayed screen may be in a state of doing nothing. In that case,
When the movement of the operator's hand is within the gesture detection range and no operation has been performed for a certain period of time, the menu screen is switched to non-display. After that, for example, when the hand moves out of the detection range and enters the gesture detection range again, the menu screen is displayed.

【0082】上述の処理内容をフローチャートを用いて
説明する。
The above processing contents will be described with reference to a flowchart.

【0083】図13は、本発明における切替処理の一例
のフローチャートである。図13において、まず操作者
の手の動きを検出すると(S31)、記憶部25にある
検出基準を用いてジェスチャーの検出範囲にあるか否か
を判断する(S32)。S32にて、手が検出範囲にあ
った場合は(S32にて、YES)、一定時間以上操作
者により指示操作が行われていないかを判断する(S3
3)。また、S32にて操作者の手が検出範囲外であっ
た場合は(S32にて、NO)、処理を終了する。S3
3にて一定時間とは、記憶部25に、前回操作された時
刻を記憶しておき、制御部26にて時間比較を行う。
FIG. 13 is a flow chart of an example of the switching process according to the present invention. In FIG. 13, first, when the movement of the operator's hand is detected (S31), it is determined whether or not it is within the gesture detection range using the detection reference stored in the storage unit 25 (S32). If the hand is within the detection range in S32 (YES in S32), it is determined whether or not the instruction operation is performed by the operator for a predetermined time or more (S3).
3). If the operator's hand is out of the detection range in S32 (NO in S32), the process ends. S3
The constant time in 3 is stored in the storage unit 25 as the last operated time, and the control unit 26 compares the times.

【0084】S33にて、一定時間以上操作していなか
った場合は(S33にて、YES)、表示装置21のメ
ニュー画面を非表示にする(S34)。また、S33に
て、一定時間内に操作者による指示操作が行われた場合
は(S33にて、NO)、メニュー画面を表示する(S
35)。これにより、操作者がメニュー画面に煩わせる
ことなく表示画面を視聴することができる。
In S33, if the operation has not been performed for a certain period of time (YES in S33), the menu screen of the display device 21 is hidden (S34). In S33, when the instruction operation is performed by the operator within a certain time (NO in S33), the menu screen is displayed (S).
35). As a result, the operator can view the display screen without bothering the menu screen.

【0085】なお、上述の切替処理は、上述の限りでは
なく、例えば、操作者の手がステレオカメラの検出範囲
外に移動したときに、表示画面を切り替えてもよい。ま
た、上述した切替処理は、制御部26で行われる。
The above-mentioned switching processing is not limited to the above, and the display screen may be switched when the operator's hand moves out of the detection range of the stereo camera, for example. The switching process described above is performed by the control unit 26.

【0086】また、操作者が操作を決定する時の決定動
作方法をジェスチャーにて行う場合の本発明の実施例を
フローチャートを用いて説明する。
Further, an embodiment of the present invention in the case where the deciding operation method when the operator decides an operation is performed by a gesture will be described with reference to a flowchart.

【0087】図14は、本発明における動作決定処理の
一例の動作フローチャートである。図14において、ま
ず、操作者の手の動きが検出されると(S41)、手の
動きが例えば、図1(a)における画面選択領域11上
にあるか否かを判断する(S42)。なお、ここでは選
択領域上に手があればよく、例えば、図1(b)におけ
るチャンネル選択領域12でもよい。
FIG. 14 is an operation flowchart of an example of the operation determining process according to the present invention. In FIG. 14, first, when the movement of the operator's hand is detected (S41), it is determined whether or not the movement of the hand is on the screen selection area 11 in FIG. 1 (a) (S42). Note that, here, it suffices to have a hand on the selection area, for example, the channel selection area 12 in FIG. 1B.

【0088】S42にて、画面選択領域11上にある場
合(S42にて、YES)、次に、操作者のジェスチャ
ー検出対象である手が検出範囲外か否かを判断する(S
43)。S43にて、例えば、操作者が手を検出範囲外
の位置(例えば、膝の上に載せる等)に移動させること
により、手が検出範囲外であった場合(S43にて、Y
ES)、決定動作を行ったものと見なし、表示画面22
上に選択領域に該当する処理を行う(S44)。なお、
S42にて、画面選択領域11上になかった場合(S4
2にて、NO)、又は手が検出範囲内にあった場合(S
43にて、NO)は、ここでの処理を終了する。これに
より容易に決定動作を行うことができる。
In S42, if it is on the screen selection area 11 (YES in S42), it is next determined whether or not the hand which is the gesture detection target of the operator is outside the detection range (S).
43). In S43, for example, when the operator moves his / her hand to a position outside the detection range (for example, put on the knee), the hand is outside the detection range (Y in S43, Y
ES), assuming that the decision operation has been performed, the display screen 22
The process corresponding to the selected area is performed (S44). In addition,
In S42, if it is not on the screen selection area 11 (S4
2, NO), or if the hand is within the detection range (S
In NO, the process ends here. Thereby, the decision operation can be easily performed.

【0089】また、上述した内容は決定動作について
は、この限りではなく、S43にて、手の奥行き量を測
定し、所定の奥行き量以上の動きがあった場合に、操作
者による指差し指示があったものと判断し、S44の決
定動作を行ってもよい。
The above-mentioned contents are not limited to the determination operation, but the depth amount of the hand is measured in S43, and if there is a movement of a predetermined depth amount or more, the operator gives a pointing instruction. It may be determined that there has been, and the determination operation of S44 may be performed.

【0090】なお、上述の決定動作処理は、制御部26
にて行われる。
The above-described determination operation process is executed by the control unit 26.
Will be held in.

【0091】更に、既に設定されたステレオカメラのう
ち、1或いは2台のカメラの出力を用いて、操作者の顔
の部分を抽出することにより、操作者を特定することが
でき、また、操作者の個人情報を予め蓄積しておき該個
人情報を用いて、例えば、各個人に対応した具体的なチ
ャンネルの設定や手の検出位置範囲、移動検出速度の設
定を替えることができる。
Furthermore, the operator can be specified by extracting the face portion of the operator using the outputs of one or two of the already set stereo cameras, and the operation can be performed. Personal information of a person is stored in advance, and by using the personal information, for example, specific channel settings, hand detection position ranges, and movement detection speed settings corresponding to each individual can be changed.

【0092】例えば、ステレオカメラを用いて操作者の
顔等から特定の操作者を認識し、個人情報に基づいてテ
レビ操作の場合に、あるチャンネルが操作できないよう
チャンネルをロックしたり、操作者がテレビの前に来た
場合には、その人が最も好きな或いはその人に関連性の
ある番組を放送しているチャンネルに設定したりするこ
とができる。更に、顔認識によりその操作者に対して予
め設定された「ジェスチャー検出速度閾値」、「ジェス
チャー検出位置閾値」、又は「ジェスチャー入力範囲」
等を設定することで、操作者に適応した高精度なジェス
チャー検出を行うことができる。
For example, when a specific operator is recognized from the operator's face or the like by using a stereo camera and a television is operated based on the personal information, the channel is locked so that a certain channel cannot be operated, or the operator does not operate. If you come in front of the television, you can set it to the channel that is broadcasting the program that the person likes or is most relevant to. Furthermore, the "gesture detection speed threshold", "gesture detection position threshold", or "gesture input range" preset for the operator by face recognition
By setting such as, it is possible to perform highly accurate gesture detection adapted to the operator.

【0093】次に、上述した顔認識を行うための表示装
置の一例を図を用いて説明する。
Next, an example of the display device for performing the above face recognition will be described with reference to the drawings.

【0094】図15は、本発明における顔画像認識を行
う表示装置の一例のブロック構成図である。なお、図1
5においては、既に、右眼用カメラと左眼用カメラの2
台のステレオペアのカメラが設定されているものとす
る。
FIG. 15 is a block diagram showing an example of a display device for recognizing a face image according to the present invention. Note that FIG.
5 already has two cameras, one for the right eye and one for the left eye.
It is assumed that the cameras of one stereo pair are set.

【0095】図15の表示装置は、左眼用カメラ31
と、右眼用カメラ32と、顔画像処理部33と、顔画像
認識部34と、画像処理部23−3と、演算部24−3
と、記憶部25−3と、制御部26−3とを有するよう
構成されている。
The display device shown in FIG. 15 has a left-eye camera 31.
A right-eye camera 32, a face image processing unit 33, a face image recognition unit 34, an image processing unit 23-3, and a calculation unit 24-3.
And a storage unit 25-3 and a control unit 26-3.

【0096】ここで、ステレオカメラによる顔の認識方
法について説明する。典型的な方法として、ステレオカ
メラの一つを利用して操作者の顔を撮影し、予め準備し
た顔のテンプレートとマッチングする方法がある。解像
度の高い原画像を用いてマッチングを行うと膨大な計算
時間を要するため、LPFを通して、大まかな情報を抽
出してマッチングしたり、エッジだけ抜き出したり、顔
色や髪の毛の色を用いる等の方式がよく用いられてい
る。
Now, a method of recognizing a face by the stereo camera will be described. As a typical method, there is a method in which one of the stereo cameras is used to photograph the face of the operator and the face of the operator is matched with a prepared face template. Since it requires a huge amount of calculation time to perform matching using an original image with high resolution, methods such as extracting rough information through the LPF for matching, extracting only edges, and using face color and hair color are available. It is often used.

【0097】また、より統計的な方法としては、予め多
方向からの顔画像を撮影し、特徴量を多変量解析によっ
て抽出し、新たに入力された画像と比較して、多変量解
析によって得られた座標に最も近い座標の顔画像を認識
する方法、或いはステレオカメラを用いて左右のカメラ
の差分を求め、顔画像の奥行き方向のマップを作り、予
め取り込んだパターンから顔画像を特定する方法等があ
る。なお、本発明にて使用される顔画像認識方法として
は、ここに上げた方法以外の様々な方法を用いることが
できる。
Further, as a more statistical method, a face image from multiple directions is photographed in advance, the feature amount is extracted by multivariate analysis, the feature amount is compared with a newly input image, and obtained by multivariate analysis. Method of recognizing the face image with the coordinates closest to the specified coordinates, or the method of obtaining the difference between the left and right cameras using a stereo camera, creating a depth direction map of the face image, and specifying the face image from the previously captured pattern. Etc. As the face image recognition method used in the present invention, various methods other than the methods mentioned above can be used.

【0098】まず、左眼用カメラ31と右眼用カメラ3
2から撮影された映像は、画像処理部23−3と顔画像
処理部33に出力される。画像処理部23−3では、上
述したように両眼視差像を抽出する。顔画像処理部33
では、上述した方法を用いて操作者の顔部分の抽出を行
う。顔画像認識部34では、予め登録しておいた顔のデ
ータを基に操作者の顔を特定する。特定した操作者の情
報を演算部24−3に出力し、演算部24−3は、画像
処理部23−3から入力したデータに対して手のジェス
チャー検出を行うと共に、チャンネルの設定やロック、
或いはその個人に合わせた選択画面を表示画面上に表示
するための制御信号を同時に出力する。また、個人に併
せてジェスチャー入力を円滑に行うためのパラメータ等
も設定することができる。
First, the left-eye camera 31 and the right-eye camera 3
The video imaged from 2 is output to the image processing unit 23-3 and the face image processing unit 33. The image processing unit 23-3 extracts the binocular parallax image as described above. Face image processing unit 33
Then, the face part of the operator is extracted using the above-described method. The face image recognition unit 34 identifies the operator's face based on the face data registered in advance. Information of the specified operator is output to the calculation unit 24-3, and the calculation unit 24-3 detects the gesture of the hand with respect to the data input from the image processing unit 23-3, and sets or locks the channel.
Alternatively, a control signal for displaying a selection screen suitable for the individual on the display screen is simultaneously output. Further, it is possible to set parameters and the like for smoothly performing gesture input according to an individual.

【0099】本発明では、図15のように顔認識可能な
表示装置を備えることにより、操作者の顔を特定し、そ
の操作者が好きなチャンネルに切り替える、好きな番組
の放送リストを表示すること等の機能を有することがで
きる。
According to the present invention, a face recognizable display device is provided as shown in FIG. 15, so that the face of the operator is specified, the operator switches to the favorite channel, and the broadcast list of the favorite program is displayed. It can have functions such as the thing.

【0100】例えば、操作者が未成年の場合は、成人向
けや暴力など刺激の強い番組に対してチャンネル操作で
きないようにすることができる。更に、認識した個人の
嗜好に合わせて、チャンネルの表示を変えることもでき
る。通常のテレビでは、地上波の1〜12チャンネル、
若しくはBSデジタルの1〜9チャンネルのアイコンが
表示されているが、映画や特定のスポーツが好きな操作
者に対しては、CS(Communication S
atellite)やケーブルテレビのチャンネルを含
め、受信できる関連ジャンルのチャンネルのみの選択領
域表示を行うことができる。
For example, if the operator is a minor, it is possible to prevent the channel from being operated for a program that is highly stimulating such as for adults or for violence. Further, the channel display can be changed according to the recognized individual preference. Ordinary TV, 1 to 12 channels of ground wave,
Alternatively, although BS digital channels 1 to 9 icons are displayed, CS (Communication S) can be used for operators who like movies and specific sports.
It is possible to display the selection area only for the channels of the related genres that can be received, including the channels of the Atellite) and cable television.

【0101】なお、この機能は表示装置のみならず、記
録/再生装置、コンピュータ装置や対話型ディスプレイ
にも適用でき、操作者が使わない選択領域を整理して、
使う選択領域のみにできるため、すっきりした大きめの
選択領域のデザインが可能となり、操作者にとってより
ジェスチャー入力しやすい環境を提供することができ
る。
This function can be applied not only to the display device but also to the recording / reproducing device, the computer device and the interactive display, by organizing the selection areas not used by the operator,
Since only the selection area to be used can be provided, it is possible to design a neat and large selection area, and it is possible to provide an environment in which the operator can easily input a gesture.

【0102】上述したように、図15の実施例では、ジ
ェスチャー検出用カメラが操作者の顔を同時に撮影して
いることを利用して、操作者の顔を認識し、ジェスチャ
ー入力の際の操作性を向上させることができる。なお、
本発明においては、複数のステレオカメラを具備した表
示装置により、顔認識用のステレオカメラとジェスチャ
ー検出用のステレオカメラを分けてもよい。また、その
場合は、操作者の手から最短の距離にあるステレオカメ
ラでジェスチャー検出を行い、2番目に近いステレオカ
メラで顔を認識するのが好ましい。
As described above, in the embodiment shown in FIG. 15, the fact that the gesture detection camera simultaneously captures the face of the operator is used to recognize the face of the operator and to perform an operation for gesture input. It is possible to improve the sex. In addition,
In the present invention, a stereo camera for face recognition and a stereo camera for gesture detection may be separated by a display device having a plurality of stereo cameras. In that case, it is preferable that the stereo camera located at the shortest distance from the operator's hand detect the gesture and the second closest stereo camera recognizes the face.

【0103】更に、家や部屋の中のテレビ、照明、エア
コン等の機器にステレオカメラを設置し、操作者の手の
動きが入力された場合に、手から最も近いステレオカメ
ラを選択し、テレビの操作、エアコンの操作、照明の操
作、又はドアロックの開閉等を行うことができる。
Further, when a stereo camera is installed in a device such as a television, lighting, and an air conditioner in a house or a room, and when the movement of the operator's hand is input, the stereo camera closest to the hand is selected, and the television is selected. Can be operated, the air conditioner can be operated, the lighting can be operated, the door lock can be opened and closed, and the like.

【0104】なお、上述においては、操作者の手の動き
を対象にジェスチャー検出を行う例を説明したが、本発
明においてはこの限りではなく、例えば、操作者の足
や、特定の指示するための棒等を指示物体として利用す
ることによりジェスチャーを検出することができる。
In the above description, an example in which gesture detection is performed targeting the movement of the operator's hand has been described, but the present invention is not limited to this. For example, in order to give the operator's foot or a specific instruction. A gesture can be detected by using a stick or the like as a pointing object.

【0105】また、本実施例を複数組み合わせることに
より操作者のジェスチャー検出を行ってもよい。
The operator's gesture may be detected by combining a plurality of the present embodiments.

【0106】なお、上述にてステレオカメラで測定した
表示画面に対して指示する指示物体の位置に基づいて、
前記表示画面上に指示されたポイントを表示する表示装
置について説明したが、指示物体の位置に基づいて表示
画面上に指示されたポイントを表示するための表示プロ
グラムを生成し、そのプログラムに基づいて、コンピュ
ータに、上述した表示装置に各ブロックにおける処理を
実行させることも可能である。
Based on the position of the pointing object pointing on the display screen measured by the stereo camera as described above,
The display device for displaying the designated point on the display screen has been described, but a display program for displaying the designated point on the display screen is generated based on the position of the pointing object, and based on the program. It is also possible to cause the computer to execute the processing in each block on the display device described above.

【0107】なお、上述した表示プログラムは、CD−
ROM等の記憶媒体に記憶させてコンピュータにインス
トールすることにより、高精度なジェスチャー検出を容
易に実行することができる。また、これにより表示画面
上に操作者の動作に基づくポイントの表示を容易に行う
ことができる。
The display program described above is a CD-
By storing it in a storage medium such as a ROM and installing it in a computer, highly accurate gesture detection can be easily executed. Further, this makes it possible to easily display the points on the display screen based on the operation of the operator.

【0108】更に、この他の方法として、表示プログラ
ムを通信インターフェース及びネットワークからファイ
ル形式で取得し、コンピュータにインストールすること
によっても高精度なジェスチャーの検出を実行させるこ
とができる。
As another method, a highly accurate gesture detection can be executed by obtaining the display program in a file format from the communication interface and the network and installing it in the computer.

【0109】上述したように、本発明によれば、2眼以
上のカメラで構成されるステレオカメラを用いて、操作
者のジェスチャーの検出を高精度に行い、表示画面上に
操作者の動作に基づくポイントの表示を容易に行うこと
ができる。また、これにより効率的で高精度な表示装置
への入力操作を行うことができる。
As described above, according to the present invention, a stereo camera composed of two or more cameras is used to detect the gesture of the operator with high accuracy and to display the motion of the operator on the display screen. Based points can be easily displayed. In addition, this enables efficient and highly accurate input operation to the display device.

【0110】また、ステレオカメラを用いて、指示物体
の動き(ジェスチャー)の検出を高精度に行い、効率的
に表示画面上に指示されたポイントを表示させることが
できる表示装置、及び表示プログラムを提供することが
できる。
A display device and a display program capable of detecting the movement (gesture) of the pointing object with high accuracy by using the stereo camera and efficiently displaying the point pointed on the display screen are provided. Can be provided.

【0111】更に、本発明の表示装置及び表示プログラ
ムを利用したテレビジョン装置や、テレビジョン録画・
再生装置、テレビジョン表示機能を有するコンピュータ
装置、対話型ディスプレイを実現することができる。
Further, a television device using the display device and the display program of the present invention, a television recording / recording device,
It is possible to realize a playback device, a computer device having a television display function, and an interactive display.

【0112】[0112]

【発明の効果】本発明によれば、指示物体の動きの検出
を高精度に行うことができる。また、これにより、効率
的に表示画面上に指示されたポイントを表示させること
ができる。
According to the present invention, the movement of the pointing object can be detected with high accuracy. Further, this makes it possible to efficiently display the designated point on the display screen.

【図面の簡単な説明】[Brief description of drawings]

【図1】従来の表示画面の一例を示す図である。FIG. 1 is a diagram showing an example of a conventional display screen.

【図2】本発明における表示装置の第一の実施例であ
る。
FIG. 2 is a first embodiment of a display device according to the present invention.

【図3】図2の表示装置における一例のブロック構成図
である。
FIG. 3 is a block configuration diagram of an example of the display device of FIG.

【図4】制御部におけるカメラ選択処理の一例の動作フ
ローチャートである。
FIG. 4 is an operation flowchart of an example of a camera selection process in the control unit.

【図5】本発明における表示装置の第二の実施例であ
る。
FIG. 5 is a second embodiment of the display device according to the present invention.

【図6】図5の表示装置における一例のブロック構成図
である。
FIG. 6 is a block configuration diagram of an example of the display device of FIG.

【図7】本発明における第一の検出基準の一例の図であ
る。
FIG. 7 is a diagram showing an example of a first detection criterion in the present invention.

【図8】本発明における第二の検出基準の一例の図であ
る。
FIG. 8 is a diagram showing an example of a second detection criterion in the present invention.

【図9】本発明における第三の検出基準の一例の図であ
る。
FIG. 9 is a diagram showing an example of a third detection criterion in the present invention.

【図10】図9における検出基準の処理の一例の動作フ
ローチャートである。
FIG. 10 is an operation flowchart of an example of detection reference processing in FIG.

【図11】本発明における第四の検出基準の一例の図で
ある。
FIG. 11 is a diagram showing an example of a fourth detection criterion in the present invention.

【図12】本発明における第五の検出基準の一例の図で
ある。
FIG. 12 is a diagram showing an example of a fifth detection criterion in the present invention.

【図13】本発明における切替処理の一例のフローチャ
ートである。
FIG. 13 is a flowchart of an example of a switching process according to the present invention.

【図14】本発明における動作決定処理の一例の動作フ
ローチャートである。
FIG. 14 is an operation flowchart of an example of operation determination processing according to the present invention.

【図15】本発明における顔画像認識を行う表示装置の
一例のブロック構成図である。
FIG. 15 is a block diagram showing an example of a display device for recognizing a face image according to the present invention.

【符号の説明】[Explanation of symbols]

1,2,3 カメラ 4,5,6,7 ステレオカメラ 10 表示画面 11 画面選択領域 12 チャンネル選択領域 13 大小調整領域 23 画像処理部 24 演算部 25 記憶部 26 制御部 31 左眼用カメラ 32 右眼用カメラ 33 顔画像処理部 34 顔画像認識部 1,2,3 camera 4, 5, 6, 7 stereo camera 10 Display screen 11 Screen selection area 12 channel selection area 13 Large / small adjustment area 23 Image Processor 24 arithmetic unit 25 memory 26 Control unit 31 Left-eye camera 32 Right eye camera 33 Face image processing unit 34 Face image recognition unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/60 180 G06T 7/60 180B (72)発明者 清水 俊宏 東京都世田谷区砧一丁目10番11号 日本放 送協会 放送技術研究所内 (72)発明者 桑島 茂純 東京都国分寺市内藤2丁目10番12号 株式 会社ビュープラス内 Fターム(参考) 5B057 BA02 BA26 CC01 CH08 CH11 CH18 DA07 DA16 DB03 DC02 DC32 5B087 AA09 CC26 CC33 5L096 CA05 FA66 HA04 HA07 JA11─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 7 identification code FI theme code (reference) G06T 7/60 180 G06T 7/60 180B (72) Inventor Toshihiro Shimizu 1-10-11 Kinuta, Setagaya-ku, Tokyo No. Japan Broadcasting Corporation Broadcasting Technology Research Institute (72) Inventor Shigezumi Kuwashima 2-10-12 Fuji, Kokubunji city, Tokyo F-term in View Plus Co., Ltd. (reference) 5B057 BA02 BA26 CC01 CH08 CH11 CH18 DA07 DA16 DB03 DC02 DC32 5B087 AA09 CC26 CC33 5L096 CA05 FA66 HA04 HA07 JA11

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 2眼のカメラで構成されるステレオカメ
ラで測定した表示画面に対して指示する指示物体の位置
に基づいて、前記表示画面上に指示されたポイントを表
示する表示装置において、 複数の1眼カメラを表示画面の周辺に配置し、個々の1
眼カメラと前記指示物体の間の距離を検出する検出手段
と、 前記検出手段で得られた前記指示物体の距離に基づい
て、前記ステレオカメラのペアとなる2台の1眼カメラ
を選択する選択手段とを有することを特徴とする表示装
置。
1. A display device for displaying an instructed point on the display screen based on the position of an instructing object instructing the display screen measured by a stereo camera including a two-lens camera, The single-lens camera is placed around the display screen and
A detection unit that detects the distance between the eye camera and the pointing object, and a selection that selects two single-lens cameras that form a pair of the stereo cameras based on the distance between the pointing object obtained by the detection unit. And a display device.
【請求項2】 前記選択手段は、 前記指示物体と前記1眼カメラの距離が所定距離以内の
場合は、距離が最も近い2台を選択し、所定距離より外
にある場合は、両端の2台を選択することを特徴とする
請求項1に記載の表示装置。
2. The selecting means selects two units having the shortest distance when the distance between the pointing object and the single-lens camera is within a predetermined distance, and when the distance is out of the predetermined distance, the two distances of both ends are selected. The display device according to claim 1, wherein a base is selected.
【請求項3】 2眼以上のカメラで構成されるステレオ
カメラで測定した表示画面に対して指示する指示物体の
位置に基づいて、前記表示画面上に指示されたポイント
を表示する表示装置において、 複数のステレオカメラを表示画面の周辺に配置し、前記
ステレオカメラの夫々から前記指示物体の距離を検出す
る検出手段と、 検出された距離において、前記指示物体からの距離が最
短のステレオカメラを選択する選択手段とを有すること
を特徴とする表示装置。
3. A display device for displaying an instructed point on the display screen based on a position of an instructing object instructing the display screen, which is measured by a stereo camera including two or more cameras. Detecting means for arranging a plurality of stereo cameras around the display screen and detecting the distance of the pointing object from each of the stereo cameras, and selecting a stereo camera having the shortest distance from the pointing object in the detected distances. A display device comprising:
【請求項4】 前記検出手段は、 前記指示物体が予め設定された速度範囲にある場合及び
/又は予め設定された前後左右の移動範囲にある場合に
検出を行うことを特徴とする請求項1乃至3の何れか1
項に記載の表示装置。
4. The detection means performs detection when the pointing object is within a preset speed range and / or within a preset forward, backward, leftward, and rightward movement range. 1 to 3
The display device according to item.
【請求項5】 前記検出手段は、 前記指示物体が凸形状である場合に、前記指示物体の位
置の検出を行うことを特徴とする請求項1乃至4の何れ
か1項に記載の表示装置。
5. The display device according to claim 1, wherein the detecting unit detects the position of the pointing object when the pointing object has a convex shape. .
【請求項6】 前記指示物体を操作する操作者の位置を
測定する操作者位置測定手段を有し、前記検出手段は、
前記測定手段にて測定した前記操作者位置に基づいた検
出範囲において、前記指示物体の位置の検出を行うこと
を特徴とする請求項1乃至5の何れか1項に記載の表示
装置。
6. An operator position measuring means for measuring a position of an operator who operates the pointing object, wherein the detecting means comprises:
The display device according to any one of claims 1 to 5, wherein the position of the pointing object is detected in a detection range based on the operator position measured by the measuring unit.
【請求項7】 前記検出手段は、 前記ステレオカメラで複数の指示物体が検出された場合
は、前記表示画面に最も近い指示物体の位置を検出する
ことを特徴とすることを請求項1乃至6の何れか1項に
記載の表示装置。
7. The detection means detects the position of the pointing object closest to the display screen when a plurality of pointing objects are detected by the stereo camera. The display device according to any one of 1.
【請求項8】 前記検出手段は、 前記ステレオカメラで複数の指示物体を検出された場合
は、移動量及び/又は速度量が最大又は最小の指示物体
の位置を検出することを特徴とする請求項1乃至7の何
れか1項に記載の表示装置。
8. The detecting means detects the position of the pointing object having the maximum or minimum movement amount and / or speed amount when a plurality of pointing objects are detected by the stereo camera. Item 8. The display device according to any one of items 1 to 7.
【請求項9】 前記ステレオカメラの検出対象の指示物
体が検出範囲外に位置したときに、前記表示画面上の設
定を切り替える切替手段を有することを特徴とする請求
項1乃至8の何れか1項に記載の表示装置。
9. The method according to claim 1, further comprising a switching unit that switches settings on the display screen when a pointing object to be detected by the stereo camera is located outside a detection range. The display device according to item.
【請求項10】 前記ステレオカメラの検出対象の指示
物体が検出範囲外に位置したときに、前記表示画面上の
ポインタ位置で指示決定する決定手段を有することを特
徴とする請求項1乃至8の何れか1項に記載の表示装
置。
10. The determination means for determining an instruction at the pointer position on the display screen when the pointing object to be detected by the stereo camera is located outside the detection range. The display device according to any one of items.
【請求項11】 2眼以上のカメラで構成されるステレ
オカメラで測定した表示画面に対して指示する指示物体
の位置に基づいて、前記表示画面上に指示されたポイン
トを表示する表示装置において、 複数のステレオカメラを表示画面の周辺に配置し、前記
ステレオカメラのうち所定のステレオカメラを用いて前
記指示物体を操作する操作者の顔を認識する認識手段
と、 前記指示物体との距離が最短のステレオカメラを用いて
指示物体の位置の検出を行う検出手段と、 前記認識段階で認識した前記操作者の認識段階に基づい
て、操作者に関連した情報を出力するよう制御する制御
手段とを有することを特徴とする表示装置。
11. A display device for displaying an instructed point on the display screen based on the position of an instructing object instructing the display screen, which is measured by a stereo camera including two or more cameras. A plurality of stereo cameras are arranged around the display screen, and a recognition unit that recognizes the face of the operator who operates the pointing object using a predetermined stereo camera among the stereo cameras, and the distance between the pointing object and the recognition object is the shortest. A detection means for detecting the position of the pointing object using the stereo camera, and a control means for controlling to output information related to the operator based on the recognition step of the operator recognized in the recognition step. A display device having.
【請求項12】 前記検出手段は、 前記認識手段で認識された操作者に対応した移動検出速
度及び又は検出位置範囲に基づいて、前記指示物体の位
置の検出を行うことを特徴とする請求項11に記載の表
示装置。
12. The detection unit detects the position of the pointing object based on the movement detection speed and / or the detection position range corresponding to the operator recognized by the recognition unit. 11. The display device according to item 11.
【請求項13】 2眼のカメラで構成されるステレオカ
メラで測定した表示画面に対して指示する指示物体の位
置に基づいて、前記表示画面上に指示されたポイントを
表示する表示装置が具備するプログラムにおいて、 複数の1眼カメラを表示画面の周辺に配置し、個々の1
眼カメラと前記指示物体の間の距離を検出する検出処理
と、 前記検出手段で得られた前記指示物体の距離に基づい
て、前記ステレオカメラのペアとなる2台の1眼カメラ
を選択する選択処理とをコンピュータに実行させるため
のプログラム。
13. A display device is provided which displays an instructed point on the display screen based on a position of an instructing object which is instructed to the display screen measured by a stereo camera including a two-lens camera. In the program, multiple single-lens cameras are placed around the display screen, and
A detection process for detecting a distance between an eye camera and the pointing object, and a selection for selecting two single-lens cameras forming a pair of the stereo cameras based on the distance between the pointing object obtained by the detecting means. A program that causes a computer to execute processing.
【請求項14】 2眼以上のカメラで構成されるステレ
オカメラで測定した表示画面に対して指示する指示物体
の位置に基づいて、前記表示画面上に指示されたポイン
トを表示する表示装置が具備するプログラムにおいて、 複数のステレオカメラを表示画面の周辺に配置し、前記
ステレオカメラの夫々から前記指示物体の距離を検出す
る検出処理と、 検出された距離において、前記指示物体からの距離が最
短のステレオカメラを選択する選択処理とをコンピュー
タに実行させるためのプログラム。
14. A display device is provided which displays an instructed point on the display screen based on a position of an instructing object instructing the display screen measured by a stereo camera including two or more cameras. In the program, a plurality of stereo cameras are arranged around the display screen, and a detection process of detecting the distance of the pointing object from each of the stereo cameras, and in the detected distance, the distance from the pointing object is the shortest. A program for causing a computer to execute selection processing for selecting a stereo camera.
【請求項15】 2眼以上のカメラで構成されるステレ
オカメラで測定した表示画面に対して指示する指示物体
の位置に基づいて、前記表示画面上に指示されたポイン
トを表示する表示装置が具備するプログラムにおいて、 複数のステレオカメラを表示画面の周辺に配置し、前記
ステレオカメラのうち所定のステレオカメラを用いて前
記指示物体を操作する操作者の顔を認識する認識処理
と、 前記指示物体との距離が最短のステレオカメラを用いて
指示物体の検出を行う検出処理と、 前記認識段階で認識した前記操作者の認識段階に基づい
て、操作者に関連した情報を出力するよう制御する制御
処理とをコンピュータに実行させるためのプログラム。
15. A display device is provided, which displays an instructed point on the display screen based on a position of an instructing object instructing the display screen measured by a stereo camera including two or more cameras. In the program, a plurality of stereo cameras are arranged around a display screen, and a recognition process of recognizing a face of an operator who operates the pointing object by using a predetermined stereo camera among the stereo cameras; Detection processing for detecting a pointing object using a stereo camera having the shortest distance, and control processing for controlling to output information related to the operator based on the recognition step of the operator recognized in the recognition step. A program for causing a computer to execute and.
JP2002121164A 2002-04-23 2002-04-23 Display device for displaying point instructed on display screen and display program Pending JP2003316510A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002121164A JP2003316510A (en) 2002-04-23 2002-04-23 Display device for displaying point instructed on display screen and display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002121164A JP2003316510A (en) 2002-04-23 2002-04-23 Display device for displaying point instructed on display screen and display program

Publications (1)

Publication Number Publication Date
JP2003316510A true JP2003316510A (en) 2003-11-07

Family

ID=29537187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002121164A Pending JP2003316510A (en) 2002-04-23 2002-04-23 Display device for displaying point instructed on display screen and display program

Country Status (1)

Country Link
JP (1) JP2003316510A (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301693A (en) * 2004-04-12 2005-10-27 Japan Science & Technology Agency Animation editing system
JP2010154405A (en) * 2008-12-26 2010-07-08 Toshiba Corp Video image reproducing device, control signal generating device, and method of generating control signal
KR20100129629A (en) * 2009-06-01 2010-12-09 엘지전자 주식회사 Method for controlling operation of electronic appliance using motion detection and electronic appliance employing the same
JP2012027796A (en) * 2010-07-26 2012-02-09 Canon Inc Information processor and control method of the same
WO2012046432A1 (en) * 2010-10-04 2012-04-12 Sony Corporation Information processing apparatus, information processing system and information processing method
JP2012208619A (en) * 2011-03-29 2012-10-25 Nec Corp Electronic apparatus, notification method and program
JP2013089247A (en) * 2011-10-20 2013-05-13 Lg Innotek Co Ltd Video processing method and device for detecting target
KR101316316B1 (en) * 2011-12-07 2013-10-08 기아자동차주식회사 Apparatus and method for extracting the pupil using streo camera
JP2013222317A (en) * 2012-04-17 2013-10-28 Toshiba Mach Co Ltd Numerical control device
JP2013250637A (en) * 2012-05-30 2013-12-12 Toshiba Corp Recognition device
JP2014053045A (en) * 2008-07-25 2014-03-20 Qualcomm Inc Enhanced detection of waving engagement gesture
JP2014509103A (en) * 2011-01-12 2014-04-10 ミュエシュトロ インターアクティーフェ ゲーエムベーハー Remote control device and interface module for controlling mechanism based on moving object
JP2014180337A (en) * 2013-03-18 2014-09-29 Olympus Medical Systems Corp Medical system
JP2015011106A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Projection device, projection method, and program
JP2015082192A (en) * 2013-10-22 2015-04-27 富士通株式会社 Image processing apparatus, image processing method, and image processing program
JP2015127976A (en) * 2015-03-04 2015-07-09 株式会社東芝 Recognition device
JP2016024720A (en) * 2014-07-23 2016-02-08 Kddi株式会社 Image division device, method, and program
US9377859B2 (en) 2008-07-24 2016-06-28 Qualcomm Incorporated Enhanced detection of circular engagement gesture
JP2017004457A (en) * 2015-06-16 2017-01-05 株式会社ファイン Virtual reality display system, virtual reality display method, and computer program
JP2017512327A (en) * 2014-02-07 2017-05-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Control system and control system operating method
US9715113B2 (en) 2014-03-18 2017-07-25 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
WO2018083737A1 (en) * 2016-11-01 2018-05-11 マクセル株式会社 Display device and remote operation controller
WO2019202670A1 (en) * 2018-04-17 2019-10-24 株式会社ソシオネクスト Gesture recognition method and gesture recognition device
WO2022191542A1 (en) * 2021-03-11 2022-09-15 삼성전자 주식회사 Home training service providing method and display device performing same

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301693A (en) * 2004-04-12 2005-10-27 Japan Science & Technology Agency Animation editing system
US9377859B2 (en) 2008-07-24 2016-06-28 Qualcomm Incorporated Enhanced detection of circular engagement gesture
JP2014053045A (en) * 2008-07-25 2014-03-20 Qualcomm Inc Enhanced detection of waving engagement gesture
JP2010154405A (en) * 2008-12-26 2010-07-08 Toshiba Corp Video image reproducing device, control signal generating device, and method of generating control signal
KR101585466B1 (en) * 2009-06-01 2016-01-15 엘지전자 주식회사 Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same
KR20100129629A (en) * 2009-06-01 2010-12-09 엘지전자 주식회사 Method for controlling operation of electronic appliance using motion detection and electronic appliance employing the same
JP2012027796A (en) * 2010-07-26 2012-02-09 Canon Inc Information processor and control method of the same
US9860484B2 (en) 2010-10-04 2018-01-02 Saturn Licensing Llc Information processing apparatus, information processing system and information processing method
CN103125115A (en) * 2010-10-04 2013-05-29 索尼公司 Information processing apparatus, information processing system and information processing method
US9013535B2 (en) 2010-10-04 2015-04-21 Sony Corporation Information processing apparatus, information processing system and information processing method
WO2012046432A1 (en) * 2010-10-04 2012-04-12 Sony Corporation Information processing apparatus, information processing system and information processing method
US9451237B2 (en) 2011-01-12 2016-09-20 Myestro Interactive Gmbh Remote control device for controlling a mechanism with the aid of a movable object and an interface module based on movement and distance of the movable object with respect to a camera
JP2014509103A (en) * 2011-01-12 2014-04-10 ミュエシュトロ インターアクティーフェ ゲーエムベーハー Remote control device and interface module for controlling mechanism based on moving object
JP2012208619A (en) * 2011-03-29 2012-10-25 Nec Corp Electronic apparatus, notification method and program
JP2013089247A (en) * 2011-10-20 2013-05-13 Lg Innotek Co Ltd Video processing method and device for detecting target
KR101316316B1 (en) * 2011-12-07 2013-10-08 기아자동차주식회사 Apparatus and method for extracting the pupil using streo camera
JP2013222317A (en) * 2012-04-17 2013-10-28 Toshiba Mach Co Ltd Numerical control device
JP2013250637A (en) * 2012-05-30 2013-12-12 Toshiba Corp Recognition device
US9405373B2 (en) 2012-05-30 2016-08-02 Kabushiki Kaisha Toshiba Recognition apparatus
JP2014180337A (en) * 2013-03-18 2014-09-29 Olympus Medical Systems Corp Medical system
JP2015011106A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Projection device, projection method, and program
JP2015082192A (en) * 2013-10-22 2015-04-27 富士通株式会社 Image processing apparatus, image processing method, and image processing program
JP2017512327A (en) * 2014-02-07 2017-05-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Control system and control system operating method
US9715113B2 (en) 2014-03-18 2017-07-25 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
US10297062B2 (en) 2014-03-18 2019-05-21 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
JP2016024720A (en) * 2014-07-23 2016-02-08 Kddi株式会社 Image division device, method, and program
JP2015127976A (en) * 2015-03-04 2015-07-09 株式会社東芝 Recognition device
JP2017004457A (en) * 2015-06-16 2017-01-05 株式会社ファイン Virtual reality display system, virtual reality display method, and computer program
WO2018083737A1 (en) * 2016-11-01 2018-05-11 マクセル株式会社 Display device and remote operation controller
WO2019202670A1 (en) * 2018-04-17 2019-10-24 株式会社ソシオネクスト Gesture recognition method and gesture recognition device
JPWO2019202670A1 (en) * 2018-04-17 2021-04-22 株式会社ソシオネクスト Gesture recognition method and gesture recognition device
US11402920B2 (en) 2018-04-17 2022-08-02 Socionext Inc. Gesture recognition method and gesture recognition device having a plurality of radio wave sensors associated with a gesture occurrence area
JP7136199B2 (en) 2018-04-17 2022-09-13 株式会社ソシオネクスト Gesture recognition method and gesture recognition device
WO2022191542A1 (en) * 2021-03-11 2022-09-15 삼성전자 주식회사 Home training service providing method and display device performing same

Similar Documents

Publication Publication Date Title
JP2003316510A (en) Display device for displaying point instructed on display screen and display program
US11470377B2 (en) Display apparatus and remote operation control apparatus
EP2711807B1 (en) Image display apparatus and method for operating the same
US7940986B2 (en) User interface system based on pointing device
US8885020B2 (en) Video reproduction apparatus and video reproduction method
CN105229582B (en) Gesture detection based on proximity sensor and image sensor
US20170102776A1 (en) Information processing apparatus, method and program
JP5641970B2 (en) Operating device, playback device, and television receiver
KR20110118421A (en) Augmented remote controller, augmented remote controller controlling method and the system for the same
JP4419768B2 (en) Control device for electronic equipment
JP2013115644A (en) Display device and display method
CN112218136B (en) Video processing method, video processing device, computer equipment and storage medium
KR20150146067A (en) Video display device and operating method thereof
EP3070942B1 (en) Method and apparatus for displaying light field video data
KR101134245B1 (en) Electronic device including 3-dimension virtualized remote controller and driving methed thereof
KR101414362B1 (en) Method and apparatus for space bezel interface using image recognition
KR20130042674A (en) Display device and method of controling a camera using the same
KR20170057056A (en) Remote Control Apparatus, Driving Method of Remote Control Apparatus, Image Display Apparatus, Driving Method of Image Display Apparatus, and Computer Readable Recording Medium
US20130127841A1 (en) Three-dimensional (3d) image display method and apparatus for 3d imaging and displaying contents according to start or end of operation
KR100758985B1 (en) Image display apparatus for operating user interface and method thereof
CN106997234B (en) Virtual reality mode processing method, equipment and system
KR20180043139A (en) Display device and operating method thereof
JP2000010696A (en) Device and method for processing image and provision medium
KR101694166B1 (en) Augmented Remote Controller and Method of Operating the Same
KR20120060657A (en) Electronic device and method for dynamically controlling depth in stereo-view or multiview sequence image