JPH0519957A - Information inputting method - Google Patents

Information inputting method

Info

Publication number
JPH0519957A
JPH0519957A JP3174066A JP17406691A JPH0519957A JP H0519957 A JPH0519957 A JP H0519957A JP 3174066 A JP3174066 A JP 3174066A JP 17406691 A JP17406691 A JP 17406691A JP H0519957 A JPH0519957 A JP H0519957A
Authority
JP
Japan
Prior art keywords
information
operation object
instruction
object
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3174066A
Other languages
Japanese (ja)
Inventor
Masaaki Fukumoto
Kenji Mase
Yasuhito Suenaga
康仁 末永
雅朗 福本
健二 間瀬
Original Assignee
Nippon Telegr & Teleph Corp <Ntt>
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegr & Teleph Corp <Ntt>, 日本電信電話株式会社 filed Critical Nippon Telegr & Teleph Corp <Ntt>
Priority to JP3174066A priority Critical patent/JPH0519957A/en
Publication of JPH0519957A publication Critical patent/JPH0519957A/en
Application status is Pending legal-status Critical

Links

Abstract

PURPOSE:To input a large number of information in the case that the information for an indicated object body is inputted to an information processor by the motion of an indicating operation body like the hand and the foot of a man or an indicator. CONSTITUTION:First of all, the coordinate position of the tip point 7 of the hand 6 in a three-dimensional space O-xyz is determined from the tip point 7 and a reference point 8. Next, the specified state or state series of the hand 6 is discriminated, and the information determined beforehand in accordance with the state or the state series is inputted to the information processor 9 as the information for the indicated object body 5, etc.

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【産業上の利用分野】本発明は、人間の手足や指示器のような指示動作物体の動きを直接映像としてとらえ、該指示動作物体の動きによって表現される情報を画像処理によって情報処理装置に指示目標物体等に対する情報として入力する情報入力方法に関する。 The present invention relates to capture the movement of the instruction operation objects, such as human limb or indicator as a direct image, the information represented by the movement of the instruction operation object information processing apparatus by the image processing information inputting method for inputting an information to the indicated target object concerning.

【0002】 [0002]

【従来の技術】現在、情報処理装置(コンピュータ)の入力装置としては、キーボードやマウスなどが一般的に用いられている。 At present, as the input device of the information processing apparatus (computer), such as a keyboard and a mouse are generally used. しかしながら、これらの装置を使用する場合、ある程度の熟練が要求され、万人が即座に使用できるようなものではない。 However, when using these devices, a certain degree of demand skill is not such as can be used million people immediately. 現在、「コンピュータはむずかしい」という人が多いのは、このような劣悪なインタフェースにもその一因があると考えられる。 Currently, people "computer is difficult," there are many, even in such a poor interface is considered to be the cause. 本来ならば、人間同士が会話をするのと同じような自然な方法を用いて、コンピュータとの会話が行なわれるべきである。 Would otherwise, human beings have used a similar natural way that a conversation should conversation with the computer is made. この点、「身振り手振り」を用いたインタフェースは、誰にでも熟練を要することなく簡便に使用でき、 In this regard, the interface using the "gestures" can conveniently be used without requiring a skill anyone,
「誰にでも使えるコンピュータ」の実現に大きく寄与すると考えられる。 It is considered to contribute significantly to the realization of "computer that can be used by anyone". 特願平第3−053565号「情報入力方法」は上記問題を一部解決し、テレビカメラから入力された映像から指先もしくは指示器の位置を検出し、 Japanese Patent Application No. 3-053565, "Information Input Method" solves some of the above problems, detects the position of the fingertip or the indicator from the video input from the television camera,
指示目標物体の特定と命令動作の認識を行なうものである。 And performs identification and recognition of the instruction operation instruction target object.

【0003】 [0003]

【発明が解決しようとする課題】上述した従来の技術には、以下のような欠点がある。 [0007] The problems described above, has the following disadvantages.

【0004】(1)命令情報の入力方法について、「指示動作物体の特定動作を識別し、指示目標物体に対する命令情報を入力する」と書かれており、具体的には親指の開閉動作を用いているが、指示動作物体の特定の動作のみの識別では、与えられる命令情報が限られる。 [0004] (1) method of inputting command information, "identifies a specific operation of the instruction operation object, instruction target inputs instruction information for the object" and is written, using the opening and closing operation of the thumb specifically and that although, in the identification of only a specific operation of the instruction operation object, command information given is limited. また、指示対象物体を常に指示し続けていなければいけないわけではなく、指示動作を含まない命令動作も考えられる。 In addition, not do if not continue to always indicate the instruction target object, may be considered instruction behavior that does not include the indication operation.

【0005】(2)命令情報の入力方法につて、「指示動作物体の特定の動作を識別し、指示目標物体に対する命令情報を入力する」と書かれているが、人間は身振り手振りだけを用いて指示を行なうわけではない。 [0005] (2) connexion Input method instruction information, "identifies the specific operation of the instruction operation object, and inputs instruction information for instructing a target object" have been written, humans using only gestures do not carry out the instructions Te.

【0006】(3)指示動作物体の背景からの切り出しについて、「指示動作物体を背景から切り出し、2値化処理を行なう」としか書かれていない。 [0006] (3) cut out from the background of instructing action object, "cut out from the background of the command operation object, performing a binary process" and not only written. 一般に、照明条件が変化すると2値化処理の際の閾値が変化する。 In general, when the illumination conditions change the threshold during the binarization process changes. また、切り出し性能を一定に保つために特殊な照明を当てると、操作者に不快な思いをさせる。 In addition, when exposed to a special lighting in order to keep the cut-out performance in constant, make an unpleasant thought to the operator.

【0007】本発明の第1の目的は、数多くの情報を情報処理装置に入力することができる、情報の入力方法を提供することである。 A first object of the present invention is to provide a can input a number of information to the information processing apparatus, an input method of information.

【0008】本発明の第2の目的は、より自然な形で情報を情報処理装置に入力することができる、情報の入力方法を提供することである。 A second object of the present invention, it is possible to input information into the information processing apparatus in a more natural way, it is to provide a method for inputting information.

【0009】本発明の第3の目的は、操作者に気づかれることなく、安定した画像処理が可能な、情報の入力方法を提供することである。 A third object of the present invention is not noticed by the operator, capable of stable image processing, it is to provide a method for inputting information.

【0010】 [0010]

【課題を解決するための手段】本発明の第1の、情報の入力方法は、操作者の手足、指示器などの、指示目標物体を指示する指示動作物体に対して異なる視野を持つように配置された複数台の撮像装置から得られる、前記指示動作物体の複数の撮像信号を処理して前記指示動作物体の三次元空間内の座標位置を決定し、これを情報処理装置に入力し、前記指示動作物体と、予め定められた基準点とを結ぶ直線上に存在する前記指示目標物体を決定し、前記指示動作物体の特定の状態またはその状態系列を識別し、該特定の状態または該状態系列に対応して予め決められた情報を、前記指示目標物体等に対する情報として情報処理装置に入力するものである。 The first of the present invention SUMMARY OF THE INVENTION The method of inputting information, the operator of the limb, such as indicator, so as to have a field of view which is different for the indicated operation object for instructing the instruction target object obtained from arranged plurality of imaging devices, said processing the plurality of imaging signal instructing operation object determines the coordinate position in the three dimensional space of said instruction operation object, and inputs the information processing apparatus, said instruction operation object, and determines the instruction target object existing on the straight line connecting the reference point predetermined to identify a particular state or its state series of the instruction operation object, the particular condition or the the predetermined information corresponding to the state sequence, and inputs the information processing apparatus as the information for the instruction target object or the like.

【0011】本発明の第2の情報の入力方法は、操作者の手足、指示器などの、指示目標物体を指示する指示動作物体に対して異なる視野を持つように配置された複数台の撮像装置から得られる、前記指示動作物体の複数の撮像信号を処理して前記指示動作物体の三次元空間内の座標位置を決定し、これを情報処理装置に入力し、前記指示動作物体と、予め定められた基準点とを結ぶ直線上に存在する前記指示目標物体を決定し、前記指示動作物体の特定の動作および状態と、音声認識装置による、前記操作者の音声の前記音声認識結果の任意の組合わせに対応して予め決められた情報を前記指示目標物体等に対する命令情報として情報処理装置に入力するものである。 [0011] Input method of the second information of the present invention, the operator of the limb, such as indicators, arranged to have a field of view which is different for the indicated operation object for instructing the instruction target object a plurality imaging obtained from the apparatus, the processing the plurality of imaging signals instructing operation object determines the coordinate position in the three dimensional space of said instruction operation object, and inputs the information processing apparatus, and the instruction operation object, advance wherein determining the instruction target object existing on the straight line connecting the determined reference point, the specific operation and status of the instruction operation object by the speech recognition apparatus, any of the operator's voice of the speech recognition result in response to the combination is intended to be input to the information processing apparatus a predetermined information as command information for said instruction target object or the like.

【0012】本発明の、第3の情報の入力方法は、指示動作物体を撮像装置により撮像する際、1個または複数個の非可視光照明装置を用いて指示動作物体を照明するとともに、撮像装置に可視光カットフィルタを装着するものである。 [0012] of the present invention, the input method of the third information, when capturing by the imaging device an instruction operation object, as well as illuminate the instruction operation object using one or more non-visible light illumination system, imaging device is intended for mounting a visible light cut filter.

【0013】 [0013]

【作用】第1の情報の入力方法によれば、指示目標物体等に対するより多くの情報を入力することができる。 SUMMARY OF] according to the input method of the first information, it is possible to enter more information to the indicated target object, and the like. 第2の情報の入力方法によれば、操作者の音声を用いるので、より自然な形で情報を入力することができる。 According to an input method of the second information, since use of voice of the operator can input information in a more natural way. 第3 Third
の情報の入力方法によれば、操作者に気づかれることなく安定した画像処理が可能となる。 According to the method of inputting information enables stable image processing without being noticed by the operator.

【0014】 [0014]

【実施例】次に、本発明の実施例について図面を参照して説明する。 EXAMPLES will be described with reference to the accompanying drawings embodiments of the present invention.

【0015】図1は本発明の第1の実施例を示す構成図、図2は指示動作物体である手6の特定の状態の検出アルゴリズムの説明図、図3は指が接近している状態を表わす説明図である。 [0015] Figure 1 is a configuration diagram showing a first embodiment of the present invention, the state 2 is an explanatory view of a detection algorithm for a particular state of the hand 6 is an instruction operation body, FIG. 3 is a finger is approaching is an explanatory view showing the.

【0016】本実施例は、操作者10の手6(指示動作物体)によって、スクリーン4上に投影された指示目標物体5に対する命令を指示し、手6に対して異なる視野を持つように壁面と天井にそれぞれ配置された2台のテレビカメラ1,2(撮像装置)によって得られた2つの撮像信号を情報入力装置3で処理して前記命令を得、これを情報処理装置9に入力するものである。 [0016] This example, by the hand 6 of the operator 10 (instruction operation object), and instructs the instruction to the indicated target object 5 which is projected onto the screen 4, the wall surface to have a field of view that is different with respect to the hand 6 and two imaging signals obtained by two television cameras arranged respectively on a ceiling 1 (imaging apparatus) is treated with the information input device 3 obtains the instruction and inputs it to the information processing apparatus 9 it is intended. なお、三次元空間の座標系は、スクリーン4の右下隅を原点Oとして図1のようにとられている。 The coordinate system of the three-dimensional space is taken as shown in FIG. 1 the lower right corner of the screen 4 as the origin O.

【0017】次に、本実施例の動作を説明する。 Next, the operation of this embodiment will be described.

【0018】まず、2台のテレビカメラ1,2から手6 [0018] First of all, the hand from the two TV cameras 1, 2, 6
の映像を情報入力装置3に入力し、該装置3において処理することによって手6の先端点7の三次元空間O−x Enter the image to the information input device 3, a three-dimensional space O-x of the tip point 7 of the hand 6 by processing in the apparatus 3
yzにおける座標位置を決定する。 Determining a coordinate position in the yz. 次に、先端点7と基準点8から指示目標物体5を前記特願平3−05356 Next, the instruction target object 5 from the tip point 7 and the reference point 8 Hei 3-05356
5号明細書に記載の方法を用いて決定する。 It determined using the method described in 5 Pat. 次に、手6 Then, hand 6
の特定の状態または状態系列を識別し、該状態または該状態系列に対応して予め決められた情報を指示目標物体5等に対する命令情報として情報処理装置9に入力する。 Of identifying a particular condition or state series, it is input to the information processing apparatus 9 a predetermined information corresponding to the condition or the condition series as command information for instructing a target object 5, and the like. これについて図2により詳細に説明する。 This will be described in more detail in FIG.

【0019】本実施例では手6の状態のうち、開いた指の本数を識別し、これを命令情報として用いている。 [0019] Among the states of the hand 6 in this embodiment, to identify the number of open finger, is used as the command information. 指の開閉状態はテレビカメラ1,2によって撮影され、情報入力装置3によって識別が行なわれる。 Closing state of the finger is photographed by the television camera 1 and 2, it is identified by the information input device 3 is performed. 識別アルゴリズムを図2により説明する。 The identification algorithm will be described with reference to FIG.

【0020】(1)手6を背景から切り出し、2値化処理を行なう。 [0020]: (1) hand 6 cut out from the background, performing a binary process.

【0021】(2)特願平3−053565号に記載された方法を用いて先端点7を認識する。 [0021] (2) recognizes the tip point 7 by using the method described in Japanese Patent Application No. 3-053565.

【0022】(3)先端点7と手首の位置19から、探索中心20、探索半径21を決定する。 [0022] (3) from the tip point 7 and wrist position 19, the search center 20 determines the search radius 21.

【0023】(4)円弧状の探索経路22にしたがって探索を行ない、経路22中に存在する手6の領域24a [0023] (4) performs the search according arcuate searched route 22, the region 24a of the hand 6 which is present in the path 22
〜24e中の連続部分の個数をカウントし、かつ各連続部分の長さを求める。 Counting the number of consecutive parts in ~24E, and determine the length of each continuous portion.

【0024】(5)指の特徴量である各指の太さ23a [0024] (5) of each finger, which is a feature quantity of a finger thickness 23a
〜23dと各連続部分の個数および長さから、開いている指の本数のカウントを行なう。 ~23d and the number and length of each continuous portion, counts the number of open fingers.

【0025】適切な探索中心および探索半径を選ぶことによって、探索経路を簡単な円弧状にすることが可能である。 [0025] By selecting the appropriate search center and the search radius, it is possible to search routes simple arc shape. また、指の太さの情報を用いることによって、図3のような、各指が離れず、くっついた場合でも安定したカウントができる。 Further, by using the information of the thickness of a finger, as shown in FIG. 3, each finger is not separated, it is stable even if no stuck. なお、指の太さの情報を用いることによって、抽出された連続部分からノイズ等による影響を取り除くことができる。 Incidentally, by using the information of the thickness of a finger, it is possible to remove the influence of noise or the like from the extracted successive portions.

【0026】本実施例では、指示動作物体として人間の手6を用いているが、これは足や口などの他の身体の部分や、棒などの指示器を用いてもよい。 [0026] In this embodiment uses the human hand 6 as indicated operation object, this and part of the other body, such as feet and mouth, may be used indicators such as straight. さらに、本実施例では2台のテレビカメラ1,2を壁面と天井に配置しているが、テレビカメラはステレオ画像をえることができるような位置に複数台配置されていればよい。 Furthermore, in the present embodiment are disposed two television cameras 1 and 2 to the wall and the ceiling, the television camera may be arranged plurality in a position such that it is possible to obtain a stereo image. なお、 It should be noted that,
指の太さ等の情報は情報処理装置9から情報入力装置3 Information of thickness or the like of the finger information input device 3 from the information processing apparatus 9
に入力される。 It is input to. また、情報処理装置9に入力される情報は命令情報に限らない。 Moreover, information input to the information processing apparatus 9 is not limited to the instruction information. 指示目標物体5以外の命令情報も同時に入力してよい。 Command information other than the instruction target object 5 may also be entered at the same time.

【0027】図4は本発明の第2の実施例を示す構成図である。 [0027] FIG. 4 is a block diagram showing a second embodiment of the present invention.

【0028】本実施例は、手6の特定の動作、状態と操作者10の「あれ」、「これ」といった音声情報を併用して指示目標物体5に対する命令情報を入力するものである。 [0028] This example specific operation of the hand 6, "that" state and the operator 10, and inputs instruction information for instructing the target object 5 in a combination of audio information such as "this".

【0029】操作者10の音声はマイク11を通じて、 [0029] through the voice microphone 11 of the operator 10,
音声認識装置12に取込まれ、解釈されて情報入力装置3に導かれる。 Incorporated in the speech recognition device 12 is guided to be construed to the information input device 3. 情報入力装置3は、操作者10の指示動作、親指の開閉などの特定の動作、指の本数などの特定の状態と操作者10の音声情報を任意に組み合わせて各種操作を行なう。 Information input device 3, an instruction operation of the operator 10, certain operations such as opening and closing the thumb, any combination of voice information for a particular state and the operator 10, such as the number of fingers performing various operations. ここで、上記各種情報の組み合わせ方には、例えば以下のようなものが考えられる。 Here, the combination beside the various information can be considered for example, as follows.

【0030】 ・人差し指で指示し、親指で選択 ・人差し指で指示し、「あれ」、「これ」といった音声で選択 ・音声をトリガとし、指の本数で選択 ・「一番」、「開く」など音声のみで選択 なお、音声出力装置13、スピーカー14を組み合わせることによって、合成音声や各種信号音によりガイダンスを操作者10に対して行なうことができ、より自然な操作が可能である。 [0030] instructed by-index finger, and indicated in the selection and index finger with the thumb, "that", and trigger the selection and voice in the voice, such as "this", select and "best" in the number of fingers, "open", etc. selected only by voice Incidentally, the audio output device 13, by combining the speakers 14, can perform the guidance for the operator 10 by the synthesized speech and various tones can be more natural operation.

【0031】図5は本発明の第3の実施例を示す構成図である。 [0031] FIG. 5 is a block diagram showing a third embodiment of the present invention.

【0032】本実施例では、第1の実施例において、手6を照明する赤外線照明装置15が設けられ、赤外線照明装置15、テレビカメラ1,2には可視光カットフィルタ16,17,18がそれぞれ装着されている。 [0032] In this embodiment, in the first embodiment, infrared illumination device 15 is provided for illuminating the hand 6, the infrared illumination device 15, the visible light cut filter 16, 17 and 18 in the television camera 1 and 2 They are respectively mounted.

【0033】通常、画像処理を行なう場合、安定した処理のために、補助照明を用いることが多い。 [0033] Normally, when an image processing, for stable processing, is often used an auxiliary lighting. しかしながら、補助照明は操作者にとって不自然な感じを与え、操作の不快感に繋る。 However, auxiliary lighting gives an unnatural feeling for the operator, according to the discomfort of the operation. ここで、人間の可視領域の外側の波長の光を用いて照明を行なえば、操作者に照明光を意識させることなく、安定した画像処理が可能となる。 Here, by performing illumination with light of a wavelength outside the human visible range, without being conscious of the illumination light to the operator, thereby enabling stable image processing. 本例では、照明光として赤外線LEDアレイを用いている。 In this example, using an infrared LED array as the illumination light.
これは、目的の波長の赤外光を容易に得られ、しかも、 This is easily obtained infrared light having a wavelength of interest, moreover,
消費電力が少ないという利点を持っている。 It has the advantage of low power consumption. LEDの全面に可視光カットフィルタ16を用いて、赤外領域の光のみを通している。 With a visible light cut filter 16 to the LED of the entire surface, and through only light in the infrared region. したがって、操作者10に照明光の存在を知られることはない。 Therefore, it will not be aware of the existence of the illumination light to the operator 10. また、テレビカメラ1,2 In addition, the TV cameras 1 and 2
の先端にも同様のフィルタ17,18を装着することにより、蛍光灯などの通常照明による影響をなくし、赤外線照明のみによる安定した処理が可能となる。 By also the tip mounting a similar filter 17 eliminates the effect of normal illumination such as a fluorescent lamp, thereby enabling stable processing by only infrared illumination.

【0034】なお、赤外線照明装置を設け、可視光カットフィルタをテレビカメラに装着することは第2の実施例および従来の情報の入力方法にも適用できる。 [0034] Note that a infrared illumination device, mounting the visible light cut filter in the television camera can also be applied to an input method of the second embodiment and the conventional information.

【0035】 [0035]

【発明の効果】以上説明したように本発明は、次のような効果がある。 The present invention described above, according to the present invention has the following effects.

【0036】(1)請求項1の発明は、指示動作物体の特定の状態またはその状態系列を識別して、指示目標物体に対する情報を入力することにより、より多くの情報を入力することができる。 [0036] (1) The invention of claim 1, identifying the particular condition or state series instruction operation object, by inputting the information for the indicated target object, it is possible to enter more information .

【0037】(2)請求項2の発明は、指示動作物体の特定の動作および状態と操作者の音声情報を組み合わせて情報を入力することにより、指示目標物体に対しての動作をより自然な形で行なうことができる。 [0037] (2) according to claim 2 invention, by inputting the information in conjunction with specific operating and status indication operation object audio information of the operator, more natural operation of for the indicated target object it can be carried out in the form.

【0038】(3)請求項3,4の発明は、非可視光照明装置を用いて指示動作物体を照明するとともに、撮像装置に可視光カットフィルタを装着することにより、操作者に気づかれることなく安定した画像処理が可能となる。 [0038] (3) The invention of claim 3 and 4, as well as illuminating the indication operation object using non-visible light illumination device, by attaching the visible light cut filter in the image pickup device, be noticed by the operator stable image processing can be performed without.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】本発明の第1の実施例を示す構成図である。 1 is a configuration diagram showing a first embodiment of the present invention.

【図2】指示動作物体である手6の特定の状態の検出アルゴリズムの説明図である。 FIG. 2 is an explanatory view of the detection algorithm of a specific state of the hand 6 which is an instruction operation object.

【図3】指が互いに接近している状態を表わす説明図である。 3 is an explanatory view illustrating the state where the finger is close to each other.

【図4】本発明の第2の実施例を示す構成図である。 4 is a block diagram showing a second embodiment of the present invention.

【図5】本発明の第3の実施例を示す構成図である。 5 is a block diagram showing a third embodiment of the present invention.

【符号の説明】 DESCRIPTION OF SYMBOLS

1,2 テレビカメラ 3 情報入力装置 4 スクリーン 5 指示目標物体 6 手 7 先端点 8 基準点 9 情報処理装置 10 操作者 11 マイク 12 音声認識装置 13 音声出力装置 14 スピーカー 15 照明装置 16 可視光カットフィルタ(照明装置15側) 17 可視光カットフィルタ(テレビカメラ1側) 18 可視光カットフィルタ(テレビカメラ2側) 19 手首の位置 20 探索中心 21 探索半径 22 探索経路 23a〜23e 各指の太さ 24a〜24e 探索経路22中の各指の領域 1,2 television camera 3 information input apparatus 4 screen 5 an instruction target object 6 hand 7 tip point 8 reference point 9 the information processing apparatus 10 the operator 11 microphone 12 the voice recognition device 13 the audio output device 14 speaker 15 illumination device 16 visible light cut filter (illumination device 15 side) 17 visible light cut filter (television camera 1 side) 18 visible light cut filter (television camera 2 side) 19 wrist position 20 search center 21 search radius 22 searched route 23a~23e of each finger thickness 24a area of ​​each finger in ~24e searched route 22

Claims (1)

  1. 【特許請求の範囲】 【請求項1】 操作者の手足、指示器などの、指示目標物体を指示する指示動作物体に対して異なる視野を持つように配置された複数台の撮像装置から得られる、前記指示動作物体の複数の撮像信号を処理して前記指示動作物体の三次元空間内の座標位置を決定し、これを情報処理装置に入力し、 前記指示動作物体と、予め定められた基準点とを結ぶ直線上に存在する前記指示目標物体を決定し、 前記指示動作物体の特定の状態またはその状態系列を識別し、該特定の状態または該状態系列に対応して予め決められた情報を、前記指示目標物体等に対する情報として情報処理装置に入力する、情報の入力方法。 Claims 1. A operator limbs, such indicators obtained from a plurality of imaging devices arranged to have a different view for the indicated operation object for instructing the instruction target object processes the plurality of imaging signals of the instruction operation object determines the coordinate position in the three dimensional space of said instruction operation object, which was input to the information processing apparatus, and the instruction operation object, a predetermined reference information determining the instruction target object existing on a straight line connecting the point to identify the particular condition or state series of the instruction operation object, predetermined in correspondence with the particular condition or the state sequence and is input to the information processing apparatus as the information for the instruction target object such as an input method of information. 【請求項2】 操作者の手足、指示器などの、指示目標物体を指示する指示動作物体に対して異なる視野を持つように配置された複数台の撮像装置から得られる、前記指示動作物体の複数の撮像信号を処理して前記指示動作物体の三次元空間内の座標位置を決定し、これを情報処理装置に入力し、 前記指示動作物体と、予め定められた基準点とを結ぶ直線上に存在する前記指示目標物体を決定し、 前記指示動作物体の特定の動作および状態と、音声認識装置による前記操作者の音声の音声認識結果の任意の組合わせに対応して予め決められた情報を前記指示目標物体等に対する情報として情報処理装置に入力する、情報の入力方法。 Wherein the operator's limb, such indicators obtained from a plurality of imaging devices arranged to have a different view for the indicated operation object for instructing the instruction target object, the instruction operation object processing the plurality of image pickup signals to determine the coordinate position of the three-dimensional space of the instruction operation object, which was input to the information processing apparatus, on a straight line connecting said instruction operation object, and a reference point to a predetermined the instruction target object determined, the a specific operating and state of the instruction operation object information determined in advance corresponding to any combination of the operator's speech of the speech recognition result by the speech recognition apparatus present the input to the information processing apparatus as the information for the instruction target object such as an input method of information. 【請求項3】 操作者の手足、指示器などの、指示目標物体を指示する指示動作物体に対して異なる視野を持つように配置された複数台の撮像装置から得られる、前記指示動作物体の複数の撮像信号を処理して前記指示動作物体の三次元空間内の座標位置を決定し、これを情報処理装置に入力し、 前記指示動作物体と、予め定められた基準点とを結ぶ直線上に存在する前記指示目標物体を決定する、情報の入力方法において、 前記指示動作物体を前記撮像装置により撮像する際、1 Wherein the operator's limb, such indicators obtained from a plurality of imaging devices arranged to have a different view for the indicated operation object for instructing the instruction target object, the instruction operation object processing the plurality of image pickup signals to determine the coordinate position of the three-dimensional space of the instruction operation object, which was input to the information processing apparatus, on a straight line connecting said instruction operation object, and a reference point to a predetermined determining the instruction target object present, in the input method of information, when imaged by the imaging device the instruction operation object, 1
    個または複数個の非可視光照明装置を用いて前記指示動作物体を照明するとともに、前記撮像装置に可視光カットフィルタを装着することを特徴とする、情報の入力方法。 While illuminating the indication operation object using pieces or more non-visible light illumination device, and wherein the attaching the visible light cut filter in the image pickup apparatus, an input method of information. 【請求項4】 前記指示動作物体を前記撮像装置により撮像する際、1個または複数個の非可視光照明装置を用いて前記指示動作物体を照明するとともに、前記撮像装置に可視光カットフィルタを装着する請求項1または2 Wherein when imaging the instruction operation object by the image pickup device, thereby illuminating the indication operation object using one or more non-visible light illumination device, a visible light cut filter on the imaging device claim mounting 1 or 2
    に記載の情報の入力方法。 Input method of information described in.
JP3174066A 1991-07-15 1991-07-15 Information inputting method Pending JPH0519957A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3174066A JPH0519957A (en) 1991-07-15 1991-07-15 Information inputting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3174066A JPH0519957A (en) 1991-07-15 1991-07-15 Information inputting method

Publications (1)

Publication Number Publication Date
JPH0519957A true JPH0519957A (en) 1993-01-29

Family

ID=15972034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3174066A Pending JPH0519957A (en) 1991-07-15 1991-07-15 Information inputting method

Country Status (1)

Country Link
JP (1) JPH0519957A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6385331B2 (en) 1997-03-21 2002-05-07 Takenaka Corporation Hand pointing device
US6434255B1 (en) 1997-10-29 2002-08-13 Takenaka Corporation Hand pointing apparatus
JP2007323660A (en) * 2007-06-25 2007-12-13 Sony Corp Drawing device and drawing method
US7367887B2 (en) 2000-02-18 2008-05-06 Namco Bandai Games Inc. Game apparatus, storage medium, and computer program that adjust level of game difficulty
JP2009134677A (en) * 2007-02-28 2009-06-18 Fuji Xerox Co Ltd Gesture interface system, wand for gesture input, application control method, camera calibration method, and control program
JP2009240370A (en) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International Motion detector
US7893920B2 (en) 2004-05-06 2011-02-22 Alpine Electronics, Inc. Operation input device and method of operation input
JP2011507129A (en) * 2007-12-17 2011-03-03 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー Dynamic three-dimensional object mapping for user-defined control device
WO2012144145A1 (en) * 2011-04-22 2012-10-26 パナソニック株式会社 Pointing control device, integrated circuit thereof, and pointing control method
US8451215B2 (en) 2007-01-12 2013-05-28 Capsom Co., Ltd. Display control device, program for implementing the display control device, and recording medium containing the program
KR20140024421A (en) * 2011-06-06 2014-02-28 마이크로소프트 코포레이션 System for finger recognition and tracking
JP2014524071A (en) * 2011-06-06 2014-09-18 マイクロソフト コーポレーション Hand or a closed hand to recognize system open
JP2015038777A (en) * 2014-11-12 2015-02-26 セイコーエプソン株式会社 Position detecting system, display system, and information processing system
JP2015230496A (en) * 2014-06-03 2015-12-21 シャープ株式会社 Electronic equipment

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6385331B2 (en) 1997-03-21 2002-05-07 Takenaka Corporation Hand pointing device
US6434255B1 (en) 1997-10-29 2002-08-13 Takenaka Corporation Hand pointing apparatus
US7367887B2 (en) 2000-02-18 2008-05-06 Namco Bandai Games Inc. Game apparatus, storage medium, and computer program that adjust level of game difficulty
US7893920B2 (en) 2004-05-06 2011-02-22 Alpine Electronics, Inc. Operation input device and method of operation input
US8451215B2 (en) 2007-01-12 2013-05-28 Capsom Co., Ltd. Display control device, program for implementing the display control device, and recording medium containing the program
JP5355097B2 (en) * 2007-01-12 2013-11-27 株式会社カプコン Display control apparatus, a control method, program, and computer-readable recording medium with this program
JP2009134677A (en) * 2007-02-28 2009-06-18 Fuji Xerox Co Ltd Gesture interface system, wand for gesture input, application control method, camera calibration method, and control program
JP2007323660A (en) * 2007-06-25 2007-12-13 Sony Corp Drawing device and drawing method
JP4513830B2 (en) * 2007-06-25 2010-07-28 ソニー株式会社 Drawing device, and drawing method
JP2011507129A (en) * 2007-12-17 2011-03-03 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー Dynamic three-dimensional object mapping for user-defined control device
JP2009240370A (en) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International Motion detector
US9081430B2 (en) 2011-04-22 2015-07-14 Panasonic Intellectual Property Corporation Of America Pointing control device, integrated circuit thereof and pointing control method
WO2012144145A1 (en) * 2011-04-22 2012-10-26 パナソニック株式会社 Pointing control device, integrated circuit thereof, and pointing control method
JP5798183B2 (en) * 2011-04-22 2015-10-21 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Pointing control device and its integrated circuit, and a pointing control method
CN102959491A (en) * 2011-04-22 2013-03-06 松下电器产业株式会社 Pointing control device, integrated circuit thereof, and pointing control method
JP2014524070A (en) * 2011-06-06 2014-09-18 マイクロソフト コーポレーション Finger recognition and tracking system
JP2014524071A (en) * 2011-06-06 2014-09-18 マイクロソフト コーポレーション Hand or a closed hand to recognize system open
KR20140024421A (en) * 2011-06-06 2014-02-28 마이크로소프트 코포레이션 System for finger recognition and tracking
JP2015230496A (en) * 2014-06-03 2015-12-21 シャープ株式会社 Electronic equipment
JP2015038777A (en) * 2014-11-12 2015-02-26 セイコーエプソン株式会社 Position detecting system, display system, and information processing system

Similar Documents

Publication Publication Date Title
US6441825B1 (en) Video token tracking system for animation
CN101419498B (en) Operation input device
US7454329B2 (en) Method and apparatus for classifying signals, method and apparatus for generating descriptors and method and apparatus for retrieving signals
Kubovy et al. Auditory and visual objects
JP3794180B2 (en) Coordinate input system and a coordinate input device
JP3795647B2 (en) Hand pointing device
US8823642B2 (en) Methods and systems for controlling devices using gestures and related 3D sensor
EP0947948B1 (en) Pointing position detection device, presentation system and method
KR100307730B1 (en) Speech recognition aided by lateral profile image
US8446288B2 (en) Light projection device
KR101660215B1 (en) Presence sensing
JP3562970B2 (en) Biometric identification device
CN105102081B (en) A control device having a passive reflector
US8593417B2 (en) Operation apparatus for in-vehicle electronic device and method for controlling the same
JP4523155B2 (en) Using video in providing input data for the computer system
US5594469A (en) Hand gesture machine control system
KR100588042B1 (en) Interactive presentation system
JP3195920B2 (en) Sound source identification and separation apparatus and method thereof
US8467568B2 (en) Methods, systems, and products for gesture-activation
US20040019255A1 (en) Measuring endoscope system
US6373961B1 (en) Eye controllable screen pointer
KR101581883B1 (en) Voice detection apparatus using the motion information and the way
US6353428B1 (en) Method and device for detecting an object in an area radiated by waves in the invisible spectral range
JP3688879B2 (en) Image recognition device, an image recognition method and a recording medium
JP6012877B2 (en) Speech control system and method for multimedia devices, and computer storage medium