JP2009251702A - Information processing unit, information processing method, and information processing program - Google Patents
Information processing unit, information processing method, and information processing program Download PDFInfo
- Publication number
- JP2009251702A JP2009251702A JP2008095605A JP2008095605A JP2009251702A JP 2009251702 A JP2009251702 A JP 2009251702A JP 2008095605 A JP2008095605 A JP 2008095605A JP 2008095605 A JP2008095605 A JP 2008095605A JP 2009251702 A JP2009251702 A JP 2009251702A
- Authority
- JP
- Japan
- Prior art keywords
- information
- photographing
- imaging
- dimensional coordinate
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 34
- 238000003672 processing method Methods 0.000 title abstract description 5
- 238000003384 imaging method Methods 0.000 claims description 50
- 238000001514 detection method Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 10
- 238000000034 method Methods 0.000 description 12
- 239000004973 liquid crystal related substance Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法及び情報処理プログラムに係り、特に、撮影情報に基づき種々の制御指令を出力する情報処理装置等に関する。 The present invention relates to an information processing apparatus, an information processing method, and an information processing program, and more particularly, to an information processing apparatus that outputs various control commands based on shooting information.
従来より、パーソナルコンピュータ(以下、PCという。)等においては、入力装置としてキーボードやマウスが用いられている。ユーザーがPCを使用する際に、文字入力や制御指令の入力、画像や映像の操作等をキーボードやマウスを用いて行っている。 Conventionally, in a personal computer (hereinafter referred to as a PC) or the like, a keyboard or a mouse is used as an input device. When a user uses a PC, character input, control command input, image and video operations, and the like are performed using a keyboard and a mouse.
具体的には、PCから出力された映像は、液晶やCRT等のモニター(映像表示装置)に表示される。そのモニター上にはマウスの動作に対応するマウスポインタも表示され、ユーザーがマウスを操作するとその動作に対応してモニター上でのマウスポインタも動作するようになっている。また、ワープロソフトやメールソフト等を起動すると、文字入力画面がモニター上に表示され、ユーザーがキーボードを用いて所定の文字入力操作を行うと、その入力操作に対応する文字がモニター上の文字入力画面に表示されるようになっている。 Specifically, the video output from the PC is displayed on a monitor (video display device) such as a liquid crystal or a CRT. A mouse pointer corresponding to the operation of the mouse is also displayed on the monitor, and when the user operates the mouse, the mouse pointer on the monitor also operates corresponding to the operation. In addition, when word processing software or mail software is started, a character input screen is displayed on the monitor. When the user performs a predetermined character input operation using the keyboard, the character corresponding to the input operation is input on the monitor. It is displayed on the screen.
このような、キーボードやマウスを用いた入力操作は、多数のキーに多くの操作や制御指令を対応させることができるので、多彩な指令入力等を可能としている。その一方で、その入力操作をスムーズに行うためには、キー配列を覚える必要があったりマウスによるクリック操作やドラッグ操作を習得する必要があるので、ある程度の習熟が必要とされる。また操作自体が直感的でなく面白みに欠けるという部分もある。 Such an input operation using a keyboard and a mouse can correspond to a large number of keys and a large number of operations and control commands, thereby enabling various command inputs and the like. On the other hand, in order to smoothly perform the input operation, it is necessary to learn the key arrangement and to acquire the click operation and the drag operation using the mouse. In addition, the operation itself is not intuitive and lacks interest.
ユーザーによる入力操作を、より直感的に実現し、入力操作を容易とする提案として、例えば特許文献1に開示のものがある。これによれば、入力装置としてペンとタブレットとを用いることにより、キーボード操作やマウス操作よりも直感的でわかり易い入力操作が実現されている。また、ユーザーの動作そのものをセンサーやカメラ等を用いて検出し、直感的な入力操作を可能とした提案もされている(特許文献2,3を参照。)。 For example, Japanese Patent Application Laid-Open No. H10-228707 discloses a proposal for realizing a user's input operation more intuitively and facilitating the input operation. According to this, by using a pen and a tablet as an input device, an input operation that is more intuitive and easier to understand than a keyboard operation or a mouse operation is realized. There has also been a proposal that enables an intuitive input operation by detecting a user's operation itself using a sensor or a camera (see Patent Documents 2 and 3).
しかしながら、上記特許文献1に開示のものによれば、ペンやタブレットという入力装置を用いる必要があり、多少直感的になったとはいえユーザーがそれらの操作にある程度習熟する必要がある点においては、キーボードやマウスによる入力操作と大差はない。また、センサーによりユーザーの操作を検出するためには、ユーザーの身体の一部(例えば、腕や指。)にセンサーを取り付ける必要があり、準備が煩雑であったりユーザーが自由に動き回ることができない等制約が多い。 However, according to the one disclosed in the above-mentioned Patent Document 1, it is necessary to use an input device such as a pen or a tablet, and although it is somewhat intuitive, the user needs to become familiar with the operation to some extent. There is no big difference from input operation with a keyboard or mouse. Moreover, in order to detect a user's operation with a sensor, it is necessary to attach a sensor to a part of the user's body (for example, an arm or a finger), and preparation is complicated or the user cannot move around freely. There are many equal restrictions.
特許文献3においては、カメラを用いてユーザーのジェスチャーを撮影し、その動作に基づいて制御を行っているが、飽くまで2次元的な動作把握に留まり、入力指令のバリエーションに乏しい。多くの指令入力に対応させるには、2次元的に選別可能な多くのジェスチャーを準備する必要があり、ときには不自然な動作を必要とする等、ユーザーの直感的な入力操作とはいえない場合が生じる。
In
そのため、ユーザーの直感的な操作、すなわち自然な動作に基づきバリエーションに富む制御指令の入力が可能であり、マウス等の入力装置の使用法に習熟する必要なく、子供や身体の不自由な者にも簡単に入力操作を行うことができる入力装置が従来より求められていた。 Therefore, it is possible to input a variety of control commands based on the user's intuitive operation, that is, natural movements, and it is not necessary to become familiar with how to use an input device such as a mouse. However, there has been a need for an input device that can easily perform an input operation.
本発明は、上記の事情に鑑みて為されたもので、ユーザーが入力装置を操作したり、ユーザーにセンサーを装着したりする必要がなく、直感的なユーザーの動作によって簡単に各種制御を実現することのできる情報処理装置、情報処理方法及び情報処理プログラムを提供することを例示的課題とする。 The present invention has been made in view of the above circumstances, and it is not necessary for the user to operate the input device or to attach a sensor to the user, and various controls are easily realized by intuitive user operations. It is an exemplary problem to provide an information processing apparatus, an information processing method, and an information processing program that can be performed.
上記の課題を解決するために、本発明の例示的側面としての情報処理装置は、所定の撮影領域を撮影して撮影情報を出力する撮影手段と、撮影領域内における被検知体の3次元座標情報を、撮影手段からの撮影情報に基づき取得すると共に、3次元座標情報に基づいて制御指令を出力する制御手段とを有することを特徴とする。 In order to solve the above problems, an information processing apparatus as an exemplary aspect of the present invention includes an imaging unit that images a predetermined imaging area and outputs imaging information, and three-dimensional coordinates of a detection target in the imaging area. The information processing apparatus is characterized by having control means for acquiring information based on photographing information from the photographing means and outputting a control command based on three-dimensional coordinate information.
被検知体(例えば、ユーザーの手。)の3次元座標情報に基づいて制御指令を出力するので、被検知体の2次元的な位置に基づく制御を行う場合に比べ、多彩な制御を実現することができる。また、被検知体の3次元的な位置に基づく制御が可能であるので、ユーザーが別途の入力装置を操作する必要なく、また、ユーザーがセンサー等の別途の検知手段を装着する必要なく、入力操作を行うことができる。ここで、ユーザーによる入力操作の結果として、制御手段への操作情報の入力が行われ、制御手段による制御指令の出力が行われるので、本願では「入力操作」と「操作情報の入力」と「制御指令の出力」とを略同義で用いることがある。 Since the control command is output based on the three-dimensional coordinate information of the detected object (for example, the user's hand), a variety of controls are realized as compared with the case where the control is performed based on the two-dimensional position of the detected object. be able to. In addition, since control based on the three-dimensional position of the object to be detected is possible, there is no need for the user to operate a separate input device, and the user does not need to install a separate detection means such as a sensor. The operation can be performed. Here, as a result of the input operation by the user, the operation information is input to the control unit, and the control command is output by the control unit. Therefore, in the present application, “input operation”, “input operation information”, and “ “Output of control command” may be used almost synonymously.
例えば、被写界深度の情報を利用することにより、被検知体の3次元座標情報を1つの撮影手段によって取得することが可能である。すなわち、撮影手段による撮影像から被検知体のXY座標情報を取得し、被検知体のピント位置情報を用いてZ座標情報を取得することができる。 For example, by using the information on the depth of field, it is possible to acquire the three-dimensional coordinate information of the object to be detected by one photographing unit. That is, the XY coordinate information of the detected object can be acquired from the image captured by the imaging unit, and the Z coordinate information can be acquired using the focus position information of the detected object.
撮影手段としては、CCDやCMOS等の撮像素子を用いたビデオカメラ等を含んで概念される。可視光像を撮影可能なものに限らず、赤外線像、超音波像、電波を用いた映像等の物体の輪郭形状を把握可能なあらゆる撮影手段が含まれる。また、撮影手段と制御手段との情報入出力には、例えばUSB(Universal Serial Bus)を用いたもの、RGBコンポジット入出力、パラレルバス入出力、シリアルバス入出力、IEEE1394(いわゆるFire Wire。)入出力、無線(赤外線ワイヤレス、Bloetooth等)入出力等のあらゆる入出力形態を適用することができる。 The imaging means is conceptually including a video camera using an image sensor such as a CCD or CMOS. Not only a visible light image can be captured, but also any imaging means that can grasp the contour shape of an object, such as an infrared image, an ultrasonic image, and an image using radio waves. For information input / output between the photographing means and the control means, for example, those using USB (Universal Serial Bus), RGB composite input / output, parallel bus input / output, serial bus input / output, IEEE1394 (so-called Fire Wire) input. Any input / output mode such as output, wireless (infrared wireless, Bluetooth, etc.) input / output can be applied.
その撮影手段が、1の領域を撮影する第1の撮影手段と、第1の領域と少なくとも部分的に重複する第2の領域を第1の撮影手段とは異なる方向から撮影する第2の撮影手段と、を有して構成され、制御手段が、第1の領域と第2の領域とが重複する重複領域内における被検知体の3次元座標情報を、第1の撮影手段からの撮影情報と第2の撮影手段からの撮影情報とに基づき取得すると共に、3次元座標情報に基づいて制御指令を出力してもよい。 The imaging unit captures a first imaging unit that captures one region, and a second imaging that captures a second region at least partially overlapping the first region from a different direction from the first imaging unit. And the control means is configured to obtain the three-dimensional coordinate information of the detected object in the overlapping area where the first area and the second area overlap, and the imaging information from the first imaging means. And the imaging information from the second imaging means, and a control command may be output based on the three-dimensional coordinate information.
複数の撮影手段によって互いに異なる方向から重複領域を撮影するので、その重複領域における被検知体(例えば、ユーザーの手。)の位置(座標情報)を容易に3次元的に把握することができる。 Since the overlapping area is imaged from different directions by a plurality of imaging means, the position (coordinate information) of the detected object (for example, the user's hand) in the overlapping area can be easily grasped three-dimensionally.
被検知体の位置を複数の撮影手段により把握して、その位置に応じた制御を行うので、ユーザーが別途の入力装置を操作する必要なく、また、ユーザーがセンサー等の別途の検知手段を装着する必要なく、入力操作を行うことができる。 Since the position of the object to be detected is grasped by a plurality of photographing means and control according to the position is performed, the user does not need to operate a separate input device, and the user attaches a separate detection means such as a sensor. The input operation can be performed without having to.
制御手段が、重複領域内における物体の移動情報又は輪郭情報のうち少なくともいずれか一方に基づき、物体を被検知体であると判断してもよい。 The control means may determine that the object is a detected object based on at least one of the movement information and the contour information of the object in the overlapping region.
背景に対して比較的動きが大きい、あるいは輪郭の際立った物体を被検知体であると判断するので、被検知体の誤認識を低減することができる。例えば、仮想領域内に内包されるように他の物体(例えば、机や椅子等。)が存在しても、それらが静止している場合には被検知体と誤認識しないようにすることができる。また、同様の色合いの背景中に色合いが異なり際立った輪郭を有する物体(例えば、黒い背景の中にある人の手。)を被検知体と認識することができる。 Since it is determined that an object having a relatively large movement with respect to the background or whose outline is conspicuous is the detected object, erroneous recognition of the detected object can be reduced. For example, even if other objects (for example, desks and chairs) exist so as to be included in the virtual area, they may not be mistakenly detected as a detected object when they are stationary. it can. In addition, an object having a distinct outline in a background with a similar hue (for example, a human hand in a black background) can be recognized as a detected object.
ここで、移動情報に基づく判断とは、撮影情報に基づいて重複領域内の物体の移動の有無、移動速度、移動方向等を検知し、その結果に応じて物体が被検知体であるか否かを判断することをいう。また、輪郭情報は、典型的に、色相情報、明度情報(輝度情報)、彩度情報を含み、これらの情報に基づき、背景又は背景同視し得る物体と被検知体との区別を行うことをいう。 Here, the determination based on the movement information refers to detecting the presence / absence of movement of the object in the overlapping area, the movement speed, the movement direction, and the like based on the photographing information, and whether or not the object is a detected object according to the result. It means to judge. In addition, the outline information typically includes hue information, lightness information (luminance information), and saturation information, and based on these information, the background or the object that can be identified with the background is distinguished from the detected object. Say.
制御手段が、少なくとも1つの仮想的な境界平面を有する仮想領域を撮影領域内に設定し、仮想領域内に境界平面を介して侵入状態にある物体を被検知体であると判断してもよい。 The control unit may set a virtual area having at least one virtual boundary plane in the imaging area, and determine that an object intruding into the virtual area via the boundary plane is a detected object. .
仮想領域内に境界平面を介して侵入した物体を被検知体であると判断するので、被検知体の誤認識を低減することができる。例えば、仮想領域内に内包されるように他の物体(例えば、机や椅子等。)が存在しても、それらの他の物体を被検知体であるとは認識せず、仮想領域外に立っているユーザーが腕を前方に伸ばすことにより、境界平面を介してその手が仮想領域内に侵入した場合に、その手を被検知体であると判断することができる。 Since it is determined that an object that has entered the virtual region via the boundary plane is a detected object, erroneous recognition of the detected object can be reduced. For example, even if other objects (for example, a desk or a chair) exist so as to be included in the virtual area, the other objects are not recognized as detected objects, and are outside the virtual area. When a standing user extends his / her arm forward and his / her hand enters the virtual area via the boundary plane, it can be determined that the hand is the detected object.
ユーザーに起因する物体(ユーザーの身体の一部、ユーザーが手に持つ指示棒やペン等。)を正確に被検知体であると判断し、ユーザーに起因しない他の物体を被検知体でないと正確に判断することができるので、ユーザーによる入力操作を的確に把握することができ、入力操作の誤認識を低減することができる。 It is determined that an object caused by the user (part of the user's body, a pointing stick or a pen held by the user) is an object to be detected accurately, and other objects that are not attributed to the user are not detected objects. Since the determination can be made accurately, the input operation by the user can be accurately grasped, and erroneous recognition of the input operation can be reduced.
制御手段が、被検知体の3次元座標情報のうち、境界平面から最遠である3次元座標情報に基づいて制御指令を出力してもよい。 The control means may output a control command based on the three-dimensional coordinate information farthest from the boundary plane among the three-dimensional coordinate information of the detection target.
ユーザーの手が境界平面を介して仮想領域内に侵入した場合に、例えばユーザーが指した人差し指の先端位置に基づいて制御指令を出力することができる。また、ユーザーが手にペン等を持って入力操作を行う場合に、そのペンの先端部分の位置に基づいて制御指令を出力することができる。 When the user's hand enters the virtual area via the boundary plane, for example, a control command can be output based on the tip position of the index finger pointed by the user. Further, when the user performs an input operation with a pen in his hand, a control command can be output based on the position of the tip of the pen.
制御手段が、撮影領域内における被検知体のジェスチャーに基づいて制御指令を出力してもよい。 The control means may output a control command based on the gesture of the detected object in the imaging area.
撮影領域内における被検知体のジェスチャー(動作)に基づいて制御指令を出力するので、多彩な制御を実現することができる上に、ユーザーの直感的で自然な動作を入力操作とすることができる。例えば、重複領域内でユーザーが前に伸ばした腕を左から右に動かす動作を行えば、その腕の動きに応じてマウスポインタが左から右に動いたり、左から右に直線が描かれたりするといった制御を実現することができる。また、例えば、重複領域内でユーザーがあたかもノックするような仕草で、指を前後に1回振ればその動作をクリック操作の入力とし、2回前後に振ればその動作をダブルクリック操作の入力とすることもできる。指を前に突き出したまま上下左右に動かせば、その動作をドラッグ操作の入力とすることもできる。 Since the control command is output based on the gesture (motion) of the detected object in the imaging area, various controls can be realized, and the user's intuitive and natural motion can be used as the input operation. . For example, if you move the arm that the user has stretched forward in the overlap area from left to right, the mouse pointer moves from left to right or a straight line is drawn from left to right. It is possible to realize such control as to do. Also, for example, if the user knocks in the overlapping area, if the user swings his / her finger back and forth once, the action will be input as a click operation. You can also If you move your finger up, down, left, or right with your finger protruding forward, you can use that action as input for the drag operation.
制御手段が、撮影領域内においてジェスチャーが実質的に一致する複数の3次元座標情報を1つの被検知体のものであると判断し、撮影領域内においてジェスチャーが実質的に一致しない複数の3次元座標情報を複数の異なる被検知体のものであると判断してもよい。 The control means determines that a plurality of three-dimensional coordinate information whose gestures substantially match in the shooting region are of one detected object, and a plurality of three-dimensionals whose gestures do not substantially match in the shooting region The coordinate information may be determined to belong to a plurality of different objects to be detected.
このように構成することで、撮影領域内に被検知体がいくつ存在するかを把握することができる。したがって、複数の被検知体により実質的に同時的に行われる複数の異なる入力操作を的確に把握して受け付けることができる。例えば、被検知体が1つであると判断した場合には、その1つの被検知体による1つのジェスチャーに基づいて制御指令を出力する。一方、例えば、被検知体が2つであると判断した場合には、その各々2つの被検知体による各々2つのジェスチャーに基づいて各々2つの制御指令を出力する。 By comprising in this way, it can grasp | ascertain how many to-be-detected bodies exist in an imaging | photography area | region. Therefore, it is possible to accurately grasp and accept a plurality of different input operations performed substantially simultaneously by the plurality of detection objects. For example, when it is determined that there is one object to be detected, a control command is output based on one gesture by the one object to be detected. On the other hand, for example, when it is determined that there are two objects to be detected, two control commands are output based on two gestures by each of the two objects to be detected.
情報処理装置が、所定の映像表示面に映像表示を行う映像表示手段を更に有し、制御手段が、3次元座標情報に基づいて映像表示を制御する制御指令を出力してもよい。 The information processing apparatus may further include video display means for displaying video on a predetermined video display surface, and the control means may output a control command for controlling video display based on the three-dimensional coordinate information.
映像表示手段としては、例えばCRTディスプレイ、液晶ディスプレイ、プラズマディスプレイ、ELディスプレイ等のディスプレイ装置の他、壁面やスクリーン等に映像を投影するプロジェクターも含む。これらによる映像表示を被検知体の3次元座標情報に基づいて制御するので、例えばユーザーの身体の一部等である被検知体の動きと映像表示等を融合させて、直感的な動作(入力操作)に基づく面白みのある映像表現等を実現することができる。 As the image display means, for example, a display device such as a CRT display, a liquid crystal display, a plasma display, and an EL display, as well as a projector that projects an image on a wall surface, a screen, or the like are included. Since the video display based on these is controlled based on the three-dimensional coordinate information of the detected object, for example, the movement of the detected object, which is a part of the user's body, and the video display, etc. are fused, and intuitive operation (input An interesting video expression based on the operation) can be realized.
その入力操作が、2次元的でなく3次元的に把握されるので、より一層面白みのある映像表示制御を行うことができる。例えば、流れる滝の映像に対して、ユーザーが一歩前に踏み出して手をかざせば流れる水がユーザーの手を避けるように映像表現し、一歩後退すれば手をかざしても水がユーザーの手を避けないように映像表現することができる。プロジェクターで映像投影するスクリーンの手前に重複領域を設定することにより、ユーザーがスクリーンの手前に立ってスクリーンを見ながら動作することにより、映像表示制御することができる。また、液晶ディスプレイの下方に重複領域を設定し、その重複領域内に現実には存在しないキーボードを仮想的に設定することにより、液晶ディスプレイ下方の何もない空間でユーザーがキー入力動作を行うことにより、現実のキーボードによるキー入力操作と同様の入力結果を得ることができる。 Since the input operation is grasped three-dimensionally rather than two-dimensionally, more interesting video display control can be performed. For example, if a user steps forward and holds a hand over the image of a flowing waterfall, the flowing water expresses the image so as to avoid the user's hand. It is possible to express images so as not to avoid them. By setting an overlapping area in front of the screen on which the image is projected by the projector, the user can control the image display by operating while standing in front of the screen and looking at the screen. In addition, by setting an overlapping area below the liquid crystal display and virtually setting a keyboard that does not actually exist in the overlapping area, the user can perform key input operations in an empty space below the liquid crystal display. Thus, an input result similar to that of a key input operation using an actual keyboard can be obtained.
本発明の他の例示的側面としての情報処理方法は、第1の領域を撮影する第1の撮影手段からの撮影情報と第1の領域と少なくとも部分的に重複する第2の領域を第1の撮影手段とは異なる方向から撮影する第2の撮影手段からの撮影情報とに基づき、第1の領域と第2の領域とが重複する重複領域内における被検知体の3次元座標情報を取得するステップと、3次元座標情報に基づいて制御指令を出力するステップとを有することを特徴とする。 According to another exemplary aspect of the present invention, there is provided an information processing method in which imaging information from a first imaging unit that images a first area and a second area that at least partially overlaps the first area are first. 3D coordinate information of an object to be detected in an overlapping region where the first region and the second region overlap is acquired based on the photographing information from the second photographing unit that photographs from a direction different from the photographing unit. And a step of outputting a control command based on the three-dimensional coordinate information.
複数の撮影手段によって互いに異なる方向から重複領域を撮影するので、その重複領域における被検知体(例えば、ユーザーの手。)の位置(座標情報)を3次元的に把握することができる。そして、被検知体の3次元座標情報に基づいて制御指令を出力するので、被検知体の2次元的な位置に基づく制御を行う場合に比べ、多彩な制御を実現することができる。 Since the overlapping area is imaged from different directions by the plurality of imaging means, the position (coordinate information) of the detected object (for example, the user's hand) in the overlapping area can be grasped three-dimensionally. Since the control command is output based on the three-dimensional coordinate information of the detected object, a variety of controls can be realized as compared with the case where the control is performed based on the two-dimensional position of the detected object.
被検知体の位置を複数の撮影手段により把握して、その位置に応じた制御を行うので、ユーザーが別途の入力装置を操作する必要なく、また、ユーザーがセンサー等の別途の検知手段を装着する必要なく、入力操作を行うことができる。 Since the position of the object to be detected is grasped by a plurality of photographing means and control according to the position is performed, the user does not need to operate a separate input device, and the user attaches a separate detection means such as a sensor. The input operation can be performed without having to.
本発明の更に他の例示的側面としての情報処理プログラムは、コンピュータを、所定の撮影領域を撮影する撮影手段からの撮影情報に基づき、撮影領域内における被検知体の3次元座標情報を取得する情報取得手段、及び、3次元座標情報に基づいて制御指令を出力する制御指令出力手段、として機能させることを特徴とする。 An information processing program as still another exemplary aspect of the present invention acquires a three-dimensional coordinate information of a detected object in an imaging region based on imaging information from an imaging unit that images a predetermined imaging region. It functions as an information acquisition means and a control command output means for outputting a control command based on three-dimensional coordinate information.
被検知体(例えば、ユーザーの手。)の3次元座標情報に基づいて制御指令を出力するので、被検知体の2次元的な位置に基づく制御を行う場合に比べ、多彩な制御を実現することができる。また、被検知体の3次元的な位置に基づく制御が可能であるので、ユーザーが別途の入力装置を操作する必要なく、また、ユーザーがセンサー等の別途の検知手段を装着する必要なく、入力操作を行うことができる。 Since the control command is output based on the three-dimensional coordinate information of the detected object (for example, the user's hand), a variety of controls are realized as compared with the case where the control is performed based on the two-dimensional position of the detected object. be able to. In addition, since control based on the three-dimensional position of the object to be detected is possible, there is no need for the user to operate a separate input device, and the user does not need to install a separate detection means such as a sensor. The operation can be performed.
本発明の更なる目的又はその他の特徴は、以下添付図面を参照して説明される好ましい実施の形態によって明らかにされるであろう。 Further objects and other features of the present invention will become apparent from the preferred embodiments described below with reference to the accompanying drawings.
本発明によれば、ユーザーが入力装置を操作したり、ユーザーにセンサーを装着したりする必要がなく、直感的な操作、すなわち自然な動作に基づきバリエーションに富む制御指令の入力が可能となる。マウス等の入力装置の使用法に習熟する必要なく、子供や身体の不自由な者にも簡単に直感的、斬新かつ面白みのある入力操作を行うことができる。 According to the present invention, it is not necessary for the user to operate the input device or to attach a sensor to the user, and it is possible to input a variety of control commands based on intuitive operations, that is, natural operations. There is no need to learn how to use an input device such as a mouse, and an intuitive, novel and interesting input operation can be easily performed even for a child or a physically handicapped person.
[実施の形態1]
以下、本発明の実施の形態1に係る情報入力システム(情報処理装置)Sについて、図面を用いて説明する。図1は、この情報入力システムSの全体構成の概略を示す概略構成図である。情報入力システムSは、第1カメラ(第1の撮影手段)1、第2カメラ(第2の撮影手段)2、プロジェクター(映像表示手段)6、コンピュータ(制御手段)8を有して大略構成されている。
[Embodiment 1]
Hereinafter, an information input system (information processing apparatus) S according to Embodiment 1 of the present invention will be described with reference to the drawings. FIG. 1 is a schematic configuration diagram showing an outline of the overall configuration of the information input system S. The information input system S includes a first camera (first photographing means) 1, a second camera (second photographing means) 2, a projector (video display means) 6, and a computer (control means) 8. Has been.
第1カメラ1は、第1領域(第1の撮影領域)1aを撮影するためのカメラであって、例えばCCDやCMOS等の撮像素子を用いたビデオカメラ等が利用される。第1領域1aは、図1において模式的に破線L1で表された撮影視野内の領域を意味する。本実施の形態1においては、第1カメラ1は、スクリーン10の手前上方位置に配置され、下方を臨むように第1領域1aが設定される。したがって、その第1領域1aは、スクリーン10の手前に設定されている。なお、図1において、スクリーン10から見てその手前方向を後方(−Z方向)、その逆方向を前方(Z方向)とする。また、ユーザーUからスクリーン10を見た場合の左方向をX方向、上方向をY方向とし、各々その逆方向を右方向(−X方向)、下方向(−Y方向)とする。
The first camera 1 is a camera for photographing the first region (first photographing region) 1a, and for example, a video camera using an image sensor such as a CCD or a CMOS is used. The first area 1a means an area in the imaging field of view schematically represented by a broken line L1 in FIG. In the first embodiment, the first camera 1 is disposed at an upper position in front of the
第2カメラ2も第1カメラと同様に、CCDやCMOS等の撮像素子を用いたビデオカメラ等が利用され、模式的に破線L2で表される撮影視野内の領域としての第2領域(第2の撮影領域)2aを撮影している。第2領域2aも第1領域1aと同様に、スクリーン10の手前に設定されており、スクリーン10の手前右方位置に配置された第2カメラ2が、この第2領域2aを左方向(−X方向)に臨むように撮影している。このように、第1カメラ1と第2カメラ2とは、互いに異なる方向から各領域1a,2aを撮影している。
Similarly to the first camera, the second camera 2 uses a video camera or the like using an image sensor such as a CCD or a CMOS, and is typically a second area (first area) as an area in the field of view represented by a broken line L2. 2 shooting area) 2a. Similarly to the first area 1a, the second area 2a is also set in front of the
第1カメラ1は、第1領域1aの撮影情報1bをコンピュータ8へと入力し、第2カメラ2は、第2領域2aの撮影情報2bをコンピュータ8へと入力するように構成されている。そして、第1領域1aと第2領域2aとは少なくとも部分的に重複しており、その重複領域内には後述するコンピュータ8により仮想領域Wが設定される。したがって、重複領域内の映像は、それぞれ異なる角度から撮影されて第1カメラ1及び第2カメラ2の両方からコンピュータ8へと入力されるようになっている。
The first camera 1 is configured to input the shooting information 1b of the first area 1a to the
プロジェクター6は、スクリーン(所定の映像表示面)10に映像表示を行うためのものである。プロジェクター6は、コンピュータ8に接続され、コンピュータ8からの映像信号3に基づく表示映像をスクリーン10上に投影することができるようになっている。例えば、図2(a)に示すように、OS(オペレーティングシステム)のデスクトップ上に配置された各種アプリケーションプログラムの実行アイコン12やフォルダ14が表示されたり、図2(b)に示すように、起動中のグラフィックソフトの描画面16が表示されたりするようになっている。
The projector 6 is for displaying video on a screen (predetermined video display surface) 10. The projector 6 is connected to the
コンピュータ8は、第1カメラ1、第2カメラ2、プロジェクター6と接続された制御手段である。以下、このコンピュータ8の概略構成及びその詳細機能について説明する。
The
図3にその内部構成の概略を示すように、コンピュータ8は、内部に記憶装置4とCPU(演算処理装置)5とを有して大略構成される。記憶装置4は、メモリ又はハードディスク等により構成されて情報を格納、保存するための装置であって、本実施の形態1においては、記憶装置4内部に情報処理プログラムP、ジェスチャーデータベースD、仮想領域設定情報Vが格納されている。
As schematically shown in FIG. 3, the
情報処理プログラムPは、コンピュータ8の主要部としてのCPU5を、情報取得手段5a、ジェスチャー判定手段5b、制御指令出力手段5c、制御指令処理手段5dとして機能させるためのプログラムソフトウェアである。CPU5が発揮するこれらの各機能については詳細を後述する。
The information processing program P is program software for causing the
ジェスチャーデータベースDは、被検知体U1のジェスチャー(動作)パターンとそのジェスチャーに対応する制御指令(コマンド)とが相互に関連付けられて構成されている。例えば、図4に示すように、被検知体U1の「短時間での前後往復1回動作」に対して、「マウスクリック」という制御指令が関連付けられ、「短時間での前後往復2回動作」に対して、「ダブルクリック」という制御指令が関連付けられている。被検知体U1の「前方移動後に後退せずにXY平面内での移動動作」に対して「XY平面内でのドラッグ」という制御指令が関連付けられている。 The gesture database D is configured by associating a gesture (motion) pattern of the body U1 to be detected with a control command (command) corresponding to the gesture. For example, as shown in FIG. 4, a control command “mouse click” is associated with “one-time back-and-forth reciprocation in a short time” of the detected object U1, and “two-time back-and-forth reciprocation in a short time” ”Is associated with a control command“ double click ”. A control command of “dragging in the XY plane” is associated with “moving operation in the XY plane without moving backward after moving forward” of the detected body U1.
もちろんその他にも、「スクロール」、「削除」、「拡大」、「縮小」、「回転」等の各種制御指令に対して、各々対応するジェスチャーが関連付けられていてもよい。その場合において、2つの被検知体による連係動作(例えば、2つの被検知体が相互に離れると「拡大」、相互に近づくと「縮小」等。)が各々の制御指令と関連付けられていてもよい。 Of course, other corresponding gestures may be associated with various control commands such as “scroll”, “delete”, “enlarge”, “reduce”, and “rotate”. In that case, even if the linked operation by the two detected objects (for example, “enlarge” when the two detected objects are separated from each other, “reduced” when the two detected objects are close to each other) is associated with each control command. Good.
仮想領域設定情報Vは、重複領域内に設定される仮想領域Wの3次元座標情報(位置情報、XYZ座標情報)を格納し、実空間上での仮想領域Wの位置を画定している。すなわち、第1カメラ1及び第2カメラ2の各撮影情報1b,2bに基づき、図1に示す実空間上において仮想的に示す頂点t1〜t8の3次元座標情報を格納している。そして、これら各頂点t1〜t8によって囲まれる直方体領域が仮想領域Wとして設定される。その仮想領域Wにおいて、本実施の形態1では、頂点t1〜t4によって画定される最後方の平面が境界平面W1として設定され、頂点t5〜t8はすべてスクリーン10上に設定されている。
The virtual area setting information V stores three-dimensional coordinate information (position information, XYZ coordinate information) of the virtual area W set in the overlapping area, and demarcates the position of the virtual area W in the real space. That is, the three-dimensional coordinate information of the vertices t1 to t8 virtually stored in the real space shown in FIG. 1 is stored based on the shooting information 1b and 2b of the first camera 1 and the second camera 2. A rectangular parallelepiped region surrounded by the vertices t1 to t8 is set as the virtual region W. In the virtual region W, in the first embodiment, the rearmost plane defined by the vertices t1 to t4 is set as the boundary plane W1, and the vertices t5 to t8 are all set on the
もちろん、仮想領域Wの形状は直方体に限られず、球形、円柱形、三角錐形等の各種の形状を設定可能である。また、本実施の形態1においては、頂点t5〜t8をスクリーン10上に設定しているが、スクリーン10の手前(−Z方向位置)にt5〜t8を設定してもよい。
Of course, the shape of the virtual region W is not limited to a rectangular parallelepiped, and various shapes such as a spherical shape, a cylindrical shape, and a triangular pyramid shape can be set. In the first embodiment, the vertices t5 to t8 are set on the
次に、CPU5が発揮する各機能について説明する。
Next, each function performed by the
情報取得手段5aは、第1カメラ1及び第2カメラ2から各々の撮影情報1b,2bを取得する機能を有する。そして、その撮影情報1b,2bに基づき、仮想領域W内における被検知体U1の3次元座標情報を取得する機能も有する。
The
すなわち、情報取得手段5aは、第1カメラ1による第1領域1aの撮影情報1bと第2カメラ2による第2領域2aの撮影情報2bとを取得する。そして、その撮影情報1b,2bを用いて画像認識処理を行うことにより、仮想領域W内に被検知体U1が存在するか否かを判定し、被検知体U1が存在する場合にその3次元座標情報を取得する。
That is, the
その画像認識処理は、公知の画像認識処理技術を用いることができるが、例えば、以下のような手順で行うことができる。すなわち、撮影情報1b,2b中の輝度情報、明度情報、彩度情報等に基づき、重複領域内に存在する物体の輪郭抽出を行う。その物体が重複領域内に存在するか否かは、その物体に起因する形状情報が第1領域1a内と第2領域2a内との両方に存在するか否かに基づいて判断することができる。 The image recognition processing can be performed by the following procedure, for example, although a known image recognition processing technique can be used. That is, based on the luminance information, lightness information, saturation information, etc. in the photographing information 1b, 2b, the contour of the object existing in the overlapping area is extracted. Whether or not the object exists in the overlapping region can be determined based on whether or not the shape information resulting from the object exists in both the first region 1a and the second region 2a. .
そして、その物体が重複領域内に存在すると判断した場合に、その物体が境界平面W1を介して仮想領域W内に侵入しているか否かを判断し、境界平面W1を介して仮想領域W内に侵入している場合にその物体を被検知体U1であると判断する。画像認識処理によって輪郭形状が抽出された物体の少なくとも一部が頂点t1〜t4により設定される境界平面W1と交差し、かつその物体の少なくとも一部が頂点t1〜t8により設定される仮想領域W内に存在する場合に、その物体を被検知体U1であると判断する。本実施の形態1においては、被検知体U1は、ユーザーUの手である。 When it is determined that the object exists in the overlapping area, it is determined whether or not the object has entered the virtual area W via the boundary plane W1, and the virtual area W is determined via the boundary plane W1. If the object has entered, the object is determined to be the detected body U1. A virtual region W in which at least a part of the object whose contour shape is extracted by the image recognition process intersects the boundary plane W1 set by the vertices t1 to t4, and at least a part of the object is set by the vertices t1 to t8. If the object exists, the object is determined to be the detected body U1. In the first embodiment, the detected body U1 is the hand of the user U.
情報取得手段5aは、仮想領域W内にユーザーUの手(被検知体)U1が存在すると判断すると、その手U1のうち境界平面W1から最遠にある部分(最遠部)U2を認識する。この最遠部U2の3次元座標情報は、仮想領域W内に存在する手U1の輪郭を構成する複数箇所の3次元座標情報のうち、Z座標が最も大きい(すなわち、最もスクリーン10に近い。)部分の3次元座標情報である。本実施の形態1においては、最遠部U2は、ユーザーUの指先である。情報取得手段5aは、この指先U2の3次元座標情報を常に把握し、その位置・動作方向・動作速度等を常に監視している。
When the
本実施の形態1においては、この指先U2の位置はマウスポインタ7の位置に対応しており、指先U2の3次元座標情報に基づき、コンピュータ8は、プロジェクター6にマウスポインタ7の映像を表示させる。すなわち、指先U2の3次元座標情報のうちXY座標の2次元座標情報に基づいて、スクリーン10上の対応位置にマウスポインタ7が表示される。指先U2のXY座標位置が変化すると、対応してマウスポインタ7の表示位置も変化するようになっている。
In the first embodiment, the position of the fingertip U2 corresponds to the position of the mouse pointer 7, and the
ジェスチャー判定手段5bは、ユーザーUの指先U2の動作が予め定められたジェスチャーパターンに対応する動作であるか否かについて判定する機能を有する。具体的には、情報取得手段5aから取得した指先U2の3次元座標情報に基づき、その指先U2の動作がジェスチャーデータベースD内に格納されたジェスチャーパターンと符合するか否かを判定する。
The
そして、指先U2の動作がジェスチャーデータベースD内のいずれかのジェスチャーパターンと符合する場合に、そのジェスチャーパターンに関連付けられた制御指令を制御指令出力手段5cから出力させる。例えば、指先U2の動作が「短時間での前後往復1回動作」であると判断した場合に、制御指令出力手段5cから「マウスクリック」という制御指令を出力させる。
When the movement of the fingertip U2 matches any gesture pattern in the gesture database D, the control
一方、指先U2の動作がジェスチャーデータベースD内のいずれのジェスチャーパターンとも符合しない場合には、ジェスチャー判定手段5bは制御指令出力手段5cから映像表示を制御する制御指令を出力させる。この映像表示制御指令に基づいて、指先U2のXY座標位置の変化に対応してマウスポインタ7の表示位置が変化するようになっている。
On the other hand, when the operation of the fingertip U2 does not match any gesture pattern in the gesture database D, the
制御指令出力手段5cは、指先U2の3次元座標情報に基づいて制御指令を出力する機能を有する。具体的には、ジェスチャー判定手段5bによる判定結果に応じて、「マウスクリック」、「ダブルクリック」、「ドラッグ」といった制御指令や映像表示を制御する映像表示制御指令を出力する。 The control command output means 5c has a function of outputting a control command based on the three-dimensional coordinate information of the fingertip U2. Specifically, control commands such as “mouse click”, “double click”, and “drag” and a video display control command for controlling video display are output according to the determination result by the gesture determination means 5b.
例えば、指先U2がスクリーン10上の実行アイコン12上に対応する位置にある場合において、ジェスチャー判定手段5bが「マウスクリック」を判定した場合、この制御指令出力手段5cが「マウスクリック」の制御指令を出力して制御指令処理手段5dにその実行アイコン12に対応するアプリケーションプログラムの実行処理を行わせる。例えば、指先U2がスクリーン10上のフォルダ14上に対応する位置にある場合において、ジェスチャー判定手段5bが「ダブルクリック」を判定した場合、この制御指令出力手段5cが「ダブルクリック」の制御指令を出力して制御指令処理手段5dにそのフォルダ14内に格納されたファイルの一覧表示処理を行わせる。
For example, when the fingertip U2 is at a position corresponding to the
また、例えば、既にグラフィックソフトが起動中であってスクリーン10上に描画面16が表示されている場合において、仮想領域W内の左側から右側へと移動する指先U2の動作がいずれのジェスチャーパターンにも符合しないとジェスチャー判定手段5bによって判定された場合、この制御指令出力手段5cがマウスポインタ7をスクリーン10上で左側から右側へと移動する映像表示制御指令を出力する。その映像表示制御指令に基づき、制御指令処理手段5dは描画面16上に左側から右側への線の描画を実行する。
Further, for example, when the graphic software is already activated and the
制御指令処理手段5dは、制御指令出力手段5cからの制御指令に基づき、コンピュータ8に所定の演算処理を実行させる。その制御指令が「マウスクリック」や「ダブルクリック」等のマウスボタン操作に相当する制御指令である場合には、その制御指令に対応する処理(例えば、アプリケーションの起動、フォルダの内容表示、アイコンやフォルダ等のオブジェクトの移動。)をコンピュータ8に実行させる。一方、その制御指令が映像表示制御指令である場合には、その映像表示制御指令に基づき映像信号3を調整し、プロジェクター6によりスクリーン10上に映像表示させる。
The control command processing means 5d causes the
次に、この情報入力システムSにおける情報入力の手順について、図5のフローチャートを用いて説明する。 Next, the information input procedure in the information input system S will be described with reference to the flowchart of FIG.
第1カメラ1が第1領域1aを撮影し、その撮影情報1bをコンピュータ8へと出力する(S.1)。同時に、第2カメラ2が第2領域2aを撮影し、その撮影情報2bをコンピュータ8へと出力する(S.2)。重複領域内に仮想領域Wを設定し、その頂点t1〜t8の3次元座標情報を仮想領域設定情報V内へと格納する(S.3)。 The first camera 1 captures the first area 1a and outputs the photographing information 1b to the computer 8 (S.1). At the same time, the second camera 2 captures the second area 2a and outputs the captured information 2b to the computer 8 (S.2). A virtual area W is set in the overlapping area, and the three-dimensional coordinate information of the vertices t1 to t8 is stored in the virtual area setting information V (S.3).
撮影情報1b,2bに基づき、仮想領域W内に物体が存在するか否かを判断し(S.4)、物体が存在する場合に、その物体がユーザーUの手U1であるか否かを判断する(S.5)。具体的には、物体が境界平面W1を介して仮想領域W内に侵入している場合に、その物体が手U1であると判断する。 Based on the shooting information 1b and 2b, it is determined whether or not an object exists in the virtual area W (S.4), and if an object exists, whether or not the object is the hand U1 of the user U is determined. Judgment is made (S.5). Specifically, when the object has entered the virtual area W via the boundary plane W1, it is determined that the object is the hand U1.
コンピュータ8が手U1を把握すると、その指先U2の位置を認識する(S.6)。具体的には、仮想領域W内の手U1のうち、境界平面W1から最遠となる部分(すなわち、Z座標が最大の点。)を指先U2であると認識し、その3次元座標情報を取得する。指先U2の3次元座標情報のうちのXY座標情報に基づき、プロジェクター6によりその指先U2のXY座標情報に対応するスクリーン10上の位置にマウスポインタ7を表示する(S.7)。
When the
コンピュータ8は、その指先U2の動作を3次元座標情報に基づいて把握する(S.8)。その指先U2の動作がジェスチャーデータベースD内のジェスチャーパターンと符合する場合(S.9)、コンピュータ8は、そのジェスチャーパターンに対応する制御指令を出力し(S.10)、例えば、マウスクリックやダブルクリック等の動作を実行する。一方、指先U2の動作がジェスチャーデータベースD内のジェスチャーパターンと符合しない場合(S.9)、指先U2のXY平面内での移動に対応してマウスポインタ7の移動表示を行う(S.11)。そのマウスポインタ7の移動表示に基づいて、例えば、線の描画操作等が実現される。
The
以上、本発明の好ましい実施の形態を説明したが、本発明はこれらに限定されるものではなく、その要旨の範囲内で様々な変形や変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these, A various deformation | transformation and change are possible within the range of the summary.
例えば、上記実施の形態1においては、仮想領域W内に1つの被検知体が存在する場合について説明したが、仮想領域W内に複数の被検知体が存在してもよい。その場合において、情報取得手段5aにより、複数の被検知体の輪郭を構成する複数箇所からの多数の3次元座標情報が取得される。その多数の3次元座標情報が実質的に同じ動作に基づき移動している場合には、それらの多数の3次元座標情報は1つの被検知体によるものであると判断することができ、仮想領域W内に1つの被検知体が存在すると判断することができる。 For example, in the first embodiment, the case where one detected object exists in the virtual area W has been described. However, a plurality of detected objects may exist in the virtual area W. In that case, a large number of three-dimensional coordinate information from a plurality of locations constituting the contours of the plurality of detection objects is acquired by the information acquisition means 5a. When the large number of three-dimensional coordinate information moves based on substantially the same operation, it can be determined that the large number of three-dimensional coordinate information is based on one detected object, and the virtual region It can be determined that one object to be detected exists in W.
一方、多数の3次元座標情報が実質的に異なる動作に基づき移動している場合、すなわち、それら多数の3次元座標情報のうちいくつかは実質的に左方向(−X方向)へと移動しているにも拘らず、他の3次元座標情報は実質的に右方向(X方向)へと移動している場合には、仮想領域W内に2つの被検知体(例えば、ユーザーUの右手と左手。)が存在すると判断することができる。したがって、2つの被検知体の動作に基づき、2つの異なる制御指令を略同時的に出力するように構成することもできる。また、2つの被検知体の連係動作に基づき、例えば「拡大」、「縮小」、「回転」等の新たな制御指令を出力するように構成することもできる。 On the other hand, when a large number of three-dimensional coordinate information moves based on substantially different movements, that is, some of the large number of three-dimensional coordinate information moves substantially in the left direction (−X direction). Nevertheless, if the other three-dimensional coordinate information is substantially moving in the right direction (X direction), two detected objects (for example, the right hand of the user U in the virtual region W) And the left hand.) Can be determined to exist. Therefore, it can be configured to output two different control commands almost simultaneously based on the operations of the two detection objects. Further, based on the linked operation of the two detection objects, for example, a new control command such as “enlargement”, “reduction”, and “rotation” can be output.
[実施の形態2]
図6は、本発明の実施の形態2に係る情報入力システムS’の全体構成の概略を示す概略構成図である。この実施の形態2においては、情報入力システムS’が第1カメラ21、第2カメラ22、液晶ディスプレイ26、コンピュータ28を有して大略構成されている。
[Embodiment 2]
FIG. 6 is a schematic configuration diagram showing an outline of the overall configuration of the information input system S ′ according to Embodiment 2 of the present invention. In the second embodiment, the information input system S ′ has a
第1カメラ21及び第2カメラ22は、例えばCMOS等の撮像素子を用いてコンピュータ28とUSB(Universal Serial Bus)接続される、いわゆるUSBカメラ又はWebカメラと呼ばれる簡易なカメラである。この情報入力システムS’においては、液晶ディスプレイ26の左右両側に第1カメラ21及び第2カメラ22が配置されており、これらが、液晶ディスプレイ26の手前下方に設定される仮想領域W’を含む重複領域を撮影している。
The
この仮想領域W’は、頂点t21〜t28によって囲まれるように形成され、上方に位置する頂点t21〜t24によって境界平面W1’が設定される。仮想領域W’内には複数の仮想キー領域Kが設定される。この仮想キー領域Kは、キーボードに対応するキー配列に基づき仮想的に設定されるもので、仮想領域Wと同様に、複数の仮想的な頂点(例えば、頂点k1〜k8)によって囲まれている。 The virtual area W ′ is formed so as to be surrounded by the vertices t21 to t28, and a boundary plane W1 ′ is set by the vertices t21 to t24 positioned above. A plurality of virtual key areas K are set in the virtual area W ′. The virtual key area K is virtually set based on the key arrangement corresponding to the keyboard, and is surrounded by a plurality of virtual vertices (for example, vertices k1 to k8), like the virtual area W. .
そして、仮想キー領域Kには、それぞれキーボードのキーに対応するように異なる文字情報の入力制御指令が関連付けられており、所定の仮想キー領域K内にユーザーの指先U2が境界平面W1’を介して侵入すると、その仮想キー領域Kに対応する文字情報の入力が行われるようになっている。 The virtual key area K is associated with input control commands for different character information so as to correspond to the keys on the keyboard, respectively, and the user's fingertip U2 passes through the boundary plane W1 ′ in the predetermined virtual key area K. When entering, character information corresponding to the virtual key area K is input.
この実施の形態2に係る構成によれば、キーボード等の入力装置を別途用意する必要なく、仮想的なキーボードを設定することができ、例えば液晶ディスプレイ26手前の机上空間でユーザーがキー入力操作を行えば、そのキー入力操作に対応するキー入力が可能となる。別途の入力装置を必要としないので、システム全体としてのコスト低減や可搬性向上を実現することができ、操作スペースも省スペースとすることができる。
According to the configuration according to the second embodiment, a virtual keyboard can be set without the need to separately prepare an input device such as a keyboard. For example, the user can perform a key input operation on the desk space in front of the
[変形例]
1つの撮影手段によって、被検知体の3次元座標情報を取得することも可能である。例えば、CCDカメラによって被検知体のYX座標情報を得ると共に、被検知体の被写界深度情報に基づき被検知体のZ座標情報を得ることもできる。
[Modification]
It is also possible to acquire the three-dimensional coordinate information of the detected object by one imaging means. For example, the YX coordinate information of the detected object can be obtained by the CCD camera, and the Z coordinate information of the detected object can be obtained based on the depth of field information of the detected object.
具体例としては、例えば、CCDカメラのピント位置を前後(±Z方向)に移動させ、どの位置で被検知体に合焦するかを検出することにより、被検知体のZ方向位置を把握することができる。また、別途準備されたオートフォーカス装置を用いて撮影領域内の被検知体までの距離を赤外線等を用いて計測することにより、被検知体のZ方向位置を把握することもできる。 As a specific example, for example, by moving the focus position of the CCD camera back and forth (± Z direction) and detecting at which position the object is focused, the position of the detected object in the Z direction is grasped. be able to. Further, the Z-direction position of the detected object can also be grasped by measuring the distance to the detected object in the imaging region using infrared rays or the like using a separately prepared autofocus device.
このようなCCDカメラをコンピュータに接続する接続方式としては、上述したUSBを用いる場合の他にも、IEEE1394(Fire Wire)接続方式、赤外線を用いた無線接続方式、bluetooth等の電波を用いた無線接続方式等のあらゆる接続方式を適用することが可能である。 As a connection method for connecting such a CCD camera to a computer, in addition to the above-described USB, IEEE 1394 (Fire Wire) connection method, wireless connection method using infrared, wireless using radio waves such as Bluetooth. Any connection method such as a connection method can be applied.
D:ジェスチャーデータベース
K:仮想キー領域
L1,L2:破線
P:情報処理プログラム
S,S’:情報入力システム(情報処理装置)
t1〜t8,t21〜t28,k1〜k8:頂点
U:ユーザー
U1:手(被検知体)
U2:指先(最遠部)
V:仮想領域設定情報
W,W’:仮想領域
W1,W1’:境界平面
1,21:第1カメラ(第1の撮影手段)
1a:第1領域(第1の撮影領域)
1b:撮影情報
2,22:第2カメラ(第2の撮影手段)
2a:第2領域(第2の撮影領域)
2b:撮影情報
3:映像信号
4:記憶装置
5:CPU(演算処理装置)
5a:情報取得手段
5b:ジェスチャー判定手段
5c:制御指令出力手段
5d:制御指令処理手段
6:プロジェクター(映像表示手段)
7:マウスポインタ
8,28:コンピュータ(制御手段)
10:スクリーン(所定の映像表示面)
12:実行アイコン
14:フォルダ
16:描画面
26:液晶ディスプレイ
D: Gesture database K: Virtual key area L1, L2: Dashed line P: Information processing program S, S ′: Information input system (information processing apparatus)
t1 to t8, t21 to t28, k1 to k8: vertex U: user U1: hand (object to be detected)
U2: Fingertip (farthest part)
V: virtual area setting information W, W ′: virtual areas W1, W1 ′: boundary planes 21, 21: first camera (first photographing means)
1a: 1st area | region (1st imaging | photography area | region)
1b: shooting information 2, 22: second camera (second shooting means)
2a: second area (second imaging area)
2b: shooting information 3: video signal 4: storage device 5: CPU (arithmetic processing unit)
5a: Information acquisition means 5b: Gesture determination means 5c: Control command output means 5d: Control command processing means 6: Projector (video display means)
7:
10: Screen (predetermined video display surface)
12: Execution icon 14: Folder 16: Drawing surface 26: Liquid crystal display
Claims (10)
前記撮影領域内における被検知体の3次元座標情報を、前記撮影手段からの撮影情報に基づき取得すると共に、該3次元座標情報に基づいて制御指令を出力する制御手段と、を有する情報処理装置。 Photographing means for photographing a predetermined photographing region and outputting photographing information;
An information processing apparatus comprising: control means for obtaining three-dimensional coordinate information of a detection object in the photographing region based on photographing information from the photographing means and outputting a control command based on the three-dimensional coordinate information .
第1の領域を撮影する第1の撮影手段と、
前記第1の領域と少なくとも部分的に重複する第2の領域を前記第1の撮影手段とは異なる方向から撮影する第2の撮影手段と、を有して構成され、
前記制御手段が、
前記第1の領域と前記第2の領域とが重複する重複領域内における被検知体の3次元座標情報を、前記第1の撮影手段からの撮影情報と前記第2の撮影手段からの撮影情報とに基づき取得すると共に、該3次元座標情報に基づいて制御指令を出力する請求項1に記載の情報処理装置。 The photographing means is
First imaging means for imaging the first region;
Second imaging means for imaging a second area at least partially overlapping the first area from a direction different from the first imaging means, and
The control means is
The three-dimensional coordinate information of the object to be detected in the overlapping region where the first region and the second region overlap, the photographing information from the first photographing unit and the photographing information from the second photographing unit. The information processing apparatus according to claim 1, wherein the information processing apparatus outputs the control command based on the three-dimensional coordinate information.
前記重複領域内における物体の移動情報又は輪郭情報のうち少なくともいずれか一方に基づき、該物体を前記被検知体であると判断する請求項1又は請求項2に記載の情報処理装置。 The control means is
The information processing apparatus according to claim 1, wherein the information processing apparatus determines that the object is the detected object based on at least one of movement information and contour information of the object in the overlapping region.
少なくとも1つの仮想的な境界平面を有する仮想領域を前記撮影領域内に設定し、
該仮想領域内に前記境界平面を介して侵入状態にある物体を前記被検知体であると判断する請求項1又は請求項2に記載の情報処理装置。 The control means is
A virtual area having at least one virtual boundary plane is set in the imaging area;
The information processing apparatus according to claim 1, wherein an object intruding into the virtual area via the boundary plane is determined as the detected object.
前記被検知体の3次元座標情報のうち前記境界平面から最遠である3次元座標情報に基づいて前記制御指令を出力する請求項3又は請求項4に記載の情報処理装置。 The control means is
The information processing apparatus according to claim 3 or 4, wherein the control command is output based on three-dimensional coordinate information farthest from the boundary plane among the three-dimensional coordinate information of the detection target.
前記撮影領域内における前記被検知体のジェスチャーに基づいて前記制御指令を出力する請求項1又は請求項2に記載の情報処理装置。 The control means is
The information processing apparatus according to claim 1, wherein the control command is output based on a gesture of the detected object in the imaging region.
前記撮影領域内において前記ジェスチャーが実質的に一致する複数の前記3次元座標情報を1つの被検知体のものであると判断し、
前記撮影領域内において前記ジェスチャーが実質的に一致しない複数の前記3次元座標情報を複数の異なる被検知体のものであると判断する請求項6に記載の情報処理装置。 The control means is
A plurality of the three-dimensional coordinate information with which the gesture substantially matches within the imaging region is determined to belong to one detected object;
The information processing apparatus according to claim 6, wherein a plurality of the three-dimensional coordinate information whose gestures do not substantially match in the imaging region are determined to belong to a plurality of different detection objects.
前記制御手段が、前記3次元座標情報に基づいて該映像表示を制御する制御指令を出力する請求項1から請求項7のうちいずれか1項に記載の情報処理装置。 A video display means for displaying video on a predetermined video display surface;
The information processing apparatus according to any one of claims 1 to 7, wherein the control unit outputs a control command for controlling the video display based on the three-dimensional coordinate information.
該3次元座標情報に基づいて制御指令を出力するステップと、を有する情報処理方法。 Second information is obtained by photographing photographing information from first photographing means for photographing the first area and a second area at least partially overlapping with the first area from a direction different from that of the first photographing means. Acquiring three-dimensional coordinate information of the detected object in an overlapping region where the first region and the second region overlap based on imaging information from the imaging means;
Outputting a control command based on the three-dimensional coordinate information.
所定の撮影領域を撮影する撮影手段からの撮影情報に基づき、該撮影領域内における被検知体の3次元座標情報を取得する情報取得手段、及び、
該3次元座標情報に基づいて制御指令を出力する制御指令出力手段、として機能させる情報処理プログラム。 Computer
Information acquisition means for acquiring three-dimensional coordinate information of the detected object in the imaging area based on imaging information from the imaging means for imaging a predetermined imaging area; and
An information processing program that functions as a control command output unit that outputs a control command based on the three-dimensional coordinate information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008095605A JP2009251702A (en) | 2008-04-02 | 2008-04-02 | Information processing unit, information processing method, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008095605A JP2009251702A (en) | 2008-04-02 | 2008-04-02 | Information processing unit, information processing method, and information processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009251702A true JP2009251702A (en) | 2009-10-29 |
Family
ID=41312391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008095605A Withdrawn JP2009251702A (en) | 2008-04-02 | 2008-04-02 | Information processing unit, information processing method, and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009251702A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011145744A (en) * | 2010-01-12 | 2011-07-28 | Nintendo Co Ltd | Information processing apparatus, information processing program, information processing system, and method of selecting object to be selected |
CN102591451A (en) * | 2010-12-27 | 2012-07-18 | 日立民用电子株式会社 | Image processing device and image display device |
JP2013218423A (en) * | 2012-04-05 | 2013-10-24 | Utechzone Co Ltd | Directional video control device and method |
JP2017022782A (en) * | 2016-10-20 | 2017-01-26 | ソニー株式会社 | Information processor, information processing method and program |
JP2017033222A (en) * | 2015-07-31 | 2017-02-09 | セイコーエプソン株式会社 | Interactive projector and correction method for z coordinate of the same |
US10015392B2 (en) | 2010-03-04 | 2018-07-03 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP2018518784A (en) * | 2015-05-15 | 2018-07-12 | アシーア インコーポレイテッドAtheer, Inc. | Method and apparatus for applying free space input for surface limited control |
JP2019021338A (en) * | 2018-10-04 | 2019-02-07 | 株式会社三菱Ufj銀行 | Information processing device |
JP2019192288A (en) * | 2013-01-03 | 2019-10-31 | クアルコム,インコーポレイテッド | Rendering of augmented reality based on foreground object |
-
2008
- 2008-04-02 JP JP2008095605A patent/JP2009251702A/en not_active Withdrawn
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8917236B2 (en) | 2010-01-12 | 2014-12-23 | Nintendo Co., Ltd. | Storage medium having information processing program stored therein, information processing apparatus, and information processing system |
JP2011145744A (en) * | 2010-01-12 | 2011-07-28 | Nintendo Co Ltd | Information processing apparatus, information processing program, information processing system, and method of selecting object to be selected |
US10015392B2 (en) | 2010-03-04 | 2018-07-03 | Sony Corporation | Information processing apparatus, information processing method, and program |
US10306136B2 (en) | 2010-03-04 | 2019-05-28 | Sony Corporation | Information processing apparatus, information processing method, and program |
US10659681B2 (en) | 2010-03-04 | 2020-05-19 | Sony Corporation | Information processing apparatus, information processing method, and program |
US11190678B2 (en) | 2010-03-04 | 2021-11-30 | Sony Corporation | Information processing apparatus, information processing method, and program |
CN102591451A (en) * | 2010-12-27 | 2012-07-18 | 日立民用电子株式会社 | Image processing device and image display device |
JP2013218423A (en) * | 2012-04-05 | 2013-10-24 | Utechzone Co Ltd | Directional video control device and method |
JP2019192288A (en) * | 2013-01-03 | 2019-10-31 | クアルコム,インコーポレイテッド | Rendering of augmented reality based on foreground object |
JP2018518784A (en) * | 2015-05-15 | 2018-07-12 | アシーア インコーポレイテッドAtheer, Inc. | Method and apparatus for applying free space input for surface limited control |
JP2017033222A (en) * | 2015-07-31 | 2017-02-09 | セイコーエプソン株式会社 | Interactive projector and correction method for z coordinate of the same |
JP2017022782A (en) * | 2016-10-20 | 2017-01-26 | ソニー株式会社 | Information processor, information processing method and program |
JP2019021338A (en) * | 2018-10-04 | 2019-02-07 | 株式会社三菱Ufj銀行 | Information processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12307580B2 (en) | Methods for manipulating objects in an environment | |
US12333083B2 (en) | Methods for manipulating objects in an environment | |
CN108431729B (en) | Three-dimensional object tracking to increase display area | |
JP2009251702A (en) | Information processing unit, information processing method, and information processing program | |
CN102915112B (en) | For the system and method for closely motion tracking | |
US20140123077A1 (en) | System and method for user interaction and control of electronic devices | |
JP4533087B2 (en) | Image processing method and image processing apparatus | |
US10007351B2 (en) | Three-dimensional user interface device and three-dimensional operation processing method | |
JP5658500B2 (en) | Information processing apparatus and control method thereof | |
US10591988B2 (en) | Method for displaying user interface of head-mounted display device | |
CN102750079A (en) | Terminal device, object control method, and program | |
JP6344530B2 (en) | Input device, input method, and program | |
WO2022048373A1 (en) | Image processing method, mobile terminal, and storage medium | |
US10175780B2 (en) | Behind-display user interface | |
JP4608326B2 (en) | Instruction motion recognition device and instruction motion recognition program | |
JP6746419B2 (en) | Information processing apparatus, control method thereof, and computer program | |
JP5342806B2 (en) | Display method and display device | |
JP2017162126A (en) | Input system, input method, control program and storage medium | |
JP6632298B2 (en) | Information processing apparatus, information processing method and program | |
JP5558899B2 (en) | Information processing apparatus, processing method thereof, and program | |
JP4563723B2 (en) | Instruction motion recognition device and instruction motion recognition program | |
JP7495651B2 (en) | Object attitude control program and information processing device | |
JP2024109620A (en) | Wearable terminal device, program, and display method | |
JP2009205609A (en) | Pointing device | |
Colaço | Sensor design and interaction techniques for gestural input to smart glasses and mobile devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110607 |