JP6328304B1 - I / O system - Google Patents
I / O system Download PDFInfo
- Publication number
- JP6328304B1 JP6328304B1 JP2017143780A JP2017143780A JP6328304B1 JP 6328304 B1 JP6328304 B1 JP 6328304B1 JP 2017143780 A JP2017143780 A JP 2017143780A JP 2017143780 A JP2017143780 A JP 2017143780A JP 6328304 B1 JP6328304 B1 JP 6328304B1
- Authority
- JP
- Japan
- Prior art keywords
- screen
- shadow
- user
- sheet
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008859 change Effects 0.000 claims description 83
- 238000001514 detection method Methods 0.000 claims description 41
- 230000000903 blocking effect Effects 0.000 claims description 5
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 230000008878 coupling Effects 0.000 claims 2
- 238000010168 coupling process Methods 0.000 claims 2
- 238000005859 coupling reaction Methods 0.000 claims 2
- 230000001678 irradiating effect Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 53
- 238000000034 method Methods 0.000 description 59
- 238000012986 modification Methods 0.000 description 52
- 230000004048 modification Effects 0.000 description 52
- 230000008569 process Effects 0.000 description 51
- 238000000926 separation method Methods 0.000 description 50
- 238000010586 diagram Methods 0.000 description 25
- 238000010191 image analysis Methods 0.000 description 14
- 210000003414 extremity Anatomy 0.000 description 13
- 230000002093 peripheral effect Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 239000003086 colorant Substances 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000005357 flat glass Substances 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- BZHJMEDXRYGGRV-UHFFFAOYSA-N Vinyl chloride Chemical compound ClC=C BZHJMEDXRYGGRV-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 239000012466 permeate Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 229920003002 synthetic resin Polymers 0.000 description 1
- 239000000057 synthetic resin Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
【課題】 被操作装置に対する操作を効果的に検知できる入出力システムを提供する。【解決手段】 入出力システムは、撮影装置に20より撮影された撮影画像に基づいて、ユーザの操作を検知する入出力処理装置10と、シート30とシート30の一方の面に透過したユーザの影とを含む画像を撮影するカメラ20と、透光性を有するシート30と、ユーザの肢体の一部の影がシート30に投影される間隔で、シート30とユーザの肢体とを連結する連結部材70と、入出力処理装置10から出力されたユーザからの操作を実行する被操作装置90とを有する。【選択図】図1PROBLEM TO BE SOLVED: To provide an input / output system capable of effectively detecting an operation on an operated device. An input / output system includes: an input / output processing device that detects a user operation based on a photographed image captured by a photographing device; and a user that has passed through one side of the sheet and the sheet. A camera 20 that captures an image including a shadow, a translucent sheet 30, and a connection that connects the sheet 30 and the user's limbs at an interval at which a shadow of a part of the user's limbs is projected onto the sheet 30. It has the member 70 and the to-be-operated apparatus 90 which performs the operation from the user output from the input-output processing apparatus 10. FIG. [Selection] Figure 1
Description
本発明は、入出力システムに関するものである。 The present invention relates to an input / output system.
例えば、特許文献1には、撮影デバイスと、コンピュータ装置と、を含んで構成され、操作者が遠隔にあるディスプレイに対してポインティング操作を行うためのポインティングシステムであって、前記撮影デバイスは、前記操作者を撮影する撮影部と、前記撮影された操作者の撮影データに基づいて前記操作者の複数の身体上の部位とそれらの位置とを含む骨格情報を取得する撮影データ処理部と、前記操作者の前記骨格情報を出力する骨格情報出力部と、を備え、前記コンピュータ装置は、前記撮影デバイスから前記操作者の前記骨格情報を取得する骨格情報取得部と、前記骨格情報に含まれる前記操作者の身体の一部であって、前記操作者が前記ポインティング操作を行う際に使用する前記操作者の身体の一部である操作点を決定する操作点決定部と、前記操作者が前記ポインティング操作を行う際の不動点である基点を決定する基点決定部と、前記操作者が前記ディスプレイ上の少なくとも第1の位置および第2の位置についてのポインティング操作であるキャリブレーション操作を行った際の前記操作者の前記骨格情報に基づいて、前記第1の位置を指し示した際の前記操作点の位置から前記第2の位置を指し示した際の前記操作点の位置を結ぶ線分を対角線とし、かつ前記第1の位置から鉛直方向または水平方向に延びる直線の一部を一辺とする長方形の仮想タッチパネルを算出する仮想タッチパネル算出部と、前記キャリブレーション操作後に前記操作者が前記操作点を動かした際に、前記操作者の前記骨格情報に基づいて前記操作点の前記仮想タッチパネル上における位置情報を決定し、前記仮想タッチパネルと前記基点との位置関係に基づいて、前記仮想タッチパネル上における位置情報に対応する前記ディスプレイ上の位置を決定する指示位置特定部と、前記指示位置特定部において決定された前記ディスプレイ上の位置を前記ディスプレイに示すための指示位置表示情報を出力する指示位置表示情報出力部と、を備えるポインティングシステムが開示されている。 For example, Patent Literature 1 includes a photographing device and a computer device, and is a pointing system for an operator to perform a pointing operation on a remote display. An imaging unit that images the operator, an imaging data processing unit that acquires skeleton information including a plurality of parts on the body of the operator and their positions based on the captured imaging data of the operator; A skeleton information output unit that outputs the skeleton information of the operator, and the computer device includes a skeleton information acquisition unit that acquires the skeleton information of the operator from the imaging device, and the skeleton information includes An operation point that is a part of the operator's body and is used when the operator performs the pointing operation is determined. A point determination unit, a base point determination unit for determining a base point that is a fixed point when the operator performs the pointing operation, and the operator at least about the first position and the second position on the display Based on the skeleton information of the operator when performing a calibration operation that is a pointing operation, the position when the second position is indicated from the position of the operation point when the first position is indicated A virtual touch panel calculator that calculates a rectangular virtual touch panel having a line connecting the positions of the operation points as a diagonal line and a part of a straight line extending in a vertical direction or a horizontal direction from the first position as one side; and the calibration When the operator moves the operation point after the operation, the operation point is displayed on the virtual touch panel based on the skeleton information of the operator. An instruction position specifying unit that determines a position on the display corresponding to position information on the virtual touch panel based on a positional relationship between the virtual touch panel and the base point; and the instruction position specifying unit And a pointing position display information output unit that outputs pointing position display information for indicating on the display the position on the display determined in (1).
本発明は、被操作装置に対する操作を効果的に検知できる入出力システムを提供することを目的とする。 An object of this invention is to provide the input / output system which can detect the operation with respect to a to-be-operated apparatus effectively.
本発明に係る入出力システムは、透光性を有するスクリーンと、前記スクリーンを含む画像を複数のタイミングで撮影するカメラと、前記カメラにより撮影された撮影画像に基づいて、複数のタイミングにおける前記スクリーンの位置に基づいてユーザの操作を検知する操作検知手段とを有する。 An input / output system according to the present invention includes a translucent screen, a camera that captures an image including the screen at a plurality of timings, and the screen at a plurality of timings based on captured images captured by the camera. Operation detecting means for detecting a user operation based on the position of the user.
好適には、前記操作検知手段は、複数のタイミングにおける前記スクリーンに写ったユーザの影の位置に基づいて、ユーザの操作を検知する。 Preferably, the operation detection unit detects a user operation based on a position of a user's shadow reflected on the screen at a plurality of timings.
好適には、前記スクリーンは、板状であり、当該スクリーンの他方の面に、光源により照射された光をユーザが遮ることにより生じた影を投影され、前記カメラは、前記スクリーンの他方の面に投影された影を当該スクリーンの一方の面から複数のタイミングで撮影し、前記操作検知部は、前記カメラにより撮影された撮影画像における、前記スクリーンの一方の面に透過した光により写った影の位置に基づいて、ユーザの操作を検知する。 Preferably, the screen is plate-like, and a shadow generated by the user blocking the light irradiated by the light source is projected on the other surface of the screen, and the camera is projected on the other surface of the screen. The shadow projected on the screen is photographed at a plurality of times from one surface of the screen, and the operation detection unit is a shadow reflected by light transmitted to the one surface of the screen in the photographed image photographed by the camera. The user's operation is detected based on the position.
好適には、前記スクリーン内における影の位置、影の移動量、影の移動方向、影の移動速度、影の大きさ、又は、影の濃淡を特定する影特定手段と、前記カメラにより撮影された撮影画像内におけるスクリーンの位置、スクリーンの大きさ、スクリーンの移動量、スクリーンの傾き、又は、スクリーンの形状を特定するスクリーン特定手段とをさらに有し、前記操作検知手段は、前記影特定手段により特定された位置、移動量、移動方向、移動速度、又は、大きさ若しくは濃淡と、前記スクリーン特定手段により特定された位置、移動量、傾き、又は、形状との組合せに基づいて、ユーザの操作を検知する。 Preferably, a shadow specifying means for specifying a shadow position, a shadow moving amount, a shadow moving direction, a shadow moving speed, a shadow size, or a shadow shade in the screen, and the camera is photographed. Screen specifying means for specifying the position of the screen in the captured image, the size of the screen, the amount of movement of the screen, the tilt of the screen, or the shape of the screen, and the operation detecting means is the shadow specifying means. Based on the combination of the position, movement amount, movement direction, movement speed, size or shade specified by the above, and the position, movement amount, inclination, or shape specified by the screen specifying means. Detect operation.
好適には、前記カメラにより撮影された撮影画像に基づいて、前記スクリーン内における影の画素を特定する画素特定手段と、前記画素特定手段により特定された影の画素における濃淡の変化を特定する濃淡変化特定手段とをさらに有し、前記操作検知手段は、前記濃淡変化特定手段により特定された影の濃淡の変化に基づいて、ユーザの操作を検知する。 Preferably, on the basis of a photographed image photographed by the camera, a pixel identifying unit that identifies a shadow pixel in the screen, and a shading that identifies a change in shading in the shadow pixel identified by the pixel identifying unit. A change specifying unit, and the operation detecting unit detects a user operation based on a change in shade of the shadow specified by the shade change specifying unit.
好適には、前記カメラにより撮影された撮影画像に基づいて、前記スクリーン内における影の画素を特定する画素特定手段と、前記画素特定手段により特定された影の画素の大きさの変化を特定する大きさ変化特定手段とをさらに有し、前記操作検知手段は、前記大きさ変化特定手段とにより特定された影の大きさの変化に基づいて、ユーザの操作を検知する。 Preferably, on the basis of a photographed image photographed by the camera, a pixel identifying unit that identifies a shadow pixel in the screen and a change in the size of the shadow pixel identified by the pixel identifying unit are identified. A size change specifying unit is further included, and the operation detecting unit detects a user operation based on a change in the size of the shadow specified by the size change specifying unit.
好適には、前記カメラにより撮影された複数の撮影画像に基づいて、前記スクリーンの移動距離を特定する移動距離特定手段をさらに有し、前記操作検知手段は、前記移動距離特定手段に特定された距離に基づいて、ユーザの操作を検知する。 Preferably, the apparatus further includes a moving distance specifying means for specifying a moving distance of the screen based on a plurality of captured images taken by the camera, and the operation detecting means is specified by the moving distance specifying means. The user's operation is detected based on the distance.
好適には、ユーザの肢体の一部の影が前記スクリーンに投影される間隔で、当該スクリーンとユーザの肢体とを連結する連結部材をさらに有し、前記連結部材は、前記スクリーン面視において、当該スクリーンの他方の面と、ユーザの肢体の一部とが対向する位置で、当該スクリーンとユーザの肢体とを連結する。 Preferably, the apparatus further includes a connection member that connects the screen and the user's limb at an interval at which a shadow of a part of the user's limb is projected onto the screen, and the connection member is The screen and the user's limbs are connected at a position where the other surface of the screen and a part of the user's limbs face each other.
好適には、前記カメラにより撮影された撮影画像における前記スクリーンの形状を補正する形状補正手段をさらに有し、前記画素特定手段は、前記形状補正手段により補正された撮影画像内の前記スクリーン内から影の画素を特定する。 Preferably, the image processing apparatus further includes a shape correction unit that corrects a shape of the screen in a captured image captured by the camera, and the pixel specifying unit is configured to detect from within the screen in the captured image corrected by the shape correction unit. Identify shadow pixels.
好適には、前記カメラにより撮影された撮影画像に基づいて、撮影画像に対する前記スクリーンの傾きを特定する傾き特定手段をさらに有し、前記操作検知手段は、前記傾き特定手段により特定された前記スクリーンの傾きに基づいて、ユーザ操作を検知する。 Preferably, the image processing apparatus further includes an inclination specifying unit that specifies an inclination of the screen with respect to the captured image based on a captured image captured by the camera, and the operation detection unit is configured to specify the screen specified by the inclination specifying unit. The user operation is detected based on the inclination of.
好適には、前記スクリーンは、多角形、又は、円形の形状に形成され、一方の面において、全ての領域が単色の色に発色し、撮影画像内における前記スクリーンの発色する色に基づいて、当該スクリーンの領域を特定する領域特定手段をさらに有し、前記濃淡変化特定手段は、前記領域特定手段により特定された前記スクリーン領域内における影の濃淡の変化を特定する。 Preferably, the screen is formed in a polygonal or circular shape, and on one surface, all the areas are colored in a single color, and based on the color developed by the screen in the photographed image, The image processing apparatus further includes area specifying means for specifying the area of the screen, and the shade change specifying means specifies a change in shade of shadow in the screen area specified by the area specifying means.
好適には、前記スクリーンは、一方の面において、中央領域における発色する色と、周縁領域における発色する色とが異なるよう形成され、撮影画像内における前記スクリーンの中央領域の色、及び、周縁領域の色の少なくとも一方の色に基づいて、当該スクリーンの領域を特定する領域特定手段をさらに有し、前記濃淡変化特定手段は、前記領域特定手段により特定された領域内において、前記スクリーン内にある影の濃淡の変化を特定する。 Preferably, the screen is formed so that a color to be developed in the central region and a color to be developed in the peripheral region are different on one surface, and the color of the central region of the screen in the photographed image and the peripheral region And an area specifying means for specifying the area of the screen based on at least one of the colors of the colors, wherein the shade change specifying means is in the screen within the area specified by the area specifying means. Identify changes in shadow shading.
好適には、前記スクリーンの他方の面に光を照射する光源と、前記スクリーンとの離間距離を可変可能に連結する連結部材をさらに有する。 Preferably, a light source that emits light to the other surface of the screen and a connecting member that variably connects a separation distance between the screen and the light source.
好適には、前記スクリーンと異なる色を発色する第2のスクリーンと、撮影された撮影画像に基づいて、前記スクリーンが発色する色と、第2のスクリーンが発色する色とを識別する識別手段とをさらに有し、前記操作検知手段は、前記識別手段により識別された各スクリーン内におけるユーザの影に基づいて、各スクリーン毎のユーザの操作を検知する。 Preferably, a second screen that develops a color different from that of the screen, and an identification unit that identifies, based on the captured image, the color that the screen develops and the color that the second screen develops The operation detection unit detects a user operation for each screen based on the shadow of the user in each screen identified by the identification unit.
好適には、前記スクリーンの他方の面に接続して設けられ、透光性、及び、弾力性を有する緩衝部材をさらに有し、前記画素特定手段は、前記スクリーン及び前記緩衝部材を透過した影の画素を特定する。 Preferably, the display device further includes a buffer member that is connected to the other surface of the screen and has translucency and elasticity, and the pixel specifying unit is a shadow that passes through the screen and the buffer member. Identify the pixels.
好適には、撮影された撮影画像に基づいて、前記スクリーンの領域を分割し、分割した各領域に操作内容を振り分ける領域分割手段をさらに有し、前記濃淡変化特定手段は、前記領域分割手段により分割した領域において、影の濃淡の変化を特定し、前記操作検知手段は、影の濃淡の変化を特定した領域に振り分けられた操作内容を、ユーザの操作として検知する。 Preferably, the image processing apparatus further includes an area dividing unit that divides the screen area based on the captured image and distributes the operation contents to the divided areas. In the divided area, a change in shadow shading is specified, and the operation detection means detects the operation content distributed to the area in which the change in shadow density is specified as a user operation.
好適には、撮影画像における前記スクリーンの既定の位置の座標と被操作装置の表示範囲内におけるポインタの座標とを一致させる同期手段と、前記操作検知手により検知した操作内容を被操作装置に出力する操作内容出力手段とをさらに有し、前記操作検知手は、前記スクリーン特定手段により特定されたスクリーンの位置、及び、移動量と、前記影特定手段により特定されたユーザの手の指先の影の位置、影の移動量、影の移動方向、及び、影の移動速度とに基づいてポインタの移動操作を検知し、又は、前記影特定手段により特定されたユーザの指先の影の大きさの変化、又は、影の濃淡の変化に基づいてポインタの座標におけるクリック操作を検知し、前記操作内容出力手段は、前記操作検知手により検知したポインタの移動操作、又は、クリック操作に基づいて、同期された被操作装置の表示範囲内におけるポインタに出力する。 Preferably, the synchronization means for matching the coordinates of the predetermined position of the screen in the photographed image with the coordinates of the pointer in the display range of the operated device, and the operation content detected by the operation detecting hand is output to the operated device. The operation detecting hand further includes a screen position and a movement amount specified by the screen specifying means, and a shadow of a fingertip of the user's hand specified by the shadow specifying means. The movement of the pointer is detected based on the position, the amount of movement of the shadow, the direction of movement of the shadow, and the speed of movement of the shadow, or the size of the shadow of the user's fingertip specified by the shadow specifying means Detecting a click operation at the coordinates of the pointer based on a change or a change in shading of the shadow, and the operation content output means is a movement operation of the pointer detected by the operation detection hand, Based on the click operation, and outputs to the pointer in the display range of synchronized the operated device.
好適には、ユーザの肢体の一部の影が前記スクリーンに投影される間隔で、当該スクリーンとユーザの肢体とを連結する連結部材をさらに有し、前記連結部材は、前記スクリーン面視において、当該スクリーンの他方の面と、ユーザの肢体の一部とが対向する位置で、当該スクリーンとユーザの肢体とを連結する。 Preferably, the apparatus further includes a connection member that connects the screen and the user's limb at an interval at which a shadow of a part of the user's limb is projected onto the screen, and the connection member is The screen and the user's limbs are connected at a position where the other surface of the screen and a part of the user's limbs face each other.
また、本発明に係る入出力処理装置は、入力された複数のタイミングにおける画像データに基づいて、複数のタイミングにおけるスクリーンのスクリーンの位置、クリーンの大きさ、スクリーンの移動量、スクリーンの傾き、又は、スクリーンの形状を特定するスクリーン特定手段と、入力された複数のタイミングにおける画像データに基づいて、スクリーンに写った影の位置、影の移動量、影の移動方向、影の移動速度、影の大きさ、又は、影の濃淡を特定する影特定手段と、前記スクリーン特定手段により特定された影の位置、移動量、移動方向、移動速度、大きさ、又は、濃淡と、前記影特定手段により特定されたスクリーンの位置、大きさ、移動量、傾き、又は、形状とに基づいてユーザの操作を検知する操作検知手段とを有する。 Further, the input / output processing device according to the present invention is based on the input image data at a plurality of timings, the screen position of the screen at a plurality of timings, the size of the screen, the amount of screen movement, the inclination of the screen, or Based on the screen specifying means for specifying the shape of the screen and the input image data at a plurality of timings, the position of the shadow reflected on the screen, the amount of movement of the shadow, the moving direction of the shadow, the moving speed of the shadow, The shadow specifying means for specifying the size or shade of the shadow, and the position, movement amount, moving direction, moving speed, size, or shade of the shadow specified by the screen specifying means, and the shadow specifying means And an operation detection unit that detects a user operation based on the identified position, size, movement amount, inclination, or shape of the screen.
また、本発明に係る入出力方法は、スクリーンをカメラが複数のタイミングで撮影するステップと、複数のタイミングにおける前記スクリーンの位置に基づいて、ユーザの操作を検知するステップと、検知したユーザの操作を被操作装置に出力するステップとを有する。 The input / output method according to the present invention includes a step in which a camera captures a screen at a plurality of timings, a step of detecting a user operation based on the position of the screen at a plurality of timings, and a detected user operation. Output to the operated device.
また、本発明に係るプログラムは、入力された複数のタイミングにおける画像データに基づいて、複数のタイミングにおけるスクリーンの位置、クリーンの大きさ、スクリーンの移動量、スクリーンの傾き、又は、スクリーンの形状を特定するスクリーン特定機能と、入力された複数のタイミングにおける画像データに基づいて、スクリーンに写った影の位置、影の移動量、影の移動方向、影の移動速度、影の大きさ、又は、影の濃淡を特定する影特定機能と、前記スクリーン特定機能により特定された影の位置、移動量、移動方向、移動速度、大きさ、又は、濃淡と、前記影特定機能により特定されたスクリーンの位置、大きさ、移動量、傾き、又は、形状とに基づいてユーザの操作を検知する操作検知機能とをコンピュータに実現させる。 In addition, the program according to the present invention determines the screen position, the clean size, the screen movement amount, the screen tilt, or the screen shape at a plurality of timings based on the input image data at a plurality of timings. Based on the screen identification function to be identified and the input image data at a plurality of timings, the position of the shadow on the screen, the amount of movement of the shadow, the direction of movement of the shadow, the speed of movement of the shadow, the size of the shadow, or The shadow specifying function for specifying the shade of the shadow and the position, moving amount, moving direction, moving speed, size, or shade of the shadow specified by the screen specifying function and the screen specified by the shadow specifying function. Allows a computer to realize an operation detection function that detects a user operation based on the position, size, movement amount, inclination, or shape.
本発明によれば、被操作装置に対する操作を効果的に検知できる。 According to the present invention, an operation on the operated device can be detected effectively.
本発明における実施形態を、各図面に基づいて説明する。
図1は、実施形態における入出力システム1の構成を説明する図である。
図2は、図1の入出力システム1をより詳細に説明する図である。
図1及び図2に例示すように、本実施形態の入出力システム1は、入出力処理装置10と、カメラ20と、シート30と、連結部材70と、被操作装置90とを有する。
入出力システム1は、室内に、入出力処理装置10、カメラ20、及び、被操作装置90を配置し、室外(廊下や屋外)に、シート30、及び、連結部材70を配置している。なお、室内と室外との間に障害物があるものとする。
室内に配置された入出力処理装置10、カメラ20、及び、被操作装置90は、有線又は無線により互いに接続しており、本実施例の入出力処理装置10およびカメラ20は、ケーブル40Aを介して互いに接続し、カメラ20から入出力処理装置10に情報を送ることができる。また、入出力処理装置10および被操作装置90は、ケーブル40Bを介して互いに接続し、入出力処理装置10から被操作装置90に情報を送ることができる。
また、カメラ20は、障害物に対して撮影方向を向けて配置されている。ここで、障害物とは、例えば、シート30の裏面に透過した影が撮影できる程度の透明な障害物であり、本実施形態の障害物とは、窓ガラスである。つまり、カメラ20は、撮影方向を室外に向けて配置している。
他方、室外にいるユーザは、連結部材70を用いてシート30を装着し、室内にあるカメラ20の撮影可能範囲内にシート30と、シート30に写ったユーザの手の影とが含まれる位置にて入力操作を行う。なお、シート30に写ったユーザの手の影とは、光源Lからのシート30の表面に向けて入射する光の一部をユーザの手が遮る事によりシート30の表面に生じた影と、シート30の表面に生じた影がシート30の裏面に透過した影(透過光による影)とを含む概念である。
Embodiments in the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of an input / output system 1 in the embodiment.
FIG. 2 is a diagram for explaining the input / output system 1 of FIG. 1 in more detail.
As illustrated in FIGS. 1 and 2, the input / output system 1 according to the present embodiment includes an input /
In the input / output system 1, the input /
The input /
In addition, the
On the other hand, a user outside the room wears the
入出力処理装置10は、コンピュータ端末であり、カメラ20を制御してシート30を含む画像をカメラ20に撮影させ、撮影した画像からユーザの入力操作を受け付け、受け付けた入力操作を被操作装置90に出力する。本実施例の入出力処理装置10は、撮影画像に対するシート30の相対的な移動距離と、撮影画像におけるシート30の裏面に透過したユーザの手の影とに基づいて、ユーザの入力操作を受け付け、受け付けた操作内容を被操作装置90に出力する。ここで、撮影画像に対するシート30の相対的な移動距離とは、図2に例示するように、シート30の移動前の撮影画像22と移動後の撮影画像22とに基づいて比較し特定する。具体的には、移動前の撮影画像22に対するシート30の基準点(SX,SY)から、移動後の撮影画像23(不図示)に対するシート30の基準点(EX,EY)に移動した移動距離に基づいて、シート30の移動距離を特定する。また、影に基づくユーザの入力操作とは、影の位置に基づいた操作(例えばポインタ操作)と、影の移動量、移動方向、及び、移動速度に基づいた操作(例えばドラッグ操作)と、影の濃淡及び大きさに基づいた操作(例えばクリック操作)とを含む概念である。
The input /
カメラ20は、静止画像、又は、動画像を撮影する撮影装置であり、複数のタイミングで画像を撮影する。本例のカメラ20は、窓のガラス板を介して、シート30の一方の面(裏面)を含む画像を撮影するデジタルカメラである。カメラ20は、シート30の他方の面(表面)に光源L及びユーザの肢体の一部を配置した状態で、シート30の一方の面(裏面)を撮影可能範囲内に含むよう撮影する。
The
シート30は、透光性を有する板状のスクリーンである。シート30は、透光性を有するならば、着色した板状、半透明な板状、又は、着色した半透明な板状であってもよい。シート30は、透過した影と略同色とならない色(例えば、好適には白等)であれば着色可能である。一方、シート30は、透過した影が認識できない色である黒や灰色である色は不向きである。本例のシート30は、黒や灰色以外の特定色Cで着色した板状のスクリーンである。また、着色したシート30は、単色又は複数色に着色可能である。
また、シート30は、少なくともシート30自身の重さにより略変形しない程度の剛性を有し、好適には、外部から外力が加えられても形状が保てる程度の剛性を有する。
また、シート30は、ユーザの肢体の一部の影が投影できる大きさに形成されている。ここで、ユーザの肢体の一部とは、ユーザの腕または脚の少なくとも一部であり、ユーザの肢体の一部は、手、又は、足を示す概念である。また、ユーザの肢体の一部の影が投影できる大きさとは、ユーザの手、又は、足の影が投影できる程度の大きさである。本例のシート30の大きさは、ユーザの腕の一部である手(手首から指先までの範囲)の影が投影できる大きさである。
また、シート30の形状は、多角形、又は、円形(楕円等を含む)に形成される。なお、本例のシート30の形状は、矩形(長方形)である。
The
Further, the
The
Further, the
連結部材70は、ユーザの手の影がシート30に投影される間隔で、シート30とユーザの腕とを連結する連結固定具である。連結部材70は、シート30面視において、ユーザの腕と対向する位置にシート30を配置する。本実施例の連結部材70は、多軸式アームであり、シート30とユーザの腕とを連結した状態で、ユーザの手に対するシート30の角度や位置を適宜調節することができる。
The connecting
被操作装置90は、入出力処理装置10から出力されたユーザからの操作を実行する出力装置である。被操作装置90とは、例えば、パーソナルコンピュータ90a、産業用ロボット90b、又は、画像表示装置90c等である。
The operated
光源Lは、電球、蛍光灯、又はLEDランプなど照明器具である。光源Lは、シート30のうち、カメラ20が撮影する面の裏面に配置され、シート30の表面に光を照射できる位置に配置される。また、光源Lは、ユーザが屋外にいる場合、太陽や月も含まれる。
The light source L is a lighting fixture such as a light bulb, a fluorescent lamp, or an LED lamp. The light source L is disposed on the back surface of the surface of the
このように、本実施形態の入出力システム1では、上記構成によって、ユーザが手に連結したシート30を移動させる様子をカメラ20が複数回撮影し、撮影された撮影画像から、撮影画像に対するシート30の相対的な移動距離と、シート30の裏面に透過した手の影と基づいて、ユーザの入力操作として検知し、検知した操作内容を被操作装置90に出力する。
As described above, in the input / output system 1 according to the present embodiment, with the above-described configuration, the
次に、シート30の裏面に透過した影の解析方法の概要を説明する。
図3は、図2におけるシート30の裏面に透過した影の解析方法の概要を説明する図である。
図3に例示するように、蛍光灯等の室内照明である光源Lは、室内を隅々まで均一に照らすため、拡散性の光を照射し、発光する部分が点ではなく面で製造されている。室内照明の光源Lから照射された光を遮蔽することにより出来る影は、光を遮蔽する手と光源Lとの距離が互いに近ければ近い程、投影された影の面積は大きくなり、かつ、影の濃さは薄くなる(図3(A))。一方で、光を遮蔽する物体と影を投影するシートとの離間距離を短くすればする程、投影された影の面積は光を遮蔽する物体と略同じ大きさとなり、かつ、影の濃さは濃くなる(図3(B))。言い換えると、天井の照明に無地の薄いA4用紙の平面を向けた状態で、照明とA4用紙との間に手をかざし、A4用紙に手を当てたりA4用紙から手を離したりした場合における、A4用紙に透過した影領域の大小、或は、影の濃淡の変化が生じる。これは、面光源による半影による影周辺輪郭部分のぼやけ、室内の他の物体による散乱光、及び、反射光等の影響が小さくなるため濃く写る。
Next, an outline of a method for analyzing a shadow transmitted through the back surface of the
FIG. 3 is a diagram for explaining the outline of the analysis method of the shadow transmitted through the back surface of the
As illustrated in FIG. 3, the light source L, which is indoor lighting such as a fluorescent lamp, emits diffusive light in order to uniformly illuminate every corner of the room, and the light emitting portion is manufactured with a surface instead of a point. Yes. The shadow that can be obtained by shielding the light emitted from the light source L of the room illumination is such that the closer the distance between the light shielding hand and the light source L is, the larger the projected shadow area is, and The thickness of the film becomes lighter (FIG. 3A). On the other hand, the shorter the distance between the object that shields light and the sheet that projects the shadow, the larger the projected shadow area is and the darkness of the shadow. Becomes darker (FIG. 3B). In other words, with the plain thin A4 paper plane facing the ceiling lighting, hold your hand between the light and the A4 paper, and put your hand on the A4 paper or release your hand from the A4 paper. The size of the shadow area transmitted through the A4 sheet or the change in the shade of the shadow occurs. This is dark because the influence of blurring around the shadow due to the penumbra by the surface light source, scattered light from other objects in the room, reflected light, and the like is reduced.
上記原理を利用し、本実施形態の入出力システムは、光源Lとシート30の離間距離を一定とする。入出力システムは、図3(A)に例示するように、シート30とユーザの手との離間距離が一定距離からさらに長くなった場合、影領域が大きくなり、影の色は薄くなる。一方、図3(B)に例示するように、シート30とユーザ手との離間距離が一定距離から短くなった場合、影領域が小さくなり、影の色は濃くなる。
Utilizing the above principle, the input / output system of the present embodiment makes the distance between the light source L and the
入出力システムは、カメラ20により上記2つの状態を撮影し、撮影した各撮影画像を基準値と比較する事で、シート30とユーザの手との離間距離が基準値以上である場合に、影に基づいたユーザの操作を検知する。具体的には、入出力システムは、シート30とユーザの手との基準となる離間距離を事前に決めておき、その距離における、影の画素数、または、画素の濃さをして基準値としてメモリ記録する。次に、シート30とユーザの手との間の距離を遠ざけたり近づけたりした際の撮影画像内の影の画素数または画素の濃さと、基準値とした影の画素数または画素の濃さと比較する。比較した結果、基準値以上である場合に、影に基づいたユーザの操作を検知する。
The input / output system captures the above two states with the
入出力システムは、影の画素数、及び、画素の濃さ又は大きさの少なくとも一方に基づいて、ユーザの操作を検知する。
入出力システムは、影の画素数に基づいてユーザの操作を検知する場合、カメラの素子、又は、カメラのコンピュータドライバーの種類・性能よっては、シート30を透過した影の微妙な濃淡色を撮影画像として捉えらない場合があるため、透過した影の画素数を用いて離間距離を割り出し、ユーザの操作を検知する方が好適である。また、光源Lが蛍光灯等の面光源ではなく太陽光やフィラメント電球等の点光源である場合には、影の画素数をカウントし、ユーザの操作を検知する方が精度が良い。
The input / output system detects a user operation based on at least one of the number of shadow pixels and the density or size of the pixels.
When the input / output system detects the user's operation based on the number of pixels of the shadow, it captures a subtle shade of the shadow that has passed through the
また、入出力システムは、透過した影の濃淡色に基づいてユーザの操作を検知する場合、透過した影の画素数を常時全てカウントする必要が無いため、軽い処理負荷で処理速度的には高速にユーザ操作を検知できる(何故なら一つ或は2、3の透過した影の部分の画素を抽出してその影の色の濃さを解析するだけで距離を割り出せるため)。 In addition, when the input / output system detects a user's operation based on the shaded color of the transmitted shadow, it is not necessary to always count all the pixels of the transmitted shadow, so the processing speed is high with a light processing load. User operations can be detected (because the distance can be determined by extracting one or a few transparent shadow pixels and analyzing the shadow's color intensity).
また、入出力システムは、透過した影の画素数および濃淡色に基づいてユーザの操作を検知する場合、画素数だけでユーザ操作を検知する場合に比して精度の向上が図れる。これはシート30近傍のユーザの手の形状が変化する(例えば、人差し指のみを立てた状態から全ての指を立てた状態へと遷移する)場合、影の形状もそれに合わせて変化してしまい、それに伴い影の画素数が変化しそれが入力操作ではなく離間距離の変化として捉えられてしまい、画素数の検知だけでは精度低下してしまう恐れが有るが、濃淡色に基づいて検知する手法と併用化する事でその精度低下を防げるためである。
なお、本実施形態の入出力システムは、影の濃淡(濃淡変化特定部520)、及び、影領域の大きさ(大きさ変化特定部521)の両方に基づいて、ユーザの操作を検知する形態を説明するが、これに限定されるものではなく、影領域の大きさ、又は、影の濃淡の一方のみを用いて、ユーザの操作を検知してもよい。
Further, the input / output system can improve the accuracy when detecting the user's operation based on the number of shaded shadow pixels and the shaded color as compared to detecting the user operation only with the number of pixels. This is because when the shape of the user's hand in the vicinity of the
Note that the input / output system of the present embodiment detects a user's operation based on both the shade of shade (the shade change specifying unit 520) and the size of the shadow region (size change specifying unit 521). However, the present invention is not limited to this, and the user's operation may be detected using only one of the size of the shadow area or the shade of the shadow.
図4は、入出力処理装置10のハードウェア構成を例示する図である。
図4に例示するように、入出力処理装置10は、CPU100、メモリ102、HDD104、ネットワークインタフェース106(ネットワークIF106)、表示装置108、及び、入力装置110を有し、これらの構成はバス112を介して互いに接続している。
CPU100は、例えば、中央演算装置である。
メモリ102は、例えば、揮発性メモリであり、主記憶装置として機能する。
HDD104は、例えば、ハードディスクドライブ装置であり、不揮発性の記録装置としてコンピュータプログラム(例えば、図5の入出力プログラム5)やその他のデータファイル(例えば、図5の設定情報データベース590)を格納する。
ネットワークIF106は、有線又は無線で通信するためのインタフェースであり、例えば、入出力処理装置10とカメラ20或は被操作装置90との通信を実現する。
表示装置108は、例えば、液晶ディスプレイであり、入力装置110は、例えば、キーボード及びマウスである。表示装置108及び入力装置110は、これらは専ら図5の設定情報データベース590等に事前保存されている入出力システムのパラメーター設定値、例えば光源Lの周辺環境による照度の補正値やシートの縦横比等をユーザ自身が手作業で調整する際に利用されるが、この調整作業が不要な場合やカメラ20の事前撮影画像より自動調整されるようにする場合は必ずしも必要ではない。
FIG. 4 is a diagram illustrating a hardware configuration of the input /
As illustrated in FIG. 4, the input /
The
The
The
The network IF 106 is an interface for wired or wireless communication, and realizes communication between the input /
The
図5は、入出力処理装置10の機能構成を例示する図である。
図5に例示するように、本例の入出力処理装置10には、入出力プログラム5がインストールされると共に、設定情報データベース590(設定情報DB590)が構成される。
入出力プログラム5は、シート特定部500、影特定部510、操作検知部530、及び、操作信号出力部540を有する。なお、入出力プログラム5の一部又は全部は、ASICなどのハードウェアにより実現されてもよく、また、OS(Operating System)の機能を一部借用して実現されてもよい。
FIG. 5 is a diagram illustrating a functional configuration of the input /
As illustrated in FIG. 5, the input /
The input / output program 5 includes a
(シート特定部500)
図6は、図5のシート特定部500をより詳細に説明する図である。
入出力プログラム5において、シート特定部500は、図6に例示するように、領域特定部502、形状特定部504、形状補正部507、及び、移動距離特定部508を有する。
(Sheet identification part 500)
FIG. 6 is a diagram illustrating the
In the input / output program 5, the
領域特定部502は、カメラ20により撮影された撮影画像内におけるシート30の色に基づいて、シート30の領域を特定する。本例の領域特定部502は、撮影画像の画素を順次走査して解析し、特定色Cのカラー値(RGB値)が連続する領域を特定することにより、特定色Cで着色したシート30の領域を特定する。
The
形状特定部504は、カメラ20により撮影された撮影画像におけるシート30の形状を特定する。本例の形状特定部504は、領域特定部502により特定されたシート30の特定色Cの画素部分を抽出し、抽出した画素部分から影部分を含むシート30の全体形状を特定する。
The
形状補正部507は、形状特定部504により特定されたシート30の全体形状から、シート30の変形(例えば傾きや撓み)を、変形前の形状に補正する。本実施例の形状補正部507は、設定情報データベース590に事前入力された長方形の形状をしたシート30の縦横の比率を基準値として、この基準値と、前述の形状特定部504により特定されたシート30の形状と比較して、シート30本来の縦横比と傾きによる遠近や撓みにより発生した差異を計算し、計算結果に基づいて本来の長方形の形状となるように形状を補正する。
The
移動距離特定部508は、カメラ20により複数のタイミングで撮影された複数の撮影画像に基づいて、シート30の移動量を特定する。移動距離特定部508は、カメラ20により撮影された複数の撮影画像から、シート30の移動前の撮影画像と、シート30の移動後の撮影画像と比較し、撮影画像内におけるシート30の移動量を特定する。本例の移動距離特定部508は、撮影画像内におけるシート30の左隅の開始位置座標を基準点とし、シート30の移動前後の撮影画像から基準点の移動量を特定する。
The movement
(影特定部510)
図7は、図5の影特定部510をより詳細に説明する図である。
図7に例示するように、影特定部510は、基準値設定部511、画素特定部512、位置特定部514、移動距離特定部516、移動方向特定部517、移動速度特定部518、濃淡変化特定部520、大きさ変化特定部521、及び、離間距離特定部522を有する。
(Shadow identification unit 510)
FIG. 7 is a diagram for explaining the
As illustrated in FIG. 7, the
基準値設定部511は、シート30とユーザの手との既定の離間距離における影領域の画素値(より具体的には画素のカラー値等の示すRGB値)、及び、その画素数を基準値として設定する。この基準値設定部511に設定された基準値は、シート30とユーザの手との予め決められた既定の離間距離毎の影領域の画素値と画素数とし、シート30とユーザの手が任意の離間距離に有る場合において、その離間距離を相対算出する際の指標となる。基準値設定部511は、シート30とユーザの手が既定の離間距離に配置された際の影領域の画素値と画素数とを別途事前測定し、それを直接マニュアル入力する事により基準値として設定しても良いし、シート30とユーザの手が前述の既定の離間距離やある特定距離に配置した際の撮影画像から自動的に基準値を設定出来るようにしても良い。また、撮影画像から自動的に設定する際に基準値設定部511が基準値として設定する画素値は、後述する濃淡変化特定部520がシート30とユーザの手が前述既定の離間距離に配置された際にシート30に発生した影領域部分の画素の色データー値つまりRGB値によりその濃淡の特定作業を行い、一方、基準値として設定する画素数は、後述する大きさ変化特定部521或は画素特定部512がその影領域の画素数をカウントすることにより特定作業を行い、これらの特定された画素値と画素数が基準値として基準値設定部511により記憶設定される。
なお、基準値設定部511は、自動的に基準値を設定する場合、周辺の照度環境の影響を撮影画像より一定間隔で取り込む事で動的に補正した画素値を設定出来るようにして精度向上を図っても良い。
なお、本例の基準値設定部511は、例えば、事前測定により基準値を設定し、例えば、シート30にユーザの手(例えば人差し指を立てた状態の手)が接触した状態(基準離間距離Z0)(入力状態)の画素値、及び、画素数を基準値C0とし、シート30とユーザの手とが離間した状態(基準離間距離Z5)(未入力状態)の画素値、及び、画素数を基準値C5とを設定する。
The reference
When the reference value is automatically set, the reference
Note that the reference
画素特定部512は、カメラ20により撮影された撮影画像に基づいて、光源Lからシート30に照射された光をユーザが遮ることにより生じた、シート30内における影の領域の画素を特定する。具体的には、画素特定部512は、領域特定部502により特定されたシート30の領域内における影領域の画素を特定する。画素特定部512は、カメラ20により複数のタイミングで撮影された各画像を解析してシート30の領域内の影領域の画素を特定する。画素特定部512は、例えば、影の色を黒と仮定(つまりRGB値=0)し、黒と同色または黒に近似する色の画素を特定することにより、特定した画素が連続する領域を影領域とする。
また、画素特定部512は、例えば、シート30の特定色Cのカラー値(RGB値)である画素の領域以外の部分の画素を特定し、特定した画素が連続する領域を影領域としてもよい。これにより、間接的にシート30の領域内における影領域の画素を特定する。なお、本実施例の画素特定部512は、黒と同色または黒に近似する色の画素が連続する領域を特定することにより、シート30の領域内における影領域とする。
Based on the captured image captured by the
In addition, the
位置特定部514は、カメラ20により撮影された撮影画像におけるシート30の領域内のユーザの手、或はユーザの手の特定部位の影の位置を特定する。具体的には、位置特定部514は、画素特定部512より特定されたシート30内の影領域(正確には影のエリア)の各画素のうちユーザの手の部分に該当する画素全てのエリア、或はユーザの手の特定部位の画素エリアを抽出しその位置を特定する。
本実施例の位置特定部514は、画素特定部512により特定されたユーザの手の影のうち、撮影画像のシート30における指先の位置を特定する。なお、指先の特定方法については前述の影領域の内、カメラ撮影画像の内最も左上、或は右上の位置の画素の座標を指先の位置と見做す事により特定しても良いし、人差し指でシート30を押下する場合において指先近傍エリアが最も影が濃くなるためその原理を利用して、手の影の画素の内一定以上の影の濃さ以上の画素を全て抽出し、その縦横の中心の位置の画素を割り出して指先の影の位置として見做す事で特定しても良い。勿論、影領域全体をユーザの手と見做してシステムを構成しても良い。
なお、位置特定部514は、前述シート特定部500や領域特定部502で特定したカメラ撮影画像内のシート30領域と相対比較する事でシート30内におけるユーザの手の影の相対位置を算出可能である。
The
The
The
移動距離特定部516は、カメラ20により撮影された複数のタイミングにおけるユーザの影の移動量を特定する。具体的には、移動距離特定部516は、位置特定部514により特定されたユーザの手の影の位置を前述の複数のタイミングで求めて、それらの位置変化を算出する事により移動量を特定する。本実施例の移動距離特定部516は、位置特定部514により特定されたユーザの指先の影における移動量を特定する。移動距離特定部516は、カメラ20により複数のタイミングで撮影された複数の撮影画像から、移動前後のユーザの指先の影の位置を比較し、撮影画像(シート30内)におけるユーザの指先の影の移動量を特定する。
The movement
移動方向特定部517は、カメラ20により撮影された複数のタイミングにおける影の移動方向を特定する。具体的には、移動方向特定部517は、位置特定部514により特定されたユーザの手の影における撮影画像(シート30内)に対する移動方向を特定する。本実施例の移動方向特定部517は、位置特定部514により特定されたユーザの指先の影における移動方向を特定する。移動方向特定部517は、カメラ20により複数のタイミングで撮影された撮影画像から、移動前後のユーザの指先の影の位置に基づいて、撮影画像(シート30内)におけるユーザの指先の影の移動方向を特定する。
The movement
移動速度特定部518は、カメラ20により撮影された複数のタイミングにおける影の移動速度を特定する。移動速度特定部518は、移動距離特定部516により特定されたユーザの影の移動量と、複数のタイミングで撮影された撮影画像の撮影間隔時間とに基づいて影の移動速度を特定する。本実施例の移動速度特定部518は、移動距離特定部516により特定されたユーザの指先の影の移動量と、移動前後の撮影画像の撮影間隔時間とに基づいて、撮影画像(シート30内)におけるユーザの指先の影の移動速度を特定する。
The moving
濃淡変化特定部520は、画素特定部512により特定された影の画素における濃淡の変化を特定する。具体的には、濃淡変化特定部520は、シート30とユーザの手とにおける既定の離間距離を基準とした画素値を基準値として、この基準値と、複数のタイミングで撮影された画像の影領域の画素値とを比較して、画素値の増減を影の濃淡の変化とする。また、濃淡変化特定部520は、基準値より画素値の濃さが上回っているか否かに基づいて、影の画素の2値情報を特定する。
The light / dark
大きさ変化特定部521は、カメラ20により複数のタイミングで撮影された複数の画像データから、光源Lから照射された光をユーザが遮ることにより生じる影領域の大きさを比較して、影の大きさの変化を特定する。本実施例の大きさ変化特定部521は、画素特定部512により特定された影領域の広さの増減を影の大きさの変化とする。具体的には、大きさ変化特定部521は、影領域の画素数に基づいて影領域の広さの変化を特定する。大きさ変化特定部521は、シート30とユーザの手とにおける既定の離間距離を基準とした画素数を基準値として、この基準値と、複数のタイミングで撮影された画像の影領域の画素数とを比較して、影領域の広さの増減を影の大きさの変化とする。
The size
離間距離特定部522は、濃淡変化特定部520により特定された濃淡の変化、又は、大きさ変化特定部521により特定された影領域の大きさの変化に基づいて、シート30からユーザまでの距離を特定する。ここで、距離の特定とは、実際の距離(数値)を測定することに限定されるものではなく、距離の変化状況(近づいている/遠ざかっている、或いは、最も近づいた瞬間)であってもよいし、基準値よりも近い又は遠いという判定結果であってもよい。
本例の離間距離特定部522は、濃淡変化特定部520により特定された濃淡の変化、及び、大きさ変化特定部521により特定された影領域の大きさの変化に基づいて、ユーザの手の最近接点(例えば指先)と、シート30の距離が事前に決めておいた基準の距離(シート30に触れているとみなして良い距離)よりも近いか否かを判定する。
The separation
The separation
(操作検知部530)
図5に例示するように、操作検知部530は、シート30による入力操作と、シート30に透過した影による入力操作とを監視し、ユーザの操作として検知する。
シート30による入力操作として、操作検知部530は、カメラ20により撮影された撮影画像に基づいて、シート特定部500により特定されたシート30の移動量を検知する。
また、影による入力操作として、操作検知部530は、影特定部510により特定された影の位置と、影の移動量と、影の移動方向と、影の移動速度と、影の濃淡又は影の大きさとの組み合わせに基づいて、ユーザの操作を検知する。本例の操作検知部530は、影の指先の位置を基準とし、基準とした位置からの移動量、移動方向、及び、移動速度に基づいた影の移動操作と、影の大きさ、又は、影の濃淡の変化に基づいた影の入出力操作との組み合わせに基づいてユーザの操作とする。
(Operation detection unit 530)
As illustrated in FIG. 5, the operation detection unit 530 monitors an input operation by the
As an input operation by the
In addition, as an input operation using a shadow, the operation detection unit 530 includes a position of the shadow specified by the
(操作信号出力部540)
操作信号出力部540は、操作検知部530によりユーザの操作が検知された場合に、検知されたユーザ操作に対応した応答信号を被操作装置90に対応した形で出力する。
本例の操作信号出力部540は、操作検知部530によりユーザの操作が検知された場合に、検知したシート30の移動量と、検知したユーザの指先の影の位置、移動量、移動方向、及び、移動速度等とに基づいた入力操作をポインタの表示座標制御信号として、ユーザの指先の影の大きさ、又は、影の濃淡の変化に基づいた入出力操作を同ポインタに対するクリック操作を制御するON−OFF信号として被操作装置90(例えば画像表示装置90c)に出力させる。
なお、被操作装置90が産業用ロボット90b等の場合は、前述の指先の影の位置や移動方向等に基づいた入力操作をそのロボットの位置や移動方向を制御する信号として出力しても良い。
このように、入出力プログラム5は、シート特定部500、影特定部510、操作検知部530、及び、操作信号出力部540により構成されている。
(Operation signal output unit 540)
When the operation detection unit 530 detects a user operation, the operation
The operation
When the operated
As described above, the input / output program 5 includes the
図8は、シート30に透過したユーザの影の画像解析イメージを説明する図である。
図8(A)は、シート30とユーザの手との離間距離が基準離間距離Z5より遠い場合の画像解析イメージを例示する図であり、図8(B)は、シート30とユーザの手との離間距離が基準離間距離Z5より近い場合の画像解析イメージを例示する図である。
入出力プログラム1は、予め、基準値設定部511により、シート30とユーザの手とが離間した状態(基準離間距離Z5)(未入力状態)の画素値(より具体的には画素のカラー値等の示すRGB値)、及び、画素数を基準値C5として設定する。
FIG. 8 is a diagram for explaining an image analysis image of a user's shadow transmitted through the
FIG. 8A is a diagram illustrating an image analysis image when the separation distance between the
The input / output program 1 previously stores pixel values (more specifically, pixel color values) in a state where the
図8に例示するように、カメラ20はシート30とユーザの手とが離間した状態(基準離間距離Z7)を撮影し、入出力装置20は撮影画像を解析する。
画素特定部512は、撮影画像のシート30の領域内の画素を撮影画像の左隅または右隅から順次走査して解析し、位置特定部514は、黒と同色または黒に近似する色の画素を初めて特定した部分の画素を、例えば指先に位置する画素として特定する。なお、指先の位置の画素に着目した理由として、入力操作時の手において指先がシート30に最も接近するためである。
濃淡変化特定部520は、位置特定部514により特定された指先の位置における画素の画素値と、基準値設定部511で設定された画素値の基準値C5とを比較し、両者の相対的な濃淡値やその基準値に比して明るいか否かの2値情報を特定する。
As illustrated in FIG. 8, the
The
The light / dark
図8(A)に例示するように、濃淡変化特定部520は、位置特定部514により特定された指先の位置における画素の画素値が基準値C5の画素値に比して明るい(薄い)場合、明るい(薄い)状態を示す2値情報の値を出力する。
また、大きさ変化特定部521は、画素特定部512により特定されたユーザの影の領域の画素数と、基準値C5の画素数とを相対値を計算し、それにより得られる相対的な影領域が大きい場合、影領域が大きい状態を示す値を出力する。
離間距離特定部516は、濃淡変化特定部520により特定された明るい(薄い)状態を示す2値情報の値と、大きさ変化特定部521はより特定された影領域が大きい状態を示す値とに基づいて、基準離間距離Z5により、離間距離Z7の方が、シート30とユーザの手とが遠いと判定する。つまり、離間距離特定部516は、シート30とユーザの手が遠い状態つまりOFFと判定する。
As illustrated in FIG. 8A, the light / dark
The size
The separation
他方、図8(B)に例示するように、濃淡変化特定部520は、位置特定部514により特定された指先の位置における画素の画素値が基準値C5の画素値に比して暗い(濃い)場合、暗い(濃い)状態を示す2値情報の値を出力する。
また、大きさ変化特定部521は、画素特定部512により特定されたユーザの影の領域の画素数と、基準値C5の画素数とを相対値を計算し、それにより得られる相対的な影領域が小さい場合、影領域が小さい状態を示す値を出力する。
離間距離特定部516は、濃淡変化特定部520により特定された暗い(濃い)状態を示す2値情報の値と、大きさ変化特定部521はより特定された影領域が小さい状態を示す値とに基づいて、基準離間距離Z5により、離間距離Z7の方が、シート30とユーザの手とが近いと判定する。つまり、離間距離特定部516は、シート30とユーザの手が近い状態つまりONと判定する。
なお、本実施形態の入出力システムの離間距離特定部516は、影の濃淡(濃淡変化特定部520)、及び、影領域の大きさ(大きさ変化特定部521)の両方に基づいて、シート30とユーザの手との離間距離を特定する形態を説明するが、これに限定されるものではなく、影領域の大きさ、又は、影の濃淡の一方のみを用いて、離間距離を特定してもよい。
離間距離特定部516は、シート30とユーザの手との遠近判定において、前述の影の濃淡(2値情報)と、影領域の大きさ(相対的な影領域の大小の増減)との両方を利用して判定することにより遠近判定精度を高めることができる。また、離間距離特定部516は、影領域の大きさ、又は、影の濃淡の一方のみを用いて遠近判定を行うことにより、処理速度向上させることができる。例えば、影の濃淡(2値情報)だけ用いて判定するようにすれば、影領域の画素を全て抽出する必要がなく、位置特定部514で特定されたユーザの指先の位置の画素値の解析だけに限定できるため処理速度向上が図れる。
このように、入出力システム1は、撮影された撮影画像における影領域のうち、ユーザの手の指先に位置の画素に着目した場合の画像解析を行うことにより、画像全体の画素を走査解析することなく、ユーザの指先の位置を特定できるため、軽い処理負荷で高速にユーザ操作を検知できる。これにより、例えば、空中配置したタッチパッド(トラックパッド等)に適したシステムとすることができる。
On the other hand, as illustrated in FIG. 8B, the shading
The size
The separation
Note that the separation
In the perspective determination between the
As described above, the input / output system 1 scans and analyzes the pixels of the entire image by performing image analysis when focusing on the pixel located at the fingertip of the user's hand in the shadow region in the captured image. Therefore, since the position of the user's fingertip can be specified, the user operation can be detected at high speed with a light processing load. Thereby, for example, a system suitable for a touch pad (track pad or the like) disposed in the air can be obtained.
図9は、シート30の形状を特定する画像解析イメージを例示する図である。図9(A)は、撮影画像内における撓んだ状態のシート30の画像解析イメージを例示する図であり、図9(B)は、撮影画像内における傾斜した状態のシート30の画像解析イメージを例示する図である。
図9(A)に例示するように、カメラ20は、撮影範囲の外周上辺に対して角度R1、及び、撮影範囲の外周下辺に対して角度R2傾いたシート30を撮影する。よって、画像解析時におけるシート30は、撮影画像外周の上辺に対して角度R1、及び、下辺に対して角度R2傾いている。
形状特定部504は、領域特定部502により特定されたシート30の特定色Cの画素部分を抽出し、抽出した画素部分から影部分を含むシート30の全体形状を特定する。
形状補正部507は、特定されたシート30の全体形状から、角度R1、及び、角度R2の角度傾きを算出し、変形前のシート30の形状に補正する。
なお、算出した前述の角度R1、及び、角度R2の角度傾きの値を、ユーザの指先の影の位置、移動量と一緒に操作信号出力部540から出力できるように拡張しても良い。こうする事により、例えば、ユーザがシート30を大きく傾けた際にユーザがキーボードのShiftキー等の何らかのキーを押下した操作と同じ意味を付加する事が可能(つまりShiftキーを押したままのタッチパッド操作の再現が可能)となり、シート30に対する操作だけで多様な操作が可能になる。
FIG. 9 is a diagram illustrating an image analysis image that identifies the shape of the
As illustrated in FIG. 9A, the
The
The
Note that the calculated values of the angle R1 and the angle inclination of the angle R2 may be extended so that the operation
また、図9(B)に例示するように、カメラ20は、撮影方向に対して角度Tの角度で傾斜したシート30を撮影する。シート30は、例えば、カメラ20に対して上辺が近く、下辺が遠くなるよう傾斜している。よって、画像解析時におけるシート30は、上辺A1の画素数の方が、下辺A2の画素数より多い逆台形状となっている。
形状特定部504は、領域特定部502により特定されたシート30の特定色Cの画素部分を抽出し、抽出した画素部分から影部分を含むシート30の全体形状を特定する。
形状補正部507は、特定されたシート30の全体形状から、上辺A1と下辺A2との比率を算出し、遠近の原理により傾斜角度Tを求めることができる。これにより、形状補正部507は、変形前のシート30の形状に補正することができる。また、操作検知部530は、影の位置と、影の移動量とに加えて、算出した前述の傾斜角度Tの値をユーザの操作内容として検知し、操作信号出力部540は、操作検知部530により検知された操作内容を被操作装置90に出力するよう拡張しても良い。これより多様な操作が可能になる。
なお、上辺及び下辺の場合を説明したが、右辺及び左辺の場合も同様のためその説明は割愛する。
Further, as illustrated in FIG. 9B, the
The
The
Although the case of the upper side and the lower side has been described, the same applies to the case of the right side and the left side, and the description thereof will be omitted.
図10は、入出力システム1における入出力処理(S10)を説明するフローチャートである。なお、入出力処理(S10)は、基準値設定部511による基準値の設定を完了していることを前提として説明する。また、入出力処理(S10)は、カメラ20が撮影する毎に行う処理である。
まず、基準値の設定を説明する。
ユーザは、入出力処理(S10)を行う前に基準値の設定を行う。ユーザは、連結部材70を介してユーザの手と対向する位置にシート30を配置し、シート30に手を接触させた状態(基準離間距離Z0)(入力状態)と、シート30と手とが離間した状態(基準離間距離Z5)(未入力状態)とをカメラ20に撮影させる。
基準値設定部511は、シート30に手を接触させた状態(基準離間距離Z0)の画素値、及び、画素数を基準値C0とし、シート30と手とが離間した状態(基準離間距離Z5)の画素値、及び、画素数を基準値C5として設定する。このとき、ユーザの手の形状は、例えば人差し指を立てた状態であると仮定して説明する。
FIG. 10 is a flowchart illustrating the input / output process (S10) in the input / output system 1. The input / output process (S10) will be described on the assumption that the reference value setting by the reference
First, the setting of the reference value will be described.
The user sets the reference value before performing the input / output process (S10). The user arranges the
The reference
図10に例示するように、ステップ100(S100)において、カメラ20は、定期的にシート30を撮影し、撮影した撮影画像を入出力処理装置10に送信する。
ステップ102(S102)において、入出力処理(S10)は、シート入力処理(S20)の処理を行う。入出力処理(S10)は、シート入力処理(S20)の処理を終了後に、ステップ104(S104)の処理に移行する。
ステップ104(S104)において、入出力処理(S10)は、影入力処理(S30)の処理を行う。入出力処理(S10)は、影入力処理(S30)の処理を終了後に、ステップ106(S106)の処理に移行する。
ステップ106(S106)において、操作信号出力部540は、シート入力処理(S20)の処理により出力された操作内容と、影入力処理(S30)の処理により出力された操作内容とをユーザの操作内容として、被操作装置90に出力する。
シート入力処理(S20)の処理により出力された操作内容とは、シート30の移動量に基づいた影の入力操作(ポインタ移動操作)であり、影入力処理(S30)の処理により出力された操作内容とは、影の指先の移動量、移動方向、及び、移動速度に基づいた影の移動操作(ポインタ移動操作)と、影の大きさ、又は、影の濃淡の変化に基づいた影の入力操作(いわゆるクリック操作)との組み合わせ操作である。
As illustrated in FIG. 10, in step 100 (S <b> 100), the
In step 102 (S102), the input / output process (S10) performs the sheet input process (S20). In the input / output process (S10), after the process of the sheet input process (S20) is completed, the process proceeds to the process of step 104 (S104).
In step 104 (S104), the input / output process (S10) performs the shadow input process (S30). In the input / output process (S10), after finishing the shadow input process (S30), the process proceeds to step 106 (S106).
In step 106 (S106), the operation
The operation content output by the process of the sheet input process (S20) is a shadow input operation (pointer movement operation) based on the movement amount of the
図11は、入出力システム1におけるシート入力処理(S20)を説明するフローチャートである。
図11に例示するように、ステップ200(S200)において、領域特定部502は、カメラ20により撮影された撮影画像を順次走査して解析し、特定色Cのカラー値(RGB値)が連続する領域を特定することにより、特定色Cで着色したシート30の領域を特定する。形状特定部504は、領域特定部502により特定されたシート30の特定色Cの画素部分を抽出し、抽出した画素部分からシート30の全体形状を特定する。
FIG. 11 is a flowchart illustrating sheet input processing (S20) in the input / output system 1.
As illustrated in FIG. 11, in step 200 (S200), the
ステップ202(S202)において、形状補正部507は、特定したシート30の全体形状が変形(例えば傾きや撓み)しているか否かを判定する。
シート入力処理(S20)は、形状補正部507により特定されたシート30の形状が変形している場合に、S204の処理に移行し、特定したシート30の形状が変形していなかった場合に、S206の処理に移行する。
In step 202 (S202), the
In the sheet input process (S20), when the shape of the
ステップ204(S204)において、形状補正部507は、シート30の変形(例えば傾きや撓み)を特定し、変形前の形状に補正する。
In step 204 (S204), the
ステップ206(S206)において、操作検知部530は、シート30の移動の有無を検知する。操作検知部530は、移動距離特定部508により特定されたシート30の移動量の有無を検知する。
シート入力処理(S20)は、ユーザの操作が検知された場合に、S208の処理に移行し、ユーザの操作が検知されなかった場合に、本シート入力処理(S20)を終了させる。
In step 206 (S206), the operation detection unit 530 detects whether or not the
The sheet input process (S20) proceeds to the process of S208 when a user operation is detected, and ends the sheet input process (S20) when the user operation is not detected.
ステップ208(S208)において、移動距離特定部508は、カメラ20により撮影された複数の撮影画像から、シート30の移動前後の撮影画像を比較する。移動距離特定部508は、シート30の左隅の開始位置座標を基準点とし、基準点の移動距離をシート30の移動量として特定する。なお、図11のフローチャートはあくまで一例である。例えばシート30の位置や移動量だけでなく傾き入出力システム1の出力値の一つとして利用する場合はその処理を別途追加する必要が有る。
In step 208 (S208), the moving
ステップ210(S210)において、シート特定部500は、操作検知部530へ検知されたシート30の移動検知信号を出力すると共に、移動距離特定部508により特定されたシート30の移動量を操作信号出力部540に出力する。なお、検知信号を出力する代わりにシート30の移動状態を監視するフラグを適当な共有メモリ空間に用意して、それをONにして移動有り無しの状態を外部の処理ルーチンやオブジェクト、或は被操作装置90等が任意のタイミングで参照出来るようにしても良い。
シート入力処理(S20)は、S208の処理終了後に、入出力処理(S10)のS104の処理に移行する。
In step 210 (S210), the
The sheet input process (S20) proceeds to the process of S104 of the input / output process (S10) after the process of S208 ends.
図12は、入出力システム1における影入力処理(S30)を説明するフローチャートである。
図12に例示するように、ステップ300(S300)において、画素特定部512は、領域特定部502により特定されたシート30の領域内における影領域(を示す黒と同色または黒に近似する色)の画素が連続する領域を特定する。なお、この時の特定に用いる具体的なアルゴリズム例としては、シート30領域内の画素の中から黒色に近いRGB値を指定して特定するか、シート30の色である特定色CのRGB値を用いてそれ以外の領域を抽出して特定する方法等が挙げられる。なお、本実施例の画素特定部512は、黒と同色または黒に近似する色を指定し、指定した画素が連続する領域を特定することにより、シート30の領域内における影領域を特定する。
FIG. 12 is a flowchart illustrating the shadow input process (S30) in the input / output system 1.
As illustrated in FIG. 12, in step 300 (S <b> 300), the
ステップ302(S302)において、影特定部510は、画素特定部512により特定された影領域(を示す黒と同色または黒に近似する色)の画素が連続する領域を特定し他か否かを判定する。
影入力処理(S30)は、影特定部510により影領域を特定された場合に、S304の処理に移行し、影領域を特定されない(つまりシート30近傍にユーザの手が存在しない)場合に、本影入力処理(S30)を終了させる。
なお、この判定時に影領域の画素の連続数つまり影領域の面積の閾値を多めにして撮影画像のノイズを減じて精度を高めても良い。逆に影領域の画素が一つでも見つかった場合に影領域が有ると判断するようにして影領域を検知する感度を高めても良い。
In step 302 (S302), the
The shadow input process (S30) proceeds to the process of S304 when the shadow area is specified by the
In this determination, the number of continuous pixels in the shadow region, that is, the threshold value of the shadow region area may be increased to reduce the noise of the photographed image to increase the accuracy. Conversely, the sensitivity of detecting a shadow area may be increased by determining that there is a shadow area when even one pixel in the shadow area is found.
ステップ304(S304)において、位置特定部514は、画素特定部512により特定された影領域の内、ユーザの手の指先部分の影の画素の座標を特定する。なお、この時の特定に用いる具体的なアルゴリズム例としては、画素特定部で特定した影領域の内、最も左上、或は右上の位置の画素の座標を指先の位置と見做す事により特定する方法、もしくは影領域の中心の位置の画素を割り出して指先の位置として見做す事で特定する方法等が挙げられる。
In step 304 (S304), the
ステップ306(S306)において、移動距離特定部516は、位置特定部514により特定されたユーザの手の影における移動量を特定し、移動方向特定部517は、位置特定部514により特定されたユーザの指先の影における移動方向を特定する。また、移動速度特定部518は、移動距離特定部516により特定されたユーザの指先の影の移動量と、移動前後の撮影画像の撮影間隔時間とに基づいて、撮影画像(シート30内)におけるユーザの指先の影の移動速度を特定する。(いわゆるポインタ移動操作)
In step 306 (S306), the moving
ステップ308(S308)において、濃淡変化特定部520は、位置特定部514により特定されたユーザの手の指先部分の影の画素の画素値(つまりRGB値)における濃淡の変化を特定する。また、大きさ変化特定部520は、位置特定部514により特定されたユーザの手の指先部分の影の画素の範囲つまり大きさを特定する。
In step 308 (S308), the light / dark
ステップ310(S310)において、濃淡変化特定部520は、特定したユーザの手の指先部分の影の画素の画素値と、基準値設定部511により設定した基準値C5の画素値とを相対比較する。また、大きさ変化特定部520は、特定したユーザの手の指先部分の影領域と、基準値設定部511により設定した基準値C5の画素領域とを相対比較する。
離間距離特定部522は、濃淡変化特定部520により特定された濃淡の変化、及び、大きさ変化特定部521により特定された影領域の大きさの変化に基づいて、シート30からユーザまでの距離を算出する。
In step 310 (S310), the light / dark
The separation
ステップ312(S312)において、影特定部510は、濃淡変化特定部520により特定されたユーザの手の指先部分の影の画素の画素値と、基準値設定部511により設定した基準値C5の画素値との比較結果、及び、大きさ変化特定部520により特定されたユーザの手の指先部分の影領域と、基準値設定部511により設定した基準値C5の画素領域との比較結果に基づいて、ユーザの手の指先部分の影が基準値C5より濃いか否かを判定する。
影入力処理(S30)は、影特定部510により画素が基準値より濃い(暗い)、換言するとシート30とユーザの指先が近い場合に、S314に移行し、画素が基準値より薄い(明るい)、換言するとシート30とユーザの指先が遠い場合に、S316に移行する。
In step 312 (S312), the
In the shadow input process (S30), when the pixel is darker (darker) than the reference value by the
ステップ314(S314)において、濃淡変化特定部520は、位置特定部514により特定された指先の位置における画素の画素値が基準値C5の画素値に比して濃い(暗い)場合、濃い(暗い)状態を示すONを2値情報に設定する。
In step 314 (S314), the light / dark
ステップ316(S316)において、濃淡変化特定部520は、位置特定部514により特定された指先の位置における画素の画素値が基準値C5の画素値に比して薄い(明るい)場合、薄い(明るい)状態を示すOFFを2値情報に設定する。
なお、2値情報を設定する場合において、本例のS314及びS316のように基準値に基づいて濃淡を比較する方法に限定するものではなく、例えば前述のS310で算出した離間距離に基づいて、シート30とユーザの手の指先の離間距離が5mm以下の状態になればONを、離間距離が5mm以上ならOFFを2値情報に設定しても良い。
In step 316 (S316), the light / dark
In the case of setting the binary information, the method is not limited to the method of comparing the shades based on the reference values as in S314 and S316 of this example, for example, based on the separation distance calculated in S310 described above, The binary information may be set to ON when the separation distance between the
ステップ318(S318)において、影特定部510は、操作検知部530により検知された影による何らかの操作検知信号と共に、位置特定部514により特定された影の位置、移動距離特定部516により特定された移動量、及び、離間距離特定部522により特定されたシート30とのユーザの手の離間距離と、濃淡変化特定部20により特定された近い遠いの離間距離の状態を示す2値情報等の数値とを操作信号出力部540に出力する。
なお、検知信号を出力する代わりに影による何らかの操作の検知有無を示すフラグを適当な共有メモリ空間に用意して、それをONにして影による操作の検知の有無を外部の処理ルーチンやオブジェクト、或は被操作装置90等が任意のタイミングで参照出来るようにしても良い。
影入力処理(S30)は、S312の処理終了後に、入出力処理(S10)のS106の処理に移行する。
In step 318 (S318), the
Instead of outputting a detection signal, a flag indicating whether or not some operation is detected by a shadow is prepared in an appropriate shared memory space, and it is turned on to determine whether or not an operation by a shadow is detected by an external processing routine or object, Alternatively, the operated
The shadow input process (S30) proceeds to the process of S106 of the input / output process (S10) after the process of S312 ends.
以上説明したように、本実施形態の入出力システム1によれば、ユーザと、シート30に透過した影とを含む撮影画像からユーザの操作を検知することにより、カメラ20とユーザとの間に窓等が介在しても、被操作装置90を遠隔地から操作可能なポインティングデバイスとすることができる。また、入出力システム1は、入出力装置10、カメラ20、及び、被操作装置90を屋内に配置出来るため屋外の風雨に晒される事もなく盗難のリスクも抑えられる。
また、入出力システム1は、シート30を透過する光による光源Lとそのシート間のユーザの手の影を利用する事により、撮影画像を2値化し、2値化した画像を解析するため、コンピュータの処理の負荷が低く、そのまま撮影画像からユーザの手の位置を判別するシステムに比して高精度で高速である。また、入出力システム1は、シートを反射した反射光による影を用いる場合と違いユーザの手や指先がユーザの体や手に隠されて死角になる事がないので指先の位置を正確に特定出来、ユーザの指先がシートに一定以上近づかないとその透過した影はカメラでは捉えられ難くいため、シートが一種のフィルタとして作用し余分なユーザの手の影をマスキングし誤検知を防ぐ役割も果たす。しかもシートの厚さ、或は光透過率を調節する事によりそのマスキングの程度も調節可能である。
また、シート30には、コードや通信装置(無線装置、赤外線装置)等を具備しないため軽量である。よって、操作するユーザにかかる負担を軽減することができるため、詳細は後述するが左右どちらかの腕にシート30を支持して中空で動かす事によるマウス型のポインティングデバイスが具現化出来る。また、カメラ20がシート30撮影出来る程度の透明度が有る環境下に限定されるが水中での使用も可能である。
なお、本実施形態の入出力システム1は、ユーザの腕にシート30を装着する場合を説明したが、これに限定するものではなく、予めシート30を窓ガラスに固定してもよい。この場合、ユーザの視界の妨げとならない位置にシート30を固定することが好適である。
As described above, according to the input / output system 1 of the present embodiment, by detecting the user's operation from the captured image including the user and the shadow transmitted through the
Further, the input / output system 1 binarizes the captured image by using the light source L by the light transmitted through the
The
In addition, although the input / output system 1 of this embodiment demonstrated the case where the sheet |
次に、上記実施例における変形例を説明する。
なお、変形例では、上記実施例と実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略する。
[変形例1]
本変形例1の入出力システム100は、シート30の周縁領域の色を中央領域の色と異なる色で形成し、シート30の周縁領域の色に基づいてシート30を特定するシステムである。
図13は、実施形態における入出力システム1の変形例1を例示する図である。
図13に例示するように、本変形例1のシート30は、上記実施形態と同様に黒や灰色以外の特定色Cで着色した透光性を有する板状のスクリーンである。しかし、本変形例1のシート30は、複数色に発色するよう形成されている。シート30は、例えば、中央領域における発色する色と、周縁領域における発色する色とが異なるよう形成されている。本変形例1のシート30は、中央領域における発色する色は特定色Cであり、周縁領域における発色する色は特定色CAである。シート30の周縁領域の着色法として、着色された布や紙等の接着、又は、ペインティング等により実現できる。
Next, a modification of the above embodiment will be described.
In the modification, elements having substantially the same functions and configurations as those in the above embodiment are denoted by the same reference numerals, and redundant description is omitted.
[Modification 1]
The input /
FIG. 13 is a diagram illustrating a first modification of the input / output system 1 in the embodiment.
As illustrated in FIG. 13, the
また、入出力プログラム5のシート特定部500における領域特定部502は、中央領域における発色する色と、周縁領域における発色する色とが異なるよう形成されたシート30を特定するため、カメラ20により撮影された撮影画像内におけるシート30の周縁領域の色(特定色CA)に基づいて、シート30の領域を特定する。言い換えると、領域特定部502は、特定色CAに囲まれた領域を特定する。
In addition, the
このように、変形例1の入出力システム100は、シート30の周縁領域の色を中央領域の色と異なるよう形成し、領域特定部502により周縁領域の色に囲まれた領域内を特定させることにより、撮影画像内から単色のシート30を特定する場合に比べて、検知精度を高めることができる。
また、入出力システム1は、画像解析時に、領域特定部502に特定色CAに囲まれた領域を特定させるため、特定色CAに囲まれていない領域に、シート30の中央領域の特定色Cと同じ色の物体Mが存在してもノイズとして処理でき、シート30の誤検知を防止することができる。
As described above, the input /
Further, the input / output system 1 causes the
[変形例2]
本変形例2の入出力システム102は、光源Lとシート30との離間距離を可変自在に固定した入出力システムである。
図14は、実施形態における入出力システム1の変形例2を例示する図である。図14(A)は、ユーザの手からシート30を遠ざけた場合の撮影画像を例示する図であり、図14(B)は、ユーザの手にシート30を近づけた場合の撮影画像を例示する図である。
本変形例2における入出力システム102は、入出力処理装置10と、カメラ20と、シート30と、連結部材70と、被操作装置90とに加えて、連結部材80とを有する。
連結部材80は、光源Lとシート30とを連結する連結具である。連結部材80は、シート30の他方の面に光を照射する光源Lと、シート30との離間距離を可変可能に連結している。連結部材80は、例えば、光源Lを支持する支持材と、シート30を支持する支持材とがスライド自在に接続している。
連結部材80は、図14(A)に例示するように、ユーザの手からシート30を遠ざけたることにより、カメラ20により撮影された画像内のシート30に投影された影の領域は、ユーザの手のサイズより大きくなる。
一方、連結部材80は、図14(B)に例示するように、ユーザの手にシート30を近づけることにより、カメラ20により撮影された画像内のシート30に投影された影の領域は、ユーザの手のサイズと略等しくなる。
このように、連結部材80は、光源Lとシート30との離間距離を変えることにより、シート30に投影される影の大きさを調節することができる。
これにより、入出力システム102は、例えば指先の微細な動きであっても影のサイズを拡大して検知することができるため、指先の微細な動きが必要な入力操作においても誤認検知を防止出来る。例えば、手首を左右に振る操作で出力されるドラッグ操作である場合、手首の微細な動きであっても影のサイズを大きくした状態で検知することにより、出力する移動量を増加させることができる。つまり、シート30に対する影のサイズを拡大縮小することにより、出力する移動量を増加減少させることができる。
[Modification 2]
The input /
FIG. 14 is a diagram illustrating a second modification of the input / output system 1 in the embodiment. FIG. 14A is a diagram illustrating a photographed image when the
The input /
The connecting member 80 is a connecting tool that connects the light source L and the
As illustrated in FIG. 14A, the connecting member 80 moves the
On the other hand, as illustrated in FIG. 14B, the connecting member 80 brings the
As described above, the connecting member 80 can adjust the size of the shadow projected on the
As a result, the input /
[変形例3]
本変形例3の入出力システム104は、複数のシート30からの入力をそれぞれ識別してユーザの入力操作を検知する入出力システムである。
図15は、実施形態における入出力システム1の変形例3を例示する図である。
図15に例示するように、入出力システム104は、入出力処理装置10と、カメラ20と、シート30と、被操作装置90とを有する。本変形例3の入出力システム104は、シート30Aに投影されたユーザ1の手の影と、シート30Bに投影されたユーザ2の手の影とをカメラ20が同じ画像内に納めるよう撮影し、入出力処理装置10が撮影された撮影画像から各シート30のユーザの操作をそれぞれ検知し、検知したユーザの操作をそれぞれ画像表示装置90cに出力する。
本変形例3のシート30は、複数あり、それぞれ異なる色を発色する。具体的には、シート30には、シート30Aは特定色Cを発色するシート30Aと、特定色C2を発色するシート30Bとがある。
[Modification 3]
The input /
FIG. 15 is a diagram illustrating a third modification of the input / output system 1 in the embodiment.
As illustrated in FIG. 15, the input /
There are a plurality of
図16は、変形例3における入出力処理装置10の機能構成を例示する図である。
図16に例示するように、本変形例3の入出力処理装置10にインストールされた入出力プログラム5は、シート特定部500、影特定部510、操作検知部530、及び、操作信号出力部540に加えて、識別部550をさらに有する。
識別部550は、カメラ20により撮影された撮影画像に基づいて、シート30Aが発色する色と、シート30Bが発色する色とを識別する。具体的には、識別部550は、領域特定部502により特定された、シート30Aが発色する特定色Cのカラー値(RGB値)が連続する領域と、シート30Bが発色する特定色C2のカラー値(RGB値)が連続する領域とにそれぞれ識別IDを付する。
FIG. 16 is a diagram illustrating a functional configuration of the input /
As illustrated in FIG. 16, the input / output program 5 installed in the input /
The
また、本変形例3の入出力システム1の入出力処理(S10)において、撮影した撮影画像を入出力処理装置10に送信後(S100)に、識別部550が各シート30に識別IDを付し(S101)、識別部550により識別されたシート30毎に、S102からS106の処理を行う。なお、S102からS106の処理において、上記実施形態と同様の処理のため、重複説明を省略する。
Further, in the input / output process (S10) of the input / output system 1 of the third modification, the
このように、本変形例3の入出力システム104によれば、1台のカメラ20で複数のユーザからの操作を検知し出力することができる。
なお、本変形例3の入出力システム104は、複数のユーザがそれぞれ異なる色のシート30を使用する形態を説明したが、これに限定するものではなく、1人のユーザが、例えば両手にそれぞれ異なる色のシート30を使用してもよい。
As described above, according to the input /
The input /
[変形例4]
本変形例4の入出力システム106は、柔軟素材に対する入力操作を再現した入出力システムである。
図17は、実施形態における入出力システム1の変形例4を例示する図である。
図17に例示するように、本変形例4における入出力システム106は、撮影画像からユーザの操作を入出力処理装置10が検知し、検知した操作を画像表示装置90cに出力することにより、ユーザの操作内容に応じて、表示するキャラクター画像が変化するシステムである。
入出力システム106は、入出力処理装置10と、カメラ20と、シート30と、被操作装置90とに加えて、緩衝部材85とを有する。
緩衝部材85は、シート30の表面に取り付けられ、ユーザの手または手指の操作に適度な抵抗を与える緩衝材である。本変形例4の緩衝部材85は、空気を注入する注入口を有する袋であり、内部に空気を充填し封入することができる。また、緩衝部材85の素材は、透光性および弾力性を有する合成樹脂により形成されている。具体的には、緩衝部材85は、透明若しくは半透明である軟質塩化ビニール(軟質PVC)、又は、透明若しくは半透明を有するゴム等により形成されている。よって、緩衝部材85は、ユーザの手の操作(例えば指先で押す操作)に合わせて自在に変形する袋として形成することができる。また、緩衝部材85は充填する空気量を自在に調節することができる。
このように、シート30の表面に緩衝部材85を取り付けることにより、ユーザの手の操作に合わせて柔軟性および弾力性を自在に変更できる3次元ポインティングデバイスとすることができる。
よって、入出力システム106は、緩衝部材85にユーザの手を埋没させた状態の影の位置に基づくユーザ操作の出力と、画像表示装置90cに表示するキャラクター画像の画像変化の出力とを同期して表示させることができる。これにより、ユーザは、表示されたキャラクター画像を直接触れたかのような感覚を得ることが期待できる。
また、入出力システム106は、ピエゾ効果や静電容量の変化を利用した圧電素子を用いたポインテングデバイスと違い、ユーザの手の影の位置、濃さ、又は大きさに基づいてユーザの入力操作とするため、緩衝部材85の埋没量に応じたシート30と手との離間距離を簡単に特定できる。
[Modification 4]
The input /
FIG. 17 is a diagram illustrating a fourth modification of the input / output system 1 in the embodiment.
As illustrated in FIG. 17, the input /
The input /
The cushioning member 85 is a cushioning material that is attached to the surface of the
Thus, by attaching the buffer member 85 to the surface of the
Therefore, the input /
Also, the input /
[変形例5]
本変形例5の入出力システム108は、ユーザの入力操作を作業ウインドウに同期させた入出力システムである。
図18は、実施形態における入出力システム1の変形例5を例示する図である。
図18に例示するように、本変形例5における入出力システム106は、撮影画像からシート30の移動操作、及び、影に基づく入力操作をユーザの操作として入出力処理装置10が検知し、検知した操作内容を画像表示装置90cに出力することにより、ユーザの操作内容に応じて作業ウインドウWを操作するシステムである。
[Modification 5]
The input /
FIG. 18 is a diagram illustrating a fifth modification of the input / output system 1 in the embodiment.
As illustrated in FIG. 18, in the input /
本変形例5の入出力処理装置10にインストールされた入出力プログラム5において、シート特定部500は、領域特定部502、形状特定部504、形状補正部507、及び、移動距離特定部508に加えて、同期部503をさらに有する。
同期部503は、カメラ20の撮影範囲内におけるシート30の基準点(例えば画像解析イメージにおける、シート30の左隅の開始位置座標)と、画像表示装置90cの表示範囲内における作業ウインドウWの基準座標(例えば左隅の開始位置座標)とを一致させる。同期部503は、基準となる各座標を一致させることにより、撮影画像内のシート30の移動量と、表示範囲内における作業ウインドウWの移動量とを同期させることができる。
これにより、ユーザは、シート30を移動させる動作に連動して、画像表示装置90c表示された作業ウインドウWを自在に移動させることができる。また、ユーザは、作業ウインドウWの移動操作を行うと共に、シート30に手の影を投影し入力操作を行うことにより、作業ウインドウWに対し操作(クリック操作等)をすることができる。
In the input / output program 5 installed in the input /
The synchronization unit 503 includes a reference point of the
Accordingly, the user can freely move the work window W displayed on the
[変形例6]
本変形例6の入出力システム110は、シート30の傾き又は形状に基づいてユーザの入力操作を検知する出力システムである。例えば、入出力システム106は、ユーザがシート30を撮影方向に対して水平にし寝かせる、又は、シート30を畳む等の操作を行うことにより、スリープモード、又は、入力終了の操作内容として被操作装置90に出力する。
図19は、実施形態における入出力システム1の変形例6を例示する図である。
図19に例示するように、入出力システム110は、ユーザがシート30を撮影方向に対して水平に寝かせる、又は、シート30を畳む等の操作を行うことにより、スリープモード、又は、入力終了の操作内容として被操作装置90に出力する。
図20は、変形例6におけるシート特定部500をより詳細に説明する図である。
図20に例示するように、変形例6の入出力処理装置10にインストールされた入出力プログラム5において、シート特定部500は、領域特定部502、形状特定部504、形状補正部507、及び、移動距離特定部508に加えて、傾き特定部506、及び、操作内容決定部509をさらに有する。
[Modification 6]
The input /
FIG. 19 is a diagram illustrating a sixth modification of the input / output system 1 in the embodiment.
As illustrated in FIG. 19, the input /
FIG. 20 is a diagram for explaining the
As illustrated in FIG. 20, in the input / output program 5 installed in the input /
傾き特定部506は、カメラ20により撮影された撮影画像に基づいて、撮影画像に対するシート30の傾きを特定する。具体的には、傾き特定部506は、形状特定部504により特定されたシート30の領域の形状に基づいて、シート30の傾きを特定する。本変形例6の傾き特定部506は、シート30の形状(例えば縦横の比率)を基準値として設定情報データベース590に事前記録し、記録したシート30の形状の基準値と、形状特定部504により特定されたシート30の形状と比較をしてシート30の傾きを特定する。
The
操作内容決定部509は、形状特定部504により特定されたシート30の形状、又は、傾き特定部506により特定されたシート30の傾きに基づいて、ユーザの操作内容を決定する。本例では、設定情報DB590に複数の操作内容(例えば、スリープモード、入力終了等)と複数の形状(例えば、シート30を撮影方向に対して水平に寝かせた形状及び傾き、撮影方向に対して垂直にしたシート30を畳んだ形状及び傾き等)とが互いに関連付けて登録されており、操作内容決定部509は、形状特定部504により特定された形状、及び、傾き特定部506により特定された傾きと、設定情報DB590に登録されたシート30の形状、及び、傾きとを比較して、最も近似する形状に関連付けられた操作内容をユーザの操作内容であると決定する。なお、原理上シート30をカメラ20の撮影面に対して図19のように水平にした場合、同カメラ撮影画像にはシートは殆ど捉えられなくなるか、もしくはカメラ撮影画像に対して水平方向のシート30と同じ色の線として僅かに写るだけなので、シートが同カメラ撮影画像から捉えられなくなった段階でスリープモードや入力終了処理に移っても良い。
このように、本変形例の入出力システム110はによれば、シート30を撮影方向に対して水平にし寝かせる、又は、シート30を畳む等の操作を行うことにより、スリープモード、又は、入力終了の操作内容として被操作装置90に出力することができる。
The operation
As described above, according to the input /
[変形例7]
本変形例7の入出力システム112は、撮影画像内のシート30の位置や移動量と、画像表示装置90cに表示されたマウスポインタの位置とを同期させ、シート30を押下した指先の位置に基づいて、右クリック又は左クリックの入力操作を行い、被操作装置90に出力するシステムである。
図21は、実施形態における入出力システム1の変形例7を例示する図である。
図21に例示するように、入出力システム112は、撮影画像からシート30の移動操作、及び、影に基づく入力操作をユーザの操作として入出力処理装置10が検知し、検知した操作内容を画像表示装置90cに出力することにより、ユーザの操作内容に応じてマウスポインタの位置の制御やクリック操作を行う。
なお、本変形例7の入出力システム112は、連結部材70を用いてシート30とユーザの腕とを連結し、シート30とユーザの腕との離間間隔を一定としている。
[Modification 7]
The input / output system 112 of Modification 7 synchronizes the position and amount of movement of the
FIG. 21 is a diagram illustrating a modified example 7 of the input / output system 1 in the embodiment.
As illustrated in FIG. 21, in the input / output system 112, the input /
Note that the input / output system 112 of Modification 7 uses the connecting
本変形例7の入出力処理装置10にインストールされた入出力プログラム5において、シート特定部500は、領域特定部502、形状特定部504、形状補正部507、及び、移動距離特定部508に加えて、領域分割部501と同期部503とをさらに有する。
領域分割部501は、撮影された撮影範囲内におけるシート30の領域を複数に分割し、操作内容を振り分ける。具体的には、領域分割部501は、シート30の左右方向又は上下方向に、2つ以上の領域に分割し、操作内容を振り分ける。本変形例7の領域分割部501は、例えばシート30を左右方向に2つの領域(左領域、右領域)に分割し、左領域に割り当てる操作を例えば左クリック操作とし、右領域に割り当てる操作を例えば右クリック操作とする。
In the input / output program 5 installed in the input /
The area dividing unit 501 divides the area of the
同期部503は、カメラ20の撮影範囲内におけるシート30の基準点(例えば画像解析イメージにおける、シート30の左隅の開始位置座標)と、画像表示装置90cの表示範囲内におけるマウスポインタの座標とを一致させる。同期部503は、各座標を一致させることにより、撮影画像内のシート30の移動量と、画像表示装置90cの表示範囲内におけるマウスポインタの移動量とを同期させることができる。なお、同期部503は、この時シート30をユーザが素早く移動させた場合はマウスポインタの移動量がその分が大きくなるように、逆にゆっくり移動させた場合はマウスポインタの移動量がその分小さくなるように、シート30の単位時間あたりの移動量つまりシート30速度を係数としてマウスポインタの移動量と乗じるように設定してもよい。これにより、シート30が固定されている腕等を特に大きく動かさなくてもマウスポインタが大きく移動可能となる。また、同期部503は、シート30の傾きによりマウスポインタの移動量を増減させても良い。
The synchronization unit 503 obtains the reference point of the
このように、本変形例7の入出力システム112は、領域分割部501により分割されたシート30の2つの領域において、位置特定部514により特定された指先の位置が2つの領域のどちらか一方で特定され、影の大きさ、又は、影の濃淡の変化に基づいた影の入力操作(いわゆるクリック操作)を行うことにより操作検知部530が検知し、振り分けた操作内容を被操作装置90に出力することができる。
入出力システム112は、既存のポインティングデバイスであるマウスと異なり、ユーザの腕の動作によりマウスポインタを操作することができる。また、マウスと違い机や床にデバイスを固定する必要もなく左右どちらの腕に支持されたシート30による中空操作が可能であり、シート30の傾きによりマウスポインタの移動量の増減するようにシステムを拡張する事も可能である。さらに、タッチ操作またはクリック操作についても2つの領域だけでなく、3つの領域(左領域、中領域、右領域)に分割し、左領域に割り当てる操作を例えば左クリック操作とし、中領域に割り当てる操作を例えばスクロール操作とし、右領域に割り当てる操作を例えば右クリック操作としてもよく、更に細かい領域に分割してやればその分だけ多様なクリック操作が可能なデバイスも実現出来る。
As described above, in the input / output system 112 according to the seventh modified example, in the two areas of the
Unlike a mouse that is an existing pointing device, the input / output system 112 can operate the mouse pointer by the movement of the user's arm. In addition, unlike the mouse, there is no need to fix the device to the desk or the floor, and the hollow operation by the
1 入出力システム
10 入出力処理装置
20 カメラ
30 シート
70 連結部材
90 被操作装置
5 入出力プログラム
DESCRIPTION OF SYMBOLS 1 Input /
Claims (7)
前記スクリーンを含む画像を複数のタイミングで撮影するカメラと、
前記カメラにより撮影された撮影画像に基づいて、複数のタイミングにおける前記スクリーンの位置、大きさ、移動量、傾き、又は、形状に基づいてユーザの操作を検知する操作検知手段とを有しており、
前記カメラは、前記スクリーンのRGB値が連続する領域を含む撮影画像を撮影するカメラであり、
前記操作検知手段は、複数のタイミングにおける前記スクリーンに写ったユーザの影の位置に基づいて、ユーザの操作を検知するものであり、
ユーザの肢体の一部の影が前記スクリーンに投影される間隔で、当該スクリーンとユーザの肢体とを連結する連結部材をさらに有し、
前記連結部材は、前記スクリーン面視において、当該スクリーンの他方の面と、ユーザの肢体の一部とが対向する位置で、当該スクリーンとユーザの肢体とを連結することを特徴とする入出力システム。 A translucent screen;
A camera that captures an image including the screen at a plurality of timings;
Based on the image captured by the camera, the position of the screen at a plurality of timings, size, amount of movement, inclination, or has perforated the operation detection means for detecting the operation of the user based on the shape ,
The camera is a camera that captures a captured image including an area where RGB values of the screen are continuous,
The operation detection means detects a user operation based on the position of the user's shadow reflected on the screen at a plurality of timings ,
A connection member for connecting the screen and the user's limb at an interval at which a shadow of a part of the user's limb is projected on the screen;
Output system the connecting member is in the screen surface view of the other side of the screen, at a position where a portion is opposed limb of the user, characterized by connecting the limb of the screen and the user .
前記カメラは、前記スクリーンの他方の面に投影された影を当該スクリーンの一方の面から複数のタイミングで撮影し、
前記操作検知手段は、前記カメラにより撮影された撮影画像における、前記スクリーンの一方の面に透過した光により写った影の位置に基づいて、ユーザの操作を検知することを特徴とする請求項1に記載の入出力システム。 The screen is plate-like, and a shadow generated by the user blocking the light irradiated by the light source is projected on the other surface of the screen,
The camera shoots a shadow projected on the other side of the screen from one side of the screen at a plurality of timings,
Said operation detecting means, according to claim 1, characterized in that said at images picked up by the camera, based on the position of the shadow captured by light transmitted on one surface of the screen, it detects an operation of the user The input / output system described in 1 .
前記スクリーンを含む画像を複数のタイミングで撮影するカメラと、
前記カメラにより撮影された撮影画像に基づいて、複数のタイミングにおける前記スクリーンの位置、大きさ、移動量、傾き、又は、形状に基づいてユーザの操作を検知する操作検知手段とを有しており、
前記カメラは、前記スクリーンのRGB値が連続する領域を含む撮影画像を撮影するカメラであり、
前記操作検知手段は、複数のタイミングにおける前記スクリーンに写ったユーザの影の位置に基づいて、ユーザの操作を検知するものであり、
前記スクリーンの他方の面に光を照射する光源と、前記スクリーンとの離間距離を可変可能に連結する連結部材をさらに有することを特徴とする入出力システム。 A translucent screen;
A camera that captures an image including the screen at a plurality of timings;
Based on the image captured by the camera, the position of the screen at a plurality of timings, size, amount of movement, inclination, or has perforated the operation detection means for detecting the operation of the user based on the shape ,
The camera is a camera that captures a captured image including an area where RGB values of the screen are continuous,
The operation detection means detects a user operation based on the position of the user's shadow reflected on the screen at a plurality of timings ,
Output system characterized by further comprising a light source for irradiating light on the other surface of the screen, a coupling member for coupling the distance between the screen variably possible.
前記スクリーンを含む画像を複数のタイミングで撮影するカメラと、
前記カメラにより撮影された撮影画像に基づいて、複数のタイミングにおける前記スクリーンの位置、大きさ、移動量、傾き、又は、形状に基づいてユーザの操作を検知する操作検知手段とを有しており、
前記カメラは、前記スクリーンのRGB値が連続する領域を含む撮影画像を撮影するカメラであり、
前記操作検知手段は、複数のタイミングにおける前記スクリーンに写ったユーザの影の位置に基づいて、ユーザの操作を検知するものであり、
前記カメラにより撮影された撮影画像に基づいて、前記スクリーン内における影の画素を特定する画素特定手段と、
前記画素特定手段により特定された影の画素における濃淡の変化を特定する濃淡変化特定手段とをさらに有し、
前記操作検知手段は、前記濃淡変化特定手段により特定された影の濃淡の変化に基づいて、ユーザの操作を検知するものであり、
前記スクリーンの他方の面に接続して設けられ、透光性、及び、弾力性を有する緩衝部材をさらに有し、
前記画素特定手段は、前記スクリーン及び前記緩衝部材を透過した影の画素を特定することを特徴とする入出力システム。 A translucent screen;
A camera that captures an image including the screen at a plurality of timings;
Based on the image captured by the camera, the position of the screen at a plurality of timings, size, amount of movement, inclination, or has perforated the operation detection means for detecting the operation of the user based on the shape ,
The camera is a camera that captures a captured image including an area where RGB values of the screen are continuous,
The operation detection means detects a user operation based on the position of the user's shadow reflected on the screen at a plurality of timings ,
Pixel specifying means for specifying a shadow pixel in the screen based on a captured image captured by the camera;
A shade change specifying means for specifying a change in shade in the shadow pixel specified by the pixel specifying means;
The operation detection means detects a user's operation based on a change in shadow shade specified by the shade change specifying means .
It is provided connected to the other surface of the screen, and further has a light-transmitting and elastic buffer member,
The input / output system characterized in that the pixel specifying means specifies a shadow pixel transmitted through the screen and the buffer member.
前記カメラは、前記スクリーンの他方の面に投影された影を当該スクリーンの一方の面から複数のタイミングで撮影し、
前記操作検知手段は、前記カメラにより撮影された撮影画像における、前記スクリーンの一方の面に透過した光により写った影の位置に基づいて、ユーザの操作を検知することを特徴とする請求項4に記載の入出力システム。 The screen is plate-like, and a shadow generated by the user blocking the light irradiated by the light source is projected on the other surface of the screen,
The camera shoots a shadow projected on the other side of the screen from one side of the screen at a plurality of timings,
Said operation detecting means, according to claim 4, characterized in that said at images picked up by the camera, based on the position of the shadow captured by light transmitted on one surface of the screen, it detects an operation of the user The input / output system described in 1 .
前記スクリーンを含む画像を複数のタイミングで撮影するカメラと、
前記カメラにより撮影された撮影画像に基づいて、複数のタイミングにおける前記スクリーンの位置、大きさ、移動量、傾き、又は、形状に基づいてユーザの操作を検知する操作検知手段とを有しており、
前記カメラは、前記スクリーンのRGB値が連続する領域を含む撮影画像を撮影するカメラであり、
前記操作検知手段は、複数のタイミングにおける前記スクリーンに写ったユーザの影の位置に基づいて、ユーザの操作を検知するものであり、
前記スクリーン内における影の位置、影の移動量、影の移動方向、影の移動速度、影の大きさ、又は、影の濃淡を特定する影特定手段と、
前記カメラにより撮影された撮影画像内におけるスクリーンの位置、スクリーンの大きさ、スクリーンの移動量、スクリーンの傾き、又は、スクリーンの形状を特定するスクリーン特定手段とをさらに有し、
前記操作検知手段は、前記影特定手段により特定された位置、移動量、移動方向、移動速度、又は、大きさ若しくは濃淡と、前記スクリーン特定手段により特定された位置、移動量、傾き、又は、形状との組合せに基づいて、ユーザの操作を検知するものであり、
撮影画像における前記スクリーンの既定の位置の座標と被操作装置の表示範囲内におけるポインタの座標とを一致させる同期手段と、
前記操作検知手段により検知した操作内容を被操作装置に出力する操作内容出力手段とをさらに有し、
前記操作検知手段は、前記スクリーン特定手段により特定されたスクリーンの位置、及び、移動量と、前記影特定手段により特定されたユーザの手の指先の影の位置、影の移動量、影の移動方向、及び、影の移動速度とに基づいてポインタの移動操作を検知し、又は、前記影特定手段により特定されたユーザの指先の影の大きさの変化、又は、影の濃淡の変化に基づいてポインタの座標におけるクリック操作を検知し、
前記操作内容出力手段は、前記操作検知手により検知したポインタの移動操作、又は、クリック操作に基づいて、同期された被操作装置の表示範囲内におけるポインタに出力するものであり、
ユーザの肢体の一部の影が前記スクリーンに投影される間隔で、当該スクリーンとユーザの肢体とを連結する連結部材をさらに有し、
前記連結部材は、前記スクリーン面視において、当該スクリーンの他方の面と、ユーザの肢体の一部とが対向する位置で、当該スクリーンとユーザの肢体とを連結することを特徴とする入出力システム。 A translucent screen;
A camera that captures an image including the screen at a plurality of timings;
Based on the image captured by the camera, the position of the screen at a plurality of timings, size, amount of movement, inclination, or has perforated the operation detection means for detecting the operation of the user based on the shape ,
The camera is a camera that captures a captured image including an area where RGB values of the screen are continuous,
The operation detection means detects a user operation based on the position of the user's shadow reflected on the screen at a plurality of timings ,
A shadow specifying means for specifying the position of the shadow in the screen, the amount of movement of the shadow, the direction of movement of the shadow, the speed of movement of the shadow, the size of the shadow, or the shade of the shadow;
A screen specifying means for specifying the position of the screen, the size of the screen, the amount of movement of the screen, the tilt of the screen, or the shape of the screen in the captured image captured by the camera;
The operation detecting means includes the position, moving amount, moving direction, moving speed, or size or shade specified by the shadow specifying means, and the position, moving amount, inclination, specified by the screen specifying means, or Based on the combination with the shape, it detects the user's operation ,
Synchronization means for matching the coordinates of the predetermined position of the screen in the captured image with the coordinates of the pointer in the display range of the operated device;
Further comprising an operation content outputting means for outputting an operation content detected by the operation detection hand stage the operated device,
The operation detection hand stage, the position of the screen specified by the screen identification means, and, movement and position, the shadow of the moving amount of the shadow of the fingertip of the hand of the user identified by the shadow specifying means, shadow Based on the moving direction and the moving speed of the shadow, a pointer moving operation is detected, or a change in the size of the shadow of the user's fingertip specified by the shadow specifying means or a change in the shade of the shadow Based on the coordinates of the pointer is detected,
The operation content output means outputs the pointer to the pointer within the display range of the synchronized operated device based on the movement operation of the pointer detected by the operation detection hand or the click operation .
A connection member for connecting the screen and the user's limb at an interval at which a shadow of a part of the user's limb is projected on the screen;
Output system the connecting member is in the screen surface view of the other side of the screen, at a position where a portion is opposed limb of the user, characterized by connecting the limb of the screen and the user .
前記カメラは、前記スクリーンの他方の面に投影された影を当該スクリーンの一方の面から複数のタイミングで撮影し、
前記操作検知手段は、前記カメラにより撮影された撮影画像における、前記スクリーンの一方の面に透過した光により写った影の位置に基づいて、ユーザの操作を検知することを特徴とする請求項6に記載の入出力システム。 The screen is plate-like, and a shadow generated by the user blocking the light irradiated by the light source is projected on the other surface of the screen,
The camera shoots a shadow projected on the other side of the screen from one side of the screen at a plurality of timings,
It said operation detecting means, the images picked up by the camera, based on the position of the shadow captured by light transmitted on one surface of the screen, according to claim 6, characterized in that to detect the operation of the user The input / output system described in 1 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017143780A JP6328304B1 (en) | 2017-07-25 | 2017-07-25 | I / O system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017143780A JP6328304B1 (en) | 2017-07-25 | 2017-07-25 | I / O system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6328304B1 true JP6328304B1 (en) | 2018-05-23 |
JP2019028510A JP2019028510A (en) | 2019-02-21 |
Family
ID=62186799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017143780A Active JP6328304B1 (en) | 2017-07-25 | 2017-07-25 | I / O system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6328304B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299434A (en) * | 2007-08-23 | 2007-11-15 | Advanced Telecommunication Research Institute International | Large-screen touch panel system, and retrieval/display system |
JP2013254324A (en) * | 2012-06-06 | 2013-12-19 | Canon Inc | Information processing device, information processing method and program |
JP2014026355A (en) * | 2012-07-25 | 2014-02-06 | Hitachi Consumer Electronics Co Ltd | Image display device and image display method |
JP2015122124A (en) * | 2015-03-31 | 2015-07-02 | 株式会社ナカヨ | Information apparatus with data input function by virtual mouse |
JP2016021229A (en) * | 2014-06-20 | 2016-02-04 | 船井電機株式会社 | Input device |
JP2017062813A (en) * | 2016-11-01 | 2017-03-30 | 日立マクセル株式会社 | Video display and projector |
-
2017
- 2017-07-25 JP JP2017143780A patent/JP6328304B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299434A (en) * | 2007-08-23 | 2007-11-15 | Advanced Telecommunication Research Institute International | Large-screen touch panel system, and retrieval/display system |
JP2013254324A (en) * | 2012-06-06 | 2013-12-19 | Canon Inc | Information processing device, information processing method and program |
JP2014026355A (en) * | 2012-07-25 | 2014-02-06 | Hitachi Consumer Electronics Co Ltd | Image display device and image display method |
JP2016021229A (en) * | 2014-06-20 | 2016-02-04 | 船井電機株式会社 | Input device |
JP2015122124A (en) * | 2015-03-31 | 2015-07-02 | 株式会社ナカヨ | Information apparatus with data input function by virtual mouse |
JP2017062813A (en) * | 2016-11-01 | 2017-03-30 | 日立マクセル株式会社 | Video display and projector |
Also Published As
Publication number | Publication date |
---|---|
JP2019028510A (en) | 2019-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7593593B2 (en) | Method and system for reducing effects of undesired signals in an infrared imaging system | |
WO2012124730A1 (en) | Detection device, input device, projector, and electronic apparatus | |
US9720511B2 (en) | Hand and object tracking in three-dimensional space | |
CN105706028B (en) | Projection-type image display device | |
JP5950130B2 (en) | Camera-type multi-touch interaction device, system and method | |
US8589824B2 (en) | Gesture recognition interface system | |
US7359564B2 (en) | Method and system for cancellation of ambient light using light frequency | |
CN105593786B (en) | Object's position determines | |
US20070063981A1 (en) | System and method for providing an interactive interface | |
US20140176735A1 (en) | Portable projection capture device | |
WO2013019217A1 (en) | Projection capture system and method | |
BRPI1100158A2 (en) | information processing apparatus and method, and program for making a computer function as an information processing apparatus | |
EP2502132A1 (en) | Interactive display | |
JP6328304B1 (en) | I / O system | |
KR20140019215A (en) | Camera cursor system | |
CN112235912B (en) | Illumination adjusting method and system based on user picture | |
JP6233941B1 (en) | Non-contact type three-dimensional touch panel, non-contact type three-dimensional touch panel system, non-contact type three-dimensional touch panel control method, program, and recording medium | |
US20100097351A1 (en) | Apparatus and method for adjusting finger depth using camera and touch screen having the apparatus | |
JP6197163B1 (en) | INPUT / OUTPUT SYSTEM, INPUT PROCESSING DEVICE, INPUT / OUTPUT METHOD, AND PROGRAM | |
KR200461366Y1 (en) | Pointing Apparatus Using Image | |
JP2018113011A (en) | Input/output system, input processing apparatus, input/output method, and program | |
KR100887093B1 (en) | Interface method for tabletop computing environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20180222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6328304 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |