JP6328304B1 - I / O system - Google Patents

I / O system Download PDF

Info

Publication number
JP6328304B1
JP6328304B1 JP2017143780A JP2017143780A JP6328304B1 JP 6328304 B1 JP6328304 B1 JP 6328304B1 JP 2017143780 A JP2017143780 A JP 2017143780A JP 2017143780 A JP2017143780 A JP 2017143780A JP 6328304 B1 JP6328304 B1 JP 6328304B1
Authority
JP
Japan
Prior art keywords
screen
shadow
user
sheet
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017143780A
Other languages
Japanese (ja)
Other versions
JP2019028510A (en
Inventor
西田 誠
誠 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Netappli Co Ltd
Original Assignee
Netappli Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Netappli Co Ltd filed Critical Netappli Co Ltd
Priority to JP2017143780A priority Critical patent/JP6328304B1/en
Application granted granted Critical
Publication of JP6328304B1 publication Critical patent/JP6328304B1/en
Publication of JP2019028510A publication Critical patent/JP2019028510A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

【課題】 被操作装置に対する操作を効果的に検知できる入出力システムを提供する。【解決手段】 入出力システムは、撮影装置に20より撮影された撮影画像に基づいて、ユーザの操作を検知する入出力処理装置10と、シート30とシート30の一方の面に透過したユーザの影とを含む画像を撮影するカメラ20と、透光性を有するシート30と、ユーザの肢体の一部の影がシート30に投影される間隔で、シート30とユーザの肢体とを連結する連結部材70と、入出力処理装置10から出力されたユーザからの操作を実行する被操作装置90とを有する。【選択図】図1PROBLEM TO BE SOLVED: To provide an input / output system capable of effectively detecting an operation on an operated device. An input / output system includes: an input / output processing device that detects a user operation based on a photographed image captured by a photographing device; and a user that has passed through one side of the sheet and the sheet. A camera 20 that captures an image including a shadow, a translucent sheet 30, and a connection that connects the sheet 30 and the user's limbs at an interval at which a shadow of a part of the user's limbs is projected onto the sheet 30. It has the member 70 and the to-be-operated apparatus 90 which performs the operation from the user output from the input-output processing apparatus 10. FIG. [Selection] Figure 1

Description

本発明は、入出力システムに関するものである。   The present invention relates to an input / output system.

例えば、特許文献1には、撮影デバイスと、コンピュータ装置と、を含んで構成され、操作者が遠隔にあるディスプレイに対してポインティング操作を行うためのポインティングシステムであって、前記撮影デバイスは、前記操作者を撮影する撮影部と、前記撮影された操作者の撮影データに基づいて前記操作者の複数の身体上の部位とそれらの位置とを含む骨格情報を取得する撮影データ処理部と、前記操作者の前記骨格情報を出力する骨格情報出力部と、を備え、前記コンピュータ装置は、前記撮影デバイスから前記操作者の前記骨格情報を取得する骨格情報取得部と、前記骨格情報に含まれる前記操作者の身体の一部であって、前記操作者が前記ポインティング操作を行う際に使用する前記操作者の身体の一部である操作点を決定する操作点決定部と、前記操作者が前記ポインティング操作を行う際の不動点である基点を決定する基点決定部と、前記操作者が前記ディスプレイ上の少なくとも第1の位置および第2の位置についてのポインティング操作であるキャリブレーション操作を行った際の前記操作者の前記骨格情報に基づいて、前記第1の位置を指し示した際の前記操作点の位置から前記第2の位置を指し示した際の前記操作点の位置を結ぶ線分を対角線とし、かつ前記第1の位置から鉛直方向または水平方向に延びる直線の一部を一辺とする長方形の仮想タッチパネルを算出する仮想タッチパネル算出部と、前記キャリブレーション操作後に前記操作者が前記操作点を動かした際に、前記操作者の前記骨格情報に基づいて前記操作点の前記仮想タッチパネル上における位置情報を決定し、前記仮想タッチパネルと前記基点との位置関係に基づいて、前記仮想タッチパネル上における位置情報に対応する前記ディスプレイ上の位置を決定する指示位置特定部と、前記指示位置特定部において決定された前記ディスプレイ上の位置を前記ディスプレイに示すための指示位置表示情報を出力する指示位置表示情報出力部と、を備えるポインティングシステムが開示されている。   For example, Patent Literature 1 includes a photographing device and a computer device, and is a pointing system for an operator to perform a pointing operation on a remote display. An imaging unit that images the operator, an imaging data processing unit that acquires skeleton information including a plurality of parts on the body of the operator and their positions based on the captured imaging data of the operator; A skeleton information output unit that outputs the skeleton information of the operator, and the computer device includes a skeleton information acquisition unit that acquires the skeleton information of the operator from the imaging device, and the skeleton information includes An operation point that is a part of the operator's body and is used when the operator performs the pointing operation is determined. A point determination unit, a base point determination unit for determining a base point that is a fixed point when the operator performs the pointing operation, and the operator at least about the first position and the second position on the display Based on the skeleton information of the operator when performing a calibration operation that is a pointing operation, the position when the second position is indicated from the position of the operation point when the first position is indicated A virtual touch panel calculator that calculates a rectangular virtual touch panel having a line connecting the positions of the operation points as a diagonal line and a part of a straight line extending in a vertical direction or a horizontal direction from the first position as one side; and the calibration When the operator moves the operation point after the operation, the operation point is displayed on the virtual touch panel based on the skeleton information of the operator. An instruction position specifying unit that determines a position on the display corresponding to position information on the virtual touch panel based on a positional relationship between the virtual touch panel and the base point; and the instruction position specifying unit And a pointing position display information output unit that outputs pointing position display information for indicating on the display the position on the display determined in (1).

特開2016−134022号公報Japanese Patent Laid-Open No. 2006-134002

本発明は、被操作装置に対する操作を効果的に検知できる入出力システムを提供することを目的とする。   An object of this invention is to provide the input / output system which can detect the operation with respect to a to-be-operated apparatus effectively.

本発明に係る入出力システムは、透光性を有するスクリーンと、前記スクリーンを含む画像を複数のタイミングで撮影するカメラと、前記カメラにより撮影された撮影画像に基づいて、複数のタイミングにおける前記スクリーンの位置に基づいてユーザの操作を検知する操作検知手段とを有する。   An input / output system according to the present invention includes a translucent screen, a camera that captures an image including the screen at a plurality of timings, and the screen at a plurality of timings based on captured images captured by the camera. Operation detecting means for detecting a user operation based on the position of the user.

好適には、前記操作検知手段は、複数のタイミングにおける前記スクリーンに写ったユーザの影の位置に基づいて、ユーザの操作を検知する。   Preferably, the operation detection unit detects a user operation based on a position of a user's shadow reflected on the screen at a plurality of timings.

好適には、前記スクリーンは、板状であり、当該スクリーンの他方の面に、光源により照射された光をユーザが遮ることにより生じた影を投影され、前記カメラは、前記スクリーンの他方の面に投影された影を当該スクリーンの一方の面から複数のタイミングで撮影し、前記操作検知部は、前記カメラにより撮影された撮影画像における、前記スクリーンの一方の面に透過した光により写った影の位置に基づいて、ユーザの操作を検知する。   Preferably, the screen is plate-like, and a shadow generated by the user blocking the light irradiated by the light source is projected on the other surface of the screen, and the camera is projected on the other surface of the screen. The shadow projected on the screen is photographed at a plurality of times from one surface of the screen, and the operation detection unit is a shadow reflected by light transmitted to the one surface of the screen in the photographed image photographed by the camera. The user's operation is detected based on the position.

好適には、前記スクリーン内における影の位置、影の移動量、影の移動方向、影の移動速度、影の大きさ、又は、影の濃淡を特定する影特定手段と、前記カメラにより撮影された撮影画像内におけるスクリーンの位置、スクリーンの大きさ、スクリーンの移動量、スクリーンの傾き、又は、スクリーンの形状を特定するスクリーン特定手段とをさらに有し、前記操作検知手段は、前記影特定手段により特定された位置、移動量、移動方向、移動速度、又は、大きさ若しくは濃淡と、前記スクリーン特定手段により特定された位置、移動量、傾き、又は、形状との組合せに基づいて、ユーザの操作を検知する。   Preferably, a shadow specifying means for specifying a shadow position, a shadow moving amount, a shadow moving direction, a shadow moving speed, a shadow size, or a shadow shade in the screen, and the camera is photographed. Screen specifying means for specifying the position of the screen in the captured image, the size of the screen, the amount of movement of the screen, the tilt of the screen, or the shape of the screen, and the operation detecting means is the shadow specifying means. Based on the combination of the position, movement amount, movement direction, movement speed, size or shade specified by the above, and the position, movement amount, inclination, or shape specified by the screen specifying means. Detect operation.

好適には、前記カメラにより撮影された撮影画像に基づいて、前記スクリーン内における影の画素を特定する画素特定手段と、前記画素特定手段により特定された影の画素における濃淡の変化を特定する濃淡変化特定手段とをさらに有し、前記操作検知手段は、前記濃淡変化特定手段により特定された影の濃淡の変化に基づいて、ユーザの操作を検知する。   Preferably, on the basis of a photographed image photographed by the camera, a pixel identifying unit that identifies a shadow pixel in the screen, and a shading that identifies a change in shading in the shadow pixel identified by the pixel identifying unit. A change specifying unit, and the operation detecting unit detects a user operation based on a change in shade of the shadow specified by the shade change specifying unit.

好適には、前記カメラにより撮影された撮影画像に基づいて、前記スクリーン内における影の画素を特定する画素特定手段と、前記画素特定手段により特定された影の画素の大きさの変化を特定する大きさ変化特定手段とをさらに有し、前記操作検知手段は、前記大きさ変化特定手段とにより特定された影の大きさの変化に基づいて、ユーザの操作を検知する。   Preferably, on the basis of a photographed image photographed by the camera, a pixel identifying unit that identifies a shadow pixel in the screen and a change in the size of the shadow pixel identified by the pixel identifying unit are identified. A size change specifying unit is further included, and the operation detecting unit detects a user operation based on a change in the size of the shadow specified by the size change specifying unit.

好適には、前記カメラにより撮影された複数の撮影画像に基づいて、前記スクリーンの移動距離を特定する移動距離特定手段をさらに有し、前記操作検知手段は、前記移動距離特定手段に特定された距離に基づいて、ユーザの操作を検知する。   Preferably, the apparatus further includes a moving distance specifying means for specifying a moving distance of the screen based on a plurality of captured images taken by the camera, and the operation detecting means is specified by the moving distance specifying means. The user's operation is detected based on the distance.

好適には、ユーザの肢体の一部の影が前記スクリーンに投影される間隔で、当該スクリーンとユーザの肢体とを連結する連結部材をさらに有し、前記連結部材は、前記スクリーン面視において、当該スクリーンの他方の面と、ユーザの肢体の一部とが対向する位置で、当該スクリーンとユーザの肢体とを連結する。   Preferably, the apparatus further includes a connection member that connects the screen and the user's limb at an interval at which a shadow of a part of the user's limb is projected onto the screen, and the connection member is The screen and the user's limbs are connected at a position where the other surface of the screen and a part of the user's limbs face each other.

好適には、前記カメラにより撮影された撮影画像における前記スクリーンの形状を補正する形状補正手段をさらに有し、前記画素特定手段は、前記形状補正手段により補正された撮影画像内の前記スクリーン内から影の画素を特定する。   Preferably, the image processing apparatus further includes a shape correction unit that corrects a shape of the screen in a captured image captured by the camera, and the pixel specifying unit is configured to detect from within the screen in the captured image corrected by the shape correction unit. Identify shadow pixels.

好適には、前記カメラにより撮影された撮影画像に基づいて、撮影画像に対する前記スクリーンの傾きを特定する傾き特定手段をさらに有し、前記操作検知手段は、前記傾き特定手段により特定された前記スクリーンの傾きに基づいて、ユーザ操作を検知する。   Preferably, the image processing apparatus further includes an inclination specifying unit that specifies an inclination of the screen with respect to the captured image based on a captured image captured by the camera, and the operation detection unit is configured to specify the screen specified by the inclination specifying unit. The user operation is detected based on the inclination of.

好適には、前記スクリーンは、多角形、又は、円形の形状に形成され、一方の面において、全ての領域が単色の色に発色し、撮影画像内における前記スクリーンの発色する色に基づいて、当該スクリーンの領域を特定する領域特定手段をさらに有し、前記濃淡変化特定手段は、前記領域特定手段により特定された前記スクリーン領域内における影の濃淡の変化を特定する。   Preferably, the screen is formed in a polygonal or circular shape, and on one surface, all the areas are colored in a single color, and based on the color developed by the screen in the photographed image, The image processing apparatus further includes area specifying means for specifying the area of the screen, and the shade change specifying means specifies a change in shade of shadow in the screen area specified by the area specifying means.

好適には、前記スクリーンは、一方の面において、中央領域における発色する色と、周縁領域における発色する色とが異なるよう形成され、撮影画像内における前記スクリーンの中央領域の色、及び、周縁領域の色の少なくとも一方の色に基づいて、当該スクリーンの領域を特定する領域特定手段をさらに有し、前記濃淡変化特定手段は、前記領域特定手段により特定された領域内において、前記スクリーン内にある影の濃淡の変化を特定する。   Preferably, the screen is formed so that a color to be developed in the central region and a color to be developed in the peripheral region are different on one surface, and the color of the central region of the screen in the photographed image and the peripheral region And an area specifying means for specifying the area of the screen based on at least one of the colors of the colors, wherein the shade change specifying means is in the screen within the area specified by the area specifying means. Identify changes in shadow shading.

好適には、前記スクリーンの他方の面に光を照射する光源と、前記スクリーンとの離間距離を可変可能に連結する連結部材をさらに有する。   Preferably, a light source that emits light to the other surface of the screen and a connecting member that variably connects a separation distance between the screen and the light source.

好適には、前記スクリーンと異なる色を発色する第2のスクリーンと、撮影された撮影画像に基づいて、前記スクリーンが発色する色と、第2のスクリーンが発色する色とを識別する識別手段とをさらに有し、前記操作検知手段は、前記識別手段により識別された各スクリーン内におけるユーザの影に基づいて、各スクリーン毎のユーザの操作を検知する。   Preferably, a second screen that develops a color different from that of the screen, and an identification unit that identifies, based on the captured image, the color that the screen develops and the color that the second screen develops The operation detection unit detects a user operation for each screen based on the shadow of the user in each screen identified by the identification unit.

好適には、前記スクリーンの他方の面に接続して設けられ、透光性、及び、弾力性を有する緩衝部材をさらに有し、前記画素特定手段は、前記スクリーン及び前記緩衝部材を透過した影の画素を特定する。   Preferably, the display device further includes a buffer member that is connected to the other surface of the screen and has translucency and elasticity, and the pixel specifying unit is a shadow that passes through the screen and the buffer member. Identify the pixels.

好適には、撮影された撮影画像に基づいて、前記スクリーンの領域を分割し、分割した各領域に操作内容を振り分ける領域分割手段をさらに有し、前記濃淡変化特定手段は、前記領域分割手段により分割した領域において、影の濃淡の変化を特定し、前記操作検知手段は、影の濃淡の変化を特定した領域に振り分けられた操作内容を、ユーザの操作として検知する。   Preferably, the image processing apparatus further includes an area dividing unit that divides the screen area based on the captured image and distributes the operation contents to the divided areas. In the divided area, a change in shadow shading is specified, and the operation detection means detects the operation content distributed to the area in which the change in shadow density is specified as a user operation.

好適には、撮影画像における前記スクリーンの既定の位置の座標と被操作装置の表示範囲内におけるポインタの座標とを一致させる同期手段と、前記操作検知手により検知した操作内容を被操作装置に出力する操作内容出力手段とをさらに有し、前記操作検知手は、前記スクリーン特定手段により特定されたスクリーンの位置、及び、移動量と、前記影特定手段により特定されたユーザの手の指先の影の位置、影の移動量、影の移動方向、及び、影の移動速度とに基づいてポインタの移動操作を検知し、又は、前記影特定手段により特定されたユーザの指先の影の大きさの変化、又は、影の濃淡の変化に基づいてポインタの座標におけるクリック操作を検知し、前記操作内容出力手段は、前記操作検知手により検知したポインタの移動操作、又は、クリック操作に基づいて、同期された被操作装置の表示範囲内におけるポインタに出力する。   Preferably, the synchronization means for matching the coordinates of the predetermined position of the screen in the photographed image with the coordinates of the pointer in the display range of the operated device, and the operation content detected by the operation detecting hand is output to the operated device. The operation detecting hand further includes a screen position and a movement amount specified by the screen specifying means, and a shadow of a fingertip of the user's hand specified by the shadow specifying means. The movement of the pointer is detected based on the position, the amount of movement of the shadow, the direction of movement of the shadow, and the speed of movement of the shadow, or the size of the shadow of the user's fingertip specified by the shadow specifying means Detecting a click operation at the coordinates of the pointer based on a change or a change in shading of the shadow, and the operation content output means is a movement operation of the pointer detected by the operation detection hand, Based on the click operation, and outputs to the pointer in the display range of synchronized the operated device.

好適には、ユーザの肢体の一部の影が前記スクリーンに投影される間隔で、当該スクリーンとユーザの肢体とを連結する連結部材をさらに有し、前記連結部材は、前記スクリーン面視において、当該スクリーンの他方の面と、ユーザの肢体の一部とが対向する位置で、当該スクリーンとユーザの肢体とを連結する。   Preferably, the apparatus further includes a connection member that connects the screen and the user's limb at an interval at which a shadow of a part of the user's limb is projected onto the screen, and the connection member is The screen and the user's limbs are connected at a position where the other surface of the screen and a part of the user's limbs face each other.

また、本発明に係る入出力処理装置は、入力された複数のタイミングにおける画像データに基づいて、複数のタイミングにおけるスクリーンのスクリーンの位置、クリーンの大きさ、スクリーンの移動量、スクリーンの傾き、又は、スクリーンの形状を特定するスクリーン特定手段と、入力された複数のタイミングにおける画像データに基づいて、スクリーンに写った影の位置、影の移動量、影の移動方向、影の移動速度、影の大きさ、又は、影の濃淡を特定する影特定手段と、前記スクリーン特定手段により特定された影の位置、移動量、移動方向、移動速度、大きさ、又は、濃淡と、前記影特定手段により特定されたスクリーンの位置、大きさ、移動量、傾き、又は、形状とに基づいてユーザの操作を検知する操作検知手段とを有する。   Further, the input / output processing device according to the present invention is based on the input image data at a plurality of timings, the screen position of the screen at a plurality of timings, the size of the screen, the amount of screen movement, the inclination of the screen, or Based on the screen specifying means for specifying the shape of the screen and the input image data at a plurality of timings, the position of the shadow reflected on the screen, the amount of movement of the shadow, the moving direction of the shadow, the moving speed of the shadow, The shadow specifying means for specifying the size or shade of the shadow, and the position, movement amount, moving direction, moving speed, size, or shade of the shadow specified by the screen specifying means, and the shadow specifying means And an operation detection unit that detects a user operation based on the identified position, size, movement amount, inclination, or shape of the screen.

また、本発明に係る入出力方法は、スクリーンをカメラが複数のタイミングで撮影するステップと、複数のタイミングにおける前記スクリーンの位置に基づいて、ユーザの操作を検知するステップと、検知したユーザの操作を被操作装置に出力するステップとを有する。   The input / output method according to the present invention includes a step in which a camera captures a screen at a plurality of timings, a step of detecting a user operation based on the position of the screen at a plurality of timings, and a detected user operation. Output to the operated device.

また、本発明に係るプログラムは、入力された複数のタイミングにおける画像データに基づいて、複数のタイミングにおけるスクリーンの位置、クリーンの大きさ、スクリーンの移動量、スクリーンの傾き、又は、スクリーンの形状を特定するスクリーン特定機能と、入力された複数のタイミングにおける画像データに基づいて、スクリーンに写った影の位置、影の移動量、影の移動方向、影の移動速度、影の大きさ、又は、影の濃淡を特定する影特定機能と、前記スクリーン特定機能により特定された影の位置、移動量、移動方向、移動速度、大きさ、又は、濃淡と、前記影特定機能により特定されたスクリーンの位置、大きさ、移動量、傾き、又は、形状とに基づいてユーザの操作を検知する操作検知機能とをコンピュータに実現させる。   In addition, the program according to the present invention determines the screen position, the clean size, the screen movement amount, the screen tilt, or the screen shape at a plurality of timings based on the input image data at a plurality of timings. Based on the screen identification function to be identified and the input image data at a plurality of timings, the position of the shadow on the screen, the amount of movement of the shadow, the direction of movement of the shadow, the speed of movement of the shadow, the size of the shadow, or The shadow specifying function for specifying the shade of the shadow and the position, moving amount, moving direction, moving speed, size, or shade of the shadow specified by the screen specifying function and the screen specified by the shadow specifying function. Allows a computer to realize an operation detection function that detects a user operation based on the position, size, movement amount, inclination, or shape.

本発明によれば、被操作装置に対する操作を効果的に検知できる。   According to the present invention, an operation on the operated device can be detected effectively.

実施形態における入出力システム1の構成を説明する図である。It is a figure explaining the composition of input / output system 1 in an embodiment. 図1の入出力システム1をより詳細に説明する図である。It is a figure explaining the input / output system 1 of FIG. 1 in detail. 図2におけるシート30の裏面に透過した影の解析方法の概要を説明する図である。It is a figure explaining the outline | summary of the analysis method of the shadow which permeate | transmitted the back surface of the sheet | seat 30 in FIG. 入出力処理装置10のハードウェア構成を例示する図である。2 is a diagram illustrating a hardware configuration of an input / output processing device 10. FIG. 入出力処理装置10の機能構成を例示する図である。2 is a diagram illustrating a functional configuration of an input / output processing device 10. FIG. 図4のシート特定部500をより詳細に説明する図である。It is a figure explaining the sheet | seat specific | specification part 500 of FIG. 4 in detail. 図4の影特定部510をより詳細に説明する図である。It is a figure explaining the shadow specific part 510 of FIG. 4 in detail. シート30に透過したユーザの影の画像解析イメージを説明する図である。5 is a diagram for explaining an image analysis image of a user's shadow transmitted through a sheet 30. FIG. シート30の形状を特定する画像解析イメージを例示する図である。3 is a diagram illustrating an image analysis image that identifies the shape of a sheet 30. FIG. 入出力システム1における入出力処理(S10)を説明するフローチャートである。It is a flowchart explaining the input / output process (S10) in the input / output system 1. 入出力システム1におけるシート入力処理(S20)を説明するフローチャートである。6 is a flowchart for explaining sheet input processing (S20) in the input / output system 1. 入出力システム1における影入力処理(S30)を説明するフローチャートである。It is a flowchart explaining the shadow input process (S30) in the input / output system 1. 実施形態における入出力システム1の変形例1を例示する図である。It is a figure which illustrates the modification 1 of the input-output system 1 in embodiment. 実施形態における入出力システム1の変形例2を例示する図である。It is a figure which illustrates the modification 2 of the input-output system 1 in embodiment. 実施形態における入出力システム1の変形例3を例示する図である。It is a figure which illustrates the modification 3 of the input-output system 1 in embodiment. 変形例3における入出力処理装置10の機能構成を例示する図である。It is a figure which illustrates the function structure of the input / output processing apparatus 10 in the modification 3. 実施形態における入出力システム1の変形例4を例示する図である。It is a figure which illustrates the modification 4 of the input-output system 1 in embodiment. 実施形態における入出力システム1の変形例5を例示する図である。It is a figure which illustrates the modification 5 of the input-output system 1 in embodiment. 実施形態における入出力システム1の変形例6を例示する図である。It is a figure which illustrates the modification 6 of the input-output system 1 in embodiment. 変形例6におけるシート特定部500をより詳細に説明する図である。It is a figure explaining the sheet | seat specific | specification part 500 in the modification 6 in detail. 実施形態における入出力システム1の変形例7を例示する図である。It is a figure which illustrates the modification 7 of the input-output system 1 in embodiment.

本発明における実施形態を、各図面に基づいて説明する。
図1は、実施形態における入出力システム1の構成を説明する図である。
図2は、図1の入出力システム1をより詳細に説明する図である。
図1及び図2に例示すように、本実施形態の入出力システム1は、入出力処理装置10と、カメラ20と、シート30と、連結部材70と、被操作装置90とを有する。
入出力システム1は、室内に、入出力処理装置10、カメラ20、及び、被操作装置90を配置し、室外(廊下や屋外)に、シート30、及び、連結部材70を配置している。なお、室内と室外との間に障害物があるものとする。
室内に配置された入出力処理装置10、カメラ20、及び、被操作装置90は、有線又は無線により互いに接続しており、本実施例の入出力処理装置10およびカメラ20は、ケーブル40Aを介して互いに接続し、カメラ20から入出力処理装置10に情報を送ることができる。また、入出力処理装置10および被操作装置90は、ケーブル40Bを介して互いに接続し、入出力処理装置10から被操作装置90に情報を送ることができる。
また、カメラ20は、障害物に対して撮影方向を向けて配置されている。ここで、障害物とは、例えば、シート30の裏面に透過した影が撮影できる程度の透明な障害物であり、本実施形態の障害物とは、窓ガラスである。つまり、カメラ20は、撮影方向を室外に向けて配置している。
他方、室外にいるユーザは、連結部材70を用いてシート30を装着し、室内にあるカメラ20の撮影可能範囲内にシート30と、シート30に写ったユーザの手の影とが含まれる位置にて入力操作を行う。なお、シート30に写ったユーザの手の影とは、光源Lからのシート30の表面に向けて入射する光の一部をユーザの手が遮る事によりシート30の表面に生じた影と、シート30の表面に生じた影がシート30の裏面に透過した影(透過光による影)とを含む概念である。
Embodiments in the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of an input / output system 1 in the embodiment.
FIG. 2 is a diagram for explaining the input / output system 1 of FIG. 1 in more detail.
As illustrated in FIGS. 1 and 2, the input / output system 1 according to the present embodiment includes an input / output processing device 10, a camera 20, a sheet 30, a connecting member 70, and an operated device 90.
In the input / output system 1, the input / output processing device 10, the camera 20, and the operated device 90 are disposed indoors, and the seat 30 and the connecting member 70 are disposed outdoors (in the hallway or outdoors). It is assumed that there is an obstacle between the room and the outdoors.
The input / output processing device 10, the camera 20, and the operated device 90 disposed in the room are connected to each other by wire or wirelessly, and the input / output processing device 10 and the camera 20 of this embodiment are connected via a cable 40A. To each other, and information can be sent from the camera 20 to the input / output processing device 10. Further, the input / output processing device 10 and the operated device 90 can be connected to each other via the cable 40B, and information can be sent from the input / output processing device 10 to the operated device 90.
In addition, the camera 20 is arranged with the shooting direction facing the obstacle. Here, the obstacle is, for example, a transparent obstacle to the extent that a shadow transmitted through the back surface of the sheet 30 can be photographed, and the obstacle in the present embodiment is a window glass. That is, the camera 20 is arranged with the shooting direction facing the outdoor.
On the other hand, a user outside the room wears the seat 30 using the connecting member 70, and the position where the seat 30 and the shadow of the user's hand reflected in the sheet 30 are included within the shootable range of the camera 20 in the room. Perform input operation with. Note that the shadow of the user's hand reflected on the sheet 30 is a shadow generated on the surface of the sheet 30 when the user's hand blocks a part of light incident on the surface of the sheet 30 from the light source L. It is a concept that includes a shadow generated on the front surface of the sheet 30 and a shadow transmitted through the back surface of the sheet 30 (a shadow caused by transmitted light).

入出力処理装置10は、コンピュータ端末であり、カメラ20を制御してシート30を含む画像をカメラ20に撮影させ、撮影した画像からユーザの入力操作を受け付け、受け付けた入力操作を被操作装置90に出力する。本実施例の入出力処理装置10は、撮影画像に対するシート30の相対的な移動距離と、撮影画像におけるシート30の裏面に透過したユーザの手の影とに基づいて、ユーザの入力操作を受け付け、受け付けた操作内容を被操作装置90に出力する。ここで、撮影画像に対するシート30の相対的な移動距離とは、図2に例示するように、シート30の移動前の撮影画像22と移動後の撮影画像22とに基づいて比較し特定する。具体的には、移動前の撮影画像22に対するシート30の基準点(SX,SY)から、移動後の撮影画像23(不図示)に対するシート30の基準点(EX,EY)に移動した移動距離に基づいて、シート30の移動距離を特定する。また、影に基づくユーザの入力操作とは、影の位置に基づいた操作(例えばポインタ操作)と、影の移動量、移動方向、及び、移動速度に基づいた操作(例えばドラッグ操作)と、影の濃淡及び大きさに基づいた操作(例えばクリック操作)とを含む概念である。   The input / output processing device 10 is a computer terminal, controls the camera 20 to cause the camera 20 to capture an image including the sheet 30, accepts a user input operation from the captured image, and accepts the received input operation to the operated device 90. Output to. The input / output processing device 10 according to the present embodiment accepts a user input operation based on the relative movement distance of the sheet 30 with respect to the captured image and the shadow of the user's hand that has passed through the back surface of the sheet 30 in the captured image. The received operation content is output to the operated device 90. Here, the relative movement distance of the sheet 30 with respect to the photographed image is compared and specified based on the photographed image 22 before the movement of the sheet 30 and the photographed image 22 after the movement, as illustrated in FIG. Specifically, the movement distance moved from the reference point (SX, SY) of the sheet 30 with respect to the photographed image 22 before movement to the reference point (EX, EY) of the sheet 30 with respect to the photographed image 23 (not shown) after movement. Based on the above, the moving distance of the sheet 30 is specified. In addition, the user input operation based on the shadow includes an operation based on the shadow position (for example, a pointer operation), an operation based on the movement amount, movement direction, and movement speed of the shadow (for example, a drag operation), a shadow operation, This is a concept including an operation (for example, a click operation) based on the density and size of the image.

カメラ20は、静止画像、又は、動画像を撮影する撮影装置であり、複数のタイミングで画像を撮影する。本例のカメラ20は、窓のガラス板を介して、シート30の一方の面(裏面)を含む画像を撮影するデジタルカメラである。カメラ20は、シート30の他方の面(表面)に光源L及びユーザの肢体の一部を配置した状態で、シート30の一方の面(裏面)を撮影可能範囲内に含むよう撮影する。   The camera 20 is a photographing device that captures still images or moving images, and captures images at a plurality of timings. The camera 20 of this example is a digital camera that captures an image including one surface (back surface) of the sheet 30 through a glass plate of a window. The camera 20 shoots so that the one surface (back surface) of the sheet 30 is included in the shootable range in a state where the light source L and a part of the user's limbs are arranged on the other surface (front surface) of the sheet 30.

シート30は、透光性を有する板状のスクリーンである。シート30は、透光性を有するならば、着色した板状、半透明な板状、又は、着色した半透明な板状であってもよい。シート30は、透過した影と略同色とならない色(例えば、好適には白等)であれば着色可能である。一方、シート30は、透過した影が認識できない色である黒や灰色である色は不向きである。本例のシート30は、黒や灰色以外の特定色Cで着色した板状のスクリーンである。また、着色したシート30は、単色又は複数色に着色可能である。
また、シート30は、少なくともシート30自身の重さにより略変形しない程度の剛性を有し、好適には、外部から外力が加えられても形状が保てる程度の剛性を有する。
また、シート30は、ユーザの肢体の一部の影が投影できる大きさに形成されている。ここで、ユーザの肢体の一部とは、ユーザの腕または脚の少なくとも一部であり、ユーザの肢体の一部は、手、又は、足を示す概念である。また、ユーザの肢体の一部の影が投影できる大きさとは、ユーザの手、又は、足の影が投影できる程度の大きさである。本例のシート30の大きさは、ユーザの腕の一部である手(手首から指先までの範囲)の影が投影できる大きさである。
また、シート30の形状は、多角形、又は、円形(楕円等を含む)に形成される。なお、本例のシート30の形状は、矩形(長方形)である。
The sheet 30 is a plate-like screen having translucency. The sheet 30 may be a colored plate shape, a translucent plate shape, or a colored translucent plate shape as long as it has translucency. The sheet 30 can be colored as long as it has a color that is not substantially the same color as the transmitted shadow (for example, preferably white). On the other hand, the sheet 30 is not suitable for black or gray, which is a color in which the transmitted shadow cannot be recognized. The sheet 30 of this example is a plate-like screen colored with a specific color C other than black or gray. The colored sheet 30 can be colored in a single color or a plurality of colors.
Further, the sheet 30 has a rigidity that does not substantially deform due to the weight of the sheet 30 itself, and preferably has a rigidity that can maintain the shape even when an external force is applied from the outside.
The sheet 30 is formed in a size that allows projection of a shadow of a part of the user's limb. Here, the part of the user's limb is at least a part of the user's arm or leg, and the part of the user's limb is a concept indicating a hand or a foot. In addition, the size capable of projecting a shadow of a part of the user's limb is a size capable of projecting the shadow of the user's hand or foot. The size of the sheet 30 in this example is a size that can project a shadow of a hand (a range from the wrist to the fingertip) that is a part of the user's arm.
Further, the sheet 30 is formed in a polygonal shape or a circular shape (including an ellipse). In addition, the shape of the sheet | seat 30 of this example is a rectangle (rectangle).

連結部材70は、ユーザの手の影がシート30に投影される間隔で、シート30とユーザの腕とを連結する連結固定具である。連結部材70は、シート30面視において、ユーザの腕と対向する位置にシート30を配置する。本実施例の連結部材70は、多軸式アームであり、シート30とユーザの腕とを連結した状態で、ユーザの手に対するシート30の角度や位置を適宜調節することができる。   The connecting member 70 is a connecting fixture that connects the sheet 30 and the user's arm at an interval at which the shadow of the user's hand is projected onto the sheet 30. The connecting member 70 arranges the sheet 30 at a position facing the user's arm when the sheet 30 is viewed. The connecting member 70 of this embodiment is a multi-axis arm, and the angle and position of the seat 30 with respect to the user's hand can be appropriately adjusted in a state where the seat 30 and the user's arm are connected.

被操作装置90は、入出力処理装置10から出力されたユーザからの操作を実行する出力装置である。被操作装置90とは、例えば、パーソナルコンピュータ90a、産業用ロボット90b、又は、画像表示装置90c等である。   The operated device 90 is an output device that executes a user operation output from the input / output processing device 10. The operated device 90 is, for example, a personal computer 90a, an industrial robot 90b, an image display device 90c, or the like.

光源Lは、電球、蛍光灯、又はLEDランプなど照明器具である。光源Lは、シート30のうち、カメラ20が撮影する面の裏面に配置され、シート30の表面に光を照射できる位置に配置される。また、光源Lは、ユーザが屋外にいる場合、太陽や月も含まれる。   The light source L is a lighting fixture such as a light bulb, a fluorescent lamp, or an LED lamp. The light source L is disposed on the back surface of the surface of the sheet 30 taken by the camera 20 and is disposed at a position where the surface of the sheet 30 can be irradiated with light. The light source L includes the sun and the moon when the user is outdoors.

このように、本実施形態の入出力システム1では、上記構成によって、ユーザが手に連結したシート30を移動させる様子をカメラ20が複数回撮影し、撮影された撮影画像から、撮影画像に対するシート30の相対的な移動距離と、シート30の裏面に透過した手の影と基づいて、ユーザの入力操作として検知し、検知した操作内容を被操作装置90に出力する。   As described above, in the input / output system 1 according to the present embodiment, with the above-described configuration, the camera 20 captures a state in which the user moves the sheet 30 connected to the hand a plurality of times, and the sheet corresponding to the captured image is captured from the captured image. Based on the relative movement distance of 30 and the shadow of the hand transmitted to the back surface of the sheet 30, it is detected as a user input operation, and the detected operation content is output to the operated device 90.

次に、シート30の裏面に透過した影の解析方法の概要を説明する。
図3は、図2におけるシート30の裏面に透過した影の解析方法の概要を説明する図である。
図3に例示するように、蛍光灯等の室内照明である光源Lは、室内を隅々まで均一に照らすため、拡散性の光を照射し、発光する部分が点ではなく面で製造されている。室内照明の光源Lから照射された光を遮蔽することにより出来る影は、光を遮蔽する手と光源Lとの距離が互いに近ければ近い程、投影された影の面積は大きくなり、かつ、影の濃さは薄くなる(図3(A))。一方で、光を遮蔽する物体と影を投影するシートとの離間距離を短くすればする程、投影された影の面積は光を遮蔽する物体と略同じ大きさとなり、かつ、影の濃さは濃くなる(図3(B))。言い換えると、天井の照明に無地の薄いA4用紙の平面を向けた状態で、照明とA4用紙との間に手をかざし、A4用紙に手を当てたりA4用紙から手を離したりした場合における、A4用紙に透過した影領域の大小、或は、影の濃淡の変化が生じる。これは、面光源による半影による影周辺輪郭部分のぼやけ、室内の他の物体による散乱光、及び、反射光等の影響が小さくなるため濃く写る。
Next, an outline of a method for analyzing a shadow transmitted through the back surface of the sheet 30 will be described.
FIG. 3 is a diagram for explaining the outline of the analysis method of the shadow transmitted through the back surface of the sheet 30 in FIG.
As illustrated in FIG. 3, the light source L, which is indoor lighting such as a fluorescent lamp, emits diffusive light in order to uniformly illuminate every corner of the room, and the light emitting portion is manufactured with a surface instead of a point. Yes. The shadow that can be obtained by shielding the light emitted from the light source L of the room illumination is such that the closer the distance between the light shielding hand and the light source L is, the larger the projected shadow area is, and The thickness of the film becomes lighter (FIG. 3A). On the other hand, the shorter the distance between the object that shields light and the sheet that projects the shadow, the larger the projected shadow area is and the darkness of the shadow. Becomes darker (FIG. 3B). In other words, with the plain thin A4 paper plane facing the ceiling lighting, hold your hand between the light and the A4 paper, and put your hand on the A4 paper or release your hand from the A4 paper. The size of the shadow area transmitted through the A4 sheet or the change in the shade of the shadow occurs. This is dark because the influence of blurring around the shadow due to the penumbra by the surface light source, scattered light from other objects in the room, reflected light, and the like is reduced.

上記原理を利用し、本実施形態の入出力システムは、光源Lとシート30の離間距離を一定とする。入出力システムは、図3(A)に例示するように、シート30とユーザの手との離間距離が一定距離からさらに長くなった場合、影領域が大きくなり、影の色は薄くなる。一方、図3(B)に例示するように、シート30とユーザ手との離間距離が一定距離から短くなった場合、影領域が小さくなり、影の色は濃くなる。   Utilizing the above principle, the input / output system of the present embodiment makes the distance between the light source L and the sheet 30 constant. In the input / output system, as illustrated in FIG. 3A, when the separation distance between the sheet 30 and the user's hand is further increased from a certain distance, the shadow region becomes large and the shadow color becomes light. On the other hand, as illustrated in FIG. 3B, when the separation distance between the sheet 30 and the user's hand is shortened from a certain distance, the shadow area becomes smaller and the shadow color becomes darker.

入出力システムは、カメラ20により上記2つの状態を撮影し、撮影した各撮影画像を基準値と比較する事で、シート30とユーザの手との離間距離が基準値以上である場合に、影に基づいたユーザの操作を検知する。具体的には、入出力システムは、シート30とユーザの手との基準となる離間距離を事前に決めておき、その距離における、影の画素数、または、画素の濃さをして基準値としてメモリ記録する。次に、シート30とユーザの手との間の距離を遠ざけたり近づけたりした際の撮影画像内の影の画素数または画素の濃さと、基準値とした影の画素数または画素の濃さと比較する。比較した結果、基準値以上である場合に、影に基づいたユーザの操作を検知する。   The input / output system captures the above two states with the camera 20 and compares each captured image with a reference value, so that when the separation distance between the sheet 30 and the user's hand is equal to or greater than the reference value, the input / output system Detects user operations based on. Specifically, the input / output system determines in advance a reference separation distance between the sheet 30 and the user's hand, and calculates the reference value by calculating the number of shadow pixels or the pixel density at that distance. As a memory record. Next, the number of shadow pixels or pixel density in the captured image when the distance between the sheet 30 and the user's hand is increased or decreased is compared with the number of shadow pixels or pixel density as a reference value. To do. As a result of comparison, when the reference value is equal to or greater than the reference value, a user operation based on the shadow is detected.

入出力システムは、影の画素数、及び、画素の濃さ又は大きさの少なくとも一方に基づいて、ユーザの操作を検知する。
入出力システムは、影の画素数に基づいてユーザの操作を検知する場合、カメラの素子、又は、カメラのコンピュータドライバーの種類・性能よっては、シート30を透過した影の微妙な濃淡色を撮影画像として捉えらない場合があるため、透過した影の画素数を用いて離間距離を割り出し、ユーザの操作を検知する方が好適である。また、光源Lが蛍光灯等の面光源ではなく太陽光やフィラメント電球等の点光源である場合には、影の画素数をカウントし、ユーザの操作を検知する方が精度が良い。
The input / output system detects a user operation based on at least one of the number of shadow pixels and the density or size of the pixels.
When the input / output system detects the user's operation based on the number of pixels of the shadow, it captures a subtle shade of the shadow that has passed through the sheet 30 depending on the type and performance of the camera element or camera computer driver. Since it may not be captured as an image, it is preferable to detect the user's operation by determining the separation distance using the number of pixels of the transmitted shadow. When the light source L is not a surface light source such as a fluorescent lamp but a point light source such as sunlight or a filament light bulb, it is more accurate to count the number of shadow pixels and detect the user's operation.

また、入出力システムは、透過した影の濃淡色に基づいてユーザの操作を検知する場合、透過した影の画素数を常時全てカウントする必要が無いため、軽い処理負荷で処理速度的には高速にユーザ操作を検知できる(何故なら一つ或は2、3の透過した影の部分の画素を抽出してその影の色の濃さを解析するだけで距離を割り出せるため)。   In addition, when the input / output system detects a user's operation based on the shaded color of the transmitted shadow, it is not necessary to always count all the pixels of the transmitted shadow, so the processing speed is high with a light processing load. User operations can be detected (because the distance can be determined by extracting one or a few transparent shadow pixels and analyzing the shadow's color intensity).

また、入出力システムは、透過した影の画素数および濃淡色に基づいてユーザの操作を検知する場合、画素数だけでユーザ操作を検知する場合に比して精度の向上が図れる。これはシート30近傍のユーザの手の形状が変化する(例えば、人差し指のみを立てた状態から全ての指を立てた状態へと遷移する)場合、影の形状もそれに合わせて変化してしまい、それに伴い影の画素数が変化しそれが入力操作ではなく離間距離の変化として捉えられてしまい、画素数の検知だけでは精度低下してしまう恐れが有るが、濃淡色に基づいて検知する手法と併用化する事でその精度低下を防げるためである。
なお、本実施形態の入出力システムは、影の濃淡(濃淡変化特定部520)、及び、影領域の大きさ(大きさ変化特定部521)の両方に基づいて、ユーザの操作を検知する形態を説明するが、これに限定されるものではなく、影領域の大きさ、又は、影の濃淡の一方のみを用いて、ユーザの操作を検知してもよい。
Further, the input / output system can improve the accuracy when detecting the user's operation based on the number of shaded shadow pixels and the shaded color as compared to detecting the user operation only with the number of pixels. This is because when the shape of the user's hand in the vicinity of the sheet 30 changes (for example, transition from a state where only the index finger is raised to a state where all fingers are raised), the shape of the shadow also changes accordingly. Along with that, the number of shadow pixels changes and it is perceived as a change in separation distance rather than an input operation, and there is a risk that accuracy may be reduced only by detecting the number of pixels, This is because it is possible to prevent a decrease in accuracy by using the combination.
Note that the input / output system of the present embodiment detects a user's operation based on both the shade of shade (the shade change specifying unit 520) and the size of the shadow region (size change specifying unit 521). However, the present invention is not limited to this, and the user's operation may be detected using only one of the size of the shadow area or the shade of the shadow.

図4は、入出力処理装置10のハードウェア構成を例示する図である。
図4に例示するように、入出力処理装置10は、CPU100、メモリ102、HDD104、ネットワークインタフェース106(ネットワークIF106)、表示装置108、及び、入力装置110を有し、これらの構成はバス112を介して互いに接続している。
CPU100は、例えば、中央演算装置である。
メモリ102は、例えば、揮発性メモリであり、主記憶装置として機能する。
HDD104は、例えば、ハードディスクドライブ装置であり、不揮発性の記録装置としてコンピュータプログラム(例えば、図5の入出力プログラム5)やその他のデータファイル(例えば、図5の設定情報データベース590)を格納する。
ネットワークIF106は、有線又は無線で通信するためのインタフェースであり、例えば、入出力処理装置10とカメラ20或は被操作装置90との通信を実現する。
表示装置108は、例えば、液晶ディスプレイであり、入力装置110は、例えば、キーボード及びマウスである。表示装置108及び入力装置110は、これらは専ら図5の設定情報データベース590等に事前保存されている入出力システムのパラメーター設定値、例えば光源Lの周辺環境による照度の補正値やシートの縦横比等をユーザ自身が手作業で調整する際に利用されるが、この調整作業が不要な場合やカメラ20の事前撮影画像より自動調整されるようにする場合は必ずしも必要ではない。
FIG. 4 is a diagram illustrating a hardware configuration of the input / output processing device 10.
As illustrated in FIG. 4, the input / output processing device 10 includes a CPU 100, a memory 102, an HDD 104, a network interface 106 (network IF 106), a display device 108, and an input device 110. Are connected to each other.
The CPU 100 is, for example, a central processing unit.
The memory 102 is, for example, a volatile memory and functions as a main storage device.
The HDD 104 is, for example, a hard disk drive device, and stores a computer program (for example, the input / output program 5 in FIG. 5) and other data files (for example, the setting information database 590 in FIG. 5) as a nonvolatile recording device.
The network IF 106 is an interface for wired or wireless communication, and realizes communication between the input / output processing device 10 and the camera 20 or the operated device 90, for example.
The display device 108 is, for example, a liquid crystal display, and the input device 110 is, for example, a keyboard and a mouse. The display device 108 and the input device 110 are exclusively used for the parameter setting values of the input / output system preliminarily stored in the setting information database 590 of FIG. Etc. are used when the user himself / herself manually adjusts, etc., but is not always necessary when this adjustment operation is unnecessary or when automatic adjustment is performed from a pre-captured image of the camera 20.

図5は、入出力処理装置10の機能構成を例示する図である。
図5に例示するように、本例の入出力処理装置10には、入出力プログラム5がインストールされると共に、設定情報データベース590(設定情報DB590)が構成される。
入出力プログラム5は、シート特定部500、影特定部510、操作検知部530、及び、操作信号出力部540を有する。なお、入出力プログラム5の一部又は全部は、ASICなどのハードウェアにより実現されてもよく、また、OS(Operating System)の機能を一部借用して実現されてもよい。
FIG. 5 is a diagram illustrating a functional configuration of the input / output processing device 10.
As illustrated in FIG. 5, the input / output processing device 10 of this example is installed with an input / output program 5 and a setting information database 590 (setting information DB 590).
The input / output program 5 includes a sheet specifying unit 500, a shadow specifying unit 510, an operation detection unit 530, and an operation signal output unit 540. Part or all of the input / output program 5 may be realized by hardware such as an ASIC, or may be realized by borrowing a part of an OS (Operating System) function.

(シート特定部500)
図6は、図5のシート特定部500をより詳細に説明する図である。
入出力プログラム5において、シート特定部500は、図6に例示するように、領域特定部502、形状特定部504、形状補正部507、及び、移動距離特定部508を有する。
(Sheet identification part 500)
FIG. 6 is a diagram illustrating the sheet specifying unit 500 in FIG. 5 in more detail.
In the input / output program 5, the sheet specifying unit 500 includes an area specifying unit 502, a shape specifying unit 504, a shape correcting unit 507, and a moving distance specifying unit 508, as illustrated in FIG.

領域特定部502は、カメラ20により撮影された撮影画像内におけるシート30の色に基づいて、シート30の領域を特定する。本例の領域特定部502は、撮影画像の画素を順次走査して解析し、特定色Cのカラー値(RGB値)が連続する領域を特定することにより、特定色Cで着色したシート30の領域を特定する。   The area specifying unit 502 specifies the area of the sheet 30 based on the color of the sheet 30 in the captured image captured by the camera 20. The area specifying unit 502 in this example sequentially scans and analyzes the pixels of the captured image and specifies an area in which the color values (RGB values) of the specific color C are continuous, whereby the sheet 30 colored with the specific color C is displayed. Identify the area.

形状特定部504は、カメラ20により撮影された撮影画像におけるシート30の形状を特定する。本例の形状特定部504は、領域特定部502により特定されたシート30の特定色Cの画素部分を抽出し、抽出した画素部分から影部分を含むシート30の全体形状を特定する。   The shape identifying unit 504 identifies the shape of the sheet 30 in the captured image captured by the camera 20. The shape specifying unit 504 in this example extracts the pixel portion of the specific color C of the sheet 30 specified by the region specifying unit 502, and specifies the overall shape of the sheet 30 including the shadow portion from the extracted pixel portion.

形状補正部507は、形状特定部504により特定されたシート30の全体形状から、シート30の変形(例えば傾きや撓み)を、変形前の形状に補正する。本実施例の形状補正部507は、設定情報データベース590に事前入力された長方形の形状をしたシート30の縦横の比率を基準値として、この基準値と、前述の形状特定部504により特定されたシート30の形状と比較して、シート30本来の縦横比と傾きによる遠近や撓みにより発生した差異を計算し、計算結果に基づいて本来の長方形の形状となるように形状を補正する。   The shape correcting unit 507 corrects the deformation (for example, inclination or deflection) of the sheet 30 to the shape before deformation from the overall shape of the sheet 30 specified by the shape specifying unit 504. The shape correcting unit 507 of the present embodiment uses the reference value and the shape specifying unit 504 specified by using the vertical / horizontal ratio of the rectangular sheet 30 preliminarily input to the setting information database 590 as a reference value. Compared with the shape of the sheet 30, the difference caused by the perspective and the deflection due to the original aspect ratio and inclination of the sheet 30 is calculated, and the shape is corrected so as to become the original rectangular shape based on the calculation result.

移動距離特定部508は、カメラ20により複数のタイミングで撮影された複数の撮影画像に基づいて、シート30の移動量を特定する。移動距離特定部508は、カメラ20により撮影された複数の撮影画像から、シート30の移動前の撮影画像と、シート30の移動後の撮影画像と比較し、撮影画像内におけるシート30の移動量を特定する。本例の移動距離特定部508は、撮影画像内におけるシート30の左隅の開始位置座標を基準点とし、シート30の移動前後の撮影画像から基準点の移動量を特定する。   The movement distance identification unit 508 identifies the movement amount of the sheet 30 based on a plurality of captured images captured at a plurality of timings by the camera 20. The movement distance specifying unit 508 compares the captured image before the movement of the sheet 30 with the captured image after the movement of the sheet 30 from the plurality of captured images captured by the camera 20, and the amount of movement of the sheet 30 in the captured image. Is identified. The moving distance specifying unit 508 of this example uses the start position coordinates of the left corner of the sheet 30 in the captured image as a reference point, and specifies the amount of movement of the reference point from the captured images before and after the movement of the sheet 30.

(影特定部510)
図7は、図5の影特定部510をより詳細に説明する図である。
図7に例示するように、影特定部510は、基準値設定部511、画素特定部512、位置特定部514、移動距離特定部516、移動方向特定部517、移動速度特定部518、濃淡変化特定部520、大きさ変化特定部521、及び、離間距離特定部522を有する。
(Shadow identification unit 510)
FIG. 7 is a diagram for explaining the shadow specifying unit 510 of FIG. 5 in more detail.
As illustrated in FIG. 7, the shadow specifying unit 510 includes a reference value setting unit 511, a pixel specifying unit 512, a position specifying unit 514, a moving distance specifying unit 516, a moving direction specifying unit 517, a moving speed specifying unit 518, and a light / dark change. A specifying unit 520, a size change specifying unit 521, and a separation distance specifying unit 522 are included.

基準値設定部511は、シート30とユーザの手との既定の離間距離における影領域の画素値(より具体的には画素のカラー値等の示すRGB値)、及び、その画素数を基準値として設定する。この基準値設定部511に設定された基準値は、シート30とユーザの手との予め決められた既定の離間距離毎の影領域の画素値と画素数とし、シート30とユーザの手が任意の離間距離に有る場合において、その離間距離を相対算出する際の指標となる。基準値設定部511は、シート30とユーザの手が既定の離間距離に配置された際の影領域の画素値と画素数とを別途事前測定し、それを直接マニュアル入力する事により基準値として設定しても良いし、シート30とユーザの手が前述の既定の離間距離やある特定距離に配置した際の撮影画像から自動的に基準値を設定出来るようにしても良い。また、撮影画像から自動的に設定する際に基準値設定部511が基準値として設定する画素値は、後述する濃淡変化特定部520がシート30とユーザの手が前述既定の離間距離に配置された際にシート30に発生した影領域部分の画素の色データー値つまりRGB値によりその濃淡の特定作業を行い、一方、基準値として設定する画素数は、後述する大きさ変化特定部521或は画素特定部512がその影領域の画素数をカウントすることにより特定作業を行い、これらの特定された画素値と画素数が基準値として基準値設定部511により記憶設定される。
なお、基準値設定部511は、自動的に基準値を設定する場合、周辺の照度環境の影響を撮影画像より一定間隔で取り込む事で動的に補正した画素値を設定出来るようにして精度向上を図っても良い。
なお、本例の基準値設定部511は、例えば、事前測定により基準値を設定し、例えば、シート30にユーザの手(例えば人差し指を立てた状態の手)が接触した状態(基準離間距離Z0)(入力状態)の画素値、及び、画素数を基準値C0とし、シート30とユーザの手とが離間した状態(基準離間距離Z5)(未入力状態)の画素値、及び、画素数を基準値C5とを設定する。
The reference value setting unit 511 uses the pixel value of the shadow region (more specifically, the RGB value indicated by the color value of the pixel) at the predetermined separation distance between the sheet 30 and the user's hand, and the number of pixels as the reference value. Set as. The reference value set in the reference value setting unit 511 is the pixel value and the number of pixels of the shadow area for each predetermined predetermined separation distance between the sheet 30 and the user's hand, and the sheet 30 and the user's hand are arbitrarily set When the distance is within the distance, it becomes an index for relative calculation of the distance. The reference value setting unit 511 separately measures in advance the pixel value and the number of pixels of the shadow area when the sheet 30 and the user's hand are arranged at a predetermined separation distance, and directly inputs them as a reference value. Alternatively, the reference value may be automatically set from a photographed image when the sheet 30 and the user's hand are arranged at the above-described predetermined separation distance or a specific distance. In addition, the pixel value set by the reference value setting unit 511 as a reference value when automatically setting from a photographed image is set such that a light / dark change specifying unit 520 described later is arranged with the sheet 30 and the user's hand at the predetermined separation distance. In this case, the density specifying operation is performed based on the color data values of the pixels in the shadow area generated on the sheet 30, that is, the RGB values. On the other hand, the number of pixels set as the reference value is the size change specifying unit 521 or The pixel specifying unit 512 performs a specifying operation by counting the number of pixels in the shadow area, and the specified pixel value and the number of pixels are stored and set by the reference value setting unit 511 as a reference value.
When the reference value is automatically set, the reference value setting unit 511 improves the accuracy by setting the dynamically corrected pixel value by capturing the influence of the surrounding illuminance environment from the photographed image at regular intervals. You may plan.
Note that the reference value setting unit 511 of this example sets the reference value by, for example, prior measurement, for example, a state in which the user's hand (for example, a hand with an index finger raised) is in contact with the sheet 30 (reference separation distance Z0). ) The pixel value and the number of pixels in (input state) are set as a reference value C0, and the pixel value and the number of pixels in a state where the sheet 30 and the user's hand are separated (reference separation distance Z5) (non-input state) A reference value C5 is set.

画素特定部512は、カメラ20により撮影された撮影画像に基づいて、光源Lからシート30に照射された光をユーザが遮ることにより生じた、シート30内における影の領域の画素を特定する。具体的には、画素特定部512は、領域特定部502により特定されたシート30の領域内における影領域の画素を特定する。画素特定部512は、カメラ20により複数のタイミングで撮影された各画像を解析してシート30の領域内の影領域の画素を特定する。画素特定部512は、例えば、影の色を黒と仮定(つまりRGB値=0)し、黒と同色または黒に近似する色の画素を特定することにより、特定した画素が連続する領域を影領域とする。
また、画素特定部512は、例えば、シート30の特定色Cのカラー値(RGB値)である画素の領域以外の部分の画素を特定し、特定した画素が連続する領域を影領域としてもよい。これにより、間接的にシート30の領域内における影領域の画素を特定する。なお、本実施例の画素特定部512は、黒と同色または黒に近似する色の画素が連続する領域を特定することにより、シート30の領域内における影領域とする。
Based on the captured image captured by the camera 20, the pixel specifying unit 512 specifies a pixel in a shadow area in the sheet 30 that is generated when the user blocks light emitted from the light source L onto the sheet 30. Specifically, the pixel specifying unit 512 specifies pixels in the shadow area within the area of the sheet 30 specified by the area specifying unit 502. The pixel specifying unit 512 analyzes each image captured at a plurality of timings by the camera 20 and specifies the pixels in the shadow area within the area of the sheet 30. For example, the pixel specifying unit 512 assumes that the shadow color is black (that is, the RGB value = 0) and specifies a pixel having the same color as black or a color close to black. This is an area.
In addition, the pixel specifying unit 512 may specify, for example, pixels in a portion other than the pixel area that is the color value (RGB value) of the specific color C of the sheet 30, and a region where the specified pixels are continuous may be used as a shadow region. . As a result, the pixels of the shadow area in the area of the sheet 30 are indirectly specified. Note that the pixel specifying unit 512 of the present embodiment specifies a region in which pixels of the same color as black or a color similar to black are continuous, thereby setting a shadow region in the region of the sheet 30.

位置特定部514は、カメラ20により撮影された撮影画像におけるシート30の領域内のユーザの手、或はユーザの手の特定部位の影の位置を特定する。具体的には、位置特定部514は、画素特定部512より特定されたシート30内の影領域(正確には影のエリア)の各画素のうちユーザの手の部分に該当する画素全てのエリア、或はユーザの手の特定部位の画素エリアを抽出しその位置を特定する。
本実施例の位置特定部514は、画素特定部512により特定されたユーザの手の影のうち、撮影画像のシート30における指先の位置を特定する。なお、指先の特定方法については前述の影領域の内、カメラ撮影画像の内最も左上、或は右上の位置の画素の座標を指先の位置と見做す事により特定しても良いし、人差し指でシート30を押下する場合において指先近傍エリアが最も影が濃くなるためその原理を利用して、手の影の画素の内一定以上の影の濃さ以上の画素を全て抽出し、その縦横の中心の位置の画素を割り出して指先の影の位置として見做す事で特定しても良い。勿論、影領域全体をユーザの手と見做してシステムを構成しても良い。
なお、位置特定部514は、前述シート特定部500や領域特定部502で特定したカメラ撮影画像内のシート30領域と相対比較する事でシート30内におけるユーザの手の影の相対位置を算出可能である。
The position specifying unit 514 specifies the position of the shadow of the user's hand or a specific part of the user's hand in the area of the sheet 30 in the captured image taken by the camera 20. Specifically, the position specifying unit 514 is an area for all the pixels corresponding to the user's hand among the pixels in the shadow area (exactly, the shadow area) in the sheet 30 specified by the pixel specifying unit 512. Alternatively, a pixel area of a specific part of the user's hand is extracted and its position is specified.
The position specifying unit 514 according to the present exemplary embodiment specifies the position of the fingertip on the sheet 30 of the captured image among the shadows of the user's hand specified by the pixel specifying unit 512. As for the fingertip specifying method, it may be specified by regarding the coordinates of the pixel at the upper left or upper right position in the camera-captured image as the fingertip position in the above-mentioned shadow area, or by pointing the index finger. When the sheet 30 is pressed down, the shadow in the vicinity of the fingertip is the darkest. Therefore, using the principle, all the pixels of the shadow of the hand that are more than a certain shade are extracted, It may be specified by determining the pixel at the center position and considering it as the shadow position of the fingertip. Of course, the system may be configured by regarding the entire shadow area as a user's hand.
The position specifying unit 514 can calculate the relative position of the shadow of the user's hand in the sheet 30 by making a relative comparison with the sheet 30 region in the camera-captured image specified by the sheet specifying unit 500 or the region specifying unit 502. It is.

移動距離特定部516は、カメラ20により撮影された複数のタイミングにおけるユーザの影の移動量を特定する。具体的には、移動距離特定部516は、位置特定部514により特定されたユーザの手の影の位置を前述の複数のタイミングで求めて、それらの位置変化を算出する事により移動量を特定する。本実施例の移動距離特定部516は、位置特定部514により特定されたユーザの指先の影における移動量を特定する。移動距離特定部516は、カメラ20により複数のタイミングで撮影された複数の撮影画像から、移動前後のユーザの指先の影の位置を比較し、撮影画像(シート30内)におけるユーザの指先の影の移動量を特定する。   The movement distance specifying unit 516 specifies the movement amount of the user's shadow at a plurality of timings taken by the camera 20. Specifically, the moving distance specifying unit 516 determines the amount of movement by calculating the position change of the shadow of the user's hand specified by the position specifying unit 514 at the above-described multiple timings. To do. The movement distance specifying unit 516 of this embodiment specifies the movement amount in the shadow of the user's fingertip specified by the position specifying unit 514. The movement distance specifying unit 516 compares the positions of the shadows of the user's fingertips before and after the movement from a plurality of captured images captured at a plurality of times by the camera 20, and the shadows of the user's fingertips in the captured images (in the sheet 30). Specify the amount of movement.

移動方向特定部517は、カメラ20により撮影された複数のタイミングにおける影の移動方向を特定する。具体的には、移動方向特定部517は、位置特定部514により特定されたユーザの手の影における撮影画像(シート30内)に対する移動方向を特定する。本実施例の移動方向特定部517は、位置特定部514により特定されたユーザの指先の影における移動方向を特定する。移動方向特定部517は、カメラ20により複数のタイミングで撮影された撮影画像から、移動前後のユーザの指先の影の位置に基づいて、撮影画像(シート30内)におけるユーザの指先の影の移動方向を特定する。   The movement direction identification unit 517 identifies the movement direction of the shadow at a plurality of timings taken by the camera 20. Specifically, the moving direction specifying unit 517 specifies the moving direction with respect to the captured image (in the sheet 30) in the shadow of the user's hand specified by the position specifying unit 514. The moving direction specifying unit 517 of this embodiment specifies the moving direction in the shadow of the user's fingertip specified by the position specifying unit 514. The movement direction specifying unit 517 moves the shadow of the user's fingertip in the captured image (in the sheet 30) based on the position of the shadow of the user's fingertip before and after the movement, from the captured images captured at a plurality of timings by the camera 20. Identify the direction.

移動速度特定部518は、カメラ20により撮影された複数のタイミングにおける影の移動速度を特定する。移動速度特定部518は、移動距離特定部516により特定されたユーザの影の移動量と、複数のタイミングで撮影された撮影画像の撮影間隔時間とに基づいて影の移動速度を特定する。本実施例の移動速度特定部518は、移動距離特定部516により特定されたユーザの指先の影の移動量と、移動前後の撮影画像の撮影間隔時間とに基づいて、撮影画像(シート30内)におけるユーザの指先の影の移動速度を特定する。   The moving speed specifying unit 518 specifies the moving speed of the shadow at a plurality of timings taken by the camera 20. The moving speed specifying unit 518 specifies the moving speed of the shadow based on the movement amount of the user's shadow specified by the moving distance specifying unit 516 and the shooting interval time of the shot images shot at a plurality of timings. The moving speed specifying unit 518 according to the present embodiment uses the captured image (in the sheet 30) based on the movement amount of the shadow of the fingertip of the user specified by the moving distance specifying unit 516 and the shooting interval time of the taken image before and after the movement. ) To specify the moving speed of the shadow of the user's fingertip.

濃淡変化特定部520は、画素特定部512により特定された影の画素における濃淡の変化を特定する。具体的には、濃淡変化特定部520は、シート30とユーザの手とにおける既定の離間距離を基準とした画素値を基準値として、この基準値と、複数のタイミングで撮影された画像の影領域の画素値とを比較して、画素値の増減を影の濃淡の変化とする。また、濃淡変化特定部520は、基準値より画素値の濃さが上回っているか否かに基づいて、影の画素の2値情報を特定する。   The light / dark change specifying unit 520 specifies the light / dark change in the shadow pixel specified by the pixel specifying unit 512. Specifically, the light / dark change specifying unit 520 uses, as a reference value, a pixel value based on a predetermined separation distance between the sheet 30 and the user's hand as a reference value, and a shadow of an image captured at a plurality of timings. The pixel value of the region is compared, and the increase / decrease in the pixel value is defined as a change in the shade of the shadow. Also, the light / dark change specifying unit 520 specifies binary information of shadow pixels based on whether or not the pixel value is darker than the reference value.

大きさ変化特定部521は、カメラ20により複数のタイミングで撮影された複数の画像データから、光源Lから照射された光をユーザが遮ることにより生じる影領域の大きさを比較して、影の大きさの変化を特定する。本実施例の大きさ変化特定部521は、画素特定部512により特定された影領域の広さの増減を影の大きさの変化とする。具体的には、大きさ変化特定部521は、影領域の画素数に基づいて影領域の広さの変化を特定する。大きさ変化特定部521は、シート30とユーザの手とにおける既定の離間距離を基準とした画素数を基準値として、この基準値と、複数のタイミングで撮影された画像の影領域の画素数とを比較して、影領域の広さの増減を影の大きさの変化とする。   The size change specifying unit 521 compares the size of the shadow region generated by the user blocking the light emitted from the light source L from a plurality of image data captured by the camera 20 at a plurality of timings. Identify changes in size. The size change specifying unit 521 according to the present embodiment sets the increase or decrease in the size of the shadow area specified by the pixel specifying unit 512 as a change in the size of the shadow. Specifically, the size change specifying unit 521 specifies a change in the size of the shadow area based on the number of pixels in the shadow area. The size change specifying unit 521 uses, as a reference value, the number of pixels based on a predetermined separation distance between the sheet 30 and the user's hand as a reference value, and the number of pixels in a shadow region of an image captured at a plurality of timings. And the increase / decrease in the size of the shadow area is defined as a change in the size of the shadow.

離間距離特定部522は、濃淡変化特定部520により特定された濃淡の変化、又は、大きさ変化特定部521により特定された影領域の大きさの変化に基づいて、シート30からユーザまでの距離を特定する。ここで、距離の特定とは、実際の距離(数値)を測定することに限定されるものではなく、距離の変化状況(近づいている/遠ざかっている、或いは、最も近づいた瞬間)であってもよいし、基準値よりも近い又は遠いという判定結果であってもよい。
本例の離間距離特定部522は、濃淡変化特定部520により特定された濃淡の変化、及び、大きさ変化特定部521により特定された影領域の大きさの変化に基づいて、ユーザの手の最近接点(例えば指先)と、シート30の距離が事前に決めておいた基準の距離(シート30に触れているとみなして良い距離)よりも近いか否かを判定する。
The separation distance specifying unit 522 is a distance from the sheet 30 to the user based on the change in shading specified by the shading change specifying unit 520 or the change in the size of the shadow area specified by the size change specifying unit 521. Is identified. Here, the identification of the distance is not limited to measuring the actual distance (numerical value), but is a change state of the distance (approaching / moving away, or the closest moment) Alternatively, it may be a determination result that is closer or farther than the reference value.
The separation distance specifying unit 522 of the present example is based on the change in shading specified by the shading change specifying unit 520 and the change in the size of the shadow area specified by the size change specifying unit 521. It is determined whether or not the distance between the closest contact point (for example, the fingertip) and the sheet 30 is closer than a predetermined reference distance (a distance that can be regarded as touching the sheet 30).

(操作検知部530)
図5に例示するように、操作検知部530は、シート30による入力操作と、シート30に透過した影による入力操作とを監視し、ユーザの操作として検知する。
シート30による入力操作として、操作検知部530は、カメラ20により撮影された撮影画像に基づいて、シート特定部500により特定されたシート30の移動量を検知する。
また、影による入力操作として、操作検知部530は、影特定部510により特定された影の位置と、影の移動量と、影の移動方向と、影の移動速度と、影の濃淡又は影の大きさとの組み合わせに基づいて、ユーザの操作を検知する。本例の操作検知部530は、影の指先の位置を基準とし、基準とした位置からの移動量、移動方向、及び、移動速度に基づいた影の移動操作と、影の大きさ、又は、影の濃淡の変化に基づいた影の入出力操作との組み合わせに基づいてユーザの操作とする。
(Operation detection unit 530)
As illustrated in FIG. 5, the operation detection unit 530 monitors an input operation by the sheet 30 and an input operation by a shadow transmitted through the sheet 30 and detects it as a user operation.
As an input operation by the sheet 30, the operation detection unit 530 detects the amount of movement of the sheet 30 specified by the sheet specifying unit 500 based on the captured image captured by the camera 20.
In addition, as an input operation using a shadow, the operation detection unit 530 includes a position of the shadow specified by the shadow specifying unit 510, a movement amount of the shadow, a moving direction of the shadow, a moving speed of the shadow, a shading density or a shadow. The user's operation is detected based on the combination with the size. The operation detection unit 530 of this example is based on the position of the fingertip of the shadow, and the shadow movement operation based on the movement amount, movement direction, and movement speed from the reference position and the size of the shadow, or The user's operation is based on a combination with a shadow input / output operation based on a change in shadow shade.

(操作信号出力部540)
操作信号出力部540は、操作検知部530によりユーザの操作が検知された場合に、検知されたユーザ操作に対応した応答信号を被操作装置90に対応した形で出力する。
本例の操作信号出力部540は、操作検知部530によりユーザの操作が検知された場合に、検知したシート30の移動量と、検知したユーザの指先の影の位置、移動量、移動方向、及び、移動速度等とに基づいた入力操作をポインタの表示座標制御信号として、ユーザの指先の影の大きさ、又は、影の濃淡の変化に基づいた入出力操作を同ポインタに対するクリック操作を制御するON−OFF信号として被操作装置90(例えば画像表示装置90c)に出力させる。
なお、被操作装置90が産業用ロボット90b等の場合は、前述の指先の影の位置や移動方向等に基づいた入力操作をそのロボットの位置や移動方向を制御する信号として出力しても良い。
このように、入出力プログラム5は、シート特定部500、影特定部510、操作検知部530、及び、操作信号出力部540により構成されている。
(Operation signal output unit 540)
When the operation detection unit 530 detects a user operation, the operation signal output unit 540 outputs a response signal corresponding to the detected user operation in a form corresponding to the operated device 90.
The operation signal output unit 540 of this example, when a user operation is detected by the operation detection unit 530, the detected movement amount of the sheet 30, the detected shadow position, movement amount, movement direction of the user's fingertip, Also, the input operation based on the moving speed etc. is used as the pointer display coordinate control signal, and the input / output operation based on the change of the shadow size of the user's fingertip or the shade density is controlled. The ON / OFF signal is output to the operated device 90 (for example, the image display device 90c).
When the operated device 90 is an industrial robot 90b or the like, an input operation based on the above-described fingertip shadow position or moving direction may be output as a signal for controlling the position or moving direction of the robot. .
As described above, the input / output program 5 includes the sheet specifying unit 500, the shadow specifying unit 510, the operation detecting unit 530, and the operation signal output unit 540.

図8は、シート30に透過したユーザの影の画像解析イメージを説明する図である。
図8(A)は、シート30とユーザの手との離間距離が基準離間距離Z5より遠い場合の画像解析イメージを例示する図であり、図8(B)は、シート30とユーザの手との離間距離が基準離間距離Z5より近い場合の画像解析イメージを例示する図である。
入出力プログラム1は、予め、基準値設定部511により、シート30とユーザの手とが離間した状態(基準離間距離Z5)(未入力状態)の画素値(より具体的には画素のカラー値等の示すRGB値)、及び、画素数を基準値C5として設定する。
FIG. 8 is a diagram for explaining an image analysis image of a user's shadow transmitted through the sheet 30.
FIG. 8A is a diagram illustrating an image analysis image when the separation distance between the sheet 30 and the user's hand is longer than the reference separation distance Z5, and FIG. It is a figure which illustrates an image analysis image in case the separation distance of is nearer than the reference separation distance Z5.
The input / output program 1 previously stores pixel values (more specifically, pixel color values) in a state where the sheet 30 and the user's hand are separated by the reference value setting unit 511 (reference separation distance Z5) (non-input state). RGB values) and the number of pixels are set as the reference value C5.

図8に例示するように、カメラ20はシート30とユーザの手とが離間した状態(基準離間距離Z7)を撮影し、入出力装置20は撮影画像を解析する。
画素特定部512は、撮影画像のシート30の領域内の画素を撮影画像の左隅または右隅から順次走査して解析し、位置特定部514は、黒と同色または黒に近似する色の画素を初めて特定した部分の画素を、例えば指先に位置する画素として特定する。なお、指先の位置の画素に着目した理由として、入力操作時の手において指先がシート30に最も接近するためである。
濃淡変化特定部520は、位置特定部514により特定された指先の位置における画素の画素値と、基準値設定部511で設定された画素値の基準値C5とを比較し、両者の相対的な濃淡値やその基準値に比して明るいか否かの2値情報を特定する。
As illustrated in FIG. 8, the camera 20 captures a state where the sheet 30 and the user's hand are separated (reference separation distance Z7), and the input / output device 20 analyzes the captured image.
The pixel specifying unit 512 sequentially scans and analyzes the pixels in the area of the sheet 30 of the photographed image from the left corner or the right corner of the photographed image, and the position specifying unit 514 selects a pixel having the same color as black or a color similar to black. The pixel of the part specified for the first time is specified as a pixel located at the fingertip, for example. The reason for paying attention to the pixel at the fingertip position is that the fingertip is closest to the sheet 30 in the hand during the input operation.
The light / dark change specifying unit 520 compares the pixel value of the pixel at the position of the fingertip specified by the position specifying unit 514 with the reference value C5 of the pixel value set by the reference value setting unit 511, and compares the relative values of the two. Binary information indicating whether the image is brighter than the gray value or its reference value is specified.

図8(A)に例示するように、濃淡変化特定部520は、位置特定部514により特定された指先の位置における画素の画素値が基準値C5の画素値に比して明るい(薄い)場合、明るい(薄い)状態を示す2値情報の値を出力する。
また、大きさ変化特定部521は、画素特定部512により特定されたユーザの影の領域の画素数と、基準値C5の画素数とを相対値を計算し、それにより得られる相対的な影領域が大きい場合、影領域が大きい状態を示す値を出力する。
離間距離特定部516は、濃淡変化特定部520により特定された明るい(薄い)状態を示す2値情報の値と、大きさ変化特定部521はより特定された影領域が大きい状態を示す値とに基づいて、基準離間距離Z5により、離間距離Z7の方が、シート30とユーザの手とが遠いと判定する。つまり、離間距離特定部516は、シート30とユーザの手が遠い状態つまりOFFと判定する。
As illustrated in FIG. 8A, the light / dark change specifying unit 520 has a case where the pixel value of the pixel at the position of the fingertip specified by the position specifying unit 514 is brighter (lighter) than the pixel value of the reference value C5. The value of binary information indicating a bright (light) state is output.
The size change specifying unit 521 calculates the relative value of the number of pixels in the shadow area of the user specified by the pixel specifying unit 512 and the number of pixels of the reference value C5, and obtains the relative shadow obtained thereby. When the area is large, a value indicating a state where the shadow area is large is output.
The separation distance specifying unit 516 is a binary information value indicating a bright (thin) state specified by the shading change specifying unit 520, and the size change specifying unit 521 is a value indicating a state in which the more specified shadow region is large. Based on the above, it is determined by the reference separation distance Z5 that the separation distance Z7 is farther from the seat 30 and the user's hand. That is, the separation distance specifying unit 516 determines that the sheet 30 and the user's hand are far away, that is, OFF.

他方、図8(B)に例示するように、濃淡変化特定部520は、位置特定部514により特定された指先の位置における画素の画素値が基準値C5の画素値に比して暗い(濃い)場合、暗い(濃い)状態を示す2値情報の値を出力する。
また、大きさ変化特定部521は、画素特定部512により特定されたユーザの影の領域の画素数と、基準値C5の画素数とを相対値を計算し、それにより得られる相対的な影領域が小さい場合、影領域が小さい状態を示す値を出力する。
離間距離特定部516は、濃淡変化特定部520により特定された暗い(濃い)状態を示す2値情報の値と、大きさ変化特定部521はより特定された影領域が小さい状態を示す値とに基づいて、基準離間距離Z5により、離間距離Z7の方が、シート30とユーザの手とが近いと判定する。つまり、離間距離特定部516は、シート30とユーザの手が近い状態つまりONと判定する。
なお、本実施形態の入出力システムの離間距離特定部516は、影の濃淡(濃淡変化特定部520)、及び、影領域の大きさ(大きさ変化特定部521)の両方に基づいて、シート30とユーザの手との離間距離を特定する形態を説明するが、これに限定されるものではなく、影領域の大きさ、又は、影の濃淡の一方のみを用いて、離間距離を特定してもよい。
離間距離特定部516は、シート30とユーザの手との遠近判定において、前述の影の濃淡(2値情報)と、影領域の大きさ(相対的な影領域の大小の増減)との両方を利用して判定することにより遠近判定精度を高めることができる。また、離間距離特定部516は、影領域の大きさ、又は、影の濃淡の一方のみを用いて遠近判定を行うことにより、処理速度向上させることができる。例えば、影の濃淡(2値情報)だけ用いて判定するようにすれば、影領域の画素を全て抽出する必要がなく、位置特定部514で特定されたユーザの指先の位置の画素値の解析だけに限定できるため処理速度向上が図れる。
このように、入出力システム1は、撮影された撮影画像における影領域のうち、ユーザの手の指先に位置の画素に着目した場合の画像解析を行うことにより、画像全体の画素を走査解析することなく、ユーザの指先の位置を特定できるため、軽い処理負荷で高速にユーザ操作を検知できる。これにより、例えば、空中配置したタッチパッド(トラックパッド等)に適したシステムとすることができる。
On the other hand, as illustrated in FIG. 8B, the shading change specifying unit 520 has a darker (darker) pixel value of the pixel at the fingertip position specified by the position specifying unit 514 than the pixel value of the reference value C5. ), A binary information value indicating a dark (dark) state is output.
The size change specifying unit 521 calculates the relative value of the number of pixels in the shadow area of the user specified by the pixel specifying unit 512 and the number of pixels of the reference value C5, and obtains the relative shadow obtained thereby. When the area is small, a value indicating that the shadow area is small is output.
The separation distance specifying unit 516 is a binary information value indicating the dark (dark) state specified by the light / dark change specifying unit 520, and the size change specifying unit 521 is a value indicating a state in which the more specified shadow region is small. Based on the above, it is determined from the reference separation distance Z5 that the separation distance Z7 is closer to the user's hand. That is, the separation distance specifying unit 516 determines that the sheet 30 and the user's hand are close, that is, ON.
Note that the separation distance specifying unit 516 of the input / output system of the present embodiment is based on both the shadow density (shading change specifying unit 520) and the size of the shadow area (size change specifying unit 521). However, the present invention is not limited to this, and the distance is specified using only one of the size of the shadow area or the shade of the shadow. May be.
In the perspective determination between the sheet 30 and the user's hand, the separation distance specifying unit 516 uses both the above-described shade density (binary information) and the size of the shadow region (relative increase / decrease in the size of the shadow region). It is possible to improve perspective determination accuracy by making a determination using Further, the separation distance specifying unit 516 can improve the processing speed by performing perspective determination using only one of the size of the shadow region or the shade of the shadow. For example, if the determination is made using only the shading density (binary information), it is not necessary to extract all the pixels in the shadow area, and the pixel value at the position of the user's fingertip specified by the position specifying unit 514 is analyzed. Therefore, the processing speed can be improved.
As described above, the input / output system 1 scans and analyzes the pixels of the entire image by performing image analysis when focusing on the pixel located at the fingertip of the user's hand in the shadow region in the captured image. Therefore, since the position of the user's fingertip can be specified, the user operation can be detected at high speed with a light processing load. Thereby, for example, a system suitable for a touch pad (track pad or the like) disposed in the air can be obtained.

図9は、シート30の形状を特定する画像解析イメージを例示する図である。図9(A)は、撮影画像内における撓んだ状態のシート30の画像解析イメージを例示する図であり、図9(B)は、撮影画像内における傾斜した状態のシート30の画像解析イメージを例示する図である。
図9(A)に例示するように、カメラ20は、撮影範囲の外周上辺に対して角度R1、及び、撮影範囲の外周下辺に対して角度R2傾いたシート30を撮影する。よって、画像解析時におけるシート30は、撮影画像外周の上辺に対して角度R1、及び、下辺に対して角度R2傾いている。
形状特定部504は、領域特定部502により特定されたシート30の特定色Cの画素部分を抽出し、抽出した画素部分から影部分を含むシート30の全体形状を特定する。
形状補正部507は、特定されたシート30の全体形状から、角度R1、及び、角度R2の角度傾きを算出し、変形前のシート30の形状に補正する。
なお、算出した前述の角度R1、及び、角度R2の角度傾きの値を、ユーザの指先の影の位置、移動量と一緒に操作信号出力部540から出力できるように拡張しても良い。こうする事により、例えば、ユーザがシート30を大きく傾けた際にユーザがキーボードのShiftキー等の何らかのキーを押下した操作と同じ意味を付加する事が可能(つまりShiftキーを押したままのタッチパッド操作の再現が可能)となり、シート30に対する操作だけで多様な操作が可能になる。
FIG. 9 is a diagram illustrating an image analysis image that identifies the shape of the sheet 30. FIG. 9A is a diagram illustrating an image analysis image of the bent sheet 30 in the captured image, and FIG. 9B is an image analysis image of the inclined sheet 30 in the captured image. FIG.
As illustrated in FIG. 9A, the camera 20 captures an image of a sheet 30 that is inclined at an angle R1 with respect to the upper peripheral edge of the imaging range and an angle R2 with respect to the lower peripheral edge of the imaging range. Therefore, the sheet 30 at the time of image analysis is inclined by an angle R1 with respect to the upper side of the outer periphery of the captured image and an angle R2 with respect to the lower side.
The shape specifying unit 504 extracts the pixel portion of the specific color C of the sheet 30 specified by the region specifying unit 502, and specifies the overall shape of the sheet 30 including the shadow portion from the extracted pixel portion.
The shape correcting unit 507 calculates the angle inclinations of the angle R1 and the angle R2 from the specified overall shape of the sheet 30, and corrects it to the shape of the sheet 30 before deformation.
Note that the calculated values of the angle R1 and the angle inclination of the angle R2 may be extended so that the operation signal output unit 540 can output the values together with the shadow position and movement amount of the user's fingertip. In this way, for example, when the user greatly tilts the seat 30, it is possible to add the same meaning as the operation of the user pressing a key such as the Shift key on the keyboard (that is, touch with the Shift key held down). Pad operation can be reproduced), and various operations can be performed only by operating the sheet 30.

また、図9(B)に例示するように、カメラ20は、撮影方向に対して角度Tの角度で傾斜したシート30を撮影する。シート30は、例えば、カメラ20に対して上辺が近く、下辺が遠くなるよう傾斜している。よって、画像解析時におけるシート30は、上辺A1の画素数の方が、下辺A2の画素数より多い逆台形状となっている。
形状特定部504は、領域特定部502により特定されたシート30の特定色Cの画素部分を抽出し、抽出した画素部分から影部分を含むシート30の全体形状を特定する。
形状補正部507は、特定されたシート30の全体形状から、上辺A1と下辺A2との比率を算出し、遠近の原理により傾斜角度Tを求めることができる。これにより、形状補正部507は、変形前のシート30の形状に補正することができる。また、操作検知部530は、影の位置と、影の移動量とに加えて、算出した前述の傾斜角度Tの値をユーザの操作内容として検知し、操作信号出力部540は、操作検知部530により検知された操作内容を被操作装置90に出力するよう拡張しても良い。これより多様な操作が可能になる。
なお、上辺及び下辺の場合を説明したが、右辺及び左辺の場合も同様のためその説明は割愛する。
Further, as illustrated in FIG. 9B, the camera 20 captures the sheet 30 inclined at an angle T with respect to the capturing direction. For example, the sheet 30 is inclined so that the upper side is closer to the camera 20 and the lower side is farther from the camera 20. Therefore, the sheet 30 at the time of image analysis has an inverted trapezoidal shape in which the number of pixels on the upper side A1 is larger than the number of pixels on the lower side A2.
The shape specifying unit 504 extracts the pixel portion of the specific color C of the sheet 30 specified by the region specifying unit 502, and specifies the overall shape of the sheet 30 including the shadow portion from the extracted pixel portion.
The shape correcting unit 507 can calculate the ratio of the upper side A1 and the lower side A2 from the specified overall shape of the sheet 30, and obtain the inclination angle T based on the perspective principle. Thereby, the shape correction | amendment part 507 can correct | amend to the shape of the sheet | seat 30 before a deformation | transformation. Further, the operation detection unit 530 detects the calculated value of the tilt angle T as a user operation content in addition to the shadow position and the amount of movement of the shadow, and the operation signal output unit 540 includes the operation detection unit. The operation content detected by 530 may be extended to be output to the operated device 90. Various operations are possible.
Although the case of the upper side and the lower side has been described, the same applies to the case of the right side and the left side, and the description thereof will be omitted.

図10は、入出力システム1における入出力処理(S10)を説明するフローチャートである。なお、入出力処理(S10)は、基準値設定部511による基準値の設定を完了していることを前提として説明する。また、入出力処理(S10)は、カメラ20が撮影する毎に行う処理である。
まず、基準値の設定を説明する。
ユーザは、入出力処理(S10)を行う前に基準値の設定を行う。ユーザは、連結部材70を介してユーザの手と対向する位置にシート30を配置し、シート30に手を接触させた状態(基準離間距離Z0)(入力状態)と、シート30と手とが離間した状態(基準離間距離Z5)(未入力状態)とをカメラ20に撮影させる。
基準値設定部511は、シート30に手を接触させた状態(基準離間距離Z0)の画素値、及び、画素数を基準値C0とし、シート30と手とが離間した状態(基準離間距離Z5)の画素値、及び、画素数を基準値C5として設定する。このとき、ユーザの手の形状は、例えば人差し指を立てた状態であると仮定して説明する。
FIG. 10 is a flowchart illustrating the input / output process (S10) in the input / output system 1. The input / output process (S10) will be described on the assumption that the reference value setting by the reference value setting unit 511 has been completed. The input / output process (S10) is a process performed every time the camera 20 captures an image.
First, the setting of the reference value will be described.
The user sets the reference value before performing the input / output process (S10). The user arranges the sheet 30 at a position facing the user's hand through the connecting member 70, and the state in which the hand is brought into contact with the sheet 30 (reference separation distance Z 0) (input state), and the sheet 30 and the hand are The camera 20 is caused to photograph the separated state (reference separation distance Z5) (non-input state).
The reference value setting unit 511 sets the pixel value and the number of pixels when the hand is in contact with the sheet 30 (reference separation distance Z0) as the reference value C0, and the sheet 30 is separated from the hand (reference separation distance Z5). ) And the number of pixels are set as the reference value C5. At this time, the description will be made assuming that the shape of the user's hand is, for example, a state in which the index finger is raised.

図10に例示するように、ステップ100(S100)において、カメラ20は、定期的にシート30を撮影し、撮影した撮影画像を入出力処理装置10に送信する。
ステップ102(S102)において、入出力処理(S10)は、シート入力処理(S20)の処理を行う。入出力処理(S10)は、シート入力処理(S20)の処理を終了後に、ステップ104(S104)の処理に移行する。
ステップ104(S104)において、入出力処理(S10)は、影入力処理(S30)の処理を行う。入出力処理(S10)は、影入力処理(S30)の処理を終了後に、ステップ106(S106)の処理に移行する。
ステップ106(S106)において、操作信号出力部540は、シート入力処理(S20)の処理により出力された操作内容と、影入力処理(S30)の処理により出力された操作内容とをユーザの操作内容として、被操作装置90に出力する。
シート入力処理(S20)の処理により出力された操作内容とは、シート30の移動量に基づいた影の入力操作(ポインタ移動操作)であり、影入力処理(S30)の処理により出力された操作内容とは、影の指先の移動量、移動方向、及び、移動速度に基づいた影の移動操作(ポインタ移動操作)と、影の大きさ、又は、影の濃淡の変化に基づいた影の入力操作(いわゆるクリック操作)との組み合わせ操作である。
As illustrated in FIG. 10, in step 100 (S <b> 100), the camera 20 periodically captures the sheet 30 and transmits the captured image to the input / output processing device 10.
In step 102 (S102), the input / output process (S10) performs the sheet input process (S20). In the input / output process (S10), after the process of the sheet input process (S20) is completed, the process proceeds to the process of step 104 (S104).
In step 104 (S104), the input / output process (S10) performs the shadow input process (S30). In the input / output process (S10), after finishing the shadow input process (S30), the process proceeds to step 106 (S106).
In step 106 (S106), the operation signal output unit 540 displays the operation contents output by the sheet input process (S20) and the operation contents output by the shadow input process (S30) as the user operation contents. Is output to the operated device 90.
The operation content output by the process of the sheet input process (S20) is a shadow input operation (pointer movement operation) based on the movement amount of the sheet 30, and the operation output by the process of the shadow input process (S30). The contents are the shadow movement operation (pointer movement operation) based on the movement amount, movement direction, and movement speed of the fingertip of the shadow, and the input of the shadow based on the change in shadow size or shade This is a combination operation with an operation (so-called click operation).

図11は、入出力システム1におけるシート入力処理(S20)を説明するフローチャートである。
図11に例示するように、ステップ200(S200)において、領域特定部502は、カメラ20により撮影された撮影画像を順次走査して解析し、特定色Cのカラー値(RGB値)が連続する領域を特定することにより、特定色Cで着色したシート30の領域を特定する。形状特定部504は、領域特定部502により特定されたシート30の特定色Cの画素部分を抽出し、抽出した画素部分からシート30の全体形状を特定する。
FIG. 11 is a flowchart illustrating sheet input processing (S20) in the input / output system 1.
As illustrated in FIG. 11, in step 200 (S200), the region specifying unit 502 sequentially scans and analyzes the shot images shot by the camera 20, and the color value (RGB value) of the specific color C is continuous. By specifying the region, the region of the sheet 30 colored with the specific color C is specified. The shape specifying unit 504 extracts the pixel portion of the specific color C of the sheet 30 specified by the region specifying unit 502, and specifies the overall shape of the sheet 30 from the extracted pixel portion.

ステップ202(S202)において、形状補正部507は、特定したシート30の全体形状が変形(例えば傾きや撓み)しているか否かを判定する。
シート入力処理(S20)は、形状補正部507により特定されたシート30の形状が変形している場合に、S204の処理に移行し、特定したシート30の形状が変形していなかった場合に、S206の処理に移行する。
In step 202 (S202), the shape correction unit 507 determines whether or not the specified overall shape of the sheet 30 is deformed (for example, tilted or bent).
In the sheet input process (S20), when the shape of the sheet 30 specified by the shape correction unit 507 is deformed, the process proceeds to S204, and when the shape of the specified sheet 30 is not deformed, The process proceeds to S206.

ステップ204(S204)において、形状補正部507は、シート30の変形(例えば傾きや撓み)を特定し、変形前の形状に補正する。   In step 204 (S204), the shape correction unit 507 identifies the deformation (for example, inclination or deflection) of the sheet 30, and corrects the shape before the deformation.

ステップ206(S206)において、操作検知部530は、シート30の移動の有無を検知する。操作検知部530は、移動距離特定部508により特定されたシート30の移動量の有無を検知する。
シート入力処理(S20)は、ユーザの操作が検知された場合に、S208の処理に移行し、ユーザの操作が検知されなかった場合に、本シート入力処理(S20)を終了させる。
In step 206 (S206), the operation detection unit 530 detects whether or not the sheet 30 has moved. The operation detection unit 530 detects the presence or absence of the movement amount of the sheet 30 specified by the movement distance specification unit 508.
The sheet input process (S20) proceeds to the process of S208 when a user operation is detected, and ends the sheet input process (S20) when the user operation is not detected.

ステップ208(S208)において、移動距離特定部508は、カメラ20により撮影された複数の撮影画像から、シート30の移動前後の撮影画像を比較する。移動距離特定部508は、シート30の左隅の開始位置座標を基準点とし、基準点の移動距離をシート30の移動量として特定する。なお、図11のフローチャートはあくまで一例である。例えばシート30の位置や移動量だけでなく傾き入出力システム1の出力値の一つとして利用する場合はその処理を別途追加する必要が有る。   In step 208 (S208), the moving distance specifying unit 508 compares the captured images before and after the movement of the sheet 30 from a plurality of captured images captured by the camera 20. The movement distance specifying unit 508 specifies the start position coordinates of the left corner of the sheet 30 as a reference point, and specifies the movement distance of the reference point as the movement amount of the sheet 30. Note that the flowchart of FIG. 11 is merely an example. For example, when it is used as one of output values of the tilt input / output system 1 as well as the position and movement amount of the sheet 30, it is necessary to add the processing separately.

ステップ210(S210)において、シート特定部500は、操作検知部530へ検知されたシート30の移動検知信号を出力すると共に、移動距離特定部508により特定されたシート30の移動量を操作信号出力部540に出力する。なお、検知信号を出力する代わりにシート30の移動状態を監視するフラグを適当な共有メモリ空間に用意して、それをONにして移動有り無しの状態を外部の処理ルーチンやオブジェクト、或は被操作装置90等が任意のタイミングで参照出来るようにしても良い。
シート入力処理(S20)は、S208の処理終了後に、入出力処理(S10)のS104の処理に移行する。
In step 210 (S210), the sheet specifying unit 500 outputs a movement detection signal of the detected sheet 30 to the operation detecting unit 530 and outputs an operation signal indicating the movement amount of the sheet 30 specified by the moving distance specifying unit 508. Output to the unit 540. Instead of outputting the detection signal, a flag for monitoring the movement state of the sheet 30 is prepared in an appropriate shared memory space, and the state of no movement is set by turning on the external processing routine or object or object. The operation device 90 or the like may be referred to at an arbitrary timing.
The sheet input process (S20) proceeds to the process of S104 of the input / output process (S10) after the process of S208 ends.

図12は、入出力システム1における影入力処理(S30)を説明するフローチャートである。
図12に例示するように、ステップ300(S300)において、画素特定部512は、領域特定部502により特定されたシート30の領域内における影領域(を示す黒と同色または黒に近似する色)の画素が連続する領域を特定する。なお、この時の特定に用いる具体的なアルゴリズム例としては、シート30領域内の画素の中から黒色に近いRGB値を指定して特定するか、シート30の色である特定色CのRGB値を用いてそれ以外の領域を抽出して特定する方法等が挙げられる。なお、本実施例の画素特定部512は、黒と同色または黒に近似する色を指定し、指定した画素が連続する領域を特定することにより、シート30の領域内における影領域を特定する。
FIG. 12 is a flowchart illustrating the shadow input process (S30) in the input / output system 1.
As illustrated in FIG. 12, in step 300 (S <b> 300), the pixel specifying unit 512 displays a shadow region (the same color as black indicating black or a color similar to black) within the region of the sheet 30 specified by the region specifying unit 502. A region where the pixels are continuous is specified. In addition, as a specific algorithm example used for specifying at this time, an RGB value close to black is specified and specified from pixels in the sheet 30 area, or an RGB value of a specific color C which is the color of the sheet 30 For example, a method for extracting and specifying the other region using the. Note that the pixel specifying unit 512 of this embodiment specifies a shadow area in the area of the sheet 30 by specifying a color that is the same color as black or similar to black and specifying an area in which the specified pixels are continuous.

ステップ302(S302)において、影特定部510は、画素特定部512により特定された影領域(を示す黒と同色または黒に近似する色)の画素が連続する領域を特定し他か否かを判定する。
影入力処理(S30)は、影特定部510により影領域を特定された場合に、S304の処理に移行し、影領域を特定されない(つまりシート30近傍にユーザの手が存在しない)場合に、本影入力処理(S30)を終了させる。
なお、この判定時に影領域の画素の連続数つまり影領域の面積の閾値を多めにして撮影画像のノイズを減じて精度を高めても良い。逆に影領域の画素が一つでも見つかった場合に影領域が有ると判断するようにして影領域を検知する感度を高めても良い。
In step 302 (S302), the shadow specifying unit 510 specifies whether or not to specify an area in which pixels in the shadow area specified by the pixel specifying unit 512 (the same color as that of black or a color similar to black) are continuous. judge.
The shadow input process (S30) proceeds to the process of S304 when the shadow area is specified by the shadow specifying unit 510, and when the shadow area is not specified (that is, the user's hand does not exist near the sheet 30), The main shadow input process (S30) is terminated.
In this determination, the number of continuous pixels in the shadow region, that is, the threshold value of the shadow region area may be increased to reduce the noise of the photographed image to increase the accuracy. Conversely, the sensitivity of detecting a shadow area may be increased by determining that there is a shadow area when even one pixel in the shadow area is found.

ステップ304(S304)において、位置特定部514は、画素特定部512により特定された影領域の内、ユーザの手の指先部分の影の画素の座標を特定する。なお、この時の特定に用いる具体的なアルゴリズム例としては、画素特定部で特定した影領域の内、最も左上、或は右上の位置の画素の座標を指先の位置と見做す事により特定する方法、もしくは影領域の中心の位置の画素を割り出して指先の位置として見做す事で特定する方法等が挙げられる。   In step 304 (S304), the position specifying unit 514 specifies the coordinates of the shadow pixel of the fingertip portion of the user's hand in the shadow area specified by the pixel specifying unit 512. In addition, as a specific algorithm example used for identification at this time, it is specified by regarding the coordinates of the pixel at the upper left or upper right position in the shadow area specified by the pixel specifying unit as the position of the fingertip. And a method of identifying the pixel at the center position of the shadow area and identifying it as the position of the fingertip.

ステップ306(S306)において、移動距離特定部516は、位置特定部514により特定されたユーザの手の影における移動量を特定し、移動方向特定部517は、位置特定部514により特定されたユーザの指先の影における移動方向を特定する。また、移動速度特定部518は、移動距離特定部516により特定されたユーザの指先の影の移動量と、移動前後の撮影画像の撮影間隔時間とに基づいて、撮影画像(シート30内)におけるユーザの指先の影の移動速度を特定する。(いわゆるポインタ移動操作)   In step 306 (S306), the moving distance specifying unit 516 specifies the amount of movement in the shadow of the user's hand specified by the position specifying unit 514, and the moving direction specifying unit 517 is the user specified by the position specifying unit 514. The moving direction in the shadow of the fingertip is specified. In addition, the moving speed specifying unit 518 uses the moving amount of the shadow of the user's fingertip specified by the moving distance specifying unit 516 and the shooting interval time of the shot images before and after the movement in the shot image (in the sheet 30). The moving speed of the shadow of the user's fingertip is specified. (So-called pointer movement operation)

ステップ308(S308)において、濃淡変化特定部520は、位置特定部514により特定されたユーザの手の指先部分の影の画素の画素値(つまりRGB値)における濃淡の変化を特定する。また、大きさ変化特定部520は、位置特定部514により特定されたユーザの手の指先部分の影の画素の範囲つまり大きさを特定する。   In step 308 (S308), the light / dark change specifying unit 520 specifies the light / dark change in the pixel value (ie, RGB value) of the shadow pixel of the fingertip portion of the user's hand specified by the position specifying unit 514. In addition, the size change specifying unit 520 specifies the pixel range, that is, the size of the shadow of the fingertip portion of the user's hand specified by the position specifying unit 514.

ステップ310(S310)において、濃淡変化特定部520は、特定したユーザの手の指先部分の影の画素の画素値と、基準値設定部511により設定した基準値C5の画素値とを相対比較する。また、大きさ変化特定部520は、特定したユーザの手の指先部分の影領域と、基準値設定部511により設定した基準値C5の画素領域とを相対比較する。
離間距離特定部522は、濃淡変化特定部520により特定された濃淡の変化、及び、大きさ変化特定部521により特定された影領域の大きさの変化に基づいて、シート30からユーザまでの距離を算出する。
In step 310 (S310), the light / dark change specifying unit 520 relatively compares the pixel value of the shadow pixel of the fingertip portion of the specified user's hand with the pixel value of the reference value C5 set by the reference value setting unit 511. . Further, the size change specifying unit 520 relatively compares the shadow region of the fingertip portion of the specified user's hand with the pixel region of the reference value C5 set by the reference value setting unit 511.
The separation distance specifying unit 522 is a distance from the sheet 30 to the user based on the change in shading specified by the shading change specifying unit 520 and the change in the size of the shadow area specified by the size change specifying unit 521. Is calculated.

ステップ312(S312)において、影特定部510は、濃淡変化特定部520により特定されたユーザの手の指先部分の影の画素の画素値と、基準値設定部511により設定した基準値C5の画素値との比較結果、及び、大きさ変化特定部520により特定されたユーザの手の指先部分の影領域と、基準値設定部511により設定した基準値C5の画素領域との比較結果に基づいて、ユーザの手の指先部分の影が基準値C5より濃いか否かを判定する。
影入力処理(S30)は、影特定部510により画素が基準値より濃い(暗い)、換言するとシート30とユーザの指先が近い場合に、S314に移行し、画素が基準値より薄い(明るい)、換言するとシート30とユーザの指先が遠い場合に、S316に移行する。
In step 312 (S312), the shadow specifying unit 510 determines the pixel value of the shadow pixel of the fingertip portion of the user's hand specified by the shading change specifying unit 520 and the pixel of the reference value C5 set by the reference value setting unit 511. Based on the comparison result with the value and the comparison result between the shadow region of the fingertip portion of the user's hand specified by the size change specifying unit 520 and the pixel region of the reference value C5 set by the reference value setting unit 511 Then, it is determined whether or not the shadow of the fingertip portion of the user's hand is darker than the reference value C5.
In the shadow input process (S30), when the pixel is darker (darker) than the reference value by the shadow specifying unit 510, in other words, when the sheet 30 is close to the user's fingertip, the process proceeds to S314, and the pixel is lighter (brighter) than the reference value. In other words, when the sheet 30 is far from the user's fingertip, the process proceeds to S316.

ステップ314(S314)において、濃淡変化特定部520は、位置特定部514により特定された指先の位置における画素の画素値が基準値C5の画素値に比して濃い(暗い)場合、濃い(暗い)状態を示すONを2値情報に設定する。   In step 314 (S314), the light / dark change specifying unit 520 is dark (dark) when the pixel value of the pixel at the fingertip position specified by the position specifying unit 514 is darker than the pixel value of the reference value C5. ) ON indicating the state is set in the binary information.

ステップ316(S316)において、濃淡変化特定部520は、位置特定部514により特定された指先の位置における画素の画素値が基準値C5の画素値に比して薄い(明るい)場合、薄い(明るい)状態を示すOFFを2値情報に設定する。
なお、2値情報を設定する場合において、本例のS314及びS316のように基準値に基づいて濃淡を比較する方法に限定するものではなく、例えば前述のS310で算出した離間距離に基づいて、シート30とユーザの手の指先の離間距離が5mm以下の状態になればONを、離間距離が5mm以上ならOFFを2値情報に設定しても良い。
In step 316 (S316), the light / dark change specifying unit 520 is light (bright) when the pixel value of the pixel at the fingertip position specified by the position specifying unit 514 is thinner (brighter) than the pixel value of the reference value C5. ) OFF indicating the state is set in the binary information.
In the case of setting the binary information, the method is not limited to the method of comparing the shades based on the reference values as in S314 and S316 of this example, for example, based on the separation distance calculated in S310 described above, The binary information may be set to ON when the separation distance between the sheet 30 and the fingertip of the user's hand is 5 mm or less, and OFF when the separation distance is 5 mm or more.

ステップ318(S318)において、影特定部510は、操作検知部530により検知された影による何らかの操作検知信号と共に、位置特定部514により特定された影の位置、移動距離特定部516により特定された移動量、及び、離間距離特定部522により特定されたシート30とのユーザの手の離間距離と、濃淡変化特定部20により特定された近い遠いの離間距離の状態を示す2値情報等の数値とを操作信号出力部540に出力する。
なお、検知信号を出力する代わりに影による何らかの操作の検知有無を示すフラグを適当な共有メモリ空間に用意して、それをONにして影による操作の検知の有無を外部の処理ルーチンやオブジェクト、或は被操作装置90等が任意のタイミングで参照出来るようにしても良い。
影入力処理(S30)は、S312の処理終了後に、入出力処理(S10)のS106の処理に移行する。
In step 318 (S318), the shadow specifying unit 510 is specified by the position and moving distance specifying unit 516 of the shadow specified by the position specifying unit 514 together with some operation detection signal based on the shadow detected by the operation detecting unit 530. Numerical values such as binary information indicating the amount of movement, the separation distance of the user's hand from the sheet 30 identified by the separation distance identification unit 522, and the state of the near and far separation distance identified by the light / dark change identification unit 20 Are output to the operation signal output unit 540.
Instead of outputting a detection signal, a flag indicating whether or not some operation is detected by a shadow is prepared in an appropriate shared memory space, and it is turned on to determine whether or not an operation by a shadow is detected by an external processing routine or object, Alternatively, the operated device 90 or the like may be referred to at an arbitrary timing.
The shadow input process (S30) proceeds to the process of S106 of the input / output process (S10) after the process of S312 ends.

以上説明したように、本実施形態の入出力システム1によれば、ユーザと、シート30に透過した影とを含む撮影画像からユーザの操作を検知することにより、カメラ20とユーザとの間に窓等が介在しても、被操作装置90を遠隔地から操作可能なポインティングデバイスとすることができる。また、入出力システム1は、入出力装置10、カメラ20、及び、被操作装置90を屋内に配置出来るため屋外の風雨に晒される事もなく盗難のリスクも抑えられる。
また、入出力システム1は、シート30を透過する光による光源Lとそのシート間のユーザの手の影を利用する事により、撮影画像を2値化し、2値化した画像を解析するため、コンピュータの処理の負荷が低く、そのまま撮影画像からユーザの手の位置を判別するシステムに比して高精度で高速である。また、入出力システム1は、シートを反射した反射光による影を用いる場合と違いユーザの手や指先がユーザの体や手に隠されて死角になる事がないので指先の位置を正確に特定出来、ユーザの指先がシートに一定以上近づかないとその透過した影はカメラでは捉えられ難くいため、シートが一種のフィルタとして作用し余分なユーザの手の影をマスキングし誤検知を防ぐ役割も果たす。しかもシートの厚さ、或は光透過率を調節する事によりそのマスキングの程度も調節可能である。
また、シート30には、コードや通信装置(無線装置、赤外線装置)等を具備しないため軽量である。よって、操作するユーザにかかる負担を軽減することができるため、詳細は後述するが左右どちらかの腕にシート30を支持して中空で動かす事によるマウス型のポインティングデバイスが具現化出来る。また、カメラ20がシート30撮影出来る程度の透明度が有る環境下に限定されるが水中での使用も可能である。
なお、本実施形態の入出力システム1は、ユーザの腕にシート30を装着する場合を説明したが、これに限定するものではなく、予めシート30を窓ガラスに固定してもよい。この場合、ユーザの視界の妨げとならない位置にシート30を固定することが好適である。
As described above, according to the input / output system 1 of the present embodiment, by detecting the user's operation from the captured image including the user and the shadow transmitted through the sheet 30, the camera 20 and the user can be detected. Even if a window or the like is interposed, the operated device 90 can be a pointing device that can be operated from a remote place. Further, since the input / output system 1, the input / output device 10, the camera 20, and the operated device 90 can be disposed indoors, the input / output system 1 is not exposed to outdoor wind and rain, and the risk of theft can be suppressed.
Further, the input / output system 1 binarizes the captured image by using the light source L by the light transmitted through the sheet 30 and the shadow of the user's hand between the sheets, and analyzes the binarized image. The processing load on the computer is low, and it is highly accurate and fast compared to a system that determines the position of the user's hand from the captured image as it is. In addition, the input / output system 1 accurately identifies the position of the fingertip because the user's hand and fingertip are not hidden in the user's body and hand unlike the case of using shadows reflected from the sheet. Yes, if the user's fingertips do not approach the sheet more than a certain amount, the transmitted shadow is difficult to be captured by the camera. . In addition, the degree of masking can be adjusted by adjusting the thickness of the sheet or the light transmittance.
The seat 30 is lightweight because it does not include a cord, a communication device (wireless device, infrared device), or the like. Therefore, since the burden on the user who operates can be reduced, a mouse-type pointing device can be implemented by supporting the seat 30 on either the left or right arm and moving it hollow, as will be described in detail later. Moreover, although it is limited to the environment where the camera 20 is transparent enough to photograph the sheet 30, it can be used underwater.
In addition, although the input / output system 1 of this embodiment demonstrated the case where the sheet | seat 30 was mounted | worn with a user's arm, it is not limited to this, You may fix the sheet | seat 30 to a window glass beforehand. In this case, it is preferable to fix the seat 30 at a position that does not hinder the user's field of view.

次に、上記実施例における変形例を説明する。
なお、変形例では、上記実施例と実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略する。
[変形例1]
本変形例1の入出力システム100は、シート30の周縁領域の色を中央領域の色と異なる色で形成し、シート30の周縁領域の色に基づいてシート30を特定するシステムである。
図13は、実施形態における入出力システム1の変形例1を例示する図である。
図13に例示するように、本変形例1のシート30は、上記実施形態と同様に黒や灰色以外の特定色Cで着色した透光性を有する板状のスクリーンである。しかし、本変形例1のシート30は、複数色に発色するよう形成されている。シート30は、例えば、中央領域における発色する色と、周縁領域における発色する色とが異なるよう形成されている。本変形例1のシート30は、中央領域における発色する色は特定色Cであり、周縁領域における発色する色は特定色CAである。シート30の周縁領域の着色法として、着色された布や紙等の接着、又は、ペインティング等により実現できる。
Next, a modification of the above embodiment will be described.
In the modification, elements having substantially the same functions and configurations as those in the above embodiment are denoted by the same reference numerals, and redundant description is omitted.
[Modification 1]
The input / output system 100 according to the first modification is a system in which the color of the peripheral area of the sheet 30 is different from the color of the central area, and the sheet 30 is specified based on the color of the peripheral area of the sheet 30.
FIG. 13 is a diagram illustrating a first modification of the input / output system 1 in the embodiment.
As illustrated in FIG. 13, the sheet 30 of the first modification is a translucent plate-like screen colored with a specific color C other than black or gray as in the above embodiment. However, the sheet 30 of the first modification is formed so as to be colored in a plurality of colors. The sheet 30 is formed so that, for example, the color that develops in the central region and the color that develops in the peripheral region are different. In the sheet 30 of the first modification, the color that develops in the central region is the specific color C, and the color that develops in the peripheral region is the specific color CA. As a coloring method of the peripheral region of the sheet 30, it can be realized by adhesion of a colored cloth or paper, painting, or the like.

また、入出力プログラム5のシート特定部500における領域特定部502は、中央領域における発色する色と、周縁領域における発色する色とが異なるよう形成されたシート30を特定するため、カメラ20により撮影された撮影画像内におけるシート30の周縁領域の色(特定色CA)に基づいて、シート30の領域を特定する。言い換えると、領域特定部502は、特定色CAに囲まれた領域を特定する。   In addition, the area specifying unit 502 in the sheet specifying unit 500 of the input / output program 5 takes a picture with the camera 20 in order to specify the sheet 30 formed so that the color to be developed in the central area is different from the color to be developed in the peripheral area. The region of the sheet 30 is specified based on the color (specific color CA) of the peripheral region of the sheet 30 in the captured image. In other words, the area specifying unit 502 specifies an area surrounded by the specific color CA.

このように、変形例1の入出力システム100は、シート30の周縁領域の色を中央領域の色と異なるよう形成し、領域特定部502により周縁領域の色に囲まれた領域内を特定させることにより、撮影画像内から単色のシート30を特定する場合に比べて、検知精度を高めることができる。
また、入出力システム1は、画像解析時に、領域特定部502に特定色CAに囲まれた領域を特定させるため、特定色CAに囲まれていない領域に、シート30の中央領域の特定色Cと同じ色の物体Mが存在してもノイズとして処理でき、シート30の誤検知を防止することができる。
As described above, the input / output system 100 of Modification 1 forms the color of the peripheral area of the sheet 30 to be different from the color of the central area, and causes the area specifying unit 502 to specify the area surrounded by the color of the peripheral area. Thus, the detection accuracy can be improved as compared with the case where the monochromatic sheet 30 is specified from the captured image.
Further, the input / output system 1 causes the area specifying unit 502 to specify an area surrounded by the specific color CA at the time of image analysis, so that the specific color C in the central area of the sheet 30 is not included in the area surrounded by the specific color CA. Even if an object M having the same color as that of the sheet 30 exists, it can be processed as noise, and erroneous detection of the sheet 30 can be prevented.

[変形例2]
本変形例2の入出力システム102は、光源Lとシート30との離間距離を可変自在に固定した入出力システムである。
図14は、実施形態における入出力システム1の変形例2を例示する図である。図14(A)は、ユーザの手からシート30を遠ざけた場合の撮影画像を例示する図であり、図14(B)は、ユーザの手にシート30を近づけた場合の撮影画像を例示する図である。
本変形例2における入出力システム102は、入出力処理装置10と、カメラ20と、シート30と、連結部材70と、被操作装置90とに加えて、連結部材80とを有する。
連結部材80は、光源Lとシート30とを連結する連結具である。連結部材80は、シート30の他方の面に光を照射する光源Lと、シート30との離間距離を可変可能に連結している。連結部材80は、例えば、光源Lを支持する支持材と、シート30を支持する支持材とがスライド自在に接続している。
連結部材80は、図14(A)に例示するように、ユーザの手からシート30を遠ざけたることにより、カメラ20により撮影された画像内のシート30に投影された影の領域は、ユーザの手のサイズより大きくなる。
一方、連結部材80は、図14(B)に例示するように、ユーザの手にシート30を近づけることにより、カメラ20により撮影された画像内のシート30に投影された影の領域は、ユーザの手のサイズと略等しくなる。
このように、連結部材80は、光源Lとシート30との離間距離を変えることにより、シート30に投影される影の大きさを調節することができる。
これにより、入出力システム102は、例えば指先の微細な動きであっても影のサイズを拡大して検知することができるため、指先の微細な動きが必要な入力操作においても誤認検知を防止出来る。例えば、手首を左右に振る操作で出力されるドラッグ操作である場合、手首の微細な動きであっても影のサイズを大きくした状態で検知することにより、出力する移動量を増加させることができる。つまり、シート30に対する影のサイズを拡大縮小することにより、出力する移動量を増加減少させることができる。
[Modification 2]
The input / output system 102 according to the second modification is an input / output system in which the distance between the light source L and the sheet 30 is variably fixed.
FIG. 14 is a diagram illustrating a second modification of the input / output system 1 in the embodiment. FIG. 14A is a diagram illustrating a photographed image when the sheet 30 is moved away from the user's hand, and FIG. 14B illustrates a photographed image when the sheet 30 is brought close to the user's hand. FIG.
The input / output system 102 according to the second modification includes a connection member 80 in addition to the input / output processing device 10, the camera 20, the sheet 30, the connection member 70, and the operated device 90.
The connecting member 80 is a connecting tool that connects the light source L and the sheet 30. The connecting member 80 connects the light source L that irradiates light to the other surface of the sheet 30 and the separation distance between the sheet 30 so as to be variable. For example, the connecting member 80 is slidably connected to a support member that supports the light source L and a support member that supports the sheet 30.
As illustrated in FIG. 14A, the connecting member 80 moves the sheet 30 away from the user's hand, so that the shadow area projected on the sheet 30 in the image captured by the camera 20 is It becomes larger than the size of the hand.
On the other hand, as illustrated in FIG. 14B, the connecting member 80 brings the sheet 30 close to the user's hand, so that the shadow area projected on the sheet 30 in the image captured by the camera 20 is Is approximately equal to the size of the hand.
As described above, the connecting member 80 can adjust the size of the shadow projected on the sheet 30 by changing the separation distance between the light source L and the sheet 30.
As a result, the input / output system 102 can detect, for example, even a minute movement of the fingertip by enlarging the shadow size, and thus can prevent misdetection even in an input operation that requires a minute movement of the fingertip. . For example, in the case of a drag operation that is output by an operation of shaking the wrist to the left or right, the amount of movement to be output can be increased by detecting a small movement of the wrist while the shadow size is increased. . That is, the amount of movement to be output can be increased or decreased by enlarging or reducing the size of the shadow on the sheet 30.

[変形例3]
本変形例3の入出力システム104は、複数のシート30からの入力をそれぞれ識別してユーザの入力操作を検知する入出力システムである。
図15は、実施形態における入出力システム1の変形例3を例示する図である。
図15に例示するように、入出力システム104は、入出力処理装置10と、カメラ20と、シート30と、被操作装置90とを有する。本変形例3の入出力システム104は、シート30Aに投影されたユーザ1の手の影と、シート30Bに投影されたユーザ2の手の影とをカメラ20が同じ画像内に納めるよう撮影し、入出力処理装置10が撮影された撮影画像から各シート30のユーザの操作をそれぞれ検知し、検知したユーザの操作をそれぞれ画像表示装置90cに出力する。
本変形例3のシート30は、複数あり、それぞれ異なる色を発色する。具体的には、シート30には、シート30Aは特定色Cを発色するシート30Aと、特定色C2を発色するシート30Bとがある。
[Modification 3]
The input / output system 104 according to the third modification is an input / output system that identifies inputs from a plurality of sheets 30 and detects user input operations.
FIG. 15 is a diagram illustrating a third modification of the input / output system 1 in the embodiment.
As illustrated in FIG. 15, the input / output system 104 includes an input / output processing device 10, a camera 20, a seat 30, and an operated device 90. The input / output system 104 of the third modification shoots the shadow of the hand of the user 1 projected on the sheet 30A and the shadow of the hand of the user 2 projected on the sheet 30B so that the camera 20 fits in the same image. The input / output processing device 10 detects a user operation on each sheet 30 from the captured image, and outputs the detected user operation to the image display device 90c.
There are a plurality of sheets 30 of the third modification, and each of them develops a different color. Specifically, the sheet 30 includes a sheet 30A that develops a specific color C and a sheet 30B that develops a specific color C2.

図16は、変形例3における入出力処理装置10の機能構成を例示する図である。
図16に例示するように、本変形例3の入出力処理装置10にインストールされた入出力プログラム5は、シート特定部500、影特定部510、操作検知部530、及び、操作信号出力部540に加えて、識別部550をさらに有する。
識別部550は、カメラ20により撮影された撮影画像に基づいて、シート30Aが発色する色と、シート30Bが発色する色とを識別する。具体的には、識別部550は、領域特定部502により特定された、シート30Aが発色する特定色Cのカラー値(RGB値)が連続する領域と、シート30Bが発色する特定色C2のカラー値(RGB値)が連続する領域とにそれぞれ識別IDを付する。
FIG. 16 is a diagram illustrating a functional configuration of the input / output processing device 10 according to the third modification.
As illustrated in FIG. 16, the input / output program 5 installed in the input / output processing device 10 according to the third modification includes a sheet specification unit 500, a shadow specification unit 510, an operation detection unit 530, and an operation signal output unit 540. In addition to this, it further includes an identification unit 550.
The identification unit 550 identifies the color that the sheet 30A develops and the color that the sheet 30B develops based on the captured image captured by the camera 20. Specifically, the identification unit 550 specifies the color of the specific color C2 that the color of the specific color C (RGB value) that the sheet 30A develops and the specific color C2 that the sheet 30B develops that are specified by the region specifying unit 502. An identification ID is assigned to each region where values (RGB values) are continuous.

また、本変形例3の入出力システム1の入出力処理(S10)において、撮影した撮影画像を入出力処理装置10に送信後(S100)に、識別部550が各シート30に識別IDを付し(S101)、識別部550により識別されたシート30毎に、S102からS106の処理を行う。なお、S102からS106の処理において、上記実施形態と同様の処理のため、重複説明を省略する。   Further, in the input / output process (S10) of the input / output system 1 of the third modification, the identification unit 550 assigns an identification ID to each sheet 30 after the captured image is transmitted to the input / output processing device 10 (S100). (S101), the processing from S102 to S106 is performed for each sheet 30 identified by the identifying unit 550. In addition, in the process from S102 to S106, since it is the same process as the said embodiment, duplication description is abbreviate | omitted.

このように、本変形例3の入出力システム104によれば、1台のカメラ20で複数のユーザからの操作を検知し出力することができる。
なお、本変形例3の入出力システム104は、複数のユーザがそれぞれ異なる色のシート30を使用する形態を説明したが、これに限定するものではなく、1人のユーザが、例えば両手にそれぞれ異なる色のシート30を使用してもよい。
As described above, according to the input / output system 104 of the third modification, it is possible to detect and output operations from a plurality of users with one camera 20.
The input / output system 104 according to the third modification has been described with respect to a mode in which a plurality of users use sheets 30 of different colors. However, the present invention is not limited to this. Different colored sheets 30 may be used.

[変形例4]
本変形例4の入出力システム106は、柔軟素材に対する入力操作を再現した入出力システムである。
図17は、実施形態における入出力システム1の変形例4を例示する図である。
図17に例示するように、本変形例4における入出力システム106は、撮影画像からユーザの操作を入出力処理装置10が検知し、検知した操作を画像表示装置90cに出力することにより、ユーザの操作内容に応じて、表示するキャラクター画像が変化するシステムである。
入出力システム106は、入出力処理装置10と、カメラ20と、シート30と、被操作装置90とに加えて、緩衝部材85とを有する。
緩衝部材85は、シート30の表面に取り付けられ、ユーザの手または手指の操作に適度な抵抗を与える緩衝材である。本変形例4の緩衝部材85は、空気を注入する注入口を有する袋であり、内部に空気を充填し封入することができる。また、緩衝部材85の素材は、透光性および弾力性を有する合成樹脂により形成されている。具体的には、緩衝部材85は、透明若しくは半透明である軟質塩化ビニール(軟質PVC)、又は、透明若しくは半透明を有するゴム等により形成されている。よって、緩衝部材85は、ユーザの手の操作(例えば指先で押す操作)に合わせて自在に変形する袋として形成することができる。また、緩衝部材85は充填する空気量を自在に調節することができる。
このように、シート30の表面に緩衝部材85を取り付けることにより、ユーザの手の操作に合わせて柔軟性および弾力性を自在に変更できる3次元ポインティングデバイスとすることができる。
よって、入出力システム106は、緩衝部材85にユーザの手を埋没させた状態の影の位置に基づくユーザ操作の出力と、画像表示装置90cに表示するキャラクター画像の画像変化の出力とを同期して表示させることができる。これにより、ユーザは、表示されたキャラクター画像を直接触れたかのような感覚を得ることが期待できる。
また、入出力システム106は、ピエゾ効果や静電容量の変化を利用した圧電素子を用いたポインテングデバイスと違い、ユーザの手の影の位置、濃さ、又は大きさに基づいてユーザの入力操作とするため、緩衝部材85の埋没量に応じたシート30と手との離間距離を簡単に特定できる。
[Modification 4]
The input / output system 106 according to the fourth modification is an input / output system that reproduces an input operation on a flexible material.
FIG. 17 is a diagram illustrating a fourth modification of the input / output system 1 in the embodiment.
As illustrated in FIG. 17, the input / output system 106 in Modification 4 detects the user's operation from the photographed image, and outputs the detected operation to the image display device 90 c, thereby allowing the user to operate. This is a system in which the character image to be displayed changes according to the operation content.
The input / output system 106 includes a buffer member 85 in addition to the input / output processing device 10, the camera 20, the sheet 30, and the operated device 90.
The cushioning member 85 is a cushioning material that is attached to the surface of the sheet 30 and gives an appropriate resistance to the operation of the user's hand or fingers. The buffer member 85 of the fourth modification is a bag having an injection port for injecting air, and can be filled with air and enclosed. The material of the buffer member 85 is formed of a synthetic resin having translucency and elasticity. Specifically, the buffer member 85 is made of soft vinyl chloride (soft PVC) that is transparent or translucent, or rubber that is transparent or translucent. Therefore, the buffer member 85 can be formed as a bag that can be freely deformed in accordance with a user's hand operation (for example, an operation of pressing with a fingertip). Further, the buffer member 85 can freely adjust the amount of air to be filled.
Thus, by attaching the buffer member 85 to the surface of the sheet 30, a three-dimensional pointing device that can freely change flexibility and elasticity according to the operation of the user's hand can be obtained.
Therefore, the input / output system 106 synchronizes the output of the user operation based on the position of the shadow with the user's hand buried in the buffer member 85 and the output of the image change of the character image displayed on the image display device 90c. Can be displayed. As a result, the user can expect to feel as if he / she directly touched the displayed character image.
Also, the input / output system 106 is different from a pointing device using a piezoelectric element that uses a piezo effect or a change in capacitance, based on the position, density, or size of a user's hand shadow. Since the operation is performed, the separation distance between the sheet 30 and the hand according to the amount of burying of the buffer member 85 can be easily specified.

[変形例5]
本変形例5の入出力システム108は、ユーザの入力操作を作業ウインドウに同期させた入出力システムである。
図18は、実施形態における入出力システム1の変形例5を例示する図である。
図18に例示するように、本変形例5における入出力システム106は、撮影画像からシート30の移動操作、及び、影に基づく入力操作をユーザの操作として入出力処理装置10が検知し、検知した操作内容を画像表示装置90cに出力することにより、ユーザの操作内容に応じて作業ウインドウWを操作するシステムである。
[Modification 5]
The input / output system 108 of the fifth modification is an input / output system in which a user's input operation is synchronized with a work window.
FIG. 18 is a diagram illustrating a fifth modification of the input / output system 1 in the embodiment.
As illustrated in FIG. 18, in the input / output system 106 according to the fifth modification, the input / output processing device 10 detects a moving operation of the sheet 30 and an input operation based on a shadow from a captured image as a user operation, and the detection is performed. In this system, the operation window W is output to the image display device 90c to operate the work window W in accordance with the user operation contents.

本変形例5の入出力処理装置10にインストールされた入出力プログラム5において、シート特定部500は、領域特定部502、形状特定部504、形状補正部507、及び、移動距離特定部508に加えて、同期部503をさらに有する。
同期部503は、カメラ20の撮影範囲内におけるシート30の基準点(例えば画像解析イメージにおける、シート30の左隅の開始位置座標)と、画像表示装置90cの表示範囲内における作業ウインドウWの基準座標(例えば左隅の開始位置座標)とを一致させる。同期部503は、基準となる各座標を一致させることにより、撮影画像内のシート30の移動量と、表示範囲内における作業ウインドウWの移動量とを同期させることができる。
これにより、ユーザは、シート30を移動させる動作に連動して、画像表示装置90c表示された作業ウインドウWを自在に移動させることができる。また、ユーザは、作業ウインドウWの移動操作を行うと共に、シート30に手の影を投影し入力操作を行うことにより、作業ウインドウWに対し操作(クリック操作等)をすることができる。
In the input / output program 5 installed in the input / output processing apparatus 10 according to the fifth modification, the sheet specifying unit 500 includes the region specifying unit 502, the shape specifying unit 504, the shape correcting unit 507, and the moving distance specifying unit 508. And further includes a synchronization unit 503.
The synchronization unit 503 includes a reference point of the sheet 30 within the photographing range of the camera 20 (for example, a start position coordinate of the left corner of the sheet 30 in the image analysis image) and a reference coordinate of the work window W within the display range of the image display device 90c. (For example, the start position coordinates of the left corner). The synchronization unit 503 can synchronize the amount of movement of the sheet 30 in the captured image with the amount of movement of the work window W within the display range by matching the coordinates serving as the reference.
Accordingly, the user can freely move the work window W displayed on the image display device 90c in conjunction with the operation of moving the sheet 30. Further, the user can perform an operation (click operation or the like) on the work window W by performing an operation of moving the work window W and projecting an input operation by projecting a hand shadow onto the sheet 30.

[変形例6]
本変形例6の入出力システム110は、シート30の傾き又は形状に基づいてユーザの入力操作を検知する出力システムである。例えば、入出力システム106は、ユーザがシート30を撮影方向に対して水平にし寝かせる、又は、シート30を畳む等の操作を行うことにより、スリープモード、又は、入力終了の操作内容として被操作装置90に出力する。
図19は、実施形態における入出力システム1の変形例6を例示する図である。
図19に例示するように、入出力システム110は、ユーザがシート30を撮影方向に対して水平に寝かせる、又は、シート30を畳む等の操作を行うことにより、スリープモード、又は、入力終了の操作内容として被操作装置90に出力する。
図20は、変形例6におけるシート特定部500をより詳細に説明する図である。
図20に例示するように、変形例6の入出力処理装置10にインストールされた入出力プログラム5において、シート特定部500は、領域特定部502、形状特定部504、形状補正部507、及び、移動距離特定部508に加えて、傾き特定部506、及び、操作内容決定部509をさらに有する。
[Modification 6]
The input / output system 110 according to Modification 6 is an output system that detects a user input operation based on the inclination or shape of the seat 30. For example, the input / output system 106 allows the user to operate the sleep mode or the input end operation content by performing an operation such as laying the sheet 30 horizontally with respect to the shooting direction or folding the sheet 30. Output to 90.
FIG. 19 is a diagram illustrating a sixth modification of the input / output system 1 in the embodiment.
As illustrated in FIG. 19, the input / output system 110 allows the user to lay down the sheet 30 horizontally with respect to the shooting direction, or to perform an operation such as folding the sheet 30, thereby The operation content is output to the operated device 90.
FIG. 20 is a diagram for explaining the sheet specifying unit 500 in Modification 6 in more detail.
As illustrated in FIG. 20, in the input / output program 5 installed in the input / output processing device 10 according to the modified example 6, the sheet specifying unit 500 includes an area specifying unit 502, a shape specifying unit 504, a shape correcting unit 507, and In addition to the movement distance specifying unit 508, an inclination specifying unit 506 and an operation content determining unit 509 are further included.

傾き特定部506は、カメラ20により撮影された撮影画像に基づいて、撮影画像に対するシート30の傾きを特定する。具体的には、傾き特定部506は、形状特定部504により特定されたシート30の領域の形状に基づいて、シート30の傾きを特定する。本変形例6の傾き特定部506は、シート30の形状(例えば縦横の比率)を基準値として設定情報データベース590に事前記録し、記録したシート30の形状の基準値と、形状特定部504により特定されたシート30の形状と比較をしてシート30の傾きを特定する。   The tilt identifying unit 506 identifies the tilt of the sheet 30 with respect to the captured image based on the captured image captured by the camera 20. Specifically, the inclination specifying unit 506 specifies the inclination of the sheet 30 based on the shape of the region of the sheet 30 specified by the shape specifying unit 504. The inclination specifying unit 506 of Modification 6 pre-records the shape of the sheet 30 (for example, the aspect ratio) in the setting information database 590 as a reference value, and uses the recorded reference value of the shape of the sheet 30 and the shape specifying unit 504. The inclination of the sheet 30 is specified by comparing with the shape of the specified sheet 30.

操作内容決定部509は、形状特定部504により特定されたシート30の形状、又は、傾き特定部506により特定されたシート30の傾きに基づいて、ユーザの操作内容を決定する。本例では、設定情報DB590に複数の操作内容(例えば、スリープモード、入力終了等)と複数の形状(例えば、シート30を撮影方向に対して水平に寝かせた形状及び傾き、撮影方向に対して垂直にしたシート30を畳んだ形状及び傾き等)とが互いに関連付けて登録されており、操作内容決定部509は、形状特定部504により特定された形状、及び、傾き特定部506により特定された傾きと、設定情報DB590に登録されたシート30の形状、及び、傾きとを比較して、最も近似する形状に関連付けられた操作内容をユーザの操作内容であると決定する。なお、原理上シート30をカメラ20の撮影面に対して図19のように水平にした場合、同カメラ撮影画像にはシートは殆ど捉えられなくなるか、もしくはカメラ撮影画像に対して水平方向のシート30と同じ色の線として僅かに写るだけなので、シートが同カメラ撮影画像から捉えられなくなった段階でスリープモードや入力終了処理に移っても良い。
このように、本変形例の入出力システム110はによれば、シート30を撮影方向に対して水平にし寝かせる、又は、シート30を畳む等の操作を行うことにより、スリープモード、又は、入力終了の操作内容として被操作装置90に出力することができる。
The operation content determination unit 509 determines the operation content of the user based on the shape of the sheet 30 specified by the shape specifying unit 504 or the inclination of the sheet 30 specified by the inclination specifying unit 506. In this example, the setting information DB 590 has a plurality of operation contents (for example, sleep mode, input end, etc.) and a plurality of shapes (for example, the shape and inclination of the sheet 30 laid horizontally with respect to the shooting direction, and the shooting direction). And the operation content determination unit 509 specifies the shape specified by the shape specification unit 504 and the inclination specification unit 506. The inclination, the shape of the sheet 30 registered in the setting information DB 590, and the inclination are compared, and the operation content associated with the closest approximation shape is determined as the user operation content. In principle, when the sheet 30 is horizontal with respect to the shooting surface of the camera 20 as shown in FIG. 19, the sheet is hardly captured in the camera-captured image, or the sheet in the horizontal direction with respect to the camera-captured image. Since the image is only slightly captured as a line of the same color as 30, the process may be shifted to a sleep mode or an input end process when the sheet is not captured from the image captured by the camera.
As described above, according to the input / output system 110 of the present modification, the sleep mode or the input end can be performed by performing an operation such as placing the sheet 30 horizontally with respect to the photographing direction, or folding the sheet 30. The operation content can be output to the operated device 90.

[変形例7]
本変形例7の入出力システム112は、撮影画像内のシート30の位置や移動量と、画像表示装置90cに表示されたマウスポインタの位置とを同期させ、シート30を押下した指先の位置に基づいて、右クリック又は左クリックの入力操作を行い、被操作装置90に出力するシステムである。
図21は、実施形態における入出力システム1の変形例7を例示する図である。
図21に例示するように、入出力システム112は、撮影画像からシート30の移動操作、及び、影に基づく入力操作をユーザの操作として入出力処理装置10が検知し、検知した操作内容を画像表示装置90cに出力することにより、ユーザの操作内容に応じてマウスポインタの位置の制御やクリック操作を行う。
なお、本変形例7の入出力システム112は、連結部材70を用いてシート30とユーザの腕とを連結し、シート30とユーザの腕との離間間隔を一定としている。
[Modification 7]
The input / output system 112 of Modification 7 synchronizes the position and amount of movement of the sheet 30 in the captured image with the position of the mouse pointer displayed on the image display device 90c, so that the fingertip position where the sheet 30 is pressed is placed. Based on this, the system performs a right click or left click input operation and outputs it to the operated device 90.
FIG. 21 is a diagram illustrating a modified example 7 of the input / output system 1 in the embodiment.
As illustrated in FIG. 21, in the input / output system 112, the input / output processing device 10 detects a movement operation of the sheet 30 and an input operation based on a shadow as a user operation from a captured image, and the detected operation content is displayed as an image. By outputting to the display device 90c, the control of the position of the mouse pointer and the click operation are performed according to the content of the user's operation.
Note that the input / output system 112 of Modification 7 uses the connecting member 70 to connect the seat 30 and the user's arm, and keeps the spacing between the seat 30 and the user's arm constant.

本変形例7の入出力処理装置10にインストールされた入出力プログラム5において、シート特定部500は、領域特定部502、形状特定部504、形状補正部507、及び、移動距離特定部508に加えて、領域分割部501と同期部503とをさらに有する。
領域分割部501は、撮影された撮影範囲内におけるシート30の領域を複数に分割し、操作内容を振り分ける。具体的には、領域分割部501は、シート30の左右方向又は上下方向に、2つ以上の領域に分割し、操作内容を振り分ける。本変形例7の領域分割部501は、例えばシート30を左右方向に2つの領域(左領域、右領域)に分割し、左領域に割り当てる操作を例えば左クリック操作とし、右領域に割り当てる操作を例えば右クリック操作とする。
In the input / output program 5 installed in the input / output processing apparatus 10 according to the modified example 7, the sheet specifying unit 500 includes the area specifying unit 502, the shape specifying unit 504, the shape correcting unit 507, and the moving distance specifying unit 508. In addition, an area dividing unit 501 and a synchronizing unit 503 are further included.
The area dividing unit 501 divides the area of the sheet 30 within the captured imaging range into a plurality of parts, and distributes the operation contents. Specifically, the area dividing unit 501 divides the operation content into two or more areas in the horizontal direction or the vertical direction of the sheet 30. The area dividing unit 501 of the present modification 7 divides the sheet 30 into, for example, two areas (left area and right area) in the left-right direction, and assigns the left area to, for example, a left click operation, and assigns the operation to the right area. For example, a right click operation is performed.

同期部503は、カメラ20の撮影範囲内におけるシート30の基準点(例えば画像解析イメージにおける、シート30の左隅の開始位置座標)と、画像表示装置90cの表示範囲内におけるマウスポインタの座標とを一致させる。同期部503は、各座標を一致させることにより、撮影画像内のシート30の移動量と、画像表示装置90cの表示範囲内におけるマウスポインタの移動量とを同期させることができる。なお、同期部503は、この時シート30をユーザが素早く移動させた場合はマウスポインタの移動量がその分が大きくなるように、逆にゆっくり移動させた場合はマウスポインタの移動量がその分小さくなるように、シート30の単位時間あたりの移動量つまりシート30速度を係数としてマウスポインタの移動量と乗じるように設定してもよい。これにより、シート30が固定されている腕等を特に大きく動かさなくてもマウスポインタが大きく移動可能となる。また、同期部503は、シート30の傾きによりマウスポインタの移動量を増減させても良い。   The synchronization unit 503 obtains the reference point of the sheet 30 within the photographing range of the camera 20 (for example, the start position coordinate of the left corner of the sheet 30 in the image analysis image) and the coordinates of the mouse pointer within the display range of the image display device 90c. Match. The synchronization unit 503 can synchronize the movement amount of the sheet 30 in the captured image with the movement amount of the mouse pointer within the display range of the image display device 90c by matching the coordinates. At this time, the synchronization unit 503 increases the amount of movement of the mouse pointer when the user moves the sheet 30 quickly. Conversely, when the user moves the sheet 30 slowly, the amount of movement of the mouse pointer increases accordingly. The amount of movement of the sheet 30 per unit time, that is, the sheet 30 speed may be set as a coefficient so as to be multiplied by the amount of movement of the mouse pointer so as to decrease. As a result, the mouse pointer can be moved greatly without particularly moving the arm or the like to which the seat 30 is fixed. Further, the synchronization unit 503 may increase or decrease the amount of movement of the mouse pointer depending on the inclination of the sheet 30.

このように、本変形例7の入出力システム112は、領域分割部501により分割されたシート30の2つの領域において、位置特定部514により特定された指先の位置が2つの領域のどちらか一方で特定され、影の大きさ、又は、影の濃淡の変化に基づいた影の入力操作(いわゆるクリック操作)を行うことにより操作検知部530が検知し、振り分けた操作内容を被操作装置90に出力することができる。
入出力システム112は、既存のポインティングデバイスであるマウスと異なり、ユーザの腕の動作によりマウスポインタを操作することができる。また、マウスと違い机や床にデバイスを固定する必要もなく左右どちらの腕に支持されたシート30による中空操作が可能であり、シート30の傾きによりマウスポインタの移動量の増減するようにシステムを拡張する事も可能である。さらに、タッチ操作またはクリック操作についても2つの領域だけでなく、3つの領域(左領域、中領域、右領域)に分割し、左領域に割り当てる操作を例えば左クリック操作とし、中領域に割り当てる操作を例えばスクロール操作とし、右領域に割り当てる操作を例えば右クリック操作としてもよく、更に細かい領域に分割してやればその分だけ多様なクリック操作が可能なデバイスも実現出来る。
As described above, in the input / output system 112 according to the seventh modified example, in the two areas of the sheet 30 divided by the area dividing unit 501, the position of the fingertip specified by the position specifying unit 514 is one of the two areas. The operation detection unit 530 detects and distributes the contents of the operation to the operated device 90 by performing a shadow input operation (so-called click operation) based on a change in shadow size or shadow density. Can be output.
Unlike a mouse that is an existing pointing device, the input / output system 112 can operate the mouse pointer by the movement of the user's arm. In addition, unlike the mouse, there is no need to fix the device to the desk or the floor, and the hollow operation by the sheet 30 supported by either the left or right arm is possible, and the movement amount of the mouse pointer is increased or decreased by the inclination of the sheet 30. Can be extended. Furthermore, the touch operation or the click operation is not only divided into two areas but also divided into three areas (left area, middle area, right area), and the operation assigned to the left area is, for example, left click operation, and assigned to the middle area. For example, a scroll operation may be used, and an operation assigned to the right area may be a right click operation, for example, and if divided into smaller areas, a device capable of various click operations can be realized.

1 入出力システム
10 入出力処理装置
20 カメラ
30 シート
70 連結部材
90 被操作装置
5 入出力プログラム
DESCRIPTION OF SYMBOLS 1 Input / output system 10 Input / output processing device 20 Camera 30 Sheet 70 Connecting member 90 Operated device 5 Input / output program

Claims (7)

透光性を有するスクリーンと、
前記スクリーンを含む画像を複数のタイミングで撮影するカメラと、
前記カメラにより撮影された撮影画像に基づいて、複数のタイミングにおける前記スクリーンの位置、大きさ、移動量、傾き、又は、形状に基づいてユーザの操作を検知する操作検知手段とを有しており、
前記カメラは、前記スクリーンのRGB値が連続する領域を含む撮影画像を撮影するカメラであり、
前記操作検知手段は、複数のタイミングにおける前記スクリーンに写ったユーザの影の位置に基づいて、ユーザの操作を検知するものであり、
ユーザの肢体の一部の影が前記スクリーンに投影される間隔で、当該スクリーンとユーザの肢体とを連結する連結部材をさらに有し、
前記連結部材は、前記スクリーン面視において、当該スクリーンの他方の面と、ユーザの肢体の一部とが対向する位置で、当該スクリーンとユーザの肢体とを連結することを特徴とする入出力システム。
A translucent screen;
A camera that captures an image including the screen at a plurality of timings;
Based on the image captured by the camera, the position of the screen at a plurality of timings, size, amount of movement, inclination, or has perforated the operation detection means for detecting the operation of the user based on the shape ,
The camera is a camera that captures a captured image including an area where RGB values of the screen are continuous,
The operation detection means detects a user operation based on the position of the user's shadow reflected on the screen at a plurality of timings ,
A connection member for connecting the screen and the user's limb at an interval at which a shadow of a part of the user's limb is projected on the screen;
Output system the connecting member is in the screen surface view of the other side of the screen, at a position where a portion is opposed limb of the user, characterized by connecting the limb of the screen and the user .
前記スクリーンは、板状であり、当該スクリーンの他方の面に、光源により照射された光をユーザが遮ることにより生じた影を投影され、
前記カメラは、前記スクリーンの他方の面に投影された影を当該スクリーンの一方の面から複数のタイミングで撮影し、
前記操作検知手段は、前記カメラにより撮影された撮影画像における、前記スクリーンの一方の面に透過した光により写った影の位置に基づいて、ユーザの操作を検知することを特徴とする請求項1に記載の入出力システム。
The screen is plate-like, and a shadow generated by the user blocking the light irradiated by the light source is projected on the other surface of the screen,
The camera shoots a shadow projected on the other side of the screen from one side of the screen at a plurality of timings,
Said operation detecting means, according to claim 1, characterized in that said at images picked up by the camera, based on the position of the shadow captured by light transmitted on one surface of the screen, it detects an operation of the user The input / output system described in 1 .
透光性を有するスクリーンと、
前記スクリーンを含む画像を複数のタイミングで撮影するカメラと、
前記カメラにより撮影された撮影画像に基づいて、複数のタイミングにおける前記スクリーンの位置、大きさ、移動量、傾き、又は、形状に基づいてユーザの操作を検知する操作検知手段とを有しており、
前記カメラは、前記スクリーンのRGB値が連続する領域を含む撮影画像を撮影するカメラであり、
前記操作検知手段は、複数のタイミングにおける前記スクリーンに写ったユーザの影の位置に基づいて、ユーザの操作を検知するものであり、
前記スクリーンの他方の面に光を照射する光源と、前記スクリーンとの離間距離を可変可能に連結する連結部材をさらに有することを特徴とする入出力システム。
A translucent screen;
A camera that captures an image including the screen at a plurality of timings;
Based on the image captured by the camera, the position of the screen at a plurality of timings, size, amount of movement, inclination, or has perforated the operation detection means for detecting the operation of the user based on the shape ,
The camera is a camera that captures a captured image including an area where RGB values of the screen are continuous,
The operation detection means detects a user operation based on the position of the user's shadow reflected on the screen at a plurality of timings ,
Output system characterized by further comprising a light source for irradiating light on the other surface of the screen, a coupling member for coupling the distance between the screen variably possible.
透光性を有するスクリーンと、
前記スクリーンを含む画像を複数のタイミングで撮影するカメラと、
前記カメラにより撮影された撮影画像に基づいて、複数のタイミングにおける前記スクリーンの位置、大きさ、移動量、傾き、又は、形状に基づいてユーザの操作を検知する操作検知手段とを有しており、
前記カメラは、前記スクリーンのRGB値が連続する領域を含む撮影画像を撮影するカメラであり、
前記操作検知手段は、複数のタイミングにおける前記スクリーンに写ったユーザの影の位置に基づいて、ユーザの操作を検知するものであり、
前記カメラにより撮影された撮影画像に基づいて、前記スクリーン内における影の画素を特定する画素特定手段と、
前記画素特定手段により特定された影の画素における濃淡の変化を特定する濃淡変化特定手段とをさらに有し、
前記操作検知手段は、前記濃淡変化特定手段により特定された影の濃淡の変化に基づいて、ユーザの操作を検知するものであり、
前記スクリーンの他方の面に接続して設けられ、透光性、及び、弾力性を有する緩衝部材をさらに有し、
前記画素特定手段は、前記スクリーン及び前記緩衝部材を透過した影の画素を特定することを特徴とする入出力システム。
A translucent screen;
A camera that captures an image including the screen at a plurality of timings;
Based on the image captured by the camera, the position of the screen at a plurality of timings, size, amount of movement, inclination, or has perforated the operation detection means for detecting the operation of the user based on the shape ,
The camera is a camera that captures a captured image including an area where RGB values of the screen are continuous,
The operation detection means detects a user operation based on the position of the user's shadow reflected on the screen at a plurality of timings ,
Pixel specifying means for specifying a shadow pixel in the screen based on a captured image captured by the camera;
A shade change specifying means for specifying a change in shade in the shadow pixel specified by the pixel specifying means;
The operation detection means detects a user's operation based on a change in shadow shade specified by the shade change specifying means .
It is provided connected to the other surface of the screen, and further has a light-transmitting and elastic buffer member,
The input / output system characterized in that the pixel specifying means specifies a shadow pixel transmitted through the screen and the buffer member.
前記スクリーンは、板状であり、当該スクリーンの他方の面に、光源により照射された光をユーザが遮ることにより生じた影を投影され、
前記カメラは、前記スクリーンの他方の面に投影された影を当該スクリーンの一方の面から複数のタイミングで撮影し、
前記操作検知手段は、前記カメラにより撮影された撮影画像における、前記スクリーンの一方の面に透過した光により写った影の位置に基づいて、ユーザの操作を検知することを特徴とする請求項4に記載の入出力システム。
The screen is plate-like, and a shadow generated by the user blocking the light irradiated by the light source is projected on the other surface of the screen,
The camera shoots a shadow projected on the other side of the screen from one side of the screen at a plurality of timings,
Said operation detecting means, according to claim 4, characterized in that said at images picked up by the camera, based on the position of the shadow captured by light transmitted on one surface of the screen, it detects an operation of the user The input / output system described in 1 .
透光性を有するスクリーンと、
前記スクリーンを含む画像を複数のタイミングで撮影するカメラと、
前記カメラにより撮影された撮影画像に基づいて、複数のタイミングにおける前記スクリーンの位置、大きさ、移動量、傾き、又は、形状に基づいてユーザの操作を検知する操作検知手段とを有しており、
前記カメラは、前記スクリーンのRGB値が連続する領域を含む撮影画像を撮影するカメラであり、
前記操作検知手段は、複数のタイミングにおける前記スクリーンに写ったユーザの影の位置に基づいて、ユーザの操作を検知するものであり、
前記スクリーン内における影の位置、影の移動量、影の移動方向、影の移動速度、影の大きさ、又は、影の濃淡を特定する影特定手段と、
前記カメラにより撮影された撮影画像内におけるスクリーンの位置、スクリーンの大きさ、スクリーンの移動量、スクリーンの傾き、又は、スクリーンの形状を特定するスクリーン特定手段とをさらに有し、
前記操作検知手段は、前記影特定手段により特定された位置、移動量、移動方向、移動速度、又は、大きさ若しくは濃淡と、前記スクリーン特定手段により特定された位置、移動量、傾き、又は、形状との組合せに基づいて、ユーザの操作を検知するものであり、
撮影画像における前記スクリーンの既定の位置の座標と被操作装置の表示範囲内におけるポインタの座標とを一致させる同期手段と、
前記操作検知手により検知した操作内容を被操作装置に出力する操作内容出力手段とをさらに有し、
前記操作検知手は、前記スクリーン特定手段により特定されたスクリーンの位置、及び、移動量と、前記影特定手段により特定されたユーザの手の指先の影の位置、影の移動量、影の移動方向、及び、影の移動速度とに基づいてポインタの移動操作を検知し、又は、前記影特定手段により特定されたユーザの指先の影の大きさの変化、又は、影の濃淡の変化に基づいてポインタの座標におけるクリック操作を検知し、
前記操作内容出力手段は、前記操作検知手により検知したポインタの移動操作、又は、クリック操作に基づいて、同期された被操作装置の表示範囲内におけるポインタに出力するものであり、
ユーザの肢体の一部の影が前記スクリーンに投影される間隔で、当該スクリーンとユーザの肢体とを連結する連結部材をさらに有し、
前記連結部材は、前記スクリーン面視において、当該スクリーンの他方の面と、ユーザの肢体の一部とが対向する位置で、当該スクリーンとユーザの肢体とを連結することを特徴とする入出力システム。
A translucent screen;
A camera that captures an image including the screen at a plurality of timings;
Based on the image captured by the camera, the position of the screen at a plurality of timings, size, amount of movement, inclination, or has perforated the operation detection means for detecting the operation of the user based on the shape ,
The camera is a camera that captures a captured image including an area where RGB values of the screen are continuous,
The operation detection means detects a user operation based on the position of the user's shadow reflected on the screen at a plurality of timings ,
A shadow specifying means for specifying the position of the shadow in the screen, the amount of movement of the shadow, the direction of movement of the shadow, the speed of movement of the shadow, the size of the shadow, or the shade of the shadow;
A screen specifying means for specifying the position of the screen, the size of the screen, the amount of movement of the screen, the tilt of the screen, or the shape of the screen in the captured image captured by the camera;
The operation detecting means includes the position, moving amount, moving direction, moving speed, or size or shade specified by the shadow specifying means, and the position, moving amount, inclination, specified by the screen specifying means, or Based on the combination with the shape, it detects the user's operation ,
Synchronization means for matching the coordinates of the predetermined position of the screen in the captured image with the coordinates of the pointer in the display range of the operated device;
Further comprising an operation content outputting means for outputting an operation content detected by the operation detection hand stage the operated device,
The operation detection hand stage, the position of the screen specified by the screen identification means, and, movement and position, the shadow of the moving amount of the shadow of the fingertip of the hand of the user identified by the shadow specifying means, shadow Based on the moving direction and the moving speed of the shadow, a pointer moving operation is detected, or a change in the size of the shadow of the user's fingertip specified by the shadow specifying means or a change in the shade of the shadow Based on the coordinates of the pointer is detected,
The operation content output means outputs the pointer to the pointer within the display range of the synchronized operated device based on the movement operation of the pointer detected by the operation detection hand or the click operation .
A connection member for connecting the screen and the user's limb at an interval at which a shadow of a part of the user's limb is projected on the screen;
Output system the connecting member is in the screen surface view of the other side of the screen, at a position where a portion is opposed limb of the user, characterized by connecting the limb of the screen and the user .
前記スクリーンは、板状であり、当該スクリーンの他方の面に、光源により照射された光をユーザが遮ることにより生じた影を投影され、
前記カメラは、前記スクリーンの他方の面に投影された影を当該スクリーンの一方の面から複数のタイミングで撮影し、
前記操作検知手段は、前記カメラにより撮影された撮影画像における、前記スクリーンの一方の面に透過した光により写った影の位置に基づいて、ユーザの操作を検知することを特徴とする請求項6に記載の入出力システム。
The screen is plate-like, and a shadow generated by the user blocking the light irradiated by the light source is projected on the other surface of the screen,
The camera shoots a shadow projected on the other side of the screen from one side of the screen at a plurality of timings,
It said operation detecting means, the images picked up by the camera, based on the position of the shadow captured by light transmitted on one surface of the screen, according to claim 6, characterized in that to detect the operation of the user The input / output system described in 1 .
JP2017143780A 2017-07-25 2017-07-25 I / O system Active JP6328304B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017143780A JP6328304B1 (en) 2017-07-25 2017-07-25 I / O system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017143780A JP6328304B1 (en) 2017-07-25 2017-07-25 I / O system

Publications (2)

Publication Number Publication Date
JP6328304B1 true JP6328304B1 (en) 2018-05-23
JP2019028510A JP2019028510A (en) 2019-02-21

Family

ID=62186799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017143780A Active JP6328304B1 (en) 2017-07-25 2017-07-25 I / O system

Country Status (1)

Country Link
JP (1) JP6328304B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299434A (en) * 2007-08-23 2007-11-15 Advanced Telecommunication Research Institute International Large-screen touch panel system, and retrieval/display system
JP2013254324A (en) * 2012-06-06 2013-12-19 Canon Inc Information processing device, information processing method and program
JP2014026355A (en) * 2012-07-25 2014-02-06 Hitachi Consumer Electronics Co Ltd Image display device and image display method
JP2015122124A (en) * 2015-03-31 2015-07-02 株式会社ナカヨ Information apparatus with data input function by virtual mouse
JP2016021229A (en) * 2014-06-20 2016-02-04 船井電機株式会社 Input device
JP2017062813A (en) * 2016-11-01 2017-03-30 日立マクセル株式会社 Video display and projector

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299434A (en) * 2007-08-23 2007-11-15 Advanced Telecommunication Research Institute International Large-screen touch panel system, and retrieval/display system
JP2013254324A (en) * 2012-06-06 2013-12-19 Canon Inc Information processing device, information processing method and program
JP2014026355A (en) * 2012-07-25 2014-02-06 Hitachi Consumer Electronics Co Ltd Image display device and image display method
JP2016021229A (en) * 2014-06-20 2016-02-04 船井電機株式会社 Input device
JP2015122124A (en) * 2015-03-31 2015-07-02 株式会社ナカヨ Information apparatus with data input function by virtual mouse
JP2017062813A (en) * 2016-11-01 2017-03-30 日立マクセル株式会社 Video display and projector

Also Published As

Publication number Publication date
JP2019028510A (en) 2019-02-21

Similar Documents

Publication Publication Date Title
US7593593B2 (en) Method and system for reducing effects of undesired signals in an infrared imaging system
WO2012124730A1 (en) Detection device, input device, projector, and electronic apparatus
US9720511B2 (en) Hand and object tracking in three-dimensional space
CN105706028B (en) Projection-type image display device
JP5950130B2 (en) Camera-type multi-touch interaction device, system and method
US8589824B2 (en) Gesture recognition interface system
US7359564B2 (en) Method and system for cancellation of ambient light using light frequency
CN105593786B (en) Object&#39;s position determines
US20070063981A1 (en) System and method for providing an interactive interface
US20140176735A1 (en) Portable projection capture device
WO2013019217A1 (en) Projection capture system and method
BRPI1100158A2 (en) information processing apparatus and method, and program for making a computer function as an information processing apparatus
EP2502132A1 (en) Interactive display
JP6328304B1 (en) I / O system
KR20140019215A (en) Camera cursor system
CN112235912B (en) Illumination adjusting method and system based on user picture
JP6233941B1 (en) Non-contact type three-dimensional touch panel, non-contact type three-dimensional touch panel system, non-contact type three-dimensional touch panel control method, program, and recording medium
US20100097351A1 (en) Apparatus and method for adjusting finger depth using camera and touch screen having the apparatus
JP6197163B1 (en) INPUT / OUTPUT SYSTEM, INPUT PROCESSING DEVICE, INPUT / OUTPUT METHOD, AND PROGRAM
KR200461366Y1 (en) Pointing Apparatus Using Image
JP2018113011A (en) Input/output system, input processing apparatus, input/output method, and program
KR100887093B1 (en) Interface method for tabletop computing environment

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20180222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180417

R150 Certificate of patent or registration of utility model

Ref document number: 6328304

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150