JP4708278B2 - Touch panel system and operation method thereof - Google Patents

Touch panel system and operation method thereof Download PDF

Info

Publication number
JP4708278B2
JP4708278B2 JP2006193410A JP2006193410A JP4708278B2 JP 4708278 B2 JP4708278 B2 JP 4708278B2 JP 2006193410 A JP2006193410 A JP 2006193410A JP 2006193410 A JP2006193410 A JP 2006193410A JP 4708278 B2 JP4708278 B2 JP 4708278B2
Authority
JP
Japan
Prior art keywords
touch panel
information
panel system
projection screen
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006193410A
Other languages
Japanese (ja)
Other versions
JP2007328754A (en
Inventor
銀林 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Assist Co Ltd
Original Assignee
Assist Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Assist Co Ltd filed Critical Assist Co Ltd
Priority to JP2006193410A priority Critical patent/JP4708278B2/en
Publication of JP2007328754A publication Critical patent/JP2007328754A/en
Application granted granted Critical
Publication of JP4708278B2 publication Critical patent/JP4708278B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Description

本発明は、タッチパネルシステム及びその動作方法に関し、特に、指で投影画像の特定部分に接触することによりコンピュータと対話することができる大画面背面投射システム及びその動作方法に関する。   The present invention relates to a touch panel system and an operation method thereof, and more particularly, to a large screen rear projection system capable of interacting with a computer by touching a specific portion of a projection image with a finger and an operation method thereof.

ビジネス、展示会、デモンストレーション及び視聴覚教育等の活動が頻繁になるに従って、大画面スクリーン投影技術は人々にとって既に必要不可欠なマルチメディアディスプレイ手段になり、その設備は既に科学研究、教育過程、軍事訓練、業界応用等の様々な領域で広く応用されるようになった。   As activities such as business, exhibitions, demonstrations and audiovisual education become more frequent, large screen projection technology has already become an indispensable multimedia display means for people, and its facilities are already in scientific research, educational process, military training, It has come to be widely applied in various fields such as industry application.

次々に出てくる新技術は、大画面スクリーン投影技術の持続的な発展に可能性のある条件を提供し、プロジェクタは初期の低光度(800ルーメン以下)から現在の高光度(5000ルーメン以上)及び高解像度(1024×768以上)にまで発展し、大画面スクリーンの材質も初期の白い壁媒質(利得0.8)から利得0.9の白いプラスチックスクリーンになり、それから利得2ぐらいのガラススクリーン等になり、最近の利得8に達する金属スクリーンまでに発展した。しかし、プロジェクタの発展と大画面スクリーン材質の改善は全て投影スクリーンシステムの画像効果を高めるためのものである。   New technologies appear one after another, providing a potential condition for the continuous development of large-screen projection technology, and projectors can be used from the initial low brightness (less than 800 lumens) to the current high brightness (more than 5000 lumens). And high resolution (1024 × 768 or higher), the material of the large screen is changed from the initial white wall medium (gain 0.8) to the white plastic screen with gain 0.9, and then the glass screen with gain of about 2 It has been developed to a metal screen that has recently reached a gain of 8. However, the development of the projector and the improvement of the material of the large screen are all for enhancing the image effect of the projection screen system.

但し、現有技術でのスクリーン投影システムの大部分は、単なる一方向性のものであり、タッチパネルのような双方向性の情報照会機能は不可能であり、筆記等機能と相互動作機能が欠けている。特に、遠距離TV会議中に異なる場所の何人かがオンラインコンピュータを通じて同一の内容に関する作業をすることは不可能である。従来のタッチパネルスクリーン技術にはレジスタンス式、電気容量式、超音波式と赤外線式の四種類が含まれるが、通常大きなサイズの実現が不可能であり、しかも使用環境に対する要求も高く、未だ大画面背面投影スクリーンに適合するタッチパネルがない。   However, most of the screen projection systems in the existing technology are unidirectional, and interactive information inquiry functions such as a touch panel are not possible. Yes. In particular, it is impossible for several people in different locations to work on the same content through an online computer during a long distance video conference. Conventional touch panel screen technology includes four types: resistance type, capacitance type, ultrasonic type and infrared type, but it is usually impossible to realize a large size, and there is a high demand for the use environment, and it is still a large screen. There is no touch panel that fits the rear projection screen.

本発明の課題は、視覚センサを利用して指若しくはペン類の背面投影大画面スクリーン上での位置を感知且つ識別し、それをコンピュータ指令情報に変換させ、投影スクリーンに接触式スクリーン機能をもたらすことである。   An object of the present invention is to use a visual sensor to sense and identify the position of a finger or pen on a rear projection large screen screen, convert it to computer command information, and bring the touch screen function to the projection screen That is.

上記の目的を実現するために、本発明のタッチパネルシステムには、透明支柱、投影スクリーン、プロジェクタ及びコンピュータが含まれている。本システムには、さらに、視覚センサが含まれ、この視覚センサにはデジタルカメラ、カメラインターフェース、デジタル信号プロセッサとコンピュータインターフェース、デジタルカメラとカメラインターフェースが接続され、カメラインターフェースはデジタル信号プロセッサと接続され、デジタル信号プロセッサから出力される信号はコンピュータインターフェースによってコンピュータとつながっている。投影スクリーンは透明支柱に設置され、視覚センサは投影スクリーンとプロジェクタの間に設置され、視覚センサと投影スクリーンは同じ高さを保ち、視覚センサとプロジェクタは共にコンピュータとつながっている。
視覚センサは投影スクリーン前方の同じ高さの位置に設置することが可能であり、デジタルカメラの数は一つ以上であり、投影スクリーンの材質はポリスチレンである。
In order to achieve the above object, the touch panel system of the present invention includes a transparent column, a projection screen, a projector, and a computer. The system further includes a visual sensor that is connected to a digital camera, a camera interface, a digital signal processor and a computer interface, a digital camera and a camera interface, and the camera interface is connected to the digital signal processor, A signal output from the digital signal processor is connected to the computer by a computer interface. The projection screen is installed on a transparent column, the visual sensor is installed between the projection screen and the projector, the visual sensor and the projection screen are kept at the same height, and both the visual sensor and the projector are connected to the computer.
The visual sensor can be installed at the same height in front of the projection screen, the number of digital cameras is one or more, and the material of the projection screen is polystyrene.

本発明のタッチパネルシステムの動作方法は、以下のステップが含まれている。
(1)起動訂正
(2)投影スクリーンの特徴点を拾い、次元を低める。
(3)エキスパートシステムが初歩的に篩い分ける。
(4)情報が定義条件に該当するか否かを判断する。
(5)該当情報がある場合は、神経回路網計算方法に昇進する。
(6)指位置があるか否かを判断する。
(7)ある場合は、指位置抽出を行う。
(8)抽出した指位置と視覚センサから伝送された情報を照らし合わせる。
(9)コンピュータが情報の照らし合わせ処理を行い、マウスを駆動しながら制御を行う。
The operation method of the touch panel system of the present invention includes the following steps.
(1) Start-up correction (2) Pick up the feature points of the projection screen and lower the dimension.
(3) The expert system sifts through rudimentary.
(4) Determine whether the information meets the definition condition.
(5) If there is relevant information, advance to the neural network calculation method.
(6) It is determined whether or not there is a finger position.
(7) If there is, extract the finger position.
(8) The extracted finger position is compared with the information transmitted from the visual sensor.
(9) The computer performs a comparison process of information and performs control while driving the mouse.

起動訂正(起動時にコンピュータの画面座標と投影スクリーンの画像座標を整合させる較正処理)には五点定位法を採用している。具体的に言えば、コンピュータのカーソルが左上角―右上角―スクリーン中心点―左下角―右下角に移動し、コンピュータのカーソルが各位置に止まる際に、ユーザーはレーザーペンでスクリーン上のカーソル位置に合わせると、カーソルは次の位置に移動する。次の位置で又上記の操作を繰り返しながら、全ての五つの点まで進行する。   A five-point localization method is used for start-up correction (calibration processing for matching computer screen coordinates and projection screen image coordinates at start-up). Specifically, when the computer cursor moves to the upper left corner-upper right corner-screen center point-lower left corner-lower right corner and the computer cursor stops at each position, the user moves the cursor position on the screen with the laser pen. Move the cursor to the next position. Proceed to the next position and repeat the above procedure until all five points are reached.

エキスパートシステムは、投影スクリーン上の画像情報を篩い分け、画像上の指情報(スクリーンを利用する可能性のある人の、又は、不特定多数の人の、指先画像)を判断して指位置を識別する。エキスパートシステムは、総データベース(知識データベース)、制御作戦と生成式規則(推論エンジン)が含まれ、知識データベースには、実践中に認識される画像分析下で生成される指が持っている一定の経験情報とデータ、及び、画像処理過程で画像中の指情報が代表できる一部のデータ情報が含まれ、制御作戦とは様々な環境で出来るだけ如何に錯誤を減少させるかの指情報識別の計算方法であり、生成式規則は総データベースと制御作戦の連係と調和を担当する。   The expert system screens the image information on the projection screen and determines the finger position by judging the finger information on the image (fingertip images of people who may use the screen or an unspecified number of people). Identify. The expert system includes a total database (knowledge database), control strategy and generative rules (inference engine). The knowledge database contains certain fingers that are generated under image analysis that are recognized during practice. Experience information and data, and some data information that can represent the finger information in the image during the image processing process are included, and the control strategy is the finger information identification of how to reduce errors in various environments as much as possible It is a calculation method, and the generation rule is responsible for the coordination and harmonization of the total database and control strategy.

神経回路網計算方法にはMean Taxonomyを採用して隠れ層の学習方法とし、傾斜降下法を応用して出力層の学習方法にする。   As a neural network calculation method, Mean Taxonomy is adopted as a hidden layer learning method, and a gradient descent method is applied as an output layer learning method.

以下、図面を参照して本発明の実施の形態について説明する。但し、本実施形態に記載されている構成部品の寸法、材質、形状、その相対的配置等に特定的な記載があっても、本発明をそれに限定する趣旨ではない。   Embodiments of the present invention will be described below with reference to the drawings. However, even if there are specific descriptions in the dimensions, materials, shapes, relative arrangements, and the like of the component parts described in the present embodiment, the present invention is not intended to be limited thereto.

図1は、本実施形態のタッチパネルシステムの概念図である。透明支柱1、投影スクリーン2、視覚センサ3、プロジェクタ4及びコンピュータ5が含まれている。透明支柱1の材質はガラス等が可能であり、投影スクリーン2の材質はポリスチレンであり、透明支柱1に設置して、端末と接触スクリーンインターフェースを顕示することができる。視覚センサ3は投影スクリーン2とプロジェクタ4の間に設置され、その高さは投影スクリーン2と一致するか投影スクリーン2の真下でも構わない。視覚センサは平面鏡の数回鏡面反射によって、投影スクリーン2範囲に対しての感知を実現する(図面では標記していない)。プロジェクタ4と視覚センサ5は共に標準のRS232CインターフェースあるいはUSBインターフェースを通じてコンピュータ5とつながって、相互間の通信機能を実現する。   FIG. 1 is a conceptual diagram of the touch panel system of the present embodiment. A transparent column 1, a projection screen 2, a visual sensor 3, a projector 4 and a computer 5 are included. The material of the transparent column 1 can be glass or the like, and the material of the projection screen 2 is polystyrene, and it can be installed on the transparent column 1 to reveal the terminal and the touch screen interface. The visual sensor 3 is installed between the projection screen 2 and the projector 4, and the height thereof may coincide with the projection screen 2 or directly below the projection screen 2. The visual sensor realizes sensing for the area of the projection screen 2 by specular reflection of the plane mirror several times (not shown in the drawing). Both the projector 4 and the visual sensor 5 are connected to the computer 5 through a standard RS232C interface or USB interface to realize a communication function between them.

図2は、視覚センサ3にはデジタルビデオカメラCAMERA31、カメラインターフェースCAMERA・I/F32、デジタル信号プロセッサDSP33とコンピュータインターフェースCOMP・I/F34が含まれている。カメラ31は一つ或いは多数を設置することが可能であり、その役割としては、投影スクリーン2の指などの物体情報を獲得し、カメラインターフェース32はカメラ31が収集した情報を受けてからデジタル信号プロセッサ33に伝送し、デジタル信号プロセッサ33は収集した信号をデジタル化させ、スクリーン上の物体特徴を識別し、ユーザー入力情報であるかそれともノイズであるかを判断する。ユーザー入力情報に関しては、ユーザー指或いはその他物体のスクリーン上の物理座標と制御指令を計算してから、コンピュータインターフェース34を通じてコンピュータ5に伝送し、それに応じた操作を実行する。   In FIG. 2, the visual sensor 3 includes a digital video camera CAMERA 31, a camera interface CAMERA • I / F 32, a digital signal processor DSP 33, and a computer interface COMP • I / F 34. One or a plurality of cameras 31 can be installed, and the role of the camera 31 is to acquire object information such as a finger of the projection screen 2, and the camera interface 32 receives the information collected by the camera 31 and receives a digital signal. The digital signal processor 33 digitizes the collected signal, identifies object features on the screen, and determines whether it is user input information or noise. Regarding the user input information, the physical coordinates on the screen of the user's finger or other object and the control command are calculated, and then transmitted to the computer 5 through the computer interface 34, and an operation corresponding thereto is executed.

図3は、本実施形態のタッチパネルシステムの動作方法のフローチャートである。この動作方法は、以下のステップを含む。
ステップ101:起動訂正
ステップ102:投影スクリーンの特徴点を拾い、次元を低める。
ステップ103:エキスパートシステムが初歩的に篩い分ける。
ステップ104:情報が定義条件に該当するか否かを判断する。
ステップ105:該当情報がある場合は、神経回路網計算方法に昇進する。
ステップ106:指位置があるか否かを判断する。
ステップ107:ある場合は、指位置抽出を行う。
ステップ108:抽出した指位置と視覚センサから伝送された情報を照らし合わせる。
ステップ109:コンピュータが情報の照らし合わせ処理を行い、マウスを駆動しながら制御を行う。
FIG. 3 is a flowchart of the operation method of the touch panel system of the present embodiment. This method of operation includes the following steps.
Step 101: Start correction Step 102: Pick up the feature points of the projection screen and lower the dimension.
Step 103: The expert system sifts through rudimentarily.
Step 104: It is determined whether or not the information satisfies a definition condition.
Step 105: If there is relevant information, the process proceeds to the neural network calculation method.
Step 106: It is determined whether or not there is a finger position.
Step 107: If there is, perform finger position extraction.
Step 108: Compare the extracted finger position with the information transmitted from the visual sensor.
Step 109: The computer performs a comparison process of information and performs control while driving the mouse.

ステップ101での、初期定位と訂正は五点定位法による。そのため、訂正プログラムを起動する際に、コンピュータのカーソルは、左上角―右上角―スクリーン中心点―左下角―右下角に移動する。コンピュータのカーソルが各位置に止まる度に、ユーザーはレーザーペンをスクリーン上のカーソル位置に合わせ数秒すると、カーソルは次の位置に移動する。次の位置で又上記の操作を繰り返しながら、全ての五つの点まで進行する。このような訂正を経て、指がスクリーンを接触する際に、カーソルは指の移動に従って、指位置の真下に止まる。   In step 101, initial localization and correction are performed by a five-point localization method. Therefore, when starting the correction program, the computer cursor moves from the upper left corner to the upper right corner, the screen center point, the lower left corner, and the lower right corner. Each time the computer cursor stops at each position, the user moves the laser pen to the cursor position on the screen for a few seconds and the cursor moves to the next position. Proceed to the next position and repeat the above procedure until all five points are reached. After such a correction, when the finger touches the screen, the cursor stops just below the finger position as the finger moves.

ステップ102で投影スクリーンの特徴点(プロジェクタ4が投影した画像とは異なる点)を拾い、次元を低める。   In step 102, a feature point of the projection screen (a point different from the image projected by the projector 4) is picked up and the dimension is lowered.

ステップ103で、エキスパートシステムは画像上の指情報を判断して指位置を識別する。エキスパートシステムには、総データベース、制御作戦と生成式規則が含まれる。総データベースのデータには、(1)実践中に認識される画像分析下で生成される指が持っている一定の経験情報とデータ、(2)画像処理過程で画像中の指情報が代表できる一部のデータ情報が含まれる。制御作戦とは様々な環境で出来るだけ如何に錯誤を減少させるかの指情報識別の計算方法である。生成式規則は『もしこの条件を満たすと、ある操作を取るべきである。』との方式で判断し、総データベースと制御作戦の連係と調和を担当する。本エキスパートシステムは、『もし画像上ある点のデータがデータベースの中のある特徴データに該当する場合は、この点は指情報が次の段階の篩い分けに昇進する可能性があると認識される。該当しない点は篩い分けから外される。幾重もの篩い分けを経てから最後の結論を得る。』システムである。   In step 103, the expert system identifies finger information on the image to identify the finger position. The expert system includes a total database, control strategy and generative rules. The data in the total database can be represented by (1) certain experience information and data held by the finger that is generated under image analysis recognized during practice, and (2) finger information in the image during the image processing process. Some data information is included. Control strategy is a calculation method of finger information identification to reduce mistakes as much as possible in various environments. The generation rule is “If this condition is met, an operation should be taken. ], And is responsible for coordination and harmonization of the total database and control strategy. The expert system says, "If the data of a point on the image corresponds to some feature data in the database, this point is recognized that the finger information may be promoted to the next stage of screening. . Points that do not apply are excluded from sieving. The final conclusion is obtained after multiple sieving. ] System.

ステップ104で、情報がエキスパートシステムが定義した指条件に該当するか否かを判断する。   In step 104, it is determined whether the information meets the finger conditions defined by the expert system.

ステップ105:該当情報がある場合は、神経回路網計算方法に昇進するステップ105での神経回路網計算方法はモデル識別中の基本計算方法を採用する。すなわち、実験中に得た指情報を利用して神経回路網に対する訓練と学習を行い、このような学習によってネットワークのパラメータ(例えば、隠れ層節点数、ウエイト、隠れ層節点広さ等)を確定し、このパラメータからネットワークの構造を確定する。学習とは、一部の既に得た入力出力情報によって、ネットワークのパラメータを推算且つ調整することである。学習の進行と共に、これらのパラメータは一つの中心値を巡って少量の変化を生じる。これらの中心値はネットワークの構造パラメータとして制定されることができ、全体の学習過程に於いて大体二つの段階に分けられる。隠れ層の学習過程と出力層の学習過程である。その中の隠れ層の訓練課程は隠れ層節点数とウエイトの確定過程であり、出力層の訓練を通じて連結されたウエイトを得ることができる。この中で、隠れ層の学習方法はMean Taxonomyを採用することができ、出力層の学習方法は傾斜度降下法Gradient Decent(最急降下法)を採用する。神経回路網とエキスパートシステムを相互結合したソフト方式で、視覚センサ3から伝送されるデータに対して識別を行うことによって、指の更なる正確な位置を確定する。   Step 105: If there is relevant information, the process proceeds to the neural network calculation method. The neural network calculation method in step 105 adopts the basic calculation method during model identification. That is, the neural network is trained and learned using the finger information obtained during the experiment, and the network parameters (for example, the number of hidden layer nodes, weight, hidden layer node size, etc.) are determined by such learning. From this parameter, the network structure is determined. Learning is to estimate and adjust network parameters according to some already obtained input / output information. As learning progresses, these parameters change a small amount around a central value. These central values can be established as structural parameters of the network and can be divided into roughly two stages in the whole learning process. A hidden layer learning process and an output layer learning process. The hidden layer training course is a process of determining the number of hidden layer nodes and weights, and connected weights can be obtained through training of the output layer. Among these, the learning method of the hidden layer can employ Mean Taxonomy, and the learning method of the output layer employs the gradient descending method, Gradient Decent (the steepest descent method). A more accurate position of the finger is determined by identifying the data transmitted from the visual sensor 3 by a software method in which the neural network and the expert system are mutually coupled.

ステップ106で、指位置があるか否かを判断する。   In step 106, it is determined whether or not there is a finger position.

ステップ107で、指位置がある場合は、指位置抽出を行う。   If there is a finger position in step 107, finger position extraction is performed.

ステップ108で、抽出した指位置と視覚センサから伝送された情報を照らし合わせる。   In step 108, the extracted finger position is compared with the information transmitted from the visual sensor.

ステップ109で、コンピュータが情報の照らし合わせ処理を行い、マウスを駆動しながら制御を行う。   In step 109, the computer performs a process of checking information and performs control while driving the mouse.

ここで、本実施形態のタッチパネルの動作を要約する。指或いは指型の物体が投影スクリーン2の上で操作する際に、視覚センサ3が複雑な背景下の投影スクリーン2上の画像場面を撮影して、デジタル信号に変換させ、スクリーン上物体の特徴を識別してからユーザー入力情報(指情報)かそれとも妨害情報(ノイズ)かを判断する。ユーザー入力情報に関しては、ユーザー指或いはその他物体がスクリーン上での物理座標と制御指令を計算してから、目標位置と制御情報をコンピュータ5に伝送して処理を行う。コンピュータ5の中でそれに応じたアプリケーションソフトウエアの駆動によって、マウス位置と制御情報に対して制御を行う。コンピュータ5に保存された画像情報はプロジェクタを通じて大画面投影スクリーン上に投影され、コンピュータと人との間で双方向対話を達成することができる。   Here, the operation of the touch panel of this embodiment will be summarized. When a finger or a finger-shaped object operates on the projection screen 2, the visual sensor 3 captures an image scene on the projection screen 2 under a complicated background, converts it to a digital signal, and features of the object on the screen Is identified, whether it is user input information (finger information) or interference information (noise). Regarding user input information, the user's finger or other object calculates physical coordinates and control commands on the screen, and then transmits the target position and control information to the computer 5 for processing. Control of the mouse position and control information is performed by driving application software corresponding to the computer 5. The image information stored in the computer 5 is projected on a large screen projection screen through a projector, so that interactive interaction between the computer and a person can be achieved.

本実施形態によれば、スーパー投影スクリーンを接触式スクリーンに変化させることが可能である。   According to this embodiment, the super projection screen can be changed to a contact screen.

また、センサは、プロジェクタ後方の1m〜4mの範囲内に設置することが可能であり、センサ設置の高さは地上から4mぐらいの所である。   The sensor can be installed within a range of 1 m to 4 m behind the projector, and the height of the sensor installation is about 4 m from the ground.

また、プロジェクタスクリーンの大きさは五点定位法によって確定され、スクリーンの大きさを変化する際にはセンサに対して予定外の要求を提出しない。   In addition, the size of the projector screen is determined by a five-point localization method, and no unscheduled request is submitted to the sensor when changing the screen size.

また、五点定位法は簡単且つ正確である。   Also, the five-point localization method is simple and accurate.

[補足] 以上説明した中国出願について補足する。   [Supplement] The Chinese application described above will be supplemented.

まず、図5を参照して、デジタル信号プロセッサ(DSP33)について補足する。   First, the digital signal processor (DSP 33) will be supplemented with reference to FIG.

デジタル信号プロセッサは、カメラインターフェイスから伝送するデジタル信号に対して処理を行い、スクリーン上の指先の位置を計算し、そして、コンピューターインタフェースを通じてコンピュータに情報を転送する役割を負っている。   The digital signal processor is responsible for processing digital signals transmitted from the camera interface, calculating the position of the fingertip on the screen, and transferring information to the computer through the computer interface.

情報プロセッサーは、カメラインターフェースが画像信号を処理した情報を読み取り、ここで指のデジタル画像の特徴の計算を行い、背景画像の中から指を識別して、その位置の座標を計算し、そして計算結果を、つまり指がスクリーンに現れる情報と位置の情報を、コンピューターインターフェイスが、コンピュータへ送り届ける。情報プロセッサは同時に視覚システムのdistortion rectifying計算方法を完成する。そのうち、電源管理モジュールは、情報プロセッサに電力を供給する役割を担当する。そしていつも情報プロセッサの稼動状況を監視し、負荷が重いとき、あるいは電圧の不安定時に、電源管理モジュールが保護する。   The information processor reads the information that the camera interface has processed the image signal, where it calculates the characteristics of the digital image of the finger, identifies the finger from the background image, calculates the coordinates of its position, and calculates The computer interface delivers the result, that is, the information that the finger appears on the screen and the position information to the computer. At the same time, the information processor completes the distortion-rectifying calculation method of the visual system. Among them, the power management module is responsible for supplying power to the information processor. The operating status of the information processor is constantly monitored, and the power management module protects when the load is heavy or the voltage is unstable.

Clock Generatorは、入力するビデオ信号によって、画像素信号に成る。あるいは、ひとつの画像素を獲得すれば、一回信号を出力する。本システムには、Clock Generator が27MHzと13.5MHzの二つ異なる周波数を発生する。   The Clock Generator becomes an image elementary signal depending on the input video signal. Alternatively, if one image element is acquired, a signal is output once. In this system, the Clock Generator generates two different frequencies, 27 MHz and 13.5 MHz.

SDRAMは、ビデオカメラインタフェイスが画像信号を処理した情報を一時的に保存する。情報プロセッサは1フレームの画像データを計算し終わると、SDRAMの記憶内容は更新される。   The SDRAM temporarily stores information obtained by processing the image signal by the video camera interface. When the information processor finishes calculating one frame of image data, the stored contents of the SDRAM are updated.

FLASHメモリは、情報プロセッサ内部のプログラムコードを蓄積する。FLASHメモリ内部のデータが情報プロセッサに読み込まれ、あとで、これらのプログラムコードはスタートから実行して、SDRAMに一時保存するデータに対して運算を行う。   The FLASH memory stores program code inside the information processor. The data in the FLASH memory is read into the information processor, and later, these program codes are executed from the start to perform operations on the data temporarily stored in the SDRAM.

図6を参照して、コンピューターインターフェイス(COMP・I/F34)について補足する。コンピューターインターフェイスは、情報プロセッサの計算結果をシリアル・ポートで、コンピュータ5へ転送する。しかも、シリアル・ポートを通して、ユーザはシステムの実際運行環境によってシステムの運行モードを設けることができる。従って、システムは異なる環境に適応させることができる。プログラムドライバは異なるモードによって相応するパラメータを調整し、目標の認識と位置の測定が予定の精度範囲に達成させる。非同期UART電気回路とLevel Translating Digital Bus Switchesを利用して、情報デジタルの外部の記憶装置のインターフェイスと接続し、通信プロトコルの一致することを維持する役割を担当する。   With reference to FIG. 6, it supplements about a computer interface (COMP * I / F34). The computer interface transfers the calculation result of the information processor to the computer 5 through a serial port. In addition, through the serial port, the user can set the operation mode of the system according to the actual operation environment of the system. Thus, the system can be adapted to different environments. The program driver adjusts the corresponding parameters according to different modes so that target recognition and position measurement are achieved within the expected accuracy range. Using an asynchronous UART electric circuit and Level Translating Digital Bus Switches, it is connected to an interface of an external storage device of information digital, and is responsible for maintaining communication protocol matching.

図7を参照して、カメラインターフェイス(CAMERA・I/F32)について補足する。カメラインターフェイスは、カメラ1の転送信号の収集と調整をする役割を担当しており、信号形式の認識ユニット、同期信号の検査・測定、ビデオ信号の検査・測定・出力ユニット、Clock Generator,及びA/D(アナログ /デジタルコンバータを含む。信号形式の認識はビデオの信号の検出・測定をするために、入力信号を判断する。本システムはPAL形式を利用している。   With reference to FIG. 7, it supplements about a camera interface (CAMERA * I / F32). The camera interface is in charge of collecting and adjusting the transfer signal of the camera 1, and is a signal format recognition unit, a synchronization signal inspection / measurement, a video signal inspection / measurement / output unit, a clock generator, and an A / D (including analog / digital converter. Signal format recognition determines the input signal to detect and measure the video signal. The system uses the PAL format.

A/D転換器は、カメラのアナログ信号をITU−R BT.656標準形式のデジタル信号に変換させ、光度デジタル信号とカラー度デジタル信号も含まれる。従って、後の信号処理には直接デジタル信号に処理することが出来る。   The A / D converter converts the analog signal of the camera to ITU-R BT. It is also converted into a digital signal of 656 standard format, and a luminosity digital signal and a chromaticity digital signal are also included. Therefore, it can be processed directly into a digital signal for later signal processing.

同期データ転送電気回路:ビデオの同期信号の検出・測定することは周期的な出力が信号を表すことを指すので、信号処理に電気回路の現在処理する信号を全体のプロジェクトの中の位置を教えるためのフレーム同期、行同期、奇数/偶数同期信号が含まれる。フレーム同期はフレーム画像毎に同期信号を送ることであり、行同期は行画像毎に信号を送ることであり、奇数/偶数同期は転送する信号が奇数場の信号或いは偶数場の信号を表示することである。   Synchronous data transfer electrical circuit: Since the detection and measurement of the video synchronization signal refers to the periodic output representing the signal, signal processing tells the position of the current processing signal of the electrical circuit within the overall project. Frame synchronization, row synchronization, and odd / even synchronization signals are included. Frame synchronization is to send a synchronization signal for each frame image, row synchronization is to send a signal for each row image, and odd / even synchronization is a signal to be transferred indicating an odd field signal or an even field signal. That is.

Clock Generatorは、入力するビデオ信号によって、画像素信号に成る。あるいは、ひとつの画像素を獲得すれば、一回信号を出力する。本システムには、Clock Generator が27MHzと13.5MHz二つ異なる周波率を発生する。   The Clock Generator becomes an image elementary signal depending on the input video signal. Alternatively, if one image element is acquired, a signal is output once. In this system, the Clock Generator generates two different frequencies of 27 MHz and 13.5 MHz.

次に、図3のフローチャートについて補足する。   Next, it supplements about the flowchart of FIG.

ステップ101の五点定位法で、スクリーン上のそれぞれの基本的な点の情報を確定された以後、物理座標がロジック座標に転換するために、全体スクリーン地域を異なる子地域に分割して、異なる子地域にはサイズ転換する係数を確定している。   After the information of each basic point on the screen is determined by the five-point localization method of Step 101, the whole screen area is divided into different child areas in order to change the physical coordinates to logic coordinates. The child region has a fixed coefficient for size conversion.

ステップ102(投影スクリーンの特徴点を拾い、次元を低める)について補足する。本実施形態のタッチスクリーンシステムでは、デジタル画像信号に対して主要成分分析方法(Principle Component Analysis、略称 PCA)を使う。PCAは平方偏差(variance)を使用する。本システムの中では、人や電圧のもたらす妨害に起因して、ビデオカメラの得る信号は多次元であり、指の特徴の情報は比較的に複雑で、もしすべての情報に対してすべて分類を行うならば、システムの分析速度は遅くなる。そこで、PCAが線形転換を通じて情報量の多い(分散の大きな)データを保留して、ノイズを除去し、データの次元を下げる。   It supplements about step 102 (The feature point of a projection screen is picked up and a dimension is reduced). In the touch screen system of this embodiment, a principal component analysis method (Principal Component Analysis, abbreviated as PCA) is used for digital image signals. PCA uses a square variation. In this system, due to the disturbance caused by people and voltage, the signal obtained by the video camera is multi-dimensional and the information of finger characteristics is relatively complex, if all information is classified If done, the analysis speed of the system will be slow. Therefore, PCA reserves data with a large amount of information (large dispersion) through linear transformation, removes noise, and lowers the data dimension.

デジタル画像のデータ空間の中のサンプル{Xi}(iは1〜N)において、(デジタル画像情報のひとつである1フレーム画像のある1つの小さい範囲の領域のピクセルの、灰色度(information of pixel gray)と、色度(information of chromaticity)を使って、その平均X(mean value)及び共分散(covariance)Σ=E (X−X)×(X−X)を得る。さらに、Σ=UΛUと表わす。ここで、Uは直交マトリックスであり、Λは対角マトリクス(diagonal matrix,Σの固有ベクトル(characteristic matrix)である。主な成分Y=U(X−X)は、ひとつの新しいデータ集合Yi)(iは1〜N)の平均値はゼロになり、Λは共分散マトリクス(covariance matrix)となる。 In the sample {Xi} (i is 1 to N) in the digital image data space, (information of pixels of pixels in one small range area of one frame image which is one of the digital image information) gray) and chromaticity (information of chromaticity) to obtain its mean X 0 (mean value) and covariance Σ = E (X−X 0 ) × (X−X 0 ). Σ = UΛU T , where U is an orthogonal matrix and Λ is a diagonal matrix, a characteristic matrix of Σ The main component Y = U T (X−X 0 ) is , One new data set Yi) (where i is 1 to N) The value is zero, lambda is the covariance matrix (covariance matrix).

このようにして、変数の間の関連性を取り除いて、より平方偏差の小さい変数を除去し、それによってデータの次元を下げる。この範囲内の全てのピクセルの灰色度と色度の中から役に立つ情報を取り出し、指の特徴の情報を灰色度の、形と運動の情に限定し、後続のエキスパートシステムの処理に備える。   In this way, the association between variables is removed, variables with smaller square deviations are removed, thereby reducing the dimension of the data. Useful information is extracted from the grayness and chromaticity of all pixels within this range, and the finger feature information is limited to grayness, shape and movement information, and prepared for subsequent processing of the expert system.

図8を参照して、ステップ103に記載したエキスパートシステムについて補足する。エキスパート(専門家)はある特定領域中専門知識を持っている人である。あるいは、専門家は他の人間が知らない、利用できない専門技能を持っている人である。専門家は普通の人間が解決が出来ない或いは高い効率で解決できない問題を解決ことが出来る。エキスパートシステムは人工知能の一つのbranchであり、多量専門知識を利用して、専門家しか解決できない問題を解決する。   With reference to FIG. 8, it supplements about the expert system described in step 103. FIG. An expert is a person who has expertise in a specific area. Alternatively, an expert is a person who has specialized skills that other people do not know or use. Experts can solve problems that ordinary people cannot solve or cannot solve with high efficiency. An expert system is a branch of artificial intelligence, and uses a great deal of expertise to solve problems that only experts can solve.

ユーザがエキスパートシステムに事実或いは他の情報を提供し、返しに専門知識或いは専門家アドバイスをもらう。エキスパートシステム内部は主なデータベースと推理エンジンの二つの部分を含む。データベースには推理エンジンを利用して、獲得する結論知識が含まれる。この結論はエキスパートシステムからユーザに出力される。
エキスパートシステムは画像上の指情報を判断して指位置を認識する。また総データベース、制御作戦と生成式規則が含まれ,総データベースのデータには、(1)実践中に認識される画像分析下で生成される指が持っている一定の経験情報とデータ、(2)画像処理過程で画像中の指情報が代表できる一部のデータ情報が含まれ、制御作戦とは様々な環境で出来るだけ如何に錯誤を減少させるかの指情報識別の計算方法であり,生成式規則は『もしこの条件を満たすと、ある操作を取るべきである。』の方式で判断し、総データベースと制御作戦の連係と調和を担当する。本エキスパートシステムは実際的に『もし画像上ある点のデータがデータベースの中のある特徴データに該当する場合は、この点は指情報が次の篩い分けの段階に移行する可能性があると認識される。該当しない点は篩い分けられる。何重の篩い分けを経てから最後の結論を得る。』である。
The user provides facts or other information to the expert system and receives expert knowledge or expert advice in return. The interior of the expert system contains two parts: the main database and the reasoning engine. The database contains the conclusion knowledge to be acquired using the reasoning engine. This conclusion is output to the user from the expert system.
The expert system recognizes the finger position by judging the finger information on the image. It also includes a total database, control strategy and generation formula rules. The total database data includes (1) certain experience information and data held by fingers generated under image analysis recognized during practice, ( 2) Some data information that can represent the finger information in the image is included in the image processing process, and the control strategy is a calculation method of finger information identification to reduce the error in various environments as much as possible. The generation rule is “If this condition is met, an operation should be taken. ] And is responsible for coordination and harmonization of the total database and control strategy. The expert system actually recognizes that if the data at a point on the image corresponds to some feature data in the database, this point may be transferred to the next sieving stage. Is done. Points that do not apply are screened out. The final conclusion is obtained after multiple sieving. ].

ステップ104では、この範囲内の全てのピクセルの灰色度と色度の中から役に立つ情報を取り出し、指の特徴の情報を灰色度の、形と運動の情報に限定し、指としてあらかじめ定義した条件に該当するか否かを大まかに判定する。   In step 104, useful information is extracted from the grayness and chromaticity of all the pixels within this range, and the finger feature information is limited to grayness, shape and movement information, and the condition defined in advance as a finger. A rough judgment is made as to whether or not this is true.

図9を参照して、ニューロン(神経細胞)について補足する。   With reference to FIG. 9, it supplements about a neuron (nerve cell).

人間頭脳は一つ一つの細胞がたくさんの突起を伸ばし、仲間の神経細胞(標的細胞)とつながっている。一本だけ長く伸び、途中で何度も分岐しながら数多くの仲間の細胞とつながっているのが軸索で、情報を送り出す働きがある。また、無数に伸びているのが樹突起で、こちらはほかの細胞の軸索から情報を受け取る働きがある。1000億個とも1400億個ともいわれる脳の神経細胞の一つ一つが、平均すると約1万個の仲間の細胞とつながっていて、その網の目のようにはりめぐらされた神経細胞同士のつながりが神経ネットワークである。   In the human brain, each cell extends a number of processes and is connected to fellow neurons (target cells). Axons are connected to many fellow cells while branching many times along the way, and serve to send out information. Innumerable trees are dendrites, which receive information from other cell axons. Each nerve cell in the brain, which is said to be 100 billion or 140 billion, is connected to an average of approximately 10,000 fellow cells, and the connections between the neurons that are spread like the mesh. Is a neural network.

五感を通して得た情報はすべて電気信号となって、この神経ネットワークに伝えられる。ところが軸索と樹状突起のつなぎ目(シナプス)にはシナプス間隙といわれるほんのわずかなすき間があり、電気信号のままではここを飛び越えることができない。そこで軸索の末端までくると、その信号に応じた分量の化学物質(神経伝達物質)に変換されてシナプス間隙に飛び出し、それを樹状突起のレセプター(受容体)が受け止めると、またすばやく電気信号に戻って、次の神経細胞へと伝わっていく。つまり、脳の中では常に膨大な数の神経ネットワークのあちこちで、さまざまな情報が電気信号→化学物質→電気信号→ と形を変えながら駆け巡っている。そして私たち人間は、その神経ネットワークの働きによって、何かを考えたり、記憶したり、思い出したり、想像したり、行動している。   All the information obtained through the five senses is transmitted as electrical signals to this neural network. However, the axon-dendritic junction (synapse) has a very small gap called a synaptic gap, and it cannot be jumped over with an electrical signal. Therefore, when it reaches the end of the axon, it is converted into a chemical substance (neurotransmitter) in an amount corresponding to the signal and jumps out into the synaptic gap, and when the dendrite receptor (receptor) receives it, it quickly turns into electricity. It returns to the signal and is transmitted to the next nerve cell. In other words, in the brain, there are always a vast number of neural networks, and various types of information circulate while changing the form of electrical signals-> chemical substances-> electrical signals->. And we humans think, memorize, remember, imagine, and act by the function of the neural network.

人工神経ネット(ニューラルネット)は神経細胞の生理構造の模型に基づく。ニューロンの最も簡単なモデルは、次のような人工のニューロンである。x〜xは他のニューロンからの入力信号。w〜wは突然触れる強さ、Yはニューロンの出力信号とする。上述の各変数とパラメーターは全て実数を取る。簡単な入力−出力対応関係は以下のとおりである。

Figure 0004708278
Artificial neural nets (neural nets) are based on models of the physiological structure of nerve cells. The simplest model of a neuron is an artificial neuron that: x 1 to x N are input signals from other neurons. Let w 1 to w N be the intensity of sudden touch, and Y be the output signal of the neuron. All the above variables and parameters are real numbers. A simple input-output correspondence is as follows.
Figure 0004708278

その中でsgn[・]は記号値を取って表す。これは1940年代に出したMcCulloch−Pitts模型である。ある特定のニューロン模型に基づいて、多くのニューロンは異なる方案で、様々なタイプの人工神経のネットワークを合成することができる。   Among them, sgn [•] represents a symbol value. This is the McCulloch-Pitts model published in the 1940s. Based on a particular neuron model, many neurons can synthesize different types of artificial neural networks in different ways.

神経ネットワークは以下の特徴がある。
1 ネットワークは一つ簡単な非線型のプロセッサユニット、つまりニューロンで構成する。
2 ネットワークは、すべて分布−並行する方式で構成と運行している。一つ一つのニューロンと樹状突起はすべての記憶内容のメモリを引き受けて、すべての記憶を取り出してもすべてのニューロンと樹状突起に関連する
3 ネットワークには、ニューロンの数量が非常に多いから、ネットワークは複雑なシステムになることが出来る。
4 ネットワークは学習能力を持つ。それはすでに出来ているプログラムで、必要な機能を実現することではなく、学習を通じてこの機能を獲得しにくる。
The neural network has the following characteristics.
1 A network consists of one simple non-linear processor unit, that is, a neuron.
2 All networks are organized and operated in a distributed-parallel manner. Each neuron and dendrite takes over the memory of all memory contents, and even if all the memory is retrieved, the three networks related to all neurons and dendrites have a large number of neurons. The network can be a complex system.
4 The network has learning ability. It is a program that has already been made, and it comes to acquiring this function through learning rather than realizing the necessary function.

本タッチパネルシステムの神経ネットワーク計算方法はモデル識別中の基本計算方法を採用する。実験中に得た指情報を利用して神経ネットワークに対する訓練と学習を行い、このような学習によって神経ネットワークのパラメーター(例えば、隠れ層節点数、ウエイト、隠れ層節点広さ等)を確定し、このパラメーターから神経ネットワークの構造を確定する。学習とは、一部の既に得た入力出力情報によって、神経ネットワークのパラメーターを推算し調整することである。学習の進行と共に、これらのパラメーターは一つの中心値を巡って少量の変化を生じる。これらの中心値はネットワークの構造パラメーターとして制定されることができ,全体の学習過程に於いて大体二つの段階に分けられる。隠れ層の学習過程と出力層の学習過程である。その中の隠れ層の訓練課程は隠れ層節点数と権値の確定過程であり,出力層の訓練を通じて連結された権値を得ることができる。この中で、隠れ層の学習方法は平均値集類法を採用することができ、出力層の学習方法は最急降下法を採用する。   The neural network calculation method of this touch panel system adopts the basic calculation method during model identification. The neural network is trained and learned using the finger information obtained during the experiment. By such learning, the parameters of the neural network (eg, number of hidden layer nodes, weight, hidden layer node size, etc.) are determined, From this parameter, the structure of the neural network is determined. Learning is to estimate and adjust the parameters of a neural network based on some already obtained input / output information. As learning progresses, these parameters change a small amount around a central value. These central values can be established as structural parameters of the network and can be divided into roughly two stages in the whole learning process. A hidden layer learning process and an output layer learning process. The hidden layer training process is the process of determining the number of hidden layer nodes and the right value, and the connected right value can be obtained through the output layer training. Among these, the learning method for the hidden layer can employ the average value collection method, and the learning method for the output layer employs the steepest descent method.

ステップ107では、指でマウスに取って代わって大きいスクリーンに対してコントロールを行うので、手形領域を分割した後で手形領域の中で指先の位置を検測し、スクリーンの座標に転換してシステムに指示を行う。一つの画像に対して検査・測定することを行う時、すでに手形領域を分割したため、指先の捜索は全体領域から局部の捜索に変わる、捜索時間を減らすことができる。本システムは分割した手形領域で、曲率の最大の点を計算する方法と定向捜索方法を結合する指先の位置付けの技術を利用する。   In step 107, the mouse is replaced with a finger to control a large screen, so after dividing the handprint area, the position of the fingertip is measured in the handprint area and converted to screen coordinates. To give instructions. When the inspection / measurement is performed on one image, since the bill area is already divided, the search of the fingertip is changed from the entire area to the local search, and the search time can be reduced. This system uses the fingertip positioning technique that combines the method of calculating the maximum curvature point and the directed search method in the divided bill area.

本システムには、前記方法で分割した手形領域の画像情報を獲得するために、手形領域中心の座標(xc、yc)と方向角度θcを計算しなければならない。それによって、後続の模板(テンプレート)マッチングの方向を捜索するように指示を行う。   In this system, in order to obtain image information of the bill area divided by the above method, the coordinates (xc, yc) and the direction angle θc of the bill area center must be calculated. Thereby, an instruction is given to search for the direction of subsequent pattern matching.

まず、M0(零階長方形)とM10(一階長方形)を通じて手形領域の中心座標を計算する。M0(零階長方形)とM10(一階長方形)の計算公式は以下の通りです:

Figure 0004708278
First, the center coordinates of the bill area are calculated through M0 (zero-order rectangle) and M10 (first-order rectangle). The calculation formula for M0 (zero-order rectangle) and M10 (first-order rectangle) is as follows:
Figure 0004708278

それからM20(2階長方形)を利用して画像の2次元の方向を計算する。計算公式は次の通りである。

Figure 0004708278
Then, the two-dimensional direction of the image is calculated using M20 (second floor rectangle). The calculation formula is as follows.
Figure 0004708278

画像中の角点を測定するために、現在すでにたくさん異なっている方法が存在している。本システムの計算方法は模板(テンプレート)マッチングの角点に基づいて検査・測定することを利用している。原理は次の通りである。画像処理の中で、模板(テンプレート)マッチングを利用するのは一つ熟していて実用的な技術である。へりの検査・測定すること中で模板(テンプレート)マッチングを利用するのはとてもよい一つ方法で、それが角点の測定にも利用できる。模板(テンプレート)マッチング方法で、角点の測定の原理は以下の通りである。割り当てるn×n模板と画像のすべてM×N地域の関連性および類似性を確定する。Bretschiは次の模板(テンプレート)を確立した。

Figure 0004708278
There are already many different ways to measure corner points in an image. The calculation method of this system uses inspection / measurement based on corner points of pattern (template) matching. The principle is as follows. Using image (template) matching in image processing is one mature and practical technique. It is a very good way to use pattern matching in the inspection and measurement of edges, and it can also be used to measure corner points. The principle of measuring the corner points in the pattern matching method is as follows. Determine the relevance and similarity of all M × N regions of the assigned n × n pattern and image. Bretsch established the following pattern (template).
Figure 0004708278

上述のような模板(テンプレート)を連続90°回転すると、全部で8セットの模板(テンプレート)を生むことができる。画像とこの8セットの模板(テンプレート)について関連している度(度合)を計算するにより、すべての画像の角点測定値(ピクセル)を得、最後に最大値のピクセルを角点として選ぶ。   When the above-described pattern plates (templates) are continuously rotated by 90 °, a total of eight patterns (templates) can be produced. By calculating the degree of association between the image and the eight sets of templates (templates), the corner point measurements (pixels) of all the images are obtained, and finally the maximum value pixel is selected as the corner point.

理想的な情況の下で、この模板はすべての角点を検査・測定することが出来る。しかし、角点が多量な特徴(点度、内角度、へりの台形度)を持っているので、すべての角点にマッチングする多量な模板(テンプレート)を設計することは不可能だ。したがって、複雑な画像中では、この方法を利用することが出来ない。   Under ideal circumstances, this pattern board can inspect and measure all corner points. However, since corner points have a lot of features (points, internal angles, edge trapezoids), it is impossible to design a large number of templates (templates) that match all corner points. Therefore, this method cannot be used in complex images.

ステップ108では、情報を対比し、多い情報を融合する技術を採用し、情報の単一な特徴制限を排除することが出来る。高域濾波器に基づいての画像処理計算法を利用され、手形画像を分割するにはSobel分割演算子を利用し、しかも指は大画面スクリーンの背景の下で特定の灰色特徴があるので、限界値分割とSobel分割演算子はお互いに協力し合う度を増加し、境のはっきりしない現象を取り除くことができる。さらに、指の運動の特徴を考慮に入れて、また背景と時間の画面差の互いに結合する運動探知演算式(moving detection algorithm)を利用する。そして、分割した手形領域で、曲率の最大の点を計算する方法と定向捜索方法を結合する技術に基づいて、指先の位置を確定する。指先位置についての追跡は、このシステムがKalmanフィルターを取り入れて、指の運動する規則によって、運動移転矩形と測量矩形を作り上げる。リアルタイム性の要求を満たすため、本システムはPCIに基づく画像の採集カードを使用し、採集した画像が直接メモリーに置くによって、画像の採集時間は最大限度に短縮する。さらに、演算の実行効率を高める為に、本システムは灰度画像が原始画像として入力し、直接灰度画像に処理するによって、画像処理時間が減少するころが出来る。   In step 108, information can be contrasted and a technique for fusing a large amount of information can be employed to eliminate a single feature restriction of information. Since the image processing calculation method based on the high-pass filter is used, the Sobel division operator is used to divide the bill image, and the finger has a specific gray feature under the background of the large screen, The limit value division and Sobel division operators increase the degree of cooperation with each other, and can eliminate unclear phenomena. Furthermore, taking into consideration the characteristics of finger movement, a motion detection algorithm that combines the screen difference between the background and time is used. Then, the position of the fingertip is determined based on a technique that combines the method of calculating the maximum curvature point and the directed search method in the divided bill area. For tracking the fingertip position, this system incorporates a Kalman filter to create a movement transfer rectangle and a survey rectangle according to the rules of finger movement. In order to meet the requirement of real-time performance, the system uses a PCI-based image collection card, and the collected image is directly placed in the memory, thereby shortening the image collection time to the maximum. Furthermore, in order to increase the execution efficiency of the calculation, the present system can reduce the image processing time by inputting the ash degree image as the original image and directly processing it into the ash degree image.

ステップ109では、指先位置の情報を認識した後、座標転換を通じて、画像中の指先の物理位置を大画面の上論理的座標情報に転換して、コンピューターの指令に転送するので、指先がタッチ機能に成る。   In step 109, after the information on the fingertip position is recognized, the physical position of the fingertip in the image is converted into the upper logical coordinate information on the large screen through the coordinate conversion and transferred to the computer command. It becomes.

本システムの神経ネットワーク計算方法はモデル識別中の基本計算方法を採用する。実験中に得た指情報を利用して神経ネットワークに対する訓練と学習を行い、このような学習によって神経ネットワークのパラメーター(例えば、隠れ層節点数、権値、隠れ層節点広さ等)を確定し、このパラメーターから神経ネットワークの構造を確定する。学習とは、一部の既に得た入力出力情報によって、神経ネットワークのパラメーターを推算且つ調整することである。学習の進行と共に、これらのパラメーターは一つの中心値を巡って少量の変化を生じる。これらの中心値はネットワークの構造パラメーターとして制定されることができ,全体の学習過程に於いて大体二つの段階に分けられる。隠れ層の学習過程と出力層の学習過程である。その中の隠れ層の訓練課程は隠れ層節点数と権値の確定過程であり,出力層の訓練を通じて連結された権値を得ることができる。この中で、隠れ層の学習方法は平均値集類法を採用することができ、出力層の学習方法は最急降下法を採用する。   The neural network calculation method of this system adopts the basic calculation method during model identification. The neural network is trained and learned using finger information obtained during the experiment, and the parameters of the neural network (for example, the number of hidden layer nodes, right value, hidden layer node size, etc.) are determined by such learning. From this parameter, the structure of the neural network is determined. Learning is to estimate and adjust the parameters of the neural network based on some already obtained input / output information. As learning progresses, these parameters change a small amount around a central value. These central values can be established as structural parameters of the network and can be divided into roughly two stages in the whole learning process. A hidden layer learning process and an output layer learning process. The hidden layer training process is the process of determining the number of hidden layer nodes and the right value, and the connected right value can be obtained through the output layer training. Among these, the learning method for the hidden layer can employ the average value collection method, and the learning method for the output layer employs the steepest descent method.

当システムの実現の目標は指でマウスに取って代わって大きいスクリーンに対してコントロールを行うので、だから手形領域を分割した後で手形領域の中で指先の位置を検測し、そしてスクリーンの座標に転換してシステムに指示を行う。一つ画像に対して検査・測定することを行う時、すでに手形領域を分割したため、指先の捜索は全体領域から局部の捜索に変わる、捜索時間を減らすことができる。本システムは分割した手形領域で、曲率の最大の点を計算する方法と定向捜索方法を結合する指先の位置付けの技術を利用する。   The goal of realizing this system is to control the large screen instead of the mouse with the finger, so after dividing the bill area, measure the position of the fingertip in the bill area, and then the screen coordinates And instruct the system. When the inspection / measurement is performed on one image, since the bill area has already been divided, the search of the fingertip is changed from the entire area to the local search, and the search time can be reduced. This system uses the fingertip positioning technique that combines the method of calculating the maximum curvature point and the directed search method in the divided bill area.

ステップ102(投影スクリーンの特徴点を拾い、次元を低める)ことについて説明する。本実施形態のタッチスクリーンシステムでは、デジタル画像信号に対して主要成分分析方法(Principle Component Analysis、略称 PCA)を使う。PCAは平方偏差(variance)を使用する。本システムの中では、人や電圧のもたらす妨害に起因して、ビデオカメラの得る信号は多次元であり、指の特徴の情報は比較的に複雑で、もしすべての情報の分類を行うならば、システムの分析速度は遅くなる。そこで、PCAが線形転換を通じて情報量の多い(分散の大きな)データを保留して、ノイズを除去し、データの次元を下げる。   Step 102 (picking feature points of the projection screen and reducing the dimension) will be described. In the touch screen system of this embodiment, a principal component analysis method (Principal Component Analysis, abbreviated as PCA) is used for digital image signals. PCA uses a square variation. In this system, due to the disturbance caused by people and voltage, the signal obtained by the video camera is multi-dimensional and the information of the finger features is relatively complex, so if all information is classified The analysis speed of the system will be slow. Therefore, PCA reserves data with a large amount of information (large dispersion) through linear transformation, removes noise, and lowers the data dimension.

ここで、エキスパートシステムについてさらに補足する。   Here, it supplements further about an expert system.

知識データベースは、五点定位法によって較正された指情報の基本となるデータと、投影スクリーン上の指の位置を認識するに至るデータを蓄積するデータベースである。さらに、この知識データベースに経験情報として指の位置を判断した結果を蓄積し、以後の分析に利用する。   The knowledge database is a database that accumulates basic data of finger information calibrated by the five-point localization method and data that reaches recognition of the finger position on the projection screen. Furthermore, the result of judging the position of the finger as experience information is stored in this knowledge database and used for subsequent analysis.

制御作戦は、より簡単に指情報を抽出するために、隠れ層や出力層のニューロンに訓練と学習をおこなわせる手法で、たとえば指情報以外の情報をノイズとして識別するために、隠れ層のニューロンと選択した特定の出力層のニューロンに結合の重みを加えたりして、出力の値をできるだけ参照する実際の指情報に近いものにして行くための手法である。   Control strategy is a technique to train and learn neurons in the hidden layer and output layer in order to extract finger information more easily.For example, in order to identify information other than finger information as noise, neurons in the hidden layer This is a technique for adding a connection weight to a neuron of a selected specific output layer to make the output value as close as possible to the actual finger information.

生成式規則は、参照するデータベースと制御作戦の相互の関係おいて特定の条件を満足すかどうかの篩分けをおこなうための条件式でノイズを除去する手法の一部を構成する。   The generation rule constitutes a part of a technique for removing noise by a conditional expression for screening whether or not a specific condition is satisfied in relation to a database to be referenced and a control strategy.

隠れ層の接点数とは、隠れ層に属するニューロン数であり、隠れ層ニューロン数ともいう。また、隠れ層の接点広さは、隠れ層に属するニューロンのパラメータの値が許容される範囲内で変動するその変動幅のことである。   The number of hidden layer contacts is the number of neurons belonging to the hidden layer and is also referred to as the number of hidden layer neurons. The contact area of the hidden layer is the fluctuation range in which the value of the parameter of the neuron belonging to the hidden layer varies within an allowable range.

図10に示すとおり、隠れ層(hidden layer)は、inputlayer(I.I、Bias unit )とpoutputlayer Y(I.or I)を結ぶ経路(重みW、W、W)である。 As shown in FIG. 10, the hidden layer is a path (weights W 0 , W 1 , W b ) that connects the input layer (I 0 .I 1 , Bias unit) and the output layer Y (I 0 .or I 1 ). It is.

図11、図12を参照して、隠れ層を含め、神経回路網の一般的特性について説明する。ある素子jは、他の素子iの出力yiを入力として受け、重みwijをかけて加えたものを入力の総和ujとする(3.1)。
そして、出力yjは入力の総和に単調増加関数fを施したもので表されることにする(3.2)。しきい値は重みの一つとして含まれていると考える。ここで、出力関数fは階段関数であってもよい。ここでは、出力関数fとしてシグモイド関数を用いることにする。シグモイド関数は、0から1までの連続した値をとる関数なので微分可能であり、後に解析的に問題を解くことが可能になる。次に、神経回路における学習を一般化して考える。式(3.3)右辺の2乗頁内の第2項(負項)をある入力ベクトルcに対して出力素子jが出すべき望ましい出力、式(3.3)右辺の2乗頁内の第1項(正項)をその時の出力素子jの実際の出力とした時、学習の評価として、式(3.3)のような誤差関数Eを考える。この誤差関数を最小にする手続きを一般に最小2乗誤差(least mean square,LMS)法という。式(3.3)右辺の2乗頁内の第1項(正項)はその時の素子間の結合の強さ、すなわち重みwijで決まるため、誤差関数も重みに関して陰に定義された関数となる。したがって、各重みの値を軸としてできる空間を考え、さらにこの誤差関数Eによって定義される値を高さと考えれば、Eは重み空間上の超曲面として誤差曲面を与えることになる。任意の重み状態から、この誤差曲面の極小値に達するには、例えば各重みを、式(3.4)右辺の偏微分項に比例した量ずつ変化させていけばよいことになる。これは、誤差曲面上を最も急な傾斜方向に進んでいくことに相当し、このような学習則を一般に最急降下法(gradient decent method)という。
With reference to FIGS. 11 and 12, general characteristics of the neural network including the hidden layer will be described. A certain element j receives the output yi of another element i as an input, and adds the weight wij as the input summation uj (3.1).
The output yj is expressed by the sum of the inputs and the monotonically increasing function f (3.2). The threshold is considered to be included as one of the weights. Here, the output function f may be a step function. Here, a sigmoid function is used as the output function f. Since the sigmoid function is a function that takes a continuous value from 0 to 1, it can be differentiated, and the problem can be solved analytically later. Next, generalize learning in neural circuits. Equation (3.3) The second term (negative term) in the square page on the right side is the desired output to be output by the output element j for a certain input vector c, Equation (3.3) in the square page on the right side When the first term (positive term) is the actual output of the output element j at that time, an error function E as shown in Equation (3.3) is considered as an evaluation of learning. This procedure for minimizing the error function is generally called a least mean square (LMS) method. Since the first term (positive term) in the square page on the right side of Equation (3.3) is determined by the strength of coupling between elements at that time, that is, the weight wij, the error function is also a function defined implicitly with respect to the weight. Become. Therefore, if a space where each weight value is used as an axis is considered, and if a value defined by this error function E is considered as a height, E gives an error curved surface as a hypersurface in the weight space. In order to reach the minimum value of the error surface from an arbitrary weight state, for example, each weight may be changed by an amount proportional to the partial differential term on the right side of Equation (3.4). This is equivalent to proceeding in the steepest inclination direction on the error curved surface, and such a learning rule is generally referred to as a steepest descent method.

さて、式(3.1)、式(3.2)のように素子の性質が定義されていれば、式(3.4)は合成関数の微分公式により、展開できる(式(3.5)添字cは省略した)。式(3.1)(3.2)を微分して代入すれば、式(3.6)、(3.7)となるので、結局式(3.4)は、式(3.8)となる。中間層が学習しない場合、式(3.5)右辺の乗算項の第1項(Eをyjで偏微分したもの)は、式(3.3)を微分することにより簡単に式(3.9)により求まる。したがって、式(3.8)より、式(3.10)という学習則が得られる。これを一般化デルタルールと呼ぶ。例えばfがシグモイド関数で与えられる場合、式(3.11)より、(3.12)という形になる。式(3.11)の方法では、すべての入出力パターンが与えられた後にはじめて重みを変化させることになるが、ηが十分に小さければ、パーセプトロンのように各入出力が与えられるごとに重みを反復的に変化させる。すなわち、(3.13)としても、全体の変化量は最急降下法とほぼ等しくなる。   If the properties of the element are defined as in the formulas (3.1) and (3.2), the formula (3.4) can be expanded by the differential formula of the composite function (formula (3.5 ) Subscript c is omitted). If the expressions (3.1) and (3.2) are differentiated and substituted, the expressions (3.6) and (3.7) are obtained, so the expression (3.4) is eventually converted into the expression (3.8). It becomes. When the intermediate layer does not learn, the first term of the multiplication term on the right side of Equation (3.5) (the one obtained by partial differentiation of E by yj) can be easily obtained by differentiating Equation (3.3). 9). Therefore, a learning rule of Expression (3.10) is obtained from Expression (3.8). This is called a generalized delta rule. For example, when f is given by a sigmoid function, it is in the form of (3.12) from equation (3.11). In the method of Equation (3.11), the weight is changed only after all the input / output patterns are given. However, if η is sufficiently small, the weight is given every time each input / output is given like a perceptron. Is iteratively changed. That is, even with (3.13), the total change amount is almost equal to the steepest descent method.

ニューラル関連の学習則は,最急降下法を使っていることが多い.バックプロパゲーションもホップフィールドモデルも最急降下法を使っている。エネルギー関数最小化(または最大化)を目的とする問題では,パラメータ逐次更新の方法として最急降下法を使うのが常套手段である。まず最小化(または最大化)すべき基準となる,ある関数E(w)が与えられているとする.この関数E(w)を最小化(または最大化)するようなw=[w、w、…、wを求めるのが目的なのだが、まずwに適当な初期値を与え,図13に示す(8.1)、(8.2)のような方法でwを逐次更新していく。ここでηは1より小さな正の値とする。 Neural-related learning rules often use the steepest descent method. Both backpropagation and the Hopfield model use the steepest descent method. For problems aimed at minimizing (or maximizing) the energy function, it is a common practice to use the steepest descent method as a method of parameter update. First, suppose that a certain function E (w) is given as a standard to be minimized (or maximized). The purpose is to obtain w = [w 1 , w 2 ,..., W N ] t that minimizes (or maximizes) this function E (w). First, an appropriate initial value is given to w, W is sequentially updated by a method such as (8.1) or (8.2) shown in FIG. Here, η is a positive value smaller than 1.

図14を参照して、この方法で関数E(w)を最小化(または最大化)することについて説明する。まず、最小化に関して説明する。E(w)を、時刻tにおけるE(w(t))を通るwi−E(w)平面に平行な面で切ったものをプロットしたものが図9である.このとき,パラメータのひとつwiをどのように更新してやれば,E(w)をより小さくできるのか,ということを考える。E(t)のwiに関する偏微分は,この点E(w(t))におけるwi方向の傾きを表している。傾きが負であるならば、wiを正の方向に動かしてやればE(w)は現時点よりもより小さい値になる。逆に傾きが正であれば,wiを負の方向に動かしてやればいい.つまりはwiをE(t)のwiに関する偏微分の符号の反対方向に動かしてやればいい、ということなので、wiの更新量を、−η×(E(t)のwiに関する偏微分)としてやればつじつまが合う。個々に、ηは正の値である。tこれが基本的な原理である。E(w)最大化を考えるならば,更新方向を逆にしてやればいいだけである。実際にはE(w)に起伏がいくつもあったりして簡単に行かない場合が多い(極小解,ローカルミニマム,と呼ばれる)。それに対する対処法として「慣性項を付ける」と工夫もある。   With reference to FIG. 14, minimizing (or maximizing) the function E (w) by this method will be described. First, minimization will be described. FIG. 9 is a plot of E (w) cut by a plane parallel to the wi-E (w) plane passing through E (w (t)) at time t. At this time, it is considered how E (w) can be made smaller by updating one of the parameters wi. The partial differentiation of E (t) with respect to wi represents the inclination in the wi direction at this point E (w (t)). If the slope is negative, E (w) becomes smaller than the current value if wi is moved in the positive direction. Conversely, if the slope is positive, you can move wi in the negative direction. In other words, it is only necessary to move wi in the direction opposite to the sign of the partial differential with respect to wi of E (t). Therefore, the update amount of wi can be set as −η × (partial differential with respect to wi of E (t)). It ’s perfect. Individually, η is a positive value. t This is the basic principle. If E (w) maximization is considered, it is only necessary to reverse the update direction. Actually, there are many cases where E (w) has many undulations, and this is often not easy (referred to as a minimum solution or a local minimum). There is a contrivance to “add an inertia term” as a countermeasure against it.

[実施例1] 実施例1が、上述した実施形態に比して具体的となっている点は、デジタルビデオカメラに赤外光源を一体化させた点、及び、投影スクリーンの材質は赤外線を透過できるアクリルである点である。なお、デジタルカメラは、デジタルスチルカメラとデジタルビデオカメラを合わせた上位概念である。 [Example 1] Example 1 is more specific than the above-described embodiment in that an infrared light source is integrated with a digital video camera, and the projection screen is made of infrared rays. It is the point which is the acrylic which can permeate | transmit. The digital camera is a superordinate concept that combines a digital still camera and a digital video camera.

特に、赤外光で、投影スクリーンを照明することにより、可視光で投影される画像から、指位置を、ノイズ少なく正確に検出することができる。また、赤外線の迷光が強いときは赤外光源の出力を増加させて検出ノイズを低減し、一方、赤外線の迷光が弱いときは赤外光源の出力を低下させて電力消費を抑制するとよい。   In particular, by illuminating the projection screen with infrared light, the finger position can be accurately detected with little noise from an image projected with visible light. Further, when the infrared stray light is strong, the output of the infrared light source is increased to reduce detection noise. On the other hand, when the infrared stray light is weak, the output of the infrared light source is decreased to reduce power consumption.

以下、実施例1について説明する。視覚センサは働いているとき、絶え間なくイメージを得る。ビデオカメラインターフェースVC・I/F32によってイメージを処理され、デジタル信号プロセッサDPS33に入力する。DPS33は、スクリーン1にタッチする指形を認識する。この指形認識の演算方法を説明し直す。演算方法は、以下のステップを含む。
1.視覚センサーシステムはビデオカメラからイメージ枠を獲得し、領域を測定する、
2.測定手段に基づいてイメージを処理し、指形物の特徴を抽出する、
3.エキスパートシステムを通じて可能性がある指形物を濾過する
4.指位置があるか否かを判断する
5.ある場合は,神経ネットワーク認識演算法を通じて指形を照合し、イメージの座標の中で指位置を読み取る
6.コンピューターインターフェース電気回路によって、検出した情報をコンピュータに伝送する
Example 1 will be described below. When the visual sensor is working, it gets a continuous image. The image is processed by the video camera interface VC / I / F 32 and input to the digital signal processor DPS33. The DPS 33 recognizes a finger shape that touches the screen 1. The calculation method of this finger recognition will be explained again. The calculation method includes the following steps.
1. The vision sensor system acquires the image frame from the video camera and measures the area,
2. Process the image based on the measurement means and extract the features of the finger
3. 3. Filter potential fingers through expert system. 4. Determine if there is a finger position In some cases, the finger shape is verified through the neural network recognition algorithm, and the finger position is read in the image coordinates. Computer interface electrical circuit transmits detected information to computer

エキスパートシステムは、経験情報データベースに基づいて、指形を判断する規則を含むシステムである。神経回路網は、仕込まれた指形特徴パラメータのサンプルから、明確指形を照合する演算の一部分である。   The expert system is a system that includes rules for determining a finger shape based on an experience information database. The neural network is a part of an operation for collating a clear finger shape from a sample of prepared finger shape characteristic parameters.

シリアルポートは指の接触情報と指先位置をコンピュータに送る。ウインドウズタスクループで動作しているドライバは、シリアルポートからデータを送信する。データが受け取られるとき、カメライメージの座標はデスクトップの論理的座標にマップされる。マップする座標パラメータは既に本発明の実施形態において説明した五点測定方法から得られる。   The serial port sends finger contact information and fingertip position to the computer. A driver operating in the Windows task loop transmits data from the serial port. When data is received, camera image coordinates are mapped to desktop logical coordinates. The coordinate parameters to be mapped are obtained from the five-point measuring method already described in the embodiment of the present invention.

[実施例2] 実施例2は、図15に示すように、透明支柱1として既存建築物のショーウインドーの透明硝子を用いた。投影スクリーン2はその透明硝子に密着させた。このとき透明硝子の少なくとも1面を投影スクリーンとして使用できるように透過光が散乱するように処理した硝子を用いて透明支柱1と投影スクリーン2を一体化することもできる。視覚センサ3、プロジェクタ4、コンピュータ5及び赤外光源6を一括して専用のボックスに収納した。しかる後に、コンピュータ5に蓄積された静止画や動画をスクリーンに投影する。視覚センサ3は、透明支柱1を境界にしてプロジェクタ4と同一の側で且つ近傍に配される。人間が透明支柱1の外側から透明支柱1にタッチするとき、すなわちショウーウインドーの外側にいる人が、投影スクリーン2に映し出された映像に硝子越しから触れたとき、視覚センサ3は、その指形を認識する。   Example 2 In Example 2, as shown in FIG. 15, a transparent glass of an existing building show window was used as the transparent support column 1. The projection screen 2 was brought into close contact with the transparent glass. At this time, the transparent support column 1 and the projection screen 2 can be integrated by using a glass processed so that transmitted light is scattered so that at least one surface of the transparent glass can be used as a projection screen. The visual sensor 3, the projector 4, the computer 5, and the infrared light source 6 were collectively stored in a dedicated box. Thereafter, the still image or moving image stored in the computer 5 is projected on the screen. The visual sensor 3 is arranged on the same side as the projector 4 and in the vicinity thereof with the transparent column 1 as a boundary. When a human touches the transparent support column 1 from the outside of the transparent support column 1, that is, when a person outside the show window touches the image projected on the projection screen 2 through the glass, the visual sensor 3 Recognize shape.

このとき、赤外光源6から投影スクリーン2に赤外線を照射すると、周辺からのノイズが低減し、その指位置を検出することが容易になる。赤外光源6は、赤外発光ダイオードを面状に多数配置し投影スクリーン2に均一な照度で投射されるように配列して構成されえている。投影スクリーン2の設置環境によっては、赤外線の迷光が強い場合がある。そのときは赤外光源6の出力を増加させて検出ノイズを低減させるとよい。また、赤外線の迷光が弱いときは赤外光源6の出力を低下させて電力消費を抑制することもできる。   At this time, when the infrared light source 6 irradiates the projection screen 2 with infrared rays, noise from the periphery is reduced, and it becomes easy to detect the finger position. The infrared light source 6 is configured by arranging a large number of infrared light emitting diodes in a planar shape so as to be projected onto the projection screen 2 with uniform illuminance. Depending on the installation environment of the projection screen 2, infrared stray light may be strong. In that case, the detection noise may be reduced by increasing the output of the infrared light source 6. In addition, when the infrared stray light is weak, the output of the infrared light source 6 can be reduced to suppress power consumption.

視覚センサ3は、プロジェクタ4から投影される映像と、透明支柱1の外側から映る背景と、赤外光源6から照射されてできる赤外投影映像とが合成されたイメージを絶えず得ている。この指形認識の演算方法は、実施形態で説明した方法を整理したものであり、起動訂正を行う第10ステップと、前記投影スクリーンのイメージを捕獲し、指の形を認識し、分析する第20ステップと、情報が定義条件に該当するか否かを判断する第30ステップと、指位置があるか否かを判断する第40ステップと、前記指位置がある場合は,イメージの座標の中で指位置を読み取る第50ステップと、当該読み取った前記指位置と前記視覚センサから伝送された情報をコンピュータが照合し、マウスがクリックしたメッセージをウィンドウのループに送る第60ステップとを含む。 The visual sensor 3 continuously obtains an image in which an image projected from the projector 4, a background projected from the outside of the transparent column 1, and an infrared projected image formed by irradiation from the infrared light source 6 are combined. This finger shape recognition calculation method is an arrangement of the method described in the embodiment, and includes a tenth step of performing start-up correction, and a step of capturing an image of the projection screen, recognizing and analyzing the finger shape. 20 steps, 30th step for determining whether the information meets the definition condition, 40th step for determining whether there is a finger position, and if there is the finger position, And a 60th step of sending the message clicked by the mouse to the loop of the window by the computer comparing the read finger position with the information transmitted from the visual sensor.

エキスパートシステムは、実施例1及び実施形態で説明したとおりである。   The expert system is as described in the first embodiment and the embodiment.

シリアルポートは、実施例1及び実施形態で説明したとおりである。   The serial port is as described in the first embodiment and the embodiment.

図16は、プロジェクタ4の映像を、反射ミラー41を介して投影することにより、設置スペースがより節約できるようにした実施例である。このとき、反射ミラーは1枚以上でもかまわない。鏡面は、必ずしも平面である必要はなく、投影のゆがみを補正するような曲面を持っていてもよい。図15、図16で示す収納は、床面に設置した状態を示したが、天吊金具を用いて天井から吊るした状態で収納してもよい。   FIG. 16 shows an embodiment in which the installation space can be further saved by projecting the image of the projector 4 through the reflection mirror 41. At this time, one or more reflecting mirrors may be used. The mirror surface does not necessarily have to be a flat surface, and may have a curved surface that corrects the distortion of the projection. The storage shown in FIG. 15 and FIG. 16 shows a state where it is installed on the floor surface, but it may be stored in a state where it is suspended from the ceiling using a ceiling hanger.

図17は、透明支柱1と透明支柱11の間に投影スクリーン2を挟んで構成されている。
1及び11は、透明且つ赤外線を透過する硝子や合成樹脂でできている。投影スクリーン2の素材は、硝子や合成樹脂を用いるが、時には偏光硝子や液晶を用いる場合もある。
図17に示すように、硝子と硝子の間に液晶を装着し、その液晶すなわち投影スクリーン2に電極を取り付けて電圧をコントロールし、プロジェクタの投射光や外光が液晶を透過したり散乱したりできるようにしたものである。電圧のコントロールは、コンピュータ5によって映像・音声や内臓の時計と同期させることもできる。
In FIG. 17, the projection screen 2 is sandwiched between the transparent column 1 and the transparent column 11.
1 and 11 are made of glass or synthetic resin which is transparent and transmits infrared rays. The projection screen 2 is made of glass or synthetic resin, but sometimes polarizing glass or liquid crystal is used.
As shown in FIG. 17, a liquid crystal is mounted between the glasses, and an electrode is attached to the liquid crystal, that is, the projection screen 2 to control the voltage, so that the projection light and external light of the projector are transmitted or scattered through the liquid crystal. It is something that can be done. The voltage control can be synchronized with the video / audio or the internal clock by the computer 5.

図18に示すように、巻き取り可能な投影スクリーンを透明支柱の前面に配したものである。透明支柱1は、主にショウーウインドーや全面硝子のドアなどに用いられる。ロールスクリーンを使用する場合にのみ、映像が投射される。ロールスクリーンの巻き取りは電動、手動いずれでもかまわない。   As shown in FIG. 18, a projection screen that can be wound is disposed on the front surface of a transparent column. The transparent column 1 is mainly used for a show window, a full glass door, or the like. Images are projected only when a roll screen is used. The roll screen can be wound either electrically or manually.

図19に示すように、透明支柱1が曲面だった場合を示している。このとき赤外光源6の照度分布が変るので、中心部分が暗くならないように補正を加える必要がある。投射映像の歪みの補正は、分割画面の角度補正を複数部分で行い近似値補正ができる機能を持ったプロジェクタ4を用いるとよい。近似補正は、直線、2次曲線、それ以上の次数の曲線でも設定できる。このとき用いる投影スクリーン2は、曲面に対応できるやわらかい素材のものを用いるとよい。   As shown in FIG. 19, the case where the transparent support | pillar 1 was a curved surface is shown. At this time, since the illuminance distribution of the infrared light source 6 changes, it is necessary to make correction so that the central portion does not become dark. For correcting the distortion of the projected image, it is preferable to use the projector 4 having a function capable of correcting the approximate value by correcting the angle of the divided screen in a plurality of portions. Approximate correction can also be set for straight lines, quadratic curves, and higher order curves. The projection screen 2 used at this time may be made of a soft material that can handle a curved surface.

本発明は、投影スクリーンに指接触などで指示情報をコンピュータに送り、コンピュータと対話するシステム及びその動作方法に利用可能である。
また、本発明は、透明のドアやウインドー、間仕切りに内外の境界の役割を持たせたときに、内部から投射されているスクリーンの映像や画像を見て、その境界外部から、投影スクリーン上に指を接触させて、指示情報を境界内部のコンピュータに送り、当該コンピュータと対話することができる。そのとき、境界の内部と外部は全く遮断された状態でも、投影スクリーンの画面だけを介してコンピュータと対話が可能になる。これらの設置した設備機器のセキュリティーと設置環境に因る損耗は、建造物自体が持つ内部環境に依存するため、安全且つ長期運用可能なシステムを構築し、利用することが可能である。
INDUSTRIAL APPLICABILITY The present invention can be used for a system that sends instruction information to a computer by touching the projection screen with a finger and interacts with the computer and an operation method thereof.
In addition, the present invention, when a transparent door, window, or partition has a role of an internal / external boundary, looks at a screen image or image projected from the inside, and from the outside of the boundary onto the projection screen. By touching the finger, the instruction information can be sent to a computer inside the boundary to interact with the computer. At that time, even if the inside and outside of the boundary are completely blocked, it is possible to interact with the computer only through the screen of the projection screen. Since the wear and tear due to the security and installation environment of the installed equipment depends on the internal environment of the building itself, it is possible to construct and use a system that can be operated safely and for a long time.

本発明の接触式投影スクリーンコンピュータ対話システムの概念明図である。1 is a conceptual diagram of a contact projection screen computer interaction system of the present invention. 視覚センサのブロック図である。It is a block diagram of a visual sensor. 接触式投影スクリーンコンピュータ対話システムの動作方法のフローチャートである。6 is a flowchart of a method of operation of a contact projection screen computer interaction system. 五点定位の説明図である。It is explanatory drawing of a five-point localization. デジタル信号処理回路のブロック図である。It is a block diagram of a digital signal processing circuit. コンピューターインターフェイスのブロック図である。It is a block diagram of a computer interface. カメラインタフェイスのブロック図である。It is a block diagram of a camera interface. エキスパートシステムの概念図である。It is a conceptual diagram of an expert system. ニューロンの概念図である。It is a conceptual diagram of a neuron. 隠れ層の説明図である。It is explanatory drawing of a hidden layer. 神経回路網の説明図である。It is explanatory drawing of a neural network. 神経回路網を説明する数式である。It is a mathematical formula explaining a neural network. 誤差関数Eの最小化(最大化)方法を説明する数式である。3 is a mathematical formula for explaining a method of minimizing (maximizing) an error function E. 誤差関数Eの最小化(最大化)方法の説明図である。6 is an explanatory diagram of a method for minimizing (maximizing) an error function E. FIG. 接触式投影スクリーンコンピュータ対話システムの実施例の概念図である。1 is a conceptual diagram of an embodiment of a contact projection screen computer interaction system. FIG. 反射ミラーを用いた実施例の概念図である。It is a conceptual diagram of the Example using a reflective mirror. 透明支柱と透明支柱の間に投影スクリーンを挟んだ側面図である。It is a side view which pinched | projected the projection screen between the transparent support | pillar and a transparent support | pillar. 巻き取り可能な投影スクリーンを透明支柱の前面に配した側面図である。It is the side view which arranged the projection screen which can be wound up on the front surface of the transparent support | pillar. 非平面の透明支柱に投影スクリーンを配した平面図である。It is the top view which arranged the projection screen on the non-planar transparent support | pillar.

符号の説明Explanation of symbols

1 透明支柱
11 透明支柱
2 投影スクリーン
3 視覚センサ
31 CAMERA
32 CAMERA・I/F
33 DSP
34 COMP・I/F
4 プロジェクタ
41 反射ミラー
5 コンピュータ
6 赤外光源
DESCRIPTION OF SYMBOLS 1 Transparent support | pillar 11 Transparent support | pillar 2 Projection screen 3 Visual sensor 31 CAMERA
32 CAMERA I / F
33 DSP
34 COMP ・ I / F
4 projector 41 reflection mirror 5 computer 6 infrared light source

Claims (19)

透明支柱、投影スクリーン、プロジェクタ、コンピュータとを含むタッチパネルシステムにおいて、
さらに、デジタルカメラ、カメラインターフェース、デジタル信号プロセッサとコンピュータインターフェースとを備える視覚センサを含み、
前記デジタルカメラと前記カメラインターフェースとが連結され、前記カメラインターフェースは前記デジタル信号プロセッサと連結され、前記デジタル信号プロセッサから出力される信号は前記コンピュータインターフェースによって前記コンピュータと接続され、
前記投影スクリーンは前記透明支柱に設置され、前記視覚センサは前記投影スクリーンと前記プロジェクタの間、又は、前記プロジェクタと同じ位置に設置され、
前記視覚センサと前記プロジェクタは、それぞれ前記コンピュータと接続されることを特徴とするタッチパネルシステム。
In a touch panel system including a transparent column, a projection screen, a projector, and a computer,
And a visual sensor comprising a digital camera, a camera interface, a digital signal processor and a computer interface,
The digital camera and the camera interface are connected, the camera interface is connected to the digital signal processor, and a signal output from the digital signal processor is connected to the computer by the computer interface,
The projection screen is installed on the transparent column, and the visual sensor is installed between the projection screen and the projector, or at the same position as the projector,
The touch sensor system, wherein the visual sensor and the projector are connected to the computer, respectively.
前記視覚センサは、投影スクリーン後方の前記投影スクリーンの高さと同じ高さの位置に設置することを特徴とする請求項1記載のタッチパネルシステム。 The touch panel system according to claim 1, wherein the visual sensor is installed at the same height as the projection screen behind the projection screen . 前記デジタルカメラの数は一つ以上であることを特徴とする請求項1記載のタッチパネルシステム。   The touch panel system according to claim 1, wherein the number of the digital cameras is one or more. 前記投影スクリーンの材質はポリスチレンであることを特徴とする請求項1記載のタッチパネルシステム。   The touch panel system according to claim 1, wherein a material of the projection screen is polystyrene. 請求項1記載のタッチパネルシステムの動作方法において、
起動訂正を行う第1ステップと、
前記投影スクリーンの特徴点を拾い次元を低める第2ステップと、
エキスパートシステムが初歩的に篩い分ける第3ステップと、
情報が定義条件に該当するか否かを判断する第4ステップと、
該当する情報がある場合は神経回路網計算方法に進む第5ステップと、
指位置があるか否かを判断する第6ステップと、
前記指位置がある場合は前記指位置抽出を行う第7ステップと、
抽出した前記指位置と前記視覚センサから伝送された情報を照らし合わせる第8ステップと、
前記コンピュータが情報の照らし合わせ処理を行い、マウスを駆動しながら制御を行う第9ステップとを含むことを特徴とするタッチパネルシステム動作方法。
The operation method of the touch panel system according to claim 1,
A first step of performing start-up correction;
A second step of picking up feature points of the projection screen and reducing the dimension;
A third step that the expert system sifts through,
A fourth step of determining whether the information meets the definition condition;
If there is relevant information, the fifth step proceeds to the neural network calculation method;
A sixth step of determining whether or not there is a finger position;
A seventh step of extracting the finger position if the finger position is present;
An eighth step of comparing the extracted finger position with information transmitted from the visual sensor;
9. A touch panel system operating method, comprising: a ninth step in which the computer performs a comparison process of information and performs control while driving a mouse.
前記起動訂正の方式は五点定位法であり、
コンピュータのカーソルが、左上角―右上角―スクリーン中心点―左下角―右下角に移動し、
コンピュータのカーソルが各位置に止まる際に、ユーザはレーザーペンでスクリーン上のカーソル位置に合わせると、カーソルは次の位置に移動し、
次の位置で上記の操作を繰り返しながら、全ての五つの点まで進行することを特徴とする請求項5記載のタッチパネルシステム動作方法。
The startup correction method is a five-point localization method,
The computer cursor moves to the upper left corner-upper right corner-screen center point-lower left corner-lower right corner,
When the computer cursor stops at each position, the user moves the cursor to the next position with the laser pen, and the cursor moves to the next position.
6. The touch panel system operation method according to claim 5, wherein the operation proceeds to all five points while repeating the above operation at the next position.
投影画像上の指情報を判断して指位置を識別する前記エキスパートシステムは、総データベース、制御作戦及び生成式規則を含み、
総データベースには、実践中認識された画像分析下で生成される指が持っている一定の経験情報とデータ、及び、画像処理過程で画像中の指情報が代表できる一部のデータ情報が含まれ、
制御作戦は、各種環境下で出来るだけ如何に錯誤を減少させるかの指情報識別の計算方法であり、
生成式規則は、総データベースと制御作戦の連係と調和を担当することを特徴とする請求項5記載のタッチパネルシステム動作方法。
The expert system for determining finger information by judging finger information on a projected image includes a total database, a control strategy, and a generation formula rule.
The total database includes certain experience information and data held by the fingers recognized under image analysis recognized in practice, and some data information that can represent the finger information in the image during the image processing process And
Control strategy is a calculation method of finger information identification on how to reduce errors in various environments as much as possible,
6. The touch panel system operating method according to claim 5, wherein the generation formula rule is in charge of linkage and harmony between the total database and the control strategy.
前記神経回路網計算方法では、Mean Taxonomyを採用して隠れ層の学習方法とし、傾斜降下法を応用して出力層の学習方法にすることを特徴とする請求項5記載のタッチパネルシステム動作方法。   6. The touch panel system operating method according to claim 5, wherein in the neural network calculation method, Mean Taxonomy is adopted as a hidden layer learning method, and a gradient descent method is applied as an output layer learning method. 前記投影スクリーンは、赤外光を透過できるアクリル製であり、
前記ビデオカメラは、デジタルビデオカメラと前記赤外光を発光する赤外光源と一体になっており、
前記視覚センサは、前記プロジェクタと同じ方向に設置することを特徴とする請求項1記載のタッチパネルシステム。
The projection screen is made of acrylic that can transmit infrared light,
The video camera is integrated with a digital video camera and an infrared light source that emits the infrared light,
The touch panel system according to claim 1, wherein the visual sensor is installed in the same direction as the projector.
前記視覚センサは、前記投影スクリーン上のユーザーの指の形を対象として感知し、指先の位置はマウスポインタの位置になることを特徴とする請求項1記載のタッチパネルシステム。 The touch panel system according to claim 1, wherein the visual sensor senses a shape of a user's finger on the projection screen, and a fingertip position is a mouse pointer position . 前記赤外光源からの前記赤外線強度は、外界赤外線強度に応じて調整されることを特徴とする請求項9記載のタッチパネルシステム。   The touch panel system according to claim 9, wherein the infrared intensity from the infrared light source is adjusted according to an external infrared intensity. 請求項1記載のタッチパネルシステムの動作方法において、
起動訂正を行う第10ステップと、
前記投影スクリーンのイメージを捕獲し、指の形を認識し、分析する第20ステップと、
情報が定義条件に該当するか否かを判断する第30ステップと、
指位置があるか否かを判断する第40ステップと、
前記指位置がある場合は,イメージの座標の中で指位置を読み取る第50ステップと、
当該読み取った前記指位置と前記視覚センサから伝送された情報をコンピュータが照合し、マウスがクリックしたメッセージをウィンドウのループに送る第60ステップとを含むことを特徴とするタッチパネルシステム動作方法。
The operation method of the touch panel system according to claim 1,
A tenth step of performing start-up correction;
A twentieth step of capturing an image of the projection screen, recognizing and analyzing a finger shape;
A thirtieth step of determining whether or not the information satisfies a definition condition;
40th step of determining whether or not there is a finger position;
If there is the finger position, a 50th step of reading the finger position in the coordinates of the image;
A touch panel system operating method comprising: a 60th step in which a computer collates the read finger position with information transmitted from the visual sensor and sends a message clicked by a mouse to a window loop.
前記透明支柱は、透明ガラスであることを特徴とする請求項1記載のタッチパネルシステム。   The touch panel system according to claim 1, wherein the transparent support is transparent glass. 前記透明支柱の少なくとも1面をスリガラス状に拡散処理することを特徴とする請求項13記載のタッチパネルシステム。   The touch panel system according to claim 13, wherein at least one surface of the transparent support is diffused into a ground glass. 2次元配列の赤外線発光ダイオードをさらに備え、前記投影スクリーンを均一な照度の赤外線で照明することを特徴とする請求項1記載のタッチパネルシステム。   The touch panel system according to claim 1, further comprising a two-dimensional array of infrared light emitting diodes, wherein the projection screen is illuminated with infrared rays having uniform illuminance. 前記プロジェクタの映像を反射して前記投影スクリーンに投影する反射ミラーをさらに備えることを特徴とする請求項1記載のタッチパネルシステム。   The touch panel system according to claim 1, further comprising a reflection mirror that reflects an image of the projector and projects the image on the projection screen. 前記投影スクリーンは、電極付き液晶であり、
前記液晶を透明部材で挟持し、
前記電極への印加電圧により、液晶全面を透過性又は散乱性とすることを特徴とする請求項1記載のタッチパネルシステム。
The projection screen is a liquid crystal with electrodes,
Sandwiching the liquid crystal with a transparent member,
The touch panel system according to claim 1, wherein the entire surface of the liquid crystal is made transmissive or scattering by an applied voltage to the electrodes.
前記投影スクリーンは、巻き取り可能であることを特徴とする請求項1記載のタッチパネルシステム。   The touch panel system according to claim 1, wherein the projection screen is rollable. 前記投影スクリーンは、曲面状であることを特徴とする請求項1記載のタッチパネルシステム。   The touch panel system according to claim 1, wherein the projection screen is curved.
JP2006193410A 2006-05-12 2006-07-13 Touch panel system and operation method thereof Active JP4708278B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006193410A JP4708278B2 (en) 2006-05-12 2006-07-13 Touch panel system and operation method thereof

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006133815 2006-05-12
JP2006133815 2006-05-12
JP2006193410A JP4708278B2 (en) 2006-05-12 2006-07-13 Touch panel system and operation method thereof

Publications (2)

Publication Number Publication Date
JP2007328754A JP2007328754A (en) 2007-12-20
JP4708278B2 true JP4708278B2 (en) 2011-06-22

Family

ID=38929150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006193410A Active JP4708278B2 (en) 2006-05-12 2006-07-13 Touch panel system and operation method thereof

Country Status (1)

Country Link
JP (1) JP4708278B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9513720B2 (en) 2012-08-30 2016-12-06 Panasonic Intellectual Property Corporation Of America Stylus detecting device and stylus detecting method

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101577953B1 (en) * 2008-12-16 2015-12-17 삼성디스플레이 주식회사 Touch sensible display device and method of determining touch
JP2011209341A (en) * 2010-03-29 2011-10-20 Dainippon Printing Co Ltd Interactive board and interactive board system
US8542218B2 (en) 2010-08-19 2013-09-24 Hyundai Motor Company Electronic switch apparatus for vehicle
KR101125384B1 (en) * 2010-08-19 2012-03-27 현대자동차주식회사 Electronic recognition switch system for vehicle, and position correcting method thereof
JP2012078516A (en) * 2010-09-30 2012-04-19 Dainippon Printing Co Ltd Transmission type screen for interactive board, interactive board and interactive board system
JP5710929B2 (en) * 2010-10-08 2015-04-30 船井電機株式会社 projector
KR101568347B1 (en) * 2011-04-12 2015-11-12 한국전자통신연구원 Computing device with robotic functions and operating method for the same
JP5924577B2 (en) * 2012-03-19 2016-05-25 日本精機株式会社 Position detection device
JP6229572B2 (en) 2014-03-28 2017-11-15 セイコーエプソン株式会社 Light curtain installation method and bidirectional display device
JP5971368B2 (en) * 2015-03-05 2016-08-17 船井電機株式会社 projector
CN108491111A (en) * 2018-05-19 2018-09-04 江苏中致显科技有限公司 A kind of touch screen frequency point calibrating installation and calibration method
CN112000241B (en) * 2020-07-31 2023-11-28 青岛海尔科技有限公司 Operation recognition method and device, storage medium and electronic device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0787559B2 (en) * 1986-06-30 1995-09-20 ソニー株式会社 Rear projection device
JPH03278088A (en) * 1990-03-28 1991-12-09 Koudo Eizou Gijutsu Kenkyusho:Kk Bay window type projector device
JP3554517B2 (en) * 1999-12-06 2004-08-18 株式会社ナムコ Game device, position detection device, and information storage medium
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9513720B2 (en) 2012-08-30 2016-12-06 Panasonic Intellectual Property Corporation Of America Stylus detecting device and stylus detecting method

Also Published As

Publication number Publication date
JP2007328754A (en) 2007-12-20

Similar Documents

Publication Publication Date Title
JP4708278B2 (en) Touch panel system and operation method thereof
Tsironi et al. An analysis of convolutional long short-term memory recurrent neural networks for gesture recognition
Sagayam et al. Hand posture and gesture recognition techniques for virtual reality applications: a survey
Várkonyi-Kóczy et al. Human–computer interaction for smart environment applications using fuzzy hand posture and gesture models
KR102462934B1 (en) Video analysis system for digital twin technology
Symeonidis Hand gesture recognition using neural networks
Jain et al. Deep neural learning techniques with long short-term memory for gesture recognition
CN111444764A (en) Gesture recognition method based on depth residual error network
Yao et al. Unsupervised transfer learning for spatiotemporal predictive networks
CN110796018A (en) Hand motion recognition method based on depth image and color image
Zheng et al. Static Hand Gesture Recognition Based on Gaussian Mixture Model and Partial Differential Equation.
Islam et al. Applied human action recognition network based on SNSP features
Dai et al. Camera view planning based on generative adversarial imitation learning in indoor active exploration
CN113326932A (en) Object operation instruction following learning method and device based on object detection
Li et al. [Retracted] Human Motion Representation and Motion Pattern Recognition Based on Complex Fuzzy Theory
Zhang 2D Computer Vision
Zhang et al. Key technologies of smart factory machine vision based on efficient deep network model
CN110619288A (en) Gesture recognition method, control device and readable storage medium
Lin Visual hand tracking and gesture analysis
Horng et al. Building an Adaptive Machine Learning Object-Positioning System in a Monocular Vision Environment
Feldman et al. Spatially-dependent Bayesian semantic perception under model and localization uncertainty
Lima et al. User-oriented natural human-robot control with thin-plate splines and lrcn
Brander et al. Improving data-scarce image classification through multimodal synthetic data pretraining
Luetto People counting using detection networks and self calibrating cameras on edge computing
Yanik et al. Sensor placement for activity recognition: comparing video data with motion sensor data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110316

R150 Certificate of patent or registration of utility model

Ref document number: 4708278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250