JP2011237962A - Operation recognition device, information processing system, operation recognition method and operation recognition program - Google Patents
Operation recognition device, information processing system, operation recognition method and operation recognition program Download PDFInfo
- Publication number
- JP2011237962A JP2011237962A JP2010108009A JP2010108009A JP2011237962A JP 2011237962 A JP2011237962 A JP 2011237962A JP 2010108009 A JP2010108009 A JP 2010108009A JP 2010108009 A JP2010108009 A JP 2010108009A JP 2011237962 A JP2011237962 A JP 2011237962A
- Authority
- JP
- Japan
- Prior art keywords
- contact
- event
- contacted
- recognized
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、操作認識装置、情報処理システム、操作認識方法、情報処理方法および操作認識プログラムに関し、特に、タッチ操作を認識可能な操作認識装置、情報処理システム、操作認識方法、情報処理方法および操作認識プログラムに関する。 The present invention relates to an operation recognition device, an information processing system, an operation recognition method, an information processing method, and an operation recognition program, and in particular, an operation recognition device capable of recognizing a touch operation, an information processing system, an operation recognition method, an information processing method, and an operation. It relates to recognition programs.
表示された画面を押すこと(以下、タッチ操作)で機器をコントロールできるタッチパネルは、操作が直感的に理解しやすいなどの理由から、銀行の現金自動預け払い機など不特定多数の人物が利用するシステムを中心に幅広く利用されている。 The touch panel that can control the device by pressing the displayed screen (hereinafter referred to as touch operation) is used by an unspecified number of people such as automated teller machines at banks because the operation is intuitive and easy to understand. Widely used mainly in systems.
タッチパネルは、通常、液晶パネルのような表示装置と、利用者の触れた位置を検出する装置(以下、位置認識装置と記す)とを組み合わせることで実現される。位置認識装置としては様々なものが存在するが、代表的なものとして、抵抗膜方式、静電容量方式、光学式の装置が挙げられる。 The touch panel is usually realized by combining a display device such as a liquid crystal panel and a device that detects a position touched by a user (hereinafter referred to as a position recognition device). There are various types of position recognition devices, but typical examples include a resistance film method, a capacitance method, and an optical device.
抵抗膜方式では、表示画面を形成するガラスと、そのガラスとわずかな間隔で取り付けたフィルムの双方に導通性の薄膜が貼り付けられた装置が用いられる。この方式では、利用者の指などが押下することによって通電する場所を感知することで、利用者の触れた位置を検出する。 In the resistance film method, an apparatus is used in which a conductive thin film is attached to both a glass forming a display screen and a film attached to the glass at a slight interval. In this method, a position touched by a user is detected by sensing a place where power is supplied when the finger of the user is pressed.
静電容量方式では、指先と導電膜との間に発生する静電容量の変化を捉えることにより、利用者の触れた位置を検出する。また、光学式では、光源より発せられ、利用者の指などにより散乱される光、または遮断されて光の届かない部分をカメラなどで撮影することにより、利用者の触れた位置を検出する。また、機構を工夫することにより、複数の指による接触を同時に検出したり、接触面積を検出したりする装置も一部に存在する。 In the capacitance method, a position touched by a user is detected by capturing a change in capacitance generated between the fingertip and the conductive film. Further, in the optical system, a position touched by the user is detected by photographing a light emitted from a light source and scattered by a user's finger or the like, or a portion that is blocked and does not reach the light with a camera or the like. There are also some devices that detect a contact by a plurality of fingers at the same time or detect a contact area by devising a mechanism.
なお、位置検出装置にて検出可能な物体の種類は、一般に、その装置で採用されているセンサに依存する。検出可能な物体の種類も様々であり、例えば、その原理によって人体を検出可能なセンサや、人体以外にもスタイラスと呼ばれるペン状器具を検出可能なセンサなども存在する。 Note that the types of objects that can be detected by the position detection device generally depend on the sensor employed in the device. There are various types of objects that can be detected. For example, there are sensors that can detect a human body based on the principle, sensors that can detect a pen-like instrument called a stylus in addition to a human body, and the like.
例えば、光学式タッチパネルの一方式として、Frustrated Total Internal Reflection方式(以下、FTIR方式と記す。)を利用したタッチパネルが知られている(特許文献1参照)。特許文献1に記載された方式では、平面アクリルパネルなど、導波路内に全反射条件を満たすように光が入射される。そして、導波路に指などの物体が接触すると、その物体の接触位置で導波路内の光の一部が散乱される。そこで、この光の一部が散乱される現象を、例えば、カメラなどのイメージセンサを用いて捉えることで、タッチ操作およびその接触位置が検出できる。
For example, a touch panel using a Frustrated Total Internal Reflection method (hereinafter referred to as FTIR method) is known as one method of an optical touch panel (see Patent Document 1). In the method described in
また、特許文献2には、タッチ操作入力装置が記載されている。特許文献2に記載された入力装置では、単位時間あたりの接触面積の増加量が設定された傾度閾値よりも多い場合に、操作面に対して確定操作がなされたと判断する。
一方、タッチ操作の検知を意図しているにもかかわらず、タッチ操作以外のセンサ入力が原因で、その入力がタッチ操作と誤認識されてしまう場合も多く存在する。例えば、特許文献1に記載された方法では、タッチ操作以外の理由により導波路内の光が散乱された場合、それをタッチ操作と誤認識する可能性がある。例えば、導波路上に光を散乱する何らかの物質が付着している場合、特許文献1に記載された方法では、利用者が指の接触を恒常的に保持した状態にあると誤判定してしまう。
On the other hand, there are many cases where the input is erroneously recognized as a touch operation due to a sensor input other than the touch operation despite the intention of detecting the touch operation. For example, in the method described in
なお、特許文献1には、このような誤判定を低減する方法として、タッチ操作以外の操作でセンサ入力が生じないようにする技術が開示されている。特許文献1では、指の接触以外に光を散乱する現象として、皮脂の付着を例に挙げている。特許文献1に記載された方法では、薄い樹脂シートなどにより導波路を覆うことで、皮脂の付着を防いでいる。
具体的には、樹脂シートと導波路の間には狭い空気のギャップ層が設けられており、指などの押下に伴う物理的な力により樹脂シートが導波路に触れることで、導波路内の光が散乱される。この構成の場合、利用者が導波路に直接触れることがない。そのため、導波路に皮脂などの物質が付着することを防止できる。 Specifically, a narrow air gap layer is provided between the resin sheet and the waveguide, and when the resin sheet touches the waveguide by a physical force accompanying pressing of a finger or the like, Light is scattered. In this configuration, the user does not directly touch the waveguide. Therefore, it is possible to prevent substances such as sebum from adhering to the waveguide.
上記のようなタッチ操作以外の操作によるセンサ入力を遮断する方法は、タッチ操作以外のセンサ入力がシステムに不要な入力情報(皮脂のような雑音入力)の場合は効果的に動作する。しかしながら、多くの場合、タッチ操作以外の操作を利用者が意図的に行い、それをタッチ操作とは別の入力情報として取り扱いたい場合も多い。例えば、塗布具による塗布物の塗布操作に伴う塗布物の付着位置と、タッチ操作に伴う指の接触位置を同時に検知するセンサにより、塗布操作とタッチ操作を同時に検出するシステムの場合、塗布物の付着を防止する方法は利用できない。 The above-described method for blocking sensor input by operations other than touch operation works effectively when sensor input other than touch operation is input information (noise input such as sebum) unnecessary for the system. However, in many cases, the user intentionally performs an operation other than the touch operation, and often wants to handle it as input information different from the touch operation. For example, in the case of a system that simultaneously detects a coating operation and a touch operation by a sensor that simultaneously detects a position where a coating material is attached in accordance with a coating operation of the coating material and a finger contact position associated with a touch operation. No method for preventing adhesion is available.
これに対し、特許文献2では、単位時間あたりの接触面積の増加量により操作面に対して確定操作(タッチ操作)がなされたと判断する方法が開示されている。しかしながら、タッチ操作以外の操作においても、単位時間あたりの接触面積の増加が生じる操作は多い。例えば、上記塗布操作の場合、塗布具により塗布物を塗布するに伴い、塗布物の付着面積が増加するため、センサにより検出される接触面積はやはり増加する。すなわち、塗布物を塗布する際の操作と、タッチ操作とは酷似している。そのため、塗布操作を行ったにもかかわらず、その操作が、タッチ操作と誤認識されることも多い。
On the other hand,
そこで、本発明は、被接触体に対する操作の認識精度を向上できる操作認識装置、情報処理システム、操作認識方法、情報処理方法および操作認識プログラムを提供することを目的とする。 Accordingly, an object of the present invention is to provide an operation recognition device, an information processing system, an operation recognition method, an information processing method, and an operation recognition program that can improve the recognition accuracy of an operation on a contacted object.
本発明による操作認識装置は、操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体と、被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出手段と、接触領域の面積が時間の経過とともに増加又は減少する場合において、接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、領域位置の変化がその距離を超えた事象を第2の事象と認識する認識手段と、認識された事象を表す情報を他の装置に出力する事象出力手段とを備え、事象出力手段が、第1の事象が認識された場合に、その第1の事象を示す情報であって、第2の事象を示す情報とは異なる情報を、他の装置に出力することを特徴とする。 The operation recognizing device according to the present invention shows a contacted body that is contacted by a contact object that is contacted by an operator or a contact object that is applied by the operator, and a contact position and a contact area of the contact object with respect to the contacted object as time passes. When the contact position detecting means to detect and the area of the contact area increases or decreases with the passage of time, an event in which a change in the area position representing the position of the contact area is within a predetermined distance is referred to as a first event. Recognizing means for recognizing and recognizing an event in which the change of the region position exceeds the distance as a second event, and an event output means for outputting information representing the recognized event to another device, the event output means However, when the first event is recognized, the information indicating the first event, which is different from the information indicating the second event, is output to another device.
本発明による情報処理システムは、操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体と、被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出手段と、接触領域の面積が時間の経過とともに増加又は減少する場合において、接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、領域位置の変化が距離を超えた事象を第2の事象と認識する認識手段と、認識された事象に応じて、予め定められた応答を行う応答手段とを備え、応答手段が、第1の事象が認識された場合に、その第1の事象に応じて定められた応答であって、第2の事象に応じて定められた応答とは異なる応答を行うことを特徴とする。 According to the information processing system of the present invention, the contacted body that is contacted by the contact object that the operator makes contact with or the contact object that is applied by the operator, and the contact position and the contact area of the contact object with respect to the contacted object are displayed with time. When the contact position detecting means to detect and the area of the contact area increases or decreases with the passage of time, an event in which a change in the area position representing the position of the contact area is within a predetermined distance is referred to as a first event. Recognizing means for recognizing an event in which the change of the region position exceeds the distance as a second event, and responding means for performing a predetermined response according to the recognized event, the response means comprising: When the first event is recognized, the response is determined according to the first event, and is different from the response determined according to the second event.
本発明による操作認識方法は、操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体に対し、その接触物が接触する接触位置及びその接触物の接触領域を時間の経過とともに検出し、接触領域の面積が時間の経過とともに増加又は減少する場合において、接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、領域位置の変化が距離を超えた事象を第2の事象と認識し、認識された事象を表す情報を他の装置に出力し、事象を表す情報を他の装置に出力する際、第1の事象が認識された場合には、その第1の事象を示す情報であって、第2の事象を示す情報とは異なる情報を、他の装置に出力することを特徴とする。 In the operation recognition method according to the present invention, the contact position of the contact object and the contact area of the contact object with respect to the contact object contacted by the contact object contacted by the operator or the contact object applied by the operator are determined. When the area of the contact area is detected with the passage of time and increases or decreases with the passage of time, an event in which the change of the area position representing the position of the contact area is within a predetermined distance is recognized as the first event. When the event where the change in the region position exceeds the distance is recognized as the second event, the information indicating the recognized event is output to the other device, and the information indicating the event is output to the other device. When one event is recognized, information indicating the first event, which is different from the information indicating the second event, is output to another device.
本発明による情報処理方法は、操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体に対し、その接触物が接触する接触位置及びその接触物の接触領域を時間の経過とともに検出し、接触領域の面積が時間の経過とともに増加又は減少する場合において、接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、領域位置の変化が距離を超えた事象を第2の事象と認識し、認識された事象に応じて、予め定められた応答を行い、応答を行う際、第1の事象が認識された場合には、その第1の事象に応じて定められた応答であって、第2の事象に応じて定められた応答とは異なる応答を行うことを特徴とする。 According to the information processing method of the present invention, the contact position and the contact area of the contact object contacted by the contact object contacted by the contact object contacted by the operator or the contact object applied by the operator are determined. When the area of the contact area is detected with the passage of time and increases or decreases with the passage of time, an event in which the change of the area position representing the position of the contact area is within a predetermined distance is recognized as the first event. Then, an event in which the change in the region position exceeds the distance is recognized as a second event, a predetermined response is made according to the recognized event, and when the response is made, the first event is recognized In some cases, the response is determined according to the first event and is different from the response determined according to the second event.
本発明による操作認識プログラムは、操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体を備えたコンピュータに適用される操作認識プログラムであって、コンピュータに、被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出処理、接触領域の面積が時間の経過とともに増加又は減少する場合において、接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、領域位置の変化が距離を超えた事象を第2の事象と認識する認識処理、および、認識された事象を表す情報を他の装置に出力する事象出力処理を実行させ、事象出力処理で、第1の事象が認識された場合には、その第1の事象を示す情報であって、第2の事象を示す情報とは異なる情報を、他の装置に出力させることを特徴とする。 An operation recognition program according to the present invention is an operation recognition program applied to a computer including a contacted body that is contacted by a contact object that is touched by an operator or a contact object that is applied by the operator. Contact position detection processing for detecting the contact position and contact area of a contact object with respect to the contact body with the passage of time. When the area of the contact area increases or decreases with the passage of time, a change in the area position representing the position of the contact area occurs. Recognition processing that recognizes an event that is within a predetermined distance as a first event, recognizes an event in which the change in the region position exceeds the distance as a second event, and other information that represents the recognized event When the first event is recognized in the event output process, the information indicating the first event is the second The information different from the information indicative of the elephant, characterized thereby output to another device.
本発明によれば、被接触体に対する操作の認識精度を向上できる。 According to the present invention, it is possible to improve the recognition accuracy of an operation on a contacted object.
以下、本発明の実施形態を図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
実施形態1.
図1は、本発明による操作認識装置の一実施形態を示すブロック図である。本実施形態における操作認識装置10は、被接触体11と、光源部12と、検出部13と、操作認識部2とを備えている。操作認識装置10は、操作応答部1に接続される。被接触体11には、利用者の指14などの接触によるタッチ操作や、塗布具15による塗布物16の塗布操作及び除去操作が行われる。なお、利用者の指14のように、被接触体11に接触する物体や、塗布物16のように、被接触体11に塗布される物質を、以降総じて接触物と呼ぶものとする。
FIG. 1 is a block diagram showing an embodiment of an operation recognition apparatus according to the present invention. The operation recognition device 10 in this embodiment includes a contacted
被接触体11は、塗布物16を塗布したり、拭き取ったりすることが可能な透明平面板であり、例えば、アクリルなどの樹脂板により実現される。
The to-
光源部12は、可視光領域外の光(例えば、赤外光)が被接触体11内部に導波されるように被接触体11の側面より可視光領域外の光を入射させる。光源部12は、例えば、一直線上に配置された1つ以上の赤外発光ダイオード(LED:Light Emitting Diode)により実現される。
The light source unit 12 causes light outside the visible light region to enter from the side surface of the contacted
図1に示す例では、光源部12が被接触体11の上下併せて2カ所に配置されている。ただし、光源部12の配置位置は、被接触体11の上下2カ所に限定されない。光源部12は、被接触体11の1辺、または複数の辺に配置されていても良い。
In the example shown in FIG. 1, the light source unit 12 is disposed at two places on the contacted
検出部13は、被接触体11に対する接触物の接触部分を時間の経過とともに検出する。なお、接触物の接触部分とは、接触物の接触位置と接触している面積によって表わされる情報であるとも言える。検出部13は、光源部12の発する光のうち、被接触体11に接触物が接触することに伴って被接触体11の外部に散乱される光(以下、散乱光)を画像として検出する光学機器である。検出部13は、例えば、電荷結合素子(CCD:Charge Coupled Device)イメージセンサや、相補性金属酸化膜半導体(CMOS:Complementary Metal Oxide Semiconductor)イメージセンサなどの半導体イメージセンサを搭載したカメラにより実現される。
The detection unit 13 detects the contact portion of the contact object with the contacted
なお、図1では、検出部13が被接触体11上で接触物の接触する面とは反対側の面(背面)に配置されている例を示している。ただし、検出部13が配置される位置は、上記位置に限定されない。検出部13は、接触物の接触する面(前面)に配置されていても良い。
In addition, in FIG. 1, the example which has arrange | positioned the detection part 13 on the surface (back surface) on the opposite side to the surface where a contact thing contacts on the to-
塗布具15は、内部に充填されている塗布物16を被接触体11に塗布する構造を有する筆記具である。塗布具15は、例えば、ホワイトボードマーカなどのフェルトペンの容器を用いて実現される。ただし、塗布具15の態様は、フェルトペンの容器に限定されない。
The applicator 15 is a writing instrument having a structure for applying the application 16 filled inside to the contacted
塗布物16は、被接触体11に塗布したり、拭き取ったりすることが可能な物質である。塗布物16には、光源部12の発する波長領域の光を散乱する物質が成分として含有される。例えば、光源部12に赤外光を使用する場合、塗布物16は、一般的なホワイトボードマーカのインクにより実現される。
The application 16 is a substance that can be applied to the contacted
操作認識部2は、検出部13が検出した散乱光の画像を受け取り、タッチ操作を検出する処理を実行する。タッチ操作を検出する処理において、操作認識部2は、タッチ操作の有無、および、タッチ操作が行われた位置を判定する。具体的には、操作認識部2は、検出部13から接触した部分を示す散乱光の画像を受け取ると、接触している部分の面積が時間の経過とともに変化(増加又は減少)しているか否か判断する。さらに、操作認識部2は、面積が時間とともに変化している場合に、接触物の接触位置がほぼ一定の位置にあるか否か、又は、接触した位置から移動しているか否かを判断する。そして、操作認識部2は、接触面積が変化している場合において、接触物の位置がほぼ一定の位置にある場合に、タッチ操作が行われたと判定する。なお、ほぼ一定の位置にあるか否かは、例えば、予め定められた閾値と比較して判断される。そして、操作認識部2は、判断した結果を表す情報を操作応答部1に出力する。
The
操作認識部2は、例えば、外部機器接続用インターフェースが搭載され、汎用のオペレーティングシステム、ドライバソフトウェア、画像処理プログラムが実行される一般的なパーソナルコンピュータ(PC)により実現される。より具体的には、操作認識部2は、プログラム(認識プログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、パーソナルコンピュータや、操作認識装置10の記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、操作認識部2として動作してもよい。
The
操作応答部1は、操作認識部2が判断した結果を受信すると、被接触体11に対する接触状態に応じて、予め定められた応答を行う。操作応答部1は、例えば、検知された接触位置に応じた応答を行う。例えば、操作応答部1は、接触位置に応じ、表示装置(図示せず)の画面に、ポインタやメニューを表示してもよい。
When the
次に、本実施形態における操作認識装置の動作について説明する。まずは、本実施形態における操作認識装置において、接触物の接触位置および接触面積が検出される原理について説明する。続いて、検出された情報を元にタッチ操作を認識する手順について説明する。 Next, the operation of the operation recognition device in this embodiment will be described. First, the principle by which the contact position and the contact area of the contact object are detected in the operation recognition device according to the present embodiment will be described. Next, a procedure for recognizing a touch operation based on detected information will be described.
まず、光源部12は、被接触体11の側面より可視光領域外の光を入射させる。図2は、被接触体11に光源部12の光が入射された状態の例を示す説明図である。仮に、被接触体11に接触物が接触していなかったものとすると、入射された光は、図2に例示するように、被接触体11の表面で全反射し、内部に閉じこめられて導波する。
First, the light source unit 12 causes light outside the visible light region to enter from the side surface of the contacted
検出部13は、定常的に(例えば、毎秒30フレームで)被接触体11の画像を赤外領域にて撮影する。仮に、被接触体11に接触物が接触していなかったものとすると、検出部13が記録する画像は、ほぼ真っ黒な画像になる。これは、光源部12によって発せられる光が、被接触体11の内部に閉じこめられ、検出部13には到達しないためである。
The detection unit 13 regularly captures an image of the contacted
続いて、被接触体11に接触物が接触している場合について説明する。既に述べた通り、代表的な接触物として、ホワイトボードマーカのインクなどの塗布物16や、利用者の指14などが挙げられる。
Then, the case where the contact thing is contacting the to-
図3は、被接触体11の表面における光の反射状態の例を示す説明図である。前述の通り、光源部12より発せられた光は、被接触体11の表面で全反射する。この際、図3のAに例示するように、光は、被接触体11から外部の空気側にわずかに染み出す。なお、この染み出した部分の光は、エバネッセント波と呼ばれる。被接触体11に塗布物16や利用者の指14などの接触物が接触している場合、エバネッセント波は、接触物と光学的に結合する。そして、図3のBまたはCに例示するように、エバネッセント波は、被接触体11の外へ散乱する。
FIG. 3 is an explanatory diagram illustrating an example of a light reflection state on the surface of the contacted
エバネッセント波は、透明平面板である被接触体11の背面側にも散乱するため、背面側に散乱した光の一部は検出部13に到達し、検出部13は、その光を検出する。図4は、検出部13が検出した画像フレームの例を示す説明図である。図4に例示する画像フレームの左上に白く暗く浮かび上がる「イ」の形状の部分が、被接触体11上で塗布物16が付着した部分である。また、図4に例示する画像フレーム中央の楕円状の部分が、利用者の指14が接触した部分である。このように、検出部13は、接触物が接触した領域を、特定形状の領域として観測する。
Since the evanescent wave is scattered also on the back side of the contacted
操作認識部2は、検出部13が撮影した画像を受け取り、接触物の位置および接触面積を算出する。接触物の位置は画像内で散乱光の検出された領域の座標、接触面積はこの領域に含まれる画素数として定量化される。例えば、操作認識部2は、接触物の接触位置を、画像内で散乱光の検出された領域の座標として定量化する。また、操作認識部2は、接触物の接触面積を、接触した領域に含まれる画素数として定量化する。
The
以下の説明では、接触物が接触している領域(部分)のことを、領域の位置と表現する。ここで、領域の位置は、領域の重心位置で表わされていてもよく、中心位置(具体的には、各座標軸の最大値と最小値の平均)で表わされていてもよい。検出部13は、各領域の位置を予め定義された方法に基づいて表現すればよい。 In the following description, the area (part) where the contact object is in contact is expressed as the position of the area. Here, the position of the area may be represented by the position of the center of gravity of the area, or may be represented by the center position (specifically, the average of the maximum value and the minimum value of each coordinate axis). The detection part 13 should just represent the position of each area | region based on the method defined beforehand.
言い換えると、面的に有限の広がりを持つ領域に対して位置という表現は、多義的な表現であり、曖昧さを含む。例えば、領域の重心位置を指し示す可能性もあれば、中心位置を指し示す可能性もある。本実施形態における操作認識装置では、位置の定義が処理を通じ一貫していれば、その効果は定義の仕方によらず変わらない。したがって、以降、別途区別した場合を除き、接触物が接触している領域(部分)のことを、領域の位置と表現する。 In other words, the expression of position with respect to a region having a finite spread in terms of surface is an ambiguous expression and includes ambiguity. For example, there is a possibility of indicating the center of gravity position of the region and a possibility of indicating the center position. In the operation recognition apparatus according to the present embodiment, if the definition of the position is consistent throughout the process, the effect does not change regardless of the definition method. Therefore, hereinafter, the area (part) where the contact object is in contact is expressed as the position of the area, unless otherwise distinguished.
以上が被接触体に対する接触物の位置および接触面積の検出原理である。続いて、接触物の位置および接触面積の情報からタッチ操作を認識する手順について説明する。ここで、タッチ操作を認識するための具体的な処理フローを説明する前に、本実施形態における操作認識装置でタッチ操作を検出する原理を概説する。 The above is the detection principle of the position and contact area of the contact object with respect to the contacted body. Next, a procedure for recognizing a touch operation from information on the position of the contact object and the contact area will be described. Here, before explaining a specific processing flow for recognizing a touch operation, the principle of detecting a touch operation by the operation recognition device in the present embodiment will be outlined.
時系列的に大別すると、タッチ操作は、(1)指などの接触物を被接触体に接触するフェーズ(以下、「接触するフェーズ」)、(2)接触物の接触を被接触体に保持するフェーズ(以下、「保持するフェーズ」)、(3)被接触体から接触物を離すフェーズ(以下、「離すフェーズ」)の3つの過程を含んでいる。 When categorized roughly in time series, the touch operation is (1) a phase in which a contact object such as a finger comes into contact with the contacted object (hereinafter referred to as “contact phase”), and (2) contact of the contact object with the contacted object. It includes three processes: a holding phase (hereinafter referred to as “holding phase”), and (3) a phase in which the contact object is released from the contacted object (hereinafter referred to as “leaving phase”).
本実施形態における操作認識装置では、操作認識部2が、上記3つの過程のうち、(1)に示す「接触するフェーズ」を検出することにより、タッチ操作の有無を判断する。ここで、タッチ操作の「接触するフェーズ」において、接触物の接触に伴い光が散乱する領域の面積が、領域の位置はほぼ一定のまま、時間とともに増加するという特性に着目する。すなわち、操作認識部2は、時間とともに変化する領域の面積および位置に基づき、タッチ操作の有無を判断する。
In the operation recognition device in the present embodiment, the
図5(a)は、タッチ操作を行った際、時間とともに変化する接触面積の例を示すグラフである。また、図5(b)は、タッチ操作を行った際、接触位置と代表位置(すなわち、領域の位置)との距離を時系列で表わした例を示すグラフである。 FIG. 5A is a graph illustrating an example of a contact area that changes with time when a touch operation is performed. FIG. 5B is a graph illustrating an example in which the distance between the contact position and the representative position (that is, the position of the region) is expressed in time series when the touch operation is performed.
図5(a)に例示するように、タッチ操作の初期段階(すなわち、「接触するフェーズ」)では、被接触体との接触面積は0から有限の値まで増加する。そして、保持段階(すなわち、「保持するフェーズ」)では、接触面積はほぼ一定となり、離脱段階(すなわち、「離すフェーズ」)では、接触面積は再び0にまで減少する。 As illustrated in FIG. 5A, in the initial stage of the touch operation (ie, the “contacting phase”), the contact area with the contacted object increases from 0 to a finite value. In the holding stage (ie, “holding phase”), the contact area becomes substantially constant, and in the separation stage (ie, “release phase”), the contact area decreases to zero again.
一方、図5(b)に例示するように、タッチ操作の初期段階から離脱段階まで、接触領域の位置はほとんど変化しない。なお、「接触するフェーズ」および「離すフェーズ」においては、距離がやや大きくなる傾向がある。これは、特に指によるタッチ操作に特徴的な現象であり、通常、接触が指の先から指の中心に向かって行われる特性を表している。ただし、その値は一般的に小さく、位置はほぼ一定であると言える。 On the other hand, as illustrated in FIG. 5B, the position of the contact region hardly changes from the initial stage of the touch operation to the release stage. In the “contact phase” and “release phase”, the distance tends to be slightly larger. This is a phenomenon that is particularly characteristic of a touch operation with a finger, and usually represents a characteristic in which contact is made from the tip of the finger toward the center of the finger. However, the value is generally small and the position can be said to be almost constant.
以降、上述した原理に基づいてタッチ操作を認識する具体的な処理フローについて説明する。なお、本実施形態における操作認識装置では、タッチ操作の認識は、操作認識部2によって行われる。
Hereinafter, a specific processing flow for recognizing a touch operation based on the above-described principle will be described. In the operation recognition device according to this embodiment, the
図6は、操作認識部2が行う処理の例を示すフローチャートである。操作認識部2は、まず、時間軸上で連続した画像フレームF1,F2を検出部13より受け取る(ステップS1,S2)。具体的には、操作認識部2は、画像フレームF1を検出部13から受信したか否かを判定する(ステップS1)。画像フレームF1を受信していない場合(ステップS1におけるN)、操作認識部2は、画像フレームを受信するステップS1の処理を繰り返す。一方、画像フレームF1を受信した場合(ステップS1におけるY)、操作認識部2は、画像フレームF2を検出部13から受信したか否かを判定する(ステップS2)。画像フレームF2を受信していない場合(ステップS2におけるN)、操作認識部2は、画像フレームを受信するステップS2の処理を繰り返す。
FIG. 6 is a flowchart illustrating an example of processing performed by the
画像フレームF1,F2を受け取った場合(ステップS2におけるY)、操作認識部2は、その差分画像D1=F2−F1を算出する(ステップS3)。なお、操作認識部2は、画像差分を算出する際、差分値が負となった画素については、その差分値を0で置き換える。このようにすることで、接触面積が増加した領域のみを抽出できる。操作認識部2は、例えば、画像フレームにおける各画素値を比較して、差分画像を算出してもよい。
When the image frames F1 and F2 are received (Y in step S2), the
図7は、各時点における画像フレームの例を示す説明図である。図7に示す例では、画像フレームf1〜f5の順に時系列で検知されていることを示す。ここで、画像フレームF1が検出された時刻では、接触物が何も接触しておらず、画像フレームF2が検出された時刻では、指によるタッチ操作が開始されていたものとする。 FIG. 7 is an explanatory diagram illustrating an example of an image frame at each time point. In the example illustrated in FIG. 7, it is detected that the image frames f1 to f5 are detected in time series. Here, it is assumed that no contact object is in contact at the time when the image frame F1 is detected, and that a touch operation with a finger is started at the time when the image frame F2 is detected.
この場合、画像フレームF1は、図7(a)に例示する画像フレームf1のように、真っ黒な画像になり、画像フレームF2は、図7(b)に例示する画像フレームf2のようになる。また、差分画像D1も、図7(b)に例示する画像フレームf2のようになる。ここで、画像フレームf2において、白い楕円形上の領域が指の接触している位置に相当する。 In this case, the image frame F1 is a black image like the image frame f1 illustrated in FIG. 7A, and the image frame F2 is the image frame f2 illustrated in FIG. 7B. Further, the difference image D1 is also an image frame f2 illustrated in FIG. Here, in the image frame f2, the area on the white ellipse corresponds to the position where the finger is in contact.
続いて、操作認識部2は、差分画像D1をもとに、散乱光の検出された部分から独立した領域を識別する(ステップS4)。差分画像D1が図7(b)に例示する画像フレームf2の場合、領域は楕円領域1つのみである。そのため、操作認識部2は、この領域を抽出する。
Subsequently, the
なお、独立した領域を識別する具体的な方法として、画像処理の分野で一般的に知られているラベリングという処理手法が利用できる。ラベリング処理の詳細については、例えば、以下の参考文献1に記載されているため、ここでの説明は省略する。
[参考文献1]
奈良先端科学技術大学院大学OpenCVプログラミングブック作成チーム著、「OpenCVプログラミングブック」、毎日コミュニケーションズ、2007年9月、p.201−204
As a specific method for identifying independent regions, a processing method called labeling generally known in the field of image processing can be used. The details of the labeling process are described in, for example,
[Reference 1]
Nara Institute of Science and Technology OpenCV Programming Book Creation Team, “OpenCV Programming Book”, Mainichi Communications, September 2007, p. 201-204
続いて、操作認識部2は、識別された各領域の位置を計算する(ステップS5)。ここでは、操作認識部2は、各領域の位置として、領域の中心位置の座標を計算するものとする。そして、操作認識部2は、計算した位置座標(Xi,Yi)(ただし、i=1〜N;Nは識別された領域数。本例ではN=1。)を、後続の処理のためにメモリ(図示せず)へ記憶させる(ステップS6)。
Subsequently, the
図8は、画像フレームから算出された差分画像の例を示す説明図である。なお、図8に例示する点線は、操作認識部2により算出された座標を示す。操作認識部2は、例えば、図8(a)に例示する差分画像から領域の位置を計算する。
FIG. 8 is an explanatory diagram illustrating an example of a difference image calculated from an image frame. Note that the dotted lines illustrated in FIG. 8 indicate the coordinates calculated by the
続いて、操作認識部2は、画像フレームF2に続く画像フレームF3を検出部13から受信する。具体的には、操作認識部2は、画像フレームF3を受信したか否かを判定する(ステップS7)。画像フレームF3を受信していない場合(ステップS7におけるN)、操作認識部2は、画像フレームを受信するステップS7の処理を繰り返す。一方、画像フレームF3を受け取った場合(ステップS7におけるY)、画像フレームF2と画像フレームF3との差分画像D2=F3−F2を算出する(ステップS8)。ここで、図7(c)に例示する時刻では、指によるタッチ操作がさらに進み、画像フレームf3の画像が検知されたとする。このとき、差分画像D2は、図8(b)に例示するように、ドーナツ状の領域を含む画像になる。
Subsequently, the
操作認識部2は、ステップS4〜S5に示す差分画像D1の場合と同様、差分画像D2についても独立した領域の識別処理(ステップS9)、および、各領域の位置の計算処理を実行する(ステップS10)。ここでは、位置座標(Aj,Bj)(ただし、j=1〜M;Mは識別された領域数。本例ではM=1。)が計算される。具体的には、操作認識部2は、図8(b)に例示する点線で示される座標を計算する。
As in the case of the difference image D1 shown in steps S4 to S5, the
その後、操作認識部2は、座標(Xi,Yi)と座標(Aj,Bj)とをそれぞれ比較する。そして、互いの距離が一定の閾値以下になる座標の組合せがあった場合、操作認識部2は、タッチ操作がなされたものと判定する(ステップS11)。なお、一定の閾値として、例えば、10ピクセルといった値を、予め実験的に求めておけばよい。以下、タッチ操作がなされたと操作認識部2が判定したことを、タッチ操作有りの判定と記す。
Thereafter, the
また、タッチ操作有りの判定がなされた場合、操作認識部2は、座標(Xi,Yi)または(Aj,Bj)のいずれかを接触位置としてもよい。他にも、操作認識部2は、座標(Xi,Yi)と座標(Aj,Bj)との平均値など、両座標により導出される値を接触位置としてもよい。
In addition, when it is determined that there is a touch operation, the
操作認識部2は、タッチ操作の判定結果、および、導出された接触位置を操作応答部1に出力する。具体的には、操作認識部2は、タッチ操作有りと判定した場合、塗布物の塗布操作などとは異なる操作であることを示す情報を、操作応答部1に出力する。なお、上記処理によれば、複数の独立した領域においてタッチ操作有りと判定することも可能である。この場合、操作認識部2が該当する複数の接触位置を操作応答部1に送信することで、複数のタッチ操作が同時になされた場合であっても、操作応答部1がそれぞれの接触位置を個別に把握することが可能になる。
The
なお、タッチ操作が行われていない場合、操作認識部2は、判定結果を操作応答部1に出力しなくてもよい。また、操作認識部2が出力する情報は、判定結果や接触位置など、タッチ操作に関する情報に限定されない。例えば、塗布物が塗布されている場合など、タッチ操作以外で接触物の接触を検出した場合、操作認識部2は、その接触物の接触状態を示す情報を操作応答部1に出力してもよい。タッチ操作以外による接触物の接触状態を表す情報として、より具体的には、検出部13から受け取った画像情報や、受け取った画像情報を一部加工した画像情報が挙げられる。一部加工した画像情報としては、例えば、検出部13から受け取った画像情報に対してタッチ操作があった位置の領域を背景色で塗りつぶした画像情報などが挙げられる。このような情報を送信することで、操作応答部1は、タッチ操作と塗布操作を区別して異なる処理を行うことが可能になる。
Note that when the touch operation is not performed, the
最後に、操作認識部2は、画像フレームF3を画像フレームF2に置き換えて記憶する。さらに、操作認識部2は、座標(Aj,Bj)を座標(Xi,Yi)に置き換えて記憶する(ステップS12)。その後、操作認識部2は、新たな画像フレームを受信するステップS7以降の処理を繰り返す。
Finally, the
なお、繰り返し処理を行うことにより、単一のタッチ操作に対し、タッチ操作有りの判定が複数回なされる可能性がある。そこで、操作認識部2は、一定時間(例えば、100ms)の間における複数階のタッチ操作有りの判定を、単一のタッチ操作有りの判定にまとめることで、複数回のタッチ判定が行われることを回避できる。
Note that, by performing the repeated processing, there is a possibility that the determination of the presence of the touch operation may be made a plurality of times for a single touch operation. Therefore, the
このような方法に基づいてタッチ操作を認識する場合、例えば、塗布物16のように恒常的に被接触体(被塗布体)に付着している物質からの散乱光は、差分画像上に現れない。したがって、このような塗布物16がタッチ操作として認識されることを回避できる。また、塗布具15により塗布物16が塗布される過程においては、塗布物16の接触面積が増加する。すなわち、塗布された時点の塗布物16は、差分画像上に現れることになる。しかし、塗布物16が塗布される位置は、塗布具15の移動方向に変化するため、やはりタッチ操作として認識できることを回避できる。以下、これらの内容について、さらに説明する。 When a touch operation is recognized based on such a method, for example, scattered light from a substance that is constantly attached to the contacted object (applied object) such as the applied object 16 appears on the difference image. Absent. Accordingly, it is possible to avoid such a coating 16 being recognized as a touch operation. Further, in the process in which the application 16 is applied by the applicator 15, the contact area of the application 16 increases. That is, the applied material 16 at the time of application appears on the difference image. However, since the position where the application 16 is applied changes in the moving direction of the applicator 15, it can be avoided that it can be recognized as a touch operation. Hereinafter, these contents will be further described.
図9は、画像フレームと差分画像との関係例を示す説明図である。図9に示す例では、差分画像d1は、画像フレームf7とf6との差分を表す画像であり、差分画像d2は、画像フレームf8とf7との差分を表す画像である。 FIG. 9 is an explanatory diagram illustrating an example of a relationship between an image frame and a difference image. In the example shown in FIG. 9, the difference image d1 is an image representing the difference between the image frames f7 and f6, and the difference image d2 is an image representing the difference between the image frames f8 and f7.
上記動作の説明と同様、塗布開始時において画像フレームF1が、図9(a)の画像フレームf6に例示するような真っ黒な画像であり、塗布開始直後において画像フレームF2が、図9(b)の画像フレームf7に例示する画像であるものとする。このとき、差分画像D1は、図9(d)に例示する差分画像d1のような画像になる。また、差分画像d1から抽出される領域の位置には、差分画像d1において点線で示される位置が算出される。 Similar to the description of the above operation, the image frame F1 is a black image as illustrated in the image frame f6 of FIG. 9A at the start of application, and the image frame F2 immediately after the start of application is illustrated in FIG. 9B. It is assumed that the image is exemplified in the image frame f7. At this time, the difference image D1 is an image like the difference image d1 illustrated in FIG. Further, a position indicated by a dotted line in the difference image d1 is calculated as the position of the region extracted from the difference image d1.
その後、描画が進み、検出部13が画像フレームF3として、図9(c)に例示する画像フレームf8を検出したとする。このとき、差分画像D2は、図9(e)に例示する差分画像d2のような画像になる。また、差分画像d2から抽出される領域の位置には、差分画像d2において点線で示される位置が算出される。 Thereafter, drawing proceeds, and it is assumed that the detection unit 13 detects an image frame f8 illustrated in FIG. 9C as the image frame F3. At this time, the difference image D2 is an image like the difference image d2 illustrated in FIG. Further, a position indicated by a dotted line in the difference image d2 is calculated as the position of the region extracted from the difference image d2.
このことから解るように、塗布物16の塗布操作においては、描画に伴い塗布される塗布物16の位置は塗布具15の移動方向にシフトしていく。よって、移動したか否かを判定するための閾値を適切に設定することにより、塗布物16が塗布される過程において、タッチ操作が検出されることを回避できる。 As can be seen from this, in the application operation of the application 16, the position of the application 16 applied in accordance with the drawing shifts in the moving direction of the applicator 15. Therefore, by appropriately setting a threshold value for determining whether or not it has moved, detection of a touch operation in the process of applying the application 16 can be avoided.
また、例えば、利用者が内部の塗りつぶされた楕円状の図形を描いたとする。この場合であっても、画像フレームを検出する間隔を適切に設定しておくで、検出部13はその描画を線分として検出することが可能になる。そのため、操作認識部2が、このような描画処理をタッチ操作と判定することを回避できる。なお、画像フレームの検出間隔として、例えば、毎秒30フレームと設定しておいてもよい。
In addition, for example, it is assumed that the user has drawn an oval figure that is filled inside. Even in this case, the detection unit 13 can detect the drawing as a line segment by appropriately setting an interval for detecting the image frame. Therefore, it can be avoided that the
さらに、塗布具15を用いた描画処理と、タッチ操作とが同時に行われた場合には、タッチ操作がなされた位置においてのみタッチ操作有りの判定が行われる。このことは、上述の説明から明らかである。 Furthermore, when the drawing process using the applicator 15 and the touch operation are performed at the same time, the presence of the touch operation is determined only at the position where the touch operation is performed. This is clear from the above description.
以上のように、本実施形態によれば、検出部13が、被接触体11に対する接触物の接触部分を、時間の経過とともに検出する。そして、操作認識部2は、接触領域の面積が時間の経過とともに変化する場合、領域の位置の変化が予め定められた距離以内(すなわち、ほぼ一定の位置)である事象(タッチ操作)を認識する。さらに、操作認識部2は、接触領域の面積が時間の経過とともに変化する場合、領域の位置の変化が予め定められた距離を超えた事象(タッチする位置が移動する事象)も認識する。そして、検出された接触操作の内容がタッチ操作であると認識された場合、操作認識部2は、タッチ操作を示す情報であって、塗布物の塗布操作を示す情報とは異なる情報を、操作応答部1に出力する。そのため、被接触体に対する操作の認識精度を向上できる。
As described above, according to the present embodiment, the detection unit 13 detects the contact portion of the contact object with the contacted
すなわち、本実施形態における操作認識装置を用いることにより、タッチ操作以外の原因により生じるセンサ入力が存在する場合であっても、タッチ操作の認識精度を向上できるため、タッチ操作を識別することが可能になる。 That is, by using the operation recognition device according to the present embodiment, it is possible to identify the touch operation because the recognition accuracy of the touch operation can be improved even when there is a sensor input caused by a cause other than the touch operation. become.
なお、上記処理では、画像差分を算出することで接触面積が増加する領域を抽出し、算出した差分の領域の位置を接触領域の位置とほぼ一定の事象として抽出している。すなわち、上記説明では、接触領域の位置を直接計算していない。しかし、上記処理は、実質的に、接触位置がほぼ一定で接触面積が増加している接触領域を抽出していることに等しいと言える。 In the above processing, a region where the contact area increases by calculating the image difference is extracted, and the position of the calculated difference region is extracted as an event that is almost constant with the position of the contact region. That is, in the above description, the position of the contact area is not directly calculated. However, it can be said that the above process is substantially equivalent to extracting a contact region where the contact position is substantially constant and the contact area is increased.
例えば、差分画像を計算せず、各画像フレームに対してラベリング処理を行い、これにより得られる各領域に対して位置計算を行うことで、接触面積が変化しつつ接触位置がほぼ一定の領域を検出することは可能である。しかし、この場合、ラベリング処理により抽出される領域数が多くなり、ラベリング処理自体および位置計算処理の処理時間が増加してしまう。しかし、本実施形態では、差分画像を計算することにより、処理時間の増加を抑制することが可能になる。 For example, by performing a labeling process on each image frame without calculating a difference image, and performing a position calculation on each area obtained by this, an area where the contact position is almost constant while changing the contact area is obtained. It is possible to detect. However, in this case, the number of areas extracted by the labeling process increases, and the processing time of the labeling process itself and the position calculation process increases. However, in the present embodiment, it is possible to suppress an increase in processing time by calculating the difference image.
また、上記説明では、タッチ操作に含まれる3つの過程である(1)「接触するフェーズ」、(2)「保持するフェーズ」、(3)「離すフェーズ」のうち、操作認識部2が、(1)に示す「接触するフェーズ」を検出し、このフェーズが検出された場合に、タッチ操作があったものと判断する動作を説明した。この応用として、操作認識部2が、「接触するフェーズ」の検出後、さらに(2)「保持するフェーズ」及び(3)「離すフェーズ」を検出し、その情報を操作応答部1に出力することも可能である。操作認識部2が(2)「保持するフェーズ」及び(3)「離すフェーズ」での接触を判定する方法としては、例えば、画像処理領域で一般的に知られている物体追跡の手法を使用すればよい。具体的には、操作認識部2は、「接触するフェーズ」を検出した場合に、接触位置における領域の追跡を開始し、追跡対象の領域が消えた場合に、離脱イベントの判定をすれば良い。なお、このような方法を使用する場合、接触が検出される位置と離脱が検出される位置は同じである必要はない。また、接触保持状態において、接触物が移動する軌跡情報(ドラッグ情報)を識別することも容易である。なお、物体追跡処理の詳細については、例えば、以下の参考文献2に記載されているため、ここでの説明は省略する。
[参考文献2]
奈良先端科学技術大学院大学OpenCVプログラミングブック作成チーム著、「OpenCVプログラミングブック」、毎日コミュニケーションズ、2007年9月、p.218−237
In the above description, among the three processes included in the touch operation (1) “contact phase”, (2) “hold phase”, and (3) “release phase”, the
[Reference 2]
Nara Institute of Science and Technology OpenCV Programming Book Creation Team, “OpenCV Programming Book”, Mainichi Communications, September 2007, p. 218-237
さらに、(3)「離すフェーズ」単体でタッチ操作を検出する方法として、操作認識部2は、ほぼ一定の位置において接触面積が時間と共に減少する領域を抽出する方法を使用してもよい。なお、接触面積が時間と共に減少する領域を抽出するには、(1)「接触するフェーズ」で計算された画像差分結果の符号を反転させればよい。
Further, (3) as a method of detecting the touch operation by the “release phase” alone, the
また、本実施形態では、被接触体11に対する接触物の接触位置および接触面積を検出可能な装置として、FTIR方式の光学式タッチパネルを用いた例を挙げて説明した。ただし、接触位置および接触面積を検出する装置は、上記装置に限定されない。接触位置および接触面積を検出可能な装置であれば、他の装置を用いて本実施形態における操作認識装置を構成してもよい。
Further, in the present embodiment, an example in which an FTIR optical touch panel is used as an apparatus capable of detecting the contact position and contact area of a contact object with respect to the contacted
さらに、接触面積が増加し、位置がほぼ一定の接触領域か否かの判定を、異なる種類の操作認識装置を重ねて配置することにより行ってもよい。例えば、上記FTIR方式のタッチパネルと、静電容量方式のタッチパネルとを重ねて配置してもよい。静電容量方式のタッチパネルを重ねるのは、感度を調整することで、タッチパネル自身への接触はなくとも、近傍に指などが存在することが識別できるためである。このように配置することにより、FTIR方式のタッチパネルにより被接触体11への塗布物の付着状態を検出する一方で、その被接触体11へのタッチ操作を静電容量方式のタッチパネルのセンサにて検出することが可能になる
Further, the determination of whether or not the contact area is increased and the position is a substantially constant contact area may be performed by arranging different types of operation recognition devices in a stacked manner. For example, the FTIR touch panel and the capacitive touch panel may be stacked. The reason why the capacitive touch panels are stacked is that by adjusting the sensitivity, it is possible to identify the presence of a finger or the like in the vicinity without touching the touch panel itself. By arranging in this way, while the FTIR type touch panel detects the adhesion state of the applied material to the contacted
実施形態2.
次に、本発明による情報処理システムについて説明する。本発明における情報処理システムは、第1の実施形態で例示した操作認識装置を含んでおり、タッチ操作以外の原因により生じたセンサ入力を、タッチ操作とは別の入力情報として活用するシステムである。
Next, an information processing system according to the present invention will be described. The information processing system according to the present invention includes the operation recognition device exemplified in the first embodiment, and utilizes a sensor input generated by a cause other than the touch operation as input information different from the touch operation. .
図10は、本発明による情報処理システムの一実施形態を示すブロック図である。なお、第1の実施形態で例示した操作認識装置と同様の構成については、図1と同一の符号を付し、説明を省略する。 FIG. 10 is a block diagram showing an embodiment of an information processing system according to the present invention. In addition, about the structure similar to the operation recognition apparatus illustrated in 1st Embodiment, the code | symbol same as FIG. 1 is attached | subjected and description is abbreviate | omitted.
本実施形態における情報処理システム20は、被接触体11と、光源部12と、検出部13と、操作認識部2に加え、表示部21と、操作応答部1とを備えている。また、表示部21は、スクリーン22と、プロジェクタ23とを含む。すなわち、本実施形態における情報処理システムは、第1の実施形態における操作認識装置10に加え、スクリーン22とプロジェクタ23とを含む表示部21、及び、操作応答部1を備えている。
The information processing system 20 in the present embodiment includes a display unit 21 and an
操作認識装置(より具体的には、被接触体11、光源部12、検出部13、および、操作認識部2)は、第1の実施形態で説明した通り、被接触体11に対する接触物の接触を監視し、検出部13が撮影した画像情報、またはこの画像情報を一部加工した画像情報を、タッチ操作に関する情報とともに操作応答部1へ出力する。
As described in the first embodiment, the operation recognition device (more specifically, the contacted
操作応答部1は、操作認識装置(より具体的には、操作認識部2)が認識した事象に基づいて、接触操作が検知された位置に応じた処理を行う。例えば、操作認識部2から、検出部13が撮影した散乱光の画像やタッチ操作の有無及びタッチ操作が行われた位置の情報を受け取ると、操作応答部1は、各事象に基づき、接触位置に応じた表示処理を表示部21に指示する。操作応答部1が指示する具体的な内容については後述する。なお、以下の説明では、接触物が接触する、接触物が被接触体から離れるなど、接触に関するイベントを表す情報のことを、イベント種別と記す。
The
操作応答部1は、操作認識部2と同様、一般的なパーソナルコンピュータにより実現される。より具体的には、操作応答部1は、プログラム(認識プログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、パーソナルコンピュータやの記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、操作応答部1として動作してもよい。また、操作応答部1と操作認識部2とが、単一のハードウェア(例えば、パーソナルコンピュータ)で実現されていてもよい。
Similar to the
表示部21は、操作応答部1の指示に応じた内容を表示する。スクリーン22は、被接触体11の背面に配置され、プロジェクタ23は、操作応答部1の指示に応じて、散乱光の画像や、タッチ操作に応じたポインタ及びメニューなどをスクリーン22の適切な位置に表示する。スクリーン22の表示された内容は、透明平面板である被接触体11を介して利用者に認識される。
The display unit 21 displays contents according to instructions from the
なお、本実施形態では、表示部21がスクリーン22及びプロジェクタ23を含む場合について説明するが、表示部21の内容は、スクリーン22及びプロジェクタ23に限定されない。デジタル情報の表示が可能な表示装置であれば、表示部21は、例えば、液晶ディスプレイやプラズマディスプレイ、電界放出ディスプレイなどのフラットパネルディスプレイであってもよい。 In the present embodiment, the case where the display unit 21 includes the screen 22 and the projector 23 will be described. However, the content of the display unit 21 is not limited to the screen 22 and the projector 23. If the display device is capable of displaying digital information, the display unit 21 may be a flat panel display such as a liquid crystal display, a plasma display, or a field emission display, for example.
次に、本実施形態における情報処理システムの動作について説明する。以下の説明では、操作応答部1が、操作認識部2から画像情報とタッチ操作に関する情報のいずれか一方を受け取り、受け取った情報に基づいて処理を行う場合を例に説明する。ここで、画像情報として受け取る情報には、塗布物の塗布操作が行われることを示す情報も含まれる。
Next, the operation of the information processing system in this embodiment will be described. In the following description, an example in which the
図11は、操作応答部1が行う処理の例を示すフローチャートである。また、図12は、被接触体11に対する操作及び表示部21に対する表示の例を示す説明図である。操作応答部1は、操作認識部2から画像情報とタッチ操作に関する情報のいずれか一方を受信する(ステップS21)。受け取った情報が画像情報の場合(ステップS21における「画像情報」)、操作応答部1は、この画像のサイズ(例えば640×480ピクセル)を表示部21(より具体的には、スクリーン22)のサイズ(例えば1024×768ピクセル)に合わせて拡大または縮小する。また、操作応答部1は、被接触体11上で接触物の接触が検出された物理的位置を、表示部21(より具体的には、スクリーン22)上の位置と一致するように座標変換する(ステップS22)。そして、操作応答部1は、拡大または縮小した画像の表示処理を表示部21に指示する(ステップS23)。ここで、操作応答部1は、画像の明暗を反転するなど、表現上の工夫を施してから表示処理を表示部21に指示してもよい。その後、操作応答部1は、データ受信の内容を判断するステップ21以降の処理を繰り返す。
FIG. 11 is a flowchart illustrating an example of processing performed by the
なお、ステップS22において、座標変換を行う際に必要な情報は、事前に操作認識装置(より具体的には、操作認識部2)と表示部21との間でキャリブレーション処理を行うことで得ることができる。この方法については、一般的なタッチパネルで使用されている方法を用いればよい。 In step S22, information necessary for coordinate conversion is obtained in advance by performing a calibration process between the operation recognition device (more specifically, the operation recognition unit 2) and the display unit 21. be able to. About this method, the method currently used with the general touch panel should just be used.
例えば、被接触体11上に図12(a)に例示する図形が塗布具15を用いて描かれているものとする。操作応答部1は、操作認識部2からこの図形の画像を受信すると、表示部21(より具体的には、スクリーン22)上の位置に合わせて表示させる。その結果、塗布物16により描かれた図形は、背面からライトアップされた状態になる。この際、背面からライトアップされる視覚的フィードバックは、描いた図形が確かにデジタイズされたことを利用者に伝える手掛かりになる。以上のような処理を行うことで、本発明の情報処理システムをデジタルホワイトボードのようなシステムとして利用することが出来る。
For example, it is assumed that the graphic illustrated in FIG. 12A is drawn on the contacted
なお、このとき、操作応答部1は、塗布物16などの接触物が接触している位置に対応するスクリーン22上の位置を、他の表示位置とは異なる色で表示してもよく、また、他の表示位置とは異なる明度で表示してもよい。このようにすることで、タッチ操作とタッチ操作以外の接触を区別できる。
At this time, the
一方、ステップS21において、操作応答部1が受け取った情報が、例えば、タッチ操作の有無およびその位置を表す情報のような、タッチ操作に関する情報の場合(ステップS21における「タッチ情報」)、操作応答部1は、イベント種別(具体的には、接触イベントや離脱イベントなど)や接触を検知した位置に応じた適切な処理を実行する(ステップS24)。操作応答部1は、例えば、タッチ操作が検出された位置へのポインタ表示処理や、メニュー表示処理、タッチ操作が検出された位置に表示されたアイコンなどのオブジェクトに対する選択処理などを実行してもよい。ただし、操作応答部1が行う処理は、これらの処理に限定されない。その後、操作応答部1は、データ受信の内容を判断するステップ21以降の処理を繰り返す。
On the other hand, when the information received by the
このように、操作応答部1は、タッチ操作が行われたと判断した場合、例えば、塗布物が塗布された場合とは異なる処理を行う。具体的には、操作応答部1は、タッチ操作が行われた場合と、塗布物が塗布された場合とで、視覚的に異なる内容の処理を行ってもよい。以下、タッチ操作に関する情報を受信した場合に操作応答部1が行う処理の具体例を、図12を用いて説明する。
As described above, when the
操作応答部1は、図12(a)に例示する状態でタッチ操作に関する情報を受信すると、タッチ操作の検出された位置にメニューを表示する(図12(b)参照)。続いて、利用者が、タッチ操作した位置に表示されたメニューの中から保存コマンドを選択したとする(図12(c)参照。)。そして、操作認識部2が、図形左上の位置に対するタッチ操作を検知し、タッチ情報を操作応答部1に送信すると、操作応答部1は、その位置にポインタ表示するよう表示部21に指示を行う(図12(d)参照)。さらに、図12(d)の状態から、操作認識部2が、図形右下の位置に対するタッチ操作を検知し、タッチ情報を操作応答部1に送信すると、操作応答部1は、タッチされた位置から矩形領域を規定するとともに、新たなメニューを表示部21に表示させる(図12(e)参照)。この状態から、利用者がメニューの中からOKコマンドの位置にタッチ操作を行うと、操作応答部1は、そのコマンド(OKコマンド)を実行する(図12(f)参照)。
The
以上、操作応答部1がタッチ操作に応じて実行する処理について説明した。ただし、操作応答部1がタッチ操作に関する情報に応じて実行する処理は、上記内容に限定されない。例えば、操作認識部2が、複数のタッチを同時に検出した場合やドラッグ状態を検出した場合、操作応答部1は、検出した状態に応じて適切な処理を行なえばよい。
In the above, the process which the
また、上記説明では、操作応答部1が操作認識部2から受け取る情報が、画像情報とタッチ操作に関する情報のいずれか一方である場合について説明した。ただし、操作応答部1は、操作認識部2から画像情報とタッチ操作に関する情報とを同時に受信してもよい。この場合、受信した内容に応じて、それぞれの場合の処理を行えばよい。
In the above description, the case where the information received by the
以上のように、本実施形態によれば、操作認識部2がタッチ操作を識別可能なため、操作応答部1は、タッチ操作以外の原因により生じたセンサ入力を、タッチ操作とは別の入力情報として活用できる。その結果、多様なパターンの入力指示が行える情報処理装置(システム)が単一の操作認識装置で実現できる。
As described above, according to the present embodiment, since the
すなわち、一般的な装置では、タッチ操作以外のセンサ入力を検知した場合、タッチ操作を識別することが困難であった。また、一般的な装置では、センサで感知可能なタッチ操作以外の情報を、タッチ操作とは別の入力情報として活用することも困難であった。しかし、本実施形態によれば、操作認識部2が、タッチ操作を識別し、識別した情報とともに操作以外の情報を操作応答部1に通知する。そのため、タッチ操作以外の原因により生じたセンサ入力を、タッチ操作とは別の入力情報として活用できる。
That is, in a general device, when a sensor input other than the touch operation is detected, it is difficult to identify the touch operation. Further, in a general apparatus, it is difficult to use information other than the touch operation that can be sensed by the sensor as input information different from the touch operation. However, according to the present embodiment, the
次に、本発明の最小構成について説明する。図13は、本発明による操作認識装置の最小構成の例を示すブロック図である。また、図14は、本発明による情報処理システムの最小構成を示すブロック図である。本発明による操作認識装置は、操作者が接触させる接触物(例えば、利用者の指14)または操作者により塗布される接触物(例えば、塗布物16)によって接触される被接触体80(例えば、被接触体11)と、被接触体に対する接触物の接触位置及び接触領域(例えば、接触している部分)を時間の経過とともに(例えば、定常的に)検出する接触位置検出手段81(例えば、検出部13)と、接触領域の面積が時間の経過とともに増加又は減少する場合において、接触領域の位置を表す領域位置(例えば、領域の位置)の変化が予め定められた距離以内(例えば、ほぼ一定の位置)である事象を第1の事象(例えば、タッチ操作)と認識し、領域位置の変化がその距離を超えた(例えば、接触物が移動した)事象を第2の事象(例えば、塗布物16の塗布操作)と認識する認識手段82(例えば、操作認識部2)と、認識された事象を表す情報(例えば、タッチ操作の判定結果、判定の際用いられた画像情報)を他の装置(例えば、操作応答部1)に出力する事象出力手段83とを備えている。 Next, the minimum configuration of the present invention will be described. FIG. 13 is a block diagram showing an example of the minimum configuration of the operation recognition apparatus according to the present invention. FIG. 14 is a block diagram showing the minimum configuration of the information processing system according to the present invention. The operation recognition device according to the present invention is a contact object 80 (for example, a user's finger 14) contacted by an operator or a contacted object 80 (for example, a coated object 16) to be contacted by a contact object (for example, a coated object 16) applied by the operator. The contact position detection means 81 (for example, constantly) detects the contact position of the contact object 11) and the contact position and contact area (for example, a contacted portion) of the contact object with time (for example, regularly). In the case where the area of the contact area increases or decreases with the passage of time, the change of the area position (for example, the position of the area) representing the position of the contact area is within a predetermined distance (for example, An event that is a substantially constant position) is recognized as a first event (for example, a touch operation), and an event in which the change in the region position exceeds the distance (for example, the contact has moved) is a second event (for example, a touch operation). Recognizing means 82 (for example, the operation recognizing unit 2) for recognizing that the application 16 is applied), information indicating the recognized event (for example, determination result of touch operation, image information used in determination) Event output means 83 for outputting to the device (for example, the operation response unit 1).
事象出力手段83は、第1の事象が認識された場合に、その第1の事象を示す情報(例えば、事象の認識結果や、検出部13が検出した画像情報)であって、第2の事象とは異なる事象を表す情報(例えば、塗布物16が塗布されている画像情報)を、他の装置に出力する。
When the first event is recognized, the
そのような構成により、被接触体に対する操作の認識精度を向上できる。具体的には、タッチ操作の認識精度を向上できる。 With such a configuration, the recognition accuracy of the operation on the contacted object can be improved. Specifically, the recognition accuracy of the touch operation can be improved.
また、接触位置検出手段81が、接触物により散乱される光(例えば、散乱光、エバネッセント波)を測定することにより、被接触体に対する接触物の接触領域を検出してもよい。 Further, the contact position detecting means 81 may detect the contact area of the contact object with respect to the contacted object by measuring light scattered by the contact object (for example, scattered light, evanescent wave).
また、被接触体が、内部に光(例えば、赤外光)を導波可能な構造を有し、その被接触体の内部に対して光が入射され(例えば、光源部12により光が入射され)、接触位置検出手段81が、被接触体に対して接触物が接触することに伴い散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出してもよい。 Further, the contacted body has a structure capable of guiding light (for example, infrared light) inside, and light is incident on the inside of the contacted body (for example, light is incident by the light source unit 12). The contact position detecting means 81 may detect the contact area of the contact object with respect to the contacted object by measuring light scattered when the contact object comes into contact with the contacted object.
また、接触位置検出手段81は、人体の一部(例えば、利用者の指14)による接触を検知してもよく、被接触体に塗布可能な物質(例えば、塗布物16)の接触を検知してもよい。 Further, the contact position detecting means 81 may detect contact with a part of the human body (for example, the user's finger 14), and detect contact with a substance (for example, the coated material 16) that can be applied to the contacted body. May be.
また、事象出力手段83は、第1の事象以外の事象による接触物の接触(例えば、接触物を接触させたまま移動処理や、塗布物の塗布状態)を検出した場合、その接触物の接触状態を示す情報を、他の装置に出力してもよい。このようにすることで、接触位置と接触が無かった位置とを区別する処理を行うことが可能になる。
In addition, when the
また、本発明による情報処理システムは、被接触体80と、接触位置検出手段81と、認識手段82と、認識された事象に応じて、予め定められた応答を行う応答手段84とを備えている。応答手段84は、第1の事象(例えば、タッチ操作)が認識された場合に、その第1の事象に応じて定められた応答(例えば、ポインタ、メニュー表示)であって、第2の事象に応じて定められた応答(例えば、他の表示位置とは異なる色や明度で表示)とは異なる応答を行う。なお、被接触体80、接触位置検出手段81及び認識手段82については、本発明による操作認識装置の構成と同様である。
The information processing system according to the present invention includes a contacted
このような構成であっても、被接触体に対する操作の認識精度を向上できる。具体的には、タッチ操作の認識精度を向上できる。 Even with such a configuration, the recognition accuracy of the operation on the contacted object can be improved. Specifically, the recognition accuracy of the touch operation can be improved.
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。 A part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.
(付記1)操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体と、前記被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出手段と、前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が当該距離を超えた事象を第2の事象と認識する認識手段と、認識された事象を表す情報を他の装置に出力する事象出力手段とを備え、前記事象出力手段は、前記第1の事象が認識された場合に、当該第1の事象を示す情報であって、前記第2の事象を示す情報とは異なる情報を、他の装置に出力することを特徴とする操作認識装置。 (Supplementary note 1) A contact to be contacted by a contact object to be contacted by an operator or a contact object applied by the operator, and a contact for detecting a contact position and a contact area of the contact object with respect to the contact object with time. In the case where the area of the contact area increases or decreases with the passage of time, an event in which a change in the area position representing the position of the contact area is within a predetermined distance is recognized as a first event. Recognizing means for recognizing an event in which the change in the region position exceeds the distance as a second event, and event output means for outputting information representing the recognized event to another device, The output means outputs, when the first event is recognized, information indicating the first event, which is different from the information indicating the second event, to another device. Characterizing operation Apparatus.
(付記2)接触位置検出手段は、接触物により散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出する付記1記載の操作認識装置。
(Additional remark 2) The operation recognition apparatus of
(付記3)被接触体は、内部に光を導波可能な構造を有し、当該被接触体の内部に対して光が入射され、接触位置検出手段は、前記被接触体に対して接触物が接触することに伴い散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出する付記1または付記2記載の操作認識装置。
(Appendix 3) The contacted body has a structure capable of guiding light inside, light is incident on the inside of the contacted body, and the contact position detecting means is in contact with the contacted body. The operation recognizing device according to
(付記4)接触位置検出手段は、人体の一部による接触を検知する付記1から付記3のうちのいずれか1つに記載の操作認識装置。
(Supplementary note 4) The operation recognition device according to any one of
(付記5)接触位置検出手段は、被接触体に塗布可能な物質の接触を検知する付記1から付記4のうちのいずれか1つに記載の操作認識装置。
(Supplementary Note 5) The operation recognition device according to any one of
(付記6)事象出力手段は、第1の事象とは異なる事象による接触物の接触を検出した場合、当該接触物の接触状態を示す情報を、他の装置に出力する付記1から付記5のうちのいずれか1つに記載の操作認識装置。 (Appendix 6) When the event output means detects contact of the contact object due to an event different from the first event, the event output means outputs information indicating the contact state of the contact object to other devices. The operation recognition apparatus as described in any one of them.
(付記7)操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体と、前記被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出手段と、前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が前記距離を超えた事象を第2の事象と認識する認識手段と、認識された事象に応じて、予め定められた応答を行う応答手段とを備え、前記応答手段は、前記第1の事象が認識された場合に、当該第1の事象に応じて定められた応答であって、前記第2の事象に応じて定められた応答とは異なる応答を行うことを特徴とする情報処理システム。 (Appendix 7) A contact object that is contacted by a contact object to be contacted by an operator or a contact object that is applied by the operator, and a contact that detects a contact position and a contact area of the contact object with respect to the contact object with time. In the case where the area of the contact area increases or decreases with the passage of time, an event in which a change in the area position representing the position of the contact area is within a predetermined distance is recognized as a first event. Recognizing means for recognizing an event in which the change in the region position exceeds the distance as a second event, and responding means for performing a predetermined response in accordance with the recognized event, When the first event is recognized, the response is determined according to the first event and is different from the response determined according to the second event. Characteristic features Processing system.
(付記8)接触位置検出手段は、接触物により散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出する付記7記載の情報処理システム。 (Supplementary note 8) The information processing system according to supplementary note 7, wherein the contact position detection unit detects a contact area of the contact object with respect to the contacted object by measuring light scattered by the contact object.
(付記9)被接触体は、内部に光を導波可能な構造を有し、当該被接触体の内部に対して光が入射され、接触位置検出手段は、前記被接触体に対して接触物が接触することに伴い散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出する付記7または付記8記載の情報処理システム。 (Supplementary Note 9) The contacted body has a structure capable of guiding light inside, and light is incident on the inside of the contacted body, and the contact position detecting means is in contact with the contacted body. The information processing system according to appendix 7 or appendix 8, wherein the contact area of the contact object with respect to the contacted object is detected by measuring light scattered as the object contacts.
(付記10)接触位置検出手段は、人体の一部による接触を検知する付記7から付記9のうちのいずれか1つに記載の情報処理システム。 (Supplementary note 10) The information processing system according to any one of supplementary note 7 to supplementary note 9, wherein the contact position detecting means detects contact by a part of a human body.
(付記11)接触位置検出手段は、被接触体に塗布可能な物質の接触を検知する付記7から付記10のうちのいずれか1項に記載の情報処理システム。 (Supplementary note 11) The information processing system according to any one of supplementary note 7 to supplementary note 10, wherein the contact position detecting means detects contact of a substance that can be applied to the contacted body.
(付記12)応答手段は、認識された事象に応じた情報を被接触体の対応する位置に表示する表示手段を含み、前記応答手段は、第1の事象とは異なる事象による接触物の接触を検出した場合、接触物が接触した位置に対応する前記表示手段上の位置に対して、第1の事象に応じて定められた応答とは視覚的に異なる変化を生じさせる処理を行う付記7から付記11のうちのいずれか1つに記載の情報処理システム。
(Supplementary Note 12) The response means includes display means for displaying information corresponding to the recognized event at a corresponding position of the contacted object, and the response means is contact of the contact object by an event different from the first event. When the position is detected, a process for causing a change visually different from the response determined according to the first event is performed on the position on the display unit corresponding to the position touched by the contact object 7 To 11. The information processing system according to any one of
(付記13)第1の事象に応じて定められた応答には、当該第1の事象が検出された接触位置に対応する表示手段の位置にポインタを表示する処理を含む付記7から付記12のうちのいずれか1つに記載の情報処理システム。 (Supplementary note 13) The response determined according to the first event includes processing for displaying a pointer at the position of the display means corresponding to the contact position where the first event is detected. The information processing system as described in any one of them.
(付記14)第1の事象に応じて定められた応答には、当該第1の事象が検出された接触位置に対応する表示手段の位置にメニューを表示する処理を含む付記7から付記13のうちのいずれか1つに記載の情報処理システム。 (Supplementary Note 14) The response determined according to the first event includes a process of displaying a menu at the position of the display unit corresponding to the contact position where the first event is detected. The information processing system as described in any one of them.
(付記15)第1の事象に応じて定められた応答には、当該第1の事象が検出された接触位置に対応する表示手段の位置に表示されたオブジェクトを選択したことを示す処理を含む付記7から付記14のうちのいずれか1つに記載の情報処理システム。 (Supplementary Note 15) The response determined according to the first event includes processing indicating that the object displayed at the position of the display unit corresponding to the contact position where the first event is detected is selected. The information processing system according to any one of appendix 7 to appendix 14.
(付記16)応答手段は、接触物が接触した位置に対応する表示手段上の位置を、他の表示位置とは異なる色で表示することにより、第1の事象に応じて定められた応答とは視覚的に異なる変化を生じさせる付記12から付記15のうちのいずれか1つに記載の情報処理システム。 (Supplementary Note 16) The response means displays the position on the display means corresponding to the position touched by the contact object in a color different from the other display positions, thereby determining the response determined according to the first event. Is the information processing system according to any one of supplementary notes 12 to 15, which causes a visually different change.
(付記17)応答手段は、接触物が接触した位置に対応する表示手段上の位置を、他の表示位置とは異なる明度で表示することにより、第1の事象に応じて定められた応答とは視覚的に異なる変化を生じさせる付記12から付記16のうちのいずれか1つに記載の情報処理システム。 (Supplementary Note 17) The response means displays the position on the display means corresponding to the position touched by the contact object with a lightness different from that of the other display positions, thereby determining the response determined according to the first event. Is the information processing system according to any one of supplementary notes 12 to 16, which causes a visually different change.
(付記18)操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体に対し、当該接触物が接触する接触位置及び当該接触物の接触領域を時間の経過とともに検出し、前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が前記距離を超えた事象を第2の事象と認識し、認識された事象を表す情報を他の装置に出力し、前記事象を表す情報を他の装置に出力する際、前記第1の事象が認識された場合には、当該第1の事象を示す情報であって、前記第2の事象を示す情報とは異なる情報を、他の装置に出力することを特徴とする操作認識方法。 (Additional remark 18) With respect to the contacted object contacted by the contact object which an operator contacts, or the contact object apply | coated by an operator, the contact position and the contact area of the said contact object which contact the said contact object with progress of time Detecting, when the area of the contact area increases or decreases over time, recognizes an event in which a change in area position representing the position of the contact area is within a predetermined distance as a first event, When an event in which the change in the region position exceeds the distance is recognized as a second event, information representing the recognized event is output to another device, and information representing the event is output to another device When the first event is recognized, information indicating the first event and information different from the information indicating the second event is output to another device, Operation recognition method to do.
(付記19)接触物により散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出する付記18記載の操作認識方法。 (Additional remark 19) The operation recognition method of Additional remark 18 which detects the contact area | region of the contact object with respect to a to-be-contacted object by measuring the light scattered by a contact object.
(付記20)操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体に対し、当該接触物が接触する接触位置及び当該接触物の接触領域を時間の経過とともに検出し、前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が前記距離を超えた事象を第2の事象と認識し、認識された事象に応じて、予め定められた応答を行い、前記応答を行う際、前記第1の事象が認識された場合には、当該第1の事象に応じて定められた応答であって、前記第2の事象に応じて定められた応答とは異なる応答を行うことを特徴とする情報処理方法。 (Supplementary note 20) The contact position and the contact area of the contact object with the contact object contacted by the contact object contacted by the operator or the contact object applied by the operator and the contact area of the contact object over time Detecting, when the area of the contact area increases or decreases over time, recognizes an event in which a change in area position representing the position of the contact area is within a predetermined distance as a first event, An event in which the change in the region position exceeds the distance is recognized as a second event, a predetermined response is made according to the recognized event, and when the response is made, the first event is recognized If so, an information processing method characterized in that a response determined according to the first event and a response different from the response determined according to the second event is performed.
(付記21)接触物により散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出する付記20記載の操作認識方法。 (Supplementary note 21) The operation recognition method according to supplementary note 20, wherein the contact area of the contact object with respect to the contacted object is detected by measuring light scattered by the contact object.
(付記22)操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体を備えたコンピュータに適用される操作認識プログラムであって、前記コンピュータに、前記被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出処理、前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が前記距離を超えた事象を第2の事象と認識する認識処理、および、認識された事象を表す情報を他の装置に出力する事象出力処理を実行させ、前記事象出力処理で、前記第1の事象が認識された場合には、当該第1の事象を示す情報であって、前記第2の事象を示す情報とは異なる情報を、他の装置に出力させるための操作認識プログラム。 (Additional remark 22) The operation recognition program applied to the computer provided with the to-be-contacted object contacted by the contact thing which an operator contacts, or the contact thing apply | coated by the operator, Comprising: The said to-be-contacted object is applied to the said computer Contact position detection processing for detecting the contact position and contact area of the contact object with respect to time, and when the area of the contact area increases or decreases with time, the change of the area position representing the position of the contact area is changed Recognition processing for recognizing an event within a predetermined distance as a first event, recognizing an event in which the change in the region position exceeds the distance as a second event, and information representing the recognized event If the first event is recognized in the event output process, information indicating the first event is output. The information different from the second information indicating an event, operation recognition program for output to another device.
(付記23)接触位置検出処理で、接触物により散乱される光を測定させることにより、被接触体に対する接触物の接触領域を検出させる付記22記載の操作認識プログラム。 (Additional remark 23) The operation recognition program of Additional remark 22 which detects the contact area | region of the contact object with respect to a to-be-contacted object by measuring the light scattered by a contact object in a contact position detection process.
本発明は、タッチ操作を認識可能な操作認識装置に好適に適用される。 The present invention is preferably applied to an operation recognition device that can recognize a touch operation.
1 操作応答部
2 操作認識部
10 操作認識装置
11 被接触体
12 光源部
13 検出部
14 利用者の指
15 塗布具
16 塗布物
20 情報処理システム
21 表示部
22 スクリーン
23 プロジェクタ
f1〜f7 画像フレーム
d1,d2 差分画像
DESCRIPTION OF
Claims (10)
前記被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出手段と、
前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が当該距離を超えた事象を第2の事象と認識する認識手段と、
認識された事象を表す情報を他の装置に出力する事象出力手段とを備え、
前記事象出力手段は、前記第1の事象が認識された場合に、当該第1の事象を示す情報であって、前記第2の事象を示す情報とは異なる情報を、他の装置に出力する
ことを特徴とする操作認識装置。 A contacted object that is contacted by a contact object that the operator contacts or a contact object that is applied by the operator;
A contact position detecting means for detecting a contact position and a contact area of a contact object with respect to the contacted object over time;
When the area of the contact region increases or decreases over time, an event in which a change in the region position representing the position of the contact region is within a predetermined distance is recognized as a first event, and the region position Recognizing means for recognizing an event in which the change in the distance exceeds the distance as a second event;
An event output means for outputting information representing the recognized event to another device;
The event output means outputs information indicating the first event, which is different from the information indicating the second event, to another device when the first event is recognized. An operation recognition device characterized by that.
請求項1記載の操作認識装置。 The operation recognition apparatus according to claim 1, wherein the contact position detection unit detects a contact area of the contact object with respect to the contacted object by measuring light scattered by the contact object.
接触位置検出手段は、前記被接触体に対して接触物が接触することに伴い散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出する
請求項1または請求項2記載の操作認識装置。 The contacted body has a structure capable of guiding light inside, and light is incident on the inside of the contacted body.
The contact position detecting means detects a contact area of the contact object with respect to the contacted object by measuring light scattered when the contact object comes into contact with the contacted object. The operation recognition device described.
請求項1から請求項3のうちのいずれか1項に記載の操作認識装置。 The operation recognition apparatus according to any one of claims 1 to 3, wherein the contact position detection unit detects contact by a part of a human body.
請求項1から請求項4のうちのいずれか1項に記載の操作認識装置。 The operation recognition apparatus according to any one of claims 1 to 4, wherein the contact position detection means detects contact of a substance that can be applied to the contacted body.
請求項1から請求項5のうちのいずれか1項に記載の操作認識装置。 The event output means outputs information indicating a contact state of the contact object to another device when the contact of the contact object due to an event different from the first event is detected. The operation recognition apparatus of any one of Claims.
前記被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出手段と、
前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が前記距離を超えた事象を第2の事象と認識する認識手段と、
認識された事象に応じて、予め定められた応答を行う応答手段とを備え、
前記応答手段は、前記第1の事象が認識された場合に、当該第1の事象に応じて定められた応答であって、前記第2の事象に応じて定められた応答とは異なる応答を行う
ことを特徴とする情報処理システム。 A contacted object that is contacted by a contact object that the operator contacts or a contact object that is applied by the operator;
A contact position detecting means for detecting a contact position and a contact area of a contact object with respect to the contacted object over time;
When the area of the contact region increases or decreases over time, an event in which a change in the region position representing the position of the contact region is within a predetermined distance is recognized as a first event, and the region position Recognizing means for recognizing an event in which the change of the distance exceeds the distance as a second event;
Response means for performing a predetermined response according to the recognized event,
When the first event is recognized, the response means is a response determined according to the first event, and is different from the response determined according to the second event. An information processing system characterized by doing.
前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が前記距離を超えた事象を第2の事象と認識し、
認識された事象を表す情報を他の装置に出力し、
前記事象を表す情報を他の装置に出力する際、前記第1の事象が認識された場合には、当該第1の事象を示す情報であって、前記第2の事象を示す情報とは異なる情報を、他の装置に出力する
ことを特徴とする操作認識方法。 Detecting the contact position of the contact object and the contact area of the contact object over time with respect to the contact object contacted by the contact object contacted by the operator or the contact object applied by the operator, and the contact area of the contact object over time,
When the area of the contact region increases or decreases over time, an event in which a change in the region position representing the position of the contact region is within a predetermined distance is recognized as a first event, and the region position An event where the change in the distance exceeds the distance is recognized as a second event,
Output information representing the recognized event to another device,
When the information representing the event is output to another device, if the first event is recognized, the information indicating the first event is the information indicating the second event. An operation recognition method characterized by outputting different information to another device.
前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が前記距離を超えた事象を第2の事象と認識し、
認識された事象に応じて、予め定められた応答を行い、
前記応答を行う際、前記第1の事象が認識された場合には、当該第1の事象に応じて定められた応答であって、前記第2の事象に応じて定められた応答とは異なる応答を行う
ことを特徴とする情報処理方法。 Detecting the contact position of the contact object and the contact area of the contact object over time with respect to the contact object contacted by the contact object contacted by the operator or the contact object applied by the operator, and the contact area of the contact object over time,
When the area of the contact region increases or decreases over time, an event in which a change in the region position representing the position of the contact region is within a predetermined distance is recognized as a first event, and the region position An event where the change in the distance exceeds the distance is recognized as a second event,
Depending on the recognized event, perform a predetermined response,
When performing the response, if the first event is recognized, the response is determined according to the first event and is different from the response determined according to the second event. An information processing method characterized by performing a response.
前記コンピュータに、
前記被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出処理、
前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が前記距離を超えた事象を第2の事象と認識する認識処理、および、
認識された事象を表す情報を他の装置に出力する事象出力処理を実行させ、
前記事象出力処理で、前記第1の事象が認識された場合には、当該第1の事象を示す情報であって、前記第2の事象を示す情報とは異なる情報を、他の装置に出力させる
ための操作認識プログラム。 An operation recognition program applied to a computer provided with a contacted object to be contacted by a contact object to be contacted by an operator or a contact object applied by the operator,
In the computer,
A contact position detection process for detecting a contact position and a contact area of a contact object with respect to the contacted object over time;
When the area of the contact region increases or decreases over time, an event in which a change in the region position representing the position of the contact region is within a predetermined distance is recognized as a first event, and the region position A recognition process for recognizing an event in which the change in the distance exceeds the distance as a second event; and
Causing event output processing to output information representing the recognized event to another device;
When the first event is recognized in the event output process, information indicating the first event and information different from the information indicating the second event is sent to another device. Operation recognition program for output.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010108009A JP2011237962A (en) | 2010-05-10 | 2010-05-10 | Operation recognition device, information processing system, operation recognition method and operation recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010108009A JP2011237962A (en) | 2010-05-10 | 2010-05-10 | Operation recognition device, information processing system, operation recognition method and operation recognition program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011237962A true JP2011237962A (en) | 2011-11-24 |
Family
ID=45325881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010108009A Pending JP2011237962A (en) | 2010-05-10 | 2010-05-10 | Operation recognition device, information processing system, operation recognition method and operation recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011237962A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014048692A (en) * | 2012-08-29 | 2014-03-17 | Kyocera Corp | Input device and portable communication terminal |
JP2014078069A (en) * | 2012-10-09 | 2014-05-01 | Sharp Corp | Touch panel input device |
-
2010
- 2010-05-10 JP JP2010108009A patent/JP2011237962A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014048692A (en) * | 2012-08-29 | 2014-03-17 | Kyocera Corp | Input device and portable communication terminal |
JP2014078069A (en) * | 2012-10-09 | 2014-05-01 | Sharp Corp | Touch panel input device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8633906B2 (en) | Operation control apparatus, operation control method, and computer program | |
TWI479369B (en) | Computer-storage media and method for virtual touchpad | |
EP3232315B1 (en) | Device and method for providing a user interface | |
US10007382B2 (en) | Information processing apparatus and information processing method | |
US9146676B2 (en) | Method and apparatus for notifying a user about a manipulation region on the back surface of the apparatus | |
CN102004593B (en) | Information processing apparatus, information processing method and program | |
US9448714B2 (en) | Touch and non touch based interaction of a user with a device | |
US20130201139A1 (en) | User interface apparatus and mobile terminal apparatus | |
US20100302144A1 (en) | Creating a virtual mouse input device | |
KR20160073359A (en) | Apparatus and method for providing user interface, and computer-readable recording medium recording the same | |
US20100225604A1 (en) | Information processing apparatus, threshold value setting method, and threshold value setting program | |
US20100259493A1 (en) | Apparatus and method recognizing touch gesture | |
US9317130B2 (en) | Visual feedback by identifying anatomical features of a hand | |
US20090267919A1 (en) | Multi-touch position tracking apparatus and interactive system and image processing method using the same | |
TW201040850A (en) | Gesture recognition method and interactive input system employing same | |
TWI463355B (en) | Signal processing apparatus, signal processing method and selecting method of user-interface icon for multi-touch interface | |
CA2481396A1 (en) | Gesture recognition method and touch system incorporating the same | |
US20180059806A1 (en) | Information processing device, input control method for controlling input to information processing device, and computer-readable storage medium storing program for causing information processing device to perform input control method | |
JP2011237962A (en) | Operation recognition device, information processing system, operation recognition method and operation recognition program | |
JP6028320B2 (en) | Contact detection device, recording display device, and program | |
EP4379521A1 (en) | Writing/drawing content display method and related device | |
TWI479363B (en) | Portable computer having pointing function and pointing system | |
KR20110132076A (en) | System for controling non-contact screen and method for controling non-contact screen in the system | |
TWI434205B (en) | Electronic apparatus and related control method | |
US10175825B2 (en) | Information processing apparatus, information processing method, and program for determining contact on the basis of a change in color of an image |