JP2011237962A - Operation recognition device, information processing system, operation recognition method and operation recognition program - Google Patents

Operation recognition device, information processing system, operation recognition method and operation recognition program Download PDF

Info

Publication number
JP2011237962A
JP2011237962A JP2010108009A JP2010108009A JP2011237962A JP 2011237962 A JP2011237962 A JP 2011237962A JP 2010108009 A JP2010108009 A JP 2010108009A JP 2010108009 A JP2010108009 A JP 2010108009A JP 2011237962 A JP2011237962 A JP 2011237962A
Authority
JP
Japan
Prior art keywords
contact
event
contacted
recognized
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010108009A
Other languages
Japanese (ja)
Inventor
Kayahito Sekiya
かや人 関谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010108009A priority Critical patent/JP2011237962A/en
Publication of JP2011237962A publication Critical patent/JP2011237962A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an operation recognition device capable of improving the recognition accuracy of operations on a body to be contacted.SOLUTION: A body to be contacted 80 is contacted by a contact object which is made to contact or applied by an operator. Contact position detection means 81 detects a position and an area where the contact object contacts a body to be contacted, according to passage of time. Recognition means 82 recognizes an event in which a change of an area position showing the location of the contact area is within the predefined length as a first event, and an event in which the change of the area position exceeds the predefined length as a second event, if a dimension of the contact area increases or decreases as time passes. Event output means 83 outputs information showing the recognized event to other devices. And the event output means 83 outputs information showing the first event and showing an event other than the second event to other devices, if the first event is recognized.

Description

本発明は、操作認識装置、情報処理システム、操作認識方法、情報処理方法および操作認識プログラムに関し、特に、タッチ操作を認識可能な操作認識装置、情報処理システム、操作認識方法、情報処理方法および操作認識プログラムに関する。   The present invention relates to an operation recognition device, an information processing system, an operation recognition method, an information processing method, and an operation recognition program, and in particular, an operation recognition device capable of recognizing a touch operation, an information processing system, an operation recognition method, an information processing method, and an operation. It relates to recognition programs.

表示された画面を押すこと(以下、タッチ操作)で機器をコントロールできるタッチパネルは、操作が直感的に理解しやすいなどの理由から、銀行の現金自動預け払い機など不特定多数の人物が利用するシステムを中心に幅広く利用されている。   The touch panel that can control the device by pressing the displayed screen (hereinafter referred to as touch operation) is used by an unspecified number of people such as automated teller machines at banks because the operation is intuitive and easy to understand. Widely used mainly in systems.

タッチパネルは、通常、液晶パネルのような表示装置と、利用者の触れた位置を検出する装置(以下、位置認識装置と記す)とを組み合わせることで実現される。位置認識装置としては様々なものが存在するが、代表的なものとして、抵抗膜方式、静電容量方式、光学式の装置が挙げられる。   The touch panel is usually realized by combining a display device such as a liquid crystal panel and a device that detects a position touched by a user (hereinafter referred to as a position recognition device). There are various types of position recognition devices, but typical examples include a resistance film method, a capacitance method, and an optical device.

抵抗膜方式では、表示画面を形成するガラスと、そのガラスとわずかな間隔で取り付けたフィルムの双方に導通性の薄膜が貼り付けられた装置が用いられる。この方式では、利用者の指などが押下することによって通電する場所を感知することで、利用者の触れた位置を検出する。   In the resistance film method, an apparatus is used in which a conductive thin film is attached to both a glass forming a display screen and a film attached to the glass at a slight interval. In this method, a position touched by a user is detected by sensing a place where power is supplied when the finger of the user is pressed.

静電容量方式では、指先と導電膜との間に発生する静電容量の変化を捉えることにより、利用者の触れた位置を検出する。また、光学式では、光源より発せられ、利用者の指などにより散乱される光、または遮断されて光の届かない部分をカメラなどで撮影することにより、利用者の触れた位置を検出する。また、機構を工夫することにより、複数の指による接触を同時に検出したり、接触面積を検出したりする装置も一部に存在する。   In the capacitance method, a position touched by a user is detected by capturing a change in capacitance generated between the fingertip and the conductive film. Further, in the optical system, a position touched by the user is detected by photographing a light emitted from a light source and scattered by a user's finger or the like, or a portion that is blocked and does not reach the light with a camera or the like. There are also some devices that detect a contact by a plurality of fingers at the same time or detect a contact area by devising a mechanism.

なお、位置検出装置にて検出可能な物体の種類は、一般に、その装置で採用されているセンサに依存する。検出可能な物体の種類も様々であり、例えば、その原理によって人体を検出可能なセンサや、人体以外にもスタイラスと呼ばれるペン状器具を検出可能なセンサなども存在する。   Note that the types of objects that can be detected by the position detection device generally depend on the sensor employed in the device. There are various types of objects that can be detected. For example, there are sensors that can detect a human body based on the principle, sensors that can detect a pen-like instrument called a stylus in addition to a human body, and the like.

例えば、光学式タッチパネルの一方式として、Frustrated Total Internal Reflection方式(以下、FTIR方式と記す。)を利用したタッチパネルが知られている(特許文献1参照)。特許文献1に記載された方式では、平面アクリルパネルなど、導波路内に全反射条件を満たすように光が入射される。そして、導波路に指などの物体が接触すると、その物体の接触位置で導波路内の光の一部が散乱される。そこで、この光の一部が散乱される現象を、例えば、カメラなどのイメージセンサを用いて捉えることで、タッチ操作およびその接触位置が検出できる。   For example, a touch panel using a Frustrated Total Internal Reflection method (hereinafter referred to as FTIR method) is known as one method of an optical touch panel (see Patent Document 1). In the method described in Patent Document 1, light enters a waveguide such as a flat acrylic panel so as to satisfy the total reflection condition. When an object such as a finger contacts the waveguide, part of the light in the waveguide is scattered at the contact position of the object. Therefore, by detecting the phenomenon in which a part of the light is scattered using an image sensor such as a camera, for example, the touch operation and the contact position can be detected.

また、特許文献2には、タッチ操作入力装置が記載されている。特許文献2に記載された入力装置では、単位時間あたりの接触面積の増加量が設定された傾度閾値よりも多い場合に、操作面に対して確定操作がなされたと判断する。   Patent Document 2 describes a touch operation input device. In the input device described in Patent Document 2, when the amount of increase in the contact area per unit time is larger than the set gradient threshold, it is determined that the confirmation operation has been performed on the operation surface.

米国特許出願公開第2008/179507号明細書US Patent Application Publication No. 2008/179507 特開2006−209684号公報(段落0007)JP 2006-209684 A (paragraph 0007)

一方、タッチ操作の検知を意図しているにもかかわらず、タッチ操作以外のセンサ入力が原因で、その入力がタッチ操作と誤認識されてしまう場合も多く存在する。例えば、特許文献1に記載された方法では、タッチ操作以外の理由により導波路内の光が散乱された場合、それをタッチ操作と誤認識する可能性がある。例えば、導波路上に光を散乱する何らかの物質が付着している場合、特許文献1に記載された方法では、利用者が指の接触を恒常的に保持した状態にあると誤判定してしまう。   On the other hand, there are many cases where the input is erroneously recognized as a touch operation due to a sensor input other than the touch operation despite the intention of detecting the touch operation. For example, in the method described in Patent Document 1, when light in the waveguide is scattered for reasons other than the touch operation, there is a possibility that it is erroneously recognized as a touch operation. For example, if any substance that scatters light is attached to the waveguide, the method described in Patent Document 1 erroneously determines that the user is in a state of constantly holding finger contact. .

なお、特許文献1には、このような誤判定を低減する方法として、タッチ操作以外の操作でセンサ入力が生じないようにする技術が開示されている。特許文献1では、指の接触以外に光を散乱する現象として、皮脂の付着を例に挙げている。特許文献1に記載された方法では、薄い樹脂シートなどにより導波路を覆うことで、皮脂の付着を防いでいる。   Patent Document 1 discloses a technique for preventing sensor input from being generated by an operation other than a touch operation as a method for reducing such erroneous determination. In patent document 1, the adhesion of sebum is mentioned as an example as a phenomenon which scatters light other than finger contact. In the method described in Patent Document 1, sebum adhesion is prevented by covering the waveguide with a thin resin sheet or the like.

具体的には、樹脂シートと導波路の間には狭い空気のギャップ層が設けられており、指などの押下に伴う物理的な力により樹脂シートが導波路に触れることで、導波路内の光が散乱される。この構成の場合、利用者が導波路に直接触れることがない。そのため、導波路に皮脂などの物質が付着することを防止できる。   Specifically, a narrow air gap layer is provided between the resin sheet and the waveguide, and when the resin sheet touches the waveguide by a physical force accompanying pressing of a finger or the like, Light is scattered. In this configuration, the user does not directly touch the waveguide. Therefore, it is possible to prevent substances such as sebum from adhering to the waveguide.

上記のようなタッチ操作以外の操作によるセンサ入力を遮断する方法は、タッチ操作以外のセンサ入力がシステムに不要な入力情報(皮脂のような雑音入力)の場合は効果的に動作する。しかしながら、多くの場合、タッチ操作以外の操作を利用者が意図的に行い、それをタッチ操作とは別の入力情報として取り扱いたい場合も多い。例えば、塗布具による塗布物の塗布操作に伴う塗布物の付着位置と、タッチ操作に伴う指の接触位置を同時に検知するセンサにより、塗布操作とタッチ操作を同時に検出するシステムの場合、塗布物の付着を防止する方法は利用できない。   The above-described method for blocking sensor input by operations other than touch operation works effectively when sensor input other than touch operation is input information (noise input such as sebum) unnecessary for the system. However, in many cases, the user intentionally performs an operation other than the touch operation, and often wants to handle it as input information different from the touch operation. For example, in the case of a system that simultaneously detects a coating operation and a touch operation by a sensor that simultaneously detects a position where a coating material is attached in accordance with a coating operation of the coating material and a finger contact position associated with a touch operation. No method for preventing adhesion is available.

これに対し、特許文献2では、単位時間あたりの接触面積の増加量により操作面に対して確定操作(タッチ操作)がなされたと判断する方法が開示されている。しかしながら、タッチ操作以外の操作においても、単位時間あたりの接触面積の増加が生じる操作は多い。例えば、上記塗布操作の場合、塗布具により塗布物を塗布するに伴い、塗布物の付着面積が増加するため、センサにより検出される接触面積はやはり増加する。すなわち、塗布物を塗布する際の操作と、タッチ操作とは酷似している。そのため、塗布操作を行ったにもかかわらず、その操作が、タッチ操作と誤認識されることも多い。   On the other hand, Patent Document 2 discloses a method for determining that a confirmation operation (touch operation) has been performed on the operation surface based on an increase in the contact area per unit time. However, even in operations other than touch operations, there are many operations that cause an increase in contact area per unit time. For example, in the case of the application operation, as the application object is applied by the application tool, the adhesion area of the application object increases, so that the contact area detected by the sensor also increases. In other words, the operation for applying the applied product is very similar to the touch operation. Therefore, even though the application operation is performed, the operation is often mistakenly recognized as a touch operation.

そこで、本発明は、被接触体に対する操作の認識精度を向上できる操作認識装置、情報処理システム、操作認識方法、情報処理方法および操作認識プログラムを提供することを目的とする。   Accordingly, an object of the present invention is to provide an operation recognition device, an information processing system, an operation recognition method, an information processing method, and an operation recognition program that can improve the recognition accuracy of an operation on a contacted object.

本発明による操作認識装置は、操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体と、被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出手段と、接触領域の面積が時間の経過とともに増加又は減少する場合において、接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、領域位置の変化がその距離を超えた事象を第2の事象と認識する認識手段と、認識された事象を表す情報を他の装置に出力する事象出力手段とを備え、事象出力手段が、第1の事象が認識された場合に、その第1の事象を示す情報であって、第2の事象を示す情報とは異なる情報を、他の装置に出力することを特徴とする。   The operation recognizing device according to the present invention shows a contacted body that is contacted by a contact object that is contacted by an operator or a contact object that is applied by the operator, and a contact position and a contact area of the contact object with respect to the contacted object as time passes. When the contact position detecting means to detect and the area of the contact area increases or decreases with the passage of time, an event in which a change in the area position representing the position of the contact area is within a predetermined distance is referred to as a first event. Recognizing means for recognizing and recognizing an event in which the change of the region position exceeds the distance as a second event, and an event output means for outputting information representing the recognized event to another device, the event output means However, when the first event is recognized, the information indicating the first event, which is different from the information indicating the second event, is output to another device.

本発明による情報処理システムは、操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体と、被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出手段と、接触領域の面積が時間の経過とともに増加又は減少する場合において、接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、領域位置の変化が距離を超えた事象を第2の事象と認識する認識手段と、認識された事象に応じて、予め定められた応答を行う応答手段とを備え、応答手段が、第1の事象が認識された場合に、その第1の事象に応じて定められた応答であって、第2の事象に応じて定められた応答とは異なる応答を行うことを特徴とする。   According to the information processing system of the present invention, the contacted body that is contacted by the contact object that the operator makes contact with or the contact object that is applied by the operator, and the contact position and the contact area of the contact object with respect to the contacted object are displayed with time. When the contact position detecting means to detect and the area of the contact area increases or decreases with the passage of time, an event in which a change in the area position representing the position of the contact area is within a predetermined distance is referred to as a first event. Recognizing means for recognizing an event in which the change of the region position exceeds the distance as a second event, and responding means for performing a predetermined response according to the recognized event, the response means comprising: When the first event is recognized, the response is determined according to the first event, and is different from the response determined according to the second event.

本発明による操作認識方法は、操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体に対し、その接触物が接触する接触位置及びその接触物の接触領域を時間の経過とともに検出し、接触領域の面積が時間の経過とともに増加又は減少する場合において、接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、領域位置の変化が距離を超えた事象を第2の事象と認識し、認識された事象を表す情報を他の装置に出力し、事象を表す情報を他の装置に出力する際、第1の事象が認識された場合には、その第1の事象を示す情報であって、第2の事象を示す情報とは異なる情報を、他の装置に出力することを特徴とする。   In the operation recognition method according to the present invention, the contact position of the contact object and the contact area of the contact object with respect to the contact object contacted by the contact object contacted by the operator or the contact object applied by the operator are determined. When the area of the contact area is detected with the passage of time and increases or decreases with the passage of time, an event in which the change of the area position representing the position of the contact area is within a predetermined distance is recognized as the first event. When the event where the change in the region position exceeds the distance is recognized as the second event, the information indicating the recognized event is output to the other device, and the information indicating the event is output to the other device. When one event is recognized, information indicating the first event, which is different from the information indicating the second event, is output to another device.

本発明による情報処理方法は、操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体に対し、その接触物が接触する接触位置及びその接触物の接触領域を時間の経過とともに検出し、接触領域の面積が時間の経過とともに増加又は減少する場合において、接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、領域位置の変化が距離を超えた事象を第2の事象と認識し、認識された事象に応じて、予め定められた応答を行い、応答を行う際、第1の事象が認識された場合には、その第1の事象に応じて定められた応答であって、第2の事象に応じて定められた応答とは異なる応答を行うことを特徴とする。   According to the information processing method of the present invention, the contact position and the contact area of the contact object contacted by the contact object contacted by the contact object contacted by the operator or the contact object applied by the operator are determined. When the area of the contact area is detected with the passage of time and increases or decreases with the passage of time, an event in which the change of the area position representing the position of the contact area is within a predetermined distance is recognized as the first event. Then, an event in which the change in the region position exceeds the distance is recognized as a second event, a predetermined response is made according to the recognized event, and when the response is made, the first event is recognized In some cases, the response is determined according to the first event and is different from the response determined according to the second event.

本発明による操作認識プログラムは、操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体を備えたコンピュータに適用される操作認識プログラムであって、コンピュータに、被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出処理、接触領域の面積が時間の経過とともに増加又は減少する場合において、接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、領域位置の変化が距離を超えた事象を第2の事象と認識する認識処理、および、認識された事象を表す情報を他の装置に出力する事象出力処理を実行させ、事象出力処理で、第1の事象が認識された場合には、その第1の事象を示す情報であって、第2の事象を示す情報とは異なる情報を、他の装置に出力させることを特徴とする。   An operation recognition program according to the present invention is an operation recognition program applied to a computer including a contacted body that is contacted by a contact object that is touched by an operator or a contact object that is applied by the operator. Contact position detection processing for detecting the contact position and contact area of a contact object with respect to the contact body with the passage of time. When the area of the contact area increases or decreases with the passage of time, a change in the area position representing the position of the contact area occurs. Recognition processing that recognizes an event that is within a predetermined distance as a first event, recognizes an event in which the change in the region position exceeds the distance as a second event, and other information that represents the recognized event When the first event is recognized in the event output process, the information indicating the first event is the second The information different from the information indicative of the elephant, characterized thereby output to another device.

本発明によれば、被接触体に対する操作の認識精度を向上できる。   According to the present invention, it is possible to improve the recognition accuracy of an operation on a contacted object.

本発明による操作認識装置の一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of the operation recognition apparatus by this invention. 被接触体11に光源部12の光が入射された状態の例を示す説明図である。It is explanatory drawing which shows the example of the state in which the light of the light source part 12 entered into the to-be-contacted body 11. 被接触体11の表面における光の反射状態の例を示す説明図である。It is explanatory drawing which shows the example of the reflection state of the light in the surface of the to-be-contacted body. 画像フレームの例を示す説明図である。It is explanatory drawing which shows the example of an image frame. タッチ操作を行った際、接触面積及び領域の位置の変化例を示すグラフである。It is a graph which shows the example of a change of a contact area and the position of an area | region when touch operation is performed. 操作認識部2が行う処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which the operation recognition part 2 performs. 各時点における画像フレームの例を示す説明図である。It is explanatory drawing which shows the example of the image frame in each time. 差分画像の例を示す説明図である。It is explanatory drawing which shows the example of a difference image. 画像フレームと差分画像との関係例を示す説明図である。It is explanatory drawing which shows the example of a relationship between an image frame and a difference image. 本発明による情報処理システムの一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of the information processing system by this invention. 操作応答部1が行う処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which the operation response part 1 performs. 被接触体11に対する操作及び表示部21に対する表示の例を示す説明図である。It is explanatory drawing which shows the example of operation with respect to the to-be-contacted body 11, and the display with respect to the display part. 本発明による操作認識装置の最小構成の例を示すブロック図である。It is a block diagram which shows the example of the minimum structure of the operation recognition apparatus by this invention. 本発明による情報処理システムの最小構成の例を示すブロック図である。It is a block diagram which shows the example of the minimum structure of the information processing system by this invention.

以下、本発明の実施形態を図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

実施形態1.
図1は、本発明による操作認識装置の一実施形態を示すブロック図である。本実施形態における操作認識装置10は、被接触体11と、光源部12と、検出部13と、操作認識部2とを備えている。操作認識装置10は、操作応答部1に接続される。被接触体11には、利用者の指14などの接触によるタッチ操作や、塗布具15による塗布物16の塗布操作及び除去操作が行われる。なお、利用者の指14のように、被接触体11に接触する物体や、塗布物16のように、被接触体11に塗布される物質を、以降総じて接触物と呼ぶものとする。
Embodiment 1. FIG.
FIG. 1 is a block diagram showing an embodiment of an operation recognition apparatus according to the present invention. The operation recognition device 10 in this embodiment includes a contacted body 11, a light source unit 12, a detection unit 13, and an operation recognition unit 2. The operation recognition device 10 is connected to the operation response unit 1. The touched object 11 is touched by touching the user's finger 14 or the like, or is applied and removed by the applicator 15 with the applicator 16. Note that an object that comes into contact with the contacted object 11 such as the user's finger 14 and a substance that is applied to the contacted object 11 such as the applied object 16 will be hereinafter collectively referred to as a contacted object.

被接触体11は、塗布物16を塗布したり、拭き取ったりすることが可能な透明平面板であり、例えば、アクリルなどの樹脂板により実現される。   The to-be-contacted body 11 is a transparent flat plate that can apply or wipe off the coating 16, and is realized by a resin plate such as acrylic.

光源部12は、可視光領域外の光(例えば、赤外光)が被接触体11内部に導波されるように被接触体11の側面より可視光領域外の光を入射させる。光源部12は、例えば、一直線上に配置された1つ以上の赤外発光ダイオード(LED:Light Emitting Diode)により実現される。   The light source unit 12 causes light outside the visible light region to enter from the side surface of the contacted body 11 so that light outside the visible light region (for example, infrared light) is guided into the contacted body 11. The light source unit 12 is realized by, for example, one or more infrared light emitting diodes (LEDs) arranged in a straight line.

図1に示す例では、光源部12が被接触体11の上下併せて2カ所に配置されている。ただし、光源部12の配置位置は、被接触体11の上下2カ所に限定されない。光源部12は、被接触体11の1辺、または複数の辺に配置されていても良い。   In the example shown in FIG. 1, the light source unit 12 is disposed at two places on the contacted body 11 in the upper and lower portions. However, the arrangement position of the light source unit 12 is not limited to two places above and below the contacted body 11. The light source unit 12 may be disposed on one side or a plurality of sides of the contacted body 11.

検出部13は、被接触体11に対する接触物の接触部分を時間の経過とともに検出する。なお、接触物の接触部分とは、接触物の接触位置と接触している面積によって表わされる情報であるとも言える。検出部13は、光源部12の発する光のうち、被接触体11に接触物が接触することに伴って被接触体11の外部に散乱される光(以下、散乱光)を画像として検出する光学機器である。検出部13は、例えば、電荷結合素子(CCD:Charge Coupled Device)イメージセンサや、相補性金属酸化膜半導体(CMOS:Complementary Metal Oxide Semiconductor)イメージセンサなどの半導体イメージセンサを搭載したカメラにより実現される。   The detection unit 13 detects the contact portion of the contact object with the contacted body 11 over time. In addition, it can be said that the contact part of a contact object is the information represented by the contact area and the contact area of a contact object. The detection unit 13 detects, as an image, light scattered from the contacted body 11 (hereinafter, scattered light) as the contact object comes into contact with the contacted object 11 out of the light emitted from the light source unit 12. It is an optical instrument. The detection unit 13 is realized by a camera equipped with a semiconductor image sensor such as a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor, for example. .

なお、図1では、検出部13が被接触体11上で接触物の接触する面とは反対側の面(背面)に配置されている例を示している。ただし、検出部13が配置される位置は、上記位置に限定されない。検出部13は、接触物の接触する面(前面)に配置されていても良い。   In addition, in FIG. 1, the example which has arrange | positioned the detection part 13 on the surface (back surface) on the opposite side to the surface where a contact thing contacts on the to-be-contacted body 11 is shown. However, the position where the detection unit 13 is arranged is not limited to the above position. The detection part 13 may be arrange | positioned at the surface (front surface) which a contact thing contacts.

塗布具15は、内部に充填されている塗布物16を被接触体11に塗布する構造を有する筆記具である。塗布具15は、例えば、ホワイトボードマーカなどのフェルトペンの容器を用いて実現される。ただし、塗布具15の態様は、フェルトペンの容器に限定されない。   The applicator 15 is a writing instrument having a structure for applying the application 16 filled inside to the contacted body 11. The applicator 15 is realized using, for example, a felt pen container such as a whiteboard marker. However, the mode of the applicator 15 is not limited to the felt pen container.

塗布物16は、被接触体11に塗布したり、拭き取ったりすることが可能な物質である。塗布物16には、光源部12の発する波長領域の光を散乱する物質が成分として含有される。例えば、光源部12に赤外光を使用する場合、塗布物16は、一般的なホワイトボードマーカのインクにより実現される。   The application 16 is a substance that can be applied to the contacted body 11 or wiped off. The coating 16 contains a substance that scatters light in the wavelength region emitted from the light source unit 12 as a component. For example, when infrared light is used for the light source unit 12, the coating 16 is realized by a general whiteboard marker ink.

操作認識部2は、検出部13が検出した散乱光の画像を受け取り、タッチ操作を検出する処理を実行する。タッチ操作を検出する処理において、操作認識部2は、タッチ操作の有無、および、タッチ操作が行われた位置を判定する。具体的には、操作認識部2は、検出部13から接触した部分を示す散乱光の画像を受け取ると、接触している部分の面積が時間の経過とともに変化(増加又は減少)しているか否か判断する。さらに、操作認識部2は、面積が時間とともに変化している場合に、接触物の接触位置がほぼ一定の位置にあるか否か、又は、接触した位置から移動しているか否かを判断する。そして、操作認識部2は、接触面積が変化している場合において、接触物の位置がほぼ一定の位置にある場合に、タッチ操作が行われたと判定する。なお、ほぼ一定の位置にあるか否かは、例えば、予め定められた閾値と比較して判断される。そして、操作認識部2は、判断した結果を表す情報を操作応答部1に出力する。   The operation recognition unit 2 receives the scattered light image detected by the detection unit 13 and executes a process of detecting a touch operation. In the process of detecting the touch operation, the operation recognition unit 2 determines the presence / absence of the touch operation and the position where the touch operation is performed. Specifically, when the operation recognizing unit 2 receives the scattered light image indicating the contacted portion from the detection unit 13, whether or not the area of the contacting portion has changed (increased or decreased) over time. Judge. Further, when the area changes with time, the operation recognition unit 2 determines whether or not the contact position of the contact object is at a substantially constant position or whether or not the contact object has moved from the contact position. . Then, the operation recognition unit 2 determines that the touch operation has been performed when the contact area is changing and the position of the contact object is at a substantially constant position. Whether or not the position is substantially constant is determined, for example, by comparing with a predetermined threshold value. Then, the operation recognition unit 2 outputs information representing the determined result to the operation response unit 1.

操作認識部2は、例えば、外部機器接続用インターフェースが搭載され、汎用のオペレーティングシステム、ドライバソフトウェア、画像処理プログラムが実行される一般的なパーソナルコンピュータ(PC)により実現される。より具体的には、操作認識部2は、プログラム(認識プログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、パーソナルコンピュータや、操作認識装置10の記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、操作認識部2として動作してもよい。   The operation recognition unit 2 is realized by, for example, a general personal computer (PC) on which an external device connection interface is mounted and a general-purpose operating system, driver software, and an image processing program are executed. More specifically, the operation recognition unit 2 is realized by a CPU of a computer that operates according to a program (recognition program). For example, the program may be stored in a personal computer or a storage unit (not shown) of the operation recognition device 10, and the CPU may read the program and operate as the operation recognition unit 2 according to the program.

操作応答部1は、操作認識部2が判断した結果を受信すると、被接触体11に対する接触状態に応じて、予め定められた応答を行う。操作応答部1は、例えば、検知された接触位置に応じた応答を行う。例えば、操作応答部1は、接触位置に応じ、表示装置(図示せず)の画面に、ポインタやメニューを表示してもよい。   When the operation response unit 1 receives the result determined by the operation recognition unit 2, the operation response unit 1 makes a predetermined response according to the contact state with respect to the contacted body 11. For example, the operation response unit 1 makes a response according to the detected contact position. For example, the operation response unit 1 may display a pointer or a menu on the screen of a display device (not shown) according to the contact position.

次に、本実施形態における操作認識装置の動作について説明する。まずは、本実施形態における操作認識装置において、接触物の接触位置および接触面積が検出される原理について説明する。続いて、検出された情報を元にタッチ操作を認識する手順について説明する。   Next, the operation of the operation recognition device in this embodiment will be described. First, the principle by which the contact position and the contact area of the contact object are detected in the operation recognition device according to the present embodiment will be described. Next, a procedure for recognizing a touch operation based on detected information will be described.

まず、光源部12は、被接触体11の側面より可視光領域外の光を入射させる。図2は、被接触体11に光源部12の光が入射された状態の例を示す説明図である。仮に、被接触体11に接触物が接触していなかったものとすると、入射された光は、図2に例示するように、被接触体11の表面で全反射し、内部に閉じこめられて導波する。   First, the light source unit 12 causes light outside the visible light region to enter from the side surface of the contacted body 11. FIG. 2 is an explanatory diagram illustrating an example of a state in which light from the light source unit 12 is incident on the contacted body 11. Assuming that the contact object is not in contact with the contacted body 11, the incident light is totally reflected on the surface of the contacted body 11 and is confined inside and guided as illustrated in FIG. 2. To wave.

検出部13は、定常的に(例えば、毎秒30フレームで)被接触体11の画像を赤外領域にて撮影する。仮に、被接触体11に接触物が接触していなかったものとすると、検出部13が記録する画像は、ほぼ真っ黒な画像になる。これは、光源部12によって発せられる光が、被接触体11の内部に閉じこめられ、検出部13には到達しないためである。   The detection unit 13 regularly captures an image of the contacted object 11 in the infrared region (for example, at 30 frames per second). Assuming that the contact object is not in contact with the contacted body 11, the image recorded by the detection unit 13 is a substantially black image. This is because the light emitted by the light source unit 12 is confined inside the contacted body 11 and does not reach the detection unit 13.

続いて、被接触体11に接触物が接触している場合について説明する。既に述べた通り、代表的な接触物として、ホワイトボードマーカのインクなどの塗布物16や、利用者の指14などが挙げられる。   Then, the case where the contact thing is contacting the to-be-contacted body 11 is demonstrated. As already described, typical contact objects include a coating 16 such as whiteboard marker ink, and a user's finger 14.

図3は、被接触体11の表面における光の反射状態の例を示す説明図である。前述の通り、光源部12より発せられた光は、被接触体11の表面で全反射する。この際、図3のAに例示するように、光は、被接触体11から外部の空気側にわずかに染み出す。なお、この染み出した部分の光は、エバネッセント波と呼ばれる。被接触体11に塗布物16や利用者の指14などの接触物が接触している場合、エバネッセント波は、接触物と光学的に結合する。そして、図3のBまたはCに例示するように、エバネッセント波は、被接触体11の外へ散乱する。   FIG. 3 is an explanatory diagram illustrating an example of a light reflection state on the surface of the contacted body 11. As described above, the light emitted from the light source unit 12 is totally reflected on the surface of the contacted body 11. At this time, as illustrated in FIG. 3A, the light slightly oozes out from the contacted body 11 to the outside air side. In addition, the light of this exuded part is called an evanescent wave. When a contact object such as the coated object 16 or the user's finger 14 is in contact with the contacted object 11, the evanescent wave is optically coupled to the contact object. Then, as illustrated in B or C of FIG. 3, the evanescent wave is scattered outside the contacted body 11.

エバネッセント波は、透明平面板である被接触体11の背面側にも散乱するため、背面側に散乱した光の一部は検出部13に到達し、検出部13は、その光を検出する。図4は、検出部13が検出した画像フレームの例を示す説明図である。図4に例示する画像フレームの左上に白く暗く浮かび上がる「イ」の形状の部分が、被接触体11上で塗布物16が付着した部分である。また、図4に例示する画像フレーム中央の楕円状の部分が、利用者の指14が接触した部分である。このように、検出部13は、接触物が接触した領域を、特定形状の領域として観測する。   Since the evanescent wave is scattered also on the back side of the contacted body 11 that is a transparent flat plate, a part of the light scattered on the back side reaches the detection unit 13 and the detection unit 13 detects the light. FIG. 4 is an explanatory diagram illustrating an example of an image frame detected by the detection unit 13. A portion of the shape of “I” that appears white and dark in the upper left of the image frame illustrated in FIG. 4 is a portion to which the coating material 16 is attached on the contacted body 11. In addition, an elliptical portion at the center of the image frame illustrated in FIG. 4 is a portion in which the user's finger 14 is in contact. In this way, the detection unit 13 observes the area where the contact object is in contact as an area having a specific shape.

操作認識部2は、検出部13が撮影した画像を受け取り、接触物の位置および接触面積を算出する。接触物の位置は画像内で散乱光の検出された領域の座標、接触面積はこの領域に含まれる画素数として定量化される。例えば、操作認識部2は、接触物の接触位置を、画像内で散乱光の検出された領域の座標として定量化する。また、操作認識部2は、接触物の接触面積を、接触した領域に含まれる画素数として定量化する。   The operation recognition unit 2 receives the image taken by the detection unit 13 and calculates the position and contact area of the contact object. The position of the contact object is quantified as the coordinates of the region where the scattered light is detected in the image, and the contact area is quantified as the number of pixels included in this region. For example, the operation recognition unit 2 quantifies the contact position of the contact object as the coordinates of the region where the scattered light is detected in the image. In addition, the operation recognition unit 2 quantifies the contact area of the contact object as the number of pixels included in the contacted area.

以下の説明では、接触物が接触している領域(部分)のことを、領域の位置と表現する。ここで、領域の位置は、領域の重心位置で表わされていてもよく、中心位置(具体的には、各座標軸の最大値と最小値の平均)で表わされていてもよい。検出部13は、各領域の位置を予め定義された方法に基づいて表現すればよい。   In the following description, the area (part) where the contact object is in contact is expressed as the position of the area. Here, the position of the area may be represented by the position of the center of gravity of the area, or may be represented by the center position (specifically, the average of the maximum value and the minimum value of each coordinate axis). The detection part 13 should just represent the position of each area | region based on the method defined beforehand.

言い換えると、面的に有限の広がりを持つ領域に対して位置という表現は、多義的な表現であり、曖昧さを含む。例えば、領域の重心位置を指し示す可能性もあれば、中心位置を指し示す可能性もある。本実施形態における操作認識装置では、位置の定義が処理を通じ一貫していれば、その効果は定義の仕方によらず変わらない。したがって、以降、別途区別した場合を除き、接触物が接触している領域(部分)のことを、領域の位置と表現する。   In other words, the expression of position with respect to a region having a finite spread in terms of surface is an ambiguous expression and includes ambiguity. For example, there is a possibility of indicating the center of gravity position of the region and a possibility of indicating the center position. In the operation recognition apparatus according to the present embodiment, if the definition of the position is consistent throughout the process, the effect does not change regardless of the definition method. Therefore, hereinafter, the area (part) where the contact object is in contact is expressed as the position of the area, unless otherwise distinguished.

以上が被接触体に対する接触物の位置および接触面積の検出原理である。続いて、接触物の位置および接触面積の情報からタッチ操作を認識する手順について説明する。ここで、タッチ操作を認識するための具体的な処理フローを説明する前に、本実施形態における操作認識装置でタッチ操作を検出する原理を概説する。   The above is the detection principle of the position and contact area of the contact object with respect to the contacted body. Next, a procedure for recognizing a touch operation from information on the position of the contact object and the contact area will be described. Here, before explaining a specific processing flow for recognizing a touch operation, the principle of detecting a touch operation by the operation recognition device in the present embodiment will be outlined.

時系列的に大別すると、タッチ操作は、(1)指などの接触物を被接触体に接触するフェーズ(以下、「接触するフェーズ」)、(2)接触物の接触を被接触体に保持するフェーズ(以下、「保持するフェーズ」)、(3)被接触体から接触物を離すフェーズ(以下、「離すフェーズ」)の3つの過程を含んでいる。   When categorized roughly in time series, the touch operation is (1) a phase in which a contact object such as a finger comes into contact with the contacted object (hereinafter referred to as “contact phase”), and (2) contact of the contact object with the contacted object. It includes three processes: a holding phase (hereinafter referred to as “holding phase”), and (3) a phase in which the contact object is released from the contacted object (hereinafter referred to as “leaving phase”).

本実施形態における操作認識装置では、操作認識部2が、上記3つの過程のうち、(1)に示す「接触するフェーズ」を検出することにより、タッチ操作の有無を判断する。ここで、タッチ操作の「接触するフェーズ」において、接触物の接触に伴い光が散乱する領域の面積が、領域の位置はほぼ一定のまま、時間とともに増加するという特性に着目する。すなわち、操作認識部2は、時間とともに変化する領域の面積および位置に基づき、タッチ操作の有無を判断する。   In the operation recognition device in the present embodiment, the operation recognition unit 2 determines the presence or absence of a touch operation by detecting the “contact phase” shown in (1) among the above three processes. Here, in the “contacting phase” of the touch operation, attention is paid to the characteristic that the area of the light scattering region with the contact of the contact object increases with time while the position of the region is substantially constant. That is, the operation recognition unit 2 determines the presence or absence of a touch operation based on the area and position of a region that changes with time.

図5(a)は、タッチ操作を行った際、時間とともに変化する接触面積の例を示すグラフである。また、図5(b)は、タッチ操作を行った際、接触位置と代表位置(すなわち、領域の位置)との距離を時系列で表わした例を示すグラフである。   FIG. 5A is a graph illustrating an example of a contact area that changes with time when a touch operation is performed. FIG. 5B is a graph illustrating an example in which the distance between the contact position and the representative position (that is, the position of the region) is expressed in time series when the touch operation is performed.

図5(a)に例示するように、タッチ操作の初期段階(すなわち、「接触するフェーズ」)では、被接触体との接触面積は0から有限の値まで増加する。そして、保持段階(すなわち、「保持するフェーズ」)では、接触面積はほぼ一定となり、離脱段階(すなわち、「離すフェーズ」)では、接触面積は再び0にまで減少する。   As illustrated in FIG. 5A, in the initial stage of the touch operation (ie, the “contacting phase”), the contact area with the contacted object increases from 0 to a finite value. In the holding stage (ie, “holding phase”), the contact area becomes substantially constant, and in the separation stage (ie, “release phase”), the contact area decreases to zero again.

一方、図5(b)に例示するように、タッチ操作の初期段階から離脱段階まで、接触領域の位置はほとんど変化しない。なお、「接触するフェーズ」および「離すフェーズ」においては、距離がやや大きくなる傾向がある。これは、特に指によるタッチ操作に特徴的な現象であり、通常、接触が指の先から指の中心に向かって行われる特性を表している。ただし、その値は一般的に小さく、位置はほぼ一定であると言える。   On the other hand, as illustrated in FIG. 5B, the position of the contact region hardly changes from the initial stage of the touch operation to the release stage. In the “contact phase” and “release phase”, the distance tends to be slightly larger. This is a phenomenon that is particularly characteristic of a touch operation with a finger, and usually represents a characteristic in which contact is made from the tip of the finger toward the center of the finger. However, the value is generally small and the position can be said to be almost constant.

以降、上述した原理に基づいてタッチ操作を認識する具体的な処理フローについて説明する。なお、本実施形態における操作認識装置では、タッチ操作の認識は、操作認識部2によって行われる。   Hereinafter, a specific processing flow for recognizing a touch operation based on the above-described principle will be described. In the operation recognition device according to this embodiment, the operation recognition unit 2 recognizes the touch operation.

図6は、操作認識部2が行う処理の例を示すフローチャートである。操作認識部2は、まず、時間軸上で連続した画像フレームF1,F2を検出部13より受け取る(ステップS1,S2)。具体的には、操作認識部2は、画像フレームF1を検出部13から受信したか否かを判定する(ステップS1)。画像フレームF1を受信していない場合(ステップS1におけるN)、操作認識部2は、画像フレームを受信するステップS1の処理を繰り返す。一方、画像フレームF1を受信した場合(ステップS1におけるY)、操作認識部2は、画像フレームF2を検出部13から受信したか否かを判定する(ステップS2)。画像フレームF2を受信していない場合(ステップS2におけるN)、操作認識部2は、画像フレームを受信するステップS2の処理を繰り返す。   FIG. 6 is a flowchart illustrating an example of processing performed by the operation recognition unit 2. First, the operation recognizing unit 2 receives image frames F1 and F2 continuous on the time axis from the detecting unit 13 (steps S1 and S2). Specifically, the operation recognition unit 2 determines whether the image frame F1 is received from the detection unit 13 (step S1). When the image frame F1 is not received (N in step S1), the operation recognition unit 2 repeats the process of step S1 for receiving the image frame. On the other hand, when the image frame F1 is received (Y in step S1), the operation recognition unit 2 determines whether the image frame F2 is received from the detection unit 13 (step S2). When the image frame F2 is not received (N in step S2), the operation recognition unit 2 repeats the process of step S2 for receiving the image frame.

画像フレームF1,F2を受け取った場合(ステップS2におけるY)、操作認識部2は、その差分画像D1=F2−F1を算出する(ステップS3)。なお、操作認識部2は、画像差分を算出する際、差分値が負となった画素については、その差分値を0で置き換える。このようにすることで、接触面積が増加した領域のみを抽出できる。操作認識部2は、例えば、画像フレームにおける各画素値を比較して、差分画像を算出してもよい。   When the image frames F1 and F2 are received (Y in step S2), the operation recognition unit 2 calculates the difference image D1 = F2-F1 (step S3). Note that when the operation recognition unit 2 calculates the image difference, the difference value is replaced with 0 for a pixel having a negative difference value. By doing in this way, only the area | region where the contact area increased can be extracted. For example, the operation recognition unit 2 may calculate a difference image by comparing pixel values in an image frame.

図7は、各時点における画像フレームの例を示す説明図である。図7に示す例では、画像フレームf1〜f5の順に時系列で検知されていることを示す。ここで、画像フレームF1が検出された時刻では、接触物が何も接触しておらず、画像フレームF2が検出された時刻では、指によるタッチ操作が開始されていたものとする。   FIG. 7 is an explanatory diagram illustrating an example of an image frame at each time point. In the example illustrated in FIG. 7, it is detected that the image frames f1 to f5 are detected in time series. Here, it is assumed that no contact object is in contact at the time when the image frame F1 is detected, and that a touch operation with a finger is started at the time when the image frame F2 is detected.

この場合、画像フレームF1は、図7(a)に例示する画像フレームf1のように、真っ黒な画像になり、画像フレームF2は、図7(b)に例示する画像フレームf2のようになる。また、差分画像D1も、図7(b)に例示する画像フレームf2のようになる。ここで、画像フレームf2において、白い楕円形上の領域が指の接触している位置に相当する。   In this case, the image frame F1 is a black image like the image frame f1 illustrated in FIG. 7A, and the image frame F2 is the image frame f2 illustrated in FIG. 7B. Further, the difference image D1 is also an image frame f2 illustrated in FIG. Here, in the image frame f2, the area on the white ellipse corresponds to the position where the finger is in contact.

続いて、操作認識部2は、差分画像D1をもとに、散乱光の検出された部分から独立した領域を識別する(ステップS4)。差分画像D1が図7(b)に例示する画像フレームf2の場合、領域は楕円領域1つのみである。そのため、操作認識部2は、この領域を抽出する。   Subsequently, the operation recognizing unit 2 identifies a region independent from the portion where the scattered light is detected based on the difference image D1 (step S4). When the difference image D1 is the image frame f2 illustrated in FIG. 7B, the area is only one elliptical area. Therefore, the operation recognition unit 2 extracts this area.

なお、独立した領域を識別する具体的な方法として、画像処理の分野で一般的に知られているラベリングという処理手法が利用できる。ラベリング処理の詳細については、例えば、以下の参考文献1に記載されているため、ここでの説明は省略する。
[参考文献1]
奈良先端科学技術大学院大学OpenCVプログラミングブック作成チーム著、「OpenCVプログラミングブック」、毎日コミュニケーションズ、2007年9月、p.201−204
As a specific method for identifying independent regions, a processing method called labeling generally known in the field of image processing can be used. The details of the labeling process are described in, for example, Reference Document 1 below, and will not be described here.
[Reference 1]
Nara Institute of Science and Technology OpenCV Programming Book Creation Team, “OpenCV Programming Book”, Mainichi Communications, September 2007, p. 201-204

続いて、操作認識部2は、識別された各領域の位置を計算する(ステップS5)。ここでは、操作認識部2は、各領域の位置として、領域の中心位置の座標を計算するものとする。そして、操作認識部2は、計算した位置座標(Xi,Yi)(ただし、i=1〜N;Nは識別された領域数。本例ではN=1。)を、後続の処理のためにメモリ(図示せず)へ記憶させる(ステップS6)。   Subsequently, the operation recognition unit 2 calculates the position of each identified area (step S5). Here, the operation recognition part 2 shall calculate the coordinate of the center position of an area | region as a position of each area | region. Then, the operation recognizing unit 2 uses the calculated position coordinates (Xi, Yi) (where i = 1 to N; N is the number of identified areas. In this example, N = 1) for subsequent processing. The data is stored in a memory (not shown) (step S6).

図8は、画像フレームから算出された差分画像の例を示す説明図である。なお、図8に例示する点線は、操作認識部2により算出された座標を示す。操作認識部2は、例えば、図8(a)に例示する差分画像から領域の位置を計算する。   FIG. 8 is an explanatory diagram illustrating an example of a difference image calculated from an image frame. Note that the dotted lines illustrated in FIG. 8 indicate the coordinates calculated by the operation recognition unit 2. For example, the operation recognition unit 2 calculates the position of the region from the difference image illustrated in FIG.

続いて、操作認識部2は、画像フレームF2に続く画像フレームF3を検出部13から受信する。具体的には、操作認識部2は、画像フレームF3を受信したか否かを判定する(ステップS7)。画像フレームF3を受信していない場合(ステップS7におけるN)、操作認識部2は、画像フレームを受信するステップS7の処理を繰り返す。一方、画像フレームF3を受け取った場合(ステップS7におけるY)、画像フレームF2と画像フレームF3との差分画像D2=F3−F2を算出する(ステップS8)。ここで、図7(c)に例示する時刻では、指によるタッチ操作がさらに進み、画像フレームf3の画像が検知されたとする。このとき、差分画像D2は、図8(b)に例示するように、ドーナツ状の領域を含む画像になる。   Subsequently, the operation recognition unit 2 receives an image frame F3 subsequent to the image frame F2 from the detection unit 13. Specifically, the operation recognition unit 2 determines whether or not the image frame F3 has been received (step S7). When the image frame F3 is not received (N in step S7), the operation recognition unit 2 repeats the process of step S7 for receiving the image frame. On the other hand, when the image frame F3 is received (Y in step S7), a difference image D2 = F3-F2 between the image frame F2 and the image frame F3 is calculated (step S8). Here, at the time illustrated in FIG. 7C, it is assumed that the touch operation with the finger further proceeds and the image of the image frame f3 is detected. At this time, the differential image D2 is an image including a donut-shaped region as illustrated in FIG. 8B.

操作認識部2は、ステップS4〜S5に示す差分画像D1の場合と同様、差分画像D2についても独立した領域の識別処理(ステップS9)、および、各領域の位置の計算処理を実行する(ステップS10)。ここでは、位置座標(Aj,Bj)(ただし、j=1〜M;Mは識別された領域数。本例ではM=1。)が計算される。具体的には、操作認識部2は、図8(b)に例示する点線で示される座標を計算する。   As in the case of the difference image D1 shown in steps S4 to S5, the operation recognition unit 2 executes an independent area identification process (step S9) and a position calculation process for each area for the difference image D2 (step S9). S10). Here, the position coordinates (Aj, Bj) (where j = 1 to M; M is the number of identified areas. In this example, M = 1) are calculated. Specifically, the operation recognition unit 2 calculates the coordinates indicated by the dotted line illustrated in FIG.

その後、操作認識部2は、座標(Xi,Yi)と座標(Aj,Bj)とをそれぞれ比較する。そして、互いの距離が一定の閾値以下になる座標の組合せがあった場合、操作認識部2は、タッチ操作がなされたものと判定する(ステップS11)。なお、一定の閾値として、例えば、10ピクセルといった値を、予め実験的に求めておけばよい。以下、タッチ操作がなされたと操作認識部2が判定したことを、タッチ操作有りの判定と記す。   Thereafter, the operation recognition unit 2 compares the coordinates (Xi, Yi) with the coordinates (Aj, Bj). If there is a combination of coordinates whose mutual distance is equal to or less than a certain threshold, the operation recognition unit 2 determines that a touch operation has been performed (step S11). Note that, for example, a value such as 10 pixels may be obtained experimentally in advance as the fixed threshold value. Hereinafter, the determination by the operation recognizing unit 2 that a touch operation has been performed is referred to as a determination that there is a touch operation.

また、タッチ操作有りの判定がなされた場合、操作認識部2は、座標(Xi,Yi)または(Aj,Bj)のいずれかを接触位置としてもよい。他にも、操作認識部2は、座標(Xi,Yi)と座標(Aj,Bj)との平均値など、両座標により導出される値を接触位置としてもよい。   In addition, when it is determined that there is a touch operation, the operation recognition unit 2 may use any of the coordinates (Xi, Yi) or (Aj, Bj) as the contact position. In addition, the operation recognition unit 2 may use a value derived from both coordinates such as an average value of the coordinates (Xi, Yi) and the coordinates (Aj, Bj) as the contact position.

操作認識部2は、タッチ操作の判定結果、および、導出された接触位置を操作応答部1に出力する。具体的には、操作認識部2は、タッチ操作有りと判定した場合、塗布物の塗布操作などとは異なる操作であることを示す情報を、操作応答部1に出力する。なお、上記処理によれば、複数の独立した領域においてタッチ操作有りと判定することも可能である。この場合、操作認識部2が該当する複数の接触位置を操作応答部1に送信することで、複数のタッチ操作が同時になされた場合であっても、操作応答部1がそれぞれの接触位置を個別に把握することが可能になる。   The operation recognition unit 2 outputs the touch operation determination result and the derived contact position to the operation response unit 1. Specifically, when the operation recognition unit 2 determines that there is a touch operation, the operation recognition unit 2 outputs information indicating that the operation is different from the application operation of the applied material to the operation response unit 1. In addition, according to the said process, it can also determine with touch operation in several independent area | regions. In this case, the operation recognition unit 2 transmits a plurality of corresponding contact positions to the operation response unit 1, so that even when a plurality of touch operations are performed at the same time, the operation response unit 1 individually sets each contact position. It becomes possible to grasp.

なお、タッチ操作が行われていない場合、操作認識部2は、判定結果を操作応答部1に出力しなくてもよい。また、操作認識部2が出力する情報は、判定結果や接触位置など、タッチ操作に関する情報に限定されない。例えば、塗布物が塗布されている場合など、タッチ操作以外で接触物の接触を検出した場合、操作認識部2は、その接触物の接触状態を示す情報を操作応答部1に出力してもよい。タッチ操作以外による接触物の接触状態を表す情報として、より具体的には、検出部13から受け取った画像情報や、受け取った画像情報を一部加工した画像情報が挙げられる。一部加工した画像情報としては、例えば、検出部13から受け取った画像情報に対してタッチ操作があった位置の領域を背景色で塗りつぶした画像情報などが挙げられる。このような情報を送信することで、操作応答部1は、タッチ操作と塗布操作を区別して異なる処理を行うことが可能になる。   Note that when the touch operation is not performed, the operation recognition unit 2 may not output the determination result to the operation response unit 1. Further, the information output by the operation recognition unit 2 is not limited to information related to a touch operation such as a determination result or a contact position. For example, when the contact of the contact object is detected by a method other than the touch operation, such as when the application object is applied, the operation recognition unit 2 may output information indicating the contact state of the contact object to the operation response unit 1. Good. More specifically, the information representing the contact state of the contact object other than the touch operation includes image information received from the detection unit 13 and image information obtained by partially processing the received image information. The partially processed image information includes, for example, image information in which a region where a touch operation has been performed on the image information received from the detection unit 13 is filled with a background color. By transmitting such information, the operation response unit 1 can perform different processes by distinguishing between the touch operation and the application operation.

最後に、操作認識部2は、画像フレームF3を画像フレームF2に置き換えて記憶する。さらに、操作認識部2は、座標(Aj,Bj)を座標(Xi,Yi)に置き換えて記憶する(ステップS12)。その後、操作認識部2は、新たな画像フレームを受信するステップS7以降の処理を繰り返す。   Finally, the operation recognition unit 2 stores the image frame F3 by replacing it with the image frame F2. Furthermore, the operation recognizing unit 2 replaces the coordinates (Aj, Bj) with the coordinates (Xi, Yi) and stores them (step S12). Thereafter, the operation recognizing unit 2 repeats the processes after step S7 for receiving a new image frame.

なお、繰り返し処理を行うことにより、単一のタッチ操作に対し、タッチ操作有りの判定が複数回なされる可能性がある。そこで、操作認識部2は、一定時間(例えば、100ms)の間における複数階のタッチ操作有りの判定を、単一のタッチ操作有りの判定にまとめることで、複数回のタッチ判定が行われることを回避できる。   Note that, by performing the repeated processing, there is a possibility that the determination of the presence of the touch operation may be made a plurality of times for a single touch operation. Therefore, the operation recognition unit 2 performs a plurality of touch determinations by combining the determination of the presence of touch operations on a plurality of floors within a certain time (for example, 100 ms) into the determination of the presence of a single touch operation. Can be avoided.

このような方法に基づいてタッチ操作を認識する場合、例えば、塗布物16のように恒常的に被接触体(被塗布体)に付着している物質からの散乱光は、差分画像上に現れない。したがって、このような塗布物16がタッチ操作として認識されることを回避できる。また、塗布具15により塗布物16が塗布される過程においては、塗布物16の接触面積が増加する。すなわち、塗布された時点の塗布物16は、差分画像上に現れることになる。しかし、塗布物16が塗布される位置は、塗布具15の移動方向に変化するため、やはりタッチ操作として認識できることを回避できる。以下、これらの内容について、さらに説明する。   When a touch operation is recognized based on such a method, for example, scattered light from a substance that is constantly attached to the contacted object (applied object) such as the applied object 16 appears on the difference image. Absent. Accordingly, it is possible to avoid such a coating 16 being recognized as a touch operation. Further, in the process in which the application 16 is applied by the applicator 15, the contact area of the application 16 increases. That is, the applied material 16 at the time of application appears on the difference image. However, since the position where the application 16 is applied changes in the moving direction of the applicator 15, it can be avoided that it can be recognized as a touch operation. Hereinafter, these contents will be further described.

図9は、画像フレームと差分画像との関係例を示す説明図である。図9に示す例では、差分画像d1は、画像フレームf7とf6との差分を表す画像であり、差分画像d2は、画像フレームf8とf7との差分を表す画像である。   FIG. 9 is an explanatory diagram illustrating an example of a relationship between an image frame and a difference image. In the example shown in FIG. 9, the difference image d1 is an image representing the difference between the image frames f7 and f6, and the difference image d2 is an image representing the difference between the image frames f8 and f7.

上記動作の説明と同様、塗布開始時において画像フレームF1が、図9(a)の画像フレームf6に例示するような真っ黒な画像であり、塗布開始直後において画像フレームF2が、図9(b)の画像フレームf7に例示する画像であるものとする。このとき、差分画像D1は、図9(d)に例示する差分画像d1のような画像になる。また、差分画像d1から抽出される領域の位置には、差分画像d1において点線で示される位置が算出される。   Similar to the description of the above operation, the image frame F1 is a black image as illustrated in the image frame f6 of FIG. 9A at the start of application, and the image frame F2 immediately after the start of application is illustrated in FIG. 9B. It is assumed that the image is exemplified in the image frame f7. At this time, the difference image D1 is an image like the difference image d1 illustrated in FIG. Further, a position indicated by a dotted line in the difference image d1 is calculated as the position of the region extracted from the difference image d1.

その後、描画が進み、検出部13が画像フレームF3として、図9(c)に例示する画像フレームf8を検出したとする。このとき、差分画像D2は、図9(e)に例示する差分画像d2のような画像になる。また、差分画像d2から抽出される領域の位置には、差分画像d2において点線で示される位置が算出される。   Thereafter, drawing proceeds, and it is assumed that the detection unit 13 detects an image frame f8 illustrated in FIG. 9C as the image frame F3. At this time, the difference image D2 is an image like the difference image d2 illustrated in FIG. Further, a position indicated by a dotted line in the difference image d2 is calculated as the position of the region extracted from the difference image d2.

このことから解るように、塗布物16の塗布操作においては、描画に伴い塗布される塗布物16の位置は塗布具15の移動方向にシフトしていく。よって、移動したか否かを判定するための閾値を適切に設定することにより、塗布物16が塗布される過程において、タッチ操作が検出されることを回避できる。   As can be seen from this, in the application operation of the application 16, the position of the application 16 applied in accordance with the drawing shifts in the moving direction of the applicator 15. Therefore, by appropriately setting a threshold value for determining whether or not it has moved, detection of a touch operation in the process of applying the application 16 can be avoided.

また、例えば、利用者が内部の塗りつぶされた楕円状の図形を描いたとする。この場合であっても、画像フレームを検出する間隔を適切に設定しておくで、検出部13はその描画を線分として検出することが可能になる。そのため、操作認識部2が、このような描画処理をタッチ操作と判定することを回避できる。なお、画像フレームの検出間隔として、例えば、毎秒30フレームと設定しておいてもよい。   In addition, for example, it is assumed that the user has drawn an oval figure that is filled inside. Even in this case, the detection unit 13 can detect the drawing as a line segment by appropriately setting an interval for detecting the image frame. Therefore, it can be avoided that the operation recognition unit 2 determines such a drawing process as a touch operation. The image frame detection interval may be set to 30 frames per second, for example.

さらに、塗布具15を用いた描画処理と、タッチ操作とが同時に行われた場合には、タッチ操作がなされた位置においてのみタッチ操作有りの判定が行われる。このことは、上述の説明から明らかである。   Furthermore, when the drawing process using the applicator 15 and the touch operation are performed at the same time, the presence of the touch operation is determined only at the position where the touch operation is performed. This is clear from the above description.

以上のように、本実施形態によれば、検出部13が、被接触体11に対する接触物の接触部分を、時間の経過とともに検出する。そして、操作認識部2は、接触領域の面積が時間の経過とともに変化する場合、領域の位置の変化が予め定められた距離以内(すなわち、ほぼ一定の位置)である事象(タッチ操作)を認識する。さらに、操作認識部2は、接触領域の面積が時間の経過とともに変化する場合、領域の位置の変化が予め定められた距離を超えた事象(タッチする位置が移動する事象)も認識する。そして、検出された接触操作の内容がタッチ操作であると認識された場合、操作認識部2は、タッチ操作を示す情報であって、塗布物の塗布操作を示す情報とは異なる情報を、操作応答部1に出力する。そのため、被接触体に対する操作の認識精度を向上できる。   As described above, according to the present embodiment, the detection unit 13 detects the contact portion of the contact object with the contacted body 11 with the passage of time. Then, when the area of the contact area changes with time, the operation recognition unit 2 recognizes an event (touch operation) in which the change in the position of the area is within a predetermined distance (that is, a substantially constant position). To do. Furthermore, when the area of the contact region changes with time, the operation recognition unit 2 also recognizes an event in which the change in the position of the region exceeds a predetermined distance (an event in which the touched position moves). When it is recognized that the detected contact operation is a touch operation, the operation recognition unit 2 displays information indicating the touch operation, which is different from the information indicating the application operation of the application. Output to the response unit 1. Therefore, the recognition accuracy of the operation on the contacted object can be improved.

すなわち、本実施形態における操作認識装置を用いることにより、タッチ操作以外の原因により生じるセンサ入力が存在する場合であっても、タッチ操作の認識精度を向上できるため、タッチ操作を識別することが可能になる。   That is, by using the operation recognition device according to the present embodiment, it is possible to identify the touch operation because the recognition accuracy of the touch operation can be improved even when there is a sensor input caused by a cause other than the touch operation. become.

なお、上記処理では、画像差分を算出することで接触面積が増加する領域を抽出し、算出した差分の領域の位置を接触領域の位置とほぼ一定の事象として抽出している。すなわち、上記説明では、接触領域の位置を直接計算していない。しかし、上記処理は、実質的に、接触位置がほぼ一定で接触面積が増加している接触領域を抽出していることに等しいと言える。   In the above processing, a region where the contact area increases by calculating the image difference is extracted, and the position of the calculated difference region is extracted as an event that is almost constant with the position of the contact region. That is, in the above description, the position of the contact area is not directly calculated. However, it can be said that the above process is substantially equivalent to extracting a contact region where the contact position is substantially constant and the contact area is increased.

例えば、差分画像を計算せず、各画像フレームに対してラベリング処理を行い、これにより得られる各領域に対して位置計算を行うことで、接触面積が変化しつつ接触位置がほぼ一定の領域を検出することは可能である。しかし、この場合、ラベリング処理により抽出される領域数が多くなり、ラベリング処理自体および位置計算処理の処理時間が増加してしまう。しかし、本実施形態では、差分画像を計算することにより、処理時間の増加を抑制することが可能になる。   For example, by performing a labeling process on each image frame without calculating a difference image, and performing a position calculation on each area obtained by this, an area where the contact position is almost constant while changing the contact area is obtained. It is possible to detect. However, in this case, the number of areas extracted by the labeling process increases, and the processing time of the labeling process itself and the position calculation process increases. However, in the present embodiment, it is possible to suppress an increase in processing time by calculating the difference image.

また、上記説明では、タッチ操作に含まれる3つの過程である(1)「接触するフェーズ」、(2)「保持するフェーズ」、(3)「離すフェーズ」のうち、操作認識部2が、(1)に示す「接触するフェーズ」を検出し、このフェーズが検出された場合に、タッチ操作があったものと判断する動作を説明した。この応用として、操作認識部2が、「接触するフェーズ」の検出後、さらに(2)「保持するフェーズ」及び(3)「離すフェーズ」を検出し、その情報を操作応答部1に出力することも可能である。操作認識部2が(2)「保持するフェーズ」及び(3)「離すフェーズ」での接触を判定する方法としては、例えば、画像処理領域で一般的に知られている物体追跡の手法を使用すればよい。具体的には、操作認識部2は、「接触するフェーズ」を検出した場合に、接触位置における領域の追跡を開始し、追跡対象の領域が消えた場合に、離脱イベントの判定をすれば良い。なお、このような方法を使用する場合、接触が検出される位置と離脱が検出される位置は同じである必要はない。また、接触保持状態において、接触物が移動する軌跡情報(ドラッグ情報)を識別することも容易である。なお、物体追跡処理の詳細については、例えば、以下の参考文献2に記載されているため、ここでの説明は省略する。
[参考文献2]
奈良先端科学技術大学院大学OpenCVプログラミングブック作成チーム著、「OpenCVプログラミングブック」、毎日コミュニケーションズ、2007年9月、p.218−237
In the above description, among the three processes included in the touch operation (1) “contact phase”, (2) “hold phase”, and (3) “release phase”, the operation recognition unit 2 The operation of detecting the “contact phase” shown in (1) and determining that a touch operation has been performed when this phase is detected has been described. As an application of this, the operation recognition unit 2 detects (2) “hold phase” and (3) “release phase” after detecting the “contact phase”, and outputs the information to the operation response unit 1. It is also possible. As a method for the operation recognition unit 2 to determine contact in (2) “holding phase” and (3) “release phase”, for example, an object tracking method generally known in the image processing region is used. do it. Specifically, the operation recognizing unit 2 may start the tracking of the area at the contact position when detecting the “contacting phase”, and determine the separation event when the tracking target area disappears. . When such a method is used, the position where contact is detected and the position where separation is detected need not be the same. It is also easy to identify trajectory information (drag information) on which the contact object moves in the contact holding state. Note that details of the object tracking process are described in Reference Document 2 below, for example, and thus the description thereof is omitted here.
[Reference 2]
Nara Institute of Science and Technology OpenCV Programming Book Creation Team, “OpenCV Programming Book”, Mainichi Communications, September 2007, p. 218-237

さらに、(3)「離すフェーズ」単体でタッチ操作を検出する方法として、操作認識部2は、ほぼ一定の位置において接触面積が時間と共に減少する領域を抽出する方法を使用してもよい。なお、接触面積が時間と共に減少する領域を抽出するには、(1)「接触するフェーズ」で計算された画像差分結果の符号を反転させればよい。   Further, (3) as a method of detecting the touch operation by the “release phase” alone, the operation recognition unit 2 may use a method of extracting a region where the contact area decreases with time at a substantially constant position. In order to extract a region where the contact area decreases with time, the sign of the image difference result calculated in (1) “contacting phase” may be reversed.

また、本実施形態では、被接触体11に対する接触物の接触位置および接触面積を検出可能な装置として、FTIR方式の光学式タッチパネルを用いた例を挙げて説明した。ただし、接触位置および接触面積を検出する装置は、上記装置に限定されない。接触位置および接触面積を検出可能な装置であれば、他の装置を用いて本実施形態における操作認識装置を構成してもよい。   Further, in the present embodiment, an example in which an FTIR optical touch panel is used as an apparatus capable of detecting the contact position and contact area of a contact object with respect to the contacted body 11 has been described. However, the device for detecting the contact position and the contact area is not limited to the above device. As long as the device can detect the contact position and the contact area, the operation recognition device according to the present embodiment may be configured using another device.

さらに、接触面積が増加し、位置がほぼ一定の接触領域か否かの判定を、異なる種類の操作認識装置を重ねて配置することにより行ってもよい。例えば、上記FTIR方式のタッチパネルと、静電容量方式のタッチパネルとを重ねて配置してもよい。静電容量方式のタッチパネルを重ねるのは、感度を調整することで、タッチパネル自身への接触はなくとも、近傍に指などが存在することが識別できるためである。このように配置することにより、FTIR方式のタッチパネルにより被接触体11への塗布物の付着状態を検出する一方で、その被接触体11へのタッチ操作を静電容量方式のタッチパネルのセンサにて検出することが可能になる   Further, the determination of whether or not the contact area is increased and the position is a substantially constant contact area may be performed by arranging different types of operation recognition devices in a stacked manner. For example, the FTIR touch panel and the capacitive touch panel may be stacked. The reason why the capacitive touch panels are stacked is that by adjusting the sensitivity, it is possible to identify the presence of a finger or the like in the vicinity without touching the touch panel itself. By arranging in this way, while the FTIR type touch panel detects the adhesion state of the applied material to the contacted body 11, the touch operation to the contacted body 11 is performed by a capacitive touch panel sensor. It becomes possible to detect

実施形態2.
次に、本発明による情報処理システムについて説明する。本発明における情報処理システムは、第1の実施形態で例示した操作認識装置を含んでおり、タッチ操作以外の原因により生じたセンサ入力を、タッチ操作とは別の入力情報として活用するシステムである。
Embodiment 2. FIG.
Next, an information processing system according to the present invention will be described. The information processing system according to the present invention includes the operation recognition device exemplified in the first embodiment, and utilizes a sensor input generated by a cause other than the touch operation as input information different from the touch operation. .

図10は、本発明による情報処理システムの一実施形態を示すブロック図である。なお、第1の実施形態で例示した操作認識装置と同様の構成については、図1と同一の符号を付し、説明を省略する。   FIG. 10 is a block diagram showing an embodiment of an information processing system according to the present invention. In addition, about the structure similar to the operation recognition apparatus illustrated in 1st Embodiment, the code | symbol same as FIG. 1 is attached | subjected and description is abbreviate | omitted.

本実施形態における情報処理システム20は、被接触体11と、光源部12と、検出部13と、操作認識部2に加え、表示部21と、操作応答部1とを備えている。また、表示部21は、スクリーン22と、プロジェクタ23とを含む。すなわち、本実施形態における情報処理システムは、第1の実施形態における操作認識装置10に加え、スクリーン22とプロジェクタ23とを含む表示部21、及び、操作応答部1を備えている。   The information processing system 20 in the present embodiment includes a display unit 21 and an operation response unit 1 in addition to the contacted object 11, the light source unit 12, the detection unit 13, and the operation recognition unit 2. The display unit 21 includes a screen 22 and a projector 23. That is, the information processing system according to the present embodiment includes the display unit 21 including the screen 22 and the projector 23 and the operation response unit 1 in addition to the operation recognition device 10 according to the first embodiment.

操作認識装置(より具体的には、被接触体11、光源部12、検出部13、および、操作認識部2)は、第1の実施形態で説明した通り、被接触体11に対する接触物の接触を監視し、検出部13が撮影した画像情報、またはこの画像情報を一部加工した画像情報を、タッチ操作に関する情報とともに操作応答部1へ出力する。   As described in the first embodiment, the operation recognition device (more specifically, the contacted body 11, the light source unit 12, the detection unit 13, and the operation recognition unit 2) The contact is monitored, and image information captured by the detection unit 13 or image information obtained by partially processing the image information is output to the operation response unit 1 together with information related to the touch operation.

操作応答部1は、操作認識装置(より具体的には、操作認識部2)が認識した事象に基づいて、接触操作が検知された位置に応じた処理を行う。例えば、操作認識部2から、検出部13が撮影した散乱光の画像やタッチ操作の有無及びタッチ操作が行われた位置の情報を受け取ると、操作応答部1は、各事象に基づき、接触位置に応じた表示処理を表示部21に指示する。操作応答部1が指示する具体的な内容については後述する。なお、以下の説明では、接触物が接触する、接触物が被接触体から離れるなど、接触に関するイベントを表す情報のことを、イベント種別と記す。   The operation response unit 1 performs processing according to the position where the contact operation is detected based on the event recognized by the operation recognition device (more specifically, the operation recognition unit 2). For example, when receiving from the operation recognition unit 2 an image of scattered light captured by the detection unit 13 and information on the presence / absence of a touch operation and the position at which the touch operation is performed, the operation response unit 1 determines the contact position based on each event. The display unit 21 is instructed to perform display processing according to the above. Specific contents instructed by the operation response unit 1 will be described later. In the following description, information indicating an event related to contact, such as contact with a contact object or separation of a contact object from a contacted object, is referred to as an event type.

操作応答部1は、操作認識部2と同様、一般的なパーソナルコンピュータにより実現される。より具体的には、操作応答部1は、プログラム(認識プログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、パーソナルコンピュータやの記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、操作応答部1として動作してもよい。また、操作応答部1と操作認識部2とが、単一のハードウェア(例えば、パーソナルコンピュータ)で実現されていてもよい。   Similar to the operation recognition unit 2, the operation response unit 1 is realized by a general personal computer. More specifically, the operation response unit 1 is realized by a CPU of a computer that operates according to a program (recognition program). For example, the program may be stored in a storage unit (not shown) such as a personal computer, and the CPU may read the program and operate as the operation response unit 1 according to the program. Moreover, the operation response part 1 and the operation recognition part 2 may be implement | achieved by single hardware (for example, personal computer).

表示部21は、操作応答部1の指示に応じた内容を表示する。スクリーン22は、被接触体11の背面に配置され、プロジェクタ23は、操作応答部1の指示に応じて、散乱光の画像や、タッチ操作に応じたポインタ及びメニューなどをスクリーン22の適切な位置に表示する。スクリーン22の表示された内容は、透明平面板である被接触体11を介して利用者に認識される。   The display unit 21 displays contents according to instructions from the operation response unit 1. The screen 22 is disposed on the back surface of the contacted object 11, and the projector 23 displays an image of scattered light, a pointer and a menu corresponding to the touch operation, and the like on the screen 22 according to an instruction from the operation response unit 1. To display. The displayed content of the screen 22 is recognized by the user through the contacted object 11 which is a transparent flat plate.

なお、本実施形態では、表示部21がスクリーン22及びプロジェクタ23を含む場合について説明するが、表示部21の内容は、スクリーン22及びプロジェクタ23に限定されない。デジタル情報の表示が可能な表示装置であれば、表示部21は、例えば、液晶ディスプレイやプラズマディスプレイ、電界放出ディスプレイなどのフラットパネルディスプレイであってもよい。   In the present embodiment, the case where the display unit 21 includes the screen 22 and the projector 23 will be described. However, the content of the display unit 21 is not limited to the screen 22 and the projector 23. If the display device is capable of displaying digital information, the display unit 21 may be a flat panel display such as a liquid crystal display, a plasma display, or a field emission display, for example.

次に、本実施形態における情報処理システムの動作について説明する。以下の説明では、操作応答部1が、操作認識部2から画像情報とタッチ操作に関する情報のいずれか一方を受け取り、受け取った情報に基づいて処理を行う場合を例に説明する。ここで、画像情報として受け取る情報には、塗布物の塗布操作が行われることを示す情報も含まれる。   Next, the operation of the information processing system in this embodiment will be described. In the following description, an example in which the operation response unit 1 receives either image information or information related to a touch operation from the operation recognition unit 2 and performs processing based on the received information will be described as an example. Here, the information received as the image information includes information indicating that a coating application operation is performed.

図11は、操作応答部1が行う処理の例を示すフローチャートである。また、図12は、被接触体11に対する操作及び表示部21に対する表示の例を示す説明図である。操作応答部1は、操作認識部2から画像情報とタッチ操作に関する情報のいずれか一方を受信する(ステップS21)。受け取った情報が画像情報の場合(ステップS21における「画像情報」)、操作応答部1は、この画像のサイズ(例えば640×480ピクセル)を表示部21(より具体的には、スクリーン22)のサイズ(例えば1024×768ピクセル)に合わせて拡大または縮小する。また、操作応答部1は、被接触体11上で接触物の接触が検出された物理的位置を、表示部21(より具体的には、スクリーン22)上の位置と一致するように座標変換する(ステップS22)。そして、操作応答部1は、拡大または縮小した画像の表示処理を表示部21に指示する(ステップS23)。ここで、操作応答部1は、画像の明暗を反転するなど、表現上の工夫を施してから表示処理を表示部21に指示してもよい。その後、操作応答部1は、データ受信の内容を判断するステップ21以降の処理を繰り返す。   FIG. 11 is a flowchart illustrating an example of processing performed by the operation response unit 1. FIG. 12 is an explanatory diagram illustrating an example of an operation on the contacted body 11 and a display on the display unit 21. The operation response unit 1 receives either image information or information related to the touch operation from the operation recognition unit 2 (step S21). When the received information is image information (“image information” in step S21), the operation response unit 1 displays the size of this image (eg, 640 × 480 pixels) on the display unit 21 (more specifically, the screen 22). Scale up or down to fit size (eg 1024 x 768 pixels). Further, the operation response unit 1 performs coordinate conversion so that the physical position where the contact of the contact object is detected on the contacted body 11 coincides with the position on the display unit 21 (more specifically, the screen 22). (Step S22). Then, the operation response unit 1 instructs the display unit 21 to display an enlarged or reduced image (step S23). Here, the operation response unit 1 may instruct the display unit 21 to perform display processing after giving some ideas on the expression such as reversing the brightness of the image. Thereafter, the operation response unit 1 repeats the processing after step 21 for determining the contents of data reception.

なお、ステップS22において、座標変換を行う際に必要な情報は、事前に操作認識装置(より具体的には、操作認識部2)と表示部21との間でキャリブレーション処理を行うことで得ることができる。この方法については、一般的なタッチパネルで使用されている方法を用いればよい。   In step S22, information necessary for coordinate conversion is obtained in advance by performing a calibration process between the operation recognition device (more specifically, the operation recognition unit 2) and the display unit 21. be able to. About this method, the method currently used with the general touch panel should just be used.

例えば、被接触体11上に図12(a)に例示する図形が塗布具15を用いて描かれているものとする。操作応答部1は、操作認識部2からこの図形の画像を受信すると、表示部21(より具体的には、スクリーン22)上の位置に合わせて表示させる。その結果、塗布物16により描かれた図形は、背面からライトアップされた状態になる。この際、背面からライトアップされる視覚的フィードバックは、描いた図形が確かにデジタイズされたことを利用者に伝える手掛かりになる。以上のような処理を行うことで、本発明の情報処理システムをデジタルホワイトボードのようなシステムとして利用することが出来る。   For example, it is assumed that the graphic illustrated in FIG. 12A is drawn on the contacted body 11 using the applicator 15. When the operation response unit 1 receives the graphic image from the operation recognition unit 2, the operation response unit 1 displays it in accordance with the position on the display unit 21 (more specifically, the screen 22). As a result, the figure drawn by the coating 16 is in a state of being lit up from the back. At this time, the visual feedback lit up from the back serves as a clue to the user that the drawn figure is surely digitized. By performing the processing as described above, the information processing system of the present invention can be used as a system such as a digital whiteboard.

なお、このとき、操作応答部1は、塗布物16などの接触物が接触している位置に対応するスクリーン22上の位置を、他の表示位置とは異なる色で表示してもよく、また、他の表示位置とは異なる明度で表示してもよい。このようにすることで、タッチ操作とタッチ操作以外の接触を区別できる。   At this time, the operation response unit 1 may display the position on the screen 22 corresponding to the position where the contact object such as the application object 16 is in contact with a color different from other display positions. The display may be displayed with a different brightness from other display positions. By doing in this way, touch operation and contact other than touch operation can be distinguished.

一方、ステップS21において、操作応答部1が受け取った情報が、例えば、タッチ操作の有無およびその位置を表す情報のような、タッチ操作に関する情報の場合(ステップS21における「タッチ情報」)、操作応答部1は、イベント種別(具体的には、接触イベントや離脱イベントなど)や接触を検知した位置に応じた適切な処理を実行する(ステップS24)。操作応答部1は、例えば、タッチ操作が検出された位置へのポインタ表示処理や、メニュー表示処理、タッチ操作が検出された位置に表示されたアイコンなどのオブジェクトに対する選択処理などを実行してもよい。ただし、操作応答部1が行う処理は、これらの処理に限定されない。その後、操作応答部1は、データ受信の内容を判断するステップ21以降の処理を繰り返す。   On the other hand, when the information received by the operation response unit 1 in step S21 is information relating to the touch operation such as information indicating the presence / absence of the touch operation and the position thereof (“touch information” in step S21), the operation response The unit 1 executes appropriate processing according to the event type (specifically, a contact event, a leaving event, etc.) and the position where the contact is detected (step S24). The operation response unit 1 may execute, for example, pointer display processing at a position where a touch operation is detected, menu display processing, selection processing for an object such as an icon displayed at a position where a touch operation is detected, or the like. Good. However, the process performed by the operation response unit 1 is not limited to these processes. Thereafter, the operation response unit 1 repeats the processing after step 21 for determining the contents of data reception.

このように、操作応答部1は、タッチ操作が行われたと判断した場合、例えば、塗布物が塗布された場合とは異なる処理を行う。具体的には、操作応答部1は、タッチ操作が行われた場合と、塗布物が塗布された場合とで、視覚的に異なる内容の処理を行ってもよい。以下、タッチ操作に関する情報を受信した場合に操作応答部1が行う処理の具体例を、図12を用いて説明する。   As described above, when the operation response unit 1 determines that a touch operation has been performed, for example, the operation response unit 1 performs a process different from that performed when a coating is applied. Specifically, the operation response unit 1 may perform processing with visually different contents when a touch operation is performed and when a coating is applied. Hereinafter, a specific example of processing performed by the operation response unit 1 when information related to a touch operation is received will be described with reference to FIG.

操作応答部1は、図12(a)に例示する状態でタッチ操作に関する情報を受信すると、タッチ操作の検出された位置にメニューを表示する(図12(b)参照)。続いて、利用者が、タッチ操作した位置に表示されたメニューの中から保存コマンドを選択したとする(図12(c)参照。)。そして、操作認識部2が、図形左上の位置に対するタッチ操作を検知し、タッチ情報を操作応答部1に送信すると、操作応答部1は、その位置にポインタ表示するよう表示部21に指示を行う(図12(d)参照)。さらに、図12(d)の状態から、操作認識部2が、図形右下の位置に対するタッチ操作を検知し、タッチ情報を操作応答部1に送信すると、操作応答部1は、タッチされた位置から矩形領域を規定するとともに、新たなメニューを表示部21に表示させる(図12(e)参照)。この状態から、利用者がメニューの中からOKコマンドの位置にタッチ操作を行うと、操作応答部1は、そのコマンド(OKコマンド)を実行する(図12(f)参照)。   The operation response part 1 will display a menu in the position where the touch operation was detected, if the information regarding a touch operation is received in the state illustrated to Fig.12 (a) (refer FIG.12 (b)). Subsequently, it is assumed that the user selects a save command from the menu displayed at the touched position (see FIG. 12C). Then, when the operation recognition unit 2 detects a touch operation on the upper left position of the figure and transmits touch information to the operation response unit 1, the operation response unit 1 instructs the display unit 21 to display a pointer at the position. (See FIG. 12D). Furthermore, from the state of FIG. 12D, when the operation recognition unit 2 detects a touch operation on the lower right position of the figure and transmits touch information to the operation response unit 1, the operation response unit 1 detects the touched position. A rectangular area is defined and a new menu is displayed on the display unit 21 (see FIG. 12E). In this state, when the user performs a touch operation at the position of the OK command in the menu, the operation response unit 1 executes the command (OK command) (see FIG. 12F).

以上、操作応答部1がタッチ操作に応じて実行する処理について説明した。ただし、操作応答部1がタッチ操作に関する情報に応じて実行する処理は、上記内容に限定されない。例えば、操作認識部2が、複数のタッチを同時に検出した場合やドラッグ状態を検出した場合、操作応答部1は、検出した状態に応じて適切な処理を行なえばよい。   In the above, the process which the operation response part 1 performs according to touch operation was demonstrated. However, the process which the operation response part 1 performs according to the information regarding touch operation is not limited to the said content. For example, when the operation recognition unit 2 detects a plurality of touches at the same time or detects a drag state, the operation response unit 1 may perform an appropriate process according to the detected state.

また、上記説明では、操作応答部1が操作認識部2から受け取る情報が、画像情報とタッチ操作に関する情報のいずれか一方である場合について説明した。ただし、操作応答部1は、操作認識部2から画像情報とタッチ操作に関する情報とを同時に受信してもよい。この場合、受信した内容に応じて、それぞれの場合の処理を行えばよい。   In the above description, the case where the information received by the operation response unit 1 from the operation recognition unit 2 is one of image information and information related to a touch operation has been described. However, the operation response unit 1 may receive image information and information related to the touch operation from the operation recognition unit 2 at the same time. In this case, the process in each case may be performed according to the received content.

以上のように、本実施形態によれば、操作認識部2がタッチ操作を識別可能なため、操作応答部1は、タッチ操作以外の原因により生じたセンサ入力を、タッチ操作とは別の入力情報として活用できる。その結果、多様なパターンの入力指示が行える情報処理装置(システム)が単一の操作認識装置で実現できる。   As described above, according to the present embodiment, since the operation recognition unit 2 can identify a touch operation, the operation response unit 1 can input a sensor input generated by a cause other than the touch operation, separately from the touch operation. Can be used as information. As a result, an information processing apparatus (system) that can input various patterns can be realized with a single operation recognition apparatus.

すなわち、一般的な装置では、タッチ操作以外のセンサ入力を検知した場合、タッチ操作を識別することが困難であった。また、一般的な装置では、センサで感知可能なタッチ操作以外の情報を、タッチ操作とは別の入力情報として活用することも困難であった。しかし、本実施形態によれば、操作認識部2が、タッチ操作を識別し、識別した情報とともに操作以外の情報を操作応答部1に通知する。そのため、タッチ操作以外の原因により生じたセンサ入力を、タッチ操作とは別の入力情報として活用できる。   That is, in a general device, when a sensor input other than the touch operation is detected, it is difficult to identify the touch operation. Further, in a general apparatus, it is difficult to use information other than the touch operation that can be sensed by the sensor as input information different from the touch operation. However, according to the present embodiment, the operation recognition unit 2 identifies the touch operation, and notifies the operation response unit 1 of information other than the operation together with the identified information. Therefore, sensor input caused by a cause other than the touch operation can be used as input information different from the touch operation.

次に、本発明の最小構成について説明する。図13は、本発明による操作認識装置の最小構成の例を示すブロック図である。また、図14は、本発明による情報処理システムの最小構成を示すブロック図である。本発明による操作認識装置は、操作者が接触させる接触物(例えば、利用者の指14)または操作者により塗布される接触物(例えば、塗布物16)によって接触される被接触体80(例えば、被接触体11)と、被接触体に対する接触物の接触位置及び接触領域(例えば、接触している部分)を時間の経過とともに(例えば、定常的に)検出する接触位置検出手段81(例えば、検出部13)と、接触領域の面積が時間の経過とともに増加又は減少する場合において、接触領域の位置を表す領域位置(例えば、領域の位置)の変化が予め定められた距離以内(例えば、ほぼ一定の位置)である事象を第1の事象(例えば、タッチ操作)と認識し、領域位置の変化がその距離を超えた(例えば、接触物が移動した)事象を第2の事象(例えば、塗布物16の塗布操作)と認識する認識手段82(例えば、操作認識部2)と、認識された事象を表す情報(例えば、タッチ操作の判定結果、判定の際用いられた画像情報)を他の装置(例えば、操作応答部1)に出力する事象出力手段83とを備えている。   Next, the minimum configuration of the present invention will be described. FIG. 13 is a block diagram showing an example of the minimum configuration of the operation recognition apparatus according to the present invention. FIG. 14 is a block diagram showing the minimum configuration of the information processing system according to the present invention. The operation recognition device according to the present invention is a contact object 80 (for example, a user's finger 14) contacted by an operator or a contacted object 80 (for example, a coated object 16) to be contacted by a contact object (for example, a coated object 16) applied by the operator. The contact position detection means 81 (for example, constantly) detects the contact position of the contact object 11) and the contact position and contact area (for example, a contacted portion) of the contact object with time (for example, regularly). In the case where the area of the contact area increases or decreases with the passage of time, the change of the area position (for example, the position of the area) representing the position of the contact area is within a predetermined distance (for example, An event that is a substantially constant position) is recognized as a first event (for example, a touch operation), and an event in which the change in the region position exceeds the distance (for example, the contact has moved) is a second event (for example, a touch operation). Recognizing means 82 (for example, the operation recognizing unit 2) for recognizing that the application 16 is applied), information indicating the recognized event (for example, determination result of touch operation, image information used in determination) Event output means 83 for outputting to the device (for example, the operation response unit 1).

事象出力手段83は、第1の事象が認識された場合に、その第1の事象を示す情報(例えば、事象の認識結果や、検出部13が検出した画像情報)であって、第2の事象とは異なる事象を表す情報(例えば、塗布物16が塗布されている画像情報)を、他の装置に出力する。   When the first event is recognized, the event output unit 83 is information indicating the first event (for example, the event recognition result or the image information detected by the detection unit 13), Information representing an event different from the event (for example, image information on which the coating 16 is applied) is output to another device.

そのような構成により、被接触体に対する操作の認識精度を向上できる。具体的には、タッチ操作の認識精度を向上できる。   With such a configuration, the recognition accuracy of the operation on the contacted object can be improved. Specifically, the recognition accuracy of the touch operation can be improved.

また、接触位置検出手段81が、接触物により散乱される光(例えば、散乱光、エバネッセント波)を測定することにより、被接触体に対する接触物の接触領域を検出してもよい。   Further, the contact position detecting means 81 may detect the contact area of the contact object with respect to the contacted object by measuring light scattered by the contact object (for example, scattered light, evanescent wave).

また、被接触体が、内部に光(例えば、赤外光)を導波可能な構造を有し、その被接触体の内部に対して光が入射され(例えば、光源部12により光が入射され)、接触位置検出手段81が、被接触体に対して接触物が接触することに伴い散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出してもよい。   Further, the contacted body has a structure capable of guiding light (for example, infrared light) inside, and light is incident on the inside of the contacted body (for example, light is incident by the light source unit 12). The contact position detecting means 81 may detect the contact area of the contact object with respect to the contacted object by measuring light scattered when the contact object comes into contact with the contacted object.

また、接触位置検出手段81は、人体の一部(例えば、利用者の指14)による接触を検知してもよく、被接触体に塗布可能な物質(例えば、塗布物16)の接触を検知してもよい。   Further, the contact position detecting means 81 may detect contact with a part of the human body (for example, the user's finger 14), and detect contact with a substance (for example, the coated material 16) that can be applied to the contacted body. May be.

また、事象出力手段83は、第1の事象以外の事象による接触物の接触(例えば、接触物を接触させたまま移動処理や、塗布物の塗布状態)を検出した場合、その接触物の接触状態を示す情報を、他の装置に出力してもよい。このようにすることで、接触位置と接触が無かった位置とを区別する処理を行うことが可能になる。   In addition, when the event output unit 83 detects contact of a contact object due to an event other than the first event (for example, movement processing while the contact object is kept in contact or application state of the application object), the contact of the contact object is detected. Information indicating the state may be output to another device. By doing in this way, it becomes possible to perform the process which distinguishes a contact position and the position where there was no contact.

また、本発明による情報処理システムは、被接触体80と、接触位置検出手段81と、認識手段82と、認識された事象に応じて、予め定められた応答を行う応答手段84とを備えている。応答手段84は、第1の事象(例えば、タッチ操作)が認識された場合に、その第1の事象に応じて定められた応答(例えば、ポインタ、メニュー表示)であって、第2の事象に応じて定められた応答(例えば、他の表示位置とは異なる色や明度で表示)とは異なる応答を行う。なお、被接触体80、接触位置検出手段81及び認識手段82については、本発明による操作認識装置の構成と同様である。   The information processing system according to the present invention includes a contacted object 80, a contact position detecting unit 81, a recognizing unit 82, and a response unit 84 that makes a predetermined response according to the recognized event. Yes. When the first event (for example, touch operation) is recognized, the response means 84 is a response (for example, a pointer or menu display) determined according to the first event, and the second event The response different from the response (for example, displayed in a color or brightness different from other display positions) is performed. The contacted body 80, the contact position detecting means 81, and the recognizing means 82 are the same as the configuration of the operation recognizing device according to the present invention.

このような構成であっても、被接触体に対する操作の認識精度を向上できる。具体的には、タッチ操作の認識精度を向上できる。   Even with such a configuration, the recognition accuracy of the operation on the contacted object can be improved. Specifically, the recognition accuracy of the touch operation can be improved.

上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。   A part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.

(付記1)操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体と、前記被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出手段と、前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が当該距離を超えた事象を第2の事象と認識する認識手段と、認識された事象を表す情報を他の装置に出力する事象出力手段とを備え、前記事象出力手段は、前記第1の事象が認識された場合に、当該第1の事象を示す情報であって、前記第2の事象を示す情報とは異なる情報を、他の装置に出力することを特徴とする操作認識装置。 (Supplementary note 1) A contact to be contacted by a contact object to be contacted by an operator or a contact object applied by the operator, and a contact for detecting a contact position and a contact area of the contact object with respect to the contact object with time. In the case where the area of the contact area increases or decreases with the passage of time, an event in which a change in the area position representing the position of the contact area is within a predetermined distance is recognized as a first event. Recognizing means for recognizing an event in which the change in the region position exceeds the distance as a second event, and event output means for outputting information representing the recognized event to another device, The output means outputs, when the first event is recognized, information indicating the first event, which is different from the information indicating the second event, to another device. Characterizing operation Apparatus.

(付記2)接触位置検出手段は、接触物により散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出する付記1記載の操作認識装置。 (Additional remark 2) The operation recognition apparatus of Additional remark 1 which a contact position detection means detects the contact area | region of the contact object with respect to a to-be-contacted object by measuring the light scattered by a contact object.

(付記3)被接触体は、内部に光を導波可能な構造を有し、当該被接触体の内部に対して光が入射され、接触位置検出手段は、前記被接触体に対して接触物が接触することに伴い散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出する付記1または付記2記載の操作認識装置。 (Appendix 3) The contacted body has a structure capable of guiding light inside, light is incident on the inside of the contacted body, and the contact position detecting means is in contact with the contacted body. The operation recognizing device according to appendix 1 or appendix 2, wherein the contact area of the contact object with respect to the contacted object is detected by measuring light scattered as the object comes into contact.

(付記4)接触位置検出手段は、人体の一部による接触を検知する付記1から付記3のうちのいずれか1つに記載の操作認識装置。 (Supplementary note 4) The operation recognition device according to any one of Supplementary note 1 to Supplementary note 3, wherein the contact position detecting means detects contact by a part of a human body.

(付記5)接触位置検出手段は、被接触体に塗布可能な物質の接触を検知する付記1から付記4のうちのいずれか1つに記載の操作認識装置。 (Supplementary Note 5) The operation recognition device according to any one of Supplementary Note 1 to Supplementary Note 4, wherein the contact position detecting unit detects contact of a substance that can be applied to the contacted body.

(付記6)事象出力手段は、第1の事象とは異なる事象による接触物の接触を検出した場合、当該接触物の接触状態を示す情報を、他の装置に出力する付記1から付記5のうちのいずれか1つに記載の操作認識装置。 (Appendix 6) When the event output means detects contact of the contact object due to an event different from the first event, the event output means outputs information indicating the contact state of the contact object to other devices. The operation recognition apparatus as described in any one of them.

(付記7)操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体と、前記被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出手段と、前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が前記距離を超えた事象を第2の事象と認識する認識手段と、認識された事象に応じて、予め定められた応答を行う応答手段とを備え、前記応答手段は、前記第1の事象が認識された場合に、当該第1の事象に応じて定められた応答であって、前記第2の事象に応じて定められた応答とは異なる応答を行うことを特徴とする情報処理システム。 (Appendix 7) A contact object that is contacted by a contact object to be contacted by an operator or a contact object that is applied by the operator, and a contact that detects a contact position and a contact area of the contact object with respect to the contact object with time. In the case where the area of the contact area increases or decreases with the passage of time, an event in which a change in the area position representing the position of the contact area is within a predetermined distance is recognized as a first event. Recognizing means for recognizing an event in which the change in the region position exceeds the distance as a second event, and responding means for performing a predetermined response in accordance with the recognized event, When the first event is recognized, the response is determined according to the first event and is different from the response determined according to the second event. Characteristic features Processing system.

(付記8)接触位置検出手段は、接触物により散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出する付記7記載の情報処理システム。 (Supplementary note 8) The information processing system according to supplementary note 7, wherein the contact position detection unit detects a contact area of the contact object with respect to the contacted object by measuring light scattered by the contact object.

(付記9)被接触体は、内部に光を導波可能な構造を有し、当該被接触体の内部に対して光が入射され、接触位置検出手段は、前記被接触体に対して接触物が接触することに伴い散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出する付記7または付記8記載の情報処理システム。 (Supplementary Note 9) The contacted body has a structure capable of guiding light inside, and light is incident on the inside of the contacted body, and the contact position detecting means is in contact with the contacted body. The information processing system according to appendix 7 or appendix 8, wherein the contact area of the contact object with respect to the contacted object is detected by measuring light scattered as the object contacts.

(付記10)接触位置検出手段は、人体の一部による接触を検知する付記7から付記9のうちのいずれか1つに記載の情報処理システム。 (Supplementary note 10) The information processing system according to any one of supplementary note 7 to supplementary note 9, wherein the contact position detecting means detects contact by a part of a human body.

(付記11)接触位置検出手段は、被接触体に塗布可能な物質の接触を検知する付記7から付記10のうちのいずれか1項に記載の情報処理システム。 (Supplementary note 11) The information processing system according to any one of supplementary note 7 to supplementary note 10, wherein the contact position detecting means detects contact of a substance that can be applied to the contacted body.

(付記12)応答手段は、認識された事象に応じた情報を被接触体の対応する位置に表示する表示手段を含み、前記応答手段は、第1の事象とは異なる事象による接触物の接触を検出した場合、接触物が接触した位置に対応する前記表示手段上の位置に対して、第1の事象に応じて定められた応答とは視覚的に異なる変化を生じさせる処理を行う付記7から付記11のうちのいずれか1つに記載の情報処理システム。 (Supplementary Note 12) The response means includes display means for displaying information corresponding to the recognized event at a corresponding position of the contacted object, and the response means is contact of the contact object by an event different from the first event. When the position is detected, a process for causing a change visually different from the response determined according to the first event is performed on the position on the display unit corresponding to the position touched by the contact object 7 To 11. The information processing system according to any one of appendix 11.

(付記13)第1の事象に応じて定められた応答には、当該第1の事象が検出された接触位置に対応する表示手段の位置にポインタを表示する処理を含む付記7から付記12のうちのいずれか1つに記載の情報処理システム。 (Supplementary note 13) The response determined according to the first event includes processing for displaying a pointer at the position of the display means corresponding to the contact position where the first event is detected. The information processing system as described in any one of them.

(付記14)第1の事象に応じて定められた応答には、当該第1の事象が検出された接触位置に対応する表示手段の位置にメニューを表示する処理を含む付記7から付記13のうちのいずれか1つに記載の情報処理システム。 (Supplementary Note 14) The response determined according to the first event includes a process of displaying a menu at the position of the display unit corresponding to the contact position where the first event is detected. The information processing system as described in any one of them.

(付記15)第1の事象に応じて定められた応答には、当該第1の事象が検出された接触位置に対応する表示手段の位置に表示されたオブジェクトを選択したことを示す処理を含む付記7から付記14のうちのいずれか1つに記載の情報処理システム。 (Supplementary Note 15) The response determined according to the first event includes processing indicating that the object displayed at the position of the display unit corresponding to the contact position where the first event is detected is selected. The information processing system according to any one of appendix 7 to appendix 14.

(付記16)応答手段は、接触物が接触した位置に対応する表示手段上の位置を、他の表示位置とは異なる色で表示することにより、第1の事象に応じて定められた応答とは視覚的に異なる変化を生じさせる付記12から付記15のうちのいずれか1つに記載の情報処理システム。 (Supplementary Note 16) The response means displays the position on the display means corresponding to the position touched by the contact object in a color different from the other display positions, thereby determining the response determined according to the first event. Is the information processing system according to any one of supplementary notes 12 to 15, which causes a visually different change.

(付記17)応答手段は、接触物が接触した位置に対応する表示手段上の位置を、他の表示位置とは異なる明度で表示することにより、第1の事象に応じて定められた応答とは視覚的に異なる変化を生じさせる付記12から付記16のうちのいずれか1つに記載の情報処理システム。 (Supplementary Note 17) The response means displays the position on the display means corresponding to the position touched by the contact object with a lightness different from that of the other display positions, thereby determining the response determined according to the first event. Is the information processing system according to any one of supplementary notes 12 to 16, which causes a visually different change.

(付記18)操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体に対し、当該接触物が接触する接触位置及び当該接触物の接触領域を時間の経過とともに検出し、前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が前記距離を超えた事象を第2の事象と認識し、認識された事象を表す情報を他の装置に出力し、前記事象を表す情報を他の装置に出力する際、前記第1の事象が認識された場合には、当該第1の事象を示す情報であって、前記第2の事象を示す情報とは異なる情報を、他の装置に出力することを特徴とする操作認識方法。 (Additional remark 18) With respect to the contacted object contacted by the contact object which an operator contacts, or the contact object apply | coated by an operator, the contact position and the contact area of the said contact object which contact the said contact object with progress of time Detecting, when the area of the contact area increases or decreases over time, recognizes an event in which a change in area position representing the position of the contact area is within a predetermined distance as a first event, When an event in which the change in the region position exceeds the distance is recognized as a second event, information representing the recognized event is output to another device, and information representing the event is output to another device When the first event is recognized, information indicating the first event and information different from the information indicating the second event is output to another device, Operation recognition method to do.

(付記19)接触物により散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出する付記18記載の操作認識方法。 (Additional remark 19) The operation recognition method of Additional remark 18 which detects the contact area | region of the contact object with respect to a to-be-contacted object by measuring the light scattered by a contact object.

(付記20)操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体に対し、当該接触物が接触する接触位置及び当該接触物の接触領域を時間の経過とともに検出し、前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が前記距離を超えた事象を第2の事象と認識し、認識された事象に応じて、予め定められた応答を行い、前記応答を行う際、前記第1の事象が認識された場合には、当該第1の事象に応じて定められた応答であって、前記第2の事象に応じて定められた応答とは異なる応答を行うことを特徴とする情報処理方法。 (Supplementary note 20) The contact position and the contact area of the contact object with the contact object contacted by the contact object contacted by the operator or the contact object applied by the operator and the contact area of the contact object over time Detecting, when the area of the contact area increases or decreases over time, recognizes an event in which a change in area position representing the position of the contact area is within a predetermined distance as a first event, An event in which the change in the region position exceeds the distance is recognized as a second event, a predetermined response is made according to the recognized event, and when the response is made, the first event is recognized If so, an information processing method characterized in that a response determined according to the first event and a response different from the response determined according to the second event is performed.

(付記21)接触物により散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出する付記20記載の操作認識方法。 (Supplementary note 21) The operation recognition method according to supplementary note 20, wherein the contact area of the contact object with respect to the contacted object is detected by measuring light scattered by the contact object.

(付記22)操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体を備えたコンピュータに適用される操作認識プログラムであって、前記コンピュータに、前記被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出処理、前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が前記距離を超えた事象を第2の事象と認識する認識処理、および、認識された事象を表す情報を他の装置に出力する事象出力処理を実行させ、前記事象出力処理で、前記第1の事象が認識された場合には、当該第1の事象を示す情報であって、前記第2の事象を示す情報とは異なる情報を、他の装置に出力させるための操作認識プログラム。 (Additional remark 22) The operation recognition program applied to the computer provided with the to-be-contacted object contacted by the contact thing which an operator contacts, or the contact thing apply | coated by the operator, Comprising: The said to-be-contacted object is applied to the said computer Contact position detection processing for detecting the contact position and contact area of the contact object with respect to time, and when the area of the contact area increases or decreases with time, the change of the area position representing the position of the contact area is changed Recognition processing for recognizing an event within a predetermined distance as a first event, recognizing an event in which the change in the region position exceeds the distance as a second event, and information representing the recognized event If the first event is recognized in the event output process, information indicating the first event is output. The information different from the second information indicating an event, operation recognition program for output to another device.

(付記23)接触位置検出処理で、接触物により散乱される光を測定させることにより、被接触体に対する接触物の接触領域を検出させる付記22記載の操作認識プログラム。 (Additional remark 23) The operation recognition program of Additional remark 22 which detects the contact area | region of the contact object with respect to a to-be-contacted object by measuring the light scattered by a contact object in a contact position detection process.

本発明は、タッチ操作を認識可能な操作認識装置に好適に適用される。   The present invention is preferably applied to an operation recognition device that can recognize a touch operation.

1 操作応答部
2 操作認識部
10 操作認識装置
11 被接触体
12 光源部
13 検出部
14 利用者の指
15 塗布具
16 塗布物
20 情報処理システム
21 表示部
22 スクリーン
23 プロジェクタ
f1〜f7 画像フレーム
d1,d2 差分画像
DESCRIPTION OF SYMBOLS 1 Operation response part 2 Operation recognition part 10 Operation recognition apparatus 11 Contact object 12 Light source part 13 Detection part 14 User's finger | toe 15 Application tool 16 Application object 20 Information processing system 21 Display part 22 Screen 23 Projector f1-f7 Image frame d1 , D2 Difference image

Claims (10)

操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体と、
前記被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出手段と、
前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が当該距離を超えた事象を第2の事象と認識する認識手段と、
認識された事象を表す情報を他の装置に出力する事象出力手段とを備え、
前記事象出力手段は、前記第1の事象が認識された場合に、当該第1の事象を示す情報であって、前記第2の事象を示す情報とは異なる情報を、他の装置に出力する
ことを特徴とする操作認識装置。
A contacted object that is contacted by a contact object that the operator contacts or a contact object that is applied by the operator;
A contact position detecting means for detecting a contact position and a contact area of a contact object with respect to the contacted object over time;
When the area of the contact region increases or decreases over time, an event in which a change in the region position representing the position of the contact region is within a predetermined distance is recognized as a first event, and the region position Recognizing means for recognizing an event in which the change in the distance exceeds the distance as a second event;
An event output means for outputting information representing the recognized event to another device;
The event output means outputs information indicating the first event, which is different from the information indicating the second event, to another device when the first event is recognized. An operation recognition device characterized by that.
接触位置検出手段は、接触物により散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出する
請求項1記載の操作認識装置。
The operation recognition apparatus according to claim 1, wherein the contact position detection unit detects a contact area of the contact object with respect to the contacted object by measuring light scattered by the contact object.
被接触体は、内部に光を導波可能な構造を有し、当該被接触体の内部に対して光が入射され、
接触位置検出手段は、前記被接触体に対して接触物が接触することに伴い散乱される光を測定することにより、被接触体に対する接触物の接触領域を検出する
請求項1または請求項2記載の操作認識装置。
The contacted body has a structure capable of guiding light inside, and light is incident on the inside of the contacted body.
The contact position detecting means detects a contact area of the contact object with respect to the contacted object by measuring light scattered when the contact object comes into contact with the contacted object. The operation recognition device described.
接触位置検出手段は、人体の一部による接触を検知する
請求項1から請求項3のうちのいずれか1項に記載の操作認識装置。
The operation recognition apparatus according to any one of claims 1 to 3, wherein the contact position detection unit detects contact by a part of a human body.
接触位置検出手段は、被接触体に塗布可能な物質の接触を検知する
請求項1から請求項4のうちのいずれか1項に記載の操作認識装置。
The operation recognition apparatus according to any one of claims 1 to 4, wherein the contact position detection means detects contact of a substance that can be applied to the contacted body.
事象出力手段は、第1の事象とは異なる事象による接触物の接触を検出した場合、当該接触物の接触状態を示す情報を、他の装置に出力する
請求項1から請求項5のうちのいずれか1項に記載の操作認識装置。
The event output means outputs information indicating a contact state of the contact object to another device when the contact of the contact object due to an event different from the first event is detected. The operation recognition apparatus of any one of Claims.
操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体と、
前記被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出手段と、
前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が前記距離を超えた事象を第2の事象と認識する認識手段と、
認識された事象に応じて、予め定められた応答を行う応答手段とを備え、
前記応答手段は、前記第1の事象が認識された場合に、当該第1の事象に応じて定められた応答であって、前記第2の事象に応じて定められた応答とは異なる応答を行う
ことを特徴とする情報処理システム。
A contacted object that is contacted by a contact object that the operator contacts or a contact object that is applied by the operator;
A contact position detecting means for detecting a contact position and a contact area of a contact object with respect to the contacted object over time;
When the area of the contact region increases or decreases over time, an event in which a change in the region position representing the position of the contact region is within a predetermined distance is recognized as a first event, and the region position Recognizing means for recognizing an event in which the change of the distance exceeds the distance as a second event;
Response means for performing a predetermined response according to the recognized event,
When the first event is recognized, the response means is a response determined according to the first event, and is different from the response determined according to the second event. An information processing system characterized by doing.
操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体に対し、当該接触物が接触する接触位置及び当該接触物の接触領域を時間の経過とともに検出し、
前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が前記距離を超えた事象を第2の事象と認識し、
認識された事象を表す情報を他の装置に出力し、
前記事象を表す情報を他の装置に出力する際、前記第1の事象が認識された場合には、当該第1の事象を示す情報であって、前記第2の事象を示す情報とは異なる情報を、他の装置に出力する
ことを特徴とする操作認識方法。
Detecting the contact position of the contact object and the contact area of the contact object over time with respect to the contact object contacted by the contact object contacted by the operator or the contact object applied by the operator, and the contact area of the contact object over time,
When the area of the contact region increases or decreases over time, an event in which a change in the region position representing the position of the contact region is within a predetermined distance is recognized as a first event, and the region position An event where the change in the distance exceeds the distance is recognized as a second event,
Output information representing the recognized event to another device,
When the information representing the event is output to another device, if the first event is recognized, the information indicating the first event is the information indicating the second event. An operation recognition method characterized by outputting different information to another device.
操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体に対し、当該接触物が接触する接触位置及び当該接触物の接触領域を時間の経過とともに検出し、
前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が前記距離を超えた事象を第2の事象と認識し、
認識された事象に応じて、予め定められた応答を行い、
前記応答を行う際、前記第1の事象が認識された場合には、当該第1の事象に応じて定められた応答であって、前記第2の事象に応じて定められた応答とは異なる応答を行う
ことを特徴とする情報処理方法。
Detecting the contact position of the contact object and the contact area of the contact object over time with respect to the contact object contacted by the contact object contacted by the operator or the contact object applied by the operator, and the contact area of the contact object over time,
When the area of the contact region increases or decreases over time, an event in which a change in the region position representing the position of the contact region is within a predetermined distance is recognized as a first event, and the region position An event where the change in the distance exceeds the distance is recognized as a second event,
Depending on the recognized event, perform a predetermined response,
When performing the response, if the first event is recognized, the response is determined according to the first event and is different from the response determined according to the second event. An information processing method characterized by performing a response.
操作者が接触させる接触物または操作者により塗布される接触物によって接触される被接触体を備えたコンピュータに適用される操作認識プログラムであって、
前記コンピュータに、
前記被接触体に対する接触物の接触位置及び接触領域を時間の経過とともに検出する接触位置検出処理、
前記接触領域の面積が時間の経過とともに増加又は減少する場合において、前記接触領域の位置を表す領域位置の変化が予め定められた距離以内である事象を第1の事象と認識し、前記領域位置の変化が前記距離を超えた事象を第2の事象と認識する認識処理、および、
認識された事象を表す情報を他の装置に出力する事象出力処理を実行させ、
前記事象出力処理で、前記第1の事象が認識された場合には、当該第1の事象を示す情報であって、前記第2の事象を示す情報とは異なる情報を、他の装置に出力させる
ための操作認識プログラム。
An operation recognition program applied to a computer provided with a contacted object to be contacted by a contact object to be contacted by an operator or a contact object applied by the operator,
In the computer,
A contact position detection process for detecting a contact position and a contact area of a contact object with respect to the contacted object over time;
When the area of the contact region increases or decreases over time, an event in which a change in the region position representing the position of the contact region is within a predetermined distance is recognized as a first event, and the region position A recognition process for recognizing an event in which the change in the distance exceeds the distance as a second event; and
Causing event output processing to output information representing the recognized event to another device;
When the first event is recognized in the event output process, information indicating the first event and information different from the information indicating the second event is sent to another device. Operation recognition program for output.
JP2010108009A 2010-05-10 2010-05-10 Operation recognition device, information processing system, operation recognition method and operation recognition program Pending JP2011237962A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010108009A JP2011237962A (en) 2010-05-10 2010-05-10 Operation recognition device, information processing system, operation recognition method and operation recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010108009A JP2011237962A (en) 2010-05-10 2010-05-10 Operation recognition device, information processing system, operation recognition method and operation recognition program

Publications (1)

Publication Number Publication Date
JP2011237962A true JP2011237962A (en) 2011-11-24

Family

ID=45325881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010108009A Pending JP2011237962A (en) 2010-05-10 2010-05-10 Operation recognition device, information processing system, operation recognition method and operation recognition program

Country Status (1)

Country Link
JP (1) JP2011237962A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014048692A (en) * 2012-08-29 2014-03-17 Kyocera Corp Input device and portable communication terminal
JP2014078069A (en) * 2012-10-09 2014-05-01 Sharp Corp Touch panel input device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014048692A (en) * 2012-08-29 2014-03-17 Kyocera Corp Input device and portable communication terminal
JP2014078069A (en) * 2012-10-09 2014-05-01 Sharp Corp Touch panel input device

Similar Documents

Publication Publication Date Title
US8633906B2 (en) Operation control apparatus, operation control method, and computer program
TWI479369B (en) Computer-storage media and method for virtual touchpad
EP3232315B1 (en) Device and method for providing a user interface
US10007382B2 (en) Information processing apparatus and information processing method
US9146676B2 (en) Method and apparatus for notifying a user about a manipulation region on the back surface of the apparatus
CN102004593B (en) Information processing apparatus, information processing method and program
US9448714B2 (en) Touch and non touch based interaction of a user with a device
US20130201139A1 (en) User interface apparatus and mobile terminal apparatus
US20100302144A1 (en) Creating a virtual mouse input device
KR20160073359A (en) Apparatus and method for providing user interface, and computer-readable recording medium recording the same
US20100225604A1 (en) Information processing apparatus, threshold value setting method, and threshold value setting program
US20100259493A1 (en) Apparatus and method recognizing touch gesture
US9317130B2 (en) Visual feedback by identifying anatomical features of a hand
US20090267919A1 (en) Multi-touch position tracking apparatus and interactive system and image processing method using the same
TW201040850A (en) Gesture recognition method and interactive input system employing same
TWI463355B (en) Signal processing apparatus, signal processing method and selecting method of user-interface icon for multi-touch interface
CA2481396A1 (en) Gesture recognition method and touch system incorporating the same
US20180059806A1 (en) Information processing device, input control method for controlling input to information processing device, and computer-readable storage medium storing program for causing information processing device to perform input control method
JP2011237962A (en) Operation recognition device, information processing system, operation recognition method and operation recognition program
JP6028320B2 (en) Contact detection device, recording display device, and program
EP4379521A1 (en) Writing/drawing content display method and related device
TWI479363B (en) Portable computer having pointing function and pointing system
KR20110132076A (en) System for controling non-contact screen and method for controling non-contact screen in the system
TWI434205B (en) Electronic apparatus and related control method
US10175825B2 (en) Information processing apparatus, information processing method, and program for determining contact on the basis of a change in color of an image