JP5655450B2 - Optical detection apparatus and information processing system - Google Patents

Optical detection apparatus and information processing system Download PDF

Info

Publication number
JP5655450B2
JP5655450B2 JP2010204019A JP2010204019A JP5655450B2 JP 5655450 B2 JP5655450 B2 JP 5655450B2 JP 2010204019 A JP2010204019 A JP 2010204019A JP 2010204019 A JP2010204019 A JP 2010204019A JP 5655450 B2 JP5655450 B2 JP 5655450B2
Authority
JP
Japan
Prior art keywords
light
unit
irradiation
information processing
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010204019A
Other languages
Japanese (ja)
Other versions
JP2012059172A (en
JP2012059172A5 (en
Inventor
清瀬 摂内
摂内 清瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2010204019A priority Critical patent/JP5655450B2/en
Publication of JP2012059172A publication Critical patent/JP2012059172A/en
Publication of JP2012059172A5 publication Critical patent/JP2012059172A5/ja
Application granted granted Critical
Publication of JP5655450B2 publication Critical patent/JP5655450B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Description

本発明は、光学式検出装置及び情報処理システム等に関する。   The present invention relates to an optical detection device, an information processing system, and the like.

携帯電話、パーソナルコンピューター、カーナビゲーション装置、券売機、銀行の端末などの電子機器では、近年、表示部の前面にタッチパネルが配置された位置検出機能付きの表示装置が用いられる。この表示装置によれば、ユーザーは、表示部に表示された画像を参照しながら、表示画像のアイコン等をポインティングしたり、情報を入力することが可能になる。このようなタッチパネルによる位置検出方式としては、例えば抵抗膜方式や静電容量方式などが知られている。   In recent years, electronic devices such as mobile phones, personal computers, car navigation devices, ticket vending machines, and bank terminals have used display devices with a position detection function in which a touch panel is arranged on the front surface of a display unit. According to this display device, the user can point to an icon of a display image or input information while referring to an image displayed on the display unit. As a position detection method using such a touch panel, for example, a resistance film method or a capacitance method is known.

しかしこのようなタッチパネルは、電子機器の表示部に始めから装着されたものであり、タッチパネルが装着されていないノート型パーソナルコンピューターなどでは、後付けでタッチパネル機能を付加することが難しく、指先のタッチによる操作指示を実現することが難しい。またタッチパネルでは、指先等を画面に接触させるために、画面が汚れたり、傷ついたり、さらに液晶の画素破壊などが生じるおそれがある。   However, such a touch panel is attached to the display unit of an electronic device from the beginning, and it is difficult to add a touch panel function later on a notebook personal computer or the like that is not equipped with a touch panel. It is difficult to realize operation instructions. Further, in the touch panel, since the fingertip or the like is brought into contact with the screen, the screen may be stained or damaged, or the liquid crystal pixels may be destroyed.

一方、投写型表示装置(プロジェクター)やデジタルサイネージ用の表示装置では、携帯電話やパーソナルコンピューターの表示装置に比べて、その表示エリアが広い。従って、これらの表示装置においても、上述の抵抗膜方式や静電容量方式によるタッチパネル機能を後付けで実現することは難しい。なお、投写型表示装置の場合には、特許文献1、2がある。   On the other hand, a projection display device (projector) and a display device for digital signage have a larger display area than a display device of a mobile phone or a personal computer. Therefore, even in these display devices, it is difficult to realize the touch panel function by the above-described resistance film method or capacitance method by retrofitting. In the case of a projection display device, there are Patent Documents 1 and 2.

特開平11−345085号公報JP 11-345085 A 特開2001−142643号公報JP 2001-142463 A

本発明の幾つかの態様によれば、表示部に後付けで取り付けることにより、位置検出機能を付加することができる光学式検出装置及び情報処理システム等を提供できる。   According to some aspects of the present invention, it is possible to provide an optical detection device, an information processing system, and the like that can add a position detection function by being attached to the display unit as a retrofit.

本発明の一態様は、照射光を出射する照射部と、前記照射光が対象物により反射することによる反射光を受光する受光部と、前記受光部の受光結果に基づいて、前記対象物の位置検出用情報を検出する検出部と、表示部を有する情報処理装置の前記表示部に、光学的検出装置を着脱自在に取り付けるための取り付け部と、前記情報処理装置との間で情報を通信するためのインターフェース部とを含む光学式検出装置に関係する。   According to one aspect of the present invention, an irradiation unit that emits irradiation light, a light receiving unit that receives reflected light due to reflection of the irradiation light by an object, and a light reception result of the light receiving unit, Information is communicated between the information processing device and a detection unit for detecting position detection information, an attachment unit for detachably attaching an optical detection device to the display unit of the information processing device having a display unit, and the information processing device. The present invention relates to an optical detection device including an interface unit.

本発明の一態様によれば、情報処理装置の表示部に光学的検出装置を着脱自在に取り付けることができるから、位置検出機能を持たない表示部に後付けで装着して、位置検出機能を付加することができる。またインターフェース部を介して、光学式検出装置と情報処理装置との間で情報を通信することができるから、対象物の位置検出用情報を情報処理装置に送信することができる。その結果、位置検出用情報と情報処理装置に対する指示とを対応付けることができるから、ユーザーは指先などを動かすことにより、例えばホバリング操作や確定操作などの操作指示を情報処理装置に与えることなどが可能になる。   According to one embodiment of the present invention, the optical detection device can be detachably attached to the display unit of the information processing device, so that the position detection function can be added by attaching it to a display unit that does not have a position detection function. can do. In addition, since information can be communicated between the optical detection device and the information processing device via the interface unit, the position detection information of the object can be transmitted to the information processing device. As a result, information for position detection can be associated with instructions for the information processing apparatus, so that the user can give an operation instruction such as a hovering operation or a confirmation operation to the information processing apparatus by moving a fingertip or the like. become.

また本発明の一態様では、前記インターフェース部は、前記位置検出用情報を前記情報処理装置に送信してもよい。   In the aspect of the invention, the interface unit may transmit the position detection information to the information processing apparatus.

このようにすれば、情報処理装置は、インターフェース部を介して、位置検出用情報を受け取ることができるから、位置検出用情報に基づいて必要な処理を行うことができる。   In this way, the information processing apparatus can receive the position detection information via the interface unit, and therefore can perform necessary processing based on the position detection information.

また本発明の一態様では、前記インターフェース部は、位置検出のキャリブレーション処理のためのキャリブレーション用情報を前記情報処理装置に送信してもよい。   In the aspect of the invention, the interface unit may transmit calibration information for calibration processing for position detection to the information processing apparatus.

このようにすれば、情報処理装置は、受信したキャリブレーション用情報に基づいてキャリブレーション処理を行うことができる。その結果、検出エリア等の広さに応じてキャリブレーション処理を行うことができるから、表示部の表示サイズ等が変化しても所望の検出精度を確保することなどが可能になる。   In this way, the information processing apparatus can perform a calibration process based on the received calibration information. As a result, calibration processing can be performed according to the size of the detection area or the like, so that desired detection accuracy can be ensured even if the display size of the display unit changes.

また本発明の一態様では、前記キャリブレーション用情報は、キャリブレーション用プログラムであってもよい。   In one aspect of the present invention, the calibration information may be a calibration program.

このようにすれば、情報処理装置は、受信したキャリブレーション用プログラムをインストールし実行することで、キャリブレーション処理を行うことができる。   In this way, the information processing apparatus can perform the calibration process by installing and executing the received calibration program.

また本発明の一態様では、前記情報処理装置は、前記キャリブレーション用プログラムに基づいて、前記表示部にキャリブレーション用画面を表示し、前記検出部は、前記キャリブレーション用画面が表示された後に、キャリブレーション用座標位置に対応する前記位置検出用情報を検出し、前記インターフェース部は、前記キャリブレーション用座標位置に対応する前記位置検出用情報を前記情報処理装置に送信し、前記情報処理装置は、受信した前記位置検出用情報に基づいて、前記キャリブレーション処理を行ってもよい。   In one embodiment of the present invention, the information processing apparatus displays a calibration screen on the display unit based on the calibration program, and the detection unit displays the calibration screen after the calibration screen is displayed. The position detection information corresponding to the calibration coordinate position is detected, and the interface unit transmits the position detection information corresponding to the calibration coordinate position to the information processing apparatus, and the information processing apparatus May perform the calibration process based on the received position detection information.

このようにすれば、表示部に表示されたキャリブレーション用画面に従って、ユーザーがキャリブレーション用座標位置を例えば指、ペン、ポインティングデバイスなどでポインティングし、それを光学式検出装置が検出し、検出結果である位置検出用情報とキャリブレーション用座標位置とが対応するように、情報処理装置がキャリブレーション処理を実行することができる。   In this way, according to the calibration screen displayed on the display unit, the user points the calibration coordinate position with, for example, a finger, a pen, a pointing device, etc., and the optical detection device detects it, and the detection result The information processing apparatus can execute the calibration process such that the position detection information and the calibration coordinate position correspond to each other.

また本発明の一態様では、前記インターフェース部を介して前記情報処理装置から供給される電源に基づいて、動作してもよい。   In one embodiment of the present invention, the operation may be performed based on a power source supplied from the information processing apparatus via the interface unit.

このようにすれば、情報処理装置のインターフェース部に接続することで、動作に必要な電源を確保することができる。その結果、光学式検出装置のための専用の電源が不要になる。   In this way, it is possible to secure a power source necessary for the operation by connecting to the interface unit of the information processing apparatus. As a result, a dedicated power source for the optical detection device becomes unnecessary.

また本発明の一態様では、前記インターフェース部は、USBインターフェースであってもよい。   In the aspect of the invention, the interface unit may be a USB interface.

このようにすれば、USBインターフェースを介して、光学式検出装置の動作に必要な電源を供給することができる。またUSBインターフェースを介して、情報処理装置と光学式検出装置との間で情報の通信を行うことができる。   In this way, it is possible to supply power necessary for the operation of the optical detection device via the USB interface. In addition, information can be communicated between the information processing apparatus and the optical detection apparatus via the USB interface.

また本発明の一態様では、前記受光部は、複数の受光ユニットを有し、前記複数の受光ユニットは、前記表示部の表示面に交差する方向に沿って配置されてもよい。   In the aspect of the invention, the light receiving unit may include a plurality of light receiving units, and the plurality of light receiving units may be arranged along a direction intersecting a display surface of the display unit.

このようにすれば、受光ユニットはそれぞれ異なる検出エリアからの反射光を受光することができる。こうすることで、対象物がどの検出エリアに存在するかを検出することができる。   In this way, each light receiving unit can receive reflected light from different detection areas. By doing so, it is possible to detect in which detection area the object is present.

また本発明の一態様では、前記複数の受光ユニットは、前記表示面に交差する方向での高さが異なる位置に配置されてもよい。   In the aspect of the invention, the plurality of light receiving units may be arranged at positions having different heights in a direction intersecting the display surface.

このようにすれば、受光ユニットは、表示面に交差する方向での高さが異なる検出エリアからの反射光をそれぞれ受光することができる。その結果、表示面に交差する方向についての位置検出用情報を検出することが可能になる。   In this way, the light receiving unit can receive the reflected light from the detection areas having different heights in the direction intersecting the display surface. As a result, it is possible to detect position detection information in the direction intersecting the display surface.

また本発明の一態様では、前記複数の受光ユニットは、前記表示面がX−Y平面に沿った面である場合に、前記表示面に交差する方向での高さが異なり、かつ、異なるX座標位置に配置されてもよい。   In the aspect of the invention, the plurality of light receiving units may have different heights in a direction intersecting the display surface when the display surface is a surface along the XY plane, and different X You may arrange | position to a coordinate position.

このようにすれば、受光ユニットは、表示面に交差する方向での高さが異なる検出エリアからの反射光をそれぞれ受光することができる。さらに受光ユニットは、それぞれ異なるX座標位置に配置されてもよいから、情報処理装置の表示部に取り付ける際の取り付け位置を同一にする必要がなくなる。   In this way, the light receiving unit can receive the reflected light from the detection areas having different heights in the direction intersecting the display surface. Furthermore, since the light receiving units may be arranged at different X coordinate positions, it is not necessary to have the same mounting position when mounting the light receiving unit on the display unit of the information processing apparatus.

また本発明の一態様では、前記複数の受光ユニットは、前記表示面に交差する方向の入射光を制限する入射光制限部を有し、前記表示面からの距離が短いほど、前記入射光の制限の度合いが強く設定されてもよい。   In the aspect of the invention, the plurality of light receiving units may include an incident light limiting unit that limits incident light in a direction intersecting the display surface, and the shorter the distance from the display surface, The degree of restriction may be set strongly.

このようにすれば、表示面からの距離が短いほど検出エリアを狭く設定し、表示面からの距離が長いほど検出エリアを広く設定することができる。その結果、表示面に近い検出エリアでは、検出精度を高くし、表示面から遠い検出エリアでは、検出精度を落とすことができるから、用途に合った効率の良い検出などが可能になる。   In this way, the detection area can be set narrower as the distance from the display surface is shorter, and the detection area can be set wider as the distance from the display surface is longer. As a result, it is possible to increase the detection accuracy in the detection area close to the display surface and to reduce the detection accuracy in the detection area far from the display surface. Therefore, efficient detection suitable for the application can be performed.

また本発明の一態様では、前記照射部は、光源光を出射する光源部と、前記光源部からの前記光源光を曲線状の導光経路に沿って導光する曲線形状のライトガイドと、前記ライトガイドの外周側から出射される前記光源光を受け、曲線形状の前記ライトガイドの内周側から外周側へと向かう方向に前記照射光の照射方向を設定する照射方向設定部とを含んでもよい。   In one aspect of the present invention, the irradiation unit includes a light source unit that emits light source light, a curved light guide that guides the light source light from the light source unit along a curved light guide path, and An irradiation direction setting unit that receives the light source light emitted from the outer peripheral side of the light guide and sets the irradiation direction of the irradiation light in a direction from the inner peripheral side to the outer peripheral side of the curved light guide. But you can.

このようにすれば、ライトガイドの一端側の強度が高く、他端側の強度が弱くなる照射光強度分布を形成することができる。その結果、環境光などの外乱光の影響を抑えることができるから、より精度の高い対象物の検出が可能になる。   In this way, it is possible to form an irradiation light intensity distribution in which the intensity at one end of the light guide is high and the intensity at the other end is weak. As a result, it is possible to suppress the influence of ambient light such as ambient light, so that it is possible to detect an object with higher accuracy.

本発明の他の態様は、上記いずれかに記載の光学式検出装置と、前記情報処理装置とを含む情報処理システムに関係する。   Another aspect of the present invention relates to an information processing system including any one of the optical detection devices described above and the information processing device.

図1(A)、図1(B)は、光学式検出装置の基本的な構成例。1A and 1B are basic configuration examples of an optical detection device. キャリブレーション処理のフローチャートの一例。An example of the flowchart of a calibration process. 図3(A)〜図3(C)は、キャリブレーション用画面の例。3A to 3C show examples of calibration screens. キャリブレーション処理のフローチャートの一例。An example of the flowchart of a calibration process. 図5(A)、図5(B)は、Z1、Z2に関するキャリブレーション処理を説明する図。FIG. 5A and FIG. 5B are diagrams illustrating calibration processing relating to Z1 and Z2. 受光部の第1の構成例。The 1st structural example of a light-receiving part. 受光部の第2の構成例。The 2nd structural example of a light-receiving part. 図8(A)、図8(B)は、受光ユニットの構成例。8A and 8B are configuration examples of the light receiving unit. 照射部の詳細な構成例。The detailed structural example of an irradiation part. 図10(A)、図10(B)は、座標情報検出の手法を説明する図。FIGS. 10A and 10B are diagrams illustrating a method of detecting coordinate information. 図11(A)、図11(B)は、発光制御信号の信号波形例。11A and 11B show signal waveform examples of the light emission control signal. 照射部の変形例Irradiation unit modification 図13(A)、図13(B)は、情報処理システムの構成例。13A and 13B are configuration examples of an information processing system.

以下、本発明の好適な実施の形態について詳細に説明する。なお以下に説明する本実施形態は特許請求の範囲に記載された本発明の内容を不当に限定するものではなく、本実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。   Hereinafter, preferred embodiments of the present invention will be described in detail. The present embodiment described below does not unduly limit the contents of the present invention described in the claims, and all the configurations described in the present embodiment are indispensable as means for solving the present invention. Not necessarily.

1.光学式検出装置
図1(A)、図1(B)に、本実施形態の光学式検出装置及び情報処理システムの基本的な構成例を示す。本実施形態の光学式検出装置100は、検出部110、インターフェース部120、照射部EU、受光部RU及び取り付け部MTUを含む。また、本実施形態の情報処理システムは、光学式検出装置100及び情報処理装置200を含む。なお、本実施形態の光学式検出装置100及び情報処理システムは図1(A)、図1(B)の構成に限定されず、その構成要素の一部を省略したり、他の構成要素に置き換えたり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Optical Detection Device FIGS. 1A and 1B show a basic configuration example of an optical detection device and an information processing system according to this embodiment. The optical detection device 100 of the present embodiment includes a detection unit 110, an interface unit 120, an irradiation unit EU, a light receiving unit RU, and an attachment unit MTU. In addition, the information processing system according to the present embodiment includes an optical detection device 100 and an information processing device 200. Note that the optical detection device 100 and the information processing system according to the present embodiment are not limited to the configurations shown in FIGS. 1A and 1B, and some of the components may be omitted or other components may be used. Various modifications such as replacement and addition of other components are possible.

検出部110は、照射光LTが対象物OBにより反射することによる反射光LRの受光結果に基づいて、対象物OBの位置検出用情報IDETを検出する。具体的には、例えば図1(B)に示すように、検出部110は、対象物OBが検出されるエリアである検出エリアRDETがX−Y平面に沿った対象面に対して設定される場合に、検出エリアRDETに存在する対象物OBのX座標位置及びY座標位置に関する位置検出用情報IDETを検出する。また位置検出用情報IDETは、対象物OBのZ座標位置に関する位置検出用情報をさらに含んでもよい。なお、位置検出用情報IDETを検出する手法については、後述する。   The detection unit 110 detects the position detection information IDET of the object OB based on the light reception result of the reflected light LR due to the irradiation light LT reflected by the object OB. Specifically, as illustrated in FIG. 1B, for example, the detection unit 110 sets a detection area RDET, which is an area in which the object OB is detected, with respect to a target surface along the XY plane. In this case, the position detection information IDET related to the X coordinate position and the Y coordinate position of the object OB existing in the detection area RDET is detected. The position detection information IDET may further include position detection information regarding the Z coordinate position of the object OB. A method for detecting the position detection information IDET will be described later.

ここでX−Y平面とは、例えば表示部220によって規定される対象面(表示面)に沿った平面である。対象面とは、検出エリアRDETの設定対象となる面であって、例えば情報処理装置のディスプレイの表示面、或いは投射型表示装置の投影面、或いはデジタルサイネージにおけるディスプレイ面などである。   Here, the XY plane is a plane along a target surface (display surface) defined by the display unit 220, for example. The target surface is a surface to be set for the detection area RDET, and is, for example, a display surface of a display of an information processing device, a projection surface of a projection display device, or a display surface of a digital signage.

検出エリアRDETとは、対象物OBが検出されるエリア(領域)であって、具体的には、例えば照射光LTが対象物OBに反射されることによる反射光LRを、受光部RUが受光して、対象物OBを検出することができるエリアである。より具体的には、受光部RUが反射光LRを受光して対象物OBを検出することが可能であって、かつ、その検出精度について、許容できる範囲の精度が確保できるエリアである。   The detection area RDET is an area (region) in which the object OB is detected. Specifically, for example, the light receiving unit RU receives reflected light LR due to the irradiation light LT being reflected by the object OB. Thus, this is an area where the object OB can be detected. More specifically, this is an area where the light receiving unit RU can receive the reflected light LR and detect the object OB, and the detection accuracy can be ensured within an acceptable range.

インターフェース部120は、情報処理装置200との間で情報を通信する。具体的には、インターフェース部120は、例えばUSBインターフェースであって、位置検出用情報IDETを情報処理装置200に送信し、また位置検出のキャリブレーション処理のためのキャリブレーション用情報ICRBを情報処理装置200に送信する。より具体的には、このキャリブレーション用情報ICRBはキャリブレーション用プログラムであって、このキャリブレーション用プログラムにより、キャリブレーション処理が実行される。   The interface unit 120 communicates information with the information processing apparatus 200. Specifically, the interface unit 120 is, for example, a USB interface, transmits the position detection information IDET to the information processing apparatus 200, and transmits the calibration information ICRB for the position detection calibration process to the information processing apparatus. 200. More specifically, the calibration information ICRB is a calibration program, and a calibration process is executed by the calibration program.

キャリブレーション処理とは、光学式検出装置100が検出した位置検出用情報IDETに基づいて、情報処理装置200が、検出エリアRDET内において対象物OBが存在する座標位置を正しく算出するための処理である。具体的には、例えば表示部220に表示されたキャリブレーション用画面に従って、ユーザーが指定されたキャリブレーション用座標位置を対象物(指先、ペン先等)でポインティングし、それを光学式検出装置100が検出し、検出結果である位置検出用情報IDETとキャリブレーション用座標位置とが対応するように、情報処理装置200がキャリブレーション処理を実行する。こうすることで、検出エリアのサイズ等が変化しても、所望の検出精度を確保することができる。なお、キャリブレーション用座標位置は、検出エリアRDET内に複数個設けることができる。   The calibration process is a process for the information processing apparatus 200 to correctly calculate the coordinate position where the object OB exists in the detection area RDET based on the position detection information IDET detected by the optical detection apparatus 100. is there. Specifically, for example, according to the calibration screen displayed on the display unit 220, the calibration coordinate position designated by the user is pointed by an object (fingertip, pen tip, etc.), and is then detected by the optical detection device 100. Is detected, and the information processing apparatus 200 executes the calibration process so that the position detection information IDET as the detection result corresponds to the calibration coordinate position. In this way, desired detection accuracy can be ensured even if the size of the detection area changes. A plurality of calibration coordinate positions can be provided in the detection area RDET.

キャリブレーション処理が実行される期間では、キャリブレーション用プログラムに基づいて、情報処理装置200が表示部220にキャリブレーション用画面を表示し、その後に検出部110がキャリブレーション用座標位置に対応する位置検出用情報IDETを検出し、インターフェース部120がキャリブレーション用座標位置に対応する位置検出用情報IDETを情報処理装置200に送信する。そして情報処理装置200は、受信した位置検出用情報IDETに基づいて、キャリブレーション処理を行う。   During the period in which the calibration process is executed, the information processing apparatus 200 displays a calibration screen on the display unit 220 based on the calibration program, and then the detection unit 110 is a position corresponding to the calibration coordinate position. The detection information IDET is detected, and the interface unit 120 transmits the position detection information IDET corresponding to the calibration coordinate position to the information processing apparatus 200. Then, the information processing apparatus 200 performs calibration processing based on the received position detection information IDET.

またインターフェース部120を介して、情報処理装置200から光学式検出装置100に電源が供給される。具体的には、例えば第1の電源電圧VDD及び第2の電源電圧VSSが供給され、光学式検出装置100はこれらの電源電圧に基づいて動作する。例えばUSBインターフェースの場合では、第1の電源電圧VDDとして、VBUS端子から5Vの電源電圧が供給され、第2の電源電圧VSSとしてGND端子(0V)が用いられる。   Further, power is supplied from the information processing apparatus 200 to the optical detection apparatus 100 via the interface unit 120. Specifically, for example, the first power supply voltage VDD and the second power supply voltage VSS are supplied, and the optical detection device 100 operates based on these power supply voltages. For example, in the case of a USB interface, a power supply voltage of 5 V is supplied from the VBUS terminal as the first power supply voltage VDD, and a GND terminal (0 V) is used as the second power supply voltage VSS.

照射部EUは、検出エリアRDETに対して照射光LTを出射する。後述するように、照射部EUは、LED(発光ダイオード)等の発光素子から成る光源部を含み、光源部が発光することで、例えば赤外光(可視光領域に近い近赤外線)を出射する。   The irradiation unit EU emits irradiation light LT to the detection area RDET. As will be described later, the irradiation unit EU includes a light source unit composed of a light emitting element such as an LED (light emitting diode), and emits, for example, infrared light (near infrared ray close to the visible light region) when the light source unit emits light. .

受光部RUは、照射光LTが対象物OBにより反射することによる反射光LRを受光する。受光部RUは、複数の受光ユニットPDを含んでもよい。受光ユニットPDは、例えばフォトダイオードやフォトトランジスターなどを用いることができる。   The light receiving unit RU receives the reflected light LR resulting from the irradiation light LT being reflected by the object OB. The light receiving unit RU may include a plurality of light receiving units PD. For example, a photodiode or a phototransistor can be used as the light receiving unit PD.

取り付け部MTUは、情報処理装置200の表示部220に、光学的検出装置100を着脱自在に取り付けるためのものである。この取り付け部MTUは、例えばクリップで表示部220の端を挟むようにしたり、ネジ等で表示部220の端に固定するようにしてもよい。また、取り付け位置は、図1(A)に示すように表示部220の上端に限定されるものではなく、例えば下端、左端又は右端に取り付けてもよいし、或いはコーナーに取り付けてもよい。取り付け部MTUにより、本実施形態の光学式検出装置100を後付けで表示部(ディスプレイなど)に取り付けることができるから、表示部に手を加えることなしにタッチパネルのような位置検出機能を持たせることができる。   The attachment unit MTU is for detachably attaching the optical detection device 100 to the display unit 220 of the information processing device 200. For example, the attachment unit MTU may be configured to sandwich the end of the display unit 220 with a clip, or may be fixed to the end of the display unit 220 with a screw or the like. Further, the attachment position is not limited to the upper end of the display unit 220 as shown in FIG. 1A, and may be attached to, for example, the lower end, the left end, or the right end, or may be attached to a corner. Since the optical detection device 100 according to the present embodiment can be attached to a display unit (display or the like) as a retrofit by the mounting unit MTU, a position detection function such as a touch panel can be provided without adding a hand to the display unit. Can do.

情報処理装置200は、例えばノート型などのパーソナルコンピューター(PC)であって、制御部210、表示部220、インターフェース部230及び記憶部240を含む。制御部210は、例えばCPUなどであって、実行されるプログラムに基づいて、データ処理、通信処理、表示処理等を制御する。表示部220は、例えば液晶パネル等のディスプレイであって、制御部210の制御に基づいて画像を表示する。インターフェース部230は、例えばUSBインターフェースであって、光学式検出装置100との間の通信を行い、また光学式検出装置100に電源を供給する。記憶部240は、プログラム及びデータなどを記憶する。   The information processing apparatus 200 is, for example, a personal computer (PC) such as a notebook computer, and includes a control unit 210, a display unit 220, an interface unit 230, and a storage unit 240. The control unit 210 is a CPU, for example, and controls data processing, communication processing, display processing, and the like based on a program to be executed. The display unit 220 is a display such as a liquid crystal panel, for example, and displays an image based on the control of the control unit 210. The interface unit 230 is, for example, a USB interface, performs communication with the optical detection device 100, and supplies power to the optical detection device 100. The storage unit 240 stores programs and data.

情報処理装置200は、例えば画像投影装置に接続され、スクリーンに画像が表示されるPCであってもよいし、ホワイトボードに書かれる手書き文字等を認識する情報処理装置などであってもよい。   The information processing device 200 may be, for example, a PC connected to an image projection device and displaying an image on a screen, or an information processing device that recognizes handwritten characters written on a whiteboard.

本実施形態の光学式検出装置によれば、検出装置を後付けでディスプレイに取り付けることができるから、液晶パネル等のディスプレイに手を加えることなしにタッチパネルのような位置検出機能を付加することができる。さらにキャリブレーション処理により、必要な検出精度を確保することができるから、サイズの異なる様々なディスプレイに対して1つの光学式検出装置で対応することが可能になる。例えばノート型PCのディスプレイのように表示エリアが小さい場合であっても、画像投影装置のスクリーンのように表示エリアが大きい場合であっても、それぞれのサイズに合わせて光学式検出装置を用意する必要がなく、同一の光学式検出装置で対応することが可能になる。   According to the optical detection device of this embodiment, since the detection device can be attached to the display as a retrofit, a position detection function such as a touch panel can be added without modifying the display such as a liquid crystal panel. . Furthermore, since the necessary detection accuracy can be ensured by the calibration process, it is possible to cope with various displays of different sizes with one optical detection device. For example, even when the display area is small, such as a notebook PC display, or when the display area is large, such as a screen of an image projection apparatus, an optical detection device is prepared for each size. This is not necessary, and the same optical detection device can be used.

またタッチパネルでは、指先等を画面に接触させるために、画面が汚れたり、傷ついたり、さらに液晶の画素破壊などが生じるおそれがある。また不特定多数のユーザーが使用するタッチパネルでは、直接接触することで衛生上の問題が生じるおそれもある。本実施形態の光学式検出装置によれば、タッチパネルのように指先等を画面に接触させなくても操作指示を与えることができるから、このような問題が生じるおそれが低減される。   Further, in the touch panel, since the fingertip or the like is brought into contact with the screen, the screen may be stained or damaged, or the liquid crystal pixels may be destroyed. In addition, in a touch panel used by an unspecified number of users, sanitary problems may occur due to direct contact. According to the optical detection device of the present embodiment, an operation instruction can be given without bringing a fingertip or the like into contact with the screen as in a touch panel, so that the possibility of such a problem being reduced.

図2は、X座標位置検出及びY座標位置検出のキャリブレーション処理のフローチャートの一例である。   FIG. 2 is an example of a flowchart of calibration processing for X coordinate position detection and Y coordinate position detection.

最初に、光学式検出装置100を、取り付け部MTUにより表示部220に取り付け、USBケーブルにより情報処理装置200(PC)と光学式検出装置100とを接続する。そしてUSBを介して、PC200から光学式検出装置100に対して電源が供給される(ステップS1)。   First, the optical detection device 100 is attached to the display unit 220 by the attachment unit MTU, and the information processing device 200 (PC) and the optical detection device 100 are connected by a USB cable. Then, power is supplied from the PC 200 to the optical detection device 100 via the USB (step S1).

次に、USBを介して、光学式検出装置100からPC200に対してキャリブレーション用プログラムが送信される(ステップS2)。そしてPC200において、キャリブレーション用プログラムがインストールされる(ステップS3)。この時ディスプレイには、例えば図3(A)に示すメッセージが表示される。なお、キャリブレーション用プログラムは、CD−ROM等の光ディスク、ハードディスク、EEPROM等の不揮発性記憶装置などの記憶媒体に格納される。   Next, a calibration program is transmitted from the optical detection device 100 to the PC 200 via the USB (step S2). In the PC 200, a calibration program is installed (step S3). At this time, for example, a message shown in FIG. The calibration program is stored in a storage medium such as an optical disk such as a CD-ROM, a hard disk, and a nonvolatile storage device such as an EEPROM.

PC200においてキャリブレーション用プログラムが実行されると、キャリブレーション開始選択画面(例えば図3(B)に示す画面)がディスプレイ220に表示される(ステップS4)。そしてユーザーがキャリブレーション処理の開始を選択した場合は(ステップS5:YES)、PC200がキャリブレーション用画面の画像をディスプレイ220に表示する(ステップS6)。またユーザーがキャリブレーション処理の開始を選択しない場合は(ステップS5:NO)、選択待ちの状態を継続する。   When the calibration program is executed in the PC 200, a calibration start selection screen (for example, the screen shown in FIG. 3B) is displayed on the display 220 (step S4). If the user selects to start the calibration process (step S5: YES), the PC 200 displays an image of the calibration screen on the display 220 (step S6). If the user does not select the start of the calibration process (step S5: NO), the selection waiting state is continued.

ステップS6で表示されるキャリブレーション用画面は、例えば図3(C)に示す画面であって、9個のキャリブレーション用座標位置(ポイント)P1〜P9が画面上に表示される。ユーザーがカーソルのあるポイント(図3(C)ではP1)を指先又はペン先等で指示(ポインティング)することにより、キャリブレーション用座標位置を入力することができる。   The calibration screen displayed in step S6 is, for example, the screen shown in FIG. 3C, and nine calibration coordinate positions (points) P1 to P9 are displayed on the screen. The user can input a calibration coordinate position by pointing (pointing) a point where the cursor is located (P1 in FIG. 3C) with a fingertip or a pen tip.

続いて、ユーザーが指先などで指示した位置を光学式検出装置100が検出する(ステップS7)。検出されたX座標位置及びY座標位置に関する位置検出用情報は、USBを介して、PC200に送信される(ステップS8)。そしてPC200は、受信した位置検出用情報に基づいて、ユーザーにより指示された位置を判断してキャリブレーション処理を実行する(ステップS9)。   Subsequently, the optical detection device 100 detects a position designated by the user with a fingertip or the like (step S7). The position detection information related to the detected X coordinate position and Y coordinate position is transmitted to the PC 200 via the USB (step S8). Then, the PC 200 determines the position instructed by the user based on the received position detection information, and executes the calibration process (step S9).

ユーザーが指示するポイント(キャリブレーション用座標位置)が複数ある場合には、ステップS10の判断によりステップS7に戻って、カーソルで示された次のポイント(例えば図3(C)のP2)をユーザーが指示することで、指示されたポイントの位置検出用情報が検出される。   When there are a plurality of points (calibration coordinate positions) designated by the user, the process returns to step S7 based on the determination in step S10, and the next point indicated by the cursor (for example, P2 in FIG. 3C) is selected by the user. , The position detection information of the instructed point is detected.

全てのキャリブレーション用座標位置(ポイント)について位置検出用情報の検出が完了した場合は、ステップS10の判断を経て、Z座標位置に関するキャリブレーション処理に進むことができる(図4のA1)。   When the detection of the position detection information is completed for all the calibration coordinate positions (points), it is possible to proceed to the calibration process related to the Z coordinate position through the determination in step S10 (A1 in FIG. 4).

なお、図3(C)に示すキャリブレーション用画面では、9個のキャリブレーション用座標位置が設けられているが、これより少なくてもよいし、或いはこれより多くてもよい。   Note that in the calibration screen shown in FIG. 3C, nine calibration coordinate positions are provided, but the number may be smaller or larger.

本実施形態の光学式検出装置100では、後述する受光部RUの構成例(図6、図7)によれば、対象物OBのX座標位置及びY座標位置だけではなく、Z座標位置に関する位置検出用情報を検出することができる。そしてさらに対象物OBのZ座標位置に関する位置検出用情報と情報処理装置200に対する操作指示情報とを対応付けることができる。その結果、対象物(指先、ペン先など)のZ座標位置が所定の範囲内にある場合に、ユーザーがその対象物を操作することで、情報処理装置200に対して、所定の操作指示を与えることが可能になる。   In the optical detection device 100 of the present embodiment, according to a configuration example (FIGS. 6 and 7) of the light receiving unit RU described later, not only the X coordinate position and the Y coordinate position of the object OB but also the position related to the Z coordinate position. Detection information can be detected. Further, the position detection information related to the Z coordinate position of the object OB can be associated with the operation instruction information for the information processing apparatus 200. As a result, when the Z coordinate position of the object (fingertip, pen tip, etc.) is within a predetermined range, the user operates the object to give a predetermined operation instruction to the information processing apparatus 200. It becomes possible to give.

具体的には、例えば対象物のZ座標位置がZ1より大きく、Z2(Z1<Z2)以下である場合に、その指先等による操作指示はホバリング操作として認識される。このホバリング操作により、例えば表示部220(ディスプレイ)に表示されるカーソル等を移動させることができる。また例えば対象物のZ座標位置がZ1以下である場合に、その指先等による操作指示は確定操作として認識される。この確定操作により、例えば画面上のボタンを指定して所定のコマンドを実行させたり、手書き文字の入力や、画面のスクロールなどを行うことができる。   Specifically, for example, when the Z coordinate position of the object is larger than Z1 and equal to or smaller than Z2 (Z1 <Z2), the operation instruction by the fingertip or the like is recognized as a hovering operation. By this hovering operation, for example, a cursor displayed on the display unit 220 (display) can be moved. Further, for example, when the Z coordinate position of the object is equal to or less than Z1, the operation instruction by the fingertip or the like is recognized as a confirmation operation. By this confirmation operation, for example, a button on the screen can be designated to execute a predetermined command, handwritten characters can be input, and the screen can be scrolled.

本実施形態の情報処理システムでは、キャリブレーション用プログラムにより、Z座標位置と操作指示情報との対応付けのキャリブレーション処理を行うことができる。このキャリブレーション処理は、具体的には、対象物(指先など)による操作指示が、ホバリング操作であるか、確定操作であるかを判断するためのZ座標のしきい値(例えば上記のZ1、Z2)を較正するための処理である。   In the information processing system of the present embodiment, calibration processing for associating the Z coordinate position with the operation instruction information can be performed by a calibration program. Specifically, this calibration process is performed by using a Z coordinate threshold value (for example, Z1 and the above) for determining whether an operation instruction by an object (such as a fingertip) is a hovering operation or a confirmation operation. This is a process for calibrating Z2).

このようにすることで、ユーザーは指先などを動かすことにより、ホバリング操作や確定操作などの指示を情報処理装置200に与えることができる。さらにホバリング操作であるか、確定操作であるかを判断するためのZ座標のしきい値(例えばZ1、Z2)を較正するためのキャリブレーション処理を行うことができるから、ユーザーは自分が操作しやすいようにZ座標のしきい値を設定することができる。   In this way, the user can give an instruction such as a hovering operation or a confirmation operation to the information processing apparatus 200 by moving a fingertip or the like. Further, since the calibration process for calibrating the threshold value (for example, Z1, Z2) of the Z coordinate for determining whether the operation is a hovering operation or a confirmation operation can be performed, the user can operate it by himself / herself. The Z coordinate threshold can be set to facilitate.

図4は、Z座標位置検出のキャリブレーション処理のフローチャートの一例である。始めにZ座標位置に関するキャリブレーション開始選択画面がディスプレイ220に表示される(ステップS11)。そしてユーザーがキャリブレーション処理の開始を選択した場合は(ステップS12:YES)、PC200が第1の停止指示をディスプレイ220に表示する(ステップS13)。またユーザーがキャリブレーション処理の開始を選択しない場合は(ステップS12:NO)、選択待ちの状態を継続する。   FIG. 4 is an example of a flowchart of the calibration process for detecting the Z coordinate position. First, a calibration start selection screen related to the Z coordinate position is displayed on the display 220 (step S11). If the user selects the start of the calibration process (step S12: YES), the PC 200 displays a first stop instruction on the display 220 (step S13). If the user does not select the start of the calibration process (step S12: NO), the selection waiting state is continued.

ステップS13の第1の停止指示は、Z座標位置Z1に関するキャリブレーション処理のために、ユーザーが対象物(指先、ペンなど)を所望のZ座標位置に停止することを指示するものである。具体的には、例えば図5(A)に示すように、「Z1の位置に指を停止して下さい。」などの指示がディスプレイ220に表示される。   The first stop instruction in step S13 instructs the user to stop the object (fingertip, pen, etc.) at a desired Z coordinate position for the calibration process related to the Z coordinate position Z1. Specifically, for example, as shown in FIG. 5A, an instruction such as “Please stop your finger at the position of Z1” is displayed on the display 220.

続いて、ユーザーが指先などで指示した位置を光学式検出装置100が検出し(ステップS14)、検出されたZ座標位置に関する位置検出用情報は、USBを介して、PC200に送信される(ステップS15)。そしてPC200は、受信した位置検出用情報に基づいて、ユーザーにより指示された位置を判断してZ1に関するキャリブレーション処理を実行する(ステップS16)。例えば図5(A)に示すように、指先のZ座標位置が検出されて、Z1に関するキャリブレーション処理が行われる。   Subsequently, the position detected by the user with the fingertip or the like is detected by the optical detection device 100 (step S14), and the position detection information regarding the detected Z coordinate position is transmitted to the PC 200 via the USB (step S14). S15). Then, the PC 200 determines the position instructed by the user based on the received position detection information, and executes a calibration process related to Z1 (step S16). For example, as shown in FIG. 5A, the Z coordinate position of the fingertip is detected, and the calibration process for Z1 is performed.

次に、PC200は第2の停止指示をディスプレイ220に表示する(ステップS17)。第2の停止指示は、Z座標位置Z2に関するキャリブレーション処理のために、ユーザーが対象物(指先、ペンなど)を所望のZ座標位置に停止することを指示するものである。具体的には、例えば図5(B)に示すように、「Z2の位置に指を停止して下さい。」などの指示がディスプレイ220に表示される。   Next, the PC 200 displays a second stop instruction on the display 220 (step S17). The second stop instruction instructs the user to stop the object (fingertip, pen, etc.) at a desired Z coordinate position for the calibration process related to the Z coordinate position Z2. Specifically, for example, as shown in FIG. 5B, an instruction such as “Please stop your finger at the position of Z2” is displayed on the display 220.

続いて、ユーザーが指先などで指示した位置を光学式検出装置100が検出し(ステップS18)、検出されたZ座標位置に関する位置検出用情報は、USBを介して、PC200に送信される(ステップS19)。そしてPC200は、受信した位置検出用情報に基づいて、ユーザーにより指示された位置を判断してZ2に関するキャリブレーション処理を実行する(ステップS20)。例えば図5(B)に示すように、指先のZ座標位置が検出されて、Z2に関するキャリブレーション処理が行われる。   Subsequently, the optical detection device 100 detects the position designated by the user with the fingertip or the like (step S18), and the position detection information regarding the detected Z coordinate position is transmitted to the PC 200 via the USB (step S18). S19). Then, the PC 200 determines the position instructed by the user based on the received position detection information and executes the calibration process for Z2 (step S20). For example, as shown in FIG. 5B, the Z coordinate position of the fingertip is detected, and the calibration process for Z2 is performed.

図6に、本実施形態の受光部RUの第1の構成例を示す。図6に示す第1の構成例では、受光部RUは3個の受光ユニットPD1〜PD3(広義には複数の受光ユニット)を含み、受光ユニットPD1〜PD3は表示部220の表示面に交差する方向に沿って配置される。具体的には、3つの受光ユニットPD1〜PD3は、表示面に交差する方向での高さ(表示面からの距離)が異なる位置に配置される。或いは、表示面がX−Y平面に沿った面である場合に、表示面に交差する方向での高さが異なり、かつ、異なるX座標位置に配置される。   FIG. 6 shows a first configuration example of the light receiving unit RU of the present embodiment. In the first configuration example shown in FIG. 6, the light receiving unit RU includes three light receiving units PD1 to PD3 (a plurality of light receiving units in a broad sense), and the light receiving units PD1 to PD3 intersect the display surface of the display unit 220. Arranged along the direction. Specifically, the three light receiving units PD1 to PD3 are arranged at positions having different heights (distances from the display surface) in a direction intersecting the display surface. Alternatively, when the display surface is a surface along the XY plane, the heights in the directions intersecting the display surface are different and the X coordinate positions are arranged.

受光ユニットPD1〜PD3は、表示面に交差する方向の入射光を制限する入射光制限部を有する。具体的には、受光ユニットPD1〜PD3は、入射光が入射する角度(例えばZ方向の角度)を制限するためのスリット等を含み、それぞれ検出エリアRDET1〜RDET3に存在する対象物OBからの反射光LRを受光する。例えば、受光ユニットPD1は検出エリアRDET1に存在する対象物OBからの反射光LRを受光するが、他の検出エリアRDET2、RDET3に存在する対象物OBからの反射光LRは受光しない。照射部EUは、3つの検出エリアRDET1〜RDET3に対して照射光LTを出射する。なお、各検出エリアRDET1〜RDET3は、X−Y平面に沿った対象面(表示面)に対して設定されるエリアである。   The light receiving units PD1 to PD3 include an incident light limiting unit that limits incident light in a direction intersecting the display surface. Specifically, the light receiving units PD1 to PD3 include a slit or the like for limiting an angle (for example, an angle in the Z direction) on which incident light is incident, and are reflected from the object OB present in the detection areas RDET1 to RDET3, respectively. The light LR is received. For example, the light receiving unit PD1 receives the reflected light LR from the object OB present in the detection area RDET1, but does not receive the reflected light LR from the objects OB present in the other detection areas RDET2 and RDET3. The irradiation unit EU emits irradiation light LT to the three detection areas RDET1 to RDET3. Each of the detection areas RDET1 to RDET3 is an area set for a target surface (display surface) along the XY plane.

このようにすることで、対象物OBが3つの検出エリアRDET1〜RDET3のうちのどの検出エリアに存在するかを検出することができるから、対象物のZ座標に関する位置検出用情報を検出することができる。そして上述したように、Z座標に関する位置検出用情報と操作指示情報とを対応付けるためのキャリブレーション処理を行うことができる。   By doing in this way, it is possible to detect in which detection area of the three detection areas RDET1 to RDET3 the object OB exists, and therefore detecting position detection information related to the Z coordinate of the object. Can do. As described above, calibration processing for associating the position detection information about the Z coordinate with the operation instruction information can be performed.

なお、図6の構成例は3つの受光ユニットで構成されるが、4つ以上の受光ユニットを含む構成としてもよい。   Note that the configuration example of FIG. 6 includes three light receiving units, but may include four or more light receiving units.

図7に、本実施形態の受光部RUの第2の構成例を示す。図7に示す第2の構成例では、受光部RUは3個の受光ユニットPD1〜PD3(広義には複数の受光ユニット)を含み、表示部220の表示面に交差する方向に沿って配置される。受光ユニットPD1〜PD3は、X−Y平面(表示面)に交差する方向の入射光を制限する入射光制限部を有し、表示面からの距離が短いほど、入射光の制限の度合いが強く設定される。具体的には、例えば図7に示すように、PD1に入射する入射光は最も強く制限され、PD3に入射する入射光は最も弱く制限される。その結果、表示面からの距離が長いほど、検出エリアはZ方向に広く設定される。例えば図7に示すように、最も表示面に近い検出エリアRDET1はZ方向の幅が最も狭く、最も表示面から遠い検出エリアRDET3はZ方向の幅が最も広い。   FIG. 7 shows a second configuration example of the light receiving unit RU of the present embodiment. In the second configuration example shown in FIG. 7, the light receiving unit RU includes three light receiving units PD <b> 1 to PD <b> 3 (a plurality of light receiving units in a broad sense) and is arranged along the direction intersecting the display surface of the display unit 220. The The light receiving units PD1 to PD3 have an incident light restricting unit that restricts incident light in a direction intersecting the XY plane (display surface). The shorter the distance from the display surface, the stronger the degree of restriction of incident light. Is set. Specifically, for example, as shown in FIG. 7, the incident light incident on the PD 1 is most strongly limited, and the incident light incident on the PD 3 is limited most weakly. As a result, the longer the distance from the display surface, the wider the detection area is set in the Z direction. For example, as shown in FIG. 7, the detection area RDET1 closest to the display surface has the smallest width in the Z direction, and the detection area RDET3 farthest from the display surface has the widest width in the Z direction.

このようにすることで、例えば確定操作のように表示面に近い検出エリアで操作が行われる場合には、検出精度を高くし、一方ホバリング操作のように表示面から遠い検出エリアで操作が行われる場合には、検出精度を落とすことができる。その結果、効率の良い位置検出、操作指示などが可能になる。   In this way, for example, when an operation is performed in a detection area close to the display surface, such as a confirmation operation, the detection accuracy is increased, while an operation is performed in a detection area far from the display surface, such as a hovering operation. In this case, the detection accuracy can be lowered. As a result, efficient position detection, operation instructions, and the like are possible.

図8(A)、図8(B)に、スリットSLT(広義には入射光制限部LMT)を有する受光ユニットPD1〜PD3の構成例を示す。図8(A)に示すように、受光素子PHDの前面にスリットSLTを設けて、入射する入射光を制限する。スリットSLTはX−Y平面に沿って設けられ、入射光が入射するZ方向の角度を制限することができる。すなわち受光ユニットPD1〜PD3は、スリットSLTのスリット幅で規定される所定の角度の範囲で入射する入射光を受光することができる。   8A and 8B show configuration examples of the light receiving units PD1 to PD3 each having the slit SLT (incident light limiting unit LMT in a broad sense). As shown in FIG. 8A, a slit SLT is provided in front of the light receiving element PHD to limit incident incident light. The slit SLT is provided along the XY plane, and can limit the angle in the Z direction where incident light is incident. That is, the light receiving units PD1 to PD3 can receive incident light incident within a predetermined angle range defined by the slit width of the slit SLT.

図8(B)は、スリットSLTを有する受光ユニットの上から見た平面図である。例えばアルミニウム等の筐体(ケース)内に配線基板PWBが設けられ、この配線基板PWB上に受光素子PHDが実装される。   FIG. 8B is a plan view seen from above of the light receiving unit having the slit SLT. For example, a wiring board PWB is provided in a housing (case) such as aluminum, and the light receiving element PHD is mounted on the wiring board PWB.

図9に、本実施形態の照射部EUの詳細な構成例を示す。図9の構成例の照射部EUは、光源部LS1、LS2と、ライトガイドLGと、照射方向設定部LEを含む。また反射シートRSを含む。そして照射方向設定部LEは光学シートPS及びルーバーフィルムLFを含む。なお、本実施形態の照射部EUは、図9の構成に限定されず、その構成要素の一部を省略したり、他の構成要素に置き換えたり、他の構成要素を追加するなどの種々の変形実施が可能である。   In FIG. 9, the detailed structural example of the irradiation part EU of this embodiment is shown. The irradiation unit EU in the configuration example of FIG. 9 includes light source units LS1 and LS2, a light guide LG, and an irradiation direction setting unit LE. Moreover, the reflective sheet RS is included. The irradiation direction setting unit LE includes the optical sheet PS and the louver film LF. Note that the irradiation unit EU of the present embodiment is not limited to the configuration of FIG. 9, and various components such as omitting some of the components, replacing them with other components, and adding other components. Variations are possible.

光源部LS1、LS2は、光源光を出射するものであり、LED(発光ダイオード)等の発光素子を有する。この光源部LS1、LS2は例えば赤外光(可視光領域に近い近赤外線)の光源光を放出する。即ち、光源部LS1、LS2が発光する光源光は、ユーザーの指やタッチペン等の対象物により効率的に反射される波長帯域の光や、外乱光となる環境光にあまり含まれない波長帯域の光であることが望ましい。具体的には、人体の表面での反射率が高い波長帯域の光である850nm付近の波長の赤外光や、環境光にあまり含まれない波長帯域の光である950nm付近の赤外光などである。   The light source units LS1 and LS2 emit light source light and have light emitting elements such as LEDs (light emitting diodes). The light source units LS1 and LS2 emit, for example, infrared light (near infrared light close to the visible light region). That is, the light source light emitted from the light source units LS1 and LS2 has a wavelength band that is not included in the wavelength band light that is efficiently reflected by an object such as a user's finger or a touch pen, or ambient light that becomes disturbance light. It is desirable to be light. Specifically, infrared light with a wavelength near 850 nm, which is light in a wavelength band with high reflectance on the surface of the human body, infrared light near 950 nm, which is light in a wavelength band that is not so much included in environmental light, etc. It is.

光源部LS1は、図9のF1に示すようライトガイドLGの一端側に設けられる。また第2の光源部LS2は、F2に示すようにライトガイドLGの他端側に設けられる。そして光源部LS1が、ライトガイドLGの一端側(F1)の光入射面に対して光源光を出射することで、照射光LT1を出射し、第1の照射光強度分布LID1を対象物の検出エリアに形成(設定)する。一方、光源部LS2が、ライトガイドLGの他端側(F2)の光入射面に対して第2の光源光を出射することで、第2の照射光LT2を出射し、第1の照射光強度分布LID1とは強度分布が異なる第2の照射光強度分布LID2を検出エリアに形成する。このように照射部EUは、検出エリアRDETでの位置に応じて強度分布が異なる照射光を出射することができる。   The light source unit LS1 is provided on one end side of the light guide LG as shown by F1 in FIG. The second light source unit LS2 is provided on the other end side of the light guide LG as indicated by F2. Then, the light source unit LS1 emits the light source light to the light incident surface on one end side (F1) of the light guide LG, thereby emitting the irradiation light LT1, and detecting the first irradiation light intensity distribution LID1. Form (set) the area. On the other hand, the light source unit LS2 emits the second light source light LT2 by emitting the second light source light to the light incident surface on the other end side (F2) of the light guide LG, so that the first irradiation light is emitted. A second irradiation light intensity distribution LID2 having an intensity distribution different from that of the intensity distribution LID1 is formed in the detection area. In this way, the irradiation unit EU can emit irradiation light having different intensity distributions according to the position in the detection area RDET.

ライトガイドLG(導光部材)は、光源部LS1、LS2が発光した光源光を導光するものである。例えばライトガイドLGは、光源部LS1、LS2からの光源光を曲線状の導光経路に沿って導光し、その形状は曲線形状になっている。具体的には図9ではライガイドLGは円弧形状になっている。なお図9ではライトガイドLGはその中心角が180度の円弧形状になっているが、中心角が180度よりも小さい円弧形状であってもよい。ライトガイドLGは、例えばアクリル樹脂やポリカーボネートなどの透明な樹脂部材等により形成される。   The light guide LG (light guide member) guides the light source light emitted from the light source units LS1 and LS2. For example, the light guide LG guides the light source light from the light source units LS1 and LS2 along a curved light guide path, and the shape thereof is a curved shape. Specifically, in FIG. 9, the lie guide LG has an arc shape. In FIG. 9, the light guide LG has an arc shape with a center angle of 180 degrees, but may have an arc shape with a center angle smaller than 180 degrees. The light guide LG is formed of, for example, a transparent resin member such as acrylic resin or polycarbonate.

ライトガイドLGの外周側及び内周側の少なくとも一方には、ライトガイドLGからの光源光の出光効率を調整するための加工が施されている。加工手法としては、例えば反射ドットを印刷するシルク印刷方式や、スタンパーやインジェクションで凹凸を付ける成型方式や、溝加工方式などの種々の手法を採用できる。   At least one of the outer peripheral side and the inner peripheral side of the light guide LG is processed to adjust the light output efficiency of the light source light from the light guide LG. As a processing method, for example, various methods such as a silk printing method for printing reflective dots, a molding method for forming irregularities with a stamper or injection, and a groove processing method can be adopted.

プリズムシートPSとルーバーフィルムLFにより実現される照射方向設定部LEは、ライトガイドLGの外周側に設けられ、ライトガイドLGの外周側(外周面)から出射される光源光を受ける。そして曲線形状(円弧形状)のライトガイドLGの内周側から外周側へと向かう方向に照射方向が設定された照射光LT1、LT2を出射する。即ち、ライトガイドLGの外周側から出射される光源光の方向を、ライトガイドLGの例えば法線方向(半径方向)に沿った照射方向に設定(規制)する。これにより、ライトガイドLGの内周側から外周側に向かう方向に、照射光LT1、LT2が放射状に出射されるようになる。   The irradiation direction setting unit LE realized by the prism sheet PS and the louver film LF is provided on the outer peripheral side of the light guide LG and receives light source light emitted from the outer peripheral side (outer peripheral surface) of the light guide LG. And the irradiation light LT1 and LT2 by which the irradiation direction was set to the direction which goes to an outer peripheral side from the inner peripheral side of the light guide LG of curved shape (arc shape) are radiate | emitted. That is, the direction of the light source light emitted from the outer peripheral side of the light guide LG is set (restricted) to an irradiation direction along, for example, the normal direction (radial direction) of the light guide LG. Thereby, irradiation light LT1 and LT2 come to radiate | emit radially in the direction which goes to the outer peripheral side from the inner peripheral side of the light guide LG.

このような照射光LT1、LT2の照射方向の設定は、照射方向設定部LEのプリズムシートPSやルーバーフィルムLFなどにより実現される。例えばプリズムシートPSは、ライトガイドLGの外周側から低視角で出射される光源光の方向を、法線方向側に立ち上げて、出光特性のピークが法線方向になるように設定する。またルーバーフィルムLFは、法線方向以外の方向の光(低視角光)を遮光(カット)する。   Such setting of the irradiation direction of the irradiation light LT1, LT2 is realized by the prism sheet PS, the louver film LF, or the like of the irradiation direction setting unit LE. For example, the prism sheet PS sets the direction of the light source light emitted at a low viewing angle from the outer peripheral side of the light guide LG to the normal direction side so that the peak of the light emission characteristic is in the normal direction. The louver film LF blocks (cuts) light in a direction other than the normal direction (low viewing angle light).

このように本実施形態の照射部EUによれば、ライトガイドLGの両端に光源部LS1、LS2を設け、これらの光源部LS1、LS2を交互に点灯させることで、2つの照射光強度分布を形成することができる。すなわちライトガイドLGの一端側の強度が高くなる照射光強度分布LID1と、ライトガイドLGの他端側の強度が高くなる照射光強度分布LID2を交互に形成することができる。   As described above, according to the irradiation unit EU of the present embodiment, the light source portions LS1 and LS2 are provided at both ends of the light guide LG, and the light source portions LS1 and LS2 are alternately turned on to thereby generate two irradiation light intensity distributions. Can be formed. That is, the irradiation light intensity distribution LID1 in which the intensity on one end side of the light guide LG is increased and the irradiation light intensity distribution LID2 in which the intensity on the other end side of the light guide LG is increased can be alternately formed.

このような照射光強度分布LID1、LID2を形成し、これらの強度分布の照射光による対象物の反射光を受光することで、環境光などの外乱光の影響を最小限に抑えた、より精度の高い対象物の検出が可能になる。即ち、外乱光に含まれる赤外成分を相殺することが可能になり、この赤外成分が対象物の検出に及ぼす悪影響を最小限に抑えることが可能になる。   By forming such irradiation light intensity distributions LID1 and LID2 and receiving the reflected light of the object by the irradiation light of these intensity distributions, the influence of ambient light such as ambient light is minimized. It is possible to detect an object having a high height. That is, it is possible to cancel out the infrared component included in the disturbance light, and it is possible to minimize the adverse effect of the infrared component on the detection of the object.

2.座標情報検出の手法
図10(A)、図10(B)は、本実施形態の光学式検出装置100による座標情報検出の手法を説明する図である。
2. Coordinate Information Detection Method FIGS. 10A and 10B are diagrams illustrating a coordinate information detection method by the optical detection device 100 of the present embodiment.

図10(A)のE1は、図9の照射光強度分布LID1において、照射光LT1の照射方向の角度と、その角度での照射光LT1の強度との関係を示す図である。図10(A)のE1では、照射方向が図10(B)のDD1の方向(左方向)である場合に強度が最も高くなる。一方、DD3の方向(右方向)である場合に強度が最も低くなり、DD2の方向ではその中間の強度になる。具体的には方向DD1から方向DD3への角度変化に対して照射光の強度は単調減少しており、例えばリニア(直線的)に変化している。なお図10(B)では、ライトガイドLGの円弧形状の中心位置が、照射部EUの配置位置PEになっている。   E1 in FIG. 10A is a diagram showing the relationship between the angle of the irradiation direction of the irradiation light LT1 and the intensity of the irradiation light LT1 at that angle in the irradiation light intensity distribution LID1 of FIG. At E1 in FIG. 10A, the intensity is highest when the irradiation direction is the direction DD1 in FIG. 10B (left direction). On the other hand, the intensity is lowest when the direction is DD3 (right direction), and the intensity is intermediate in the direction DD2. Specifically, the intensity of the irradiation light monotonously decreases with respect to the angle change from the direction DD1 to the direction DD3, for example, changes linearly (linearly). In FIG. 10B, the arcuate center position of the light guide LG is the arrangement position PE of the irradiation unit EU.

また図10(A)のE2は、図9の照射光強度分布LID2において、照射光LT2の照射方向の角度と、その角度での照射光LT2の強度との関係を示す図である。図10(A)のE2では、照射方向が図10(B)のDD3の方向である場合に強度が最も高くなる。一方、DD1の方向である場合に強度が最も低くなり、DD2の方向ではその中間の強度になる。具体的には方向DD3から方向DD1への角度変化に対して照射光の強度は単調減少しており、例えばリニアに変化している。なお図10(A)では照射方向の角度と強度の関係はリニアな関係になっているが、本実施形態はこれに限定されず、例えば双曲線の関係等であってもよい。   Further, E2 in FIG. 10A is a diagram showing the relationship between the angle of the irradiation direction of the irradiation light LT2 and the intensity of the irradiation light LT2 at that angle in the irradiation light intensity distribution LID2 of FIG. In E2 of FIG. 10A, the intensity is highest when the irradiation direction is the direction of DD3 of FIG. On the other hand, the intensity is the lowest in the direction of DD1, and the intermediate intensity in the direction of DD2. Specifically, the intensity of irradiation light monotonously decreases with respect to an angle change from the direction DD3 to the direction DD1, and changes linearly, for example. In FIG. 10A, the relationship between the angle in the irradiation direction and the intensity is a linear relationship, but the present embodiment is not limited to this, and may be a hyperbolic relationship, for example.

そして図10(B)に示すように、角度θの方向DDBに対象物OBが存在したとする。すると、光源部LS1が発光することで照射光強度分布LID1を形成した場合(E1の場合)には、図10(A)に示すように、DDB(角度θ)の方向に存在する対象物OBの位置での強度はINTaになる。一方、光源部LS2が発光することで照射光強度分布LID2を形成した場合(E2の場合)には、DDBの方向に存在する対象物OBの位置での強度はINTbになる。   Then, as shown in FIG. 10B, it is assumed that the object OB exists in the direction DDB of the angle θ. Then, when the irradiation light intensity distribution LID1 is formed by light emission from the light source unit LS1 (in the case of E1), as shown in FIG. 10A, the object OB existing in the direction of DDB (angle θ). The intensity at the position is INTa. On the other hand, when the irradiation light intensity distribution LID2 is formed by the light source unit LS2 emitting light (in the case of E2), the intensity at the position of the object OB existing in the direction of DDB is INTb.

従って、これらの強度INTa、INTbの関係を求めることで、対象物OBの位置する方向DDB(角度θ)を特定できる。そして例えば後述する図11(A)、図11(B)の手法により光学式検出装置の配置位置PEからの対象物OBの距離を求めれば、求められた距離と方向DDBとに基づいて対象物OBの位置を特定できる。或いは、後述する図12に示すように、照射部EUとして2個の照射ユニットEU1、EU2を設け、EU1、EU2の各照射ユニットに対する対象物OBの方向DDB1(θ1)、DDB2(θ2)を求めれば、これらの方向DDB1、DDB2と照射ユニットEU1、EU2間の距離DSとにより、対象物OBの位置を特定できる。   Therefore, the direction DDB (angle θ) in which the object OB is located can be specified by obtaining the relationship between the intensities INTa and INTb. For example, if the distance of the object OB from the arrangement position PE of the optical detection device is obtained by the method shown in FIGS. 11A and 11B described later, the object is based on the obtained distance and the direction DDB. The position of OB can be specified. Alternatively, as shown in FIG. 12 to be described later, two irradiation units EU1 and EU2 are provided as the irradiation unit EU, and the directions DDB1 (θ1) and DDB2 (θ2) of the object OB with respect to the irradiation units EU1 and EU2 are obtained. For example, the position of the object OB can be specified by the directions DDB1 and DDB2 and the distance DS between the irradiation units EU1 and EU2.

このような強度INTa、INTbの関係を求めるために、本実施形態では、受光部RUが、照射光強度分布LID1を形成した際の対象物OBの反射光(第1の反射光)を受光する。この時の反射光の検出受光量をGaとした場合に、このGaが強度INTaに対応するようになる。また受光部RUが、照射光強度分布LID2を形成した際の対象物OBの反射光(第2の反射光)を受光する。この時の反射光の検出受光量をGbとした場合に、このGbが強度INTbに対応するようになる。従って、検出受光量GaとGbの関係が求まれば、強度INTa、INTbの関係が求まり、対象物OBの位置する方向DDBを求めることができる。   In order to obtain such a relationship between the intensity INTa and INTb, in the present embodiment, the light receiving unit RU receives the reflected light (first reflected light) of the object OB when the irradiation light intensity distribution LID1 is formed. . If the detected light reception amount of the reflected light at this time is Ga, this Ga corresponds to the intensity INTa. The light receiving unit RU receives the reflected light (second reflected light) of the object OB when the irradiation light intensity distribution LID2 is formed. When the detected light reception amount of the reflected light at this time is Gb, this Gb corresponds to the intensity INTb. Therefore, if the relationship between the detected light reception amounts Ga and Gb is obtained, the relationship between the intensity INTa and INTb can be obtained, and the direction DDB in which the object OB is located can be obtained.

例えば光源部LS1の制御量(例えば電流量)、変換係数、放出光量を、各々、Ia、k、Eaとする。また光源部LS2の制御量(電流量)、変換係数、放出光量を、各々、Ib、k、Ebとする。すると下式(1)、(2)が成立する。   For example, the control amount (for example, current amount), the conversion coefficient, and the emitted light amount of the light source unit LS1 are Ia, k, and Ea, respectively. In addition, the control amount (current amount), the conversion coefficient, and the amount of emitted light of the light source unit LS2 are Ib, k, and Eb, respectively. Then, the following expressions (1) and (2) are established.

Ea=k・Ia (1)
Eb=k・Ib (2)
また光源部LS1からの光源光(第1の光源光)の減衰係数をfaとし、この光源光に対応する反射光(第1の反射光)の検出受光量をGaとする。また光源部LS2からの光源光(第2の光源光)の減衰係数をfbとし、この光源光に対応する反射光(第2の反射光)の検出受光量をGbとする。すると下式(3)、(4)が成立する。
Ea = k · Ia (1)
Eb = k · Ib (2)
Further, let fa be the attenuation coefficient of the light source light (first light source light) from the light source unit LS1, and let Ga be the detected received light amount of the reflected light (first reflected light) corresponding to this light source light. Further, the attenuation coefficient of the light source light (second light source light) from the light source unit LS2 is fb, and the detected light reception amount of the reflected light (second reflected light) corresponding to the light source light is Gb. Then, the following expressions (3) and (4) are established.

Ga=fa・Ea=fa・k・Ia (3)
Gb=fb・Eb=fb・k・Ib (4)
従って、検出受光量Ga、Gbの比は下式(5)のように表せる。
Ga = fa · Ea = fa · k · Ia (3)
Gb = fb · Eb = fb · k · Ib (4)
Therefore, the ratio of the detected light reception amounts Ga and Gb can be expressed as the following equation (5).

Ga/Gb=(fa/fb)・(Ia/Ib) (5)
ここでGa/Gbは、受光部RUでの受光結果から特定することができ、Ia/Ibは、照射部EUの制御量から特定することができる。そして図10(A)の強度INTa、INTbと減衰係数fa、fbとは一意の関係にある。例えば減衰係数fa、fbが小さな値となり、減衰量が大きい場合は、強度INTa、INTbが小さいことを意味する。一方、減衰係数fa、fbが大きな値となり、減衰量が小さい場合は、強度INTa、INTbが大きいことを意味する。従って、上式(5)から減衰率の比fa/fbを求めることで、対象物の方向、位置等を求めることが可能になる。
Ga / Gb = (fa / fb). (Ia / Ib) (5)
Here, Ga / Gb can be specified from the light reception result in the light receiving unit RU, and Ia / Ib can be specified from the control amount of the irradiation unit EU. Intensities INTa and INTb and attenuation coefficients fa and fb in FIG. 10A are in a unique relationship. For example, when the attenuation coefficients fa and fb are small values and the attenuation is large, it means that the strengths INTa and INTb are small. On the other hand, when the attenuation coefficients fa and fb are large and the attenuation is small, it means that the strengths INTa and INTb are large. Therefore, the direction, position, etc. of the object can be obtained by obtaining the attenuation factor ratio fa / fb from the above equation (5).

より具体的には、一方の制御量IaをImに固定し、検出受光量の比Ga/Gbが1になるように、他方の制御量Ibを制御する。例えば光源部LS1、LS2を逆相で交互に点灯させる制御を行い、検出受光量の波形を解析し、検出波形が観測されなくなるように(Ga/Gb=1になるように)、他方の制御量Ibを制御する。そして、この時の他方の制御量Ib=Im・(fa/fb)から、減衰係数の比fa/fbを求めて、対象物の方向、位置等を求める。   More specifically, one control amount Ia is fixed to Im, and the other control amount Ib is controlled so that the detected light reception amount ratio Ga / Gb becomes 1. For example, the light source units LS1 and LS2 are controlled to turn on alternately in reverse phase, the detected received light amount waveform is analyzed, and the other control is performed so that the detected waveform is not observed (Ga / Gb = 1). The amount Ib is controlled. Then, from the other control amount Ib = Im · (fa / fb) at this time, the ratio fa / fb of the attenuation coefficient is obtained, and the direction, position, etc. of the object are obtained.

また下式(6)、(7)のように、Ga/Gb=1になると共に制御量IaとIbの和が一定になるように制御してもよい。   Further, as in the following formulas (6) and (7), control may be performed so that Ga / Gb = 1 and the sum of the control amounts Ia and Ib is constant.

Ga/Gb=1 (6)
Im=Ia+Ib (7)
上式(6)、(7)を上式(5)に代入すると下式(8)が成立する。
Ga / Gb = 1 (6)
Im = Ia + Ib (7)
Substituting the above equations (6) and (7) into the above equation (5), the following equation (8) is established.

Ga/Gb=1=(fa/fb)・(Ia/Ib)
=(fa/fb)・{(Im−Ib)/Ib} (8)
上式(8)より、Ibは下式(9)のように表される。
Ga / Gb = 1 = (fa / fb) · (Ia / Ib)
= (Fa / fb) · {(Im−Ib) / Ib} (8)
From the above equation (8), Ib is expressed as the following equation (9).

Ib={fa/(fa+fb)}・Im (9)
ここでα=fa/(fa+fb)とおくと、上式(9)は下式(10)のように表され、減衰係数の比fa/fbは、αを用いて下式(11)のように表される。
Ib = {fa / (fa + fb)} · Im (9)
Here, if α = fa / (fa + fb), the above equation (9) is expressed as the following equation (10), and the attenuation coefficient ratio fa / fb is expressed by the following equation (11) using α. It is expressed in

Ib=α・Im (10)
fa/fb=α/(1−α) (11)
従って、Ga/Gb=1になると共にIaとIbの和が一定値Imになるように制御すれば、そのときのIb、Imから下式(10)によりαを求め、求められたαを上式(11)に代入することで、減衰係数の比fa/fbを求めることができる。これにより、対象物の方向、位置等を求めることが可能になる。そしてGa/Gb=1になると共にIaとIbの和が一定になるように制御することで、外乱光の影響等を相殺することが可能になり、検出精度の向上を図れる。
Ib = α · Im (10)
fa / fb = α / (1-α) (11)
Therefore, if Ga / Gb = 1 and control is performed so that the sum of Ia and Ib becomes a constant value Im, α is obtained from Ib and Im at that time by the following equation (10), and the obtained α is increased. By substituting into Equation (11), the ratio fa / fb of the attenuation coefficient can be obtained. This makes it possible to obtain the direction, position, etc. of the object. Further, by controlling so that Ga / Gb = 1 and the sum of Ia and Ib becomes constant, it becomes possible to cancel the influence of disturbance light and the like, and the detection accuracy can be improved.

次に本実施形態の光学式検出装置を用いて対象物の座標情報を検出する手法の一例について説明する。図11(A)は、光源部LS1、LS2の発光制御についての信号波形例である。信号SLS1は、光源部LS1の発光制御信号であり、信号SLS2は、光源部LS2の発光制御信号であり、これらの信号SLS1、SLS2は逆相の信号になっている。また信号SRCは受光信号である。   Next, an example of a method for detecting coordinate information of an object using the optical detection device of the present embodiment will be described. FIG. 11A is an example of a signal waveform for light emission control of the light source units LS1 and LS2. The signal SLS1 is a light emission control signal of the light source unit LS1, the signal SLS2 is a light emission control signal of the light source unit LS2, and these signals SLS1 and SLS2 are in reverse phase. The signal SRC is a light reception signal.

例えば光源部LS1は、信号SLS1がHレベルの場合に点灯(発光)し、Lレベルの場合に消灯する。また光源部LS2は、信号SLS2がHレベルの場合に点灯(発光)し、Lレベルの場合に消灯する。従って図11(A)の第1の期間T1では、光源部LS1と光源部LS2が交互に点灯するようになる。即ち光源部LS1が点灯している期間では、光源部LS2は消灯する。これにより図9に示すような照射光強度分布LID1が形成される。一方、光源部LS2が点灯している期間では、光源部LS1は消灯する。これにより図9に示すような照射光強度分布LID2が形成される。   For example, the light source unit LS1 is turned on (emits light) when the signal SLS1 is at the H level, and is turned off when the signal SLS1 is at the L level. The light source unit LS2 is turned on (emits light) when the signal SLS2 is at the H level, and is turned off when the signal SLS2 is at the L level. Therefore, in the first period T1 in FIG. 11A, the light source unit LS1 and the light source unit LS2 are alternately turned on. That is, the light source unit LS2 is turned off during the period when the light source unit LS1 is turned on. As a result, an irradiation light intensity distribution LID1 as shown in FIG. 9 is formed. On the other hand, the light source unit LS1 is turned off during the period when the light source unit LS2 is turned on. As a result, an irradiation light intensity distribution LID2 as shown in FIG. 9 is formed.

このように検出部110は、第1の期間T1において、光源部LS1と光源部LS2を交互に発光(点灯)させる制御を行う。そしてこの第1の期間T1において、光学式検出装置(照射部)から見た対象物の位置する方向が検出される。具体的には、例えば上述した式(6)、(7)のようにGa/Gb=1になると共に制御量IaとIbの和が一定になるような発光制御を、第1の期間T1において行う。そして図10(B)に示すように対象物OBの位置する方向DDBを求める。例えば上式(10)、(11)から減衰係数の比fa/fbを求め、図10(A)、図10(B)で説明した手法により対象物OBの位置する方向DDBを求める。   As described above, the detection unit 110 performs control of alternately emitting (lighting) the light source unit LS1 and the light source unit LS2 in the first period T1. And in this 1st period T1, the direction where the target object located seen from the optical detection apparatus (irradiation part) is detected. Specifically, for example, in the first period T1, light emission control is performed such that Ga / Gb = 1 and the sum of the control amounts Ia and Ib is constant as in the above-described formulas (6) and (7). Do. Then, as shown in FIG. 10B, the direction DDB in which the object OB is located is obtained. For example, the ratio fa / fb of the attenuation coefficient is obtained from the above equations (10) and (11), and the direction DDB in which the object OB is located is obtained by the method described in FIGS. 10 (A) and 10 (B).

そして第1の期間T1に続く第2の期間T2では、受光部RUでの受光結果に基づいて対象物OBまでの距離(方向DDBに沿った方向での距離)を検出する。そして、検出された距離と、対象物OBの方向DDBとに基づいて、対象物の位置を検出する。即ち図10(B)において、光学式検出装置の配置位置PEから対象物OBまでの距離と、対象物OBの位置する方向DDBを求めれば、対象物OBのX、Y座標位置を特定できる。このように、光源の点灯タイミングと受光タイミングの時間のずれから距離を求め、これと角度結果を併せることで、対象物OBの位置を特定できる。   Then, in the second period T2 following the first period T1, the distance to the object OB (the distance in the direction along the direction DDB) is detected based on the light reception result of the light receiving unit RU. Then, based on the detected distance and the direction DDB of the object OB, the position of the object is detected. That is, in FIG. 10B, the X and Y coordinate positions of the object OB can be specified by obtaining the distance from the arrangement position PE of the optical detection device to the object OB and the direction DDB in which the object OB is located. As described above, the position of the object OB can be specified by obtaining the distance from the time difference between the lighting timing of the light source and the light receiving timing and combining this with the angle result.

具体的には図11(A)では、発光制御信号SLS1、SLS2による光源部LS1、LS2の発光タイミングから、受光信号SRCがアクティブになるタイミング(反射光を受光したタイミング)までの時間Δtを検出する。即ち、光源部LS1、LS2からの光が対象物OBに反射されて受光部RUで受光されるまでの時間Δtを検出する。この時間Δtを検出することで、光の速度は既知であるため、対象物OBまでの距離を検出できる。即ち、光の到達時間のずれ幅(時間)を測定し、光の速度から距離を求める。   Specifically, in FIG. 11A, a time Δt from the light emission timing of the light source units LS1 and LS2 by the light emission control signals SLS1 and SLS2 to the timing when the light reception signal SRC becomes active (the timing when the reflected light is received) is detected. To do. That is, the time Δt from when the light from the light source units LS1 and LS2 is reflected by the object OB and received by the light receiving unit RU is detected. By detecting this time Δt, since the speed of light is known, the distance to the object OB can be detected. That is, the shift width (time) of the arrival time of light is measured, and the distance is obtained from the speed of light.

なお、光の速度はかなり速いため、電気信号だけでは単純な差分を求めて時間Δtを検出することが難しいという問題もある。このような問題を解決するためには、図11(B)に示すように発光制御信号の変調を行うことが望ましい。ここで図11(B)は、制御信号SLS1、SLS2の振幅により光の強度(電流量)を模式的に表している模式的な信号波形例である。   In addition, since the speed of light is quite high, there is also a problem that it is difficult to detect the time Δt by obtaining a simple difference using only an electric signal. In order to solve such a problem, it is desirable to modulate the light emission control signal as shown in FIG. Here, FIG. 11B is a schematic signal waveform example schematically representing light intensity (amount of current) by the amplitude of the control signals SLS1 and SLS2.

具体的には図11(B)では、例えば公知の連続波変調のTOF(Time Of Flight)方式で距離を検出する。この連続波変調TOF方式では、一定周期の連続波で強度変調した連続光を用いる。そして、強度変調された光を照射すると共に、反射光を、変調周期よりも短い時間間隔で複数回受光することで、反射光の波形を復調し、照射光と反射光との位相差を求めることで、距離を検出する。なお図11(B)において制御信号SLS1、SLS2のいずれか一方に対応する光のみを強度変調してもよい。また図11(B)のようなクロック波形ではなく、連続的な三角波やSin波で変調した波形であってもよい。また、連続変調した光としてパルス光を用いるパルス変調のTOF方式で、距離を検出してもよい。距離検出手法の詳細については例えば特開2009−8537号公報などに開示されている。   Specifically, in FIG. 11B, the distance is detected by, for example, a known continuous wave modulation TOF (Time Of Flight) method. In this continuous wave modulation TOF method, continuous light that is intensity-modulated with a continuous wave having a constant period is used. Then, while irradiating the intensity-modulated light and receiving the reflected light a plurality of times at time intervals shorter than the modulation period, the waveform of the reflected light is demodulated and the phase difference between the irradiated light and the reflected light is obtained. Thus, the distance is detected. In FIG. 11B, only the light corresponding to one of the control signals SLS1 and SLS2 may be intensity-modulated. Further, instead of the clock waveform as shown in FIG. 11B, a waveform modulated by a continuous triangular wave or Sin wave may be used. Further, the distance may be detected by a pulse modulation TOF method using pulsed light as continuously modulated light. Details of the distance detection method are disclosed in, for example, Japanese Unexamined Patent Application Publication No. 2009-8537.

図12に、本実施形態の照射部EUの変形例を示す。図12では、照射部EUとして第1、第2の照射ユニットEU1、EU2が設けられる。これらの第1、第2の照射ユニットEU1、EU2は、対象物OBの検出エリアRDETの面に沿った方向において所与の距離DSだけ離れて配置される。即ち図1(A)、図1(B)のX軸方向に沿って距離DSだけ離れて配置される。   In FIG. 12, the modification of the irradiation part EU of this embodiment is shown. In FIG. 12, first and second irradiation units EU1 and EU2 are provided as the irradiation unit EU. These first and second irradiation units EU1 and EU2 are arranged apart by a given distance DS in the direction along the surface of the detection area RDET of the object OB. That is, they are arranged apart from each other by a distance DS along the X-axis direction of FIGS. 1 (A) and 1 (B).

第1の照射ユニットEU1は、照射方向に応じて強度が異なる第1の照射光を放射状に出射する。第2の照射ユニットEU2は、照射方向に応じて強度が異なる第2の照射光を放射状に出射する。受光部RUは、第1の照射ユニットEU1からの第1の照射光が対象物OBに反射されることによる第1の反射光と、第2の照射ユニットEU2からの第2の照射光が対象物OBに反射されることによる第2の反射光を受光する。そして検出部110は、受光部RUでの受光結果に基づいて、対象物OBの位置POBを検出する。   The first irradiation unit EU1 emits first irradiation light having different intensities according to the irradiation direction radially. The second irradiation unit EU2 emits second irradiation light having different intensities according to the irradiation direction radially. The light receiving unit RU targets first reflected light from the first irradiation light from the first irradiation unit EU1 reflected by the object OB and second irradiation light from the second irradiation unit EU2. Second reflected light is received by being reflected by the object OB. And the detection part 110 detects the position POB of the target object OB based on the light reception result in the light-receiving part RU.

具体的には検出部110は、第1の反射光の受光結果に基づいて、第1の照射ユニットEU1に対する対象物OBの方向を第1の方向DDB1(角度θ1)として検出する。また第2の反射光の受光結果に基づいて、第2の照射ユニットEU2に対する対象物OBの方向を第2の方向DDB2(角度θ2)として検出する。そして検出された第1の方向DDB1(θ1)及び第2の方向DDB2(θ2)と、第1、第2の照射ユニットEU1、EU2の間の距離DSとに基づいて、対象物OBの位置POBを求める。   Specifically, the detection unit 110 detects the direction of the object OB relative to the first irradiation unit EU1 as the first direction DDB1 (angle θ1) based on the reception result of the first reflected light. Further, based on the reception result of the second reflected light, the direction of the object OB relative to the second irradiation unit EU2 is detected as the second direction DDB2 (angle θ2). Based on the detected first direction DDB1 (θ1) and second direction DDB2 (θ2) and the distance DS between the first and second irradiation units EU1, EU2, the position POB of the object OB is detected. Ask for.

図12の変形例によれば、図11(A)、図11(B)のように光学式検出装置と対象物OBとの距離を求めなくても、対象物OBの位置POBを検出できるようになる。   According to the modification of FIG. 12, the position POB of the object OB can be detected without obtaining the distance between the optical detection device and the object OB as shown in FIGS. 11A and 11B. become.

3.情報処理システム
図13(A)、図13(B)に、本実施形態の情報処理システムの構成例を示す。図13(A)の構成例では、光学式検出装置100がパーソナルコンピューター(広義には情報処理装置)200のディスプレイ(広義には表示部)220に取り付けられている。そしてUSBケーブルUSBCを介して、光学式検出装置100とパーソナルコンピューター200とが電気的に接続される。
3. Information Processing System FIGS. 13A and 13B show a configuration example of the information processing system of the present embodiment. In the configuration example of FIG. 13A, the optical detection device 100 is attached to a display (display unit in a broad sense) 220 of a personal computer (information processing device in a broad sense) 200. Then, the optical detection device 100 and the personal computer 200 are electrically connected via the USB cable USBC.

USBインターフェース(広義にはインターフェース部)を介してパーソナルコンピューター(PC)200から光学式検出装置100へ電源が供給される。またUSBインターフェースを介して、位置検出用情報が光学式検出装置100からPC200に送信される。またキャリブレーション処理のためのキャリブレーション用プログラムが光学式検出装置100からPC200に送信される。このキャリブレーション用プログラムがPC200にインストールされ、キャリブレーション処理が実行される。   Power is supplied from the personal computer (PC) 200 to the optical detection device 100 via a USB interface (interface section in a broad sense). In addition, position detection information is transmitted from the optical detection device 100 to the PC 200 via the USB interface. Also, a calibration program for calibration processing is transmitted from the optical detection apparatus 100 to the PC 200. This calibration program is installed in the PC 200, and calibration processing is executed.

図13(B)の構成例では、光学式検出装置100がスクリーン(広義には表示部)20に取り付けられている。スクリーン20には、PC200に接続された画像投影装置10により、画像が表示される。そしてUSBケーブルUSBCを介して、光学式検出装置100とPC200とが電気的に接続される。上記と同様に、USBインターフェースを介して、電源が供給され、また位置検出用情報及びキャリブレーション用プログラムが送信される。このように画像投影装置のスクリーン等に、本実施形態の光学式検出装置を後付けすることができるから、スクリーンのような広い表示エリアに対しても、指先やペンなどで操作指示を与えることが可能になる。   In the configuration example of FIG. 13B, the optical detection device 100 is attached to a screen (display unit in a broad sense) 20. An image is displayed on the screen 20 by the image projector 10 connected to the PC 200. Then, the optical detection device 100 and the PC 200 are electrically connected via the USB cable USBC. Similarly to the above, power is supplied via the USB interface, and position detection information and a calibration program are transmitted. As described above, since the optical detection device of the present embodiment can be retrofitted to the screen of the image projection device, an operation instruction can be given with a fingertip or a pen to a wide display area such as the screen. It becomes possible.

以上説明したように、本実施形態の光学式検出装置は、取り付け部により、後付けでディスプレイに取り付けることができるから、ディスプレイに手を加えることなしにタッチパネルのような位置検出機能を付加することができる。こうすることで、ユーザーは指先などを動かすことにより、ホバリング操作や確定操作などの指示を情報処理装置に与えることができる。さらにタッチパネルのように指先等を画面に接触させなくても操作指示を与えることができるから、画面が汚れることや画面を傷つけることなどを防止できる。   As described above, since the optical detection device of the present embodiment can be attached to the display later by the attachment portion, it is possible to add a position detection function such as a touch panel without adding a hand to the display. it can. In this way, the user can give an instruction such as a hovering operation or a confirmation operation to the information processing apparatus by moving a fingertip or the like. Furthermore, since an operation instruction can be given without touching the screen with a fingertip or the like like a touch panel, it is possible to prevent the screen from being soiled or damaged.

またスクリーンのように表示エリアが広い場合であっても、ノートPCのディスプレイのように表示エリアが狭い場合であっても、キャリブレーション処理により必要な位置検出精度を確保することができるから、1つの光学式検出装置で対応することが可能になる。   Even if the display area is large like a screen or the display area is narrow like a notebook PC display, the necessary position detection accuracy can be ensured by the calibration process. It becomes possible to cope with one optical detection device.

さらにホバリング操作であるか、確定操作であるかを判断するためのZ座標位置のしきい値(例えばZ1、Z2)を較正するためのキャリブレーション処理を行うことができるから、ユーザーは自分が操作しやすいようにZ座標位置のしきい値を設定することができる。   Furthermore, since the calibration process for calibrating the threshold value (for example, Z1, Z2) of the Z coordinate position for determining whether the operation is a hovering operation or a confirmation operation can be performed, the user can operate The threshold value of the Z coordinate position can be set so that it is easy to do.

なお、以上のように本実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また光学式検出装置及び情報処理システムの構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described with a different term having a broader meaning or the same meaning at least once in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. The configurations and operations of the optical detection device and the information processing system are not limited to those described in the present embodiment, and various modifications can be made.

EU 照射部、RU 受光部、LT 照射光、LR 反射光、
PD1〜PD3 受光ユニット、PHD 受光素子、
RDET、RDET1〜RDET3 検出エリア、MTU 取り付け部、
SLT スリット、LG、LG1、LG2 ライトガイド、LS1、LS2 光源部、
RS 反射シート、PS プリズムシート、LF ルーバーフィルム、
LE 照射方向設定部、LID1 第1の照射光強度分布、
LID2 第2の照射光強度分布、
10 画像投影装置、20 スクリーン、100 光学式検出装置、
110 検出部、120 インターフェース部、
200 情報処理装置、210 制御部、220 表示部、
230 インターフェース部、240 記憶部
EU irradiation unit, RU light receiving unit, LT irradiation light, LR reflected light,
PD1 to PD3 light receiving unit, PHD light receiving element,
RDET, RDET1 to RDET3 detection area, MTU mounting part,
SLT slit, LG, LG1, LG2 light guide, LS1, LS2 light source part,
RS reflective sheet, PS prism sheet, LF louver film,
LE irradiation direction setting unit, LID1 first irradiation light intensity distribution,
LID2 second irradiation light intensity distribution,
10 image projection device, 20 screen, 100 optical detection device,
110 detection unit, 120 interface unit,
200 information processing device, 210 control unit, 220 display unit,
230 interface unit, 240 storage unit

Claims (12)

照射光を出射する照射部と、
前記照射光が対象物により反射することによる反射光を受光する受光部と、
前記受光部の受光結果に基づいて、前記対象物の位置検出用情報を検出する検出部と、
表示部を有する情報処理装置の前記表示部に、少なくとも前記照射部と前記受光部とを着脱自在に取り付けるための取り付け部と、
前記情報処理装置との間で情報を通信するためのインターフェース部とを含み、
前記受光部は、複数の受光ユニットを有し、
前記複数の受光ユニットは、前記表示部の表示面に交差する方向に沿って配置されることを特徴とする光学式検出装置。
An irradiation unit that emits irradiation light; and
A light receiving unit for receiving reflected light by the irradiation light being reflected by an object;
Based on the light reception result of the light receiving unit, a detection unit for detecting information for detecting the position of the object;
An attachment unit for detachably attaching at least the irradiation unit and the light receiving unit to the display unit of the information processing apparatus having a display unit;
Look including an interface portion for communicating information between said information processing apparatus,
The light receiving unit has a plurality of light receiving units,
The plurality of light receiving units are arranged along a direction intersecting a display surface of the display unit.
請求項において、
前記複数の受光ユニットは、前記表示面に交差する方向での高さが異なる位置に配置されることを特徴とする光学式検出装置。
In claim 1 ,
The optical detection device, wherein the plurality of light receiving units are arranged at different heights in a direction intersecting the display surface.
請求項において、
前記複数の受光ユニットは、前記表示面がX−Y平面に沿った面である場合に、前記表示面に交差する方向での高さが異なり、かつ、異なるX座標位置に配置されることを特徴とする光学式検出装置。
In claim 2 ,
When the display surface is a surface along the XY plane, the plurality of light receiving units have different heights in a direction intersecting the display surface and are arranged at different X coordinate positions. An optical detection device.
請求項1乃至3のいずれかにおいて、
前記複数の受光ユニットは、前記表示面に交差する方向の入射光を制限する入射光制限部を有し、
前記表示面からの距離が短いほど、前記入射光の制限の度合いが強く設定されることを特徴とする光学式位置検出装置。
In any one of Claims 1 thru | or 3 ,
The plurality of light receiving units include an incident light limiting unit that limits incident light in a direction intersecting the display surface,
The optical position detection device, wherein the degree of restriction of the incident light is set stronger as the distance from the display surface is shorter.
請求項1乃至4のいずれかにおいて、
前記インターフェース部は、前記位置検出用情報を前記情報処理装置に送信することを特徴とする光学式検出装置。
In any one of Claims 1 thru | or 4 ,
The optical detection apparatus, wherein the interface unit transmits the position detection information to the information processing apparatus.
請求項において、
前記インターフェース部は、位置検出のキャリブレーション処理のためのキャリブレーション用情報を前記情報処理装置に送信することを特徴とする光学式検出装置。
In claim 5 ,
The optical detection apparatus, wherein the interface unit transmits calibration information for calibration processing for position detection to the information processing apparatus.
請求項において、
前記キャリブレーション用情報は、キャリブレーション用プログラムであることを特徴とする光学式検出装置。
In claim 6 ,
The optical detection apparatus, wherein the calibration information is a calibration program.
請求項において、
前記情報処理装置は、前記キャリブレーション用プログラムに基づいて、前記表示部にキャリブレーション用画面を表示し、
前記検出部は、前記キャリブレーション用画面が表示された後に、キャリブレーション用座標位置に対応する前記位置検出用情報を検出し、
前記インターフェース部は、前記キャリブレーション用座標位置に対応する前記位置検出用情報を前記情報処理装置に送信し、
前記情報処理装置は、受信した前記位置検出用情報に基づいて、前記キャリブレーション処理を行うことを特徴とする光学式検出装置。
In claim 7 ,
The information processing apparatus displays a calibration screen on the display unit based on the calibration program,
The detection unit detects the position detection information corresponding to the calibration coordinate position after the calibration screen is displayed,
The interface unit transmits the position detection information corresponding to the calibration coordinate position to the information processing apparatus;
The information processing apparatus performs the calibration process based on the received position detection information.
請求項1乃至のいずれかにおいて、
前記インターフェース部を介して前記情報処理装置から供給される電源に基づいて、動作することを特徴とする光学式検出装置。
In any one of Claims 1 thru | or 8 .
An optical detection apparatus that operates based on power supplied from the information processing apparatus via the interface unit.
請求項1乃至のいずれかにおいて、
前記インターフェース部は、USBインターフェースであることを特徴とする光学式検出装置。
In any one of Claims 1 thru | or 9 ,
The optical detection device, wherein the interface unit is a USB interface.
請求項1乃至10のいずれかにおいて、
前記照射部は、
光源光を出射する光源部と、
前記光源部からの前記光源光を曲線状の導光経路に沿って導光する曲線形状のライトガイドと、
前記ライトガイドの外周側から出射される前記光源光を受け、曲線形状の前記ライトガイドの内周側から外周側へと向かう方向に前記照射光の照射方向を設定する照射方向設定部とを含むことを特徴とする光学式検出装置。
In any one of Claims 1 thru | or 10 .
The irradiation unit is
A light source unit for emitting light source light;
A curved light guide for guiding the light source light from the light source section along a curved light guide path;
An irradiation direction setting unit that receives the light source light emitted from the outer peripheral side of the light guide and sets the irradiation direction of the irradiation light in a direction from the inner peripheral side to the outer peripheral side of the curved light guide An optical detection device.
請求項1乃至11のいずれかに記載の光学式検出装置と、
前記情報処理装置とを含むことを特徴とする情報処理システム。
The optical detection device according to any one of claims 1 to 11 ,
An information processing system comprising the information processing apparatus.
JP2010204019A 2010-09-13 2010-09-13 Optical detection apparatus and information processing system Expired - Fee Related JP5655450B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010204019A JP5655450B2 (en) 2010-09-13 2010-09-13 Optical detection apparatus and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010204019A JP5655450B2 (en) 2010-09-13 2010-09-13 Optical detection apparatus and information processing system

Publications (3)

Publication Number Publication Date
JP2012059172A JP2012059172A (en) 2012-03-22
JP2012059172A5 JP2012059172A5 (en) 2013-10-17
JP5655450B2 true JP5655450B2 (en) 2015-01-21

Family

ID=46056159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010204019A Expired - Fee Related JP5655450B2 (en) 2010-09-13 2010-09-13 Optical detection apparatus and information processing system

Country Status (1)

Country Link
JP (1) JP5655450B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6229572B2 (en) * 2014-03-28 2017-11-15 セイコーエプソン株式会社 Light curtain installation method and bidirectional display device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3554859B2 (en) * 2000-11-15 2004-08-18 日本航空電子工業株式会社 Light receiving element with light blocking slit and optical touch panel device
JP4515653B2 (en) * 2001-03-15 2010-08-04 株式会社リコー INFORMATION INPUT DEVICE, INFORMATION INPUT DEVICE CONTROL METHOD, PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE PROGRAM
JP2003280802A (en) * 2002-03-22 2003-10-02 Canon Inc Coordinate inputting device
JP2006293638A (en) * 2005-04-08 2006-10-26 Canon Inc Information processor and peripheral equipment
JP2006323521A (en) * 2005-05-17 2006-11-30 Takenaka Komuten Co Ltd Non-contact type input device
TW201030578A (en) * 2009-02-13 2010-08-16 Arima Lasers Corp A detection module and an optical detection system comprising the same
US20110320165A1 (en) * 2009-03-06 2011-12-29 Junichi Miyamoto Electronic pen system, positional variation measuring device, display method, and program

Also Published As

Publication number Publication date
JP2012059172A (en) 2012-03-22

Similar Documents

Publication Publication Date Title
JP5703644B2 (en) Optical detection system, electronic equipment
JP5703643B2 (en) Optical detection system and program
JP5668416B2 (en) Optical detection apparatus, electronic apparatus, and optical detection method
CN107678601B (en) Display device for sensing multiple contacts and proximity objects
JP5445321B2 (en) Optical detection device, display device, and electronic apparatus
JP5754216B2 (en) Input system and pen-type input device
JP2011248041A (en) Mounting device and projection type display apparatus
US20170038896A1 (en) Electric white board and control method therof
CN112789583A (en) Display device and control method thereof
JP2012150636A (en) Projection type display device and information processing system
JP2012103938A (en) Optical detection system and program
US20120044143A1 (en) Optical imaging secondary input means
US9292131B2 (en) Light guide for backlight
US9710074B2 (en) Digitizer using position-unique optical signals
US9354750B2 (en) Digitizer for multi-display system
CN105005419B (en) Non-contact gesture recognition infrared touch screen
JP5655450B2 (en) Optical detection apparatus and information processing system
US20180024736A1 (en) Electronic device and touch panel
US9696852B2 (en) Electronic device for sensing 2D and 3D touch and method for controlling the same
WO2013009723A1 (en) Digitizer using position-unique optical signals
JP5672018B2 (en) Position detection system, display system, and information processing system
JP5672031B2 (en) Optical detection device, electronic device, and projection display device
JP2012160040A (en) Irradiation unit, optical detector and information processing system
JP2012160041A (en) Irradiation unit, optical detector and information processing system

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130904

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141110

R150 Certificate of patent or registration of utility model

Ref document number: 5655450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees