JP2015056064A - Coordinate input device and image processing apparatus - Google Patents

Coordinate input device and image processing apparatus Download PDF

Info

Publication number
JP2015056064A
JP2015056064A JP2013189773A JP2013189773A JP2015056064A JP 2015056064 A JP2015056064 A JP 2015056064A JP 2013189773 A JP2013189773 A JP 2013189773A JP 2013189773 A JP2013189773 A JP 2013189773A JP 2015056064 A JP2015056064 A JP 2015056064A
Authority
JP
Japan
Prior art keywords
coordinate position
coordinate
calculated
coordinate input
input area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013189773A
Other languages
Japanese (ja)
Other versions
JP6176013B2 (en
Inventor
浪江 健史
Takeshi Namie
健史 浪江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013189773A priority Critical patent/JP6176013B2/en
Publication of JP2015056064A publication Critical patent/JP2015056064A/en
Application granted granted Critical
Publication of JP6176013B2 publication Critical patent/JP6176013B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a coordinate input device which triangulates a coordinate position of a pointing object which blocks an optical path between light-receiving/emitting means and retroreflection means arranged in different positions in a coordinate input area, while calculating the coordinate position of the pointing object even when the optical path is blocked by a hand or the like, or when a plurality of pointing objects touch the coordinate input area.SOLUTION: Light beams L1-Lm emitted from light-receiving/emitting means 41-1, 41-2 arranged at both upper ends of a coordinate input area 43 are reflected by a retroreflection member 44, and return to the light-receiving/emitting means 41-1, 41-2. When an electronic pen, not shown in Fig, touches the coordinate input area 43 and blocks an optical path, a touch position 42 is calculated by triangulation. Even if the optical path is blocked by a hand or the like or a plurality of pointing objects touch the coordinate input area 43, the touch position 42 can be calculated by use of outputs from an acceleration sensor and an angular velocity sensor of the electronic pen.

Description

本発明は、座標入力装置に関し、特にパーソナルコンピュータ等において情報を入力したり、選択したりするために、ペンなどの指示物体によって指示された位置を入力する座標入力装置及びそれを備えた画像処理装置に関する。   The present invention relates to a coordinate input device, and more particularly to a coordinate input device that inputs a position designated by a pointing object such as a pen in order to input or select information in a personal computer or the like, and image processing including the coordinate input device. Relates to the device.

液晶やプラズマなどのフラットパネルやプロジェクタを用いた40インチ〜80インチ程度のサイズの大型のディスプレイに、タッチパネルを搭載した、いわゆる「電子情報ボード」製品が市販されている。   A so-called “electronic information board” product in which a touch panel is mounted on a large display having a size of about 40 inches to 80 inches using a flat panel such as liquid crystal or plasma or a projector is commercially available.

電子情報ボードにパーソナルコンピュータ(以下、PC)を接続することによって、PCの画面を大きく映すことができ、企業や行政機関の会議におけるプレゼンテーション等や教育機関等で用いられている。   By connecting a personal computer (hereinafter referred to as a PC) to an electronic information board, it is possible to project a large screen of the PC, and it is used in presentations at meetings of companies and administrative institutions, educational institutions, and the like.

電子情報ボードに搭載するタッチパネル機能を用いて、映されている画面にマウス操作の代わりに直接タッチすることで、画面を表示しているPCを操作する、「タッチパネルを介したPC操作機能」、が提供されている。   Using the touch panel function mounted on the electronic information board, the PC that is displaying the screen is operated by directly touching the displayed screen instead of the mouse operation, “PC operation function via the touch panel”, Is provided.

さらに、接続したPC上で動かす、電子黒板アプリケーションソフトウエアがこれらの機器と一緒に提供されている。このアプリケーションソフトウエアは、黒板の役割をする画面を提供し、その上に手書き文字などをタッチパネルを介して描く機能、このアプリケーションを提供するパソコンの画面を取り込んでその上に手書き文字などを重畳して描く機能など、「タッチパネルを介した手書機能」、が提供されている。   Furthermore, electronic blackboard application software that runs on a connected PC is provided with these devices. This application software provides a screen that acts as a blackboard, the function to draw handwritten characters etc. on the touch panel on it, the screen of the PC that provides this application is taken in, and handwritten characters etc. are superimposed on it "Handwriting function via touch panel" is provided.

具体的な製品事例では、例えばシャープ(株)の「BIG PAD」(登録商標)、日立ソフトウェアエンジニアリング(株)の「スターボード」(登録商標)や、パイオニア(株)の「サイバーカンファレンス」(登録商標)、がある。   Specific product examples include, for example, “BIG PAD” (registered trademark) of Sharp Corporation, “Starboard” (registered trademark) of Hitachi Software Engineering Corporation, and “Cyber Conference” (registered trademark) of Pioneer Corporation. Trademark).

このような手書き機能を備えた電子情報ボードを利用すると、オフィスの会議シーン等において、説明のための表示資料を操作しながら、適宜画面上に直接指摘事項等の書き込みを行い、さらに必要に応じて書き込みを含む画面内容を記録することができる。この結果、会議終了時に画面内容を振り返り、画面内容を再利用することで効率的に結論などをまとめることが期待できる。   When using an electronic information board with such a handwriting function, in the office meeting scene, etc., the display items for explanation are manipulated and the indicated items are directly written on the screen as needed. The screen contents including writing can be recorded. As a result, it is expected that the contents of the screen can be efficiently summarized by looking back at the end of the conference and reusing the screen contents.

このような電子情報ボードに対する指示物体の接触位置の入力が可能な装置として、特許文献1、2に記載された座標入力装置がある。これらの座標入力装置は、座標入力領域の2箇所に配置された受発光手段と、各受発光手段から前記座標入力領域に出射された光を各受発光手段の方向に向けて反射させる再帰性反射手段と、を備えている。そして、各受発光手段から前記座標入力領域に同時に(特許文献2)又は順次に(特許文献1)出射され、前記再帰性反射手段で反射し、各受発光手段に到達する光の光路が前記座標入力領域に接触した指示物体により遮断されたとき、各受発光手段の間の距離と、各受発光手段と前記遮断された光路のなす角度とから、三角測量により前記指示物体が接触した座標入力領域上の位置(以下、座標位置)を算出するように構成されている。   As an apparatus capable of inputting the contact position of the pointing object with respect to such an electronic information board, there are coordinate input apparatuses described in Patent Documents 1 and 2. These coordinate input devices include light receiving / emitting means arranged at two locations in the coordinate input area, and recursivity for reflecting light emitted from each light receiving / emitting means toward the coordinate input area toward the light receiving / emitting means. And reflecting means. Then, the optical path of the light emitted from each light receiving / emitting means to the coordinate input area simultaneously (Patent Document 2) or sequentially (Patent Document 1), reflected by the retroreflecting means, and reaching each light receiving / emitting means is The coordinates at which the pointing object comes into contact by triangulation from the distance between each light emitting / receiving means and the angle formed by each light receiving / emitting means and the blocked light path when blocked by the pointing object touching the coordinate input area A position on the input area (hereinafter, coordinate position) is calculated.

しかしながら、特許文献1、2に記載された座標入力装置では、前記光路が手などに遮られることで、指示物体の座標位置を算出できなくなるという問題がある。また、複数の指示物体を用いると、それぞれの指示物体の座標位置を算出できなくなるという問題もある。   However, the coordinate input devices described in Patent Documents 1 and 2 have a problem that the coordinate position of the pointing object cannot be calculated because the optical path is blocked by a hand or the like. Further, when a plurality of pointing objects are used, there is a problem that the coordinate position of each pointing object cannot be calculated.

本発明は、このような問題を解決するためになされたものであり、その目的は、座標入力領域の2箇所に配置された受発光手段と再帰性反射手段との間の光路が指示物体に遮断されたとき、その指示物体の座標位置を三角測量により算出する座標入力装置において、前記光路が手などに遮られたり、複数の指示物体が前記座標入力領域に接触したりしても、指示物体の座標位置を算出できるようにすることである。   The present invention has been made to solve such a problem, and an object of the present invention is to provide an optical path between the light emitting / receiving means and the retroreflective means arranged at two locations in the coordinate input area as the pointing object. In the coordinate input device that calculates the coordinate position of the pointing object by triangulation when blocked, even if the optical path is blocked by a hand or the like, or a plurality of pointing objects contact the coordinate input area It is to be able to calculate the coordinate position of the object.

本発明の座標入力装置は、座標入力領域の2箇所に配置された受発光手段と、各受発光手段から前記座標入力領域に出射された光を各受発光手段の方向に向けて反射させる反射手段と、各受発光手段から前記座標入力領域に出射され、前記反射手段で反射し、各受発光手段に到達する光の光路が前記座標入力領域に接触した指示物体により遮断されたとき、各受発光手段の間の距離と、各受発光手段と前記遮断された光路のなす角度とから、前記指示物体が接触した座標位置を算出する第1の座標位置算出手段と、前記指示物体からの加速度の検知信号及び角速度の検知信号を積算して、前記指示物体の移動量と移動方向を含む移動情報を算出する移動情報算出手段と、前記第1の座標位置算出手段により座標位置を算出できないとき、前記第1の座標位置算出手段により算出できたときの座標位置と、前記移動情報算出手段で算出された移動情報とから、前記指示物体の座標位置を算出する第2の座標位置算出手段と、を有する座標入力装置である。   The coordinate input device according to the present invention includes light receiving / emitting means arranged at two locations in the coordinate input area, and reflection for reflecting the light emitted from each light receiving / emitting means to the coordinate input area toward the light receiving / emitting means. And the light path of the light emitted from each light receiving / emitting means to the coordinate input area, reflected by the reflecting means, and reaching each light receiving / emitting means is blocked by the pointing object in contact with the coordinate input area, A first coordinate position calculating means for calculating a coordinate position where the pointing object contacts, based on a distance between the light receiving and emitting means and an angle formed between each light receiving and emitting means and the blocked optical path; The coordinate position cannot be calculated by the movement information calculation means for calculating the movement information including the movement amount and the movement direction of the pointing object by integrating the acceleration detection signal and the angular velocity detection signal, and the first coordinate position calculation means. When said Second coordinate position calculation means for calculating the coordinate position of the pointing object from the coordinate position calculated by one coordinate position calculation means and the movement information calculated by the movement information calculation means It is a coordinate input device.

本発明によれば、座標入力領域の2箇所に配置された受発光手段と再帰性反射手段との間の光路が指示物体に遮断されたとき、その指示物体の座標位置を三角測量により算出する座標入力装置において、前記光路が手などに遮られたり、複数の指示物体が前記座標入力領域に接触したりしても、指示物体の座標位置を算出することができる。   According to the present invention, when the light path between the light emitting / receiving means and the retroreflective means arranged at two places in the coordinate input area is blocked by the pointing object, the coordinate position of the pointing object is calculated by triangulation. In the coordinate input device, the coordinate position of the pointing object can be calculated even when the optical path is blocked by a hand or the like or a plurality of pointing objects contact the coordinate input area.

本発明の実施形態の座標入力装置が搭載された画像処理装置を含む画像処理システムの第1の例を示す図である。It is a figure which shows the 1st example of the image processing system containing the image processing apparatus by which the coordinate input device of embodiment of this invention is mounted. 本発明の実施形態の座標入力装置が搭載された画像処理装置を含む画像処理システムの第2の例を示す図である。It is a figure which shows the 2nd example of the image processing system containing the image processing apparatus by which the coordinate input device of embodiment of this invention is mounted. 図2に示す画像処理装置のハードウェア構成及び機能構成を示す図である。FIG. 3 is a diagram illustrating a hardware configuration and a functional configuration of the image processing apparatus illustrated in FIG. 2. 本発明の実施形態の座標入力装置の概略構成を示す図である。It is a figure which shows schematic structure of the coordinate input device of embodiment of this invention. 図4における受発光手段の内部構成を示す図である。It is a figure which shows the internal structure of the light emitting / receiving means in FIG. 画像処理装置の表示部の表面に指示物体が接触してビームが遮断されたときの動作を説明するための図である。It is a figure for demonstrating operation | movement when a pointing object contacts the surface of the display part of an image processing apparatus, and a beam is interrupted | blocked. 三角測量の原理を基に座標位置を算出する方法を説明するための図である。It is a figure for demonstrating the method of calculating a coordinate position based on the principle of triangulation. 指示物体以外に手などが表示部の表面に接触している状態を示す図である。It is a figure which shows the state in which a hand etc. are contacting the surface of a display part other than a pointing object. 2つの指示物体が表示部の表面に接触している状態を示す図である。It is a figure which shows the state which the two pointing objects are contacting the surface of a display part. 本発明の指示物体の実施形態としての電子ペンの構成を示す図である。It is a figure which shows the structure of the electronic pen as embodiment of the pointing object of this invention. 図9に示す電子ペンからの信号を用いた座標検出処理の一部を示すフローチャートである。10 is a flowchart illustrating a part of coordinate detection processing using a signal from the electronic pen illustrated in FIG. 9. 図9に示す電子ペンからの信号を用いた座標検出処理の残りの部分を示すフローチャートである。It is a flowchart which shows the remaining part of the coordinate detection process using the signal from the electronic pen shown in FIG.

以下、本発明の実施形態について図面を用いて詳細に説明する。
<座標入力装置が実装された画像処理装置を含む画像処理システム>
図1は、本発明の実施形態の座標入力装置が搭載された画像処理装置を含む画像処理システムの第1の例を示す図である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<Image processing system including an image processing device on which a coordinate input device is mounted>
FIG. 1 is a diagram illustrating a first example of an image processing system including an image processing device on which a coordinate input device according to an embodiment of the present invention is mounted.

画像処理システム100は、画像処理装置110と、ユーザPC130a,130bとを含んで構成されており、画像処理装置110とユーザPC130a,130bとは、それぞれケーブル124a,124bによって接続される。   The image processing system 100 includes an image processing apparatus 110 and user PCs 130a and 130b. The image processing apparatus 110 and user PCs 130a and 130b are connected by cables 124a and 124b, respectively.

画像処理装置110は表示部112を備えており、ユーザPC130a,130bの表示画像を表示することができるとともに、ユーザが生成する描画画像を表示可能な装置である。ユーザPC130a,130bは、画像処理装置110に表示すべき画像を提供する情報処理装置である。ユーザPC130a,130bは、画像信号を出力するインタフェースを備えており、ユーザPC130a,130bの表示画像を形成する画像信号を所定のレート(例えば毎秒30フレーム)で画像処理装置110に供給する。   The image processing apparatus 110 includes a display unit 112 and can display a display image of the user PCs 130a and 130b and can display a drawing image generated by the user. The user PCs 130 a and 130 b are information processing apparatuses that provide images to be displayed on the image processing apparatus 110. The user PCs 130a and 130b are provided with an interface for outputting image signals, and supply image signals for forming display images of the user PCs 130a and 130b to the image processing apparatus 110 at a predetermined rate (for example, 30 frames per second).

本実施形態では、ユーザPC130a,130bは、インタフェースとしてVGA出力端子(図示せず)を備えており、VGAケーブル等のケーブル124a,124bを介してVGA信号を画像処理装置110に送信することができる。他の実施形態では、ユーザPC130a,130bは、各種無線通信プロトコルに準拠した無線通信により、表示画像を送信してもよい。   In the present embodiment, the user PCs 130a and 130b include VGA output terminals (not shown) as interfaces, and can transmit VGA signals to the image processing apparatus 110 via cables 124a and 124b such as VGA cables. . In other embodiments, the user PCs 130a and 130b may transmit display images by wireless communication complying with various wireless communication protocols.

この図に示す実施形態では、ユーザPC130a,130bとしてノート型PCを採用するが、他の実施形態では、デスクトップ型PCやタブレット型PC、PDA、デジタルビデオカメラ、デジタルカメラ等の画像フレームを供給可能な情報処理装置を採用することができる。また、図1に示す画像処理システム100では、2つのユーザPC130a,130bを採用するが、他の実施形態では、1つのユーザPC又は3つ以上のユーザPCを採用することもできる。   In the embodiment shown in the figure, notebook PCs are used as the user PCs 130a and 130b. However, in other embodiments, image frames such as desktop PCs, tablet PCs, PDAs, digital video cameras, and digital cameras can be supplied. A simple information processing apparatus can be employed. In the image processing system 100 illustrated in FIG. 1, two user PCs 130a and 130b are employed. However, in another embodiment, one user PC or three or more user PCs may be employed.

図2は、本発明の実施形態の座標入力装置が搭載された画像処理装置を含む画像処理システムの第2の例を示す図である。この画像処理システム1000について、図1に示す画像処理システム100との相違点を中心に説明する。   FIG. 2 is a diagram illustrating a second example of an image processing system including an image processing device in which the coordinate input device according to the embodiment of the present invention is mounted. The image processing system 1000 will be described focusing on differences from the image processing system 100 shown in FIG.

画像処理システム1000では、画像処理装置110と、画像処理装置1010と、ユーザPC130dとがネットワーク1014を介して接続される。ネットワーク1014は、LANやインターネットなどのネットワークであり、画像処理装置110,1010,及びユーザPC130dの間で、画像データ及びイベント等の種々のデータを通信する。   In the image processing system 1000, the image processing apparatus 110, the image processing apparatus 1010, and the user PC 130d are connected via a network 1014. The network 1014 is a network such as a LAN or the Internet, and communicates various data such as image data and events between the image processing apparatuses 110 and 1010 and the user PC 130d.

画像処理装置1010は、ケーブル124cを介してユーザPC130cに接続されている。   The image processing apparatus 1010 is connected to the user PC 130c via the cable 124c.

この図に示す実施形態では、画像処理装置110,1010及びユーザPC130dがネットワーク1014を介して接続されるが、他の実施形態では、これらの画像処理装置をネットワーク1014を介さずに、スター型等の接続形態で直接接続してもよい。   In the embodiment shown in this figure, the image processing apparatuses 110 and 1010 and the user PC 130d are connected via the network 1014. However, in other embodiments, these image processing apparatuses are not connected via the network 1014, such as a star type. You may connect directly with this connection form.

<画像処理装置のハードウェア構成及び機能構成>
図3は、図2に示す画像処理装置のハードウェア構成及び機能構成を示す図である。
<Hardware configuration and functional configuration of image processing apparatus>
FIG. 3 is a diagram illustrating a hardware configuration and a functional configuration of the image processing apparatus illustrated in FIG.

画像処理装置110は、画像入力インタフェース232を備えており、このインタフェースを介してユーザPC130a,130bと接続される。画像入力インタフェース232は、ユーザPC130a,130bの表示画像を形成する画像信号を受信するインタフェースである。   The image processing apparatus 110 includes an image input interface 232, and is connected to the user PCs 130a and 130b via this interface. The image input interface 232 is an interface that receives an image signal forming a display image of the user PCs 130a and 130b.

本実施形態では、画像入力インタフェース232としてDVI(Digital Visual Interface)端子によって構成されるDVIコネクタを採用することができる。画像入力インタフェース232は、ユーザPC130a,130bからVGA(Video Graphics Array)ケーブル等のケーブル124を介してVGA信号を受信し、画像処理装置110が備える画像取得部206にVGA信号を供給する。   In the present embodiment, a DVI connector configured by a DVI (Digital Visual Interface) terminal can be employed as the image input interface 232. The image input interface 232 receives a VGA signal from the user PCs 130 a and 130 b via a cable 124 such as a VGA (Video Graphics Array) cable and supplies the VGA signal to the image acquisition unit 206 provided in the image processing apparatus 110.

他の実施形態では、VGAコネクタ、HDMI(登録商標)(High-Definition Multimedia Interface)コネクタ、Displayportコネクタ等を採用することができる。さらに他の実施形態では、画像入力インタフェース232は、Bluetooth(登録商標)やWiFi等の無線通信プロトコルに準拠した無線通信により、ユーザPC130a,130bから画像信号を受信してもよい。   In other embodiments, a VGA connector, an HDMI (registered trademark) (High-Definition Multimedia Interface) connector, a Displayport connector, or the like may be employed. In still another embodiment, the image input interface 232 may receive image signals from the user PCs 130a and 130b by wireless communication conforming to a wireless communication protocol such as Bluetooth (registered trademark) or WiFi.

画像処理装置110は、プロセッサ200と、ROM202と、RAM204と、画像取得部206と、座標検出部224と、座標検知装置226と、表示部112を含んで構成される。   The image processing apparatus 110 includes a processor 200, a ROM 202, a RAM 204, an image acquisition unit 206, a coordinate detection unit 224, a coordinate detection device 226, and a display unit 112.

プロセッサ200は、CPUやMPU等の処理演算装置であり、WINDOWS(登録商標)シリーズ、UNIX(登録商標)、LINUX(登録商標)、TRON、ITRON、μITRONなどのOSを動作させ、これらのOSの管理下でアセンブラ、C、C++、Java(登録商標)、JavaScript(登録商標)、PERL、RUBY、PYTHONなどのプログラム言語で記述された本実施形態のプログラムを実行する。   The processor 200 is a processing operation device such as a CPU or MPU, and operates OS such as WINDOWS (registered trademark) series, UNIX (registered trademark), LINUX (registered trademark), TRON, ITRON, μITRON, and the like of these OSs. Under the management, the program of this embodiment described in a programming language such as assembler, C, C ++, Java (registered trademark), JavaScript (registered trademark), PERL, RUBY, PYTHON, or the like is executed.

ROM202は、BIOSやEFI等のブートプログラムなどが保存される不揮発性メモリである。RAM204は、DRAMやSRAM等の主記憶装置であり、本実施形態のプログラムを実行するための実行空間を提供する。   The ROM 202 is a non-volatile memory in which a boot program such as BIOS or EFI is stored. A RAM 204 is a main storage device such as a DRAM or an SRAM, and provides an execution space for executing the program of the present embodiment.

プロセッサ200は、ソフトウェアプログラムや種々のデータなどを持続的に保持するためのハードディスク装置(図示せず)から、プログラムを読み出し、RAM204に展開して実行する。   The processor 200 reads out a program from a hard disk device (not shown) for continuously holding a software program, various data, and the like, expands it in the RAM 204, and executes it.

プログラムには、プログラムモジュールであるイベント処理部210、アプリ画像生成部212、レイアウト管理部214、描画生成部216、合成部218、表示制御部220、スナップショット生成部222、スナップショット保存部236、スナップショット送信部238およびリポジトリ管理部228が含まれる。   The program includes an event processing unit 210 which is a program module, an application image generation unit 212, a layout management unit 214, a drawing generation unit 216, a synthesis unit 218, a display control unit 220, a snapshot generation unit 222, a snapshot storage unit 236, A snapshot transmission unit 238 and a repository management unit 228 are included.

画像取得部206は、ユーザPC130a,130bから画像信号を取得する機能手段である。画像取得部206は、ユーザPC130a,130bから画像入力インタフェース232を介して画像信号を受信すると、当該画像信号を解析して、当該画像信号によって形成されるユーザPC130a,130bの表示画像である画像フレームの解像度や当該画像フレームの更新頻度などの画像情報を導出し、アプリ画像生成部212に送信する。   The image acquisition unit 206 is a functional unit that acquires image signals from the user PCs 130a and 130b. When the image acquisition unit 206 receives an image signal from the user PCs 130a and 130b via the image input interface 232, the image acquisition unit 206 analyzes the image signal and generates an image frame that is a display image of the user PCs 130a and 130b formed by the image signal. Image information such as the resolution of the image and the update frequency of the image frame is derived and transmitted to the application image generation unit 212.

また、画像取得部206は、当該画像信号を使用してユーザPC130a,130bの表示画像である画像フレームをそれぞれ形成し、画像データを一時的に保存可能な記憶手段であるビデオRAM208にそれぞれ上書き保存する。   Further, the image acquisition unit 206 forms image frames, which are display images of the user PCs 130a and 130b, using the image signals, and overwrites and saves them in the video RAM 208, which is a storage means capable of temporarily storing image data. To do.

アプリ画像生成部212は、表示部112に表示すべき種々の表示ウィンドウを生成する機能手段である。表示ウィンドウには、ユーザPC130a,130bの表示画像である画像フレームを表示する表示ウィンドウ、ユーザが生成する描画画像を表示する表示ウィンドウ、画像処理装置110の各種設定を行うためのボタンやメニュー等を表示する表示ウィンドウ、ファイルビューアやWebブラウザ等の表示ウィンドウなどが含まれる。アプリ画像生成部212は、これらの表示ウィンドウを、当該表示ウィンドウを描画すべき画像レイヤに描画する。   The application image generation unit 212 is a functional unit that generates various display windows to be displayed on the display unit 112. The display window includes a display window that displays an image frame that is a display image of the user PCs 130a and 130b, a display window that displays a drawing image generated by the user, buttons and menus for performing various settings of the image processing apparatus 110, and the like. A display window to be displayed, a display window of a file viewer, a Web browser, and the like are included. The application image generation unit 212 draws these display windows on an image layer in which the display window is to be drawn.

レイアウト管理部214は、アプリ画像生成部212が生成する表示ウィンドウにユーザPC130a,130bの表示画像を描画する機能手段である。レイアウト管理部214は、画像取得部206から画像情報を取得すると、ビデオRAM208に格納されている画像フレームを取得し、画像情報を使用して、画像フレームの大きさをアプリ画像生成部212が生成した表示ウィンドウの大きさに適合するように変更し、当該画像フレームを描画すべき画像レイヤに描画する。   The layout management unit 214 is a functional unit that draws the display images of the user PCs 130a and 130b on the display window generated by the application image generation unit 212. When the layout management unit 214 acquires the image information from the image acquisition unit 206, the layout management unit 214 acquires the image frame stored in the video RAM 208, and the application image generation unit 212 generates the size of the image frame using the image information. The image frame is changed so as to match the size of the display window, and the image frame is drawn on the image layer to be drawn.

座標検知装置226は、描画装置240等の指示物体の接触を検知する機能手段である。本実施形態では、座標検知装置226として、赤外線遮断方式による座標入力装置を採用する。この座標入力装置では、表示部112の下側両端部に設置された2つの受発光装置が、表示部112に平行に複数の赤外線を放射し、表示部112の周囲に設けられた再帰性反射手段によって同一光路上に反射する光を受光する。   The coordinate detection device 226 is a functional unit that detects contact of the pointing object such as the drawing device 240. In the present embodiment, a coordinate input device using an infrared ray blocking method is employed as the coordinate detection device 226. In this coordinate input device, two light receiving and emitting devices installed at both lower ends of the display unit 112 emit a plurality of infrared rays in parallel to the display unit 112, and retroreflective provided around the display unit 112. The light reflected by the means on the same optical path is received.

座標検知装置226は、指示物体によって遮断された2つの受発光装置が放射した赤外線の識別情報を座標検出部224に通知し、座標検出部224が、指示物体の接触位置である座標位置を特定する。   The coordinate detection device 226 notifies the coordinate detection unit 224 of infrared identification information emitted by the two light receiving and emitting devices blocked by the pointing object, and the coordinate detection unit 224 identifies the coordinate position that is the contact position of the pointing object. To do.

他の実施形態では、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検知手段を採用してもよい。   In another embodiment, a capacitive touch panel that identifies a contact position by detecting a change in capacitance, a resistive film type touch panel that identifies a contact position based on a voltage change between two opposing resistance films, and a contact Various detection means such as an electromagnetic induction type touch panel that detects an electromagnetic induction generated when an object touches the display unit and identifies a contact position may be employed.

座標検出部224は、表示部112に対する指示物体の接触位置である座標位置を算出すると共に、種々のイベントを発行する機能手段である。本実施形態では、座標検出部224は、座標検知装置226が通知する遮断された赤外線の識別情報を利用して、指示物体の座標位置を算出する。   The coordinate detection unit 224 is a functional unit that calculates a coordinate position that is a contact position of the pointing object with respect to the display unit 112 and issues various events. In the present embodiment, the coordinate detection unit 224 calculates the coordinate position of the pointing object using the blocked infrared identification information notified by the coordinate detection device 226.

座標検出部224は、接触位置の座標位置と共に、種々のイベントをイベント処理部210に発行する。座標検出部224が発行するイベントには、物体の接触又は接近したことを通知するイベント(TOUCH)、物体が表示部112に接触又は接近した状態で接触点又は接近点が移動したことを通知するイベント(MOVE)、物体が表示部112から離れた(離間した)ことを通知するイベント(RELEASE)が含まれる。これらのイベントには、接触位置座標及び接近位置座標である座標位置情報が含まれる。   The coordinate detection unit 224 issues various events to the event processing unit 210 together with the coordinate position of the contact position. The event issued by the coordinate detection unit 224 is an event (TOUCH) for notifying that an object has touched or approached, and that the contact point or approach point has moved while the object is in contact with or approaching the display unit 112. An event (MOVE) and an event (RELEASE) notifying that the object has moved away (separated) from the display unit 112 are included. These events include coordinate position information that is contact position coordinates and approach position coordinates.

描画装置240は、画像処理装置110の座標検知装置226に接触させて描画する装置である。描画装置240は、先端部に物体の接触を検知する接触検知手段を備えたペン形状をしており、当該接触検知手段が物体に接触すると、接触したことを示す接触信号を当該描画装置の識別情報と共に座標検出部224に送信する。   The drawing device 240 is a device that draws in contact with the coordinate detection device 226 of the image processing device 110. The drawing device 240 has a pen shape provided with a contact detection means for detecting contact of an object at the tip, and when the contact detection means comes into contact with the object, a contact signal indicating contact is identified by the drawing device. It transmits to the coordinate detection part 224 with information.

また、描画装置240は、描画された描画オブジェクトを消去する機能を持つ。描画モードから消去モードに切り替えるモード切替スイッチを側面や後端部に備えている。当該接触検知手段が消去モードで物体に接触すると、接触したことを示す信号と消去モードである信号を当該描画装置の識別情報と共に座標検出部224に送信する。描画装置240は、表示部112に表示されたメニューやボタン等のオブジェクトをユーザが選択することが可能である。   The drawing device 240 has a function of deleting the drawn drawing object. A mode selector switch for switching from the drawing mode to the erasing mode is provided on the side surface and the rear end. When the contact detection unit contacts the object in the erasing mode, a signal indicating that the object is in contact and a signal in the erasing mode are transmitted to the coordinate detection unit 224 together with the identification information of the drawing apparatus. The drawing device 240 allows the user to select an object such as a menu or button displayed on the display unit 112.

例えば、ユーザが消去モード切替スイッチを押下した状態で、描画装置240を画像処理装置110の表示部112に接触させた場合には、描画装置240は、接触信号及び当該描画装置の識別情報と共に、消去モードを示すモード種別信号を送信する。ユーザが消去モード切替スイッチを押下していない状態で、描画装置240を画像処理装置110の表示部112に接触させた場合には、描画装置240は、接触信号および当該描画装置の識別情報を送信する。   For example, when the drawing device 240 is brought into contact with the display unit 112 of the image processing device 110 while the user presses the erase mode switch, the drawing device 240 includes the contact signal and the identification information of the drawing device. A mode type signal indicating the erase mode is transmitted. When the drawing device 240 is brought into contact with the display unit 112 of the image processing device 110 without the user pressing the erase mode switch, the drawing device 240 transmits a contact signal and identification information of the drawing device. To do.

本実施形態では、座標検出部224は、座標検知装置226から赤外線の識別情報を受信すると、指示物体の接触位置である座標位置を算出し、次いで、描画装置240から接触信号を受信すると、各種イベントを発行する。このとき、座標検出部224は、モード種別を示す情報(以下、「モード種別情報」とする。)を当該イベントと共にイベント処理部210に通知する。   In this embodiment, the coordinate detection unit 224 receives the infrared identification information from the coordinate detection device 226, calculates the coordinate position that is the contact position of the pointing object, and then receives the contact signal from the drawing device 240, Publish an event. At this time, the coordinate detection unit 224 notifies the event processing unit 210 of information indicating the mode type (hereinafter referred to as “mode type information”) together with the event.

本実施形態では、Bluetooth(登録商標)等の近距離無線通信によって各種信号を送信する。他の実施形態では、超音波や赤外線を利用した無線通信によって各種信号を送信することができる。   In this embodiment, various signals are transmitted by near field communication such as Bluetooth (registered trademark). In other embodiments, various signals can be transmitted by wireless communication using ultrasonic waves or infrared rays.

イベント処理部210は、座標検出部224が発行するイベントを処理する機能手段である。イベント処理部210は、座標検出部224からイベントを受信すると、描画領域での描画指示イベントなのか、消去指示イベントなのか、または表示部112に表示された機能別のアイコンを選択する操作なのかを識別し、それぞれの機能を実施する。   The event processing unit 210 is a functional unit that processes an event issued by the coordinate detection unit 224. When the event processing unit 210 receives an event from the coordinate detection unit 224, it is a drawing instruction event in the drawing area, an erasing instruction event, or an operation for selecting an icon for each function displayed on the display unit 112. And perform each function.

描画指示イベントとは、画像処理装置110に対して描画を指示するイベントである。消去指示イベントは、画像処理装置110に対して描画されたオブジェクトを消去するイベントである。描画指示イベント及び消去イベントは、描画装置240が表示部112に接触することに起因して発行される。   The drawing instruction event is an event that instructs the image processing apparatus 110 to perform drawing. The erasure instruction event is an event for erasing an object drawn on the image processing apparatus 110. The drawing instruction event and the erasure event are issued due to the drawing device 240 touching the display unit 112.

選択通知イベントとは、表示部112に表示された画面を構成するボタンやメニューバー等の種々のオブジェクトが選択されたことを示すイベントである。選択通知イベントは、描画装置240が表示部112に接触することに起因して発行される。イベント処理部210は、座標検出部224が発行したイベントに含まれる座標位置情報がオブジェクトの座標領域内であるときに選択通知イベントを発行する。   The selection notification event is an event indicating that various objects such as buttons and menu bars constituting the screen displayed on the display unit 112 have been selected. The selection notification event is issued due to the drawing device 240 touching the display unit 112. The event processing unit 210 issues a selection notification event when the coordinate position information included in the event issued by the coordinate detection unit 224 is within the coordinate area of the object.

本実施形態では、描画指示イベント及び選択通知イベントには、それぞれ識別情報が割り当てられており、これらのイベントをトリガとして動作する画像処理装置110の機能手段は、当該識別情報を参照して種々の処理を実行する。また、選択通知イベントには、選択されたオブジェクトの識別情報が付加されており、選択通知イベントをトリガとして動作する画像処理装置110の機能手段は、当該オブジェクトの識別情報を参照して種々の処理を実行する。   In the present embodiment, identification information is assigned to each of the drawing instruction event and the selection notification event, and the functional unit of the image processing apparatus 110 that operates using these events as a trigger refers to the identification information. Execute the process. Further, identification information of the selected object is added to the selection notification event, and the functional unit of the image processing apparatus 110 that operates using the selection notification event as a trigger refers to the identification information of the object to perform various processing. Execute.

描画生成部216は、ユーザが描画装置240を用いて描画した描画画像を生成する機能手段である。描画生成部216は、座標位置情報が示す座標位置の色を特定の色に変更した画像レイヤを生成する。描画生成部216は、当該座標位置を描画情報としてRAM204の描画情報の格納領域に保存する。   The drawing generation unit 216 is a functional unit that generates a drawing image drawn by the user using the drawing device 240. The drawing generation unit 216 generates an image layer in which the color of the coordinate position indicated by the coordinate position information is changed to a specific color. The drawing generation unit 216 stores the coordinate position as drawing information in the drawing information storage area of the RAM 204.

合成部218は、種々の画像を合成する機能手段である。合成部218は、アプリ画像生成部212が画像を描画すべき画像レイヤ(以下、「アプリ画像レイヤ」とする。)と、レイアウト管理部214がユーザPC130a,130bの表示画像を描画すべき画像レイヤ(以下、「画像キャプチャレイヤ」とする。)と、描画生成部216が画像を描画すべき画像レイヤ(以下、「手書きレイヤ」とする。)とを合成する。   The synthesizing unit 218 is a functional unit that synthesizes various images. The composition unit 218 includes an image layer in which the application image generation unit 212 should draw an image (hereinafter referred to as “application image layer”), and an image layer in which the layout management unit 214 should draw the display images of the user PCs 130a and 130b. (Hereinafter referred to as “image capture layer”) and the image layer (hereinafter referred to as “handwriting layer”) to which the drawing generation unit 216 should draw an image are synthesized.

表示制御部220は、表示部112を制御する機能手段である。表示制御部220は、合成部218が生成した合成画像を表示部112に表示させる。本実施形態では、合成部218は、表示制御部220を呼び出して合成画像を表示部112に表示させる。他の実施形態では、合成部218及び表示制御部220は、画像情報に含まれる画像フレームの更新頻度と同じ頻度で、画像レイヤを合成して表示部112に表示させてもよい。   The display control unit 220 is a functional unit that controls the display unit 112. The display control unit 220 causes the display unit 112 to display the combined image generated by the combining unit 218. In the present embodiment, the composition unit 218 calls the display control unit 220 to display the composite image on the display unit 112. In another embodiment, the synthesizing unit 218 and the display control unit 220 may synthesize the image layers and display them on the display unit 112 at the same frequency as the update frequency of the image frame included in the image information.

スナップショット生成部222は、ユーザPC130a,130bの表示画像と描画生成部216が生成した描画画像との合成画像であるスナップショット画像を生成する機能手段である。   The snapshot generation unit 222 is a functional unit that generates a snapshot image that is a composite image of the display images of the user PCs 130 a and 130 b and the drawing image generated by the drawing generation unit 216.

スナップショット生成部222は、表示部112に表示されたスナップショットの取得を指示するスナップショットボタンが選択されたことを示す選択通知イベントを受信すると、画像キャプチャレイヤと手書きレイヤとを合成し、スナップショット画像を生成する。スナップショット生成部222は、スナップショット画像を生成すると、リポジトリ管理部228に対しスナップショット画像を記憶装置230に保存させる。   When the snapshot generation unit 222 receives a selection notification event indicating that the snapshot button instructing acquisition of the snapshot displayed on the display unit 112 has been selected, the snapshot generation unit 222 combines the image capture layer and the handwriting layer, Generate a shot image. When generating the snapshot image, the snapshot generation unit 222 causes the repository management unit 228 to save the snapshot image in the storage device 230.

スナップショット保存部236は、リポジトリ管理部228を通じて記憶装置230に保存されたスナップショット画像をデータ出力インタフェース234を通じてUSBメモリ242等の外部保存装置にスナップショット画像を保存する機能手段である。   The snapshot storage unit 236 is a functional unit that stores a snapshot image stored in the storage device 230 through the repository management unit 228 in an external storage device such as the USB memory 242 through the data output interface 234.

スナップショット保存部236は、表示部112に表示されたスナップショットの保存を指示するスナップショット保存ボタンが選択されたことを示す選択通知イベントを受信すると、リポジトリ管理部228を通じて記憶装置230に保存されたスナップショット画像を取得し、データ出力インタフェース234に接続された外部保存装置にスナップショット画像を出力する。   When the snapshot saving unit 236 receives a selection notification event indicating that the snapshot saving button instructing saving of the snapshot displayed on the display unit 112 has been selected, the snapshot saving unit 236 is saved in the storage device 230 through the repository management unit 228. The snapshot image is acquired, and the snapshot image is output to an external storage device connected to the data output interface 234.

スナップショット送信部238は、リポジトリ管理部228を通じて記憶装置230に保存されたスナップショット画像を通信制御部250を通じて画像処理装置外のサーバ(図示せず)等に送信する機能手段である。   The snapshot transmission unit 238 is a functional unit that transmits a snapshot image stored in the storage device 230 through the repository management unit 228 to a server (not shown) outside the image processing apparatus through the communication control unit 250.

スナップショット送信部238は、表示部112に表示されたスナップショットの送信を指示するスナップショット送信ボタンが選択されたことを示す選択通知イベントを受信すると、リポジトリ管理部228を通じて記憶装置230に保存されたスナップショット画像を取得し、通信制御部250にスナップショット画像を出力する。   When the snapshot transmission unit 238 receives a selection notification event indicating that the snapshot transmission button instructing transmission of the snapshot displayed on the display unit 112 has been selected, the snapshot transmission unit 238 is stored in the storage device 230 through the repository management unit 228. The acquired snapshot image is acquired, and the snapshot image is output to the communication control unit 250.

通信制御部250は、ネットワーク1014を介した画像処理装置間の通信を制御する機能手段である。通信制御部250は、認証情報、画像フレームやスナップショット画像等の画像データや描画情報、イベントなどの情報を、通信部252を介して通信する。通信部252は、ネットワーク1014とのネットワークインタフェースである。   The communication control unit 250 is a functional unit that controls communication between image processing apparatuses via the network 1014. The communication control unit 250 communicates information such as authentication information, image data such as image frames and snapshot images, drawing information, and events via the communication unit 252. The communication unit 252 is a network interface with the network 1014.

リポジトリ管理部228は、スナップショット画像を格納すべき記憶装置230を制御する機能手段である。リポジトリ管理部228は、上述したように、スナップショット生成部222の指示により、スナップショット画像を記憶装置230に保存する。また、リポジトリ管理部228は、スナップショット保存部236あるいはスナップショット送信部238の指示により、記憶装置230からスナップショット画像を取得し、データ出力インタフェース234あるいは通信制御部250に送信する。   The repository management unit 228 is a functional unit that controls the storage device 230 that stores the snapshot image. As described above, the repository management unit 228 stores the snapshot image in the storage device 230 according to the instruction from the snapshot generation unit 222. Further, the repository management unit 228 acquires a snapshot image from the storage device 230 according to an instruction from the snapshot storage unit 236 or the snapshot transmission unit 238 and transmits the snapshot image to the data output interface 234 or the communication control unit 250.

データ出力インタフェース234は、スナップショット画像を外部装置に出力する物理インタフェースである。本実施形態では、データ出力インタフェース234としてUSBソケットを採用することができる。   The data output interface 234 is a physical interface that outputs a snapshot image to an external device. In the present embodiment, a USB socket can be adopted as the data output interface 234.

<座標入力装置の概略構成>
図4は、本発明の実施形態の座標入力装置の概略構成を示す図である。この座標入力装置40は図3における座標検知装置226として搭載されている。
<Schematic configuration of coordinate input device>
FIG. 4 is a diagram showing a schematic configuration of the coordinate input device according to the embodiment of the present invention. The coordinate input device 40 is mounted as the coordinate detection device 226 in FIG.

座標入力装置40は、受発光手段41−1,41−2と、座標入力領域43と、再帰性反射部材44とから構成されている。座標入力領域43は四角形の形状であり、例えば電子的に文字や画像を表示するディスプレイ表面に電子ペンで書き込むタッチパネルなどが座標入力領域となる。受発光手段41−1,41−2は、座標入力領域43の上部の両端の2箇所に配置されている。本実施形態では、座標入力装置40は、画像処理装置110の表示部112の表面に形成されている。   The coordinate input device 40 includes light emitting / receiving means 41-1 and 41-2, a coordinate input region 43, and a retroreflective member 44. The coordinate input area 43 has a quadrangular shape, and a coordinate input area is, for example, a touch panel that electronically writes on a display surface that displays characters and images electronically. The light emitting / receiving means 41-1 and 41-2 are arranged at two places on both ends of the upper part of the coordinate input area 43. In the present embodiment, the coordinate input device 40 is formed on the surface of the display unit 112 of the image processing device 110.

座標入力装置40は、座標入力領域43上を光学的に不透明な材質からなる指示物体の接触位置42を検知して、その位置情報である座標位置を座標検出部224に伝える装置である。なお、本実施形態では、指示物体は電子ペンからなる描画装置240であるが、指示棒や指の接触位置の座標位置を検知することもできる。   The coordinate input device 40 is a device that detects the contact position 42 of the pointing object made of an optically opaque material on the coordinate input area 43 and transmits the coordinate position as position information to the coordinate detection unit 224. In the present embodiment, the pointing object is the drawing device 240 made of an electronic pen, but the coordinate position of the pointing position of the pointing stick or the finger can also be detected.

座標入力領域43の上部両端には、受発光手段41−1,41−2が設けられている。上部左端の受発光手段41−1からは座標入力領域43に向けて、L1、L2、L3、...Lmの光ビームの束(プローブ光)が照射されている。実際には点光源61から拡がる、座標入力領域43の面に平行に進行する扇形板状の光波である。   At both upper ends of the coordinate input area 43, light emitting / receiving means 41-1, 41-2 are provided. From the light emitting / receiving means 41-1 at the upper left end toward the coordinate input area 43, L1, L2, L3,. . . A bundle of Lm light beams (probe light) is irradiated. Actually, it is a fan-shaped light wave extending from the point light source 61 and traveling in parallel to the surface of the coordinate input area 43.

また、座標入力領域43の周辺部分には、反射手段としての再帰性反射部材44が再帰反射面を座標入力領域43の中央に向けて設けられている。再帰性反射部材44は、入射した光を、入射角度によらずに同じ方向に反射する特性をもった部材である。   In addition, a retroreflecting member 44 as a reflecting means is provided in the peripheral portion of the coordinate input area 43 with the retroreflective surface facing the center of the coordinate input area 43. The retroreflective member 44 is a member having a characteristic of reflecting incident light in the same direction regardless of the incident angle.

例えば、受発光手段41−1から発した扇形板状の光波の内、ある一つのビーム47に注目すると、ビーム47は再帰性反射部材44によって反射されて再び同じ光路を再帰反射光46として受発光手段41−1に向かって戻るように進行する。受発光手段41−1には、後述するように受光素子が設置されていて、プローブ光L1〜Lmのそれぞれに対して、その再帰光が受発光手段41−1に再帰したか否かを検出することができる。   For example, when attention is paid to one beam 47 among the fan-shaped plate-like light waves emitted from the light receiving / emitting means 41-1, the beam 47 is reflected by the retroreflecting member 44 and receives the same optical path as the retroreflected light 46 again. It progresses so that it may return toward the light emission means 41-1. The light receiving / emitting means 41-1 is provided with a light receiving element as will be described later, and it is detected whether or not the recursive light has returned to the light receiving / emitting means 41-1 for each of the probe lights L1 to Lm. can do.

指示物体が接触位置42で接触した場合について考える。このときプローブ光45は接触位置42で指示物体に遮られて再帰性反射部材44には到達しない。従って、プローブ光45の再帰光は受発光手段41−1には到達せず、プローブ光45に対応する再帰光が受光されないことを検出することによって、プローブ光45の延長線(直線L)上に指示物体が挿入されたことを検出することができる。   Consider a case where the pointing object touches at the contact position 42. At this time, the probe light 45 is blocked by the pointing object at the contact position 42 and does not reach the retroreflective member 44. Accordingly, the retroreflected light of the probe light 45 does not reach the light emitting / receiving means 41-1, and on the extension line (straight line L) of the probe light 45 by detecting that the recursive light corresponding to the probe light 45 is not received. It is possible to detect that the pointing object has been inserted.

同様に上部右端に設置された受発光手段41−2からもプローブ光を照射し、プローブ光48に対応する再帰反射光が受光されないことを検出することによって、プローブ光48の延長線(直線R)上に指示物体が挿入されたことを検出することができる。直線L及び直線Rを求めることができれば、この交点の座標位置を演算により算出することにより、指示物体が接触した座標位置を得ることができる。   Similarly, the probe light is emitted from the light emitting / receiving means 41-2 installed at the upper right end, and by detecting that the retroreflected light corresponding to the probe light 48 is not received, an extension line (straight line R) of the probe light 48 is detected. ) It is possible to detect that the pointing object has been inserted above. If the straight line L and the straight line R can be obtained, the coordinate position where the pointing object touches can be obtained by calculating the coordinate position of the intersection point by calculation.

<受発光手段の内部構成>
図5は、図4における受発光手段41−1,41−2の内部構成を示す図である。この図は、座標入力領域43の面に対して垂直な方向から見た図である。ここでは説明の便宜上、座標入力領域43の面に平行な2次元平面で説明する。
<Internal structure of light emitting / receiving means>
FIG. 5 is a diagram showing the internal configuration of the light emitting / receiving means 41-1 and 41-2 in FIG. This diagram is a diagram viewed from a direction perpendicular to the surface of the coordinate input area 43. Here, for convenience of explanation, a two-dimensional plane parallel to the surface of the coordinate input area 43 will be described.

受発光手段41−1,41−2は、点光源61、集光レンズ51及び受光素子50から構成されている。点光源61は光源から見て受光素子50と反対の方向に扇形に光を出射するものとする。点光源61から出射された扇形の光は、矢印53、58の方向、その他の方向に進行するビームの集合であると考える。矢印53方向に進行したビームは再帰性反射部材44で反射されて、再帰反射光54が集光レンズ51を通り、受光素子50上の位置57に到達する。   The light receiving / emitting means 41-1 and 41-2 are constituted by a point light source 61, a condensing lens 51, and a light receiving element 50. The point light source 61 emits light in a fan shape in a direction opposite to the light receiving element 50 when viewed from the light source. The fan-shaped light emitted from the point light source 61 is considered to be a set of beams traveling in the directions of arrows 53 and 58 and other directions. The beam traveling in the direction of the arrow 53 is reflected by the retroreflecting member 44, and the retroreflected light 54 passes through the condenser lens 51 and reaches a position 57 on the light receiving element 50.

また、進行方向58に沿って進行したビームは再帰性反射部材44によって反射されて、再帰反射光59が受光素子50上の位置56に到達する。このように点光源61から出射し、再帰性反射部材44で反射し、同じ経路を戻ってきた光は、集光レンズ51の作用によって、それぞれ受光素子50上のそれぞれ異なる位置56、57に到達する。   Further, the beam traveling along the traveling direction 58 is reflected by the retroreflecting member 44, and the retroreflected light 59 reaches the position 56 on the light receiving element 50. Thus, the light emitted from the point light source 61, reflected by the retroreflecting member 44, and returned through the same path reaches the different positions 56 and 57 on the light receiving element 50 by the action of the condenser lens 51, respectively. To do.

従って、ある座標位置に指示物体が挿入され、ある光路のビームが遮断されると、そのビームに対応する受光素子50上の点に光が到達しなくなる。このことから、受光素子50上の光強度の分布を調べることによって、どの光路のビームが遮られたかを知ることができる。   Therefore, when the pointing object is inserted at a certain coordinate position and the beam in a certain optical path is interrupted, the light does not reach the point on the light receiving element 50 corresponding to the beam. From this, by examining the distribution of light intensity on the light receiving element 50, it is possible to know which optical path is blocked.

<遮断されたビームの検知>
図6は、表示部の表面に指示物体が接触してビームが遮断されたときの動作を説明するための図である。この図において、受光素子50は集光レンズ51の焦点面に設けられているものとする。
<Detection of blocked beam>
FIG. 6 is a diagram for explaining the operation when the pointing object contacts the surface of the display unit and the beam is blocked. In this figure, it is assumed that the light receiving element 50 is provided on the focal plane of the condenser lens 51.

点光源61から図6の右方に向けて出射した光は、再帰性反射部材44によって反射されて同じ経路を戻ってくる。従って、点光源61の位置に再び集光する。集光レンズ51の中心は点光源位置と一致するように設けられている。再帰性反射部材44から戻った再帰光は、集光レンズ51の中心を通るので、レンズ後方(受光素子側)に対称の経路で進行する。   The light emitted from the point light source 61 toward the right in FIG. 6 is reflected by the retroreflecting member 44 and returns along the same path. Therefore, the light is condensed again at the position of the point light source 61. The center of the condensing lens 51 is provided so as to coincide with the point light source position. Since the retroreflected light returning from the retroreflective member 44 passes through the center of the condensing lens 51, it travels along a symmetrical path behind the lens (on the light receiving element side).

このとき、受光素子50上の光強度分布を調べると、指示物体が挿入されていなければ、受光素子50上の光強度分布はほぼ一定であるが、図示のように、光を遮る指示物体が挿入された場合、ここを通過するビームは遮られ、受光素子50上では位置Dnの位置に、光強度が弱い領域(暗点)が生じる。   At this time, when the light intensity distribution on the light receiving element 50 is examined, if the pointing object is not inserted, the light intensity distribution on the light receiving element 50 is substantially constant. When inserted, the beam passing therethrough is blocked, and on the light receiving element 50, a region (dark spot) having a low light intensity is generated at the position Dn.

この位置Dnは、遮られたビームの出射/入射角θnと対応していて、Dnを検出することによりθnを算出することができる。
即ちθnはDnの関数として、
θn=arctan(Dn/f) …式〔1〕
と表すことができる。ただし、fは図示のように、集光レンズ51と受光素子50との間の距離で、集光レンズ51の焦点距離に該当する。
This position Dn corresponds to the output / incident angle θn of the blocked beam, and θn can be calculated by detecting Dn.
That is, θn is a function of Dn,
θn = arctan (Dn / f) (1)
It can be expressed as. However, f is a distance between the condensing lens 51 and the light receiving element 50 and corresponds to the focal length of the condensing lens 51 as shown in the figure.

<三角測量の原理に基づく座標の算出>
図7は、三角測量の原理を基に座標を算出する方法を説明するための図である。
ここで、図4の左上端の受発光手段41−1におけるθnをθnL、DnをDnLと置き換える。
<Calculation of coordinates based on the principle of triangulation>
FIG. 7 is a diagram for explaining a method of calculating coordinates based on the principle of triangulation.
Here, θn is replaced with θnL and Dn is replaced with DnL in the light emitting / receiving means 41-1 at the upper left end of FIG.

受発光手段41−1と座標入力領域43との幾何学的な相対位置関係の変換gにより、指示物体の接触位置42と座標入力領域43のx軸とのなす角θLは、式〔1〕
で求められるDnLの関数として、
θL=g(θnL) …式〔2〕
となる。
ただし、
θnL=arctan(DnL/f) …式〔3〕
である。
The angle θL formed by the contact position 42 of the pointing object and the x axis of the coordinate input area 43 by the transformation g of the geometric relative positional relationship between the light emitting / receiving means 41-1 and the coordinate input area 43 is expressed by the equation [1].
As a function of DnL calculated by
θL = g (θnL) Equation [2]
It becomes.
However,
θnL = arctan (DnL / f) (3)
It is.

同様に、図4の右上端の受発光手段41−2についても、上記した式のL記号をR記号に置き換えて、受発光手段41−2と座標入力領域43との幾何学的な相対位置関係の変換hにより、
θR=h(θnR) …式〔4〕
ただし、
θnR=arctan(DnR/f) …式〔5〕
である。
Similarly, for the light receiving / emitting means 41-2 at the upper right end in FIG. 4, the L symbol in the above equation is replaced with the R symbol, and the geometric relative position between the light emitting / receiving means 41-2 and the coordinate input area 43 is changed. By the relationship transformation h
θR = h (θnR) (4)
However,
θnR = arctan (DnR / f) (5)
It is.

図7に示すように、座標入力領域43において受発光手段41−1,41−2の取り付け間隔をwとし、座標入力領域43の左角を原点70とし、x、y座標を図7に示すように、x軸を横方向、y軸を縦方向にとる。   As shown in FIG. 7, in the coordinate input area 43, the attachment interval of the light emitting / receiving means 41-1 and 41-2 is w, the left corner of the coordinate input area 43 is the origin 70, and the x and y coordinates are shown in FIG. Thus, the x-axis is taken in the horizontal direction and the y-axis is taken in the vertical direction.

この場合、座標入力領域43上の指示物体の接触位置42の座標位置(x,y)は、
x=wtanθR/(tanθL+tanθR) …式〔6〕
y=wtanθL・tanθR/(tanθL+tanθR) …式〔7〕
となり、式から〔3〕、〔5〕、〔6〕、〔7〕から、x、yは、DnL、DnRの関数として表すことができる。
In this case, the coordinate position (x, y) of the contact position 42 of the pointing object on the coordinate input area 43 is
x = wtan θR / (tan θL + tan θR) Equation [6]
y = wtan θL · tan θR / (tan θL + tan θR) (7)
From equations [3], [5], [6], and [7], x and y can be expressed as functions of DnL and DnR.

即ち、左右の受発光手段41−1,41−2の受光素子50上の暗点の位置DnL、DnRを検出し、受発光手段41−1,41−2の幾何学的配置を考慮することにより、指示物体60の接触位置42の座標位置を算出することができる。   That is, the positions DnL and DnR of the dark spots on the light receiving element 50 of the left and right light emitting / receiving means 41-1 and 41-2 are detected, and the geometrical arrangement of the light receiving and emitting means 41-1 and 41-2 is taken into consideration. Thus, the coordinate position of the contact position 42 of the pointing object 60 can be calculated.

以上説明した座標位置算出方法は、三角測量の原理に基づくものであり、例えば特許文献1に記載されている。   The coordinate position calculation method described above is based on the principle of triangulation, and is described in Patent Document 1, for example.

<指示物体の座標位置を算出できない場合>
図8は、指示物体以外に手などが表示部の表面に接触している状態を示す図であり、図9は、2つの指示物体が表示部の表面に接触している状態を示す図である。
<When the coordinate position of the pointing object cannot be calculated>
FIG. 8 is a diagram illustrating a state in which a hand or the like other than the pointing object is in contact with the surface of the display unit, and FIG. 9 is a diagram illustrating a state in which two pointing objects are in contact with the surface of the display unit. is there.

このように三角測量の原理に基づき、指示物体の座標位置を算出するが、図8に示すように、指示物体の接触位置42以外に手80などの遮蔽物が表示部112の表面に接触している場合、左上端の受発光手段41−1は接触位置42の座標位置を検出することができなくなってしまう。   In this way, the coordinate position of the pointing object is calculated based on the principle of triangulation. As shown in FIG. 8, in addition to the contact position 42 of the pointing object, a shield such as a hand 80 contacts the surface of the display unit 112. In this case, the light receiving / emitting means 41-1 at the upper left end cannot detect the coordinate position of the contact position 42.

また、図9に示すように、2つの指示物体の接触位置がT,Tの場合、三角測量の原理に基づき座標位置を算出すると、接触位置T,Tを示す正しい座標位置でなく、接触位置D,Dを示す誤った座標位置も算出されるため、正確な座標位置を検出できなくなる。 Further, as shown in FIG. 9, when the contact positions of the two pointing objects are T 1 and T 2 , when the coordinate position is calculated based on the principle of triangulation, the correct coordinate position indicating the contact positions T 1 and T 2 is obtained. In addition, since an incorrect coordinate position indicating the contact positions D 1 and D 2 is also calculated, an accurate coordinate position cannot be detected.

そこで、本実施形態では、描画装置240として、加速度センサと、ジャイロなどの角速度センサを備えつつ、センサ情報及び動作の開始と終了を画像処理装置110に送信する機能を有する電子ペンを用いることで、図8、図9に示す問題を解決する。   Therefore, in the present embodiment, an electronic pen that has an acceleration sensor and an angular velocity sensor such as a gyro as the drawing device 240 and has a function of transmitting the sensor information and the start and end of the operation to the image processing device 110 is used. The problems shown in FIGS. 8 and 9 are solved.

<電子ペンの構成及び座標入力動作>
図10は、本発明の指示物体の実施形態としての電子ペンの構成を示す図である。
図示のように、電子ペン300は、ペン先バネ302を介して接続された可動ペン先301の圧力を検知するペン先圧力センサ303と、ペン尻バネ308を介して接続された可動ペン尻307の圧力を検知するペン尻圧力センサ309とを備えている。
<Configuration of electronic pen and coordinate input operation>
FIG. 10 is a diagram showing a configuration of an electronic pen as an embodiment of the pointing object of the present invention.
As illustrated, the electronic pen 300 includes a pen tip pressure sensor 303 that detects the pressure of the movable pen tip 301 connected via the pen tip spring 302 and a movable pen tip 307 connected via the pen tip spring 308. And a pen butt pressure sensor 309 for detecting the pressure of the pen.

また、電子ペン300は、電子ペン300の動きを検知するための加速度センサ305と、電子ペン300の姿勢を検知するための角速度センサ306を備えている。加速度センサ305及び角速度センサ306は信号処理回路304に設けられている。また、ペン先圧力センサ303の検知信号及びペン尻圧力センサ309の検知信号は信号処理回路304に入力される。   The electronic pen 300 includes an acceleration sensor 305 for detecting the movement of the electronic pen 300 and an angular velocity sensor 306 for detecting the posture of the electronic pen 300. The acceleration sensor 305 and the angular velocity sensor 306 are provided in the signal processing circuit 304. The detection signal from the pen tip pressure sensor 303 and the detection signal from the pen butt pressure sensor 309 are input to the signal processing circuit 304.

信号処理回路304は、ペン先圧力センサ303、ペン尻圧力センサ309の圧力変化により、筆記、削除などの電子ペンの動作の開始と終了を示す信号を信号送信部310を通して画像処理装置110に送信する。また、加速度センサ305及び角速度センサ306の検知信号を信号送信部310を通して画像処理装置110に送信する。   The signal processing circuit 304 transmits a signal indicating the start and end of the operation of the electronic pen, such as writing and deletion, to the image processing apparatus 110 through the signal transmission unit 310 according to pressure changes of the pen tip pressure sensor 303 and the pen tip pressure sensor 309. To do. Further, the detection signals of the acceleration sensor 305 and the angular velocity sensor 306 are transmitted to the image processing apparatus 110 through the signal transmission unit 310.

画像処理装置110は、これらの信号を受信することで、電子ペン300自体の姿勢及び位置を算出できるようになる。図示のように、加速度センサ305と角速度センサ306は、共に3次元(xyz)方向の加速度と角速度を検知するように配置される。加速度センサ305は、電子ペン300の3軸に生じる加速度を検知することで、電子ペン300の動きを検知し、角速度センサ306は電子ペン300の3軸に生じる角速度を検知することで、電子ペン300の姿勢を検知することができる。   By receiving these signals, the image processing apparatus 110 can calculate the attitude and position of the electronic pen 300 itself. As illustrated, the acceleration sensor 305 and the angular velocity sensor 306 are both arranged to detect acceleration and angular velocity in a three-dimensional (xyz) direction. The acceleration sensor 305 detects the motion of the electronic pen 300 by detecting acceleration generated on the three axes of the electronic pen 300, and the angular velocity sensor 306 detects the angular velocity generated on the three axes of the electronic pen 300. 300 postures can be detected.

この3軸は、電子ペン300の持ち方や使い方により軸方向が変化する。そこで、角速度センサ306の検知信号を積分演算(積算)した電子ペン300の姿勢を加速度センサ305の検知信号に反映させて積分演算することで、電子ペン300の移動方向及び移動量を含む移動情報を算出することができる。そして、この移動情報から、座標入力領域43の2つの座標軸(図7のx軸、y軸)方向の移動量を算出することができる。従って、積分演算を開始したときの座標位置が分かっていれば、加速度センサ305及び角速度センサ306からの検知信号の積分演算により、電子ペン300の座標位置を算出することができる。   The axial directions of these three axes change depending on how the electronic pen 300 is held and used. Therefore, the movement information including the movement direction and the movement amount of the electronic pen 300 is performed by reflecting the posture of the electronic pen 300 obtained by integrating (integrating) the detection signal of the angular velocity sensor 306 in the detection signal of the acceleration sensor 305 and performing the integration calculation. Can be calculated. From this movement information, the movement amount of the coordinate input area 43 in the two coordinate axes (x-axis and y-axis in FIG. 7) directions can be calculated. Therefore, if the coordinate position when the integral calculation is started is known, the coordinate position of the electronic pen 300 can be calculated by the integral calculation of the detection signals from the acceleration sensor 305 and the angular velocity sensor 306.

従って、電子ペン300が画像処理装置110の表示部112に接触している間は、この2種類のセンサの検知信号(以下、センサ情報)か、三角測量の原理に基づき算出された座標位置を用いることにより、画像処理装置110の表示部112の位置に対する電子ペン300の座標位置が算出できることとなる。   Therefore, while the electronic pen 300 is in contact with the display unit 112 of the image processing apparatus 110, the detection signal (hereinafter referred to as sensor information) of these two types of sensors or the coordinate position calculated based on the principle of triangulation is used. By using it, the coordinate position of the electronic pen 300 with respect to the position of the display unit 112 of the image processing apparatus 110 can be calculated.

しかし、電子ペン300で筆記していないときは、つまり電子ペン300が画像処理装置110の表示部112に接触していないときには、再度筆記を開始するまでに加速度センサ305と角速度センサ306のセンサ情報で積分演算した座標位置と実際の座標位置では、誤差が生じることとなる。   However, when writing is not performed with the electronic pen 300, that is, when the electronic pen 300 is not in contact with the display unit 112 of the image processing apparatus 110, sensor information of the acceleration sensor 305 and the angular velocity sensor 306 is required until writing is started again. An error will occur between the coordinate position obtained through the integration operation and the actual coordinate position.

また、筆記中においても、多少の誤差が生じる可能性がある。そこで、筆記終了時から再度筆記するまでの加速度センサ305と角速度センサ306の情報から算出した表示部112上の座標位置と、三角測量により算出された座標位置と、各々で算出した筆記終了時との座標位置の差の比較を行う。   In addition, some errors may occur during writing. Therefore, the coordinate position on the display unit 112 calculated from the information of the acceleration sensor 305 and the angular velocity sensor 306 from the end of writing until writing again, the coordinate position calculated by triangulation, and the end of writing calculated respectively. Compare the difference of the coordinate position of.

三角測量により算出された座標位置を正確な値(基準値)とし、その相違する割合から補正値を算出し、座標入力領域43の2つの座標軸(図7のx軸、y軸)方向の移動量と紐付けしたデータとして蓄積する。この蓄積していくデータから、2つの座標軸方向の移動量に合わせた補正値(補正値1とする)を算出していく。そして、図8のように遮蔽物が表示部112に表面にあるなどで、測定対象である電子ペン300がセンサから検出できず、三角測量から座標位置を算出できない場合に、加速度センサ305と角速度センサ306の情報から表示部112上の座標位置を算出する場合に、積分演算した座標位置に補正値1を用いて座標位置を算出することで、正確な座標位置を算出することができるようになる。   The coordinate position calculated by triangulation is set to an accurate value (reference value), a correction value is calculated from the difference, and the coordinate input area 43 moves in the two coordinate axes (x-axis and y-axis in FIG. 7) directions. It accumulates as data linked to the quantity. From this accumulated data, a correction value (corrected value 1) is calculated in accordance with the amount of movement in the two coordinate axis directions. Then, when the electronic pen 300 as the measurement target cannot be detected from the sensor and the coordinate position cannot be calculated from triangulation because the shielding object is on the surface of the display unit 112 as shown in FIG. When calculating the coordinate position on the display unit 112 from the information of the sensor 306, it is possible to calculate an accurate coordinate position by calculating the coordinate position using the correction value 1 for the coordinate position obtained by the integral calculation. Become.

また、筆記中においても誤差を減らすべく、同様に補正値(補正値2とする)を算出する。これら2種類の補正値は、平均化などの統計的な方法を用いることにより、より正確な値となっていくこととなり、図8のように遮蔽物が表示部112の表面にあり、三角測量から指示物体の座標位置を算出できない場合にでも、正確な座標位置に電子ペン300で描画することができるようになる。   In addition, a correction value (correction value 2) is calculated in the same way in order to reduce errors during writing. These two types of correction values become more accurate values by using a statistical method such as averaging, and the shielding object is on the surface of the display unit 112 as shown in FIG. Thus, even when the coordinate position of the pointing object cannot be calculated, the electronic pen 300 can be drawn at the correct coordinate position.

また、複数の電子ペンを用いる場合にも、三角測量以外に、加速度センサ305と角速度センサ306のセンサ情報を用いることにより、各電子ペンの表示部112上の座標位置を把握することができる。従って、図9のような場合でも、正確に描画や消去したりなどの操作をすることが可能になる。さらに、各々の電子ペンから発信する信号を区別したりするなどの方法を用いて判別できるようにし、その情報も別々に管理することにより、より正確に複数の電子ペンを使用して表示部112に対する描画や消去などの操作ができることになる。   Also, when using a plurality of electronic pens, the coordinate position on the display unit 112 of each electronic pen can be grasped by using sensor information of the acceleration sensor 305 and the angular velocity sensor 306 in addition to triangulation. Therefore, even in the case of FIG. 9, operations such as drawing and erasing can be performed accurately. Further, the display unit 112 uses a plurality of electronic pens more accurately by making it possible to discriminate using signals such as distinguishing signals transmitted from the respective electronic pens and managing the information separately. Operations such as drawing and erasing can be performed.

<電子ペンからの信号を用いた座標検出処理>
図11は、上述した電子ペン300からの信号を用いた座標検出処理の一部を示すフローチャートであり、図12は、その座標検出処理の残りの部分を示すフローチャートである。この座標検出処理は画像処理装置110内の座標検出部224が実行する。
<Coordinate detection process using signal from electronic pen>
FIG. 11 is a flowchart showing a part of the coordinate detection process using the signal from the electronic pen 300 described above, and FIG. 12 is a flowchart showing the remaining part of the coordinate detection process. This coordinate detection process is executed by the coordinate detection unit 224 in the image processing apparatus 110.

このフローは、電子ペン300から描画開始信号を受信したときにスタートする。描画開始信号は、電子ペン300が画像処理装置110の表示部112に接触したことをペン先圧力センサ303が検知したときに、信号送信部310から画像処理装置110に送信される。   This flow starts when a drawing start signal is received from the electronic pen 300. The drawing start signal is transmitted from the signal transmission unit 310 to the image processing device 110 when the pen tip pressure sensor 303 detects that the electronic pen 300 has contacted the display unit 112 of the image processing device 110.

最初にフラグt及びフラグwを初期化する(ステップS1)。ここで、フラグtはフラグが立っている(t=1)場合は、描画終了前の座標位置検出が三角測量で行われたことを、フラグが立っていない(t=0)場合は、描画終了前の座標位置検出がセンサ情報で行われたことを表し、フラグwは電子ペン300で初めて描画を行う(W=0)か、2度目以降(W=0)かを表す。   First, the flag t and the flag w are initialized (step S1). Here, when the flag t is set (t = 1), the coordinate position detection before the end of drawing is performed by triangulation, and when the flag is not set (t = 0), drawing is performed. It represents that the coordinate position detection before the end was performed with the sensor information, and the flag w represents whether the first drawing is performed with the electronic pen 300 (W = 0) or the second and subsequent times (W = 0).

次に三角測量を行い(ステップS2)、三角測量ができたか否かを判断する(ステップS3)。ここでは、三角測量ができたものとし(ステップS3:可)、描画開始座標位置を算出して記憶する(ステップS4、S5)。ステップS4、S5は、座標検出部224内の第1の座標位置算出手段及び描画開始座標位置記憶手段により実行される。   Next, triangulation is performed (step S2), and it is determined whether or not triangulation has been completed (step S3). Here, it is assumed that triangulation has been completed (step S3: Yes), and the drawing start coordinate position is calculated and stored (steps S4 and S5). Steps S4 and S5 are executed by the first coordinate position calculation means and the drawing start coordinate position storage means in the coordinate detection unit 224.

次にフラグtの値が0であるかを判断する(ステップS6)。最初はフラグtは0(初期値)であるから、ステップS11に進み、電子ペン300からのセンサ情報を初期化する。   Next, it is determined whether the value of the flag t is 0 (step S6). Since the flag t is initially 0 (initial value), the process proceeds to step S11, and the sensor information from the electronic pen 300 is initialized.

次に、電子ペン300の加速度センサ305からの情報に基づいて、電子ペン300が移動したか否かを判断する(ステップS12)。まず移動していない場合(ステップS12:無)について説明する。この場合、描画終了信号を監視し(ステップS23)、描画終了信号を検出したら(描画終了信号:有)、座標位置を記憶する(ステップS24)。ステップS24は、座標検出部224内の描画終了座標位置記憶手段により実行される。   Next, based on the information from the acceleration sensor 305 of the electronic pen 300, it is determined whether or not the electronic pen 300 has moved (step S12). First, the case where it has not moved (step S12: none) will be described. In this case, the drawing end signal is monitored (step S23), and when the drawing end signal is detected (drawing end signal: present), the coordinate position is stored (step S24). Step S24 is executed by the drawing end coordinate position storage means in the coordinate detection unit 224.

ここで、描画終了信号は、電子ペン300が画像処理装置110の表示部112から離れた(離間した)ことをペン先圧力センサ303が検知したときに、電子ペン300から画像処理装置1010に送信される。   Here, the drawing end signal is transmitted from the electronic pen 300 to the image processing apparatus 1010 when the pen tip pressure sensor 303 detects that the electronic pen 300 is separated (separated) from the display unit 112 of the image processing apparatus 110. Is done.

このように、電子ペン300が画像処理装置110の表示部112に接触したものの、移動することなく、離れた場合は、ステップS24で記憶した座標位置はステップS5で記憶した座標位置と同じになる。   As described above, when the electronic pen 300 contacts the display unit 112 of the image processing apparatus 110 but moves away without moving, the coordinate position stored in step S24 is the same as the coordinate position stored in step S5. .

ステップS24で座標位置を記憶した後、フラグwを1にし(ステップS25)、センサ情報を初期化する(ステップS26)。   After storing the coordinate position in step S24, the flag w is set to 1 (step S25), and the sensor information is initialized (step S26).

次に、電子ペン300が移動したか否かを判断し(ステップS27)、移動しているときは(ステップS27:有)、センサ情報を積算した後(ステップS28)、描画開始信号の有無を判断する(ステップS29)。移動していないときは(ステップS27:無)、そのまま描画開始信号の有無を判断する(ステップS29)。ステップS28は、座標検出部224内の第2の座標位置算出手段により実行される。   Next, it is determined whether or not the electronic pen 300 has moved (step S27). If the electronic pen 300 has moved (step S27: present), sensor information is accumulated (step S28), and the presence / absence of a drawing start signal is determined. Judgment is made (step S29). When not moving (step S27: No), the presence / absence of a drawing start signal is determined as it is (step S29). Step S28 is executed by the second coordinate position calculation means in the coordinate detector 224.

描画開始信号が無い場合は(ステップS29:無)、ステップS27に移行し、描画開始信号が有る場合は(ステップS29:有)、ステップS2に移行する。つまり、ステップS28により、電子ペン300が画像処理装置110の表示部112から離れている間の電子ペン300の座標入力領域43の2つの座標軸(図7のx軸、y軸)方向の移動量(以下、単に「移動量」という)、即ちステップS24で記憶した座標位置からの移動量を算出した後、ステップS2に移行する。   If there is no drawing start signal (step S29: None), the process proceeds to step S27. If there is a drawing start signal (step S29: present), the process proceeds to step S2. That is, in step S28, the movement amount of the coordinate input area 43 of the electronic pen 300 in the two coordinate axes (x-axis and y-axis in FIG. 7) directions while the electronic pen 300 is away from the display unit 112 of the image processing apparatus 110. (Hereinafter, simply referred to as “movement amount”), that is, after calculating the movement amount from the coordinate position stored in step S24, the process proceeds to step S2.

次に、ステップS12で電子ペン300が移動していると判断した場合は(ステップS12:有)について説明する。この場合は、三角測量を行い(ステップS13)、三角測量ができたか否かを判断する(ステップS14)。ここでは、三角測量ができたものとし(ステップS14:可)、座標位置を記憶する(ステップS15)。   Next, when it is determined in step S12 that the electronic pen 300 is moving (step S12: present) will be described. In this case, triangulation is performed (step S13), and it is determined whether or not triangulation has been completed (step S14). Here, it is assumed that triangulation has been completed (step S14: Yes), and the coordinate position is stored (step S15).

次に、センサ情報より座標位置の移動量を算出する(ステップS16)。ステップS16により、ステップS11で初期化されてからの表示部112上の電子ペン300の移動情報が得られる。   Next, the movement amount of the coordinate position is calculated from the sensor information (step S16). In step S16, movement information of the electronic pen 300 on the display unit 112 after the initialization in step S11 is obtained.

次に、三角測量による座標位置の移動量と、センサ情報から積算した座標位置の移動量から補正値2を算出して蓄積する(ステップS17)。   Next, the correction value 2 is calculated and accumulated from the movement amount of the coordinate position by triangulation and the movement amount of the coordinate position accumulated from the sensor information (step S17).

ここで、三角測量による座標位置の移動量は、ステップS15で記憶した座標位置とステップS5で記憶した座標位置との差分である。センサ情報から積算した座標位置の移動量は、ステップS16で算出した値である。   Here, the movement amount of the coordinate position by triangulation is a difference between the coordinate position stored in step S15 and the coordinate position stored in step S5. The movement amount of the coordinate position integrated from the sensor information is the value calculated in step S16.

また、補正値2は、前述したとおり、両者の比較に基づいて生成した、センサ情報の積算値を補正するための係数である。即ち、三角測量による座標位置の移動量を正確な値とし、センサ情報から積算した座標位置の移動量を正確な値に補正するための係数である。この補正値2は、電子ペン300の筆記中のセンサ情報の補正係数である。   Further, the correction value 2 is a coefficient for correcting the integrated value of the sensor information generated based on the comparison between the two as described above. That is, this is a coefficient for correcting the movement amount of the coordinate position obtained by triangulation to an accurate value and correcting the movement amount of the coordinate position accumulated from the sensor information to an accurate value. The correction value 2 is a correction coefficient for sensor information during writing of the electronic pen 300.

補正値2を記憶した後、フラグtを1に設定し(ステップS18)、描画処理を行い(ステップS19)、ステップS12に移行する。この描画処理により、ステップS5で記憶した描画開始座標位置からステップS15で記憶した座標位置までの電子ペン300の軌跡が表示部112に表示される。   After storing the correction value 2, the flag t is set to 1 (step S18), drawing processing is performed (step S19), and the process proceeds to step S12. By this drawing process, the locus of the electronic pen 300 from the drawing start coordinate position stored in step S5 to the coordinate position stored in step S15 is displayed on the display unit 112.

今度はステップS12で移動が有ると判断し(ステップS12:有)、三角測量ができなかったものとする(ステップS13→ステップS14:不可)。この場合、センサ情報に補正値2を適用し補正し、座標位置を算出し(ステップS19)、その座標位置を記憶する(ステップS20)。そして、フラグtを0に設定し(ステップS21)、描画処理を行い(ステップS22)、ステップS12に移行する。ステップS19は、座標検出部224内の第2の補正手段により実行される。   This time, it is determined that there is movement in step S12 (step S12: present), and it is assumed that triangulation cannot be performed (step S13 → step S14: impossibility). In this case, the correction value 2 is applied to the sensor information for correction, the coordinate position is calculated (step S19), and the coordinate position is stored (step S20). Then, the flag t is set to 0 (step S21), drawing processing is performed (step S22), and the process proceeds to step S12. Step S19 is executed by the second correction means in the coordinate detection unit 224.

次に、ステップS6でフラグtが1である場合について説明する。フラグtを1に設定するのはステップS18であるから、ステップS6でフラグtが1になるのは、ステップS18→S22→S12→S23〜S29→S2〜S5を経てS6に到達した場合である。   Next, the case where the flag t is 1 in step S6 will be described. Since flag t is set to 1 in step S18, flag t is set to 1 in step S6 when S6 is reached through steps S18 → S22 → S12 → S23 to S29 → S2 to S5. .

次のステップS7では、センサ情報の積算値から座標位置の移動量を算出する。ここで、算出する移動量は、ステップS28で算出した値、つまり電子ペン300が表示部112から離れていた間の電子ペン300の移動量である。   In the next step S7, the movement amount of the coordinate position is calculated from the integrated value of the sensor information. Here, the calculated movement amount is the value calculated in step S <b> 28, that is, the movement amount of the electronic pen 300 while the electronic pen 300 is away from the display unit 112.

次に、三角測量による座標位置の移動量と、センサ情報から積算した座標位置の移動量から補正値1を算出して蓄積する(ステップS8)。ここで、三角測量による座標位置の移動量は、ステップS5で記憶した座標位置とステップS24で記憶した座標位置との差分である。センサ情報から積算した座標位置の移動量は、ステップS7で算出した値である。   Next, the correction value 1 is calculated and accumulated from the movement amount of the coordinate position by triangulation and the movement amount of the coordinate position accumulated from the sensor information (step S8). Here, the movement amount of the coordinate position by triangulation is a difference between the coordinate position stored in step S5 and the coordinate position stored in step S24. The movement amount of the coordinate position integrated from the sensor information is the value calculated in step S7.

また、補正値1は、前述したとおり、両者の比較に基づいて生成した、センサ情報の積算値を補正するための係数である。即ち、三角測量による座標位置の移動量を正確な値とし、センサ情報から積算した座標位置の移動量を正確な値に補正するための係数である。この補正値1は、電子ペン300が表示部112に接触していないときのセンサ情報の積算値の補正係数である。補正値1を蓄積した後、センサ情報を初期化する(ステップS11)。   Further, the correction value 1 is a coefficient for correcting the integrated value of the sensor information generated based on the comparison between the two as described above. That is, this is a coefficient for correcting the movement amount of the coordinate position obtained by triangulation to an accurate value and correcting the movement amount of the coordinate position accumulated from the sensor information to an accurate value. The correction value 1 is a correction coefficient for the integrated value of the sensor information when the electronic pen 300 is not in contact with the display unit 112. After accumulating the correction value 1, the sensor information is initialized (step S11).

ステップS3で測定できないと判断した場合は(ステップS3:不可)、フラグwが1か0かを判断し(ステップS9)、0の場合はステップS2に移行し、1の場合はステップS10に移行する。ステップS10では、センサ情報の積算値に補正値1を適用して座標位置を算出する。次に、その座標位置を記憶し(ステップS30)、センサ情報を初期化する(ステップS11)。ステップS10は、座標検出部224内の第1の補正手段により実行される。   If it is determined in step S3 that measurement is not possible (step S3: impossible), it is determined whether the flag w is 1 or 0 (step S9). If it is 0, the process proceeds to step S2, and if it is 1, the process proceeds to step S10. To do. In step S10, the coordinate position is calculated by applying the correction value 1 to the integrated value of the sensor information. Next, the coordinate position is stored (step S30), and the sensor information is initialized (step S11). Step S <b> 10 is executed by the first correction unit in the coordinate detection unit 224.

フラグwはステップS25で1に設定されるので、ステップS9でフラグwが1になるのは、ステップS25〜S29→S2→S3を通ってステップS9に到達した場合である。従って、ステップS10で算出される座標位置は、ステップS24で座標位置を記憶した後、電子ペン300が表示部112に接触していないときのセンサ情報の積算値を補正値1で補正した正確な座標である。   Since the flag w is set to 1 in step S25, the flag w is set to 1 in step S9 when the process reaches step S9 through steps S25 to S29 → S2 → S3. Therefore, the coordinate position calculated in step S10 is an accurate value obtained by correcting the integrated value of the sensor information when the electronic pen 300 is not in contact with the display unit 112 with the correction value 1 after storing the coordinate position in step S24. Coordinates.

以上説明したフローチャートの概略をまとめると以下のようになる。
筆記終了時から再度筆記するまでの加速度センサ305と角速度センサ306の情報から算出した表示部112上の座標の移動量(ステップS28にてセンサ情報を積算した結果を基に、ステップS7にて算出した座標位置)と、三角測量により算出された座標位置の移動量(ステップS2にて三角測量を行い、ステップS5にて算出した座標位置)と、ステップS15で算出してステップS24で記憶された、筆記終了時との座標位置の差の比較を行う。
The outline of the flowchart described above is summarized as follows.
The movement amount of coordinates on the display unit 112 calculated from the information of the acceleration sensor 305 and the angular velocity sensor 306 from the end of writing until writing again (calculated in step S7 based on the result of integrating sensor information in step S28) Coordinate position), the movement amount of the coordinate position calculated by triangulation (the coordinate position calculated by performing triangulation in step S2 and calculated in step S5), and calculated in step S15 and stored in step S24. Compare the difference in coordinate position with the end of writing.

三角測量により算出された座標位置を正確な値とし、その相違する割合から補正値を算出し、座標入力領域43の2つの座標軸方向(x軸方向、y軸方向)の移動量(ステップS2にて三角測量を開始し、ステップS4にて開始位置を算出する)と紐付けしたデータとしてステップS8で蓄積する。   The coordinate position calculated by triangulation is set to an accurate value, a correction value is calculated from the difference, and the amount of movement of the coordinate input area 43 in the two coordinate axis directions (x-axis direction and y-axis direction) (in step S2) Then, triangulation is started, and the start position is calculated in step S4) and stored in step S8.

即ち、例えば、筆記終了時にステップS24での座標位置を記憶した場合、次に筆記を開始するまでステップS28でセンサ情報を積算している。ステップS29にて筆記開始を検知した場合に、センサはステップS28で積算した値から、座標位置の移動量が(xs1、ys1)となった場合、三角測量で求めた移動量が(xt1,yt1)だとすると、x座標の補正値1はxt1÷xs1で求められ、y座標の補正値1はyt1÷ys1となる。   That is, for example, when the coordinate position in step S24 is stored at the end of writing, the sensor information is integrated in step S28 until writing is started next time. When the start of writing is detected in step S29, if the movement amount of the coordinate position is (xs1, ys1) from the value integrated in step S28, the movement amount obtained by triangulation is (xt1, yt1). ), The x coordinate correction value 1 is obtained by xt1 ÷ xs1, and the y coordinate correction value 1 is yt1 ÷ ys1.

この蓄積していくデータから、座標軸の移動量に合わせた補正値(補正値1)を算出していき、図8のように三角測量から座標位置を算出できず、加速度センサ305と角速度センサ306の情報から座標位置を算出する場合に、ステップS10にて、ステップS28で積分演算した移動量の情報に補正値1を用いて座標位置を算出する。即ち、補正値1×ステップS28で積算した移動量+ステップS24で記憶した座標位置とすることで、正確に座標位置を算出することができる。   From this accumulated data, a correction value (correction value 1) according to the movement amount of the coordinate axis is calculated, and the coordinate position cannot be calculated from triangulation as shown in FIG. When the coordinate position is calculated from the information, the coordinate position is calculated in step S10 using the correction value 1 for the information on the movement amount integrated in step S28. That is, the coordinate position can be accurately calculated by setting the correction value 1 × the movement amount integrated in step S28 + the coordinate position stored in step S24.

また、筆記中においても誤差を減らすべく、同様にステップS17にて、電子ペン300の移動中のS13の三角測量による移動量と、ステップS16のセンサ情報による移動量の異なる割合から,補正値2を算出する。   Similarly, in order to reduce the error during writing, in step S17, the correction value 2 is calculated from the difference between the amount of movement by the triangulation of S13 during movement of the electronic pen 300 and the amount of movement by the sensor information of step S16. Is calculated.

このように、ステップS24で記憶した座標位置に、過去の蓄積したセンサ積算値から算出した移動量を三角測量で測量した移動量に近付ける補正値1で、ステップS28のセンサ積算値を補正して電子ペン300の座標位置を算出することで、筆記開始点を確定する。筆記中は、ステップS30又はステップS20で記憶した座標位置に、短い移動距離に特化した補正値2で、ステップS19のセンサ積算値を補正して電子ペンの座標位置を算出することで、三角測量から算出できない場合にでも、正確な座標位置に電子ペンで描画することができるようになる。   In this way, the sensor integrated value in step S28 is corrected with the correction value 1 that brings the movement amount calculated from the past accumulated sensor integrated value to the movement amount measured by triangulation at the coordinate position stored in step S24. The writing start point is determined by calculating the coordinate position of the electronic pen 300. During writing, the coordinate position of the electronic pen is calculated by correcting the sensor integrated value in step S19 with the correction value 2 specialized for a short moving distance at the coordinate position stored in step S30 or step S20, and calculating the coordinate position of the electronic pen. Even when it cannot be calculated from surveying, it is possible to draw with an electronic pen at an accurate coordinate position.

以上詳細に説明したように、本発明の実施形態の画像処理装置110によれば、下記(1)〜(4)の効果が得られる。
(1)電子ペン300以外に手などの遮蔽物が表示部112の表面に接触しているときでも、電子ペン300の表示部112上の座標位置を算出することができる。
(2)複数の電子ペン300が表示部112に接触しているときでも、各電子ペン300の表示部112上の座標位置を算出することができる。
(3)電子ペン300で筆記していないときのセンサ情報の積算値に基づく座標位置を補正することができる。
(4)電子ペン300で筆記しているときのセンサ情報の積算値に基づく座標位置を補正することができる。
As described above in detail, according to the image processing apparatus 110 of the embodiment of the present invention, the following effects (1) to (4) can be obtained.
(1) The coordinate position on the display unit 112 of the electronic pen 300 can be calculated even when a shield other than the electronic pen 300 is in contact with the surface of the display unit 112.
(2) Even when the plurality of electronic pens 300 are in contact with the display unit 112, the coordinate position on the display unit 112 of each electronic pen 300 can be calculated.
(3) The coordinate position based on the integrated value of the sensor information when not writing with the electronic pen 300 can be corrected.
(4) The coordinate position based on the integrated value of the sensor information when writing with the electronic pen 300 can be corrected.

40…座標入力装置、41−1,41−2…受発光手段、43…座標入力領域、44…再帰性反射部材、110,1010…画像処理装置、112,1012…表示部、224…座標検出部、226…座標検知装置、240…描画装置、300…電子ペン、305…加速度センサ、306…角速度センサ。   DESCRIPTION OF SYMBOLS 40 ... Coordinate input device, 41-1, 41-2 ... Light emitting / receiving means, 43 ... Coordinate input area, 44 ... Retroreflective member, 110, 1010 ... Image processing device, 112, 1012 ... Display part, 224 ... Coordinate detection 226 ... coordinate detection device 240 ... drawing device 300 ... electronic pen 305 ... acceleration sensor 306 angular velocity sensor

特開平9−91094号公報JP-A-9-91094 特許第4340302号公報Japanese Patent No. 4340302

Claims (4)

座標入力領域の2箇所に配置された受発光手段と、
各受発光手段から前記座標入力領域に出射された光を各受発光手段の方向に向けて反射させる反射手段と、
各受発光手段から前記座標入力領域に出射され、前記反射手段で反射し、各受発光手段に到達する光の光路が前記座標入力領域に接触した指示物体により遮断されたとき、各受発光手段の間の距離と、各受発光手段と前記遮断された光路のなす角度とから、前記指示物体が接触した座標位置を算出する第1の座標位置算出手段と、
前記指示物体からの加速度の検知信号及び角速度の検知信号を積算して、前記指示物体の移動量と移動方向を含む移動情報を算出する移動情報算出手段と、
前記第1の座標位置算出手段により座標位置を算出できないとき、前記第1の座標位置算出手段により算出できたときの座標位置と、前記移動情報算出手段で算出された移動情報とから、前記指示物体の座標位置を算出する第2の座標位置算出手段と、
を有する座標入力装置。
Light emitting and receiving means arranged at two locations in the coordinate input area;
Reflecting means for reflecting the light emitted from each light receiving and emitting means to the coordinate input area toward the direction of each light receiving and emitting means;
Each light receiving / emitting means when the optical path of the light emitted from each light receiving / emitting means to the coordinate input area, reflected by the reflecting means, and reaching each light receiving / emitting means is blocked by the pointing object contacting the coordinate input area First coordinate position calculation means for calculating a coordinate position where the pointing object is in contact with each other from the distance between the light receiving and emitting means and the angle formed by the blocked optical path;
A movement information calculating means for calculating movement information including a movement amount and a movement direction of the pointing object by integrating the acceleration detection signal and the angular velocity detection signal from the pointing object;
When the coordinate position cannot be calculated by the first coordinate position calculation means, the instruction is obtained from the coordinate position when the first coordinate position calculation means can calculate and the movement information calculated by the movement information calculation means. Second coordinate position calculation means for calculating the coordinate position of the object;
A coordinate input device.
請求項1に記載された座標入力装置において、
前記指示物体からの前記座標入力領域に接触したことを示す検知信号を受け取り、そのときに前記第1の座標位置算出手段により算出された座標位置を描画開始座標位置として記憶する描画開始座標位置記憶手段と、
前記指示物体からの前記座標入力領域から離れたことを示す検知信号を受け取り、そのときに前記第1の座標位置算出手段により算出された座標位置を描画終了座標位置として記憶する描画終了座標位置記憶手段と、
前記描画終了座標位置から次の描画開始座標位置までの差を基準にして、その間に前記移動情報算出手段で算出された移動情報を補正する第1の補正手段と、
を有する座標入力装置。
The coordinate input device according to claim 1,
A drawing start coordinate position storage that receives a detection signal indicating contact with the coordinate input area from the pointing object, and stores the coordinate position calculated by the first coordinate position calculation unit at that time as a drawing start coordinate position Means,
A drawing end coordinate position storage that receives a detection signal indicating that the pointing object has left the coordinate input area and stores the coordinate position calculated by the first coordinate position calculating unit as a drawing end coordinate position at that time Means,
A first correction unit that corrects movement information calculated by the movement information calculation unit during a period based on a difference from the drawing end coordinate position to the next drawing start coordinate position;
A coordinate input device.
請求項1に記載された座標入力装置において、
前記指示物体からの前記座標入力領域に接触したことを示す検知信号を受け取り、そのときに前記第1の座標位置算出手段により算出された座標位置を描画開始座標位置として記憶する描画開始座標位置記憶手段と、
前記指示物体からの前記座標入力領域から離れたことを示す検知信号を受け取り、そのときに前記第1の座標位置算出手段により算出された座標位置を描画終了座標位置として記憶する描画終了座標位置記憶手段と、
前記描画開始座標位置から前記描画終了座標位置までの差を基準にして、その間に前記移動情報算出手段で算出された移動情報を補正する第2の補正手段と、
を有する座標入力装置。
The coordinate input device according to claim 1,
A drawing start coordinate position storage that receives a detection signal indicating contact with the coordinate input area from the pointing object, and stores the coordinate position calculated by the first coordinate position calculation unit at that time as a drawing start coordinate position Means,
A drawing end coordinate position storage that receives a detection signal indicating that the pointing object has left the coordinate input area and stores the coordinate position calculated by the first coordinate position calculating unit as a drawing end coordinate position at that time Means,
A second correction unit that corrects movement information calculated by the movement information calculation unit between the drawing start coordinate position and the drawing end coordinate position;
A coordinate input device.
請求項1〜3のいずれかに記載された座標入力装置を備えた画像処理装置。
An image processing apparatus comprising the coordinate input device according to claim 1.
JP2013189773A 2013-09-12 2013-09-12 Coordinate input device and image processing device Expired - Fee Related JP6176013B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013189773A JP6176013B2 (en) 2013-09-12 2013-09-12 Coordinate input device and image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013189773A JP6176013B2 (en) 2013-09-12 2013-09-12 Coordinate input device and image processing device

Publications (2)

Publication Number Publication Date
JP2015056064A true JP2015056064A (en) 2015-03-23
JP6176013B2 JP6176013B2 (en) 2017-08-09

Family

ID=52820414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013189773A Expired - Fee Related JP6176013B2 (en) 2013-09-12 2013-09-12 Coordinate input device and image processing device

Country Status (1)

Country Link
JP (1) JP6176013B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101687757B1 (en) * 2016-04-14 2016-12-20 (주)이케이네트웍스 Method for recognizing electric handwriting and computer readable record-medium on which program for executing method therefor
KR101796925B1 (en) * 2016-04-14 2017-11-16 (주)이케이네트웍스 Apparatus for electric handwriting and system including therefor
JP2018036932A (en) * 2016-09-01 2018-03-08 学校法人神奈川大学 Question/answer system and question/answer management device
WO2018214691A1 (en) * 2017-05-23 2018-11-29 Shenzhen GOODIX Technology Co., Ltd. Optical touch sensing for displays and other applications
US10437391B2 (en) 2016-11-17 2019-10-08 Shenzhen GOODIX Technology Co., Ltd. Optical touch sensing for displays and other applications
JP2022130506A (en) * 2015-04-20 2022-09-06 株式会社ワコム Method for use in bi-lateral communication between active stylus and sensor controller, and active stylus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991094A (en) * 1995-09-21 1997-04-04 Sekisui Chem Co Ltd Coordinate detector for touch panel
JP2001296961A (en) * 2000-04-14 2001-10-26 Ricoh Co Ltd Input device
JP2002523830A (en) * 1998-08-18 2002-07-30 デジタル インク インコーポレーテッド Handwriting device with detection sensor for absolute and relative positioning
JP2008530704A (en) * 2005-02-18 2008-08-07 フィンガー システム インコーポレイテッド Input device having composite coordinate recognition function and driving method thereof
US20110241988A1 (en) * 2010-04-01 2011-10-06 Smart Technologies Ulc Interactive input system and information input method therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991094A (en) * 1995-09-21 1997-04-04 Sekisui Chem Co Ltd Coordinate detector for touch panel
JP2002523830A (en) * 1998-08-18 2002-07-30 デジタル インク インコーポレーテッド Handwriting device with detection sensor for absolute and relative positioning
JP2001296961A (en) * 2000-04-14 2001-10-26 Ricoh Co Ltd Input device
JP2008530704A (en) * 2005-02-18 2008-08-07 フィンガー システム インコーポレイテッド Input device having composite coordinate recognition function and driving method thereof
US20110241988A1 (en) * 2010-04-01 2011-10-06 Smart Technologies Ulc Interactive input system and information input method therefor

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022130506A (en) * 2015-04-20 2022-09-06 株式会社ワコム Method for use in bi-lateral communication between active stylus and sensor controller, and active stylus
JP7271770B2 (en) 2015-04-20 2023-05-11 株式会社ワコム Method and active stylus for bi-directional communication between active stylus and sensor controller
KR101687757B1 (en) * 2016-04-14 2016-12-20 (주)이케이네트웍스 Method for recognizing electric handwriting and computer readable record-medium on which program for executing method therefor
KR101796925B1 (en) * 2016-04-14 2017-11-16 (주)이케이네트웍스 Apparatus for electric handwriting and system including therefor
JP2018036932A (en) * 2016-09-01 2018-03-08 学校法人神奈川大学 Question/answer system and question/answer management device
US10437391B2 (en) 2016-11-17 2019-10-08 Shenzhen GOODIX Technology Co., Ltd. Optical touch sensing for displays and other applications
WO2018214691A1 (en) * 2017-05-23 2018-11-29 Shenzhen GOODIX Technology Co., Ltd. Optical touch sensing for displays and other applications

Also Published As

Publication number Publication date
JP6176013B2 (en) 2017-08-09

Similar Documents

Publication Publication Date Title
JP6176013B2 (en) Coordinate input device and image processing device
JP6201519B2 (en) Coordinate detection apparatus, coordinate detection method, and electronic information board system
US9176628B2 (en) Display with an optical sensor
US9454260B2 (en) System and method for enabling multi-display input
US8743089B2 (en) Information processing apparatus and control method thereof
US9753547B2 (en) Interactive displaying method, control method and system for achieving displaying of a holographic image
US20120274550A1 (en) Gesture mapping for display device
US20020145595A1 (en) Information input/output apparatus, information input/output control method, and computer product
US20120319945A1 (en) System and method for reporting data in a computer vision system
US20080129700A1 (en) Interactive input system and method
US20130117717A1 (en) 3d user interaction system and method
TWI484386B (en) Display with an optical sensor
JP2013210956A (en) Display device
JP5651358B2 (en) Coordinate input device and program
US20120056808A1 (en) Event triggering method, system, and computer program product
CN110703957B (en) Interaction system and interaction method based on optical image
JP4615178B2 (en) Information input / output system, program, and storage medium
CA2886483C (en) Dynamically determining workspace bounds during a collaboration session
CN110703956B (en) Interaction system and interaction method based on optical image
KR101088019B1 (en) Remote data input system and remote data input method
JP7452917B2 (en) Operation input device, operation input method and program
JP6476626B2 (en) Indicator determination device, coordinate input device, indicator determination method, coordinate input method, and program
JP6786898B2 (en) Image processing equipment, image processing systems, and programs
JP2017111205A (en) Image processing device, image processing system and program
JP2017111624A (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170626

R151 Written notification of patent or utility model registration

Ref document number: 6176013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees