JP2008134793A - Electronic handwriting input device - Google Patents

Electronic handwriting input device Download PDF

Info

Publication number
JP2008134793A
JP2008134793A JP2006320049A JP2006320049A JP2008134793A JP 2008134793 A JP2008134793 A JP 2008134793A JP 2006320049 A JP2006320049 A JP 2006320049A JP 2006320049 A JP2006320049 A JP 2006320049A JP 2008134793 A JP2008134793 A JP 2008134793A
Authority
JP
Japan
Prior art keywords
handwriting input
unit
input surface
distance
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006320049A
Other languages
Japanese (ja)
Other versions
JP4838694B2 (en
Inventor
Kenji Ito
研治 伊藤
Mikio Watanabe
幹夫 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006320049A priority Critical patent/JP4838694B2/en
Publication of JP2008134793A publication Critical patent/JP2008134793A/en
Application granted granted Critical
Publication of JP4838694B2 publication Critical patent/JP4838694B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To surely determine handwriting input by a simulated pen and the like for a handwriting input face projected on any of various projection bodies such as a desk, table, and white board. <P>SOLUTION: An electronic handwriting input device 10 is constituted such that a compound eye imaging section 14 and a projection section 11 are integrally composed and are freely changed in angle by a universal joint 34. Then, input for the handwriting input surface 36 by an indicated point 112 of an indicating means 110 such as the simulated pen is defined according to a distance between the indicated point 112 and the handwriting input surface 36. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、投影部から被投影体に投影された手書入力面を含む被写界像を複眼撮像部により撮像し、先端をペン先等に対応する指示点(ポインタ)とするペン等の指示手段による前記手書入力面に対する入力の確定を判別する電子的手書入力装置に関する。   This invention captures a scene image including a handwriting input surface projected from a projection unit onto a projection object by a compound eye imaging unit, and uses a tip or the like as a pointing point (pointer) corresponding to a pen tip or the like. The present invention relates to an electronic handwriting input device for determining input confirmation on the handwriting input surface by instruction means.

従来から、特許文献1に示すように、操作面画像を投影する画像投影手段と、画像投影手段の表示制御を行う表示制御手段と、投影された前記操作面画像上におけるユーザ操作位置を検知する操作位置検知手段と、検知したユーザ操作位置に対応するデータ処理を実行する検出データ処理手段を備え、前記表示制御手段が、前記操作位置検知手段により検知したユーザ操作位置に応じて、前記操作面画像の一部を変更する電子機器が提案されている。   Conventionally, as shown in Patent Document 1, an image projection unit that projects an operation surface image, a display control unit that performs display control of the image projection unit, and a user operation position on the projected operation surface image are detected. An operation position detection unit; and a detection data processing unit that executes data processing corresponding to the detected user operation position, and the display control unit determines the operation surface according to the user operation position detected by the operation position detection unit. An electronic device that changes a part of an image has been proposed.

この電子機器においては、操作位置検知手段として、レーザ光源を用い、扇状にスキャンしたレーザ光の反射光を受光センサで受光することで、ユーザ操作位置を検出するようにしている。   In this electronic apparatus, a user operation position is detected by using a laser light source as the operation position detection means and receiving reflected light of the laser beam scanned in a fan shape with a light receiving sensor.

また、特許文献2に示すように、ステージ上の撮像領域を撮像する撮像手段と、撮像された画像情報から前記撮像領域内において指示された指示位置を検出する画像処理手段とを有し、撮像領域内の任意位置を指示部材で直接指示することで、指示部分を入力する入力システムが開示されている。   Moreover, as shown in Patent Document 2, the imaging unit includes an imaging unit that captures an imaging region on the stage, and an image processing unit that detects an indicated position indicated in the imaging region from the captured image information. An input system for inputting an instruction portion by directly indicating an arbitrary position in an area with an instruction member is disclosed.

この入力システムにおいては、ステージ上に光を照射して、撮像領域の範囲を規定する発光部を有し、撮像領域の範囲を視認させる。また、撮像領域内に画像を投影表示することで、入力位置を判別する。さらに、ステージ上にメニュー画像を照射し、そのメニュー画像上の所望の表示位置を所定時間指示したときに入力を確定する。あるいは、ステージにマトリクス状に配置された発光部を有する専用のパレット機能を備え、確定用スイッチとする。あるいは、インキを用いたペンで撮像領域に書いた画像を撮像することで情報を入力している。   In this input system, the stage is irradiated with light to have a light emitting unit that defines the range of the imaging region, and the range of the imaging region is visually recognized. Further, the input position is determined by projecting and displaying an image in the imaging region. Further, the menu image is irradiated on the stage, and the input is determined when a desired display position on the menu image is designated for a predetermined time. Alternatively, a dedicated pallet function having light emitting units arranged in a matrix on the stage is provided, and a switch for determination is provided. Alternatively, information is input by capturing an image written in the imaging region with a pen using ink.

さらに、特許文献3に示すように、複数台のカメラから入力した画像からステレオ法により距離画像を生成し、距離画像と、操作者の体の予め定めた部位2箇所(始点、終点)とから、実空間上における始点、終点の3次元座標を算出し、操作者の前記部位2箇所により指し示される方向を算出し、その方向の延長線上と予め登録された物体の情報とから、交点を検出するインターフェース装置が開示されている。   Furthermore, as shown in Patent Document 3, a distance image is generated by a stereo method from images input from a plurality of cameras, and the distance image and two predetermined parts (start point and end point) of the operator's body are used. The three-dimensional coordinates of the start point and the end point in the real space are calculated, the direction indicated by the operator's two parts is calculated, and the intersection point is obtained from the extension line of the direction and the information of the previously registered object. An interface device for detection is disclosed.

特開2005−242725号公報(図7)Japanese Patent Laying-Open No. 2005-242725 (FIG. 7) 特開2000−259338号公報(図17)JP 2000-259338 A (FIG. 17) 特開2004−265222号公報(図3)JP 2004-265222 A (FIG. 3)

しかしながら、上記特許文献1に係る技術においては、操作位置検出手段としてレーザ光源を用いているため、レーザ光が目に入射する可能性があり好ましくない。また、この技術では、レーザ光を照射する面が電子機器の設置面に限定されているため、例えば投影面が湾曲している場合には位置を正確に検知することができないという欠点がある。   However, in the technique according to Patent Document 1, since a laser light source is used as the operation position detection unit, laser light may enter the eye, which is not preferable. In addition, this technology has a drawback that the position cannot be accurately detected when the projection surface is curved, for example, because the surface on which the laser beam is irradiated is limited to the installation surface of the electronic device.

また、上記特許文献2に係る技術においては、発光部がマトリクス状に配列されたパレット等の位置指示手段が、投射表示手段とは別に必要となりシステムが高価になるという欠点がある。   In addition, the technique according to Patent Document 2 has a disadvantage that a position indicating unit such as a pallet in which light emitting units are arranged in a matrix is required separately from the projection display unit, and the system is expensive.

さらに、上記特許文献3に係る技術においては、空間上における始点、終点を検知し、操作者が指し示す方向を検出するようにしているため、手元のわずかな検出誤差が投影面上では大きな誤差となり、操作が不安定で精度に欠けるという欠点がある。   Furthermore, in the technique according to Patent Document 3, since the start point and end point in space are detected and the direction indicated by the operator is detected, a slight detection error at hand becomes a large error on the projection plane. The operation is unstable and lacks accuracy.

この発明は、上記の欠点を考慮してなされたものであり、手書入力面の制限が少なく、パレット等の位置指示手段を必要としないで、かつ先端を指示点とする指示手段による前記手書入力面に対する入力の確定を確実に判別することを可能とする電子的手書入力装置を提供することを目的とする。   The present invention has been made in consideration of the above-mentioned drawbacks, has few restrictions on the handwriting input surface, does not require a position indicating means such as a pallet, and the hand by the indicating means having the tip as an indicating point. It is an object of the present invention to provide an electronic handwriting input device that can reliably determine the confirmation of an input to a document input surface.

この発明に係る電子的手書入力装置は、被投影体に手書入力面を投影する投影部と、先端を指示点とし手書入力を行うための指示手段と、投影された前記手書入力面を含む被写界像を撮像する複眼撮像部と、撮像された前記手書入力面の画素毎に前記複眼撮像部からの距離を求め投影された前記手書入力面の座標を求める距離算出部と、前記被写界像から前記指示手段の前記指示点を認識する指示手段認識部とを備える電子的手書入力装置であって、以下の特徴(1)〜(4)を有する。   An electronic handwriting input device according to the present invention includes a projection unit that projects a handwriting input surface onto a projection target, instruction means for performing handwriting input with a tip as an instruction point, and the projected handwriting input A compound eye imaging unit that captures a scene image including a surface, and a distance calculation that calculates a distance from the compound eye imaging unit for each pixel of the captured handwriting input surface to obtain a projected coordinate of the handwriting input surface And an instruction means recognition unit for recognizing the instruction point of the instruction means from the object scene image, and has the following features (1) to (4).

(1)前記複眼撮像部は、前記投影部と一体的に角度変更が自由に構成され、前記指示手段の前記指示点による前記手書入力面に対する入力の確定を、前記指示点の位置と前記手書入力面との間の距離に応じて確定する手書入力確定部を備えることを特徴とする。   (1) The compound-eye imaging unit is configured to freely change the angle integrally with the projection unit, and confirms the input to the handwriting input surface by the indication point of the indication unit and the position of the indication point and the A handwriting input confirming unit that confirms the distance according to the distance from the handwriting input surface is provided.

この特徴(1)を有する発明によれば、複眼撮像部と投影部とが一体的に角度変更が自由に構成されているので、手書入力面の投影面がテーブルあるいは机の他、壁等とすることが可能となって手書入力面の制限が少なくなり、また、指示手段の指示点による前記手書入力面に対する入力の確定を、手書入力確定部により、前記指示点の位置と前記手書入力面との間の距離に応じて確定するようにしているので、パレット等を必要としないで確実に入力の確定を判別することができる。   According to the invention having the feature (1), since the compound eye imaging unit and the projection unit are configured to freely change the angle integrally, the projection surface of the handwriting input surface is a table, a desk, a wall, etc. The handwriting input surface is less restricted, and the input to the handwriting input surface by the pointing means of the pointing means is confirmed by the handwriting input confirming unit with the position of the pointing point. Since it is determined according to the distance from the handwriting input surface, it is possible to reliably determine the input without requiring a pallet or the like.

(2)上記の特徴(1)を有する発明において、前記投影部は、さらに、前記手書入力面に応じて複数位置に第1マーカを投影する第1マーカ投影機能部を備え、前記距離算出部は、投影された複数の前記第1マーカまでの距離をそれぞれ算出し、算出結果に基づいて、前記手書入力面の3次元座標を算出することを特徴とする。   (2) In the invention having the above feature (1), the projection unit further includes a first marker projection function unit that projects a first marker at a plurality of positions according to the handwriting input surface, and the distance calculation. The unit calculates each of the projected distances to the plurality of first markers, and calculates three-dimensional coordinates of the handwriting input surface based on the calculation result.

この特徴(2)を有する発明によれば、手書入力面の位置座標をより精度よく検知することができる。   According to the invention having the feature (2), the position coordinates of the handwriting input surface can be detected with higher accuracy.

(3)上記の特徴(1)を有する発明において、前記投影部は、さらに、前記手書入力面中の複数位置に第2マーカを投影する第2マーカ投影機能部を備え、前記距離算出部は、投影された複数の前記第2マーカまでの距離をそれぞれ算出し、算出結果に基づいて、前記手書入力面を3次元曲面に近似させることで、前記手書入力面の3次元座標を算出することを特徴とする。   (3) In the invention having the above feature (1), the projection unit further includes a second marker projection function unit that projects a second marker at a plurality of positions in the handwriting input surface, and the distance calculation unit Calculates the distance to each of the plurality of projected second markers, and approximates the handwriting input surface to a three-dimensional curved surface based on the calculation result, thereby obtaining the three-dimensional coordinates of the handwriting input surface. It is characterized by calculating.

この特徴(3)を有する発明によれば、距離算出部は、手書入力面中に投影された複数の第2マーカまでの距離をそれぞれ算出し、算出結果に基づいて、前記手書入力面を3次元曲面に近似させることで、前記手書入力面の3次元座標を算出するようにしているので、湾曲している手書入力面の3次元座標を精度よく算出することができる。結果として手書入力面が湾曲していても電子的手書き入力を行うことができる。   According to the invention having the feature (3), the distance calculation unit calculates distances to the plurality of second markers projected on the handwriting input surface, and based on the calculation result, the handwriting input surface. Is approximated to a three-dimensional curved surface, so that the three-dimensional coordinates of the handwriting input surface are calculated. Therefore, the three-dimensional coordinates of the curved handwriting input surface can be calculated with high accuracy. As a result, electronic handwriting input can be performed even if the handwriting input surface is curved.

(4)上記特徴(1)を有する発明において、前記手書入力確定部は、前記手書入力面と前記指示点との間の距離を、手書入力を確定とする前記手書入力面に最も近い手書入力確定距離範囲と、前記手書入力確定距離範囲の最大距離から一定距離範囲の境界領域距離範囲を設け、前記指示点の位置が、一旦、前記手書入力確定距離範囲に入ったことを判別した後は、前記境界領域距離範囲の最大距離より遠い距離に外れたと判別したときのみ、手書入力の確定を解除することを特徴とする。   (4) In the invention having the above feature (1), the handwriting input confirmation unit sets the distance between the handwriting input surface and the indication point to the handwriting input surface for confirming handwriting input. The nearest handwriting input confirmed distance range and the boundary area distance range of a certain distance range from the maximum distance of the handwriting input confirmed distance range are provided, and the position of the indicated point once enters the handwriting input confirmed distance range. After the determination, the determination of the handwriting input is canceled only when it is determined that the distance is longer than the maximum distance of the boundary area distance range.

この特徴(4)を有する発明によれば、境界領域距離範囲を設けているので、入力確定のゆらぎの影響が低減され、意図しないノイズの混入(意図しない手書きの確定)が防止される。   According to the invention having the feature (4), since the boundary region distance range is provided, the influence of fluctuations in input confirmation is reduced, and unintended noise mixing (unintentional handwriting confirmation) is prevented.

(5)上記特徴(1)を有する発明において、前記投影部を複数備え、前記手書入力面での立体画像の表示を可能としたことを特徴とする。   (5) The invention having the feature (1) is characterized in that a plurality of the projection units are provided, and a stereoscopic image can be displayed on the handwriting input surface.

この特徴(5)を有する発明によれば、ユーザが偏光立体視メガネを使用することにより、立体映像等を見ながら手書入力面に手書き等の入力を行うことができる。   According to the invention having the feature (5), when the user uses polarized stereoscopic glasses, handwriting or the like can be input on the handwriting input surface while viewing a stereoscopic image or the like.

この発明によれば、複眼撮像部と投影部とを一体的かつ角度変更を自由に構成したので、投影される手書入力面の制限が少なくなる結果、手書入力装置の配置の制限が緩やかになり、かつ手書入力面と指示手段の指示点との間の距離に応じて手書入力を確定するようにしているので、パレット等の位置指示手段を必要としないで、手書入力面に対する入力の確定を確実に判別することができる。   According to the present invention, since the compound eye imaging unit and the projection unit are integrally configured to freely change the angle, the restriction on the handwriting input surface to be projected is reduced, so that the restriction on the arrangement of the handwriting input device is moderated. And the handwriting input is determined according to the distance between the handwriting input surface and the pointing point of the pointing means, so the position inputting means such as a pallet is not required. It is possible to reliably determine the confirmation of the input to.

以下、この発明の実施形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、この発明の一実施形態に係る電子的手書入力装置10のシステムブロック図を示している。   FIG. 1 is a system block diagram of an electronic handwriting input device 10 according to an embodiment of the present invention.

書画装置としての電子的手書入力装置10は、基本的には、プロジェクタ等の投影部(画像投影部)11と、第1カメラ21と第2カメラ22からなる複眼カメラ等の複眼撮像部14と、投影部11と複眼撮像部14とを駆動制御する画像処理部16とから構成される。   An electronic handwriting input device 10 as a document device basically includes a projection unit (image projection unit) 11 such as a projector, and a compound eye imaging unit 14 such as a compound eye camera including a first camera 21 and a second camera 22. And an image processing unit 16 that drives and controls the projection unit 11 and the compound eye imaging unit 14.

画像処理部16は、投影する画像や文書などのデータ等を保存する格納手段である記録メディア40を装着・脱着することが可能(装着自由)に構成されている。なお、投影する画像や文書などのデータは、外部機器等から通信インタフェース42を通じて取り込むことも可能である。   The image processing unit 16 is configured to be capable of mounting (detaching) a recording medium 40 that is a storage unit that stores data such as an image to be projected and a document. It should be noted that data such as images and documents to be projected can also be taken in via the communication interface 42 from an external device or the like.

さらに、画像処理部16は、CPU、ROM、RAM等を含み、ROMに記憶されたプログラムをCPUが実行することで、後述する各種機能実現部(手段)として機能する。   Further, the image processing unit 16 includes a CPU, a ROM, a RAM, and the like, and functions as various function implementing units (means) described later when the CPU executes a program stored in the ROM.

図2は、電子的手書入力装置10の外観と使用状態を示す説明図である。図2に示すように、電子的手書入力装置10は、テーブル等の被投影体18上に配置されスタンドを兼ねる画像処理部16と、この画像処理部16に対して自在継手34aを介して支持ロッド32の一端部が係合され、支持ロッド32の他端部に自在継手34b(後述する図11も参照)を介して取り付けられた基部13に投影部11と複眼撮像部14が一体的に固定されている。   FIG. 2 is an explanatory diagram showing the appearance and use state of the electronic handwriting input device 10. As shown in FIG. 2, the electronic handwriting input device 10 includes an image processing unit 16 that is arranged on a projection target 18 such as a table and also serves as a stand, and a universal joint 34a for the image processing unit 16. One end of the support rod 32 is engaged, and the projection unit 11 and the compound-eye imaging unit 14 are integrated with the base 13 attached to the other end of the support rod 32 via a universal joint 34b (see also FIG. 11 described later). It is fixed to.

したがって、投影部11と複眼撮像部14とは、基部13、自在継手34(34a、34b)、支持ロッド32を介し、画像処理部16に対して一体的に角度変更が自由に構成されている。   Therefore, the projection unit 11 and the compound eye imaging unit 14 are configured to freely change the angle integrally with the image processing unit 16 via the base 13, the universal joints 34 (34 a and 34 b), and the support rod 32. .

投影部11は、被投影体18上に手書入力面36を投影する。投影された手書入力面36をカバーする大きさの紙等のシートを、被投影体18の投影面に配置してもよい。   The projection unit 11 projects the handwriting input surface 36 on the projection target 18. A sheet of paper or the like that covers the projected handwriting input surface 36 may be disposed on the projection surface of the projection target 18.

手書入力面36には、先端を指示点(先端点、ポインタ)112とする指示手段110が対向する。なお、指示手段110は、被投影体18上に実際に文字や図形の書画を書き込むことが可能なペン、あるいは書き込めないペン状の物(模擬ペン)又は、人差し指等、手指に代替することもできる。   The handwriting input surface 36 is opposed to instruction means 110 having a tip 112 as a point (tip point, pointer). The instruction unit 110 may be replaced with a pen that can actually write a character or graphic document on the projection target 18, a pen-like object that cannot be written (simulated pen), or a finger such as an index finger. it can.

図1において、複眼撮像部14を構成する第1及び第2カメラ21、22は、それぞれ、レンズ系44、CCD等の撮像素子46、A/D変換部48、画像信号Sa、Sbを出力する信号処理部50と、レンズ系44と撮像素子46の露出と焦点の自動制御部(AE・AF制御部)51とを備えている。   In FIG. 1, the first and second cameras 21 and 22 constituting the compound-eye imaging unit 14 output a lens system 44, an imaging device 46 such as a CCD, an A / D conversion unit 48, and image signals Sa and Sb, respectively. A signal processing unit 50, a lens system 44, and an automatic exposure / focus control unit (AE / AF control unit) 51 of the image sensor 46 are provided.

ここで、第1及び第2カメラ21、22は、箱状の基部13上に、所定の間隔、方向で配置されており、複眼カメラとしての補正(キャリブレーション)が、予め、基準となるチャートなどを用いて実施されている。   Here, the first and second cameras 21 and 22 are arranged on the box-shaped base 13 at predetermined intervals and directions, and correction (calibration) as a compound eye camera is a reference chart in advance. It has been implemented using such as.

投影部11により被投影体18上に投影された手書入力面36を含む被写界像が複眼撮像部14により撮像され、対応する画像信号Sa、Sbが画像処理部16に供給される。   The object scene image including the handwriting input surface 36 projected onto the projection target 18 by the projection unit 11 is captured by the compound eye imaging unit 14, and the corresponding image signals Sa and Sb are supplied to the image processing unit 16.

画像処理部16は、複眼撮像部14から取り込んだ被写界像に対応する画像信号Sa、Sbの各画像上の対応点を検出するブロックマッチング部53と、実際の対応点(手書入力面36上の対応点)等までの距離を求める距離算出部54と、撮像された前記被写界像から指示手段110の指示点112を認識する指示手段認識部62等を含む判別処理部60とを備える。   The image processing unit 16 includes a block matching unit 53 that detects corresponding points on each image of the image signals Sa and Sb corresponding to the object scene image captured from the compound-eye imaging unit 14, and an actual corresponding point (handwriting input surface). A distance calculation unit 54 for obtaining a distance to the corresponding point 36), a determination processing unit 60 including an instruction unit recognition unit 62 for recognizing the instruction point 112 of the instruction unit 110 from the captured scene image, and the like. Is provided.

ブロックマッチング部52は、例えば、一方の画像信号Saの画像上に適当なサイズのブロック(ウインドウ)を設定し、他方の画像信号Saの画像において前記ブロックに対応する領域を求めるために、他方の画像に前記ブロックと同一サイズの領域を設定する。そして、両画像上の各ブロック内の画像を構成する対応する各画素(対応点)についての画素値を引き算して差を得、さらに差の絶対値を採る。次いで、各画素についての差の絶対値の前記ブロック内の和、いわゆる総和を求める。このように、ブロック内の各画素値の差の絶対値の総和を求める計算を他方の画像上のブロック位置を変えて順次行い、前記総和が最小になる他方の画像のブロックを、前記一方の画像のブロックに対応する領域であると決定する、いわゆるステレオマッチング処理を行う。   For example, the block matching unit 52 sets a block (window) of an appropriate size on the image of one image signal Sa, and obtains an area corresponding to the block in the image of the other image signal Sa. An area having the same size as the block is set in the image. Then, a difference is obtained by subtracting the pixel values of the corresponding pixels (corresponding points) constituting the image in each block on both images, and the absolute value of the difference is further taken. Next, the sum in the block of the absolute value of the difference for each pixel, the so-called sum is obtained. In this way, the calculation for obtaining the sum of the absolute values of the differences between the pixel values in the block is sequentially performed by changing the block position on the other image, and the block of the other image in which the sum is minimized A so-called stereo matching process is performed to determine that the area corresponds to an image block.

距離算出部54は、撮像された手書入力面36中、対応する領域の各画素毎に、第1及び第2カメラ21、22の各撮像素子46からの距離(3次元座標)を、上述したステレオマッチング処理に対応する三角測量の原理による距離測定により求め、投影された手書入力面36を構成する手書入力面36を2次元面とみたときの各画素の座標を求めて距離データ格納部56に格納する。   The distance calculation unit 54 calculates the distances (three-dimensional coordinates) from the image sensors 46 of the first and second cameras 21 and 22 for each pixel in the corresponding region in the imaged handwriting input surface 36. The distance data is obtained by determining the coordinates of each pixel when the handwriting input surface 36 constituting the projected handwriting input surface 36 is regarded as a two-dimensional surface. Store in the storage unit 56.

判別処理部60は、画像信号Sa、Sbから指示手段110の指示点112などの特定のパターンを認識する上記した指示手段認識部62の他、指示手段110の指示点112による手書入力面36への手書入力の確定を指示点112の座標位置と手書入力面36との間の法線距離(後述する図9等に示す法線距離b)に応じて判別する手書入力確定部64とを備える。   The discrimination processing unit 60 recognizes a specific pattern such as the instruction point 112 of the instruction unit 110 from the image signals Sa and Sb, and the handwriting input surface 36 by the instruction point 112 of the instruction unit 110 in addition to the instruction unit recognition unit 62 described above. A handwriting input confirmation unit for determining confirmation of handwriting input to the handwriting according to a normal distance between the coordinate position of the pointing point 112 and the handwriting input surface 36 (normal distance b shown in FIG. 9 and the like described later) 64.

判別処理部60からのデータ及び指令は、システム制御部66に供給される。システム制御部66は、判別処理部60と、複眼撮像部14と、画像処理部16と、投影部11とを含む電子的手書入力装置10を全体的に制御する。   Data and commands from the discrimination processing unit 60 are supplied to the system control unit 66. The system control unit 66 generally controls the electronic handwriting input device 10 including the discrimination processing unit 60, the compound eye imaging unit 14, the image processing unit 16, and the projection unit 11.

このシステム制御部66には、判別処理部60の他、液晶表示装置等のモニタ68、画像処理部70、通信インタフェース(通信I/F)42、メディアインタフェース(メディアI/F)72、メモリバッファ74及び投影部11が接続される。   The system control unit 66 includes a discrimination processing unit 60, a monitor 68 such as a liquid crystal display device, an image processing unit 70, a communication interface (communication I / F) 42, a media interface (media I / F) 72, a memory buffer 74 and the projection unit 11 are connected.

投影部11は、例えば、LEDドライバ80を通じて駆動される赤、青、緑の各アレイ状に配置されたLED81、82、83からなる光源85のLED81、82、83が、それぞれダイクロイックブリズム84の各面上に配置され、この合成光がレンズ86を通じ偏光ビームスプリッタ88により反射され、反射型液晶デバイスであるLCOS(Liquid Crystal on Silicon)90の画素電極上で偏光面に応じて選択的に反射された光が、偏光ビームスプリッタ88及び投影レンズ92を介して被投影体18に投影される。   The projection unit 11 includes, for example, LEDs 81, 82, 83 of a light source 85 composed of LEDs 81, 82, 83 arranged in an array of red, blue, and green driven through an LED driver 80. The combined light is arranged on each surface, reflected by the polarization beam splitter 88 through the lens 86, and selectively reflected on the pixel electrode of the LCOS (Liquid Crystal on Silicon) 90 which is a reflective liquid crystal device according to the polarization surface. The emitted light is projected onto the projection target 18 via the polarization beam splitter 88 and the projection lens 92.

なお、LCOS90の画素電極を駆動するLCOS駆動部94には、画像処理部70からの画像データ、及びシステム制御部66を通じてのパターン発生部96からの所定の画像データ(パターンデータ)が供給される。この場合、システム制御部66のROM(又はEEPROM)には、後述する第1マーカの画像データIm1及び第2マーカの画像データIm2が格納され、これら第1及び第2マーカの画像データIm1、Im2がパターン発生部96に設定される。パターン発生部96に、第1又は第2マーカの画像データIm1、Im2が設定されたとき、投影部11は、それぞれ第1マーカ投影機能部又は第2マーカ投影機能部として動作する。第1及び第2マーカの画像データIm1、Im2は、記録メディア40に記憶しておくこともできる。   The LCOS driving unit 94 that drives the pixel electrodes of the LCOS 90 is supplied with image data from the image processing unit 70 and predetermined image data (pattern data) from the pattern generation unit 96 through the system control unit 66. . In this case, the ROM (or EEPROM) of the system control unit 66 stores image data Im1 of a first marker and image data Im2 of a second marker, which will be described later, and image data Im1, Im2 of these first and second markers. Is set in the pattern generator 96. When the image data Im1 and Im2 of the first or second marker are set in the pattern generation unit 96, the projection unit 11 operates as a first marker projection function unit or a second marker projection function unit, respectively. The image data Im1 and Im2 of the first and second markers can be stored in the recording medium 40.

そして、図2に示すように、投影部11から投影された映像(画像やパターン等)が、テーブル上、机上等の平面である被投影体18に投影され、投影された画像やパターン等を含む手書入力面36が複眼撮像部14により撮影される。   Then, as shown in FIG. 2, the video (image, pattern, etc.) projected from the projection unit 11 is projected onto the projection target 18 that is a plane such as a table or a desk, and the projected image, pattern, etc. The handwriting input surface 36 including the image is photographed by the compound eye imaging unit 14.

基本的には以上のように構成され、かつ動作する電子的手書入力装置10のより詳細な動作について、図3のフローチャートを参照しながら説明する。なお、このフローチャートに対応するプログラムは、基本的には、画像処理部16により実行される。   A more detailed operation of the electronic handwriting input device 10 that is basically configured and operates as described above will be described with reference to the flowchart of FIG. Note that the program corresponding to this flowchart is basically executed by the image processing unit 16.

電子的手書入力装置10に電源が投入されると、システム制御部66の制御下に、パターン発生部96を通じて、投影部11から手書入力面(画像投影面)36の輪郭以上の大きさとなっている図4に示す長方形状の台形歪補正用パターン100が照射される(長方形状の内側に光が照射されており、外側に光が照射されないことで長方形状と認識される)。   When power is supplied to the electronic handwriting input device 10, the size is larger than the contour of the handwriting input surface (image projection surface) 36 from the projection unit 11 through the pattern generation unit 96 under the control of the system control unit 66. The rectangular trapezoidal distortion correction pattern 100 shown in FIG. 4 is irradiated (light is irradiated on the inner side of the rectangular shape, and it is recognized as a rectangular shape because light is not irradiated on the outer side).

一般に、投影部11と被投影体18の投影面は正対していないことが多いため、被投影体18上には、投影部11から投影される長方形の画像が、被投影体18の面上では、台形等の四角形の画像として投影される。   In general, since the projection planes of the projection unit 11 and the projection target 18 are often not facing each other, a rectangular image projected from the projection unit 11 is projected on the plane of the projection target 18 on the projection target 18. Then, it is projected as a square image such as a trapezoid.

次いで、ステップS2において、システム制御部66は、投影された四角形の画像を、複眼撮像部14を構成する第1カメラ21又は第2カメラ22のいずれか一方のカメラで撮影し、システム制御部66で、撮影した台形等の四角形を、長方形とするために、台形歪補正用パターン100を変形した画像データをパターン発生部96に供給するか、あるいは投影部11の光学系を駆動することで調整する。このようにして台形歪補正用パターン100が被投影体18上で長方形状に投影されるように調整した後、投影された長方形状の台形歪補正用パターン全体の輝度が均一となるよう、光源85又はLCOS90の各素電極を駆動制御して輝度を調整する。   Next, in step S <b> 2, the system control unit 66 captures the projected square image with either one of the first camera 21 and the second camera 22 constituting the compound eye imaging unit 14, and the system control unit 66. Then, in order to make the captured square such as a trapezoid into a rectangle, adjustment is performed by supplying image data obtained by deforming the trapezoidal distortion correction pattern 100 to the pattern generator 96 or by driving the optical system of the projection unit 11. To do. After adjusting the trapezoidal distortion correction pattern 100 to be projected in a rectangular shape on the projection object 18 in this way, the light source is adjusted so that the luminance of the entire projected rectangular trapezoidal distortion correction pattern becomes uniform. The luminance is adjusted by driving and controlling each element electrode 85 or LCOS 90.

ここで、被投影体18上に表示される表示画像のサイズは、投影部11の光学系、光源輝度が許容する範囲で拡大可能である。通常はA4版サイズを表示し、必要なら A3サイズ、横置き、マルチ画像表示なども可能である。いずれも、表示画像サイズと形状に応じて、上述した台形歪補正用パターン100や後述するマーカの照射位置を変更する。   Here, the size of the display image displayed on the projection target 18 can be enlarged within the range allowed by the optical system of the projection unit 11 and the light source luminance. Normally, A4 size is displayed, and if necessary, A3 size, landscape, multi-image display, etc. are also possible. In either case, the irradiation position of the trapezoidal distortion correction pattern 100 described above or a marker to be described later is changed according to the display image size and shape.

次いで、ステップS3において、台形歪の調整後(歪補正後)に、投影されて撮像された台形歪補正用パターン100の長方形形状に含まれる形状の歪が、所定の閾値を超えているかどうかを判別する。   Next, in step S3, whether or not the distortion of the shape included in the rectangular shape of the trapezoidal distortion correction pattern 100 projected and imaged after the adjustment of the trapezoidal distortion (after distortion correction) exceeds a predetermined threshold value. Determine.

閾値以内である場合には、被投影体18の投影面が平面であるとみなし、次のステップS4において、後述する手書入力面36の画素毎の座標を算出するために、後述する手書入力面36の大きさの投影面の輪郭の外側に、図5Aに示すように、8点以上の所定の形状(最小限、前記長方形の4隅の4点と、各辺の中点の合計8点)をもつ平面用マーカである第1マーカ102を投影し複眼撮像部14で撮影する。   If it is within the threshold value, the projection surface of the projection target 18 is regarded as a flat surface, and in the next step S4, in order to calculate the coordinates for each pixel of the handwriting input surface 36 described later, a handwriting described later. As shown in FIG. 5A, outside the outline of the projection surface of the size of the input surface 36, a predetermined shape of eight or more points (minimum, the total of four points at the four corners of the rectangle and the midpoint of each side) The first marker 102, which is a planar marker having 8 points), is projected and imaged by the compound eye imaging unit 14.

次いで、ステップS5において、距離算出部54は、第1マーカ102を対応点としてブロックマッチングし、ブロックマッチング後に、第1マーカ102を三角測量して3次元座標を算出し、図5Aに示すように、長方形を長方形格子に分割し、後述する手書入力面36に対応する投影面の各画素の複眼撮像部14からの3次元座標を補間により算出し、距離データ格納部56に手書入力面36を平面的に見た場合の各画素の座標(2次元データ)を格納する。このようにして、複眼撮像部14と後述する手書入力面36との位置関係が確定する。   Next, in step S5, the distance calculation unit 54 performs block matching using the first marker 102 as a corresponding point, and after block matching, calculates the three-dimensional coordinates by triangulating the first marker 102, as shown in FIG. 5A. The rectangle is divided into rectangular lattices, the three-dimensional coordinates from the compound-eye imaging unit 14 of each pixel of the projection plane corresponding to the handwriting input surface 36 described later are calculated by interpolation, and the handwriting input surface is stored in the distance data storage unit 56. The coordinates (two-dimensional data) of each pixel when 36 is viewed in a plane are stored. In this way, the positional relationship between the compound eye imaging unit 14 and a handwriting input surface 36 described later is determined.

なお、第1マーカ102は、使用中に定期的に表示するか、後述する手書入力面36の外側に常時投影することで、電子的手書入力装置10と被投影体18との相対位置関係の変更に対応して投影位置が途中で変更された場合にも測定精度を保持することができる。   The first marker 102 is periodically displayed during use, or is always projected on the outside of a handwriting input surface 36 to be described later, whereby the relative position between the electronic handwriting input device 10 and the projection target 18 is determined. The measurement accuracy can be maintained even when the projection position is changed in the middle corresponding to the change in the relationship.

一方、ステップS3において、歪補正後の台形歪補正用パターン100の長方形形状の歪が、所定の閾値を超えていると判別された場合には、ステップS6において、図6に示すように、曲面用マーカである第2マーカ104を後述する手書入力面36に対応する投影面の中に投影する。第2マーカ104は、第1マーカ102により形成される長方形を区分けする格子点にマーカが配置されている。   On the other hand, if it is determined in step S3 that the rectangular distortion of the trapezoidal distortion correction pattern 100 after distortion correction exceeds a predetermined threshold, in step S6, as shown in FIG. The second marker 104, which is a marker for use, is projected into a projection plane corresponding to a handwriting input surface 36 to be described later. In the second marker 104, markers are arranged at lattice points that divide the rectangle formed by the first marker 102.

次いで、ステップS7において、距離算出部54は、後述する手書入力面36に対応する投影面上の複数の全ての第1及び第2マーカ102、104までの距離をそれぞれ算出し、算出結果に基づいて、前記投影面を3次元曲面に近似させることで、後述する手書入力面36に対応する投影面の3次元座標を算出し、距離データ格納部56に後述する手書入力面36を平面的に見た場合の各画素の座標(2次元データ)として格納する。   Next, in step S7, the distance calculation unit 54 calculates the distances to all the first and second markers 102 and 104 on the projection surface corresponding to the handwriting input surface 36, which will be described later, respectively. Based on this, the projection surface is approximated to a three-dimensional curved surface to calculate the three-dimensional coordinates of the projection surface corresponding to the handwriting input surface 36 described later, and the handwriting input surface 36 described later is added to the distance data storage unit 56. Stored as coordinates (two-dimensional data) of each pixel when viewed in a plane.

次いで、ステップS8において、システム制御部66は、記録メディア40から手書入力面36に対応する文書や画像からなる複数の画像ファイルを読み出し、メモリバッファ74上に表示用データとして展開する。この表示用データに対応する画像ファイルの名称がモニタ68に表示されるとともに、投影部11を通じて手書入力面36として投影表示される。ここで、例えば、図示しないマウス等の外部機器を通じて所定の名称が選択されると、あるいは指示手段110の指示点112により後述するように選択されると、ステップS9において、この名称に対応する表示用データ(手書入力面36)がメモリバッファ74上に展開され、この表示用データ(手書入力面36)に対応する画像がモニタ68に表示されるとともに、画像処理部70及び投影部11を通じて前記投影面上に手書入力面36として表示される。   Next, in step S <b> 8, the system control unit 66 reads a plurality of image files composed of documents and images corresponding to the handwriting input surface 36 from the recording medium 40 and develops them as display data on the memory buffer 74. The name of the image file corresponding to the display data is displayed on the monitor 68 and projected and displayed as the handwriting input surface 36 through the projection unit 11. Here, for example, when a predetermined name is selected through an external device such as a mouse (not shown), or selected as indicated later by the indication point 112 of the indication means 110, a display corresponding to this name is displayed in step S9. The image data (handwriting input surface 36) is expanded on the memory buffer 74, and an image corresponding to the display data (handwriting input surface 36) is displayed on the monitor 68, and the image processing unit 70 and the projection unit 11 are displayed. Is displayed as a handwriting input surface 36 on the projection surface.

図7は、前記表示用データに対応して手書入力面36として表示された画像(投影画像)106の例を示している。投影画像106上には、ビルディング等のオブジェクト(画像)や罫線の他、メニューボタン108が表示される。また、図7中、「The office buildings are …」の文章や太く描いた波線状の自由曲線は、後述する手書入力によりなされるものである。   FIG. 7 shows an example of an image (projected image) 106 displayed as the handwriting input surface 36 corresponding to the display data. On the projected image 106, a menu button 108 is displayed in addition to an object (image) such as a building or a ruled line. In FIG. 7, a sentence “The office buildings are...” Or a thick wavy free curve is made by handwriting input to be described later.

メニューボタン108には、「消去」、「保存」、「表示映像選択」、「キーボード表示」、「画像編集」等の各種モード(処理モード)のメニューが表示される。「画像編集」モードが選択されると、さらに、「拡大」モード、「縮小」モード、「シャープネス強調」モード等の画像編集の具体的な処理モードが表示される。   The menu button 108 displays menus of various modes (processing modes) such as “erase”, “save”, “display video selection”, “keyboard display”, and “image editing”. When the “image editing” mode is selected, specific processing modes for image editing such as “enlargement” mode, “reduction” mode, and “sharpness enhancement” mode are displayed.

次いで、ステップS10において、手書入力面36を撮像した複眼撮像部14の画像が指示手段認識部62に入力され、指示手段認識部62において、ベン先や指先など特定の形状・画像パターンを有する指示手段110を識別する。指示手段認識部62は、いわゆるパターン認識部として機能する。   Next, in step S10, an image of the compound eye imaging unit 14 that images the handwriting input surface 36 is input to the instruction unit recognition unit 62, and the instruction unit recognition unit 62 has a specific shape / image pattern such as a bend or a fingertip. The instruction means 110 is identified. The instruction means recognition unit 62 functions as a so-called pattern recognition unit.

ここで、指示手段110がペン先の場合には鋭角の頂点を、指先の場合は基本指先形状や爪の形状から判別し、先端を指示点(ポインタ)112とする。ここで、指示手段110を認識する際に、映像が投影されている投影面である手書入力面36を撮影していることを原因として指示点112の認識精度(識別精度)が低下する場合には、指示手段110が存在しない場合の手書入力面36の投影画像106を先に撮影して記憶しておき、指示手段110を合わせて撮影したときの入力画像の差分を検出するようにすれば、指示点112をより確実に検出することができる。   Here, when the pointing means 110 is a pen tip, an acute vertex is discriminated from the shape of the basic fingertip or the nail when the fingertip is used, and the tip is set as a pointing point (pointer) 112. Here, when recognizing the instruction unit 110, the recognition accuracy (identification accuracy) of the instruction point 112 is reduced due to the photographing of the handwriting input surface 36 that is the projection surface on which the image is projected. In this case, the projection image 106 of the handwriting input surface 36 when the instruction unit 110 is not present is captured and stored in advance, and the difference between the input images when the instruction unit 110 is captured is detected. By doing so, the indication point 112 can be detected more reliably.

このステップS10において、指示点112が認識されたとき、ステップS11において、指示点112の手書入力面30(を構成する画素)からの法線距離bを算出し、その法線距離bが、図8及び図9に示す手書入力確定距離範囲の最大距離x1以内かどうかが判別される。最大距離x1は、例えばx1=2[mm]に設定される。   When the designated point 112 is recognized in step S10, the normal distance b from the handwriting input surface 30 (the pixel constituting the designated point) 112 is calculated in step S11, and the normal distance b is It is determined whether or not the handwriting input fixed distance range shown in FIGS. 8 and 9 is within the maximum distance x1. The maximum distance x1 is set to x1 = 2 [mm], for example.

最大距離x1以内である場合(b<x1)、ステップS12において、「消去」又は「保存」モード以外の処理モード(ここでは、上述した「表示映像選択」、「キーボード表示」、「画像編集」等処理モード)のメニューボタン108上に指示点112が存在するかどうかが判別される。   If it is within the maximum distance x1 (b <x1), in step S12, a processing mode other than the “erase” or “save” mode (here, “display video selection”, “keyboard display”, “image editing” described above). It is determined whether or not the pointing point 112 exists on the menu button 108 in the (equal processing mode).

ステップS12の判別が否定的である場合には、ステップS13において、当該メニューでの処理モードが実行され、あるいは処理モードが変更される。例えば、「画像編集」モードの「拡大」モードが選択されているとき、図10に示すように、画像を指している指示点112を斜め方向に移動することで画像が拡大画像にされる。   If the determination in step S12 is negative, the processing mode in the menu is executed or the processing mode is changed in step S13. For example, when the “enlargement” mode of the “image editing” mode is selected, as shown in FIG. 10, the image is made an enlarged image by moving the pointing point 112 pointing to the image in an oblique direction.

その一方、ステップS12の判別が否定的である場合には、ステップS14において、「消去」モードのメニューボタン108上に指示点112が存在するかどうかが判別される。   On the other hand, if the determination in step S12 is negative, it is determined in step S14 whether or not the pointing point 112 exists on the menu button 108 in the “erase” mode.

ステップS14の判別が肯定的である場合には、ステップS15において、「消去」モードの入力が確定されて、指示点112に対応する画素上の表示ドットが消去される。   If the determination in step S14 is affirmative, in step S15, the input of the “erase” mode is confirmed, and the display dot on the pixel corresponding to the designated point 112 is erased.

その一方、ステップS14の判別が否定的である場合には、ステップS16において、指示点112による筆記の入力が確定されて、指示点112に対応する画素上に表示ドットが追記され(書画され)メモリバッファ74に格納される。   On the other hand, if the determination in step S14 is negative, in step S16, the input of writing by the designated point 112 is confirmed, and a display dot is additionally written (written) on the pixel corresponding to the designated point 112. Stored in the memory buffer 74.

次いで、ステップS17において、「保存」モードのメニューボタン108上に指示点112が存在するかどうかが判別される。   Next, in step S17, it is determined whether or not the pointing point 112 exists on the menu button 108 in the “save” mode.

ステップS17の判別が肯定的である場合には、ステップS18において、表示ドットの状態を元の表示用データ(画像データ)のファイルに反映させ、メモリバッファ74上に展開されている表示用データのファイルを更新する。この場合、記録メディア40に格納されている表示用データも、合わせて更新(変更)するようにすることもできる。   If the determination in step S17 is affirmative, the display dot state is reflected in the original display data (image data) file in step S18, and the display data developed on the memory buffer 74 is updated. Update the file. In this case, the display data stored in the recording medium 40 can also be updated (changed).

ステップS18の更新処理の後、又はステップS17の判別が否定的であるとき、ステップS19において、指示点112の法線距離bが、図8、図9に示す境界領域距離範囲の最大距離x2以内かどうかが判別される。最大距離x2は、例えばx2=4[mm]とされる。   After the update process in step S18 or when the determination in step S17 is negative, in step S19, the normal distance b of the pointing point 112 is within the maximum distance x2 of the boundary region distance range shown in FIGS. Is determined. The maximum distance x2 is, for example, x2 = 4 [mm].

法線距離bが最大距離x2以内である場合(b<x2)、ステップS14以降の表示ドットの確定処理(更新処理)、すなわち書画処理の実行が継続される。その一方、最大距離x2を超える場合には(b≧x2)、ユーザの意思により指示手段38の指示点112が手書入力面36から離れたものと判別して、入力を解除して、ステップS10の指示手段識別処理にもどる。   When the normal distance b is within the maximum distance x2 (b <x2), the display dot determination process (update process) after step S14, that is, the document process is continued. On the other hand, if the maximum distance x2 is exceeded (b ≧ x2), it is determined that the indication point 112 of the indication means 38 is separated from the handwriting input surface 36 by the user's intention, the input is canceled, and the step The process returns to the instruction means identification process in S10.

実際上、ステップS16にて確定された手書入力面36の表示ドットは、あらかじめ設定された色(赤など)に変更される。   In practice, the display dot on the handwriting input surface 36 determined in step S16 is changed to a preset color (such as red).

手書入力確定距離範囲の最大距離x1の近傍で指示点112の距離が細かく変動すると表示ドットにノイズが乗るため、境界領域距離範囲の最大距離x2が設けられ、最大距離x1と最大距離x2の間は境界領域距離範囲としてヒステリシス特性を持たせ、入力確定後は、指示点112が境界領域距離範囲の最大距離距離範囲x2より距離が離れない場合は入力を継続する。   When the distance of the designated point 112 fluctuates in the vicinity of the maximum distance x1 of the handwriting input fixed distance range, noise appears on the display dot. Therefore, the maximum distance x2 of the boundary area distance range is provided, and the maximum distance x1 and the maximum distance x2 The boundary has a hysteresis characteristic as a boundary area distance range. After the input is confirmed, the input is continued if the indication point 112 is not separated from the maximum distance distance range x2 of the boundary area distance range.

上述したように、入力確定した箇所は表示データが変更されるため、手書入力面36において、投影画像106に手書き画像が反映された投影画像106に更新される。更新された画像(変更された画像)を保存するときは、「保存」モードのメニューボタン108に指示点112を持っていくことで、元の文書の画像ファイルに変更が反映されたものがメモリバッファ74及び記録メディア40に保存される。   As described above, since the display data is changed at the place where the input is confirmed, the handwritten image is updated to the projected image 106 in which the handwritten image is reflected on the handwriting input surface 36. When saving the updated image (changed image), the instruction point 112 is brought to the menu button 108 in the “save” mode so that the change is reflected in the image file of the original document. The data is stored in the buffer 74 and the recording medium 40.

なお、「キーボード表示」を選択したとき、手書入力面36内に映像としてキーボードが表示され、キーを指示点112で入力確定することにより、いわゆるキーボード入力も可能である。ただし、キーボード入力の場合には、上記したヒステリシス特性を持たせると連続してキーが押されたと判別されることが多くなるため、この判別は行わず、非入力状態(b≧x2)から入力確定のx1への変化のみを検出する。   When “keyboard display” is selected, the keyboard is displayed as an image in the handwriting input surface 36, and so-called keyboard input is possible by confirming the input of the key at the instruction point 112. However, in the case of keyboard input, if the above-mentioned hysteresis characteristic is provided, it is often determined that the key is continuously pressed. Therefore, this determination is not performed and the input is performed from the non-input state (b ≧ x2). Only the change to definite x1 is detected.

上述した図2では、被投影体18としてテーブル上に手書入力面36を投影した例を示しているが、図11、図12に示すように、壁やホワイトボード等の被投影体18aに手書入力面36を投影して電子的手書入力装置10を利用に供することができる。この図11、図12例では、指示手段110として手指を描いている。指示点(ポインタ)112を指先形状や爪の形状から判別することができる。   In FIG. 2 described above, an example in which the handwriting input surface 36 is projected on the table as the projection object 18 is shown. However, as shown in FIGS. 11 and 12, the projection object 18a such as a wall or a whiteboard is projected on the table 18a. The handwriting input surface 36 can be projected and the electronic handwriting input device 10 can be used. In the examples of FIGS. 11 and 12, fingers are drawn as the instruction means 110. The indication point (pointer) 112 can be discriminated from the shape of the fingertip or the shape of the nail.

以上説明したように、上述した実施形態に係る電子的手書入力装置10によれば、被投影体18に手書入力面36を投影する投影部11と、先端を指示点112とし手書入力を行うための指示手段110と、投影された手書入力面36を含む被写界像を撮像する複眼撮像部14と、撮像された手書入力面36の画素毎に複眼撮像部14からの距離を求め投影された前記手書入力面の座標を求める距離算出部54と、前記被写界像から指示手段110の指示点112を認識する指示手段認識部62とを備える。   As described above, according to the electronic handwriting input device 10 according to the above-described embodiment, the projection unit 11 that projects the handwriting input surface 36 onto the projection target 18 and the handwriting input with the tip as the indication point 112. Instruction means 110, a compound eye imaging unit 14 that captures a scene image including the projected handwriting input surface 36, and a compound eye imaging unit 14 for each pixel of the captured handwriting input surface 36. A distance calculating unit 54 for determining the coordinates of the projected handwriting input surface for determining a distance, and an instruction means recognition unit 62 for recognizing the instruction point 112 of the instruction means 110 from the object scene image.

この場合、複眼撮像部14は、投影部11と一体的に構成されかつ自在継手34(34a、34b)により角度変更が自由に構成されている。そして、指示手段110の指示点112による手書入力面36に対する入力の確定を、指示点112の位置と手書入力面36との間の距離bに応じて確定する手書入力確定部64を備える。   In this case, the compound eye imaging unit 14 is configured integrally with the projection unit 11 and can be freely changed in angle by the universal joint 34 (34a, 34b). Then, a handwriting input confirmation unit 64 that confirms the input to the handwriting input surface 36 by the instruction point 112 of the instruction means 110 according to the distance b between the position of the instruction point 112 and the handwriting input surface 36 is provided. Prepare.

このように、複眼撮像部14と投影部11とが一体的に角度変更が自由に構成されているので、手書入力面36が投影される被投影体18の投影面がテーブルあるいは机の他、壁等とすることが可能となって手書入力面36の制限が少なくなる。また、指示手段110の指示点112による手書入力面36に対する入力の確定を、手書入力確定部64により、指示点112の位置と手書入力面36との間の距離bに応じて確定するようにしているので、パレット等を必要としないでも確実に入力の確定を判別することができる。   Thus, since the compound eye imaging unit 14 and the projection unit 11 are configured to freely change the angle integrally, the projection surface of the projection target 18 on which the handwriting input surface 36 is projected is not a table or a desk. It becomes possible to use a wall or the like, and the restriction on the handwriting input surface 36 is reduced. Further, the input to the handwriting input surface 36 by the instruction point 112 of the instruction means 110 is confirmed by the handwriting input confirmation unit 64 according to the distance b between the position of the instruction point 112 and the handwriting input surface 36. Therefore, it is possible to reliably determine the input without using a pallet or the like.

ここで、投影部11は、手書入力面36に応じて複数位置に第1マーカ102を投影する第1マーカの投影機能部を備え、距離算出部54は、投影された複数の第1マーカ102までの距離をそれぞれ算出し、算出結果に基づいて、手書入力面36の3次元座標を算出し、手書入力面36の各画素の座標を距離データ格納部56に格納するようにしているので、手書入力面36の位置座標をより精度よく検知することができる。   Here, the projection unit 11 includes a projection function unit of a first marker that projects the first marker 102 at a plurality of positions according to the handwriting input surface 36, and the distance calculation unit 54 includes the plurality of projected first markers. The distance to 102 is calculated, the three-dimensional coordinates of the handwriting input surface 36 are calculated based on the calculation result, and the coordinates of each pixel of the handwriting input surface 36 are stored in the distance data storage unit 56. Therefore, the position coordinates of the handwriting input surface 36 can be detected with higher accuracy.

なお、投影部11は、さらに、手書入力面36中の複数位置に第2マーカ104を投影する第2マーカ投影機能部を備え、距離算出部54は、投影された複数の第2マーカ104までの距離をそれぞれ算出し、算出結果に基づいて、手書入力面36を3次元曲面に近似させることで、手書入力面36の3次元座標を算出し、手書入力面36の各画素の座標を距離データ格納部56に格納するようにしているので、湾曲している手書入力面36の3次元座標を精度よく算出することができる。   The projection unit 11 further includes a second marker projection function unit that projects the second marker 104 at a plurality of positions in the handwriting input surface 36, and the distance calculation unit 54 includes the plurality of projected second markers 104. And calculating the three-dimensional coordinates of the handwriting input surface 36 by approximating the handwriting input surface 36 to a three-dimensional curved surface based on the calculation result. Are stored in the distance data storage unit 56, so that the three-dimensional coordinates of the curved handwriting input surface 36 can be calculated with high accuracy.

ここで、手書入力確定部64は、手書入力面36と指示点112の位置との間の距離を、手書入力面36に最も近い手書入力確定距離範囲と、手書入力確定距離範囲の最大距離x1から一定距離範囲(x2−x1)の境界領域距離範囲を設け、指示点112の位置が、一旦、手書入力確定距離範囲に入ったことを判別した後は、境界領域距離範囲の最大距離x2より遠い距離に外れたと判別したときのみ入力の確定を解除する。このように、境界領域距離範囲を設けることで、入力の確定のゆらぎの影響が低減され、意図しないノイズの混入が防止される。   Here, the handwriting input confirmation unit 64 sets the distance between the handwriting input surface 36 and the position of the pointing point 112, the handwriting input confirmation distance range closest to the handwriting input surface 36, and the handwriting input confirmation distance. After providing a boundary area distance range from the maximum distance x1 to a fixed distance range (x2-x1) and determining that the position of the designated point 112 once entered the handwriting input fixed distance range, the boundary area distance Only when it is determined that the distance is longer than the maximum distance x2 of the range, the confirmation of the input is canceled. In this way, by providing the boundary region distance range, the influence of fluctuation of input determination is reduced, and unintended noise is prevented from being mixed.

図13は、この発明の他の実施形態に係る電子的手書入力装置210のシステムブロック図を示している。   FIG. 13 is a system block diagram of an electronic handwriting input device 210 according to another embodiment of the present invention.

図14は、図13例の電子的手書入力装置210の使用状態を示す説明図である。   FIG. 14 is an explanatory diagram showing a usage state of the electronic handwriting input device 210 of the example of FIG.

なお、図13、図14に示す電子的手書入力装置210において、図1、図2に示す電子的手書入力装置10と同一の構成要素又は対応する構成要素には同一の符号を付け、その詳細な説明は省略する。   In addition, in the electronic handwriting input device 210 shown in FIGS. 13 and 14, the same or corresponding components as those in the electronic handwriting input device 10 shown in FIGS. Detailed description thereof is omitted.

電子的手書入力装置210は、手書入力面36の文書等の二次元映像の画像(投影画像)106とともに、立体映像の画像(立体画像、投影画像)206を表示可能である。   The electronic handwritten input device 210 can display a stereoscopic video image (stereoscopic image, projected image) 206 together with a two-dimensional video image (projected image) 106 such as a document on the handwritten input surface 36.

この場合、それぞれがいわゆるプロジェクタである2つの投影部11、12が準備される。投影部11、12の前面には、立体視を行うための右回転の円偏光フィルタ211と、左回転の円偏光フィルタ212とがそれぞれ一体的に取り付けられている。   In this case, two projection units 11 and 12, each of which is a so-called projector, are prepared. A right-rotating circularly polarizing filter 211 and a left-rotating circularly polarizing filter 212 for stereoscopic viewing are integrally attached to the front surfaces of the projection units 11 and 12, respectively.

この電子的手書入力装置210は、自在継手34(34a、34b)及び基部13を介して機械的に取り付けられている投影部11、12と、この投影部11、12に対して基部13を介して一体的に取り付けられている(固着されている)第1カメラ21と第2カメラ22からなる複眼撮像部14とを備える。したがって、投影部11、12と複眼撮像部14とは、自在継手34(34a、34b)を介して一体的に角度変更が自由に構成されている。   The electronic handwriting input device 210 includes projection units 11 and 12 that are mechanically attached via universal joints 34 (34 a and 34 b) and a base unit 13, and the base unit 13 is connected to the projection units 11 and 12. And a compound eye imaging unit 14 composed of a first camera 21 and a second camera 22 that are integrally attached (fixed) via the camera. Therefore, the projection units 11 and 12 and the compound eye imaging unit 14 are configured to freely change the angle integrally through the universal joints 34 (34a and 34b).

電子的手書入力装置210において、投影部11、12より偏光方向の異なる2つの映像が同時に投影される。これを、左右で異なる偏光方向をもつ偏光フィルタを装着したメガネを通してユーザが見ることにより、視差画像の立体画像206を見ることができる。   In the electronic handwriting input device 210, two images having different polarization directions are projected simultaneously from the projection units 11 and 12. The user can see the stereoscopic image 206 of the parallax image by seeing this through glasses equipped with polarizing filters having different polarization directions on the left and right.

文書等の画像106については、投影部11、12ともに同じ映像を出力することで、通常の映像として表示され、特定の画像は左右の視差を含んだ映像として投影することにより、1つの投影面で通常に投影された画像(平面画像)106と立体画像206を同時に表示することができる。   The image 106 such as a document is displayed as a normal video by outputting the same video to both the projection units 11 and 12, and the specific image is projected as a video including left and right parallax to thereby display one projection plane. Thus, the normally projected image (planar image) 106 and the stereoscopic image 206 can be displayed simultaneously.

この図13、図14例では、例えば、指示手段110の指示点112がこの立体画像206のうち、手書入力面36から所定の距離として、例えば被写体である立体画像206の中心部近くにあると検知されたとき、あらかじめ選択したメニューにより、指示点112の動きに応じて画像処理部70に信号を送り、立体画像206を平行移動させたり回転させたりすることができる。   In the example of FIGS. 13 and 14, for example, the indication point 112 of the indication means 110 is, for example, near the center of the stereoscopic image 206 that is a subject as a predetermined distance from the handwriting input surface 36 in the stereoscopic image 206. Is detected, it is possible to send a signal to the image processing unit 70 in accordance with the movement of the designated point 112 and to translate or rotate the stereoscopic image 206 using a preselected menu.

電子的手書入力装置210の動作は、図3に示したフローチャートにおいて、手書入力確定距離範囲の最大距離x1と、境界領域距離範囲の最大距離x2とを以下に説明するように設定する以外は、同様である。   The operation of the electronic handwriting input device 210 is performed except that the maximum distance x1 of the handwriting input fixed distance range and the maximum distance x2 of the boundary area distance range are set as described below in the flowchart shown in FIG. Is the same.

つまり、投影部11、12から投影される左右それぞれの画像で類似パターンをもつ部分の水平方向の距離を積算することで、手書入力確定部64(図1)により視差量αを算出する。k1、k2(k1<k2)を予め定められた固定値(定数)とし、一般的に、視差量αが大きい場合は、ユーザに近づいた立体画像206が表示されるため、手書入力確定距離範囲の最大距離x1はx1=α×k1と設定し、境界領域距離範囲の最大距離x2はx2=α×k2と設定する。   That is, the handwriting input confirmation unit 64 (FIG. 1) calculates the parallax amount α by integrating the horizontal distances of the portions having similar patterns in the left and right images projected from the projection units 11 and 12. Assuming that k1 and k2 (k1 <k2) are predetermined fixed values (constants) and the parallax amount α is generally large, the stereoscopic image 206 approaching the user is displayed. The maximum distance x1 of the range is set as x1 = α × k1, and the maximum distance x2 of the boundary region distance range is set as x2 = α × k2.

図13、図14に示した他の実施形態によれば、異なる回転の円偏光フィルタ211、212を有する投影部11、12を備えて、手書入力面36での立体画像206の表示を可能としている。この場合、ユーザが偏光立体視メガネを使用することにより、立体画像206等を見ながら手書入力面36に手書き等の入力を行うことができる。   According to another embodiment shown in FIGS. 13 and 14, the projection units 11 and 12 having the circularly polarizing filters 211 and 212 having different rotations are provided, and the stereoscopic image 206 can be displayed on the handwriting input surface 36. It is said. In this case, the user can input handwriting or the like on the handwriting input surface 36 while viewing the stereoscopic image 206 or the like by using the polarized stereoscopic glasses.

なお、この発明は、上述の実施形態に限らず、この明細書の記載内容に基づき、種々の構成を採り得ることはもちろんである。   Note that the present invention is not limited to the above-described embodiment, and it is needless to say that various configurations can be adopted based on the contents described in this specification.

この発明の一実施形態に係る電子的手書入力装置のシステムブロック図である。1 is a system block diagram of an electronic handwriting input device according to an embodiment of the present invention. 電子的手書入力装置の外観と使用状態を示す説明図である。It is explanatory drawing which shows the external appearance and use condition of an electronic handwritten input device. 電子的手書入力装置の動作説明に供されるフローチャートである。It is a flowchart with which operation | movement description of an electronic handwritten input device is provided. 歪補正用の台形歪補正用パターンの説明図である。It is explanatory drawing of the keystone distortion correction pattern for distortion correction. 図5Aは平面用マーカの説明図であり、図5Bは座標決定の説明図である。FIG. 5A is an explanatory diagram of a planar marker, and FIG. 5B is an explanatory diagram of coordinate determination. 曲面用マーカの説明図である。It is explanatory drawing of the marker for curved surfaces. 手書入力面に表示された画像の例を示す説明図である。It is explanatory drawing which shows the example of the image displayed on the handwriting input surface. 指示点の法線距離に対する入力確定判別基準の説明図である。It is explanatory drawing of the input determination determination reference | standard with respect to the normal distance of an indication point. 指示点の法線距離に対する入力確定判別基準の他の説明図である。It is another explanatory drawing of the input decision discrimination standard with respect to the normal distance of an indication point. 画像編集(拡大)の説明図である。It is explanatory drawing of image editing (enlargement). ホワイトボード等の被投影体に手書入力面を投影して電子的手書入力装置を利用に供する際の説明図である。It is explanatory drawing at the time of projecting a handwriting input surface on to-be-projected objects, such as a white board, and using an electronic handwriting input device. 図11例の利用形態における指示点の法線距離に対する入力確定判別基準の説明図である。FIG. 12 is an explanatory diagram of an input confirmation criterion with respect to the normal distance of the indication point in the usage form of the example of FIG. 11. この発明の他の実施形態に係る電子的手書入力装置のシステムブロック図である。It is a system block diagram of the electronic handwritten input device which concerns on other embodiment of this invention. 図13例の電子的手書入力装置の使用状態を示す説明図である。It is explanatory drawing which shows the use condition of the electronic handwritten input device of the example of FIG.

符号の説明Explanation of symbols

10、210…電子的手書入力装置 11、12…投影部
14…複眼撮像部 18…被投影体
21…第1カメラ 22…第2カメラ
34、34a、34b…自在継手 36…手書入力面
54…距離算出部 62…指示手段認識部
64…手書入力確定部 102…第1マーカ
104…第2マーカ 106…投影画像
110…指示手段 112…指示点
206…立体画像
DESCRIPTION OF SYMBOLS 10,210 ... Electronic handwriting input device 11,12 ... Projection part 14 ... Compound eye imaging part 18 ... Projection object 21 ... 1st camera 22 ... 2nd camera 34, 34a, 34b ... Universal joint 36 ... Handwriting input surface 54 ... Distance calculation unit 62 ... Instruction unit recognition unit 64 ... Handwriting input confirmation unit 102 ... First marker 104 ... Second marker 106 ... Projection image 110 ... Instruction unit 112 ... Indication point 206 ... Stereoscopic image

Claims (5)

被投影体に手書入力面を投影する投影部と、先端を指示点とし手書入力を行うための指示手段と、投影された前記手書入力面を含む被写界像を撮像する複眼撮像部と、撮像された前記手書入力面の画素毎に前記複眼撮像部からの距離を求め投影された前記手書入力面の座標を求める距離算出部と、前記被写界像から前記指示手段の前記指示点を認識する指示手段認識部とを備える電子的手書入力装置であって、
前記複眼撮像部は、前記投影部と一体的に角度変更が自由に構成され、
前記指示手段の前記指示点による前記手書入力面に対する入力の確定を、前記指示点の位置と前記手書入力面との間の距離に応じて確定する手書入力確定部
を備えることを特徴とする電子的手書入力装置。
A projection unit that projects a handwriting input surface onto a projection object, instruction means for performing handwriting input with the tip as an instruction point, and compound-eye imaging that captures an object scene image including the projected handwriting input surface A distance calculating unit that obtains a distance from the compound-eye imaging unit for each pixel of the imaged handwriting input surface that has been imaged, obtains a coordinate of the projected handwriting input surface, and the instruction means from the object scene image An electronic handwriting input device comprising an instruction means recognition unit for recognizing the indication point of
The compound eye imaging unit is configured to freely change the angle integrally with the projection unit,
A handwriting input confirming unit for confirming input to the handwriting input surface by the pointing point of the pointing means according to a distance between the position of the pointing point and the handwriting input surface. Electronic handwriting input device.
請求項1記載の電子的手書入力装置において、
前記投影部は、さらに、前記手書入力面に応じて複数位置に第1マーカを投影する第1マーカ投影機能部を備え、
前記距離算出部は、投影された複数の前記第1マーカまでの距離をそれぞれ算出し、算出結果に基づいて、前記手書入力面の3次元座標を算出する
ことを特徴とする電子的手書入力装置。
The electronic handwritten input device according to claim 1,
The projection unit further includes a first marker projection function unit that projects a first marker at a plurality of positions according to the handwriting input surface,
The distance calculating unit calculates distances to the plurality of projected first markers, and calculates three-dimensional coordinates of the handwriting input surface based on a calculation result. Input device.
請求項1記載の電子的手書入力装置において、
前記投影部は、さらに、前記手書入力面中の複数位置に第2マーカを投影する第2マーカ投影機能部を備え、
前記距離算出部は、投影された複数の前記第2マーカまでの距離をそれぞれ算出し、算出結果に基づいて、前記手書入力面を3次元曲面に近似させることで、前記手書入力面の3次元座標を算出する
ことを特徴とする電子的手書入力装置。
The electronic handwritten input device according to claim 1,
The projection unit further includes a second marker projection function unit that projects a second marker at a plurality of positions in the handwriting input surface,
The distance calculation unit calculates the distances to the plurality of projected second markers, and approximates the handwriting input surface to a three-dimensional curved surface based on the calculation result, whereby the handwriting input surface An electronic handwriting input device that calculates three-dimensional coordinates.
請求項1記載の電子的手書入力装置において、
前記手書入力確定部は、前記手書入力面と前記指示点との間の距離を、手書入力を確定とする前記手書入力面に最も近い手書入力確定距離範囲と、前記手書入力確定距離範囲の最大距離から一定距離範囲の境界領域距離範囲を設け、前記指示点の位置が、一旦、前記手書入力確定距離範囲に入ったことを判別した後は、前記境界領域距離範囲の最大距離より遠い距離に外れたと判別したときのみ、手書入力の確定を解除する
ことを特徴とする電子的手書入力装置。
The electronic handwritten input device according to claim 1,
The handwriting input confirmation unit is configured to determine a distance between the handwriting input surface and the instruction point, a handwriting input confirmation distance range closest to the handwriting input surface to determine handwriting input, and the handwriting After providing a boundary area distance range of a certain distance range from the maximum distance of the input fixed distance range, and after determining that the position of the indicated point has entered the handwriting input fixed distance range, the boundary area distance range An electronic handwriting input device that cancels the confirmation of handwriting input only when it is determined that the distance is farther than the maximum distance.
請求項1記載の電子的手書入力装置において、
前記投影部を複数備え、前記手書入力面での立体画像の表示を可能とした
ことを特徴とする電子的手書入力装置。
The electronic handwritten input device according to claim 1,
An electronic handwriting input device comprising a plurality of the projecting units and capable of displaying a stereoscopic image on the handwriting input surface.
JP2006320049A 2006-11-28 2006-11-28 Electronic handwriting input device Expired - Fee Related JP4838694B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006320049A JP4838694B2 (en) 2006-11-28 2006-11-28 Electronic handwriting input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006320049A JP4838694B2 (en) 2006-11-28 2006-11-28 Electronic handwriting input device

Publications (2)

Publication Number Publication Date
JP2008134793A true JP2008134793A (en) 2008-06-12
JP4838694B2 JP4838694B2 (en) 2011-12-14

Family

ID=39559615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006320049A Expired - Fee Related JP4838694B2 (en) 2006-11-28 2006-11-28 Electronic handwriting input device

Country Status (1)

Country Link
JP (1) JP4838694B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011253255A (en) * 2010-05-31 2011-12-15 Canon Inc Information processor and operating method therefor
JP2012149986A (en) * 2011-01-19 2012-08-09 Seiko Epson Corp Position detecting system, display system, and information processing system
JP2012221445A (en) * 2011-04-14 2012-11-12 Seiko Epson Corp Interactive system, control method of interactive system, and projector
JP2013134549A (en) * 2011-12-26 2013-07-08 Sharp Corp Data input device and data input method
WO2013111374A1 (en) * 2012-01-24 2013-08-01 日本電気株式会社 Interface device, method for driving interface device, interface system, and method for driving interface system
JP2014102687A (en) * 2012-11-20 2014-06-05 Ricoh Co Ltd Information processing device, information processing system, and program
WO2015105044A1 (en) * 2014-01-10 2015-07-16 日本電気株式会社 Interface device, portable device, control device, module, control method, and program storage medium
JP2016027503A (en) * 2013-10-08 2016-02-18 キヤノンマーケティングジャパン株式会社 Information processing device, control method thereof, and program, and projection system, control method thereof, and program
JP2016071864A (en) * 2014-09-26 2016-05-09 パナソニックIpマネジメント株式会社 Projector apparatus
CN106257566A (en) * 2016-08-28 2016-12-28 杭州卓冠教育科技有限公司 A kind of calligraphy teaching system and method
WO2017115692A1 (en) * 2015-12-28 2017-07-06 アルプス電気株式会社 Handwriting input device, information input method, and program
US10013068B2 (en) 2014-10-08 2018-07-03 Canon Kabushiki Kaisha Information processing apparatus including a mirror configured to reflect an image and a projector and an image capturing unit arranged below the mirror
JP2018136709A (en) * 2017-02-21 2018-08-30 三菱電機インフォメーションシステムズ株式会社 Data input device, data input program and data input system
JP2019133559A (en) * 2018-02-02 2019-08-08 三菱電機インフォメーションシステムズ株式会社 Data input device, data input program, and data input system
JP2019219662A (en) * 2019-07-03 2019-12-26 三菱電機インフォメーションシステムズ株式会社 Data input system, data input method, and data input program
JP2020173494A (en) * 2019-04-08 2020-10-22 三菱電機株式会社 Handwritten character recognizing device and handwritten character recognizing method
CN114173104A (en) * 2021-12-16 2022-03-11 杨小剑 Micro LED display projection touch screen system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0689125A (en) * 1992-09-07 1994-03-29 Hitachi Ltd Computer with screen display and inputting device
JPH07261913A (en) * 1994-03-18 1995-10-13 Hitachi Ltd Information display method and device therefor
JPH09133891A (en) * 1995-11-08 1997-05-20 Nippon Telegr & Teleph Corp <Ntt> Stereoscopic display device
JP2000298544A (en) * 1999-04-12 2000-10-24 Matsushita Electric Ind Co Ltd Input/output device and its method
JP2001125745A (en) * 1999-10-29 2001-05-11 Ricoh Co Ltd Method for inputting information and coordinate input device
JP2002107833A (en) * 2000-10-03 2002-04-10 Toppan Printing Co Ltd Screen and stereoscopic display system using the same
JP2004265222A (en) * 2003-03-03 2004-09-24 Nippon Telegr & Teleph Corp <Ntt> Interface method, system, and program
JP2005267257A (en) * 2004-03-18 2005-09-29 Nara Institute Of Science & Technology Handwritten information input system
JP2008047047A (en) * 2006-08-21 2008-02-28 Canon Inc Input device, method and program and storage medium

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0689125A (en) * 1992-09-07 1994-03-29 Hitachi Ltd Computer with screen display and inputting device
JPH07261913A (en) * 1994-03-18 1995-10-13 Hitachi Ltd Information display method and device therefor
JPH09133891A (en) * 1995-11-08 1997-05-20 Nippon Telegr & Teleph Corp <Ntt> Stereoscopic display device
JP2000298544A (en) * 1999-04-12 2000-10-24 Matsushita Electric Ind Co Ltd Input/output device and its method
JP2001125745A (en) * 1999-10-29 2001-05-11 Ricoh Co Ltd Method for inputting information and coordinate input device
JP2002107833A (en) * 2000-10-03 2002-04-10 Toppan Printing Co Ltd Screen and stereoscopic display system using the same
JP2004265222A (en) * 2003-03-03 2004-09-24 Nippon Telegr & Teleph Corp <Ntt> Interface method, system, and program
JP2005267257A (en) * 2004-03-18 2005-09-29 Nara Institute Of Science & Technology Handwritten information input system
JP2008047047A (en) * 2006-08-21 2008-02-28 Canon Inc Input device, method and program and storage medium

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011253255A (en) * 2010-05-31 2011-12-15 Canon Inc Information processor and operating method therefor
JP2012149986A (en) * 2011-01-19 2012-08-09 Seiko Epson Corp Position detecting system, display system, and information processing system
JP2012221445A (en) * 2011-04-14 2012-11-12 Seiko Epson Corp Interactive system, control method of interactive system, and projector
JP2013134549A (en) * 2011-12-26 2013-07-08 Sharp Corp Data input device and data input method
WO2013111374A1 (en) * 2012-01-24 2013-08-01 日本電気株式会社 Interface device, method for driving interface device, interface system, and method for driving interface system
JPWO2013111374A1 (en) * 2012-01-24 2015-05-11 日本電気株式会社 Interface device, driving method of interface device, interface system, and driving method of interface system
JP2014102687A (en) * 2012-11-20 2014-06-05 Ricoh Co Ltd Information processing device, information processing system, and program
JP2016027503A (en) * 2013-10-08 2016-02-18 キヤノンマーケティングジャパン株式会社 Information processing device, control method thereof, and program, and projection system, control method thereof, and program
US20160349926A1 (en) * 2014-01-10 2016-12-01 Nec Corporation Interface device, portable device, control device and module
WO2015105044A1 (en) * 2014-01-10 2015-07-16 日本電気株式会社 Interface device, portable device, control device, module, control method, and program storage medium
JPWO2015105044A1 (en) * 2014-01-10 2017-03-23 日本電気株式会社 Interface device, portable device, control device, module, control method, and computer program
JP2016071864A (en) * 2014-09-26 2016-05-09 パナソニックIpマネジメント株式会社 Projector apparatus
US10013068B2 (en) 2014-10-08 2018-07-03 Canon Kabushiki Kaisha Information processing apparatus including a mirror configured to reflect an image and a projector and an image capturing unit arranged below the mirror
WO2017115692A1 (en) * 2015-12-28 2017-07-06 アルプス電気株式会社 Handwriting input device, information input method, and program
US11360661B2 (en) 2015-12-28 2022-06-14 Alps Alpine Co., Ltd. Handwriting input device and information input method
CN106257566A (en) * 2016-08-28 2016-12-28 杭州卓冠教育科技有限公司 A kind of calligraphy teaching system and method
JP2018136709A (en) * 2017-02-21 2018-08-30 三菱電機インフォメーションシステムズ株式会社 Data input device, data input program and data input system
JP2019133559A (en) * 2018-02-02 2019-08-08 三菱電機インフォメーションシステムズ株式会社 Data input device, data input program, and data input system
JP2020173494A (en) * 2019-04-08 2020-10-22 三菱電機株式会社 Handwritten character recognizing device and handwritten character recognizing method
JP2019219662A (en) * 2019-07-03 2019-12-26 三菱電機インフォメーションシステムズ株式会社 Data input system, data input method, and data input program
CN114173104A (en) * 2021-12-16 2022-03-11 杨小剑 Micro LED display projection touch screen system

Also Published As

Publication number Publication date
JP4838694B2 (en) 2011-12-14

Similar Documents

Publication Publication Date Title
JP4838694B2 (en) Electronic handwriting input device
US6760009B2 (en) Coordinate position inputting/detecting device, a method for inputting/detecting the coordinate position, and a display board system
EP2063347B1 (en) Projector and method for projecting images
JP4529837B2 (en) Imaging apparatus, image correction method, and program
CN101946117B (en) Light projection device and illumination device
US7176881B2 (en) Presentation system, material presenting device, and photographing device for presentation
JP5266954B2 (en) Projection display apparatus and display method
US20110032492A1 (en) Projector, computer program product, and trapezoidal distortion correcting method
JP4042695B2 (en) Projector and zoom adjustment method
US8441480B2 (en) Information processing apparatus, information processing system, and computer readable medium
CN102484724A (en) Projection image area detecting device
US20220132071A1 (en) Image display apparatus and method
EP3032375B1 (en) Input operation system
US20060033884A1 (en) Projection device projection system, and image obtainment method
JP7163943B2 (en) INFORMATION GENERATION METHOD, INFORMATION GENERATION SYSTEM AND PROGRAM
JP2020135096A (en) Display method, display unit, and interactive projector
US10073614B2 (en) Information processing device, image projection apparatus, and information processing method
JP2015139087A (en) Projection device
CN114374827B (en) Display method and display device
JP2004198817A (en) Presentation device
JP2018191094A (en) Document reader, method of controlling document reader, and program
JP2010117465A (en) Information processing device, information processing system and program
JP7114415B2 (en) PROJECTION CONTROL DEVICE, PROJECTION CONTROL METHOD, AND PROGRAM
JPH11295065A (en) Discrimination number generating device, camera, and reference scale, and image display device
JP6608080B1 (en) Projector system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110930

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141007

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees