JP2006099504A - Automatic penlight control system for electronic pen with penlight, and penlight control method - Google Patents

Automatic penlight control system for electronic pen with penlight, and penlight control method Download PDF

Info

Publication number
JP2006099504A
JP2006099504A JP2004285905A JP2004285905A JP2006099504A JP 2006099504 A JP2006099504 A JP 2006099504A JP 2004285905 A JP2004285905 A JP 2004285905A JP 2004285905 A JP2004285905 A JP 2004285905A JP 2006099504 A JP2006099504 A JP 2006099504A
Authority
JP
Japan
Prior art keywords
unit
penlight
electronic pen
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004285905A
Other languages
Japanese (ja)
Inventor
Shuji Mizumoto
修司 水本
Hiroaki Takahashi
宏彰 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP2004285905A priority Critical patent/JP2006099504A/en
Publication of JP2006099504A publication Critical patent/JP2006099504A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an automatic control system for automatically controlling the on/off of a penlight function as necessary concerning an electronic pen apparatus including both an electronic pen function and the penlight function. <P>SOLUTION: The electronic pen apparatus 1 comprises an electronic pen part 2; a penlight part 3; and a CCD camera part 4. The CCD camera part 4 periodically images a direction which is indicated by the tip end of the electronic pen apparatus 1 and transmits image data D3 to an analysis controller 5. The image analyzing part 7 of the analysis controller 5 analyzes the image data, estimates whether the four sides of a screen 11 appear in the image data or not, and recognizes the center of the lens of the CCD camera part 4 in the four sides. When it is estimated that the four sides appear and the center of the lens appear inside parts which are estimated as the four sides, an electronic pen apparatus control part 8 transmits an instruction signal D4, which indicates an effect that the penlight part 3 is turned on, to the electronic pen apparatus 1. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、タブレットに座標を入力する電子ペン機能と、指示用ペンライト機能を併有する電子ペン装置に関する。   The present invention relates to an electronic pen device having both an electronic pen function for inputting coordinates to a tablet and an instruction penlight function.

近年、プレゼンテーションや会議のような場において、プロジェクタのような画像表示機器とともに、タブレットに代表される、ポインティングデバイスによって座標を入力する機器を使用し、プロジェクタが投影した画像とその場で手書きした文字や図形を併せてスクリーンに投影させる方式が普及している。この方式においては、発表者は、ポインティングデバイスとしての電子ペン装置を用いてタブレットに文字や図形を書き込みながら発表する(例えば、特許文献1参照)。一方、プロジェクタなどを用いた発表を行う場合には、発表者がスクリーン指示用のペンライトを用いてスクリーンに投影された文字や図形を指し示す方式が広く普及している。そして、電子ペンとペンライトを用いて発表を行う場合、発表者は物理的に別々の電子ペン装置とペンライト装置とを持ち替えながら発表したり、または電子ペン機能とペンライト機能とを併有した装置を用い、電子ペン機能とペンライト機能の機能切替ボタンを押下することで切替えながら発表することになる。
特願平7−159512号公報
In recent years, in places like presentations and meetings, together with image display devices such as projectors, devices that input coordinates using a pointing device such as a tablet, images projected by the projector and characters handwritten on the spot A method of projecting images and figures on a screen is also widespread. In this system, a presenter makes a presentation while writing characters and figures on a tablet using an electronic pen device as a pointing device (see, for example, Patent Document 1). On the other hand, when a presentation is performed using a projector or the like, a method in which a presenter indicates characters and figures projected on a screen using a pen-light for screen instruction is widely used. And when making a presentation using an electronic pen and a penlight, the presenter makes a presentation while switching between physically separate electronic pen devices and penlight devices, or has both an electronic pen function and a penlight function. Using this device, the function will be announced while switching by pressing the function switching button for the electronic pen function and the pen light function.
Japanese Patent Application No. 7-159512

しかし、上記特許文献に記載された方法においては、物理的に別々の電子ペン装置とペンライト装置とを用いる場合は、不慣れな発表者は電子ペン装置とペンライト装置とを持ち替える際に不手際を起こすことが多く、一方、電子ペン機能とペンライト機能を併有した装置を用いる場合は、不慣れな発表者は機能切替ボタンの押し忘れ等の操作ミスをしてしまうことが多い。これらの事態は発表者が操作にもたついて発表時間が長大化することや、発表者の発表内容に対する集中力を散漫にして発表の質が低下することにつながる。   However, in the method described in the above-mentioned patent document, when using physically separate electronic pen device and penlight device, an inexperienced presenter is troubled when changing the electronic pen device and penlight device. On the other hand, when using an apparatus having both an electronic pen function and a penlight function, an unfamiliar presenter often makes an operation mistake such as forgetting to press the function switching button. These situations can lead to longer presentation times due to the operation of the presenter, and distracting the presenter's ability to concentrate on the content of the presentation, resulting in a decline in the quality of the presentation.

本発明の目的は、かかる事情に鑑み、電子ペンとペンライトの併用や切替処理に不慣れな者であっても簡易かつ確実に使い分けができるペンライト付電子ペンのペンライト付電子ペンのペンライト自動制御システムおよびペンライト自動制御方法を提供することにある。   In view of such circumstances, an object of the present invention is to provide a penlight with an electronic pen with a penlight that can be used easily and reliably even by a person unfamiliar with the combined use and switching processing of an electronic pen and a penlight. An object is to provide an automatic control system and a penlight automatic control method.

本発明は、接触入力された位置座標を特定するディスプレイ部を有するタブレットに対し前記位置座標を接触入力する電子ペン部および一方向に光束を照射するペンライト部および一方向の画像をレンズを通して撮像する撮像部をペン本体部に設けた電子ペン装置と、前記撮像部が撮像した画像データを解析する画像解析部および前記画像解析部の解析結果に基づいて前記電子ペン装置を制御する電子ペン装置制御部を備えた解析制御装置とを備え、前記画像解析部は、各種画像を投影する略矩形の投影面を有する画像投影体の前記投影面の見かけの形状である形状情報を記憶する記憶手段と、前記撮像部が撮像した画像データを前記記憶手段に記憶された前記形状情報と照合し前記画像データ内に前記投影面の周縁部の四辺が存在するか否かを推定する四辺推定手段とを有し、前記電子ペン装置制御部は、前記四辺推定手段が前記画像データ内に前記投影面の周縁部の四辺がすべて存在すると推定した場合に前記電子ペン装置のペンライト部をオンにするペンライト制御手段を有するペンライト付電子ペンのペンライト自動制御システムによって達成される。   The present invention picks up an electronic pen unit that touch-inputs the position coordinates and a penlight unit that irradiates a light beam in one direction and a one-way image through a lens. An electronic pen device provided with an imaging unit for the pen body, an image analysis unit for analyzing image data captured by the imaging unit, and an electronic pen device for controlling the electronic pen device based on the analysis result of the image analysis unit A storage unit that stores shape information that is an apparent shape of the projection surface of an image projector having a substantially rectangular projection surface for projecting various images. And whether the image data captured by the imaging unit is collated with the shape information stored in the storage means, and whether there are four sides of the peripheral portion of the projection plane in the image data. The electronic pen device control unit, the electronic pen device control unit of the electronic pen device when the four side estimation unit estimates that all four sides of the peripheral portion of the projection plane is present in the image data This is achieved by a penlight automatic control system for an electronic pen with a penlight having a penlight control means for turning on the penlight section.

そして、撮像部がペン本体部の先端部方向を撮像して画像データを解析制御装置に送り、解析制御装置の画像解析部において、記憶手段が記憶した形状情報と画像データの照合により、画像データの内部に投影面の周縁部の四辺すべてが存在と四辺推定手段が判断した場合に、ペンライト制御手段がペンライト部をオンにすることにより、ペン本体部の先端部が画像投影体の方向を向いている、ペンライト機能が必要なタイミングにおいてのみペンライトを点灯させることができる。   Then, the imaging unit captures the direction of the tip of the pen body unit and sends the image data to the analysis control device. The image analysis unit of the analysis control device collates the shape information stored in the storage unit with the image data to obtain the image data. When the four-side estimator determines that all four edges of the peripheral edge of the projection surface exist inside the penlight, the penlight controller turns on the penlight so that the tip of the pen body is in the direction of the image projector The penlight can be turned on only when the penlight function is required.

また、本発明の上記課題は、接触入力された位置座標を特定するディスプレイ部を有するタブレットに対し前記位置座標を接触入力する電子ペン部および一方向に光束を照射するペンライト部および一方向の画像をレンズを通して撮像する撮像部をペン本体部に設けた電子ペン装置と、各種画像を投影する略矩形の投影面を有する画像投影体の前記投影面の見かけの形状である形状情報を記憶する記憶手段を有し前記電子ペン装置を制御する解析制御装置とを備えたペンライト付電子ペンのペンライト自動制御システムにおけるペンライト自動制御方法において、前記撮像部が画像を撮像し、画像データを前記解析制御装置に送信する第1のステップと、前記解析制御装置において、前記画像データの中から直線を抽出する第2のステップと、抽出された前記直線を両端方向に延長した延長線を形成して複数の前記直線および前記延長線によって囲まれた四辺形を形成する第3のステップと、前記四辺形を、前記形状情報とマッチングする第4のステップと、前記マッチングの結果前記投影面の周縁部の四辺がすべて前記画像データ内に存在すると推定された場合、前記解析制御装置は前記電子ペン部の前記ペンライト部をオンにし、また、前記投影面の周縁部の四辺がすべて前記画像データ内に存在しないと推定された場合、前記解析制御装置は前記電子ペン部の前記ペンライト部をオフにする第5のステップとを有するペンライト自動制御方法によって達成される。   In addition, the above-described problems of the present invention include an electronic pen unit that touch-inputs the position coordinates to a tablet having a display unit that specifies position coordinates input by contact, a penlight unit that irradiates a light beam in one direction, and a one-way direction. Stores shape information that is an apparent shape of the projection surface of an electronic pen device that has an imaging unit that captures an image through a lens in a pen body unit and an image projector that has a substantially rectangular projection surface for projecting various images. In a penlight automatic control method in a penlight automatic control system for an electronic pen with a penlight, which includes a storage unit and an analysis control device that controls the electronic pen device, the imaging unit captures an image, and image data is obtained. A first step of transmitting to the analysis control device; and a second step of extracting a straight line from the image data in the analysis control device; A third step of forming an extension line obtained by extending the extracted straight line in both end directions to form a plurality of straight lines and a quadrilateral surrounded by the extension lines; and matching the quadrilateral with the shape information And when the result of the matching is that it is estimated that all four sides of the peripheral portion of the projection surface are present in the image data, the analysis control device turns on the penlight unit of the electronic pen unit. In addition, when it is estimated that all four sides of the peripheral edge of the projection surface do not exist in the image data, the analysis control device performs a fifth step of turning off the penlight unit of the electronic pen unit. This is accomplished by having a penlight automatic control method.

そして、画像データの中から抽出した直線に基づいて形成した四辺形を、画像投影体の投影面の見かけの形状である形状情報とマッチングさせて、投影面の周縁部の四辺すべてが画像データ内に存在する場合にのみペンライト部をオンにすることにより、形状情報に基づいたペンライト部のオン/オフ制御を確実に行うことができる。   Then, the quadrilateral formed based on the straight line extracted from the image data is matched with the shape information that is the apparent shape of the projection surface of the image projector, and all the four sides of the peripheral portion of the projection surface are included in the image data. By turning on the penlight unit only when it exists, the on / off control of the penlight unit based on the shape information can be reliably performed.

本発明によれば、電子ペン装置が電子ペンの機能とペンライトの機能を併有し、かつ、ペン本体部の先端部がスクリーン方向を指し示したことをシステムが自動的に検知してペンライト部をオンにするため、電子ペン機能とペンライト機能とを、自動制御によって適宜使い分けることができ、発表者の負担を軽減する。   According to the present invention, the electronic pen device has both the function of the electronic pen and the function of the penlight, and the system automatically detects that the tip of the pen main body indicates the screen direction, and the penlight. Since the section is turned on, the electronic pen function and the penlight function can be used properly by automatic control, reducing the burden on the presenter.

以下、本発明に係る一の実施形態を、図面を参照して説明する。
図1は、本発明に係るペンライト付電子ペンのペンライト自動制御システムの制御ブロック図である。このペンライト自動制御システム1Aは、電子ペン装置1と、解析制御装置5と、タブレット10とを備えている。
Hereinafter, an embodiment according to the present invention will be described with reference to the drawings.
FIG. 1 is a control block diagram of a penlight automatic control system for an electronic pen with a penlight according to the present invention. This penlight automatic control system 1 </ b> A includes an electronic pen device 1, an analysis control device 5, and a tablet 10.

電子ペン装置1は、コンピュータ端末のディスプレイに座標を入力するポインティングデバイスとしての電子ペン部2と、電子光を一方向に発するペンライト部3と、小型の撮像デバイスであるCCDカメラ部4とを備えている。そして、電子ペン部2、ペンライト部3、CCDカメラ部4はそれぞれ、電子ペン装置1に内蔵されたCPU(図示せず)によって作動する電子ペン制御部2b、ペンライト制御部3b、CCDカメラ制御部4eによって動作が制御される。   The electronic pen device 1 includes an electronic pen unit 2 as a pointing device for inputting coordinates to a display of a computer terminal, a penlight unit 3 that emits electronic light in one direction, and a CCD camera unit 4 that is a small imaging device. I have. The electronic pen unit 2, the penlight unit 3, and the CCD camera unit 4 are respectively an electronic pen control unit 2b, a penlight control unit 3b, and a CCD camera that are operated by a CPU (not shown) built in the electronic pen device 1. The operation is controlled by the control unit 4e.

図2に、電子ペン装置1の全体図を示す。この電子ペン装置1のペン本体部1aは、ペンと同様に把持し易い程度の大きさの細長い形状に形成する。そして、ペン本体部1aの先端側には、電子ペン部2を構成する接触部2aと、ペンライト部3を構成するライト照射部3aと、CCDカメラ部4を構成するレンズ4aが近接して設けられている。接触部2aは、ペン本体部1aの先端側に円錐状に大きく突出した先端部に設けられ、ペン本体部1aに内蔵されたコイルおよびコンデンサ(図示せず)の電磁誘導作用によって電磁波を放射し、図4に示すタブレット10のディスプレイ10aに接触して座標を入力する。   FIG. 2 shows an overall view of the electronic pen device 1. The pen main body 1a of the electronic pen device 1 is formed in an elongated shape having a size that can be easily gripped like a pen. Then, on the tip side of the pen main body 1a, a contact portion 2a that constitutes the electronic pen portion 2, a light irradiation portion 3a that constitutes the penlight portion 3, and a lens 4a that constitutes the CCD camera portion 4 are close to each other. Is provided. The contact portion 2a is provided at a tip portion protruding greatly in a conical shape on the tip side of the pen body portion 1a, and radiates electromagnetic waves by electromagnetic induction action of a coil and a capacitor (not shown) built in the pen body portion 1a. The coordinates are input by touching the display 10a of the tablet 10 shown in FIG.

一方、ライト照射部3aはレーザ光の照射体であり、点灯するとペン本体部1aの先端部が指し示す略一点方向にレーザの光束を発する。   On the other hand, the light irradiating unit 3a is a laser beam irradiator, and emits a laser beam in a substantially one-point direction indicated by the tip of the pen body 1a when turned on.

また、レンズ4aはペン本体部1aの先端部方向の光を集光する。そして、図2に示すように、ペン本体部1aの内部には、レンズ4aの集光方向に、撮像倍率を変化させるズーム4bと、レンズ4aが集光した像を結像する撮像素子部4cが設けられる。撮像素子部4cは表面部にフォトダイオードなどの受光素子によって形成した画素をマトリクス状に配列しており、このうちレンズ4aの光軸上から入射した光を受光する画素は中心情報部としての基準画素4dとして形成される。なお、CCDカメラ部4が撮像した画像データD3はJPEGなどの方式によって圧縮符号化され、図1に示すように、解析制御装置5に送信(D3)される。   The lens 4a condenses light in the direction of the tip of the pen body 1a. As shown in FIG. 2, inside the pen main body 1a, there is a zoom 4b that changes the imaging magnification in the light condensing direction of the lens 4a, and an image sensor 4c that forms an image condensed by the lens 4a. Is provided. The imaging element portion 4c has pixels formed by light receiving elements such as photodiodes on the surface thereof arranged in a matrix. Among these pixels, a pixel that receives light incident on the optical axis of the lens 4a is a reference as a central information portion. It is formed as a pixel 4d. The image data D3 captured by the CCD camera unit 4 is compressed and encoded by a method such as JPEG, and is transmitted (D3) to the analysis control device 5 as shown in FIG.

なお、本実施例ではライト照射部3a及びレンズ4aをペン本体部1aの先端部に設けた例を示しているが、ライト照射部3aのレーザ光照射方向とレンズ4aの集光方向が同一であれば、ライト照射部3a及びレンズ4aは必ずしもペン本体部1aの先端部でなく、途中部分に設けられていても良い。   In this embodiment, the light irradiation unit 3a and the lens 4a are provided at the tip of the pen body 1a. However, the laser beam irradiation direction of the light irradiation unit 3a and the condensing direction of the lens 4a are the same. If it exists, the light irradiation part 3a and the lens 4a may not necessarily be provided in the middle of the pen body part 1a, but in the middle part.

解析制御装置5は、コンピュータプログラムであって、パーソナルコンピュータ等のコンピュータ端末に内蔵されており、電子ペン装置1や後述するタブレット10と信号を交信し、また電子ペン装置1の機能を制御する。そして、図1に示すとおり、解析制御装置5は、画像入力部6と、画像解析部7と、電子ペン装置制御部8と、画像出力部9とを備えている。   The analysis control device 5 is a computer program and is built in a computer terminal such as a personal computer, and communicates signals with the electronic pen device 1 and a tablet 10 described later, and controls the functions of the electronic pen device 1. As shown in FIG. 1, the analysis control device 5 includes an image input unit 6, an image analysis unit 7, an electronic pen device control unit 8, and an image output unit 9.

画像入力部6には、電子ペン装置1のCCDカメラ部4から符号化された状態の画像データD3が入力され、画像入力部6はこの画像データD3を複号処理して画像解析部7に供給する。なお、画像データD3を後述するタブレット10に送信する場合も生ずるが、この場合には画像データD3の復号処理は行わず、符号化されたまま画像出力部9に供給する。   The image input unit 6 receives the encoded image data D3 from the CCD camera unit 4 of the electronic pen device 1, and the image input unit 6 decodes the image data D3 and sends it to the image analysis unit 7. Supply. Note that the image data D3 may be transmitted to the tablet 10 to be described later. In this case, the image data D3 is not decoded and is supplied to the image output unit 9 without being encoded.

画像解析部7は、電子ペン部2とペンライト部3の機能の切り替えを行うための各種解析処理を行う。図3に、この画像解析部7の内部における制御ブロック図を示す。この図に示すとおり、画像解析部7は四辺推定部7aと中心情報認識部7bと位置情報算出部7cと記憶部7dとを有する。   The image analysis unit 7 performs various analysis processes for switching the functions of the electronic pen unit 2 and the penlight unit 3. FIG. 3 shows a control block diagram inside the image analysis unit 7. As shown in this figure, the image analysis unit 7 includes a four-side estimation unit 7a, a center information recognition unit 7b, a position information calculation unit 7c, and a storage unit 7d.

四辺推定部7aは、CCDカメラ部4が撮像した画像データD3内に、スクリーン11の四辺が存在するか否かを推定する。なお、このスクリーン11はプロジェクタなどの画像投影機器が投影した画像を表示するための画像投影体(たとえば布製の幕や大型の液晶表示装置など)の正面に設けられた、周辺形状が略矩形の表示部分のことである。また、中心情報認識部7bは、CCDカメラ部4が撮像した画像データD3内の基準画素4dの存在を認識する。そして、位置情報算出部7cは、電子ペン装置1を把持する、後述する操作者9とスクリーン11との位置関係を算出する。記憶部7dは、書き込み可能な各種記録媒体であって、スクリーン11のサイズ情報や周縁部形状情報などを記憶する。なお、四辺推定部7aによる四辺の推定方法、中心情報認識部7bによる基準画素4dの認識方法、位置情報算出部7cにおける位置関係の算出方法、記憶部7dにおけるサイズ情報や周縁部形状情報の取得方法については後述する。   The four side estimation unit 7a estimates whether or not the four sides of the screen 11 exist in the image data D3 captured by the CCD camera unit 4. The screen 11 is provided in front of an image projection body (for example, a cloth curtain or a large liquid crystal display device) for displaying an image projected by an image projection device such as a projector, and has a substantially rectangular peripheral shape. It is a display part. The center information recognition unit 7b recognizes the presence of the reference pixel 4d in the image data D3 captured by the CCD camera unit 4. Then, the position information calculation unit 7 c calculates the positional relationship between an operator 9 (to be described later) holding the electronic pen device 1 and the screen 11. The storage unit 7d is various writable recording media, and stores size information of the screen 11, peripheral shape information, and the like. Note that the four-side estimation unit 7a estimates the four sides, the center information recognition unit 7b recognizes the reference pixel 4d, the positional information calculation unit 7c calculates the positional relationship, and the storage unit 7d acquires the size information and the peripheral shape information. The method will be described later.

また、電子ペン装置制御部8は、画像解析部7にて処理され出力された信号の供給を受けて電子ペン装置1の機能を制御する。図3に、この電子ペン装置制御部8内部における制御ブロック図を示す。電子ペン装置制御部8は、倍率制御部8aとペンライト制御部8bとを有している。倍率制御部8aは、四辺推定部7aおよび位置情報算出部7cの解析情報をもとにズーム部4bの撮像倍率を変化させる命令信号を出力する。また、ペンライト制御部8bは、電子ペン装置1に対し、ペンライト部3をオンまたはオフにする命令信号を出力する。なお、図1に示すとおり、倍率制御部8aやペンライト制御部8bの命令信号D4は電子ペン装置1に供給される。   In addition, the electronic pen device control unit 8 controls the function of the electronic pen device 1 upon receiving a signal processed and output by the image analysis unit 7. FIG. 3 shows a control block diagram inside the electronic pen device controller 8. The electronic pen device control unit 8 includes a magnification control unit 8a and a penlight control unit 8b. The magnification control unit 8a outputs a command signal for changing the imaging magnification of the zoom unit 4b based on the analysis information of the four-side estimation unit 7a and the position information calculation unit 7c. In addition, the penlight control unit 8 b outputs a command signal for turning on or off the penlight unit 3 to the electronic pen device 1. As shown in FIG. 1, the command signal D4 from the magnification control unit 8a and the penlight control unit 8b is supplied to the electronic pen device 1.

さらに、図1に示すとおり、画像出力部9は、画像入力部6に入力された画像データD3の供給を受けて、画像データD5として出力する。そして、画像データD5はタブレット10に供給される。   Further, as shown in FIG. 1, the image output unit 9 receives the supply of the image data D3 input to the image input unit 6 and outputs it as image data D5. Then, the image data D5 is supplied to the tablet 10.

図4に、タブレット10の全体図を示す。このタブレット10はプロジェクタ(図示せず)が投影する画像上に、手書きの文字や図形などを書き込む装置であって、表面に設けられたディスプレイ10aは、平面型の液晶パネルやTFTパネルからなり画像表示機能を有する画像表示パネル10bと、画像表示パネル10aの内側に、縦横方向に多数張ったアンテナ群などにより形成した座標入力部10cとを備えている。この座標入力部10cは、ディスプレイ10a表面の縦横方向の電波強度分布を検出することなどにより、接触部2aが接触した座標を検出する。そして、タブレット10は、電子ペン装置1の接触部2aがディスプレイ10a上で移動した軌跡を座標入力によって認識し、文字や線などを電子的に描画する。   FIG. 4 shows an overall view of the tablet 10. The tablet 10 is a device for writing handwritten characters or figures on an image projected by a projector (not shown), and the display 10a provided on the surface is composed of a flat liquid crystal panel or a TFT panel. An image display panel 10b having a display function and a coordinate input unit 10c formed by a group of antennas stretched in the vertical and horizontal directions are provided inside the image display panel 10a. The coordinate input unit 10c detects the coordinates touched by the contact unit 2a, for example, by detecting the radio field intensity distribution in the vertical and horizontal directions on the surface of the display 10a. And the tablet 10 recognizes the locus | trajectory which the contact part 2a of the electronic pen apparatus 1 moved on the display 10a by coordinate input, and draws a character, a line, etc. electronically.

図5は、ペンライト自動制御システム1Aの初期設定のフローチャートである。以下、本図を参照して、本実施の形態におけるペンライト自動制御システムにおけるシステムの初期設定方法を説明する。   FIG. 5 is a flowchart of initial setting of the penlight automatic control system 1A. Hereinafter, a system initial setting method in the penlight automatic control system according to the present embodiment will be described with reference to FIG.

まず、ペンライト自動制御システム1Aを利用する発表者12は、タブレット10のディスプレイ10aに表示されたスクリーンサイズ入力画面に、スクリーン11の横サイズと縦サイズを入力する(ステップS1)。このスクリーンサイズ入力画面13の模式図を図6に示す。この図において、画面中央に表示された擬似スクリーン14の上縁近傍および右縁近傍に示された横サイズ入力部15および縦サイズ入力部16には、発表者12がスクリーン11の幅および高さの数値情報をテキスト入力する。そして、横サイズ入力部15および縦サイズ入力部16に入力されたスクリーン11のサイズは解析制御装置5に送信され、画像解析部7の記憶部7dにサイズ情報として記録される(ステップS2)。   First, the presenter 12 using the penlight automatic control system 1A inputs the horizontal size and vertical size of the screen 11 on the screen size input screen displayed on the display 10a of the tablet 10 (step S1). A schematic diagram of the screen size input screen 13 is shown in FIG. In this figure, in the horizontal size input unit 15 and vertical size input unit 16 shown in the vicinity of the upper edge and the right edge of the pseudo screen 14 displayed at the center of the screen, the presenter 12 has the width and height of the screen 11. Enter the numerical information of the text. The size of the screen 11 input to the horizontal size input unit 15 and the vertical size input unit 16 is transmitted to the analysis control device 5 and recorded as size information in the storage unit 7d of the image analysis unit 7 (step S2).

次に、発表者12は、電子ペン装置1のCCDカメラ部4を使用して、発表者12が実際に発表をする位置からスクリーン11を撮像する(ステップS3)。次に、CCDカメラ部4によって撮像した画像データD3を、解析制御装置5を介してタブレット10に送信し、画像をディスプレイ10aに表示させる(ステップS4)。   Next, the presenter 12 uses the CCD camera unit 4 of the electronic pen device 1 to capture an image of the screen 11 from the position where the presenter 12 actually makes a presentation (step S3). Next, the image data D3 imaged by the CCD camera unit 4 is transmitted to the tablet 10 via the analysis control device 5, and the image is displayed on the display 10a (step S4).

次に、発表者12は、タブレット10のディスプレイ10aにスクリーン11の四辺すべてが表示されているかを確認する。四辺の一部または全部がディスプレイ10aからはみ出している場合は、CCDカメラ部4のズーム部4bを調整して再度スクリーン11を撮像する(ステップS5)。図7に、タブレット10のディスプレイ10aにCCDカメラ部4が撮像した画像が表示された状態の模式図を示す。この図に示すように、スクリーン11の見かけの形状は発表者12とスクリーン11との距離や角度や高さによって、元の略矩形の形状とは相違したものとなる。そして、ディスプレイ10aにスクリーン11の四辺全てが表示された状態で表示されるまで、CCDカメラ部4におけるズーム部4bの調整と撮像を繰り返す。   Next, the presenter 12 checks whether all four sides of the screen 11 are displayed on the display 10 a of the tablet 10. If a part or all of the four sides protrude from the display 10a, the zoom unit 4b of the CCD camera unit 4 is adjusted and the screen 11 is imaged again (step S5). FIG. 7 is a schematic diagram showing a state where an image captured by the CCD camera unit 4 is displayed on the display 10 a of the tablet 10. As shown in this figure, the apparent shape of the screen 11 differs from the original substantially rectangular shape depending on the distance, angle and height between the presenter 12 and the screen 11. Then, the adjustment and imaging of the zoom unit 4b in the CCD camera unit 4 are repeated until all four sides of the screen 11 are displayed on the display 10a.

次に、ディスプレイ10aにスクリーン11の四辺がすべて表示されたら、発表者12はディスプレイ10aに表示された画像中のスクリーン11の周縁部の四辺を、電子ペン装置1の接触部2aでなぞって描写する(ステップS6)。接触部2aがなぞった軌跡はディスプレイ10aの座標入力部10cが座標として読み取り、スクリーン11のCCDカメラ部4から見た見かけの形状をなぞって得られた形状は、タブレット10が形状情報として画像解析部7に送信する。   Next, when all four sides of the screen 11 are displayed on the display 10a, the presenter 12 traces the four sides of the peripheral edge of the screen 11 in the image displayed on the display 10a with the contact portion 2a of the electronic pen device 1. (Step S6). The locus traced by the contact portion 2a is read as coordinates by the coordinate input portion 10c of the display 10a, and the shape obtained by tracing the apparent shape seen from the CCD camera portion 4 of the screen 11 is analyzed by the tablet 10 as shape information. Send to part 7.

次に、画像解析部7の位置情報算出部7cがサイズ情報と形状情報とをもとに、発表者12の把持する電子ペン装置1とスクリーン11との位置関係を算出する(ステップS7)。具体的には、ステップS2で記憶されたスクリーン11のサイズ情報と、ステップS6で座標入力部10cが読み取った形状情報としての四辺形とを対比し、スクリーン11が形状情報としての四辺形に見えるための3次元の距離や回転の度合いや移動の度合いなどを透視変換など幾何学変換の手法を用いて導出し、スクリーン11と発表者12の把持する電子ペン装置1との距離情報や角度情報や相対的な高さ位置情報などを算出する。   Next, the position information calculation unit 7c of the image analysis unit 7 calculates the positional relationship between the electronic pen device 1 held by the presenter 12 and the screen 11 based on the size information and the shape information (step S7). Specifically, the size information of the screen 11 stored in step S2 is compared with the quadrilateral as the shape information read by the coordinate input unit 10c in step S6, and the screen 11 looks like a quadrilateral as the shape information. The three-dimensional distance, the degree of rotation, the degree of movement, and the like are derived using a geometric transformation method such as perspective transformation, and distance information and angle information between the screen 11 and the electronic pen device 1 held by the presenter 12 And relative height position information is calculated.

次に、電子ペン装置制御部8の倍率制御部8aがCCDカメラ部4のズーム部4bを微調整してCCDカメラ部4の撮像素子部4cに結像するスクリーン11の画像のピントを合わせる(ステップS8)。そして、ステップS6にてタブレット10が送信した形状情報は、画像解析部7の記憶部7dに記憶される(ステップS9)。   Next, the magnification control unit 8a of the electronic pen device control unit 8 finely adjusts the zoom unit 4b of the CCD camera unit 4 to focus the image of the screen 11 formed on the image sensor unit 4c of the CCD camera unit 4 ( Step S8). Then, the shape information transmitted from the tablet 10 in step S6 is stored in the storage unit 7d of the image analysis unit 7 (step S9).

このように、CCDカメラ部4によって、発表者12が発表を行う位置から撮像したスクリーン11の画像の見かけの形状から形状情報を得て記憶部7dに記憶させることにより、ペンライト部3のオン/オフの自動制御の判断材料を取得することができる。また、スクリーン11の寸法情報を取得し、さらに、スクリーン11に対する発表者12の位置情報や、角度情報や、高さ情報を算出することにより、ペンライト部3のオン/オフ制御を形状情報に基づいて行う際の制御をより正確に行うための判断材料を得ることができる。さらに、形状情報を取得したのちに、倍率制御部8aがCCDカメラ部4のズームを調整することにより、初期設定時と設定後の発表者12の立ち位置のずれなどによって生ずる、CCDカメラ部4のピントのずれを調整することができる。   In this way, the CCD camera unit 4 obtains shape information from the apparent shape of the image of the screen 11 taken from the position where the presenter 12 makes a presentation, and stores it in the storage unit 7d, thereby turning on the penlight unit 3. A judgment material for automatic control of off / off can be acquired. Further, by acquiring the dimension information of the screen 11 and further calculating the position information, angle information, and height information of the presenter 12 with respect to the screen 11, the on / off control of the penlight unit 3 is converted into shape information. Therefore, it is possible to obtain a determination material for more accurately performing control based on the above. Further, after the shape information is acquired, the magnification control unit 8a adjusts the zoom of the CCD camera unit 4 so that the CCD camera unit 4 is caused by a deviation in the standing position of the presenter 12 at the initial setting and after the setting. The focus shift can be adjusted.

図8は、本発明に係るペンライト自動制御システム1Aによるペンライト部3のオン・オフ制御のフローチャートである。以下、同図にもとづいて、本実施の形態におけるペンライト部3のオン・オフ制御の処理手順を説明する。   FIG. 8 is a flowchart of the on / off control of the penlight unit 3 by the penlight automatic control system 1A according to the present invention. Hereinafter, a processing procedure of on / off control of the penlight unit 3 in the present embodiment will be described with reference to FIG.

まず、発表者12がプロジェクタ(図示せず)を用いて発表を行う際に、電子ペン装置1を解析制御装置5に接続して解析制御装置5を稼動状態にすると、電子ペン装置制御部8のペンライト制御部8bは電子ペン装置1の電子ペン部2を稼動状態にする。この状態で、CCDカメラ部4はレンズ4aを通して得た画像を定期的に撮像する(ステップP1)。CCDカメラ部4は、撮像した画像を画像データD3として解析制御装置5に送信する。解析制御装置5は、画像データD3を、画像入力部6を経て画像解析部7に入力する。   First, when the presenter 12 makes a presentation using a projector (not shown), when the electronic pen device 1 is connected to the analysis control device 5 and the analysis control device 5 is in an operating state, the electronic pen device control unit 8 The pen light control unit 8b activates the electronic pen unit 2 of the electronic pen device 1. In this state, the CCD camera unit 4 periodically takes an image obtained through the lens 4a (step P1). The CCD camera unit 4 transmits the captured image to the analysis control device 5 as image data D3. The analysis control device 5 inputs the image data D3 to the image analysis unit 7 via the image input unit 6.

そして、画像解析部7においては以下の解析を行う。まず、四辺推定部7aにおいて、画像データD3の中から、スクリーン11の周縁部の四辺の候補とされる直線群である四辺候補線を抽出する(ステップP2)。具体的には、たとえば、一般にスクリーン11は内部が白色系で周縁部が黒色系である特徴を利用し、ステップP1で取得した画像データの画素ごとのRGB信号の値(濃度値)を読み出して白色部分と黒色部分とを抽出する手法や、ステップP1で取得した画像データ全体の高周波成分を強調してエッジ情報(輪郭情報)を抽出する手法を用いて抽出を行う。   Then, the image analysis unit 7 performs the following analysis. First, the four-side estimation unit 7a extracts four-side candidate lines that are straight line groups that are candidates for the four sides of the peripheral edge of the screen 11 from the image data D3 (step P2). Specifically, for example, in general, the screen 11 uses the feature that the inside is white and the peripheral portion is black, and reads the value (density value) of the RGB signal for each pixel of the image data acquired in step P1. Extraction is performed using a method of extracting the white portion and the black portion, or a method of extracting edge information (contour information) by emphasizing the high-frequency components of the entire image data acquired in step P1.

図10は、ステップP2において画像データD3からスクリーン11の四辺の候補とされる四辺候補線を抽出した状態の模式図である。この図においては、撮像素子部4cが取得した画面データD3中に、四辺候補線17として、縦横方向の直線が複数抽出された状態を示している。   FIG. 10 is a schematic diagram showing a state in which four-side candidate lines that are candidates for the four sides of the screen 11 are extracted from the image data D3 in step P2. This figure shows a state in which a plurality of straight lines in the vertical and horizontal directions are extracted as the four-side candidate lines 17 in the screen data D3 acquired by the image sensor unit 4c.

次に、四辺推定部7aは、すべての四辺候補線17を両端方向に伸長させた直線である延長線を形成する。図11に、画像素子部4cが取得した画面データD3中に四辺候補線17の延長線18が複数形成された状態の模式図を示す。ここで、太線で表示された部分が元の四辺候補線17であり、太線の両端方向の細線の部分が延長線18である。この図において、四辺候補線17および延長線18から形成された一本の線は、いずれも、撮像素子部4cの周縁部の縦横方向の一辺の大きさより若干短い長さに形成されている。そして、四辺候補線17および延長線18によって囲まれた四辺形が複数形成される。   Next, the four-side estimation unit 7a forms an extension line that is a straight line obtained by extending all the four-side candidate lines 17 in both end directions. FIG. 11 is a schematic diagram showing a state in which a plurality of extension lines 18 of the four-side candidate lines 17 are formed in the screen data D3 acquired by the image element unit 4c. Here, the part displayed with a thick line is the original four-sided candidate line 17, and the thin line part in the both ends of the thick line is the extension line 18. In this figure, each of the one line formed from the four-side candidate line 17 and the extension line 18 is formed to have a length slightly shorter than the size of one side in the vertical and horizontal directions of the peripheral edge of the image pickup device portion 4c. A plurality of quadrilaterals surrounded by the quadrilateral candidate lines 17 and the extension lines 18 are formed.

次に、形成された四辺形をそれぞれステップS9で記憶部7dに記憶させた形状情報とマッチングさせる(ステップP3)。マッチングは、記憶部7dから読み出した形状情報と対比させる四辺形とを一の頂点を軸にしたときの他の3つの頂点の位置関係に基づいて行う。   Next, the formed quadrilateral is matched with the shape information stored in the storage unit 7d in step S9 (step P3). Matching is performed based on the positional relationship of the other three vertices when the quadrangle to be compared with the shape information read from the storage unit 7d is used with one vertex as an axis.

図9のフローチャートにおいて、このマッチングの具体的な処理手順を示す。すなわち、まず、マッチングの対象となる四辺形(以下「対象四辺形」と称する)のうち一の頂点を軸として選ぶ(ステップP11)。次に、四辺の長さを求める(ステップP12)。次に、対向する二辺同士の長さ比を算出する(ステップP13)。次に、辺の長さがステップS9にて記憶された形状情報と大差ないものかを判定する(ステップP14)。具体的には、形状情報の四辺それぞれの長さとマッチングを行う四辺形の四辺を対比した際の比率に上限しきい値と下限しきい値とを設け、比率が上限しきい値を上回るか、下限しきい値を下回る辺が一辺でも含まれるか否かを判断する。   The specific processing procedure of this matching is shown in the flowchart of FIG. That is, first, one vertex of a quadrilateral to be matched (hereinafter referred to as “target quadrilateral”) is selected as an axis (step P11). Next, the lengths of the four sides are obtained (step P12). Next, the length ratio between the two opposing sides is calculated (step P13). Next, it is determined whether the length of the side is not significantly different from the shape information stored in step S9 (step P14). Specifically, the upper limit threshold and the lower limit threshold are set in the ratio when comparing the length of each of the four sides of the shape information with the four sides of the quadrilateral to be matched, and the ratio exceeds the upper limit threshold, It is determined whether or not one side that falls below the lower threshold is included.

判定の結果、しきい値を超える辺がひとつも存在しない場合には、次に、ステップS9にて記憶された形状情報の対向する二辺同士の長さ比と対象四辺形の対向する二辺同士の長さ比を対比して、双方の長さ比の尤度が所定のしきい値を越えないか否かを判定する(ステップP15)。判定の結果、長さ比の尤度がしきい値を超えない場合には、次に、形状情報の4つの頂点の角度と対象四辺形の4つの頂点の角度にそれぞれ設けた上限しきい値と下限しきい値をそれぞれ超えないか否かを判定する(ステップP16)。   If there is no side exceeding the threshold as a result of the determination, then the length ratio between the two opposite sides of the shape information stored in step S9 and the two opposite sides of the target quadrilateral By comparing the length ratios of the two, it is determined whether or not the likelihood of both length ratios does not exceed a predetermined threshold (step P15). As a result of the determination, if the likelihood of the length ratio does not exceed the threshold value, then the upper threshold values provided respectively for the four vertex angles of the shape information and the four vertex angles of the target quadrilateral It is determined whether or not the lower threshold value is exceeded (step P16).

判定の結果、対象四辺形に角度がしきい値を超える頂点がひとつも存在しない場合には、当該対象四辺形を推定スクリーン周縁部として選択し、この推定スクリーン周縁部にて囲まれる部分を推定スクリーン画像とする(ステップP17)。   If the result of the determination is that there is no vertex in the target quadrilateral whose angle exceeds the threshold value, the target quadrilateral is selected as the estimated screen periphery, and the part surrounded by this estimated screen periphery is estimated. A screen image is set (step P17).

なお、ステップP14においてしきい値を超える辺がひとつでも存在する場合や、ステップP15において長さ比が尤度を超える場合や、ステップP16において角度がしきい値を超える頂点がひとつでも存在する場合には、当該対象四辺形によって囲まれる範囲は推定スクリーン画像ではないものとして除外される(ステップP18)。なお、すべての値がしきい値を超えた四辺形が複数存在する場合には(ステップP19)、それらの四辺形の和集合に囲まれた部分が推定スクリーン画像として抽出される(ステップP20)。ステップP11からステップP20までの検討を、すべての対象四辺形について行う(ステップP21)。   When there is even one edge that exceeds the threshold value at Step P14, when the length ratio exceeds the likelihood at Step P15, or when there is even one vertex whose angle exceeds the threshold value at Step P16 In this case, the range surrounded by the target quadrilateral is excluded as not being an estimated screen image (step P18). If there are a plurality of quadrilaterals in which all values exceed the threshold (step P19), a portion surrounded by the union of those quadrilaterals is extracted as an estimated screen image (step P20). . The examination from step P11 to step P20 is performed for all target quadrilaterals (step P21).

ここで、発表中の発表者12の移動にともなう、発表者の位置からみたスクリーン11の見かけの形状の変化は、発表者12とスクリーン11との距離が近いほど変化率が大きくなり、遠くなるにつれて変化率が小さくなる。したがって、ステップP14、P15、P16において用いられるしきい値の設定に際しては、ステップS7において取得した距離情報を用い、スクリーン11と発表者12の把持する電子ペン装置1との距離が近ければ尤度の幅が小さくなるようにしきい値を設定し、距離が大きければ尤度の幅が大きくなるようにしきい値を適宜設定する。距離情報に伴うしきい値の設定は、距離に依存する関数によって算出することや、距離ごとのしきい値の値が記録されたテーブルを参照することによって行う。   Here, the change in the apparent shape of the screen 11 as seen from the position of the presenter as the presenter 12 is moving, the greater the distance between the presenter 12 and the screen 11, the greater the rate of change. As the rate of change decreases. Therefore, when setting the threshold values used in steps P14, P15, and P16, the distance information acquired in step S7 is used, and if the distance between the screen 11 and the electronic pen device 1 held by the presenter 12 is short, the likelihood is high. The threshold value is set so that the width of the threshold value becomes smaller, and the threshold value is appropriately set so that the likelihood width increases as the distance increases. The threshold value associated with the distance information is calculated by a function depending on the distance, or by referring to a table in which the threshold value for each distance is recorded.

なお、選択に際し、形状情報と比較して極端に大きい四辺形や極端に小さい四辺形や形状情報と大きく形状の異なる四辺形は、確からしさが低いものとしてマッチングを行う前にあらかじめ除外しておくと、マッチングの回数が減って計算量が減少し、処理を高速化できる。   In addition, when selecting a quadrilateral that is extremely large compared to the shape information, extremely small quadrilateral, or a quadrilateral that is greatly different from the shape information is assumed to be less accurate before matching. As a result, the number of matching operations is reduced, the amount of calculation is reduced, and the processing speed can be increased.

図12は、画像データD3中に、四辺推定部7aによって特定された推定スクリーン画像19が表示された状態の模式図である。この図においては、四辺形abcdおよび四辺形efghがすべての尤度判定においてしきい値を越えた四辺形であって、この二つの四辺形の和集合(網線で表示された範囲)が推定スクリーン画像19を形成していることを示している。   FIG. 12 is a schematic diagram showing a state in which the estimated screen image 19 specified by the four-side estimator 7a is displayed in the image data D3. In this figure, the quadrilateral abcd and quadrilateral efgh are quadrilaterals that exceeded the threshold in all likelihood judgments, and the union of these two quadrilaterals (range indicated by the mesh line) is estimated It shows that the screen image 19 is formed.

そして、ステップP11からステップP21までの処理が終了すると、図8に示すペンライト点灯制御の処理が続行される。まず、推定スクリーン画像19が得られたのち、四辺推定判断部7aが、画像データD3の中に推定スクリーン画像19の四辺すべてが存在するかを確認する(ステップP4)。そして、画像データD3の中に四辺すべてが存在すると判断された場合には、中心情報認識部7bが、画像データD3におけるCCDカメラ部4の基準画素4dの存在を認識するとともに、この基準画素4dが推定スクリーン画像19の内部に存在しているかを確認する(ステップP5)。なお、図12に示す画像データD3の模式図においては、撮像素子部4cに結蔵した画像による画像データの略中央部に中心画素4dを示すデータがあって、中心画素が推定スクリーン19の内部に存在している状態を示している。そして、図12に示すように、ステップP5において、基準画素4dが推定スクリーン画像19との内部にあると判断された場合には、ペンライト制御部8bがペンライト部3をオンにする命令信号を発し、ライト照射部3aが点灯しスクリーン11にレーザ光が照射される(ステップP6)。一方、ステップP4において、推定スクリーン画像19における四辺のうち少なくとも一部の辺が画像データD3内に存在しない(つまり、一部の辺や、辺の一部が画像データD3内からはみ出ている)と判断された場合や、ステップP5において、基準画素4dが推定スクリーン画像19の四辺と判断された部分の外部にあると判断された場合には、ペンライト制御部8bはペンライト部3をオフにする命令信号を発し、これによりライト照射部3aが消灯する(ステップP7)。そして、ステップP1からステップP6までの処理は周期的に繰り返される(ステップP8)。   Then, when the processing from step P11 to step P21 ends, the penlight lighting control processing shown in FIG. 8 is continued. First, after the estimated screen image 19 is obtained, the four-side estimation determining unit 7a checks whether all four sides of the estimated screen image 19 are present in the image data D3 (step P4). When it is determined that all four sides are present in the image data D3, the center information recognition unit 7b recognizes the presence of the reference pixel 4d of the CCD camera unit 4 in the image data D3, and this reference pixel 4d. Is present in the estimated screen image 19 (step P5). In the schematic diagram of the image data D3 shown in FIG. 12, there is data indicating the center pixel 4d at the substantially central portion of the image data obtained by the image stored in the image sensor section 4c, and the center pixel is inside the estimation screen 19. Indicates the existing state. Then, as shown in FIG. 12, when it is determined in step P5 that the reference pixel 4d is inside the estimated screen image 19, the penlight control unit 8b instructs the penlight unit 3 to turn on. , The light irradiation unit 3a is turned on, and the screen 11 is irradiated with laser light (step P6). On the other hand, in step P4, at least some of the four sides in the estimated screen image 19 do not exist in the image data D3 (that is, some of the sides or part of the sides protrude from the image data D3). When it is determined that the reference pixel 4d is outside the portion determined to be the four sides of the estimated screen image 19 in step P5, the penlight control unit 8b turns off the penlight unit 3. Is issued, and the light irradiating unit 3a is turned off (step P7). Then, the processing from step P1 to step P6 is periodically repeated (step P8).

以上に示すとおり、本発明に係るペンライト自動制御システム1Aは、CCDカメラ部4がペン本体部1aの先端部が指し示す方向の画像を撮像し、この画像の画像データを解析制御装置5の画像解析部7において解析し、ペン本体部1aの先端部が指し示す方向の画像データを画像解析部7が解析してスクリーン11の周縁部の四辺がすべて存在すると推定された場合にのみペンライト部3をオンにすることにより、ペン本体部1aの先端部がスクリーン11の方向を指し示した、ペンライト機能が必要なタイミングにおいてのみペンライト部3をオンにするペンライトの自動制御を実現できる。また、画像解析部7が、さらに、推定スクリーン画像19の内部にCCDカメラ部4のレンズ4aの中心位置を示す基準画素4dが存在する場合にのみペンライト部3をオンにすることにより、ペンライトの自動制御におけるペンライト機能が必要なタイミングの判断を一層確実に行うことができる。   As described above, in the penlight automatic control system 1A according to the present invention, the CCD camera unit 4 captures an image in the direction indicated by the tip of the pen main body unit 1a, and the image data of the image is analyzed by the analysis control device 5. The penlight unit 3 is analyzed only when the analysis unit 7 analyzes the image data in the direction indicated by the tip of the pen body 1a and the image analysis unit 7 estimates that all four sides of the peripheral portion of the screen 11 are present. By turning on, it is possible to realize automatic control of the penlight that turns on the penlight unit 3 only at the timing when the penlight function is required when the tip of the pen body 1a points in the direction of the screen 11. Further, the image analysis unit 7 further turns on the pen light unit 3 only when the reference pixel 4d indicating the center position of the lens 4a of the CCD camera unit 4 exists in the estimated screen image 19, thereby It is possible to more reliably determine the timing when the penlight function is required in automatic light control.

また、画像データD3の中から抽出した直線に基づいて形成した四辺形を、スクリーン11の見かけの形状である形状情報とマッチングさせて、スクリーン11の周縁部の四辺がすべて画像データD3内に存在する場合にのみペンライト部3をオンにすることにより、ペンライト部3のオン/オフ制御を、スクリーン11の形状情報に基づいて確実に行うことができる。   Further, the quadrilateral formed based on the straight line extracted from the image data D3 is matched with the shape information which is the apparent shape of the screen 11, and all the four sides of the peripheral portion of the screen 11 are present in the image data D3. By turning on the penlight unit 3 only when it is to be performed, the on / off control of the penlight unit 3 can be reliably performed based on the shape information of the screen 11.

なお、上記の実施の形態においては、画像投影体11はスクリーンとしたが、たとえばホワイトボードのように、画像を投影できて四辺のサイズを特定できるものであってもよい。   In the above-described embodiment, the image projector 11 is a screen. However, it may be a projector that can project an image and specify the size of four sides, such as a whiteboard.

また、上記の実施の形態においては、座標入力部はタブレット10のディスプレイ10aとして形成したが、これに限定されず、たとえばディジタイザや電子黒板など、電子ペン装置によって座標を入力し文字や線などを入力できる他の座標入力装置によっても実現可能である。   In the above embodiment, the coordinate input unit is formed as the display 10a of the tablet 10. However, the present invention is not limited to this. For example, the coordinates are input by an electronic pen device such as a digitizer or an electronic blackboard, and characters and lines are input. It can also be realized by other coordinate input devices that can input.

さらに、上記実施の形態の自動制御においては、スクリーンの四辺と推定される情報を抽出する際に、RGBの画像データをそのまま用いてRGBの濃度値を用いたりエッジ強調を行うものとしたが、これに限定されず、たとえば、YUV表色系のような他の表色系に変換して輝度情報の大きさによって四辺を推定する方法や、あるいは、白黒の画像に変換して白黒の濃度値から四辺を推定する方法など、前処理によって表色系を変換したのちに四辺の推定を行ってもよい。   Furthermore, in the automatic control of the above embodiment, when extracting the information estimated as the four sides of the screen, the RGB image data is used as it is and the RGB density value is used or edge enhancement is performed. However, the present invention is not limited to this. For example, a method for estimating the four sides based on the size of luminance information by converting to another color system such as a YUV color system, or a monochrome density value by converting to a monochrome image. Alternatively, the four sides may be estimated after the color system is converted by preprocessing, such as a method of estimating the four sides from the first.

本発明に係るペンライト自動制御システムの制御ブロック図である。It is a control block diagram of the penlight automatic control system according to the present invention. 同上ペンライト自動制御システムにおける電子ペン装置の模式図である。It is a schematic diagram of the electronic pen apparatus in a penlight automatic control system same as the above. 同上ペンライト自動制御システムにおける、電子ペン装置制御部の内部の制御ブロック図を示す。The control block diagram inside an electronic pen apparatus control part in a penlight automatic control system same as the above is shown. 同上ペンライト自動制御システムにおけるタブレットの模式図である。It is a schematic diagram of the tablet in a penlight automatic control system same as the above. 同上ペンライト自動制御システムの初期設定のフローチャートである。It is a flowchart of the initial setting of a penlight automatic control system same as the above. 同上ペンライト自動制御システムにおけるスクリーンサイズ入力画面の模式図である。It is a schematic diagram of the screen size input screen in a penlight automatic control system same as the above. 同上ペンライト自動制御システムにおいて、タブレットのディスプレイにCCDカメラ部が撮像した画像が表示された状態の模式図である。In the penlight automatic control system, the image captured by the CCD camera unit is displayed on the display of the tablet. 同上ペンライト自動制御システムにおける、ペンライト部のオン・オフ制御のフローチャートである。It is a flowchart of on / off control of a penlight part in the same penlight automatic control system. 同上ペンライト自動制御システムにおける、マッチングの具体的な処理手順を示すフローチャートである。It is a flowchart which shows the specific process sequence of matching in a penlight automatic control system same as the above. 同上ペンライト自動制御システムの画像解析によって、スクリーンの四辺の候補とされる四辺候補線を抽出した状態の模式図である。It is a schematic diagram of the state which extracted the four-side candidate line used as the candidate of the four sides of a screen by the image analysis of a penlight automatic control system same as the above. 同上ペンライト自動制御システムの画像解析によって、四辺候補線の延長線が形成された状態の模式図である。It is a schematic diagram of the state by which the extended line of the four-side candidate line was formed by the image analysis of a penlight automatic control system same as the above. 同上ペンライト自動制御システムの画像解析によって、推定スクリーン画像が特定され表示された状態の模式図である。It is a schematic diagram of the state by which the presumed screen image was specified and displayed by the image analysis of a penlight automatic control system same as the above.

符号の説明Explanation of symbols

1…電子ペン装置、1a…ペン本体部、2…電子ペン部、3…ペンライト部、4…CCDカメラ部(撮像部)、4a…レンズ、4d…基準画素(中心情報部)、5…解析制御装置、6…画像入力部、7…画像解析部、7a…四辺推定部、7b…中心情報認識部、7c…位置情報算出部、7d…記憶部、8…電子ペン装置制御部、8a…倍率制御部、8b…ペンライト制御部、10…タブレット、10a…ディスプレイ部、10c…座標入力部、11…スクリーン(画像表示部)、12…発表者、D3,D5…画像データ DESCRIPTION OF SYMBOLS 1 ... Electronic pen apparatus, 1a ... Pen main-body part, 2 ... Electronic pen part, 3 ... Pen light part, 4 ... CCD camera part (imaging part), 4a ... Lens, 4d ... Reference | standard pixel (center information part), 5 ... Analysis control device, 6 ... image input unit, 7 ... image analysis unit, 7a ... four side estimation unit, 7b ... center information recognition unit, 7c ... position information calculation unit, 7d ... storage unit, 8 ... electronic pen device control unit, 8a Magnification control unit, 8b Pen light control unit, 10 Tablet, 10a Display unit, 10c Coordinate input unit, 11 Screen (image display unit), 12 Presenter, D3, D5 Image data

Claims (6)

接触入力された位置座標を特定するディスプレイ部を有するタブレットに対し前記位置座標を接触入力する電子ペン部および一方向に光束を照射するペンライト部および一方向の画像をレンズを通して撮像する撮像部をペン本体部に設けた電子ペン装置と、
前記撮像部が撮像した画像データを解析する画像解析部および前記画像解析部の解析結果に基づいて前記電子ペン装置を制御する電子ペン装置制御部を備えた解析制御装置と
を備え、
前記画像解析部は、
各種画像を投影する略矩形の投影面を有する画像投影体の前記投影面の見かけの形状である形状情報を記憶する記憶手段と、
前記撮像部が撮像した画像データを前記記憶手段に記憶された前記形状情報と照合し前記画像データ内に前記投影面の周縁部の四辺が存在するか否かを推定する四辺推定手段と
を有し、
前記電子ペン装置制御部は、前記四辺推定手段が前記画像データ内に前記投影面の周縁部の四辺がすべて存在すると推定した場合に前記電子ペン装置のペンライト部をオンにするペンライト制御手段
を有することを特徴とするペンライト付電子ペンのペンライト自動制御システム。
An electronic pen unit for touch-inputting the position coordinates to a tablet having a display unit for specifying position coordinates input by contact, a penlight unit for irradiating a light beam in one direction, and an imaging unit for capturing an image in one direction through a lens An electronic pen device provided in the pen body,
An image analysis unit that analyzes image data captured by the imaging unit, and an analysis control device that includes an electronic pen device control unit that controls the electronic pen device based on an analysis result of the image analysis unit,
The image analysis unit
Storage means for storing shape information which is an apparent shape of the projection surface of an image projector having a substantially rectangular projection surface for projecting various images;
Four-side estimation means for collating image data picked up by the image pickup section with the shape information stored in the storage means and estimating whether or not there are four sides of the projection surface in the image data. And
The electronic pen device control unit is a penlight control unit that turns on the penlight unit of the electronic pen device when the four-side estimation unit estimates that all four sides of the projection surface are present in the image data. A penlight automatic control system for an electronic pen with a penlight.
前記画像解析部は、さらに、前記画像データ内に前記撮像部の前記レンズの中心位置を示す中心情報部の存在を認識する中心情報認識手段を有し、
前記ペンライト制御手段は、さらに、前記四辺推定手段が前記投影面と推定した範囲内に前記中心情報認識部が認識した中心情報が存在する場合に前記電子ペン装置のペンライト部をオンにする
ことを特徴とする請求項1に記載のペンライト付電子ペンのペンライト自動制御システム。
The image analysis unit further includes center information recognition means for recognizing presence of a center information unit indicating a center position of the lens of the imaging unit in the image data,
The penlight control unit further turns on the penlight unit of the electronic pen device when the center information recognized by the center information recognition unit is within the range estimated by the four-side estimation unit as the projection plane. The penlight automatic control system of the electronic pen with a penlight of Claim 1 characterized by the above-mentioned.
さらに、前記電子ペン部により入力された位置座標を特定するとともに前記撮像部が撮像した画像データを表示するディスプレイ部を有するタブレットを備え、
前記形状情報は、前記撮像部が撮像し前記ディスプレイ部に表示された前記画像表示体の前記投影面をもとに前記電子ペン部が前記ディスプレイ部に入力した座標情報に基づいて取得される
ことを特徴とする請求項1または2に記載のペンライト付電子ペンのペンライト自動制御システム。
Furthermore, the tablet having a display unit for specifying the position coordinates input by the electronic pen unit and displaying the image data captured by the imaging unit,
The shape information is acquired based on coordinate information input to the display unit by the electronic pen unit based on the projection plane of the image display body that is captured by the imaging unit and displayed on the display unit. The penlight automatic control system of the electronic pen with a penlight of Claim 1 or 2 characterized by these.
前記撮像部は撮像倍率を変化させるズーム部を有するとともに、
前記電子ペン装置制御手段は、前記ズーム部を操作し前記撮像部の撮像倍率を変化させる倍率制御手段を有する
ことを特徴とする請求項1から3までのいずれか1項に記載のペンライト付電子ペンのペンライト自動制御システム。
The imaging unit has a zoom unit that changes an imaging magnification,
4. The penlight-attached device according to claim 1, wherein the electronic pen device control unit includes a magnification control unit that operates the zoom unit to change an imaging magnification of the imaging unit. 5. Electronic pen light automatic control system.
接触入力された位置座標を特定するディスプレイ部を有するタブレットに対し前記位置座標を接触入力する電子ペン部および一方向に光束を照射するペンライト部および一方向の画像をレンズを通して撮像する撮像部をペン本体部に設けた電子ペン装置と、各種画像を投影する略矩形の投影面を有する画像投影体の前記投影面の見かけの形状である形状情報を記憶する記憶手段を有し前記電子ペン装置を制御する解析制御装置とを備えたペンライト付電子ペンのペンライト自動制御システムにおけるペンライト自動制御方法において、
前記撮像部が画像を撮像し、画像データを前記解析制御装置に送信する第1のステップと、
前記解析制御装置において、前記画像データの中から直線を抽出する第2のステップと、
抽出された前記直線を両端方向に延長した延長線を形成して複数の前記直線および前記延長線によって囲まれた四辺形を形成する第3のステップと、
前記四辺形を、前記形状情報とマッチングする第4のステップと、
前記マッチングの結果前記投影面の周縁部の四辺がすべて前記画像データ内に存在すると推定された場合、前記解析制御装置は前記電子ペン部の前記ペンライト部をオンにし、また、前記投影面の周縁部の四辺のうち一部または全部が前記画像データ内に存在しないと推定された場合、前記解析制御装置は前記電子ペン部の前記ペンライト部をオフにする第5のステップと
を有することを特徴とするペンライト自動制御方法。
An electronic pen unit for touch-inputting the position coordinates to a tablet having a display unit for specifying position coordinates input by contact, a penlight unit for irradiating a light beam in one direction, and an imaging unit for capturing an image in one direction through a lens An electronic pen device provided in a pen main body, and a storage unit for storing shape information that is an apparent shape of the projection surface of an image projector having a substantially rectangular projection surface for projecting various images. In a penlight automatic control method in a penlight automatic control system of an electronic pen with a penlight provided with an analysis control device for controlling
A first step in which the imaging unit captures an image and transmits image data to the analysis control device;
A second step of extracting a straight line from the image data in the analysis control device;
A third step of forming a quadrilateral surrounded by a plurality of the straight lines and the extension lines by forming an extension line obtained by extending the extracted straight lines in both end directions;
A fourth step of matching the quadrilateral with the shape information;
As a result of the matching, when it is estimated that all four sides of the peripheral edge of the projection surface are present in the image data, the analysis control device turns on the penlight unit of the electronic pen unit, When it is estimated that some or all of the four sides of the peripheral portion do not exist in the image data, the analysis control device includes a fifth step of turning off the penlight unit of the electronic pen unit. A penlight automatic control method characterized by.
さらに、推定された前記投影面の周縁部の四辺の内部に前記レンズの中心位置を示す中心情報部が存在するか否かを確認する第6のステップを有し、
前記第5のステップに代えて、前記マッチングの結果前記四辺がすべて前記画像データ内に存在すると推定されかつ推定された前記四辺の内部に前記中心情報部が存在することが確認された場合、前記電子ペン部のペンライト部をオンにし、また、前記四辺のうち一部または全部が前記画像データ内に存在しないと推定された場合あるいは推定された前記四辺の内部に前記中心情報部が存在しない場合、前記電子ペン部の前記ペンライト部をオフにする第7のステップを有する
ことを特徴とする請求項5に記載のペンライト自動制御方法。
Furthermore, it has a sixth step of confirming whether or not there is a center information part indicating the center position of the lens in the four sides of the estimated peripheral edge of the projection surface,
In place of the fifth step, when it is estimated that all the four sides are present in the image data as a result of the matching, and it is confirmed that the central information part exists inside the estimated four sides, When the pen light part of the electronic pen part is turned on and it is estimated that some or all of the four sides do not exist in the image data, or the central information part does not exist inside the estimated four sides 6. The penlight automatic control method according to claim 5, further comprising: a seventh step of turning off the penlight unit of the electronic pen unit.
JP2004285905A 2004-09-30 2004-09-30 Automatic penlight control system for electronic pen with penlight, and penlight control method Pending JP2006099504A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004285905A JP2006099504A (en) 2004-09-30 2004-09-30 Automatic penlight control system for electronic pen with penlight, and penlight control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004285905A JP2006099504A (en) 2004-09-30 2004-09-30 Automatic penlight control system for electronic pen with penlight, and penlight control method

Publications (1)

Publication Number Publication Date
JP2006099504A true JP2006099504A (en) 2006-04-13

Family

ID=36239239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004285905A Pending JP2006099504A (en) 2004-09-30 2004-09-30 Automatic penlight control system for electronic pen with penlight, and penlight control method

Country Status (1)

Country Link
JP (1) JP2006099504A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008108465A1 (en) * 2007-03-08 2008-09-12 Lunascape Co., Ltd. Projector system
WO2009066368A1 (en) * 2007-11-20 2009-05-28 Fujitsu Limited Display input system and input pen
JP2012252730A (en) * 2012-09-28 2012-12-20 Casio Comput Co Ltd Pointing device, information transmitting method thereof, and external information processor and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008108465A1 (en) * 2007-03-08 2008-09-12 Lunascape Co., Ltd. Projector system
JP2008225553A (en) * 2007-03-08 2008-09-25 Lunascape Co Ltd Projector system
KR101046283B1 (en) 2007-03-08 2011-07-04 가부시키가이샤 타크람 디자인 엔지니어링 Projector system
WO2009066368A1 (en) * 2007-11-20 2009-05-28 Fujitsu Limited Display input system and input pen
JP2012252730A (en) * 2012-09-28 2012-12-20 Casio Comput Co Ltd Pointing device, information transmitting method thereof, and external information processor and program

Similar Documents

Publication Publication Date Title
JP6153564B2 (en) Pointing device with camera and mark output
JP4341629B2 (en) Imaging apparatus, image processing method, and program
EP3072103B1 (en) User feedback for real-time checking and improving quality of scanned image
JP4363151B2 (en) Imaging apparatus, image processing method thereof, and program
JP2011180712A (en) Projection type image display apparatus
JP4710734B2 (en) Pointing device, pointing position detection method, and program
JP2006074774A (en) Method of digital image jointing on digital imaging device, method of aligning digital images for stitching, digital imaging device, and graphics controller
JP2008134793A (en) Electronic handwriting input device
JP5817149B2 (en) Projection device
JP2012185630A (en) Projection device
KR101691880B1 (en) Interactive System Having Auto Calibration Function And Auto Calibration Method of Interactive System
WO2017215246A1 (en) Input device recognition method and system, and input instruction recognition method and system
US11908101B2 (en) Writing surface boundary markers for computer vision
JP4501701B2 (en) Image capturing apparatus, image processing method for image capturing apparatus, and program
JP2000259338A (en) Input system, display system, presentation system and information storage medium
JP4182937B2 (en) Image capturing apparatus, image processing method for image capturing apparatus, and program
JP4107568B2 (en) Imaging device
JP2006099504A (en) Automatic penlight control system for electronic pen with penlight, and penlight control method
JP6390163B2 (en) Information processing apparatus, information processing method, and program
US20210281742A1 (en) Document detections from video images
JP2017199288A (en) Image processing device, image processing method and program
JP2001014477A (en) Picture contour extracting device
JP4363153B2 (en) Imaging apparatus, image processing method thereof, and program
JP2018191094A (en) Document reader, method of controlling document reader, and program
US11997435B2 (en) Display method and display system