JP5808712B2 - Video display device - Google Patents

Video display device Download PDF

Info

Publication number
JP5808712B2
JP5808712B2 JP2012117106A JP2012117106A JP5808712B2 JP 5808712 B2 JP5808712 B2 JP 5808712B2 JP 2012117106 A JP2012117106 A JP 2012117106A JP 2012117106 A JP2012117106 A JP 2012117106A JP 5808712 B2 JP5808712 B2 JP 5808712B2
Authority
JP
Japan
Prior art keywords
pen
input device
type input
user
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012117106A
Other languages
Japanese (ja)
Other versions
JP2013242821A (en
Inventor
孝志 松原
孝志 松原
森 直樹
直樹 森
沙希子 田代
沙希子 田代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Maxell Energy Ltd
Original Assignee
Hitachi Maxell Energy Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Energy Ltd filed Critical Hitachi Maxell Energy Ltd
Priority to JP2012117106A priority Critical patent/JP5808712B2/en
Priority to PCT/JP2013/054438 priority patent/WO2013175819A1/en
Publication of JP2013242821A publication Critical patent/JP2013242821A/en
Application granted granted Critical
Publication of JP5808712B2 publication Critical patent/JP5808712B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Description

本発明は、映像をホワイトボード等に投写するとともに、ホワイトボードに筆記入力をおこなえる映像表示装置に係り、電子ペンによる操作指示をおこなう映像表示装置およびその映像操作方法に関する。   The present invention relates to an image display apparatus that projects an image on a whiteboard or the like and can input writing on the whiteboard, and more particularly to an image display apparatus that performs an operation instruction using an electronic pen and an image operation method thereof.

近年、モニタの大画面化やプロジェクター装置の普及により、筆記用具で白板に文字や図形を記入するのと同じ形態で、データ表示した表示面にコンピュータによる加筆をおこなえる電子ペンが提供されている。この電子ペンには、軌跡情報をコンピューターに通知するとともに、電子ペンの筆圧や傾き等の操作情報をコンピュータに通知することが必要となる。   2. Description of the Related Art In recent years, with the enlargement of monitors and the widespread use of projector devices, electronic pens have been provided that allow a computer to be used to add data to the data-displayed display surface in the same form as writing letters and figures on a white board with a writing instrument. The electronic pen is required to notify the computer of trajectory information and to notify the computer of operation information such as writing pressure and tilt of the electronic pen.

例えば、特許文献1に電子ペンの一例が示されている。詳しくは、特許文献1に開示される電子ペンは、使用者に把持される略筒状の筐体と、前記筐体の先端側に形成されたペン先部と、前記ペン先部の三次元的変位を検出して、前記ペン先部の筆圧または傾きを算出する検出手段と、を備えた構成であることが開示されている。   For example, Patent Document 1 shows an example of an electronic pen. Specifically, an electronic pen disclosed in Patent Document 1 includes a substantially cylindrical casing that is gripped by a user, a pen tip portion formed on a tip side of the casing, and a three-dimensional configuration of the pen tip section. It is disclosed that the apparatus includes a detecting unit that detects a target displacement and calculates a writing pressure or an inclination of the pen tip portion.

そして、電子ペンと、表示装置のタッチパネル面に前記電子ペンによりタッチされた座標位置を検出する座標位置検出装置と、前記座標位置検出装置の座標位置の検出結果に応じた情報を前記表示装置に表示させる表示制御装置とからなるタッチパネル装置において、前記電子ペンは、使用者に把持される略筒状の筐体と、前記筐体の先端側に形成されたペン先部と、前記ペン先部の三次元的変位を検出して、前記電子ペンの筆圧を算出する検出手段と、を含み、前記表示制御装置は、前記検出手段で算出された前記電子ペンの筆圧に応じて、前記表示装置に表示する情報の表示態様を変更することが開示されている。   And an electronic pen, a coordinate position detection device that detects a coordinate position touched on the touch panel surface of the display device by the electronic pen, and information corresponding to a detection result of the coordinate position of the coordinate position detection device. In the touch panel device including a display control device to be displayed, the electronic pen includes a substantially cylindrical housing that is gripped by a user, a pen tip portion formed on a tip side of the housing, and the pen tip portion. Detecting means for detecting the three-dimensional displacement of the electronic pen, and calculating the writing pressure of the electronic pen, the display control device according to the writing pressure of the electronic pen calculated by the detecting means, It is disclosed that the display mode of information displayed on a display device is changed.

上記の電子ペンを入力装置とした電子ボードシステムが、例えば、特許文献2に示されている。特許文献2に開示される電子ボードシステムでは、ボードに座標検出装置が取り付けられ電子ペンのボード上のペン位置情報を検出し、ペン先のスイッチ情報とペン位置情報から、ボードに筆記データを投影している。   An electronic board system using the above electronic pen as an input device is disclosed in Patent Document 2, for example. In the electronic board system disclosed in Patent Document 2, a coordinate detection device is attached to the board, pen position information on the electronic pen board is detected, and writing data is projected onto the board from the switch information of the pen tip and the pen position information. doing.

特開2006−92410号公報JP 2006-92410 A 特開2010−79834号公報JP 2010-79834 A

前記特許文献1に記載の電子ペンによれば、電子ペンの筆圧やペン軸の傾きを検出できるようになったが、特許文献2に開示される電子ボードシステム等の表示装置では、従来の筆記用具の筆記機能を電子化にすぎず、新たな入力装置の機能を提供するまでには到っていない。   According to the electronic pen described in Patent Document 1, the writing pressure of the electronic pen and the inclination of the pen shaft can be detected. However, in the display device such as the electronic board system disclosed in Patent Document 2, the conventional pen is not available. The writing function of the writing instrument is merely electronic, and it has not yet reached the point of providing a new input device function.

本発明の目的は、筆圧検出や傾き検出の状態検出をより高精度検出可能とした電子ペンを利用して、筆圧や傾きのペンの状態検出をおこなって、これを基により使い勝手の向上や新たな使用方法をもつ映像表示装置を提供することにある。   The purpose of the present invention is to detect pen pressure and tilt pen status using an electronic pen that can detect the detection of pen pressure and tilt detection with higher accuracy, and improve usability based on this. Another object of the present invention is to provide a video display device having a new usage method.

上記課題を解決するために、本発明のペンで操作する映像表示装置は、グラフィカルユーザインタフェースを表示する表示手段と、前記ペンの映像表示装置の表示面における位置を検出するペン位置検出手段と、前記ペン先の映像表示装置の表示面への接触の有無と、前記ペン先が接触する面に対する傾きを含むのペン状態情報の入力手段と、を備え、前記ペン位置検出手段が検出したペン位置情報により前記グラフィカルユーザインタフェースを特定し、前記ペン状態情報に応じて前記グラフィカルユーザインタフェースの表示内容を変更するようにした。   In order to solve the above problems, a video display device operated with a pen according to the present invention includes a display unit that displays a graphical user interface, a pen position detection unit that detects a position of the pen on the display surface of the video display device, A pen position detected by the pen position detecting means, comprising: pen state information input means including presence / absence of contact of the pen tip with the display surface of the video display device and inclination with respect to the surface with which the pen tip contacts. The graphical user interface is specified by information, and the display content of the graphical user interface is changed according to the pen state information.

本発明によれば、ユーザが前記ペン型入力装置を用いてGUIに対して行う、線の描画、線の削除等の操作を、ユーザが円滑に切り替えることができるので、電子ボードシステム等の映像表示装置の操作性の向上効果をもたらす。   According to the present invention, since the user can smoothly switch operations such as line drawing and line deletion performed on the GUI using the pen-type input device by the user, an image of an electronic board system or the like can be obtained. The effect of improving the operability of the display device is brought about.

実施例1における映像表示装置をユーザが操作する外観の一例を示す図である。It is a figure which shows an example of the external appearance in which a user operates the video display apparatus in Example 1. FIG. 実施例1における映像表示装置をユーザが操作する外観の一例を示す図である。It is a figure which shows an example of the external appearance in which a user operates the video display apparatus in Example 1. FIG. 実施例1における映像表示装置の構成の一例を示す図である。1 is a diagram illustrating an example of a configuration of a video display device in Embodiment 1. FIG. 実施例1における処理の一例を示す図である。10 is a diagram illustrating an example of processing in Embodiment 1. FIG. 実施例1における操作の一例を示す図である。6 is a diagram illustrating an example of an operation in Embodiment 1. FIG. 実施例1における操作の一例を示す図である。6 is a diagram illustrating an example of an operation in Embodiment 1. FIG. 実施例1における操作の一例を示す図である。6 is a diagram illustrating an example of an operation in Embodiment 1. FIG. 実施例1における操作の一例を示す図である。6 is a diagram illustrating an example of an operation in Embodiment 1. FIG. 実施例1における映像表示装置の構成の一例を示す図である。1 is a diagram illustrating an example of a configuration of a video display device in Embodiment 1. FIG. 実施例1における映像表示装置の構成の一例を示す図である。1 is a diagram illustrating an example of a configuration of a video display device in Embodiment 1. FIG. 実施例2における操作の一例を示す図である。10 is a diagram illustrating an example of an operation in Embodiment 2. FIG. 実施例2における操作の一例を示す図である。10 is a diagram illustrating an example of an operation in Embodiment 2. FIG. 実施例2における操作の一例を示す図である。10 is a diagram illustrating an example of an operation in Embodiment 2. FIG. 実施例3における操作の一例を示す図である。FIG. 10 is a diagram illustrating an example of an operation in the third embodiment. 実施例3における操作の一例を示す図である。FIG. 10 is a diagram illustrating an example of an operation in the third embodiment. 実施例3における操作の一例を示す図である。FIG. 10 is a diagram illustrating an example of an operation in the third embodiment. 実施例3における操作の一例を示す図である。FIG. 10 is a diagram illustrating an example of an operation in the third embodiment. 実施例3における操作の一例を示す図である。FIG. 10 is a diagram illustrating an example of an operation in the third embodiment. 実施例4における操作の一例を示す図である。FIG. 10 is a diagram illustrating an example of an operation in the fourth embodiment. 実施例4における操作の一例を示す図である。FIG. 10 is a diagram illustrating an example of an operation in the fourth embodiment. 実施例4における操作の一例を示す図である。FIG. 10 is a diagram illustrating an example of an operation in the fourth embodiment. 実施例5における操作の一例を示す図である。FIG. 10 is a diagram illustrating an example of an operation in the fifth embodiment. 実施例5における操作の一例を示す図である。FIG. 10 is a diagram illustrating an example of an operation in the fifth embodiment. 実施例5における操作の一例を示す図である。FIG. 10 is a diagram illustrating an example of an operation in the fifth embodiment. 実施例の電子ペンの構造例を示す図である。It is a figure which shows the structural example of the electronic pen of an Example. 電子ペンの歪検出の処理フローElectronic pen strain detection process flow 電子ペンの状態と歪検出値を関係を示す表である。It is a table | surface which shows the relationship between the state of an electronic pen, and a distortion detected value.

実施例の説明に先立ち、図25〜27により本実施例のペン型入力装置(電子ペン)の概要を説明する。図25は、実施例のペン型入力装置の構造の一例を示す図である。図26は、ペン型入力装置の状態と検出値の対応を示す表である。   Prior to the description of the embodiment, an outline of the pen-type input device (electronic pen) of the present embodiment will be described with reference to FIGS. FIG. 25 is a diagram illustrating an example of the structure of the pen-type input device according to the embodiment. FIG. 26 is a table showing the correspondence between the state of the pen-type input device and the detected value.

本実施例ペン型入力装置の構造は、図25に示されるように、半導体歪センサ等の一方向の歪量に対応して出力値が変わる歪センサ(2501、2502)が、ペン軸の表面に設置された構造となっている。ユーザがぺん軸の把持部をもちボードやスクリーン等の筆記面に筆記動作をおこなってとき、前記歪センサは、ペン軸の変形量を歪量として検出する。本実施例では、この歪量からペン型入力装置のペン先の接触状態、ペン先の圧力、ペンの傾き方向を判定する。   As shown in FIG. 25, the structure of the pen-type input device of this embodiment is such that a strain sensor (2501, 2502) whose output value changes according to the amount of strain in one direction such as a semiconductor strain sensor is the surface of the pen shaft. It is the structure installed in. When the user has a pen shaft gripping part and performs a writing operation on a writing surface such as a board or a screen, the strain sensor detects the amount of deformation of the pen shaft as a strain amount. In this embodiment, the contact state of the pen tip of the pen-type input device, the pressure of the pen tip, and the tilt direction of the pen are determined from the distortion amount.

ここで、図25には2つの半導体歪センサ(2501、2502)が記載されているが、歪量を検出できれば、この個数に限定されるものではなく、また、センサの設置場所も、ペン軸の表面に限定されず、ペン軸の内側や、内部表面であってもよい。   Here, although two semiconductor strain sensors (2501, 2502) are described in FIG. 25, the number of sensors is not limited as long as the amount of strain can be detected. The inner surface of the pen shaft or the inner surface may be used.

また、以下の実施例には記述していないが、ペン先以外に、ペン軸の央部や、ペン軸の元部に歪センサを設置したり、複数箇所に設置することにより、ペン軸のひねり動作、ペン軸の引っ張り/押し込み、ペン軸の保持状態等を判定でき、実施例以外の操作指示情報を示すことが可能となる。   Although not described in the following embodiments, in addition to the pen tip, by installing a strain sensor at the center of the pen shaft or at the base of the pen shaft, or by installing it at multiple locations, It is possible to determine a twisting operation, a pen shaft pulling / pushing, a pen shaft holding state, and the like, and it is possible to indicate operation instruction information other than the embodiment.

図26は、前記歪センサで検出した歪量εを元に、ペン先の接触状態、ペン先の圧力、ペンの傾き方向を判定する処理フローをしめす。ここで、ε0は、歪センサの平衡状態のセンサ出力値を意味し、Eは、処理のためのセンサ閾値を意味する。   FIG. 26 shows a processing flow for determining the pen tip contact state, pen tip pressure, and pen tilt direction based on the strain amount ε detected by the strain sensor. Here, ε0 means a sensor output value in an equilibrium state of the strain sensor, and E means a sensor threshold value for processing.

図27に、図26の処理フローのS503の具体的な処理内容を示す。図27に示す処理では、歪センサの出力する歪量の平衡状態からの変化量と閾値を比較し、その大小により、ペン先の筆記面への接触状態・ペンの傾き方向を判定する。   FIG. 27 shows the specific processing contents of S503 in the processing flow of FIG. In the processing shown in FIG. 27, the amount of change of the strain output from the strain sensor from the equilibrium state is compared with the threshold value, and the contact state of the pen tip with the writing surface and the pen tilt direction are determined based on the magnitude.

以下に、図面を参照しながら、本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

次に、実施例1を説明する。実施例1では、前記ペン型入力装置を用いたプロジェクタの投写映像の操作について説明する。   Next, Example 1 will be described. In the first embodiment, the operation of the projected image of the projector using the pen-type input device will be described.

図1はユーザが前記ペン型入力装置を用いて、プロジェクタの投写映像を操作する一例の外観を示す。また、図2は、図1と同等の機器構成で側面から見た場合の外観を示す。図1および図2において、100は前記ペン型入力装置であり、2100はプロジェクタ、2101は投写映像、2102は投写光、2103は壁面、2104はペン位置検出センサである。   FIG. 1 shows an appearance of an example in which a user operates a projected image of a projector using the pen-type input device. Moreover, FIG. 2 shows an external appearance when viewed from the side with the same device configuration as FIG. In FIGS. 1 and 2, 100 is the pen type input device, 2100 is a projector, 2101 is a projected image, 2102 is projection light, 2103 is a wall surface, and 2104 is a pen position detection sensor.

プロジェクタ2100は、壁面2103に取り付けられており、GUI等の所定の映像信号に基づき、投写光2102を出力することにより、前記壁面2103に投写映像2101を映し出す。   The projector 2100 is attached to the wall surface 2103, and the projection image 2101 is displayed on the wall surface 2103 by outputting the projection light 2102 based on a predetermined image signal such as GUI.

ペン位置検出センサ2104は、前記プロジェクタ2100が備えるセンサであり、前記投写映像2101に対する前記ペン型入力装置100のペン先の位置を検出する機能を有しており、例えば、超音波センサ、カメラ、電界センサ、赤外線距離センサ、レーザ距離センサ、距離画像センサなどのセンサデバイスが用いられる。前記ペン位置検出センサ2104に用いるセンサは、特に限定されず、センサデータを処理するマイコン、及びマイコン上で動作するソフトウェア等との組合せにより、前記投写映像2101の投写面上での前記ペン型入力装置100のペン先の位置が得られる機能を有すればよい。   The pen position detection sensor 2104 is a sensor provided in the projector 2100, and has a function of detecting the position of the pen tip of the pen-type input device 100 with respect to the projection image 2101. For example, an ultrasonic sensor, a camera, Sensor devices such as an electric field sensor, an infrared distance sensor, a laser distance sensor, and a distance image sensor are used. The sensor used for the pen position detection sensor 2104 is not particularly limited, and the pen-type input on the projection plane of the projected image 2101 is performed in combination with a microcomputer that processes sensor data and software that operates on the microcomputer. It is only necessary to have a function of obtaining the position of the pen tip of the device 100.

また、前記プロジェクタ2100は、前記ペン位置検出センサ2104で得られる前記ペン型入力装置100のペン先の位置から、前記投写映像2101に対応する座標を算出し、さらに、前記座標の位置や動きに応じて前記投写映像2101で表示する映像内のグラフィックの位置や動き、構成等を変化させる。これにより、ユーザは、前記ペン型入力装置100を用いて前記投写映像2101に対する操作を行うことができる。   Further, the projector 2100 calculates coordinates corresponding to the projected image 2101 from the position of the pen tip of the pen type input device 100 obtained by the pen position detection sensor 2104, and further calculates the position and movement of the coordinates. Accordingly, the position, movement, configuration, etc. of the graphic in the video displayed on the projected video 2101 are changed. As a result, the user can perform an operation on the projected image 2101 using the pen-type input device 100.

図3は、前記ペン型入力装置100、前記プロジェクタ2100の構成の一例を示す。図3において、前記ペン型入力装置100の構成は先に述べたものと同等である。図3の前記プロジェクタ2100において、2300はペン位置検出部、2301は演算部、2302はペン通信部、2303は操作部、2304は中央処理部、2305はメモリ、2306は映像制御部、2307は映像投写部である。   FIG. 3 shows an example of the configuration of the pen-type input device 100 and the projector 2100. In FIG. 3, the configuration of the pen-type input device 100 is the same as that described above. In the projector 2100 of FIG. 3, 2300 is a pen position detection unit, 2301 is a calculation unit, 2302 is a pen communication unit, 2303 is an operation unit, 2304 is a central processing unit, 2305 is a memory, 2306 is a video control unit, and 2307 is a video. It is a projection unit.

ペン位置検出部2300は、前記ペン位置検出センサ2104や、前記ペン位置検出センサ2104のセンサデータを処理するマイコン、及びマイコン上で動作するソフトウェア等で構成され、前記投写映像2101に対する前記ペン型入力装置100のペン先の位置を検出する。   The pen position detection unit 2300 includes the pen position detection sensor 2104, a microcomputer that processes sensor data of the pen position detection sensor 2104, software that operates on the microcomputer, and the like, and the pen-type input for the projection image 2101 The position of the pen tip of the device 100 is detected.

演算部2301は、回路基板などで構成され、前記ペン位置検出部2300で得られる前記ペン型入力装置100のペン先の位置や、後述するペン通信部2302を介して得られる前記ペン型入力装置100の傾き、握られ方、他の物体との接触状態などの情報を演算処理し、前記ペン型入力装置100を用いたユーザの各種操作の状態を決定する。   The arithmetic unit 2301 is composed of a circuit board or the like, and the pen-type input device obtained via the pen-tip position of the pen-type input device 100 obtained by the pen-position detecting unit 2300 or the pen communication unit 2302 described later. Information such as the inclination of 100, how to be gripped, and the contact state with other objects is processed to determine the state of various operations of the user using the pen-type input device 100.

ペン通信部2302は、超音波ユニットや赤外線通信装置などの無線通信装置、もしくは、ユニバーサルシリアルバス(USB)などの有線通信装置で構成され、前記ペン型入力装置100と通信できるインタフェースである。前記ペン通信部2302は、前記ペン型入力装置100から、傾き、握られ方、他の物体との接触状態などの情報を受信する。操作部2303は、ボタンやスイッチ、操作パネルなどで構成され、ユーザからの入力を受け付けることができるインタフェースである。   The pen communication unit 2302 includes a wireless communication device such as an ultrasonic unit or an infrared communication device, or a wired communication device such as a universal serial bus (USB), and is an interface that can communicate with the pen-type input device 100. The pen communication unit 2302 receives information from the pen-type input device 100 such as tilt, how to hold, and contact state with other objects. The operation unit 2303 includes buttons, switches, an operation panel, and the like, and is an interface that can accept input from the user.

中央処理部2304は、中央処理装置(以下、CPU)等の半導体チップや、オペレーティングシステム(以下、OS)等のソフトウェアで構成され、前記演算部2301から得られるユーザの各種操作の状態や、前記操作部2303からのユーザの入力に基づいて、後述するメモリ2305への情報の入出力や、後述する映像制御部2306、映像投写部2307等の前記プロジェクタ2100の各部を制御する。   The central processing unit 2304 is composed of a semiconductor chip such as a central processing unit (hereinafter referred to as CPU), software such as an operating system (hereinafter referred to as OS), and various user operation states obtained from the arithmetic unit 2301. Based on a user input from the operation unit 2303, input / output of information to / from a memory 2305, which will be described later, and each unit of the projector 2100 such as a video control unit 2306, a video projection unit 2307, which will be described later, are controlled.

メモリ2305は、半導体などで構成され、前記中央処理部2304の演算や制御に必要な情報や、前記投写映像2101として表示する映像情報などを記憶する。映像制御部2306は、回路基板などで構成され、前記中央処理部2304の制御に応じて、映像情報の描画に必要な演算処理を行い、後述する映像投写部2307の入力に適した形式で、画素の集合からなる描画情報を出力する。   The memory 2305 is composed of a semiconductor or the like, and stores information necessary for calculation and control of the central processing unit 2304, video information to be displayed as the projected video 2101, and the like. The video control unit 2306 is composed of a circuit board or the like, performs arithmetic processing necessary for drawing video information in accordance with the control of the central processing unit 2304, and has a format suitable for input to the video projection unit 2307 described later. Rendering information consisting of a set of pixels is output.

映像投写部2307は、ランプ等の光源や、レンズ、反射ミラー等の光学部品や、液晶パネル等から構成され、光源から出射される光束を変調して、前記映像制御部2306から得られる描画情報に応じた画像光を形成し、スクリーン等の投写面上に前記画像光を拡大投写する。   The image projection unit 2307 is composed of a light source such as a lamp, optical components such as a lens and a reflection mirror, a liquid crystal panel, and the like, and draws information obtained from the image control unit 2306 by modulating a light beam emitted from the light source. Image light corresponding to the above is formed, and the image light is enlarged and projected on a projection surface such as a screen.

なお、図3の各部は独立しているが、必要に応じて1または複数の構成要件で構成してもよい。例えば、2301と2304と2305と2306は、1または複数の半導体チップ(Syetem−on−a−chip:SoC等)でその処理を行うように構成してもよい。   In addition, although each part of FIG. 3 is independent, you may comprise by one or several structural requirements as needed. For example, 2301, 2304, 2305, and 2306 may be configured to perform the processing using one or a plurality of semiconductor chips (System-on-a-chip: SoC, etc.).

次に、図4を用いて、前記プロジェクタ2100が、前記ペン型入力装置100のペン先の位置、および、ペン先の接触有無の情報、前記ペン先にかかる応力の情報、前記ペン型入力装置の傾きの情報に応じて、前記投写映像2101で表示する映像内のグラフィックの位置や動き、構成等を変化させる際の処理の流れを示す。   Next, referring to FIG. 4, the projector 2100 detects the position of the pen tip of the pen type input device 100, information on whether or not the pen tip is in contact, information on stress applied to the pen tip, and the pen type input device. The flow of processing when changing the position, movement, configuration, etc. of the graphic in the video displayed in the projected video 2101 in accordance with the tilt information of the projection video 2101 is shown.

図4は、前記プロジェクタ2100において、主に前記中央処理部2304が行う制御の流れを示す処理フローである。
S2401では、前記ペン位置検出部2300で得られる、前記ペン型入力装置100のペン先の位置の検出状態を判定し、検出できると、S2402に進む。
FIG. 4 is a processing flow showing a flow of control mainly performed by the central processing unit 2304 in the projector 2100.
In S2401, the detection state of the position of the pen tip of the pen-type input device 100 obtained by the pen position detection unit 2300 is determined, and if it can be detected, the process proceeds to S2402.

S2402では、前記ペン通信部2302でで得られる、前記ペン型入力装置100のペン先の接触状態、ペン先の圧力、ペンの傾き方向の検出状態を判定し、検出できると、S2403に進む。   In S2402, the pen tip contact state, the pen tip pressure, and the pen tilt direction detection state obtained by the pen communication unit 2302 are determined and detected, and the process proceeds to S2403.

なお、S2401とS2402で、前記ペン型入力装置100のペン先の位置等が検出できない場合には、S2401およびS2402の処理が繰り返し行われる。   If the position of the pen tip of the pen-type input device 100 cannot be detected in S2401 and S2402, the processes in S2401 and S2402 are repeated.

S2403では、前記ペン型入力装置100のペン先の位置、ペン先の接触状態、ペン先の圧力、ペンの傾き方向の検出状態に応じて、前記投写映像2101で表示する映像内のグラフィックの位置や動き、構成等を変化させる。前記グラフィックの位置や動き、構成等の変化の詳細については、別図を用いて後述する。   In step S2403, the position of the graphic in the image displayed on the projected image 2101 according to the position of the pen tip of the pen type input device 100, the pen tip contact state, the pen tip pressure, and the pen tilt direction detection state. Change movement, composition, etc. Details of changes in the position, movement, configuration, etc. of the graphic will be described later with reference to another drawing.

また、S2404では、ユーザが、前記操作部2303を介した所定の操作などで、前記ペン型入力装置100による操作を終了する指示をしたかを判定し、終了が指示されていない場合には、S2401以降の処理が継続して行われる。   In S2404, it is determined whether the user has instructed to end the operation of the pen-type input device 100 by a predetermined operation via the operation unit 2303. If the end is not instructed, The processes after S2401 are continuously performed.

次に、図5から図8を用いて、前記ペン型入力装置100のペン先の位置、ペン先の接触状態、ペン先の圧力、ペンの傾き方向の検出状態に応じて、前記投写映像2101で表示する映像内のグラフィックの位置や動き、構成等の変化について説明する。   Next, referring to FIGS. 5 to 8, the projected image 2101 according to the pen tip position, the pen tip contact state, the pen tip pressure, and the pen tilt direction detection state of the pen input device 100. A description will be given of changes in the position, movement, composition, etc. of the graphic in the video displayed in FIG.

図5は、前記投写映像2101で表示する映像内のグラフィックの構成と、ユーザが前記ペン型入力装置100を用いて前記グラフィックを操作した際の外観の一例を示す。図5において、2500は歪センサ出力グラフであり、2501はフィードバックGUI、2502はアイコン、2503は線形グラフィックである。   FIG. 5 shows an example of the configuration of the graphic in the video displayed as the projected video 2101 and the appearance when the user operates the graphic using the pen-type input device 100. In FIG. 5, 2500 is a strain sensor output graph, 2501 is a feedback GUI, 2502 is an icon, and 2503 is a linear graphic.

歪センサ出力グラフ2500は、図3と同様に、前記ペン型入力装置100の前記歪検出部101における出力を示している。また、前記歪センサ出力グラフ2500は、前記ペン型入力装置100において、前記歪センサ200が図4と同様に配置された場合の一例を示している。   A strain sensor output graph 2500 shows the output of the strain detection unit 101 of the pen-type input device 100, as in FIG. The strain sensor output graph 2500 shows an example of the pen-type input device 100 in which the strain sensor 200 is arranged in the same manner as in FIG.

従って、前記歪センサ出力グラフ2500において、Δε<Elを満たす場合は、前記ペン型入力装置100が前記壁面2103に接触し、かつ、ユーザから見て左側に傾いた状態となる。また、Δε>Erを満たす場合は、同様に前記ペン型入力装置100がユーザから見て右側に傾いた状態となる。   Accordingly, when Δε <E1 is satisfied in the strain sensor output graph 2500, the pen-type input device 100 is in contact with the wall surface 2103 and tilted to the left as viewed from the user. When Δε> Er is satisfied, the pen-type input device 100 is similarly inclined to the right when viewed from the user.

フィードバックGUI2501は、前記投写映像2101に表示されるグラフィックである。アイコン2502および線形グラフィック2503は、前記フィードバックGUI2501を構成するグラフィック部品である。また、フィードバックGUI2501は、プロジェクタ2100における前記ペン型入力装置100の傾きの認識状態を、ユーザが視覚的に把握できるようにするための表示となる。   The feedback GUI 2501 is a graphic displayed on the projected video 2101. An icon 2502 and a linear graphic 2503 are graphic parts constituting the feedback GUI 2501. Further, the feedback GUI 2501 is a display for allowing the user to visually recognize the inclination recognition state of the pen-type input device 100 in the projector 2100.

図5の(a)に示すように、ユーザが前記ペン型入力装置100をユーザから見て左側に傾けることにより、前記ペン型入力装置100の歪検出部101における出力がΔε<εlを満たす場合は、前記プロジェクタ2100は、前記フィードバックGUI2501において前記アイコン2502が前記線形グラフィック2503の左端に移動した表示を行う。同様に、図5の(c)に示すように、ユーザが前記ペン型入力装置100をユーザから見て右側に傾けた場合は、前記フィードバックGUI2501において、前記アイコン2502が前記線形グラフィック2503の右端に移動した表示となる。   As shown in FIG. 5A, when the user tilts the pen-type input device 100 to the left when viewed from the user, the output from the strain detection unit 101 of the pen-type input device 100 satisfies Δε <εl. The projector 2100 performs display in which the icon 2502 is moved to the left end of the linear graphic 2503 in the feedback GUI 2501. Similarly, as shown in FIG. 5C, when the user tilts the pen-type input device 100 to the right when viewed from the user, the icon 2502 is displayed at the right end of the linear graphic 2503 in the feedback GUI 2501. The display is moved.

上述したように、前記プロジェクタ2100が、前記ペン型入力装置100の傾きの認識状態に応じて、前記フィードバックGUI2501の表示を変更することにより、ユーザが、前記ペン型入力装置100の傾きに応じた操作を行う際に、操作状況を視覚的に確認しながら確実に操作できる効果が得られる。
なお、図5では、前記プロジェクタ2100が、前記ペン型入力装置100の傾きを、図5の(a)、(b)、(c)の3段階で認識することを説明したが、前記Δεによる前記ペン型入力装置100の傾き判定のために、複数の段階の閾値を設け、前記ペン型入力装置100の傾きを複数の段階で認識することにより、上記と同様の操作を実現してもよい。
As described above, the projector 2100 changes the display of the feedback GUI 2501 in accordance with the tilt recognition state of the pen type input device 100, so that the user can change the display of the pen type input device 100. When performing the operation, the effect of being able to operate reliably while visually confirming the operation status is obtained.
In FIG. 5, it has been described that the projector 2100 recognizes the tilt of the pen-type input device 100 in three stages of FIG. 5 (a), (b), and (c). In order to determine the tilt of the pen-type input device 100, a plurality of threshold levels may be provided, and the same operation as described above may be realized by recognizing the tilt of the pen-type input device 100 in a plurality of steps. .

次に、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101に対して行う操作パターンの一例を説明する。
図6は、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101に線を描画する操作を行う際の、前記投写映像2101の表示とユーザの操作の外観を示す。図6において、2600は消しゴムアイコンである。
消しゴムアイコン2600は、前記投写映像2101に表示されるグラフィックである。
Next, an example of an operation pattern performed on the projection image 2101 by the user using the pen-type input device 100 will be described.
FIG. 6 shows the appearance of the projected image 2101 and the appearance of the user's operation when the user performs an operation of drawing a line on the projected image 2101 using the pen-type input device 100. In FIG. 6, 2600 is an eraser icon.
An eraser icon 2600 is a graphic displayed on the projected image 2101.

図6の(a)に示すように、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きで持ち、前記ペン型入力装置100のペン先を前記壁面2103に接触させた状態で移動すると、前記プロジェクタ2100は、前記ペン型入力装置100のペン先の位置に沿って、前記投写映像2101に線を描画する。   As shown in FIG. 6A, the user moves the pen-type input device 100 while holding the pen-type input device 100 at a predetermined writing angle and keeping the pen tip of the pen-type input device 100 in contact with the wall surface 2103. Then, the projector 2100 draws a line on the projected image 2101 along the position of the pen tip of the pen-type input device 100.

一方、図6の(b)に示すように、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きよりもユーザから見て左側に大きく傾けて持ち、前記ペン型入力装置100のペン先を前記壁面2103に接触させた状態で移動すると、前記プロジェクタ2100は、前記投写映像2101に前記消しゴムアイコン2600を表示すると同時に、前記ペン型入力装置100のペン先の位置に沿って、前記投写映像2101にある線を削除する。また、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きに戻すと、前記プロジェクタ2100は、前記投写映像2101の前記消しゴムアイコン2600の表示を消し、先に述べた図6の(a)と同じ状態となる。   On the other hand, as shown in FIG. 6B, the user holds the pen-type input device 100 by tilting it to the left as viewed from the user with respect to a predetermined writing angle, and the pen of the pen-type input device 100. When the projector 2100 moves in a state in which the tip is in contact with the wall surface 2103, the projector 2100 displays the eraser icon 2600 on the projection image 2101, and at the same time, projects the projection along the pen tip position of the pen-type input device 100. The line in the video 2101 is deleted. When the user returns the pen-type input device 100 to a predetermined writing tilt, the projector 2100 turns off the display of the eraser icon 2600 of the projected image 2101 and (a) of FIG. ).

なお、前記プロジェクタ2100は、ユーザの前記ペン型入力装置100を用いた操作における、時間経過に伴う前記ペン型入力装置100の傾きの変化から、通常の筆記時の傾きを推定するなどして、前記所定の筆記時の傾きを動的に定めてもよい。   The projector 2100 estimates the inclination during normal writing from the change in the inclination of the pen-type input device 100 over time in the operation of the user using the pen-type input device 100. The predetermined writing inclination may be dynamically determined.

図7は、先に述べた図6とは異なる方法で、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101に線を描画する操作を行う場合の、前記投写映像2101の表示とユーザの操作の外観を示す。   FIG. 7 shows the display of the projected image 2101 when the user performs an operation of drawing a line on the projected image 2101 using the pen-type input device 100 by a method different from that shown in FIG. The external appearance of a user's operation is shown.

図7の(a)は、ユーザが前記投写映像2101にある線を削除する際の操作を示している。図7の(a−1)に示すように、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きよりもユーザから見て左側に大きく一度傾けると、前記プロジェクタ2100は、前記投写映像2101に前記消しゴムアイコン2600を表示すると同時に、前記ペン型入力装置100のペン先の位置に沿って、前記投写映像2101にある線が削除する。また、図7の(a−2)に示すように、先に述べた図6とは異なり、ユーザが前記ペン型入力装置100を所定の筆記時の傾きに戻した後も、前記消しゴムアイコン2600が表示され、前記投写映像2101にある線が削除される状態は継続される。   FIG. 7A shows an operation when the user deletes a line in the projected image 2101. As shown in (a-1) of FIG. 7, when the user tilts the pen-type input device 100 once more to the left as viewed from the user than a predetermined writing angle, the projector 2100 displays the projected image. At the same time that the eraser icon 2600 is displayed on 2101, the line in the projected image 2101 is deleted along the position of the pen tip of the pen-type input device 100. Further, as shown in (a-2) of FIG. 7, unlike FIG. 6 described above, the eraser icon 2600 is displayed even after the user returns the pen-type input device 100 to a predetermined writing inclination. Is displayed, and the state in which the line in the projected image 2101 is deleted continues.

一方、図7の(b)は、ユーザが前記投写映像2101に線を描画する際の操作を示している。図7の(b−1)に示すように、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きよりもユーザから見て右側に大きく一度傾けると、前記プロジェクタ2100は、前記投写映像2101の消しゴムアイコン2600の表示を消し、先に述べた図6の(a)と同様に前記投写映像2101に線が描画される。   On the other hand, FIG. 7B shows an operation when the user draws a line on the projected image 2101. As shown in (b-1) of FIG. 7, when the user tilts the pen-type input device 100 once more to the right as viewed from the user than the tilt at the time of writing, the projector 2100 displays the projected image. The display of the eraser icon 2600 2101 is erased, and a line is drawn on the projected image 2101 as in FIG. 6A described above.

また、図8に示すように、図7の(a−1)と同様に、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きよりもユーザから見て左側に大きく一度傾けると、前記プロジェクタ2100は、前記投写映像2101に描画する線を太くし、図7の(b−1)と同様に、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きよりもユーザから見て右側に大きく一度傾けると、前記プロジェクタ2100は、前記投写映像2101に描画する線を細くしてもよい。   Further, as shown in FIG. 8, as in (a-1) of FIG. 7, when the user tilts the pen-type input device 100 once more to the left side as viewed from the user than the predetermined writing angle, The projector 2100 thickens the line to be drawn on the projected image 2101, and the user sees the pen-type input device 100 from the user rather than a predetermined writing inclination, as in (b-1) of FIG. When the projector 2100 is tilted to the right once, the line drawn on the projected image 2101 may be thinned.

上述したように、前記プロジェクタ2100が、前記ペン型入力装置100の傾きの認識状態に応じて、前記投写映像2101への線の描画、線の削除の操作や、描画する線の太さを切り替えることにより、ユーザが、前記ペン型入力装置100を傾ける簡単な操作で、前記投写映像2101に対する操作を切り替えることができる効果が得られる。   As described above, the projector 2100 switches the drawing operation of the line on the projection image 2101, the deletion operation of the line, and the thickness of the line to be drawn according to the inclination recognition state of the pen-type input device 100. Accordingly, an effect is obtained in which the user can switch the operation on the projection image 2101 with a simple operation of tilting the pen-type input device 100.

なお、図3で説明した前記プロジェクタ2100は、前記2300〜2307の各部を全て前記プロジェクタ2100の内部に構成しているが、例えば、図9に示すように、前記プロジェクタ2100の1または複数の構成要件を、前記プロジェクタ2100と接続されたパーソナルコンピュータ(以下、PC)2900に構成するなどして、前記プロジェクタ2100と前記PC2900の組合せにより、同等の機能を実現してもよい。   The projector 2100 described with reference to FIG. 3 includes all the components 2300 to 2307 inside the projector 2100. For example, as illustrated in FIG. 9, one or more configurations of the projector 2100 are provided. An equivalent function may be realized by combining the projector 2100 and the PC 2900 by configuring the requirements in a personal computer (hereinafter, PC) 2900 connected to the projector 2100.

また、図3で説明した前記プロジェクタ2100は、例えば、図10に示すように、タブレット端末3000等のディスプレイに映像を表示する装置とし、前記タブレット端末3000が前記ペン位置検出部2300や前記演算部2301、前記ペン通信部2302を備えることにより、前記ディスプレイの映像において同等の機能を実現してもよい。   Further, for example, as shown in FIG. 10, the projector 2100 described in FIG. 3 is a device that displays an image on a display such as a tablet terminal 3000, and the tablet terminal 3000 includes the pen position detection unit 2300 and the calculation unit. 2301 and the pen communication unit 2302 may be provided to realize an equivalent function in the video of the display.

次に、実施例2を説明する。実施例2では、実施例1で述べた前記ペン型入力装置100を用いた前記プロジェクタ2100の前記投写映像2101の操作において、前記ペン型入力装置100の傾きに応じて、前記投写映像2101に表示されるグラフィックの表示と非表示の切り替え操作、および表示位置を変更する操作について説明する。   Next, Example 2 will be described. In the second embodiment, in the operation of the projected image 2101 of the projector 2100 using the pen-type input device 100 described in the first embodiment, the projection image 2101 is displayed according to the tilt of the pen-type input device 100. The graphic display / non-display switching operation and the operation for changing the display position will be described.

図11は、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101にメニューを表示する操作を行う際の、前記投写映像2101の表示とユーザの操作の外観を示す。図11において、3100はメニューGUIである。   FIG. 11 shows the appearance of the projected image 2101 and the user's operation when the user performs an operation for displaying a menu on the projected image 2101 using the pen-type input device 100. In FIG. 11, 3100 is a menu GUI.

メニューGUI3100は、前記投写映像2101に表示されるグラフィックである。前記メニューGUI3100には、所定の操作をユーザが選択して実行できる操作ボタンが含まれており、前記所定の操作は、例えば、一般的なPCのOSと同様に、予めユーザが選択したテキスト、グラフィックについての、切り取り、コピー等の操作となる。   A menu GUI 3100 is a graphic displayed on the projected video 2101. The menu GUI 3100 includes operation buttons that allow a user to select and execute a predetermined operation. The predetermined operation is, for example, a text selected by a user in advance, as in a general PC OS. Operations such as cutting and copying for graphics.

図11の(a)に示すように、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きよりもユーザから見て右側に大きく一度傾けると、前記プロジェクタ2100は、前記ペン型入力装置100のペン先の位置に、前記メニューGUI3100を表示する。また、図11の(b)に示すように、ユーザは、表示された前記メニューGUI3100の操作ボタンを選択できる。   As shown in FIG. 11 (a), when the user tilts the pen-type input device 100 once more to the right than the predetermined writing angle, the projector 2100 moves the pen-type input device. The menu GUI 3100 is displayed at the position of the 100 nib. Further, as shown in FIG. 11B, the user can select an operation button of the displayed menu GUI 3100.

一方、図11の(c)に示すように、前記メニューGUI3100が表示されている状態で、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きよりもユーザから見て左側に大きく一度傾けると、前記メニューGUI3100は非表示の状態となる。   On the other hand, as shown in FIG. 11 (c), in a state where the menu GUI 3100 is displayed, the user once increases the pen-type input device 100 to the left as viewed from the user with respect to a predetermined writing inclination. When tilted, the menu GUI 3100 is not displayed.

図12は、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101にメニューを表示する操作を行う際の、前記投写映像2101の表示とユーザの操作の外観を示す。図12では、先に説明した図11とは異なり、ユーザが左右どちらの手で前記ペン型入力装置100を持つかによって、前記メニューGUIの表示位置が異なる。図12では、3200はポインタである。   FIG. 12 shows the appearance of the projected image 2101 and the user's operation when the user performs an operation of displaying a menu on the projected image 2101 using the pen-type input device 100. In FIG. 12, unlike the above-described FIG. 11, the display position of the menu GUI differs depending on whether the user holds the pen-type input device 100 with his / her left or right hand. In FIG. 12, 3200 is a pointer.

ポインタ3200は、所定投写映像2101に表示されるグラフィックであり、ユーザが、前記ペン型入力装置100のペン先で指し示す位置を、前記投写映像2101において視覚的に確認するためのグラフィックである。   The pointer 3200 is a graphic displayed on the predetermined projected image 2101, and is a graphic for visually confirming the position indicated by the pen tip of the pen-type input device 100 on the projected image 2101.

図12で示す操作において、前記プロジェクタ2100は、先に述べたように前記所定の筆記時の傾きを動的に定めている。また、図12に示すように、前記所定の筆記時の傾きが、前記ペン型入力装置100の歪センサ出力においてΔε<E0を満たす場合は、前記プロジェクタ2100は、ユーザが左手で前記ペン型入力装置100を持っていると判定し、同様に、Δε>E0を満たす場合はユーザが右手で前記ペン型入力装置100を持っていると判定する。さらに、ユーザが図11の説明と同様の操作でメニューGUI3100を表示させた場合に、前記プロジェクタ2100は、ユーザが左手で前記ペン型入力装置100を持っていると判定した場合には、図12の(a−1)に示すように、前記ペン型入力装置100のペン先の位置の右側に前記メニューGUI3100を表示し、ユーザが右手で前記ペン型入力装置100を持っていると判定した場合には、図12の(a−2)に示すように、前記ペン型入力装置100のペン先の位置の左側に前記メニューGUI3100を表示する。   In the operation shown in FIG. 12, the projector 2100 dynamically determines the predetermined writing inclination as described above. Also, as shown in FIG. 12, when the predetermined writing inclination satisfies Δε <E0 in the strain sensor output of the pen-type input device 100, the projector 2100 has the user's left hand as the pen-type input. It is determined that the device 100 is held. Similarly, when Δε> E0 is satisfied, it is determined that the user has the pen-type input device 100 with the right hand. Furthermore, when the user displays the menu GUI 3100 by the same operation as described with reference to FIG. 11, the projector 2100 determines that the user has the pen-type input device 100 with the left hand. (A-1), when the menu GUI 3100 is displayed on the right side of the pen tip position of the pen-type input device 100 and it is determined that the user has the pen-type input device 100 with the right hand As shown in FIG. 12A-2, the menu GUI 3100 is displayed on the left side of the position of the pen tip of the pen-type input device 100.

なお、図12の(b)に示す、前記ポインタ3200等の前記投写映像2101に表示される他のグラフィックや、先に述べた実施例1、ないし、後述する他の実施例の操作においても、図12の(a)の説明と同様に、前記プロジェクタ2100が、ユーザが左右どちらの手で前記ペン型入力装置100を持っているかによって、前記プロジェクタ2100の操作に有効な前記ペン型入力装置100の傾きや、前記グラフィックの表示の位置や角度、グラフィックの種類等を変更してもよい。   In addition, in other graphics displayed on the projected image 2101 such as the pointer 3200 shown in FIG. 12B, or in the operation of the first embodiment described above or other embodiments described later, Similar to the description of FIG. 12A, the projector 2100 is effective in operating the projector 2100 depending on whether the user has the pen input device 100 with the left or right hand. The inclination, the display position and angle of the graphic, the graphic type, and the like may be changed.

図13は、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101にメニューを表示する操作を行う際の、前記投写映像2101の表示とユーザの操作の外観を示す。図13では、先に説明した図11および図12とは異なり、ユーザが前記ペン型入力装置100を傾ける操作によって、前記投写映像2101においてグラフィックが移動する。図13では、3300はパネルGUIであり、3301は前記ペン型入力装置100のペン先の位置を示す。   FIG. 13 shows the appearance of the projected image 2101 and the user's operation when the user performs an operation for displaying a menu on the projected image 2101 using the pen-type input device 100. In FIG. 13, unlike FIGS. 11 and 12 described above, the graphic moves in the projected image 2101 by the user tilting the pen-type input device 100. In FIG. 13, 3300 is a panel GUI, and 3301 indicates the position of the pen tip of the pen-type input device 100.

パネルGUI3300は、前記投写映像2101に表示されるグラフィックであり、複数並べられたパネルの中から、任意のパネルを選択および操作するためのグラフィックの構造を持つ。   The panel GUI 3300 is a graphic displayed on the projected image 2101 and has a graphic structure for selecting and operating an arbitrary panel from a plurality of arranged panels.

図13の(1−a)に示すように、ユーザが前記ペン型入力装置100のペン先で前記投写映像2101の右上にあるパネル3の位置を指示した状態で、ユーザから見て左側の方向に前記ペン型入力装置100を傾けると、図13の(2−a)に示すように、前記プロジェクタ2100は、前記パネル3が前記投写映像2101の中央に位置するように、前記パネルGUI3300の位置を移動する。同様に、図13の(1−c)に示すように、ユーザが前記ペン型入力装置100のペン先で前記投写映像2101の左上にあるパネル1の位置を指示した状態で、ユーザから見て右側の方向に前記ペン型入力装置100を傾けると、図13の(2−c)に示すように、前記プロジェクタ2100は、前記パネル1が前記投写映像2101の中央に位置するように、前記パネルGUI3300の位置を移動する。   As shown in (1-a) of FIG. 13, the user points the position of the panel 3 at the upper right of the projected image 2101 with the pen tip of the pen type input device 100, and the left direction as viewed from the user. When the pen-type input device 100 is tilted, the projector 2100 moves the position of the panel GUI 3300 so that the panel 3 is positioned at the center of the projected image 2101 as shown in FIG. To move. Similarly, as shown in (1-c) of FIG. 13, the user indicates the position of the panel 1 at the upper left of the projected image 2101 with the pen tip of the pen-type input device 100, and is viewed from the user. When the pen-type input device 100 is tilted in the right direction, the projector 2100 is arranged such that the panel 1 is positioned at the center of the projected image 2101 as shown in (2-c) of FIG. The position of the GUI 3300 is moved.

上述したように、前記プロジェクタ2100が、前記ペン型入力装置100の傾きや位置の認識状態に応じて、前記投写映像2101に表示されるGUIの表示と非表示の切り替え操作、および表示位置を変更することにより、ユーザが、前記ペン型入力装置100を傾ける簡単な操作で、前記投写映像2101に対する操作を円滑に行える効果が得られる。   As described above, the projector 2100 switches the display and non-display of the GUI displayed on the projected image 2101 and changes the display position in accordance with the tilt and position recognition state of the pen-type input device 100. As a result, the user can smoothly operate the projected image 2101 with a simple operation of tilting the pen-type input device 100.

次に、実施例3を説明する。実施例3では、実施例1で述べた前記ペン型入力装置100を用いた前記プロジェクタ2100の前記投写映像2101の操作において、前記ペン型入力装置100の傾きの連続的な変化に応じた操作について説明する。   Next, Example 3 will be described. In the third embodiment, in the operation of the projection image 2101 of the projector 2100 using the pen-type input device 100 described in the first embodiment, the operation according to the continuous change in the tilt of the pen-type input device 100. explain.

図14は、図25と同様に、前記投写映像2101で表示する映像内のグラフィックの構成と、ユーザが前記ペン型入力装置100を用いて前記グラフィックを操作した際の外観の一例を示す。図14では、先に説明した図25と前記フィードバックGUI2501の表示の変化が異なり、前記歪センサ出力グラフ2500の歪センサ出力で示されるΔεの連続的な変化に応じて、前記フィードバックGUI2501において、前記アイコン2502が前記線形グラフィック2503の上を連続的に移動する。   FIG. 14 shows an example of the configuration of the graphic in the video displayed as the projected video 2101 and the appearance when the user operates the graphic using the pen-type input device 100, as in FIG. In FIG. 14, the change in display of the feedback GUI 2501 is different from that in FIG. 25 described above, and in the feedback GUI 2501 according to the continuous change of Δε indicated by the strain sensor output of the strain sensor output graph 2500, An icon 2502 moves continuously over the linear graphic 2503.

次に、ユーザが前記ペン型入力装置100の傾きの連続的に変化を用いて、前記投写映像2101に対して行う操作パターンの一例を説明する。
図15は、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101のグラフィックを操作する際の、前記投写映像2101の表示とユーザの操作の外観を示す。図15において、3500はページめくりGUIであり、3501はスクロールGUI、3502は動画コンテンツ、3503はタイムバーGUIである。
Next, an example of an operation pattern performed on the projected image 2101 by using a continuous change in the tilt of the pen-type input device 100 will be described.
FIG. 15 shows the appearance of the projected image 2101 and the user's operation when the user operates the graphic of the projected image 2101 using the pen-type input device 100. In FIG. 15, 3500 is a page turning GUI, 3501 is a scroll GUI, 3502 is a moving image content, and 3503 is a time bar GUI.

ページめくりGUI3500は、前記投写映像2101に表示されるグラフィックであり、左右にページがめくられるグラフィックの動きにより、表示されるページが切り替えられる。   The page turning GUI 3500 is a graphic displayed on the projected video 2101, and the displayed page is switched by the movement of the graphic that turns the page left and right.

スクロールGUI3501は、前記投写映像2101に表示されるグラフィックであり、横一列にパネルが並んでおり、前記パネルが左右に移動するグラフィックの動きにより、前記パネルの表示位置が変更される。   The scroll GUI 3501 is a graphic displayed on the projected image 2101. The panels are arranged in a horizontal row, and the display position of the panel is changed by the movement of the graphic that the panel moves to the left and right.

動画コンテンツ3502は、前記投写映像2101に表示される、いわゆるムービー等の動画である。タイムバーGUI3503は、前記投写映像2101に表示されるグラフィックであり、前記タイムバーの中のグラフィックの位置や大きさ、色の変化により、前記動画コンテンツ3502の再生位置を示す。   The moving image content 3502 is a moving image such as a so-called movie displayed on the projected image 2101. A time bar GUI 3503 is a graphic displayed on the projected video 2101, and indicates a playback position of the moving image content 3502 by a change in the position, size, and color of the graphic in the time bar.

図15(a)及び(1)に示すように、ユーザが、前記ペン型入力装置100を、ユーザから見て左側に傾けると、前記プロジェクタ2100は、前記歪センサ出力で示されるΔεの変化に応じて、前記ページめくりGUI3500で表示中のページを、前記投写映像2101の左方向に移動させる。また、ユーザが、前記ペン型入力装置100を、ユーザから見て左側にさらに大きく傾け、例えば、図14の前記歪センサ出力グラフ2500においてΔε<Elを満たす場合には、前記プロジェクタ2100は前記、前記ページめくりGUI3500で表示中のページを、前記投写映像2101の左方向の外側に移動させ、前記ページめくりGUI3500で表示中のページが切り替わる。 図15(c)及び(1)に示すように、ユーザが、前記ペン型入力装置100を、ユーザから見て右側に傾けた場合も同様となる。   As shown in FIGS. 15A and 15A, when the user tilts the pen-type input device 100 to the left as viewed from the user, the projector 2100 changes to Δε indicated by the strain sensor output. In response, the page being displayed on the page turning GUI 3500 is moved to the left of the projected video 2101. Further, when the user further tilts the pen-type input device 100 to the left when viewed from the user, for example, when Δε <El is satisfied in the strain sensor output graph 2500 of FIG. 14, the projector 2100 The page being displayed on the page turning GUI 3500 is moved to the outside in the left direction of the projected image 2101, and the page being displayed on the page turning GUI 3500 is switched. The same applies when the user tilts the pen-type input device 100 to the right as viewed from the user, as shown in FIGS.

また、図15(a)及び(2)に示すように、ユーザが、前記スクロールGUI3501を操作する場合も、前記ページめくりGUI3500の操作と同様となり、ユーザが、前記ペン型入力装置100を傾けた方向に応じて、前記プロジェクタ2100は、前記スクロールGUI3501の前記パネルを移動させる。なお、前記歪センサ出力で示されるΔεの変化に応じて、前記パネルが移動する速度が変化してもよい。   As shown in FIGS. 15A and 15B, when the user operates the scroll GUI 3501, the operation is the same as the operation of the page turning GUI 3500, and the user tilts the pen-type input device 100. The projector 2100 moves the panel of the scroll GUI 3501 according to the direction. The speed at which the panel moves may change according to the change in Δε indicated by the strain sensor output.

また、図15(a)及び(3)に示すように、ユーザが、前記タイムバーGUI3503を操作する場合も、前記ページめくりGUI3500の操作と同様となり、ユーザが、前記ペン型入力装置100を傾けた方向に応じて、前記プロジェクタ2100は、前記タイムバーGUI3503で示される前記動画コンテンツ3502の再生位置を移動させる。なお、前記歪センサ出力で示されるΔεの変化に応じて、前記再生位置が移動する速度が変化してもよい。   As shown in FIGS. 15A and 15C, when the user operates the time bar GUI 3503, the operation is the same as the operation of the page turning GUI 3500, and the user tilts the pen-type input device 100. The projector 2100 moves the playback position of the moving image content 3502 indicated by the time bar GUI 3503 in accordance with the selected direction. Note that the speed at which the reproduction position moves may change according to a change in Δε indicated by the strain sensor output.

なお、図16に示すように、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101に操作する際に、前記ペン型入力装置100のペン先の位置に対して、前記ポインタ3200の位置がずれており、いわゆるキャリブレーションなどで前記ポインタ3200の位置を補正する場合に、図15で説明と同様に、ユーザが前記ペン型入力装置100の傾きを変化させることによって、前記ポインタ3200の位置を移動して補正してもよい。   As shown in FIG. 16, when the user operates the projection image 2101 using the pen type input device 100, the pointer 3200 is moved with respect to the position of the pen tip of the pen type input device 100. When the position is shifted and the position of the pointer 3200 is corrected by so-called calibration or the like, the user changes the inclination of the pen-type input device 100 as described with reference to FIG. You may correct | amend by moving a position.

図17は、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101のグラフィックを操作する際の、前記投写映像2101の表示とユーザの操作の外観を示す。図17において、3700は画像表示GUIであり、3701は画像一覧GUIである。   FIG. 17 shows the appearance of the projected image 2101 and the user's operation when the user operates the graphic of the projected image 2101 using the pen-type input device 100. In FIG. 17, 3700 is an image display GUI, and 3701 is an image list GUI.

画像表示GUI3700は、前記投写映像2101に表示されるグラフィックであり、写真やイラスト等の画像データを表示し、前記画像データを、拡大、縮小、移動など操作を行いながら閲覧できる。   The image display GUI 3700 is a graphic displayed on the projected video 2101, displays image data such as photographs and illustrations, and can browse the image data while performing operations such as enlargement, reduction, and movement.

画像一覧GUI3701は、前記投写映像2101に表示されるグラフィックであり、写真やイラスト等の複数の画像データを同時に表示し、前記複数の画像データの全部もしくは一部を、拡大、縮小、移動など操作を行いながら閲覧できる。   The image list GUI 3701 is a graphic displayed on the projected image 2101 and displays a plurality of image data such as photographs and illustrations at the same time, and performs operations such as enlarging, reducing, and moving all or part of the plurality of image data. You can browse while doing.

図17(a)及び(1)に示すように、ユーザが、前記ペン型入力装置100を、ユーザから見て左側に傾けると、前記プロジェクタ2100は、前記歪センサ出力で示されるΔεの変化に応じて、前記画像表示GUI3700で表示中の画像データを縮小する。また、図17(c)及び(1)に示すように、ユーザが、前記ペン型入力装置100を、ユーザから見て右側に傾けた場合は、前記画像表示GUI3700で表示中の画像データは拡大する。   As shown in FIGS. 17A and 17A, when the user tilts the pen-type input device 100 to the left as viewed from the user, the projector 2100 changes to Δε indicated by the strain sensor output. Accordingly, the image data being displayed on the image display GUI 3700 is reduced. As shown in FIGS. 17C and 17A, when the user tilts the pen-type input device 100 to the right side when viewed from the user, the image data being displayed on the image display GUI 3700 is enlarged. To do.

なお、前記歪センサ出力で示されるΔεの変化に応じて、前記画像表示GUI3700で表示中の画像データの拡大または縮小の変化の速度が変化してもよい。また、図17の(1)では、前記画像表示GUI3600で表示中の画像データが、前記投写映像2101の中心に位置したまま拡大または縮小したが、前記図17の(2)に示すように、前記ペン型入力装置100の前記ペン先の位置3301を中心にして、前記画像表示GUI3700で表示中の画像データを拡大または縮小させてもよい。   It should be noted that the rate of change in enlargement or reduction of the image data being displayed on the image display GUI 3700 may change in accordance with the change in Δε indicated by the strain sensor output. In FIG. 17A, the image data being displayed on the image display GUI 3600 is enlarged or reduced while being positioned at the center of the projected image 2101. As shown in FIG. The image data being displayed on the image display GUI 3700 may be enlarged or reduced about the pen tip position 3301 of the pen-type input device 100.

図17(a)及び(3)に示すように、ユーザが、前記ペン型入力装置100を、ユーザから見て左側に傾けると、前記プロジェクタ2100は、前記歪センサ出力で示されるΔεの変化に応じて、前記画像一覧GUI3701で表示中の画像データの全体の表示を縮小する。また、図17(c)及び(3)に示すように、ユーザが、前記ペン型入力装置100を、ユーザから見て右側に傾けた場合は、前記画像一覧GUI3701で表示中の画像データのうち、前記ペン型入力装置100のペン先の位置3301に対応する画像データを拡大する。   As shown in FIGS. 17 (a) and (3), when the user tilts the pen-type input device 100 to the left when viewed from the user, the projector 2100 changes to Δε indicated by the strain sensor output. Accordingly, the entire display of the image data being displayed in the image list GUI 3701 is reduced. As shown in FIGS. 17C and 17C, when the user tilts the pen-type input device 100 to the right side when viewed from the user, the image data displayed on the image list GUI 3701 The image data corresponding to the pen tip position 3301 of the pen-type input device 100 is enlarged.

なお、図18に示すように、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101に円3800等の図形を描画する際にも、前記画像表示GUI3700と同様に、前記ペン型入力装置100の傾きに応じて、前記図形の拡大または縮小させてもよい。   As shown in FIG. 18, when the user draws a figure such as a circle 3800 on the projected video 2101 using the pen input device 100, the pen input is performed in the same manner as the image display GUI 3700. Depending on the inclination of the apparatus 100, the figure may be enlarged or reduced.

上述したように、前記プロジェクタ2100が、前記ペン型入力装置100の傾きの連続的な変化に応じて、前記投写映像2101に表示されるGUIに対する操作を実行することにより、ユーザが、前記ペン型入力装置100を傾ける簡単な操作で、前記投写映像2101に対する操作を円滑に行える効果が得られる。   As described above, the projector 2100 performs an operation on the GUI displayed on the projection image 2101 in accordance with a continuous change in the tilt of the pen-type input device 100, so that the user can perform the pen-type operation. With the simple operation of tilting the input device 100, an effect can be obtained in which the operation on the projected image 2101 can be performed smoothly.

次に、実施例4を説明する。実施例4では、実施例1で述べたペン型入力装置100を用いた前記プロジェクタ2100の前記投写映像2101の操作において、前記ペン型入力装置100のペン先にかかる応力に応じた操作について説明する。   Next, Example 4 will be described. In the fourth embodiment, in the operation of the projection image 2101 of the projector 2100 using the pen-type input device 100 described in the first embodiment, an operation according to the stress applied to the pen tip of the pen-type input device 100 will be described. .

図19は、前記投写映像2101で表示する映像内のグラフィックの構成と、ユーザが前記ペン型入力装置100を用いて前記グラフィックを操作した際の外観の一例を示す。図19において、3900は操作レイヤーA、3901は操作レイヤーBである。   FIG. 19 shows an example of the configuration of the graphic in the video displayed as the projected video 2101 and the appearance when the user operates the graphic using the pen-type input device 100. In FIG. 19, 3900 is the operation layer A, and 3901 is the operation layer B.

操作レイヤーA3900、および、操作レイヤーB3901は、前記投写映像2101における仮想的な操作領域であり、それぞれに独立してグラフィックを構成することにより、ユーザは、前記操作レイヤーA3900、または、前記操作レイヤーB3901のどちらかを所定の操作で選択して、選択した前記操作レイヤーに対して、グラフィックの描画等の操作を行うことができる。また、図19(a)に示すように、前記操作レイヤーA3900と前記操作レイヤーB3901は、前記投写映像2101において重ねて表示することができ、ユーザは、それぞれの操作レイヤーに対して操作を行った結果を、ひとつの映像として合成して閲覧することができる。   The operation layer A 3900 and the operation layer B 3901 are virtual operation areas in the projected image 2101, and the user independently configures graphics so that the user can operate the operation layer A 3900 or the operation layer B 3901. One of these can be selected by a predetermined operation, and an operation such as graphic drawing can be performed on the selected operation layer. Further, as shown in FIG. 19A, the operation layer A 3900 and the operation layer B 3901 can be displayed in an overlapped manner in the projection image 2101, and the user has operated each operation layer. The result can be viewed as a single video.

図19の(b)は、ユーザが、前記ペン型入力装置100を前記壁面2103に押し付ける力の強さによって、前記操作レイヤーA3900、または、前記操作レイヤーB3901のどちらかが選択できる様子を示している。従って、前記歪センサ出力グラフ2500の歪センサ出力において、|Δε|≦Esを満たす場合には、前記プロジェクタ2100は、ユーザが前記操作レイヤーA3900に対して操作できるようにし、同様に、|Δε|>Esを満たす場合には、前記プロジェクタ2100は、ユーザが前記操作レイヤーB3901に対して操作できるようにする。   FIG. 19B shows that the user can select either the operation layer A 3900 or the operation layer B 3901 according to the strength of the force pressing the pen-type input device 100 against the wall surface 2103. Yes. Accordingly, in the strain sensor output of the strain sensor output graph 2500, when | Δε | ≦ Es is satisfied, the projector 2100 enables the user to operate the operation layer A 3900. Similarly, | Δε | If> Es is satisfied, the projector 2100 allows the user to operate the operation layer B3901.

図20は、前記プロジェクタ2100が、ユーザが前記投写映像2101に描画した線を、前記線の曲りを補正して直線的に表示する場合に、ユーザが前記ペン型入力装置100を前記壁面2103に押し付ける力の強さによって、前記線の曲りの補正の有無を切り替える様子を示している。   FIG. 20 shows that when the projector 2100 linearly displays a line drawn by the user on the projected image 2101 with the curvature of the line corrected, the user places the pen-type input device 100 on the wall surface 2103. It shows a state where the presence or absence of correction of the curve of the line is switched depending on the strength of the pressing force.

図20で示す操作において、前記プロジェクタ2100は、前記ペン型入力装置100の歪センサ出力が|Δε|>Es満たす場合には、前記線の曲りの補正を行わず、|Δε|≦Esを満たす場合には、前記線の曲りの補正を行う。従って、図20の(a)に示すように、ユーザが強い力で前記ペン型入力装置100を前記壁面2103に押し付けて移動すると、前記投写映像2101に前記ペン型入力装置100のペン先に沿った線が描画される。一方、図20の(b)に示すように、ユーザが弱い力で前記ペン型入力装置100を前記壁面2103に押し付けて移動すると、前記投写映像2101に前記ペン型入力装置100のペン先の軌道が直線的に補正された線が描画される。   In the operation shown in FIG. 20, when the strain sensor output of the pen-type input device 100 satisfies | Δε |> Es, the projector 2100 does not correct the curve of the line and satisfies | Δε | ≦ Es. In such a case, the bending of the line is corrected. Accordingly, as shown in FIG. 20A, when the user presses the pen-type input device 100 against the wall surface 2103 with a strong force, the projected image 2101 is moved along the pen tip of the pen-type input device 100. Drawn lines are drawn. On the other hand, as shown in FIG. 20B, when the user moves the pen-type input device 100 against the wall surface 2103 with a weak force, the trajectory of the pen-tip of the pen-type input device 100 on the projected image 2101. A line with a linear correction is drawn.

なお、図21に示すように、ユーザが前記ペン型入力装置100を前記壁面2103に押し付ける力が強すぎることで、例えば、前記ペン型入力装置100の歪センサ出力が|Δε|>Emaxを満たす場合には、警告アイコン4100等のグラフィックを前記投写映像2101に表示するなどして、前記プロジェクタ2100がユーザに注意を促してもよい。また、例えば、前記ペン型入力装置100の歪センサ出力が|Δε|<Emaxを満たす場合に、ユーザが前記ペン型入力装置100を前記壁面2103に押し付ける力が弱すぎる、もしくは、前記ペン型入力装置100のペン先が前記壁面2103から離れたとして、前記プロジェクタ2100が、前記警告アイコン4100や所定の警告音により、ユーザに注意を促してもよい。   As shown in FIG. 21, when the user presses the pen-type input device 100 against the wall surface 2103 too much, for example, the strain sensor output of the pen-type input device 100 satisfies | Δε |> Emax. In this case, the projector 2100 may alert the user by displaying a graphic such as a warning icon 4100 on the projected video 2101. Further, for example, when the strain sensor output of the pen-type input device 100 satisfies | Δε | <Emax, the user's force to press the pen-type input device 100 against the wall surface 2103 is too weak, or the pen-type input Assuming that the pen tip of the apparatus 100 has moved away from the wall surface 2103, the projector 2100 may alert the user with the warning icon 4100 or a predetermined warning sound.

上述したように、前記プロジェクタ2100が、前記ペン型入力装置100のペン先にかかる応力に応じて、前記投写映像2101に表示されるGUIに対する操作を実行することにより、ユーザが、前記ペン型入力装置100を前記壁面2103に押し付ける力を変更するだけの簡単な操作で、前記投写映像2101に対する操作を円滑に行える効果が得られる。   As described above, the projector 2100 performs an operation on the GUI displayed on the projection image 2101 in accordance with the stress applied to the pen tip of the pen input device 100, so that the user can input the pen input. An effect that the operation on the projected image 2101 can be smoothly performed by a simple operation of simply changing the force pressing the apparatus 100 against the wall surface 2103 is obtained.

次に、実施例5を説明する。実施例5では、実施例1で述べた前記ペン型入力装置100を用いた前記プロジェクタ2100の投写映像2101の操作において、前記ペン型入力装置100のペン先以外の応力に応じた操作について説明する。   Next, Example 5 will be described. In the fifth embodiment, in the operation of the projection image 2101 of the projector 2100 using the pen-type input device 100 described in the first embodiment, an operation according to stresses other than the pen tip of the pen-type input device 100 will be described. .

図22は、前記投写映像2101で表示する映像内のグラフィックの構成と、ユーザが前記ペン型入力装置100を用いて前記グラフィックを操作した際の外観の一例を示す。   FIG. 22 shows an example of the configuration of graphics in the video displayed as the projected video 2101 and the appearance when the user operates the graphics using the pen-type input device 100.

図22に示す前記ペン型入力装置100は、先に述べた図8と同様に、前記ペン型入力装置100のペン元の接触を検出することができる。これにより、図22の(a)に示すように、ユーザが前記ペン型入力装置100のペン先で前記投写映像2101を操作した場合には、先に述べた図26(a)と同様に、前記ペン型入力装置100のペン先の軌道に沿って、前記投写映像2101に線が描画される。また、図22の(b)に示すように、ユーザが前記ペン型入力装置100のペン元で前記投写映像2101を操作した場合には、先に述べた図26(b)と同様に、前記ペン型入力装置100のペン元の軌道に沿って、前記投写映像2101に予め描画されていた線が削除される。   The pen-type input device 100 shown in FIG. 22 can detect the contact of the pen base of the pen-type input device 100 as in FIG. 8 described above. Accordingly, as shown in FIG. 22A, when the user operates the projection image 2101 with the pen tip of the pen-type input device 100, as in FIG. A line is drawn on the projected image 2101 along the trajectory of the pen tip of the pen-type input device 100. Further, as shown in FIG. 22B, when the user operates the projection image 2101 at the pen base of the pen-type input device 100, the same as in FIG. A line previously drawn in the projected image 2101 is deleted along the pen source trajectory of the pen-type input device 100.

図23は、前記投写映像2101で表示する映像内のグラフィックの構成と、ユーザが前記ペン型入力装置100を用いて前記グラフィックを操作した際の外観の一例を示す。   FIG. 23 shows an example of the configuration of a graphic in the video displayed as the projected video 2101 and an external appearance when the user operates the graphic using the pen-type input device 100.

図23に示す前記ペン型入力装置100は、先に述べた図13と同様に、前記ペン型入力装置100の把持部をユーザが把持する力を検出することができる。これにより、図23の(a)に示すように、ユーザが把持する力前記ペン型入力装置100のペン先に近い部分を把持して、前記投写映像2101を操作した場合には、先に述べた図6(a)と同様に、筆記手段として前記ペン型入力装置100のペン先の軌道に沿って、前記投写映像2101に線が描画される。また、図23の(b)に示すように、ユーザが前記ペン型入力装置100のペン元に近い部分を把持して、ユーザの前記投写映像2101を操作した場合には、ユーザが把持する力を検出できない。この場合には、先に述べた図32(b)と同様に、前記ペン型入力装置100のペン先の位置に前記ポインタ3200が表示され、例えば、前記投写映像2101に表示されたボタンの選択等の指示手段として、前記ペン型入力装置100のペン先の位置に応じた操作を行うことができる。   The pen-type input device 100 shown in FIG. 23 can detect the force with which the user holds the grip portion of the pen-type input device 100, as in FIG. 13 described above. Accordingly, as shown in FIG. 23A, when the projected image 2101 is operated by gripping a portion close to the pen tip of the pen-type input device 100 as shown in FIG. Similarly to FIG. 6A, a line is drawn on the projected image 2101 along the trajectory of the pen tip of the pen-type input device 100 as writing means. Further, as shown in FIG. 23B, when the user grips a portion near the pen base of the pen-type input device 100 and operates the projection image 2101 of the user, the force gripped by the user Cannot be detected. In this case, similarly to the above-described FIG. 32B, the pointer 3200 is displayed at the position of the pen tip of the pen-type input device 100. For example, the selection of the button displayed on the projected image 2101 is selected. As an instruction means such as this, an operation according to the position of the pen tip of the pen-type input device 100 can be performed.

図24は、前記投写映像2101で表示する映像内のグラフィックの構成と、ユーザが前記ペン型入力装置100を用いて前記グラフィックを操作した際の外観の一例を示す。   FIG. 24 shows an example of the graphic configuration in the video displayed as the projected video 2101 and the appearance when the user operates the graphic using the pen-type input device 100.

図24に示す前記ペン型入力装置100は、先に述べた図13と同様に、前記ペン型入力装置100の把持部をユーザが把持する力を検出することができる。これにより、図24の(a)に示すように、ユーザが前記ペン型入力装置100のペン先の位置で、前記投写映像2101に表示されたアイコン等のグラフィックを指し示し、尚且つ、ユーザが前記ペン型入力装置100を強い力で把持すると、いわゆる、ドラッグ操作のように、前記ペン型入力装置100のペン先の位置に応じて、前記アイコン等のグラフィックの位置を移動させることができる。   The pen-type input device 100 shown in FIG. 24 can detect the force with which the user holds the grip portion of the pen-type input device 100, as in FIG. 13 described above. Accordingly, as shown in FIG. 24A, the user points to a graphic such as an icon displayed on the projected image 2101 at the position of the pen tip of the pen-type input device 100, and the user When the pen-type input device 100 is gripped with a strong force, the graphic position such as the icon can be moved according to the position of the pen tip of the pen-type input device 100 like a so-called drag operation.

なお、前記アイコン等のグラフィックの位置を移動させる際に、図24の(b)に示すように、ユーザが前記ペン型入力装置100を強い力で把持して、尚且つ、前記ペン型入力装置100のペン先を前記壁面2103に接触しない状態で前記ペン型入力装置100を移動させ、さらに、図24の(c)に示すように、前記ペン型入力装置100のペン先を再び前記壁面2103に接触させ、尚且つ、前記ペン型入力装置100を把持する力を弱めたときに、前記アイコン等のグラフィックの位置の移動が完了するようにしてもよい。   Note that when the graphic position such as the icon is moved, as shown in FIG. 24B, the user holds the pen-type input device 100 with a strong force, and the pen-type input device. The pen-type input device 100 is moved in a state where the pen tip of 100 does not contact the wall surface 2103, and the pen tip of the pen-type input device 100 is again moved to the wall surface 2103 as shown in FIG. Further, the movement of the graphic position such as the icon may be completed when the force of gripping the pen-type input device 100 is weakened.

また、上述した、前記ペン型入力装置100のペン元の接触を検出や、前記ペン型入力装置100の把持部をユーザが把持する力を検出により、前記プロジェクタ2100が、先に述べた他の実施例と同様の操作を行ってもよい。   In addition, the projector 2100 detects the contact of the pen base of the pen-type input device 100 described above, or detects the force with which the user holds the grip portion of the pen-type input device 100. You may perform operation similar to an Example.

上述したように、前記プロジェクタ2100が、前記ペン型入力装置100のペン元にかかる応力や、ユーザが前記ペン型入力装置100を把持する位置や力に応じて、前記投写映像2101に表示されるGUIに対する操作を実行することにより、ユーザが、前記ペン型入力装置100を用いた簡単な操作で、前記投写映像2101に対する操作を円滑に行える効果が得られる。   As described above, the projector 2100 is displayed on the projection image 2101 according to the stress applied to the pen base of the pen-type input device 100 and the position and force with which the user holds the pen-type input device 100. By executing the operation on the GUI, an effect can be obtained in which the user can smoothly operate the projection image 2101 with a simple operation using the pen-type input device 100.

なお、上述した本実施形態は本発明の説明のための例示であり、本発明の範囲を実施形態にのみ限定する趣旨ではない。   In addition, this embodiment mentioned above is an illustration for description of this invention, and is not the meaning which limits the scope of the present invention only to embodiment.

200…半導体歪センサ、201…センサ感度軸、
2100…プロジェクタ、2101…投写映像、2102…投写光、2103…壁面、
2104…ペン位置検出センサ、2500…歪センサ出力グラフ、
2501…フィードバックGUI、2502…アイコン、2503…線形グラフィック、
2600…消しゴムアイコン、2900…PC、3000…タブレット端末
3100…メニューGUI、3200…ポインタ、3300…パネルGUI、
3301…ペン先の位置、3700…画像表示GUI、3701…画像一覧GUI、
3800…円、3900…操作レイヤーA、3901…操作レイヤーB、
4100…警告アイコン警告アイコン
200: Semiconductor strain sensor, 201: Sensor sensitivity axis,
2100 ... Projector, 2101 ... Projected image, 2102 ... Projected light, 2103 ... Wall surface,
2104 ... Pen position detection sensor, 2500 ... Strain sensor output graph,
2501 ... Feedback GUI, 2502 ... Icon, 2503 ... Linear graphic,
2600 ... Eraser icon, 2900 ... PC, 3000 ... Tablet terminal 3100 ... Menu GUI, 3200 ... Pointer, 3300 ... Panel GUI,
3301 ... Pen tip position, 3700 ... Image display GUI, 3701 ... Image list GUI,
3800 ... circle, 3900 ... operation layer A, 3901 ... operation layer B,
4100 ... Warning icon Warning icon

Claims (4)

ペンで操作する映像表示装置であって、
グラフィカルユーザインタフェースを表示する表示手段と、
前記ペンの映像表示装置の表示面における位置を検出するペン位置検出手段と、
前記ペンのペン先の映像表示装置の表示面への接触の有無と、前記ペン先が接触する面に対する傾きを含むペン状態情報の入力手段と、を備え、
前記ペン位置検出手段が検出したペン位置情報により前記グラフィカルユーザインタフェースを特定し、
前記ペン状態情報に応じて前記グラフィカルユーザインタフェースの表示内容を変更し、
前記ペン状態情報の前記ペン先が接触する面に対する傾きの時間変化から標準のペン傾きを求め、入力された前記ペン状態情報の前記ペン先が接触する面に対する傾きが前記標準のペン傾きと異なる場合に、前記グラフィカルユーザインタフェースの表示内容を変更することを特徴とする映像表示装置。
A video display device operated with a pen,
Display means for displaying a graphical user interface;
Pen position detecting means for detecting the position of the pen on the display surface of the video display device;
The presence or absence of contact of the pen tip of the pen with the display surface of the video display device, and input means for pen state information including an inclination with respect to the surface with which the pen tip contacts,
The graphical user interface is identified by the pen position information detected by the pen position detecting means,
Change the display content of the graphical user interface according to the pen status information ,
A standard pen tilt is obtained from a change in the tilt of the pen status information with respect to the surface with which the pen tip contacts, and the tilt of the input pen status information with respect to the surface with which the pen tip contacts differs from the standard pen tilt In such a case, the display content of the graphical user interface is changed .
ペンで操作する映像表示装置であって、
グラフィカルユーザインタフェースを表示する表示手段と、
前記ペンの映像表示装置の表示面における位置を検出するペン位置検出手段と、
前記ペンのペン先の映像表示装置の表示面への接触の有無と、ユーザの前記ペンを把持する力を含むペン状態情報の入力手段と、を備え、
前記ペン位置検出手段が検出したペン位置情報により前記グラフィカルユーザインタフェースを特定し、前記ペン状態情報に応じて前記グラフィカルユーザインタフェースの表示内容を変更することを特徴とする映像表示装置。
A video display device operated with a pen,
Display means for displaying a graphical user interface;
Pen position detecting means for detecting the position of the pen on the display surface of the video display device;
Comprising the presence or absence of contact with the display surface of the pen nib of the video display device, an input means of the force of including pen state information for gripping the pen user, and
An image display device characterized in that the graphical user interface is specified by pen position information detected by the pen position detecting means, and the display content of the graphical user interface is changed in accordance with the pen state information.
請求項に記載の映像表示装置において、
前記ペン状態情報の前記ペンを把持する力が所定の値以上のときに、
前記ペン位置検出手段が検出したペン位置情報により特定されるグラフィック要素を移動することを特徴とする映像表示装置。
The video display device according to claim 2 ,
When the force for gripping the pen of the pen status information is equal to or larger than a predetermined value,
An image display apparatus characterized by moving a graphic element specified by pen position information detected by the pen position detecting means.
請求項に記載の映像表示装置において、
前記ペン状態情報の前記ペンを把持する力が検出できたときには、前記ペン位置検出手段が検出したペン位置情報により軌跡表示をおこない、前記ペン状態情報の前記ペンを把持する力が検出できなかったときには、前記ペン位置検出手段が検出したペン位置情報によりグラフィック要素の選択指示をおこなうことを特徴とする映像表示装置。
The video display device according to claim 2 ,
When the force for gripping the pen of the pen status information has been detected, it performs path display with the pen position information said pen position detecting means detects a force for gripping the pen of the pen status information can not be detected In some cases, an image display apparatus is configured to instruct selection of a graphic element based on pen position information detected by the pen position detecting means.
JP2012117106A 2012-05-23 2012-05-23 Video display device Active JP5808712B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012117106A JP5808712B2 (en) 2012-05-23 2012-05-23 Video display device
PCT/JP2013/054438 WO2013175819A1 (en) 2012-05-23 2013-02-22 Video display device and video operation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012117106A JP5808712B2 (en) 2012-05-23 2012-05-23 Video display device

Publications (2)

Publication Number Publication Date
JP2013242821A JP2013242821A (en) 2013-12-05
JP5808712B2 true JP5808712B2 (en) 2015-11-10

Family

ID=49623524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012117106A Active JP5808712B2 (en) 2012-05-23 2012-05-23 Video display device

Country Status (2)

Country Link
JP (1) JP5808712B2 (en)
WO (1) WO2013175819A1 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014110016A (en) * 2012-12-04 2014-06-12 Sharp Corp Drawing device
JP5977768B2 (en) 2014-01-14 2016-08-24 シャープ株式会社 Image display apparatus and operation method thereof
US10775901B2 (en) 2014-01-31 2020-09-15 Qualcomm Incorporated Techniques for identifying rolling gestures on a device
KR102356636B1 (en) 2015-06-26 2022-01-28 삼성전자주식회사 Input device, electronic apparatus for receiving signal from the input device and controlling method thereof
EP3314380A4 (en) * 2015-06-26 2018-08-22 Samsung Electronics Co., Ltd. Input device, electronic device for receiving signal from input device, and control method thereof
JP2017062662A (en) 2015-09-25 2017-03-30 ソニー株式会社 Information processor, information processing method and program
JP6586891B2 (en) 2016-01-13 2019-10-09 セイコーエプソン株式会社 Projector and projector control method
CN106203008A (en) * 2016-06-28 2016-12-07 宇龙计算机通信科技(深圳)有限公司 Terminal control method, terminal control mechanism and terminal
JP6221001B1 (en) * 2017-03-17 2017-10-25 京セラ株式会社 Electronic device, program, and control method
JP7225638B2 (en) * 2018-09-26 2023-02-21 富士フイルムビジネスイノベーション株式会社 Information processing system and program
JP7253939B2 (en) * 2019-03-07 2023-04-07 シャープ株式会社 pen type input device
KR20220017143A (en) * 2020-08-04 2022-02-11 삼성전자주식회사 Electronic device and method for dispalying electronic pen pointer in the same
KR20230023158A (en) * 2021-08-10 2023-02-17 삼성전자주식회사 Electronic device and the method for electronic pen operation
JP7473832B1 (en) 2022-12-01 2024-04-24 富士通クライアントコンピューティング株式会社 Electronic devices and programs

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0367320A (en) * 1989-05-01 1991-03-22 Wacom Co Ltd Angle information input device
JPH0337708A (en) * 1989-07-05 1991-02-19 Canon Inc Coordinate input device
JPH03171321A (en) * 1989-11-30 1991-07-24 Hitachi Ltd Input/output device
JP2995719B2 (en) * 1992-07-01 1999-12-27 松下電器産業株式会社 Pen input / menu display device
JPH06230880A (en) * 1993-01-29 1994-08-19 Hitachi Ltd Coordinate input pen with bar code reader
JP3120022B2 (en) * 1995-06-29 2000-12-25 シャープ株式会社 Pen input device
JPH10240422A (en) * 1997-02-25 1998-09-11 Fujitsu Takamizawa Component Kk Pen input panel
JPH11232389A (en) * 1998-02-09 1999-08-27 Pilot Corp Pattern recognition system by input pen and writing board recognition set equipped with the same
JP2002366294A (en) * 2001-06-13 2002-12-20 Minolta Co Ltd Data input device and program thereof
CN101308442B (en) * 2004-10-12 2012-04-04 日本电信电话株式会社 3d pointing method and 3d pointing device
JP2009003608A (en) * 2007-06-20 2009-01-08 Seiko Epson Corp Pen input device, and pen input method
JP2009266097A (en) * 2008-04-28 2009-11-12 Toshiba Corp Input device

Also Published As

Publication number Publication date
WO2013175819A1 (en) 2013-11-28
JP2013242821A (en) 2013-12-05

Similar Documents

Publication Publication Date Title
JP5808712B2 (en) Video display device
JP5295328B2 (en) User interface device capable of input by screen pad, input processing method and program
EP2256614B1 (en) Display control apparatus, display control method, and computer program
US8610678B2 (en) Information processing apparatus and method for moving a displayed object between multiple displays
KR101453628B1 (en) A user interface
US8669947B2 (en) Information processing apparatus, information processing method and computer program
JP6000797B2 (en) Touch panel type input device, control method thereof, and program
US9544556B2 (en) Projection control apparatus and projection control method
JP5713180B2 (en) Touch panel device that operates as if the detection area is smaller than the display area of the display.
JP2014026355A (en) Image display device and image display method
US20150268828A1 (en) Information processing device and computer program
JP6386897B2 (en) Electronic blackboard, information processing program, and information processing method
WO2011055451A1 (en) Information processing device, method therefor, and display device
US10114501B2 (en) Wearable electronic device using a touch input and a hovering input and controlling method thereof
JP5628991B2 (en) Display device, display method, and display program
JP2019045637A (en) Display control apparatus, pointer display method, and program
JP2016122345A (en) Image projection device and interactive input/output system
JP2012164047A (en) Information processor
JP6832813B2 (en) Display control device, pointer display method and program
JP2012146017A (en) Electronic blackboard system, electronic blackboard system control method, program and recording medium therefor
US20170351423A1 (en) Information processing apparatus, information processing method and computer-readable storage medium storing program
JP5713401B2 (en) User interface device for generating projected image signal for pointer projection, image projection method and program
JP6126639B2 (en) A portable game device having a touch panel display and a game program.
US20150241982A1 (en) Apparatus and method for processing user input
JP6079857B2 (en) Information processing device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140310

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140723

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150909

R150 Certificate of patent or registration of utility model

Ref document number: 5808712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250