JP2013242821A - 映像表示装置、およびその映像操作方法 - Google Patents

映像表示装置、およびその映像操作方法 Download PDF

Info

Publication number
JP2013242821A
JP2013242821A JP2012117106A JP2012117106A JP2013242821A JP 2013242821 A JP2013242821 A JP 2013242821A JP 2012117106 A JP2012117106 A JP 2012117106A JP 2012117106 A JP2012117106 A JP 2012117106A JP 2013242821 A JP2013242821 A JP 2013242821A
Authority
JP
Japan
Prior art keywords
pen
display device
video display
user interface
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012117106A
Other languages
English (en)
Other versions
JP5808712B2 (ja
Inventor
Takashi Matsubara
孝志 松原
Naoki Mori
直樹 森
Sakiko Tashiro
沙希子 田代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Consumer Electronics Co Ltd
Original Assignee
Hitachi Consumer Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Consumer Electronics Co Ltd filed Critical Hitachi Consumer Electronics Co Ltd
Priority to JP2012117106A priority Critical patent/JP5808712B2/ja
Priority to PCT/JP2013/054438 priority patent/WO2013175819A1/ja
Publication of JP2013242821A publication Critical patent/JP2013242821A/ja
Application granted granted Critical
Publication of JP5808712B2 publication Critical patent/JP5808712B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Abstract

【課題】
筆圧検出や傾き検出の状態検出をより高精度検出可能とした電子ペンを利用して、筆圧や傾きのペンの状態検出をおこなって、これを基により使い勝手の向上や新たな使用方法をもつ映像表示装置を提供する。
【解決手段】
グラフィカルユーザインタフェースを表示する表示手段と、前記ペンの映像表示装置の表示面における位置を検出するペン位置検出手段と、前記ペン先の映像表示装置の表示面への接触の有無と、前記ペン先が接触する面に対する傾きを含むのペン状態情報の入力手段と、を備え、前記ペン位置検出手段が検出したペン位置情報により前記グラフィカルユーザインタフェースを特定し、前記ペン状態情報に応じて前記グラフィカルユーザインタフェースの表示内容を変更する。
【選択図】図6

Description

本発明は、映像をホワイトボード等に投写するとともに、ホワイトボードに筆記入力をおこなえる映像表示装置に係り、電子ペンによる操作指示をおこなう映像表示装置およびその映像操作方法に関する。
近年、モニタの大画面化やプロジェクター装置の普及により、筆記用具で白板に文字や図形を記入するのと同じ形態で、データ表示した表示面にコンピュータによる加筆をおこなえる電子ペンが提供されている。この電子ペンには、軌跡情報をコンピューターに通知するとともに、電子ペンの筆圧や傾き等の操作情報をコンピュータに通知することが必要となる。
例えば、特許文献1に電子ペンの一例が示されている。詳しくは、特許文献1に開示される電子ペンは、使用者に把持される略筒状の筐体と、前記筐体の先端側に形成されたペン先部と、前記ペン先部の三次元的変位を検出して、前記ペン先部の筆圧または傾きを算出する検出手段と、を備えた構成であることが開示されている。
そして、電子ペンと、表示装置のタッチパネル面に前記電子ペンによりタッチされた座標位置を検出する座標位置検出装置と、前記座標位置検出装置の座標位置の検出結果に応じた情報を前記表示装置に表示させる表示制御装置とからなるタッチパネル装置において、前記電子ペンは、使用者に把持される略筒状の筐体と、前記筐体の先端側に形成されたペン先部と、前記ペン先部の三次元的変位を検出して、前記電子ペンの筆圧を算出する検出手段と、を含み、前記表示制御装置は、前記検出手段で算出された前記電子ペンの筆圧に応じて、前記表示装置に表示する情報の表示態様を変更することが開示されている。
上記の電子ペンを入力装置とした電子ボードシステムが、例えば、特許文献2に示されている。特許文献2に開示される電子ボードシステムでは、ボードに座標検出装置が取り付けられ電子ペンのボード上のペン位置情報を検出し、ペン先のスイッチ情報とペン位置情報から、ボードに筆記データを投影している。
特開2006−92410号公報 特開2010−79834号公報
前記特許文献1に記載の電子ペンによれば、電子ペンの筆圧やペン軸の傾きを検出できるようになったが、特許文献2に開示される電子ボードシステム等の表示装置では、従来の筆記用具の筆記機能を電子化にすぎず、新たな入力装置の機能を提供するまでには到っていない。
本発明の目的は、筆圧検出や傾き検出の状態検出をより高精度検出可能とした電子ペンを利用して、筆圧や傾きのペンの状態検出をおこなって、これを基により使い勝手の向上や新たな使用方法をもつ映像表示装置を提供することにある。
上記課題を解決するために、本発明のペンで操作する映像表示装置は、グラフィカルユーザインタフェースを表示する表示手段と、前記ペンの映像表示装置の表示面における位置を検出するペン位置検出手段と、前記ペン先の映像表示装置の表示面への接触の有無と、前記ペン先が接触する面に対する傾きを含むのペン状態情報の入力手段と、を備え、前記ペン位置検出手段が検出したペン位置情報により前記グラフィカルユーザインタフェースを特定し、前記ペン状態情報に応じて前記グラフィカルユーザインタフェースの表示内容を変更するようにした。
本発明によれば、ユーザが前記ペン型入力装置を用いてGUIに対して行う、線の描画、線の削除等の操作を、ユーザが円滑に切り替えることができるので、電子ボードシステム等の映像表示装置の操作性の向上効果をもたらす。
実施例1における映像表示装置をユーザが操作する外観の一例を示す図である。 実施例1における映像表示装置をユーザが操作する外観の一例を示す図である。 実施例1における映像表示装置の構成の一例を示す図である。 実施例1における処理の一例を示す図である。 実施例1における操作の一例を示す図である。 実施例1における操作の一例を示す図である。 実施例1における操作の一例を示す図である。 実施例1における操作の一例を示す図である。 実施例1における映像表示装置の構成の一例を示す図である。 実施例1における映像表示装置の構成の一例を示す図である。 実施例2における操作の一例を示す図である。 実施例2における操作の一例を示す図である。 実施例2における操作の一例を示す図である。 実施例3における操作の一例を示す図である。 実施例3における操作の一例を示す図である。 実施例3における操作の一例を示す図である。 実施例3における操作の一例を示す図である。 実施例3における操作の一例を示す図である。 実施例4における操作の一例を示す図である。 実施例4における操作の一例を示す図である。 実施例4における操作の一例を示す図である。 実施例5における操作の一例を示す図である。 実施例5における操作の一例を示す図である。 実施例5における操作の一例を示す図である。 実施例の電子ペンの構造例を示す図である。 電子ペンの歪検出の処理フロー 電子ペンの状態と歪検出値を関係を示す表である。
実施例の説明に先立ち、図25〜27により本実施例のペン型入力装置(電子ペン)の概要を説明する。図25は、実施例のペン型入力装置の構造の一例を示す図である。図26は、ペン型入力装置の状態と検出値の対応を示す表である。
本実施例ペン型入力装置の構造は、図25に示されるように、半導体歪センサ等の一方向の歪量に対応して出力値が変わる歪センサ(2501、2502)が、ペン軸の表面に設置された構造となっている。ユーザがぺん軸の把持部をもちボードやスクリーン等の筆記面に筆記動作をおこなってとき、前記歪センサは、ペン軸の変形量を歪量として検出する。本実施例では、この歪量からペン型入力装置のペン先の接触状態、ペン先の圧力、ペンの傾き方向を判定する。
ここで、図25には2つの半導体歪センサ(2501、2502)が記載されているが、歪量を検出できれば、この個数に限定されるものではなく、また、センサの設置場所も、ペン軸の表面に限定されず、ペン軸の内側や、内部表面であってもよい。
また、以下の実施例には記述していないが、ペン先以外に、ペン軸の央部や、ペン軸の元部に歪センサを設置したり、複数箇所に設置することにより、ペン軸のひねり動作、ペン軸の引っ張り/押し込み、ペン軸の保持状態等を判定でき、実施例以外の操作指示情報を示すことが可能となる。
図26は、前記歪センサで検出した歪量εを元に、ペン先の接触状態、ペン先の圧力、ペンの傾き方向を判定する処理フローをしめす。ここで、ε0は、歪センサの平衡状態のセンサ出力値を意味し、Eは、処理のためのセンサ閾値を意味する。
図27に、図26の処理フローのS503の具体的な処理内容を示す。図27に示す処理では、歪センサの出力する歪量の平衡状態からの変化量と閾値を比較し、その大小により、ペン先の筆記面への接触状態・ペンの傾き方向を判定する。
以下に、図面を参照しながら、本発明の実施例を説明する。
次に、実施例1を説明する。実施例1では、前記ペン型入力装置を用いたプロジェクタの投写映像の操作について説明する。
図1はユーザが前記ペン型入力装置を用いて、プロジェクタの投写映像を操作する一例の外観を示す。また、図2は、図1と同等の機器構成で側面から見た場合の外観を示す。図1および図2において、100は前記ペン型入力装置であり、2100はプロジェクタ、2101は投写映像、2102は投写光、2103は壁面、2104はペン位置検出センサである。
プロジェクタ2100は、壁面2103に取り付けられており、GUI等の所定の映像信号に基づき、投写光2102を出力することにより、前記壁面2103に投写映像2101を映し出す。
ペン位置検出センサ2104は、前記プロジェクタ2100が備えるセンサであり、前記投写映像2101に対する前記ペン型入力装置100のペン先の位置を検出する機能を有しており、例えば、超音波センサ、カメラ、電界センサ、赤外線距離センサ、レーザ距離センサ、距離画像センサなどのセンサデバイスが用いられる。前記ペン位置検出センサ2104に用いるセンサは、特に限定されず、センサデータを処理するマイコン、及びマイコン上で動作するソフトウェア等との組合せにより、前記投写映像2101の投写面上での前記ペン型入力装置100のペン先の位置が得られる機能を有すればよい。
また、前記プロジェクタ2100は、前記ペン位置検出センサ2104で得られる前記ペン型入力装置100のペン先の位置から、前記投写映像2101に対応する座標を算出し、さらに、前記座標の位置や動きに応じて前記投写映像2101で表示する映像内のグラフィックの位置や動き、構成等を変化させる。これにより、ユーザは、前記ペン型入力装置100を用いて前記投写映像2101に対する操作を行うことができる。
図3は、前記ペン型入力装置100、前記プロジェクタ2100の構成の一例を示す。図3において、前記ペン型入力装置100の構成は先に述べたものと同等である。図3の前記プロジェクタ2100において、2300はペン位置検出部、2301は演算部、2302はペン通信部、2303は操作部、2304は中央処理部、2305はメモリ、2306は映像制御部、2307は映像投写部である。
ペン位置検出部2300は、前記ペン位置検出センサ2104や、前記ペン位置検出センサ2104のセンサデータを処理するマイコン、及びマイコン上で動作するソフトウェア等で構成され、前記投写映像2101に対する前記ペン型入力装置100のペン先の位置を検出する。
演算部2301は、回路基板などで構成され、前記ペン位置検出部2300で得られる前記ペン型入力装置100のペン先の位置や、後述するペン通信部2302を介して得られる前記ペン型入力装置100の傾き、握られ方、他の物体との接触状態などの情報を演算処理し、前記ペン型入力装置100を用いたユーザの各種操作の状態を決定する。
ペン通信部2302は、超音波ユニットや赤外線通信装置などの無線通信装置、もしくは、ユニバーサルシリアルバス(USB)などの有線通信装置で構成され、前記ペン型入力装置100と通信できるインタフェースである。前記ペン通信部2302は、前記ペン型入力装置100から、傾き、握られ方、他の物体との接触状態などの情報を受信する。操作部2303は、ボタンやスイッチ、操作パネルなどで構成され、ユーザからの入力を受け付けることができるインタフェースである。
中央処理部2304は、中央処理装置(以下、CPU)等の半導体チップや、オペレーティングシステム(以下、OS)等のソフトウェアで構成され、前記演算部2301から得られるユーザの各種操作の状態や、前記操作部2303からのユーザの入力に基づいて、後述するメモリ2305への情報の入出力や、後述する映像制御部2306、映像投写部2307等の前記プロジェクタ2100の各部を制御する。
メモリ2305は、半導体などで構成され、前記中央処理部2304の演算や制御に必要な情報や、前記投写映像2101として表示する映像情報などを記憶する。映像制御部2306は、回路基板などで構成され、前記中央処理部2304の制御に応じて、映像情報の描画に必要な演算処理を行い、後述する映像投写部2307の入力に適した形式で、画素の集合からなる描画情報を出力する。
映像投写部2307は、ランプ等の光源や、レンズ、反射ミラー等の光学部品や、液晶パネル等から構成され、光源から出射される光束を変調して、前記映像制御部2306から得られる描画情報に応じた画像光を形成し、スクリーン等の投写面上に前記画像光を拡大投写する。
なお、図3の各部は独立しているが、必要に応じて1または複数の構成要件で構成してもよい。例えば、2301と2304と2305と2306は、1または複数の半導体チップ(Syetem−on−a−chip:SoC等)でその処理を行うように構成してもよい。
次に、図4を用いて、前記プロジェクタ2100が、前記ペン型入力装置100のペン先の位置、および、ペン先の接触有無の情報、前記ペン先にかかる応力の情報、前記ペン型入力装置の傾きの情報に応じて、前記投写映像2101で表示する映像内のグラフィックの位置や動き、構成等を変化させる際の処理の流れを示す。
図4は、前記プロジェクタ2100において、主に前記中央処理部2304が行う制御の流れを示す処理フローである。
S2401では、前記ペン位置検出部2300で得られる、前記ペン型入力装置100のペン先の位置の検出状態を判定し、検出できると、S2402に進む。
S2402では、前記ペン通信部2302でで得られる、前記ペン型入力装置100のペン先の接触状態、ペン先の圧力、ペンの傾き方向の検出状態を判定し、検出できると、S2403に進む。
なお、S2401とS2402で、前記ペン型入力装置100のペン先の位置等が検出できない場合には、S2401およびS2402の処理が繰り返し行われる。
S2403では、前記ペン型入力装置100のペン先の位置、ペン先の接触状態、ペン先の圧力、ペンの傾き方向の検出状態に応じて、前記投写映像2101で表示する映像内のグラフィックの位置や動き、構成等を変化させる。前記グラフィックの位置や動き、構成等の変化の詳細については、別図を用いて後述する。
また、S2404では、ユーザが、前記操作部2303を介した所定の操作などで、前記ペン型入力装置100による操作を終了する指示をしたかを判定し、終了が指示されていない場合には、S2401以降の処理が継続して行われる。
次に、図5から図8を用いて、前記ペン型入力装置100のペン先の位置、ペン先の接触状態、ペン先の圧力、ペンの傾き方向の検出状態に応じて、前記投写映像2101で表示する映像内のグラフィックの位置や動き、構成等の変化について説明する。
図5は、前記投写映像2101で表示する映像内のグラフィックの構成と、ユーザが前記ペン型入力装置100を用いて前記グラフィックを操作した際の外観の一例を示す。図5において、2500は歪センサ出力グラフであり、2501はフィードバックGUI、2502はアイコン、2503は線形グラフィックである。
歪センサ出力グラフ2500は、図3と同様に、前記ペン型入力装置100の前記歪検出部101における出力を示している。また、前記歪センサ出力グラフ2500は、前記ペン型入力装置100において、前記歪センサ200が図4と同様に配置された場合の一例を示している。
従って、前記歪センサ出力グラフ2500において、Δε<Elを満たす場合は、前記ペン型入力装置100が前記壁面2103に接触し、かつ、ユーザから見て左側に傾いた状態となる。また、Δε>Erを満たす場合は、同様に前記ペン型入力装置100がユーザから見て右側に傾いた状態となる。
フィードバックGUI2501は、前記投写映像2101に表示されるグラフィックである。アイコン2502および線形グラフィック2503は、前記フィードバックGUI2501を構成するグラフィック部品である。また、フィードバックGUI2501は、プロジェクタ2100における前記ペン型入力装置100の傾きの認識状態を、ユーザが視覚的に把握できるようにするための表示となる。
図5の(a)に示すように、ユーザが前記ペン型入力装置100をユーザから見て左側に傾けることにより、前記ペン型入力装置100の歪検出部101における出力がΔε<εlを満たす場合は、前記プロジェクタ2100は、前記フィードバックGUI2501において前記アイコン2502が前記線形グラフィック2503の左端に移動した表示を行う。同様に、図5の(c)に示すように、ユーザが前記ペン型入力装置100をユーザから見て右側に傾けた場合は、前記フィードバックGUI2501において、前記アイコン2502が前記線形グラフィック2503の右端に移動した表示となる。
上述したように、前記プロジェクタ2100が、前記ペン型入力装置100の傾きの認識状態に応じて、前記フィードバックGUI2501の表示を変更することにより、ユーザが、前記ペン型入力装置100の傾きに応じた操作を行う際に、操作状況を視覚的に確認しながら確実に操作できる効果が得られる。
なお、図5では、前記プロジェクタ2100が、前記ペン型入力装置100の傾きを、図5の(a)、(b)、(c)の3段階で認識することを説明したが、前記Δεによる前記ペン型入力装置100の傾き判定のために、複数の段階の閾値を設け、前記ペン型入力装置100の傾きを複数の段階で認識することにより、上記と同様の操作を実現してもよい。
次に、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101に対して行う操作パターンの一例を説明する。
図6は、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101に線を描画する操作を行う際の、前記投写映像2101の表示とユーザの操作の外観を示す。図6において、2600は消しゴムアイコンである。
消しゴムアイコン2600は、前記投写映像2101に表示されるグラフィックである。
図6の(a)に示すように、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きで持ち、前記ペン型入力装置100のペン先を前記壁面2103に接触させた状態で移動すると、前記プロジェクタ2100は、前記ペン型入力装置100のペン先の位置に沿って、前記投写映像2101に線を描画する。
一方、図6の(b)に示すように、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きよりもユーザから見て左側に大きく傾けて持ち、前記ペン型入力装置100のペン先を前記壁面2103に接触させた状態で移動すると、前記プロジェクタ2100は、前記投写映像2101に前記消しゴムアイコン2600を表示すると同時に、前記ペン型入力装置100のペン先の位置に沿って、前記投写映像2101にある線を削除する。また、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きに戻すと、前記プロジェクタ2100は、前記投写映像2101の前記消しゴムアイコン2600の表示を消し、先に述べた図6の(a)と同じ状態となる。
なお、前記プロジェクタ2100は、ユーザの前記ペン型入力装置100を用いた操作における、時間経過に伴う前記ペン型入力装置100の傾きの変化から、通常の筆記時の傾きを推定するなどして、前記所定の筆記時の傾きを動的に定めてもよい。
図7は、先に述べた図6とは異なる方法で、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101に線を描画する操作を行う場合の、前記投写映像2101の表示とユーザの操作の外観を示す。
図7の(a)は、ユーザが前記投写映像2101にある線を削除する際の操作を示している。図7の(a−1)に示すように、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きよりもユーザから見て左側に大きく一度傾けると、前記プロジェクタ2100は、前記投写映像2101に前記消しゴムアイコン2600を表示すると同時に、前記ペン型入力装置100のペン先の位置に沿って、前記投写映像2101にある線が削除する。また、図7の(a−2)に示すように、先に述べた図6とは異なり、ユーザが前記ペン型入力装置100を所定の筆記時の傾きに戻した後も、前記消しゴムアイコン2600が表示され、前記投写映像2101にある線が削除される状態は継続される。
一方、図7の(b)は、ユーザが前記投写映像2101に線を描画する際の操作を示している。図7の(b−1)に示すように、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きよりもユーザから見て右側に大きく一度傾けると、前記プロジェクタ2100は、前記投写映像2101の消しゴムアイコン2600の表示を消し、先に述べた図6の(a)と同様に前記投写映像2101に線が描画される。
また、図8に示すように、図7の(a−1)と同様に、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きよりもユーザから見て左側に大きく一度傾けると、前記プロジェクタ2100は、前記投写映像2101に描画する線を太くし、図7の(b−1)と同様に、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きよりもユーザから見て右側に大きく一度傾けると、前記プロジェクタ2100は、前記投写映像2101に描画する線を細くしてもよい。
上述したように、前記プロジェクタ2100が、前記ペン型入力装置100の傾きの認識状態に応じて、前記投写映像2101への線の描画、線の削除の操作や、描画する線の太さを切り替えることにより、ユーザが、前記ペン型入力装置100を傾ける簡単な操作で、前記投写映像2101に対する操作を切り替えることができる効果が得られる。
なお、図3で説明した前記プロジェクタ2100は、前記2300〜2307の各部を全て前記プロジェクタ2100の内部に構成しているが、例えば、図9に示すように、前記プロジェクタ2100の1または複数の構成要件を、前記プロジェクタ2100と接続されたパーソナルコンピュータ(以下、PC)2900に構成するなどして、前記プロジェクタ2100と前記PC2900の組合せにより、同等の機能を実現してもよい。
また、図3で説明した前記プロジェクタ2100は、例えば、図10に示すように、タブレット端末3000等のディスプレイに映像を表示する装置とし、前記タブレット端末3000が前記ペン位置検出部2300や前記演算部2301、前記ペン通信部2302を備えることにより、前記ディスプレイの映像において同等の機能を実現してもよい。
次に、実施例2を説明する。実施例2では、実施例1で述べた前記ペン型入力装置100を用いた前記プロジェクタ2100の前記投写映像2101の操作において、前記ペン型入力装置100の傾きに応じて、前記投写映像2101に表示されるグラフィックの表示と非表示の切り替え操作、および表示位置を変更する操作について説明する。
図11は、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101にメニューを表示する操作を行う際の、前記投写映像2101の表示とユーザの操作の外観を示す。図11において、3100はメニューGUIである。
メニューGUI3100は、前記投写映像2101に表示されるグラフィックである。前記メニューGUI3100には、所定の操作をユーザが選択して実行できる操作ボタンが含まれており、前記所定の操作は、例えば、一般的なPCのOSと同様に、予めユーザが選択したテキスト、グラフィックについての、切り取り、コピー等の操作となる。
図11の(a)に示すように、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きよりもユーザから見て右側に大きく一度傾けると、前記プロジェクタ2100は、前記ペン型入力装置100のペン先の位置に、前記メニューGUI3100を表示する。また、図11の(b)に示すように、ユーザは、表示された前記メニューGUI3100の操作ボタンを選択できる。
一方、図11の(c)に示すように、前記メニューGUI3100が表示されている状態で、ユーザが、前記ペン型入力装置100を所定の筆記時の傾きよりもユーザから見て左側に大きく一度傾けると、前記メニューGUI3100は非表示の状態となる。
図12は、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101にメニューを表示する操作を行う際の、前記投写映像2101の表示とユーザの操作の外観を示す。図12では、先に説明した図11とは異なり、ユーザが左右どちらの手で前記ペン型入力装置100を持つかによって、前記メニューGUIの表示位置が異なる。図12では、3200はポインタである。
ポインタ3200は、所定投写映像2101に表示されるグラフィックであり、ユーザが、前記ペン型入力装置100のペン先で指し示す位置を、前記投写映像2101において視覚的に確認するためのグラフィックである。
図12で示す操作において、前記プロジェクタ2100は、先に述べたように前記所定の筆記時の傾きを動的に定めている。また、図12に示すように、前記所定の筆記時の傾きが、前記ペン型入力装置100の歪センサ出力においてΔε<E0を満たす場合は、前記プロジェクタ2100は、ユーザが左手で前記ペン型入力装置100を持っていると判定し、同様に、Δε>E0を満たす場合はユーザが右手で前記ペン型入力装置100を持っていると判定する。さらに、ユーザが図11の説明と同様の操作でメニューGUI3100を表示させた場合に、前記プロジェクタ2100は、ユーザが左手で前記ペン型入力装置100を持っていると判定した場合には、図12の(a−1)に示すように、前記ペン型入力装置100のペン先の位置の右側に前記メニューGUI3100を表示し、ユーザが右手で前記ペン型入力装置100を持っていると判定した場合には、図12の(a−2)に示すように、前記ペン型入力装置100のペン先の位置の左側に前記メニューGUI3100を表示する。
なお、図12の(b)に示す、前記ポインタ3200等の前記投写映像2101に表示される他のグラフィックや、先に述べた実施例1、ないし、後述する他の実施例の操作においても、図12の(a)の説明と同様に、前記プロジェクタ2100が、ユーザが左右どちらの手で前記ペン型入力装置100を持っているかによって、前記プロジェクタ2100の操作に有効な前記ペン型入力装置100の傾きや、前記グラフィックの表示の位置や角度、グラフィックの種類等を変更してもよい。
図13は、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101にメニューを表示する操作を行う際の、前記投写映像2101の表示とユーザの操作の外観を示す。図13では、先に説明した図11および図12とは異なり、ユーザが前記ペン型入力装置100を傾ける操作によって、前記投写映像2101においてグラフィックが移動する。図13では、3300はパネルGUIであり、3301は前記ペン型入力装置100のペン先の位置を示す。
パネルGUI3300は、前記投写映像2101に表示されるグラフィックであり、複数並べられたパネルの中から、任意のパネルを選択および操作するためのグラフィックの構造を持つ。
図13の(1−a)に示すように、ユーザが前記ペン型入力装置100のペン先で前記投写映像2101の右上にあるパネル3の位置を指示した状態で、ユーザから見て左側の方向に前記ペン型入力装置100を傾けると、図13の(2−a)に示すように、前記プロジェクタ2100は、前記パネル3が前記投写映像2101の中央に位置するように、前記パネルGUI3300の位置を移動する。同様に、図13の(1−c)に示すように、ユーザが前記ペン型入力装置100のペン先で前記投写映像2101の左上にあるパネル1の位置を指示した状態で、ユーザから見て右側の方向に前記ペン型入力装置100を傾けると、図13の(2−c)に示すように、前記プロジェクタ2100は、前記パネル1が前記投写映像2101の中央に位置するように、前記パネルGUI3300の位置を移動する。
上述したように、前記プロジェクタ2100が、前記ペン型入力装置100の傾きや位置の認識状態に応じて、前記投写映像2101に表示されるGUIの表示と非表示の切り替え操作、および表示位置を変更することにより、ユーザが、前記ペン型入力装置100を傾ける簡単な操作で、前記投写映像2101に対する操作を円滑に行える効果が得られる。
次に、実施例3を説明する。実施例3では、実施例1で述べた前記ペン型入力装置100を用いた前記プロジェクタ2100の前記投写映像2101の操作において、前記ペン型入力装置100の傾きの連続的な変化に応じた操作について説明する。
図14は、図25と同様に、前記投写映像2101で表示する映像内のグラフィックの構成と、ユーザが前記ペン型入力装置100を用いて前記グラフィックを操作した際の外観の一例を示す。図14では、先に説明した図25と前記フィードバックGUI2501の表示の変化が異なり、前記歪センサ出力グラフ2500の歪センサ出力で示されるΔεの連続的な変化に応じて、前記フィードバックGUI2501において、前記アイコン2502が前記線形グラフィック2503の上を連続的に移動する。
次に、ユーザが前記ペン型入力装置100の傾きの連続的に変化を用いて、前記投写映像2101に対して行う操作パターンの一例を説明する。
図15は、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101のグラフィックを操作する際の、前記投写映像2101の表示とユーザの操作の外観を示す。図15において、3500はページめくりGUIであり、3501はスクロールGUI、3502は動画コンテンツ、3503はタイムバーGUIである。
ページめくりGUI3500は、前記投写映像2101に表示されるグラフィックであり、左右にページがめくられるグラフィックの動きにより、表示されるページが切り替えられる。
スクロールGUI3501は、前記投写映像2101に表示されるグラフィックであり、横一列にパネルが並んでおり、前記パネルが左右に移動するグラフィックの動きにより、前記パネルの表示位置が変更される。
動画コンテンツ3502は、前記投写映像2101に表示される、いわゆるムービー等の動画である。タイムバーGUI3503は、前記投写映像2101に表示されるグラフィックであり、前記タイムバーの中のグラフィックの位置や大きさ、色の変化により、前記動画コンテンツ3502の再生位置を示す。
図15(a)及び(1)に示すように、ユーザが、前記ペン型入力装置100を、ユーザから見て左側に傾けると、前記プロジェクタ2100は、前記歪センサ出力で示されるΔεの変化に応じて、前記ページめくりGUI3500で表示中のページを、前記投写映像2101の左方向に移動させる。また、ユーザが、前記ペン型入力装置100を、ユーザから見て左側にさらに大きく傾け、例えば、図14の前記歪センサ出力グラフ2500においてΔε<Elを満たす場合には、前記プロジェクタ2100は前記、前記ページめくりGUI3500で表示中のページを、前記投写映像2101の左方向の外側に移動させ、前記ページめくりGUI3500で表示中のページが切り替わる。 図15(c)及び(1)に示すように、ユーザが、前記ペン型入力装置100を、ユーザから見て右側に傾けた場合も同様となる。
また、図15(a)及び(2)に示すように、ユーザが、前記スクロールGUI3501を操作する場合も、前記ページめくりGUI3500の操作と同様となり、ユーザが、前記ペン型入力装置100を傾けた方向に応じて、前記プロジェクタ2100は、前記スクロールGUI3501の前記パネルを移動させる。なお、前記歪センサ出力で示されるΔεの変化に応じて、前記パネルが移動する速度が変化してもよい。
また、図15(a)及び(3)に示すように、ユーザが、前記タイムバーGUI3503を操作する場合も、前記ページめくりGUI3500の操作と同様となり、ユーザが、前記ペン型入力装置100を傾けた方向に応じて、前記プロジェクタ2100は、前記タイムバーGUI3503で示される前記動画コンテンツ3502の再生位置を移動させる。なお、前記歪センサ出力で示されるΔεの変化に応じて、前記再生位置が移動する速度が変化してもよい。
なお、図16に示すように、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101に操作する際に、前記ペン型入力装置100のペン先の位置に対して、前記ポインタ3200の位置がずれており、いわゆるキャリブレーションなどで前記ポインタ3200の位置を補正する場合に、図15で説明と同様に、ユーザが前記ペン型入力装置100の傾きを変化させることによって、前記ポインタ3200の位置を移動して補正してもよい。
図17は、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101のグラフィックを操作する際の、前記投写映像2101の表示とユーザの操作の外観を示す。図17において、3700は画像表示GUIであり、3701は画像一覧GUIである。
画像表示GUI3700は、前記投写映像2101に表示されるグラフィックであり、写真やイラスト等の画像データを表示し、前記画像データを、拡大、縮小、移動など操作を行いながら閲覧できる。
画像一覧GUI3701は、前記投写映像2101に表示されるグラフィックであり、写真やイラスト等の複数の画像データを同時に表示し、前記複数の画像データの全部もしくは一部を、拡大、縮小、移動など操作を行いながら閲覧できる。
図17(a)及び(1)に示すように、ユーザが、前記ペン型入力装置100を、ユーザから見て左側に傾けると、前記プロジェクタ2100は、前記歪センサ出力で示されるΔεの変化に応じて、前記画像表示GUI3700で表示中の画像データを縮小する。また、図17(c)及び(1)に示すように、ユーザが、前記ペン型入力装置100を、ユーザから見て右側に傾けた場合は、前記画像表示GUI3700で表示中の画像データは拡大する。
なお、前記歪センサ出力で示されるΔεの変化に応じて、前記画像表示GUI3700で表示中の画像データの拡大または縮小の変化の速度が変化してもよい。また、図17の(1)では、前記画像表示GUI3600で表示中の画像データが、前記投写映像2101の中心に位置したまま拡大または縮小したが、前記図17の(2)に示すように、前記ペン型入力装置100の前記ペン先の位置3301を中心にして、前記画像表示GUI3700で表示中の画像データを拡大または縮小させてもよい。
図17(a)及び(3)に示すように、ユーザが、前記ペン型入力装置100を、ユーザから見て左側に傾けると、前記プロジェクタ2100は、前記歪センサ出力で示されるΔεの変化に応じて、前記画像一覧GUI3701で表示中の画像データの全体の表示を縮小する。また、図17(c)及び(3)に示すように、ユーザが、前記ペン型入力装置100を、ユーザから見て右側に傾けた場合は、前記画像一覧GUI3701で表示中の画像データのうち、前記ペン型入力装置100のペン先の位置3301に対応する画像データを拡大する。
なお、図18に示すように、ユーザが前記ペン型入力装置100を用いて、前記投写映像2101に円3800等の図形を描画する際にも、前記画像表示GUI3700と同様に、前記ペン型入力装置100の傾きに応じて、前記図形の拡大または縮小させてもよい。
上述したように、前記プロジェクタ2100が、前記ペン型入力装置100の傾きの連続的な変化に応じて、前記投写映像2101に表示されるGUIに対する操作を実行することにより、ユーザが、前記ペン型入力装置100を傾ける簡単な操作で、前記投写映像2101に対する操作を円滑に行える効果が得られる。
次に、実施例4を説明する。実施例4では、実施例1で述べたペン型入力装置100を用いた前記プロジェクタ2100の前記投写映像2101の操作において、前記ペン型入力装置100のペン先にかかる応力に応じた操作について説明する。
図19は、前記投写映像2101で表示する映像内のグラフィックの構成と、ユーザが前記ペン型入力装置100を用いて前記グラフィックを操作した際の外観の一例を示す。図19において、3900は操作レイヤーA、3901は操作レイヤーBである。
操作レイヤーA3900、および、操作レイヤーB3901は、前記投写映像2101における仮想的な操作領域であり、それぞれに独立してグラフィックを構成することにより、ユーザは、前記操作レイヤーA3900、または、前記操作レイヤーB3901のどちらかを所定の操作で選択して、選択した前記操作レイヤーに対して、グラフィックの描画等の操作を行うことができる。また、図19(a)に示すように、前記操作レイヤーA3900と前記操作レイヤーB3901は、前記投写映像2101において重ねて表示することができ、ユーザは、それぞれの操作レイヤーに対して操作を行った結果を、ひとつの映像として合成して閲覧することができる。
図19の(b)は、ユーザが、前記ペン型入力装置100を前記壁面2103に押し付ける力の強さによって、前記操作レイヤーA3900、または、前記操作レイヤーB3901のどちらかが選択できる様子を示している。従って、前記歪センサ出力グラフ2500の歪センサ出力において、|Δε|≦Esを満たす場合には、前記プロジェクタ2100は、ユーザが前記操作レイヤーA3900に対して操作できるようにし、同様に、|Δε|>Esを満たす場合には、前記プロジェクタ2100は、ユーザが前記操作レイヤーB3901に対して操作できるようにする。
図20は、前記プロジェクタ2100が、ユーザが前記投写映像2101に描画した線を、前記線の曲りを補正して直線的に表示する場合に、ユーザが前記ペン型入力装置100を前記壁面2103に押し付ける力の強さによって、前記線の曲りの補正の有無を切り替える様子を示している。
図20で示す操作において、前記プロジェクタ2100は、前記ペン型入力装置100の歪センサ出力が|Δε|>Es満たす場合には、前記線の曲りの補正を行わず、|Δε|≦Esを満たす場合には、前記線の曲りの補正を行う。従って、図20の(a)に示すように、ユーザが強い力で前記ペン型入力装置100を前記壁面2103に押し付けて移動すると、前記投写映像2101に前記ペン型入力装置100のペン先に沿った線が描画される。一方、図20の(b)に示すように、ユーザが弱い力で前記ペン型入力装置100を前記壁面2103に押し付けて移動すると、前記投写映像2101に前記ペン型入力装置100のペン先の軌道が直線的に補正された線が描画される。
なお、図21に示すように、ユーザが前記ペン型入力装置100を前記壁面2103に押し付ける力が強すぎることで、例えば、前記ペン型入力装置100の歪センサ出力が|Δε|>Emaxを満たす場合には、警告アイコン4100等のグラフィックを前記投写映像2101に表示するなどして、前記プロジェクタ2100がユーザに注意を促してもよい。また、例えば、前記ペン型入力装置100の歪センサ出力が|Δε|<Emaxを満たす場合に、ユーザが前記ペン型入力装置100を前記壁面2103に押し付ける力が弱すぎる、もしくは、前記ペン型入力装置100のペン先が前記壁面2103から離れたとして、前記プロジェクタ2100が、前記警告アイコン4100や所定の警告音により、ユーザに注意を促してもよい。
上述したように、前記プロジェクタ2100が、前記ペン型入力装置100のペン先にかかる応力に応じて、前記投写映像2101に表示されるGUIに対する操作を実行することにより、ユーザが、前記ペン型入力装置100を前記壁面2103に押し付ける力を変更するだけの簡単な操作で、前記投写映像2101に対する操作を円滑に行える効果が得られる。
次に、実施例5を説明する。実施例5では、実施例1で述べた前記ペン型入力装置100を用いた前記プロジェクタ2100の投写映像2101の操作において、前記ペン型入力装置100のペン先以外の応力に応じた操作について説明する。
図22は、前記投写映像2101で表示する映像内のグラフィックの構成と、ユーザが前記ペン型入力装置100を用いて前記グラフィックを操作した際の外観の一例を示す。
図22に示す前記ペン型入力装置100は、先に述べた図8と同様に、前記ペン型入力装置100のペン元の接触を検出することができる。これにより、図22の(a)に示すように、ユーザが前記ペン型入力装置100のペン先で前記投写映像2101を操作した場合には、先に述べた図26(a)と同様に、前記ペン型入力装置100のペン先の軌道に沿って、前記投写映像2101に線が描画される。また、図22の(b)に示すように、ユーザが前記ペン型入力装置100のペン元で前記投写映像2101を操作した場合には、先に述べた図26(b)と同様に、前記ペン型入力装置100のペン元の軌道に沿って、前記投写映像2101に予め描画されていた線が削除される。
図23は、前記投写映像2101で表示する映像内のグラフィックの構成と、ユーザが前記ペン型入力装置100を用いて前記グラフィックを操作した際の外観の一例を示す。
図23に示す前記ペン型入力装置100は、先に述べた図13と同様に、前記ペン型入力装置100の把持部をユーザが把持する力を検出することができる。これにより、図23の(a)に示すように、ユーザが把持する力前記ペン型入力装置100のペン先に近い部分を把持して、前記投写映像2101を操作した場合には、先に述べた図6(a)と同様に、筆記手段として前記ペン型入力装置100のペン先の軌道に沿って、前記投写映像2101に線が描画される。また、図23の(b)に示すように、ユーザが前記ペン型入力装置100のペン元に近い部分を把持して、ユーザの前記投写映像2101を操作した場合には、ユーザが把持する力を検出できない。この場合には、先に述べた図32(b)と同様に、前記ペン型入力装置100のペン先の位置に前記ポインタ3200が表示され、例えば、前記投写映像2101に表示されたボタンの選択等の指示手段として、前記ペン型入力装置100のペン先の位置に応じた操作を行うことができる。
図24は、前記投写映像2101で表示する映像内のグラフィックの構成と、ユーザが前記ペン型入力装置100を用いて前記グラフィックを操作した際の外観の一例を示す。
図24に示す前記ペン型入力装置100は、先に述べた図13と同様に、前記ペン型入力装置100の把持部をユーザが把持する力を検出することができる。これにより、図24の(a)に示すように、ユーザが前記ペン型入力装置100のペン先の位置で、前記投写映像2101に表示されたアイコン等のグラフィックを指し示し、尚且つ、ユーザが前記ペン型入力装置100を強い力で把持すると、いわゆる、ドラッグ操作のように、前記ペン型入力装置100のペン先の位置に応じて、前記アイコン等のグラフィックの位置を移動させることができる。
なお、前記アイコン等のグラフィックの位置を移動させる際に、図24の(b)に示すように、ユーザが前記ペン型入力装置100を強い力で把持して、尚且つ、前記ペン型入力装置100のペン先を前記壁面2103に接触しない状態で前記ペン型入力装置100を移動させ、さらに、図24の(c)に示すように、前記ペン型入力装置100のペン先を再び前記壁面2103に接触させ、尚且つ、前記ペン型入力装置100を把持する力を弱めたときに、前記アイコン等のグラフィックの位置の移動が完了するようにしてもよい。
また、上述した、前記ペン型入力装置100のペン元の接触を検出や、前記ペン型入力装置100の把持部をユーザが把持する力を検出により、前記プロジェクタ2100が、先に述べた他の実施例と同様の操作を行ってもよい。
上述したように、前記プロジェクタ2100が、前記ペン型入力装置100のペン元にかかる応力や、ユーザが前記ペン型入力装置100を把持する位置や力に応じて、前記投写映像2101に表示されるGUIに対する操作を実行することにより、ユーザが、前記ペン型入力装置100を用いた簡単な操作で、前記投写映像2101に対する操作を円滑に行える効果が得られる。
なお、上述した本実施形態は本発明の説明のための例示であり、本発明の範囲を実施形態にのみ限定する趣旨ではない。
200…半導体歪センサ、201…センサ感度軸、
2100…プロジェクタ、2101…投写映像、2102…投写光、2103…壁面、
2104…ペン位置検出センサ、2500…歪センサ出力グラフ、
2501…フィードバックGUI、2502…アイコン、2503…線形グラフィック、
2600…消しゴムアイコン、2900…PC、3000…タブレット端末
3100…メニューGUI、3200…ポインタ、3300…パネルGUI、
3301…ペン先の位置、3700…画像表示GUI、3701…画像一覧GUI、
3800…円、3900…操作レイヤーA、3901…操作レイヤーB、
4100…警告アイコン警告アイコン

Claims (15)

  1. ペンで操作する映像表示装置であって、
    グラフィカルユーザインタフェースを表示する表示手段と、
    前記ペンの映像表示装置の表示面における位置を検出するペン位置検出手段と、
    前記ペン先の映像表示装置の表示面への接触の有無と、前記ペン先が接触する面に対する傾きを含むのペン状態情報の入力手段と、を備え、
    前記ペン位置検出手段が検出したペン位置情報により前記グラフィカルユーザインタフェースを特定し、
    前記ペン状態情報に応じて前記グラフィカルユーザインタフェースの表示内容を変更することを特徴とする映像表示装置。
  2. 請求項1に記載の映像表示装置において、
    前記ペン状態情報のペン先が接触する面に対する傾きに応じて、
    メニューを含むグラフィックユーザインターフェイスを構成するひとつまたは複数のグラフィック要素の表示位置、表示サイズ、表示形状のうち少なくともひとつのグラフィックユーザインターフェイスを変更することを特徴とする映像表示装置。
  3. 請求項1に記載の映像表示装置において、
    前記ペン状態情報のペン先が接触する面に対する傾きに応じて、
    ペンの位置変化により軌跡表示された表示内容の消去の機能を無効、あるいは、ペンの位置変化による軌跡表示のオン・オフ、あるいは、操作メニューの表示・非表示、あるいは、ペンの位置変化による軌跡表示の表示幅のいずれかのグラフィックユーザインターフェイスを変更することを特徴とする映像表示装置。
  4. 請求項1に記載の映像表示装置において、
    前記ペン状態情報のペン先が接触する面に対する傾きに応じて、
    ページめくり操作、あるいは、スクロール操作、あるいは、タイムバー操作のいずれかのグラフィックユーザインターフェイスの操作方向あるいは操作速度を変更することを特徴とする映像表示装置。
  5. 請求項1に記載の映像表示装置において、
    前記ペン状態情報のペン先が接触する面に対する傾きに応じて、
    ペン先位置に対応して表示されるカーソルポインタの表示位置とペン先位置のずれ量を補正をおこなうことを特徴とする映像表示装置。
  6. 請求項1に記載の映像表示装置において、
    前記ペン状態情報のペン先が接触する面に対する傾きに応じて、
    ペン先位置に対応するグラフィック要素の拡大・縮小をおこなうことを特徴とする映像表示装置。
  7. 請求項1に記載の映像表示装置において、
    前記ペン状態情報のペン先が接触する面に対する傾きの時間変化から標準のペン傾きを求め、入力された前記ペン状態情報のペン先が接触する面に対する傾きが前記標準のペン傾きと異なる場合に、グラフィックユーザインターフェイスの表示内容を変更することを特徴とする映像表示装置。
  8. ペンで操作する映像表示装置であって、
    グラフィカルユーザインタフェースを表示する表示手段と、
    前記ペンの映像表示装置の表示面における位置を検出するペン位置検出手段と、
    前記ペン先の映像表示装置の表示面への接触の有無と、前記ペン先の応力値を含むのペン状態情報の入力手段と、を備え、
    前記ペン位置検出手段が検出したペン位置情報により前記グラフィカルユーザインタフェースを特定し、前記ペン状態情報に応じて前記グラフィカルユーザインタフェースの表示内容を変更することを特徴とする映像表示装置。
  9. 請求項8に記載の映像表示装置において、
    前記ペン状態情報のペン先の応力値に応じて、
    グラフィックユーザインターフェイスを構成するグラフィック要素を変更することを特徴とする映像表示装置。
  10. 請求項8に記載の映像表示装置において、
    前記ペン状態情報のペン先の応力値に応じて、
    ペン先の軌跡情報を直線に補正して表示する機能の有効・無効を選択することを特徴とする映像表示装置。
  11. 請求項8に記載の映像表示装置において、
    前記ペン状態情報のペン先の応力値が所定の値より大きい場合あるいは所定の値より小さい場合に、警告表示をおこなうことを特徴とする映像表示装置。
  12. ペンで操作する映像表示装置であって、
    グラフィカルユーザインタフェースを表示する表示手段と、
    前記ペンの映像表示装置の表示面における位置を検出するペン位置検出手段と、
    前記ペン先の映像表示装置の表示面への接触の有無と、ユーザのペンを把持する力を含むのペン状態情報の入力手段と、を備え、
    前記ペン位置検出手段が検出したペン位置情報により前記グラフィカルユーザインタフェースを特定し、前記ペン状態情報に応じて前記グラフィカルユーザインタフェースの表示内容を変更することを特徴とする映像表示装置。
  13. 請求項12に記載の映像表示装置において、
    前記ペン状態情報のペンを把持する力が所定の値以上のときに、
    前記ペン位置検出手段が検出したペン位置情報により特定されるグラフィク要素を移動することを特徴とする映像表示装置。
  14. 請求項12に記載の映像表示装置において、
    前記ペン状態情報のペンを把持する力が検出できたときには、前記ペン位置検出手段が検出したペン位置情報により軌跡表示をおこない、前記ペン状態情報のペンを把持する力が検出できなかったときには、前記ペン位置検出手段が検出したペン位置情報によりグラフィック要素の選択指示をおこなうことを特徴とする映像表示装置。
  15. 映像表示装置における映像操作方法であって、
    前記映像表示装置は筒状の筐体の先端にペン先を形成するペンで操作する映像表示装置であり、
    グラフィカルユーザインタフェースを前記映像表示装置において表示し、
    前記ペン先が前記グラフィカルユーザインタフェースを指し示す位置と、前記ペン先の他の物体への接触の有無と、前記ペン先が接触する面に対する傾きとを前記映像表示装置において検出し、
    前記ペン先が前記グラフィカルユーザインタフェースを指し示す位置と、前記ペン先の他の物体への接触の有無と、前記ペン先が接触する面に対する傾きと、に応じて変更された前記グラフィカルユーザインタフェースを前記映像表示装置において表示することを特徴とする映像操作方法。
JP2012117106A 2012-05-23 2012-05-23 映像表示装置 Active JP5808712B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012117106A JP5808712B2 (ja) 2012-05-23 2012-05-23 映像表示装置
PCT/JP2013/054438 WO2013175819A1 (ja) 2012-05-23 2013-02-22 映像表示装置、およびその映像操作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012117106A JP5808712B2 (ja) 2012-05-23 2012-05-23 映像表示装置

Publications (2)

Publication Number Publication Date
JP2013242821A true JP2013242821A (ja) 2013-12-05
JP5808712B2 JP5808712B2 (ja) 2015-11-10

Family

ID=49623524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012117106A Active JP5808712B2 (ja) 2012-05-23 2012-05-23 映像表示装置

Country Status (2)

Country Link
JP (1) JP5808712B2 (ja)
WO (1) WO2013175819A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014110016A (ja) * 2012-12-04 2014-06-12 Sharp Corp 描画器
JP2015132986A (ja) * 2014-01-14 2015-07-23 シャープ株式会社 画像表示装置及びその操作方法
CN106203008A (zh) * 2016-06-28 2016-12-07 宇龙计算机通信科技(深圳)有限公司 终端控制方法、终端控制装置和终端
JP2017507413A (ja) * 2014-01-31 2017-03-16 クアルコム,インコーポレイテッド デバイス上のローリングジェスチャーを特定するための技法
US9787961B2 (en) 2016-01-13 2017-10-10 Seiko Epson Corporation Projector and method for controlling projector
JP6221001B1 (ja) * 2017-03-17 2017-10-25 京セラ株式会社 電子機器、プログラムおよび制御方法
US10754446B2 (en) 2015-09-25 2020-08-25 Sony Corporation Information processing apparatus and information processing method
JP2020144697A (ja) * 2019-03-07 2020-09-10 シャープ株式会社 ペン型入力装置、入力制御方法、プログラム及び情報処理システム
WO2022031048A1 (ko) * 2020-08-04 2022-02-10 삼성전자 주식회사 전자 장치 및 이의 전자 펜 포인터를 표시하는 방법
WO2023018173A1 (ko) * 2021-08-10 2023-02-16 삼성전자 주식회사 전자 장치 및 전자 펜 동작 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102356636B1 (ko) 2015-06-26 2022-01-28 삼성전자주식회사 입력 장치, 그 입력 장치로부터 신호를 입력받는 전자기기 및 그 제어방법
EP3314380A4 (en) 2015-06-26 2018-08-22 Samsung Electronics Co., Ltd. Input device, electronic device for receiving signal from input device, and control method thereof

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0337708A (ja) * 1989-07-05 1991-02-19 Canon Inc 座標入力装置
JPH0367320A (ja) * 1989-05-01 1991-03-22 Wacom Co Ltd 角度情報入力装置
JPH03171321A (ja) * 1989-11-30 1991-07-24 Hitachi Ltd 入出力装置
JPH0619612A (ja) * 1992-07-01 1994-01-28 Matsushita Electric Ind Co Ltd ペン入力・メニュー表示装置
JPH06230880A (ja) * 1993-01-29 1994-08-19 Hitachi Ltd バーコードリーダ付座標入力ペン
JPH0916311A (ja) * 1995-06-29 1997-01-17 Sharp Corp 入力ペンの傾き検出装置及びそれを有するペン入力装置
JPH10240422A (ja) * 1997-02-25 1998-09-11 Fujitsu Takamizawa Component Kk ペン入力パネル
JPH11232389A (ja) * 1998-02-09 1999-08-27 Pilot Corp 入力ペンによるパターン認識システム及びそれを備えた筆記ボード認識セット
JP2002366294A (ja) * 2001-06-13 2002-12-20 Minolta Co Ltd データ入力装置およびそのプログラム
JP2009003608A (ja) * 2007-06-20 2009-01-08 Seiko Epson Corp ペン入力装置、ペン入力方法
JP2009266097A (ja) * 2008-04-28 2009-11-12 Toshiba Corp 入力機器
JP2012079328A (ja) * 2004-10-12 2012-04-19 Nippon Telegr & Teleph Corp <Ntt> 3次元ポインティング方法、3次元ポインティング装置、及び3次元ポインティングプログラム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0367320A (ja) * 1989-05-01 1991-03-22 Wacom Co Ltd 角度情報入力装置
JPH0337708A (ja) * 1989-07-05 1991-02-19 Canon Inc 座標入力装置
JPH03171321A (ja) * 1989-11-30 1991-07-24 Hitachi Ltd 入出力装置
JPH0619612A (ja) * 1992-07-01 1994-01-28 Matsushita Electric Ind Co Ltd ペン入力・メニュー表示装置
JPH06230880A (ja) * 1993-01-29 1994-08-19 Hitachi Ltd バーコードリーダ付座標入力ペン
JPH0916311A (ja) * 1995-06-29 1997-01-17 Sharp Corp 入力ペンの傾き検出装置及びそれを有するペン入力装置
JPH10240422A (ja) * 1997-02-25 1998-09-11 Fujitsu Takamizawa Component Kk ペン入力パネル
JPH11232389A (ja) * 1998-02-09 1999-08-27 Pilot Corp 入力ペンによるパターン認識システム及びそれを備えた筆記ボード認識セット
JP2002366294A (ja) * 2001-06-13 2002-12-20 Minolta Co Ltd データ入力装置およびそのプログラム
JP2012079328A (ja) * 2004-10-12 2012-04-19 Nippon Telegr & Teleph Corp <Ntt> 3次元ポインティング方法、3次元ポインティング装置、及び3次元ポインティングプログラム
JP2009003608A (ja) * 2007-06-20 2009-01-08 Seiko Epson Corp ペン入力装置、ペン入力方法
JP2009266097A (ja) * 2008-04-28 2009-11-12 Toshiba Corp 入力機器

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014110016A (ja) * 2012-12-04 2014-06-12 Sharp Corp 描画器
JP2015132986A (ja) * 2014-01-14 2015-07-23 シャープ株式会社 画像表示装置及びその操作方法
US10901532B2 (en) 2014-01-14 2021-01-26 Sharp Kabushiki Kaisha Image display apparatus having touch detection and menu erasing
US10775901B2 (en) 2014-01-31 2020-09-15 Qualcomm Incorporated Techniques for identifying rolling gestures on a device
JP2017507413A (ja) * 2014-01-31 2017-03-16 クアルコム,インコーポレイテッド デバイス上のローリングジェスチャーを特定するための技法
US10423245B2 (en) 2014-01-31 2019-09-24 Qualcomm Incorporated Techniques for providing user input to a device
US10754446B2 (en) 2015-09-25 2020-08-25 Sony Corporation Information processing apparatus and information processing method
US9787961B2 (en) 2016-01-13 2017-10-10 Seiko Epson Corporation Projector and method for controlling projector
CN106203008A (zh) * 2016-06-28 2016-12-07 宇龙计算机通信科技(深圳)有限公司 终端控制方法、终端控制装置和终端
JP2018049585A (ja) * 2017-03-17 2018-03-29 京セラ株式会社 電子機器、プログラムおよび制御方法
JP6221001B1 (ja) * 2017-03-17 2017-10-25 京セラ株式会社 電子機器、プログラムおよび制御方法
JP2020144697A (ja) * 2019-03-07 2020-09-10 シャープ株式会社 ペン型入力装置、入力制御方法、プログラム及び情報処理システム
JP7253939B2 (ja) 2019-03-07 2023-04-07 シャープ株式会社 ペン型入力装置
WO2022031048A1 (ko) * 2020-08-04 2022-02-10 삼성전자 주식회사 전자 장치 및 이의 전자 펜 포인터를 표시하는 방법
WO2023018173A1 (ko) * 2021-08-10 2023-02-16 삼성전자 주식회사 전자 장치 및 전자 펜 동작 방법

Also Published As

Publication number Publication date
WO2013175819A1 (ja) 2013-11-28
JP5808712B2 (ja) 2015-11-10

Similar Documents

Publication Publication Date Title
JP5808712B2 (ja) 映像表示装置
JP5295328B2 (ja) スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
EP2256614B1 (en) Display control apparatus, display control method, and computer program
US9552071B2 (en) Information processing apparatus, information processing method and computer program
JP6000797B2 (ja) タッチパネル式入力装置、その制御方法、および、プログラム
US9544556B2 (en) Projection control apparatus and projection control method
JP2010224764A (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
JP5713180B2 (ja) 検知領域がディスプレイの表示領域よりも小さくても同等時のように動作するタッチパネル装置
JP5374564B2 (ja) 描画装置、描画制御方法、及び描画制御プログラム
JP6146350B2 (ja) 情報処理装置およびコンピュータプログラム
WO2011055451A1 (ja) 情報処理装置、その方法、および、表示装置
TWI442305B (zh) 多點控制的操作方法及其控制系統
US9292185B2 (en) Display device and display method
WO2012169189A1 (ja) タッチパネル入力装置
JP2016122345A (ja) 画像投影装置、及び対話型入出力システム。
JP2012146017A (ja) 電子黒板システム、電子黒板システムの制御方法、プログラムおよびその記録媒体
JP2019046088A (ja) 表示制御装置、ポインタの表示方法及びプログラム
US20170351423A1 (en) Information processing apparatus, information processing method and computer-readable storage medium storing program
JP6126639B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置及びゲームプログラム。
JP2014155856A (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
JP2013073412A (ja) ポインタ映出用投影像信号を生成するユーザインタフェース装置、画像投影方法及びプログラム
JP6722239B2 (ja) 情報処理装置、入力方法及びプログラム
KR101136327B1 (ko) 휴대 단말기의 터치 및 커서 제어방법 및 이를 적용한 휴대 단말기
JP5769765B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
JP2017049904A (ja) 情報処理装置、情報処理プログラムおよび情報処理方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140310

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140723

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150909

R150 Certificate of patent or registration of utility model

Ref document number: 5808712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250