JP2016110436A - 画像投影装置、及び対話型入出力システム。 - Google Patents

画像投影装置、及び対話型入出力システム。 Download PDF

Info

Publication number
JP2016110436A
JP2016110436A JP2014248047A JP2014248047A JP2016110436A JP 2016110436 A JP2016110436 A JP 2016110436A JP 2014248047 A JP2014248047 A JP 2014248047A JP 2014248047 A JP2014248047 A JP 2014248047A JP 2016110436 A JP2016110436 A JP 2016110436A
Authority
JP
Japan
Prior art keywords
image
projection screen
projection
coordinate
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014248047A
Other languages
English (en)
Inventor
壮史 長尾
Masafumi Nagao
壮史 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014248047A priority Critical patent/JP2016110436A/ja
Priority to EP15197295.7A priority patent/EP3032380B1/en
Priority to US14/955,621 priority patent/US9778763B2/en
Priority to CN201510870320.7A priority patent/CN105677061A/zh
Publication of JP2016110436A publication Critical patent/JP2016110436A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • G06F3/0321Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)

Abstract

【課題】座標入力手段を用いる対話型入力機能を備えた、座標入力手段を投影画面から離間させて操作する場合に生じる入力誤差を低減できる画像投影装置を提供する。【解決手段】電子ペン200で指す投影画面上の任意の位置座標をプロジェクタ100を経由してコンピュータ300に入力し、プロジェクタ100に画像情報を出力するコンピュータ300を備えた画像投影装置において、電子ペン200と投影画面との距離に応じて、電子ペン200で指す投影画面上の任意の位置座標の移動を、投影画面に反映するか否かを判断するペン動作反映判断手段128を備えた。【選択図】図5

Description

本発明は、画像投影装置、及び対話型入出力システム(インタラクティブシステム)に関するものである。
プロジェクタ等の画像投影装置の投影画面上に、専用の電子ペン等の座標入力手段や指等を使って文字や図形を描画したり、画像信号を送信するコンピュータ等の外部機器を操作したりする対話型入出力(インタラクティブ)機能に関する技術が既に知られている。具体的には、カメラ等を用いて、電子ペン等の座標入力手段や指等が特定する(指す)投影画面上の位置座標を算出(検出)し、算出した位置座標に基づいてUSBケーブル等の通信ケーブルやネットワークを介して接続されたコンピュータ等の外部機器を操作する。
例えば、特許文献1には、次のような対話型入出力機能を備えた画像投影装置(リアプロジェクション表示装置)が記載されている。
投影画面に接触させたり、投影画面から離間させたりした座標入力手段(座標入力ペン)を操作し、座標入力手段を移動させた軌跡の座標に基づいて、接続された外部機器を操作したり、外部機器を用いて投影画面上に描画を行ったりする画像投影装置である。この画像投影装置では、投影画面と座標入力手段との距離を算出するためのセンサを、投影画面近傍の複数の位置に設けて、投影画面に対する座標入力手段の位置を検出(算出)している。
そして、投影画面から離間させて操作する場合、座標入力手段の示す座標を操作者の目に見える相対的な座標に拡大変換(変更)して、座標入力手段を小さく移動させても、外部機器の操作や、外部機器を用いた大きな投影画面上での描画を可能にしている。
このように、投影画面上での描画や、外部機器の操作を行うことで、投影画面から離間させて操作する座標入力手段での座標入力を、効率良く、且つ、適切に行うことができる旨、特許文献1には記載されている。
しかしながら、投影画面から離間させて操作する場合、座標入力手段を投影画面に接触させて操作する場合と異なり、座標入力手段を空中で操作することとなり、操作者の手が意図せず振れて座標入力手段から入力される座標が揺動するように変化して安定しない。このように安定しないと、操作者が意図した通りに投影画面上の位置座標の入力が行えず、入力誤差が生じて外部機器の操作ができなくなったり、外部機器を用いて綺麗な線や図形を投影画面上に描画できなくなったりするといった問題があった。
さらに、操作者が意図した通りに、外部機器を用いて綺麗な文字を書く(描画する)には、座標入力手段の細かい動き(移動)を投影画面上に反映させる必要があるが、投影画面から離間させて操作する場合に生じる入力誤差も拡大変換して反映することになる。その結果、操作者が意図した綺麗な文字からは程遠いミミズがはったような文字になってしまい、綺麗な文字を書くことができないといった問題もあった。
上述した課題を解決するために、請求項1に記載の発明は、画像信号が入力される画像入力手段、該画像入力手段で入力した画像信号を加工処理して投影信号に変換する画像処理手段、該画像処理手段で投影信号に変換された前記投影信号を投影する投影手段、及び該投影手段で投影した投影画面上の任意の位置座標を特定し、特定した位置座標に関する座標情報を入力する座標入力手段を用いる対話型入出力機能を備えた画像投影装置において、前記座標情報から、前記座標入力手段を用いて特定する前記投影画面上の位置座標を算出する座標算出手段、前記画像入力手段に画像信号を出力する外部機器や前記座標入力手段と、前記対話型入出力機能に係る情報の送受信を行う対話型情報通信手段、前記座標算出手段で算出した位置座標や、前記座標入力手段に有した操作ボタンの操作情報を、当該画像投影装置や前記外部機器の操作情報へと変換する操作情報変換手段、前記座標入力手段と前記投影画面との間の距離を算出する距離算出手段、及び前記座標入力手段を用いて特定する前記投影画面上の位置座標の移動を、前記距離算出手段で算出した距離に応じて、前記投影画面上に反映させるか否か判断する入力動作反映判断手段を備えることを特徴とする。
本発明は、座標入力手段を用いる対話型入力機能を備えた画像投影装置で、座標入力手段を投影画面から離間させて操作する場合に生じる入力誤差を低減できる画像投影装置を提供できる。
一実施形態に係る、プロジェクタを用いた画像投影システムの説明図。 投影画面から離して電子ペンを操作する例の説明図。 プロジェクタのハードウェア構成例の説明図。 電子ペンのハードウェア構成例の説明図。 一実施形態に係る、画像投影システムの機能ブロック図。 画像投影システムにおけるインタラクティブ機能の基本シーケンスの説明図。 電子ペンを投影画面近く、又は遠く離れた位置から操作する場合の、投影画面上の電子ペンを用いて指す座標と、電子ペンの姿勢変化(移動角度)の違いを説明する説明図。 電子ペンと、電子ペンで指す投影画面上の座標位置との間の距離を求めるためのテーブルのデータ構造の例。 電子ペンで指す投影画面上の座標がどれぐらい動いたら投影画面上の操作として反映させるか否かを決定する最小距離を求めるテーブルのデータ構造の例。 電子ペンで指す投影画面上の座標移動を、投影画面上の操作として反映させるか否かを判定するときのフローの説明図。 ペン距離算出手段で、電子ペンの姿勢変化に加え、電子ペンの移動距離も考慮して、電子ペンと投影画面との間の距離を算出するときのフローの説明図。 電子ペンの動作を反映させる最小距離をユーザごとに設定できるテーブルのデータ構造の例。 電子ペンが操作状態か筆記状態かによって、最小距離を異ならせる最小距離テーブルのデータ構造の例。 電子ペンのユーザによる使用状態の判断フローの例。 投影する画面サイズ毎に、電子ペンと、電子ペンで指す投影画面上の座標位置との間の距離を求めるためのテーブルを複数、設けた例の説明図。
以下、本発明を適用した画像投影装置であるプロジェクタ(以下、プロジェクタ100という。)を備えた対話型入力システム(以下、インタラクティブシステムという。)を採用した画像投影システムの一実施形態について説明する。
まず、本実施形態の画像投影システムの基本的な構成、及び動作について、図を用いて説明する。
図1は、本実施形態に係る、プロジェクタ100を用いた画像投影システム1の説明図である。図2は、投影画面10から離して電子ペン200を操作する例の説明図である。
本実施形態の画像投影システム1は、画像投影装置であるプロジェクタ100、投影する映像(画像)情報をプロジェクタに対して入力する外部機器であるコンピュータ300、及び座標入力手段(ポインティングデバイス)である電子ペン200により構成される。そして、電子ペン200とプロジェクタ100は無線(22)により接続される。コンピュータ300とプロジェクタ100は映像ケーブル21(例えば、HDMI(登録商標)ケーブル)、及びUSB有線ケーブルもしくは無線(23)で接続される。プロジェクタ100は、映像ケーブル21経由で、例えば、図2に示すように電子ペン200の先端が指す離れた投影画面10上の位置に対応したコンピュータ300のディスプレイ上の位置に、必要に応じて画像処理した後、カーソルの映像を重ねて投影する。
次に、プロジェクタ100のハードウェア構成について、図を用いて説明する。
図3は、プロジェクタ100のハードウェア構成例の説明図である。
本体制御部110は、中央演算装置であるCPU111、不揮発性メモリであるROM112、揮発性メモリであるRAM113等から構成されている。CPU111は、プロジェクタ100の動作制御を行うプログラムを実行する。ROM112は、CPU111が実行するプログラムやプログラムの実行に必要なデータ等を記憶し、RAM113は、CPU111のワークエリア等を構成する。
本体制御部110にはUSB:I/Fポート115、電源制御部130、電源131、映像信号受付部141、映像信号処理部142、無線ユニット143、操作受付部144、ランプ制御部150、ランプ151、光学部152、及びファン160が接続される。
USB:I/Fポート115は、外部機器等からのUSBケーブルの接続口を構成する。
電源制御部130は、電源131を制御し、電源131は、プロジェクタ100の各部へ電力を供給するものである。
映像信号受付部141は、映像入力種別(例えば、D−Sub、HDMI、ビデオ等)ごとの映像信号ポートを有しており、映像信号処理部142は、各映像信号ポートからの映像信号入力を受信して、処理するものである。
無線ユニット143は、電子ペン200からの測定情報を受信する、もしくはコンピュータ300と対話型入力システムに関わる情報(以下、インタラクティブ関連の情報、又はインタラクティプ機能に関わる情報という。)を送受信するものである。
操作受付部144は、ユーザである操作者の操作を受け付けるための手段であり、例えば、操作キー等を有している。
ランプ制御部150は、ランプ151を制御し、ランプ151は、投影画像の光源となるランプである。
光学部152は映像を作り出し、拡大投影する部分であり、投影レンズや、DLP(Digital Light Processing:登録商標)プロジェクタならDMD(デジタルミラーデバイス)やカラーホイール等を有する。
ファン160は、プロジェクタ100の装置本体内を冷却するものである。
次に、電子ペン200のハードウェア構成について、図を用いて説明する。
図4は、電子ペン200のハードウェア構成例の説明図である。
電子ペン制御部210は、中央演算装置であるCPU211、不揮発性メモリであるROM212、揮発性メモリであるRAM213等から構成されている。CPU211は、電子ペン200の動作制御を行うプログラムを実行する。ROM212は、CPU211が実行するプログラムやプログラムの実行に必要なデータ等を記憶し、RAM213は、CPU211のワークエリア等を構成する。
電子ペン制御部210には、電源制御部230、電源231、無線ユニット243、操作受付部244、レンズ251、光検出部252、加速度検出部270、及び角速度検出部280が接続されている。
電源制御部230は、電源231を制御し、電源231は、電子ペン200の各部へ電力を供給する。
操作受付部244は、操作者の操作を受け付けるための手段であり、例えば、操作ボタン等を有している。
レンズ251は、電子ペン200のペン先近傍に設けられ、光を屈折させて収束するものであり、光検出部252は、レンズ251で収束させた光を受光するセンサを有し、光変換部253は、センサで受光した光を電気信号情報へと変換するものである。ここで、レンズ251の光軸は、鉛筆状の電子ペン200の軸方向に平行になるように構成されている。
無線ユニット243は、プロジェクタ100とインタラクティブ関連の情報を送受信するものである。
加速度検出部270は、自デバイス(電子ペン200)の加速度を算出するものであり、角速度検出部280は、自デバイスの加速度を算出するものである。
次に、本実施形態の画像投影システム1において、プロジェクタ100、コンピュータ300、及び電子ペン200が果たす機能について、図を用いて説明する。
図5は、本実施形態に係る、画像投影システム1の機能ブロック図である。
(プロジェクタ100)
映像入力手段121は、HDMIやVGAの映像ケーブル21やネットワークを経由して入力された映像(画像)信号を受付ける手段である。
映像編集手段124は、映像入力手段121で受付けた映像信号に変倍など投影する画像の編集処理や、後述する電子ペン200が指す投影画面10上の位置座標の測定に用いるパターン情報の合成処理等の加工処理を施し、投影信号に変換する手段である。
投影手段122は、映像編集手段124で加工処理が施されて変換された投影信号を外部へ投影する手段である。
位置座標算出手段125は、受信した電子ペン200の測定情報から、電子ペン200のペン先が指す投影画面10上の位置座標、具体的にはレンズ251の光軸が指す投影画面10上の位置座標を算出するものである。
インタラクティブ通信手段129は、電子ペン200やコンピュータ300とインタラクティブ機能に関わる情報の送受信を行うものである。
PC操作情報変換手段127は、位置座標算出手段125で算出した電子ペン200が指す投影画面10上の位置座標や電子ペン200のボタンステータス情報をコンピュータ300の操作情報へと変換する。そして、インタラクティブ通信手段129を使って、変換した情報をコンピュータ300へ送るものである。
ペン距離算出手段126は、電子ペン200の実際の姿勢変化(移動角度)や移動距離と投影画面10上の移動座標を比較して、電子ペン200と投影画面10の間の距離を算出するものである。
ペン動作反映判断手段128は、電子ペン200と投影画面10との間が遠く離れている場合は、電子ペン200が、操作者の意図に反して微小に動いても(振動しても)投影画像に、例えば、カーソルの移動や操作として反映してないようにするものである。
(電子ペン200)
インタラクティブ通信手段229は、プロジェクタ100とインタラクティブ機能に関わる情報の送受信を行うものである。
位置情報測定手段225は、電子ペン200が指す投影画面10上に埋め込まれているパターン情報(画像)を測定し、インタラクティブ通信手段229を使ってその情報をプロジェクタ100へと送るものである。
移動距離算出手段226は、加速度検出部270で検出した自デバイスの加速度を積分することで、単位時間当たりに電子ペン200が実際に移動した移動距離を算出するものである。
角度算出手段227は、角速度検出部280で検出した角速度を積分することで、単位時間当たりに電子ペン200が実際に移動した角度を算出するものである。
(コンピュータ300)
インタラクティブ通信手段329は、プロジェクタ100とインタラクティブ機能に関わる情報の送受信を行うものである。
操作手段323は、コンピュータ300の操作キーやプロジェクタ100から受信したPC操作情報に従って、コンピュータ300自体の操作を実現するものである。
映像出力手段322は、ディスプレイやプロジェクタ100等の外部の表示装置へコンピュータの映像を出力するものである。
そして、プロジェクタ100、電子ペン200、及びコンピュータ300は、以下に図6を用いて説明する基本シーケンスにより、インタラクティブ機能(対話型入力機能)を実現している。
図6は、画像投影システム1におけるインタラクティブ機能の基本シーケンスの説明図である。
コンピュータ300は、図1に示すように、プロジェクタ100と映像ケーブル21(例えば、HDMI)で接続すると、プロジェクタ100に対して映像信号を入力する(S101)。
プロジェクタ100は、HDMIケーブル等の映像ケーブル21を接続してコンピュータ300から映像信号を入力すると、電子ペン200の位置を一意に特定するためのパターン情報を映像(画像)信号に負荷(追加)して映像の投影を実行する(S102)。
電子ペン200は、自身を用いて操作者が指す投影画面10上の位置座標の情報を測定して(S103)、その測定情報と、操作ボタンの操作情報をプロジェクタ100へと送信する(S104)。
プロジェクタ100は、電子ペン200から受信した測定情報に基づいて、電子ペン200を用いて操作者が、今、指している投影画面10上の位置座標を算出する(S105)。そして、プロジェクタ100は、算出した位置座標と、電子ペン200の操作ボタンの操作情報をコンピュータ操作情報へと変換して(S106)、コンピュータへ送信する(S107)。
コンピュータ300は、受信したコンピュータ操作情報に基づいた操作を実行する(S108)。すなわち、コンピュータ300の状態に応じたマウスカーソルの移動やクリック、タッチといった操作として反映する。このとき、コンピュータ300側で描画機能が有効になっていれば文字や図形が描画されることとなる。
次に、本実施形態の画像投影システム1の特徴について、図を用いて説明する。
図7は、電子ペン200を投影画面10近く、又は遠く離れた位置から操作する場合の、投影画面10上の電子ペン200を用いて指す座標と、電子ペン200の姿勢変化(移動角度)の違いを説明する説明図である。
図7に示すように、投影画面10から遠く離れて電子ペン200を操作する場合は、離れれば離れるほど、電子ペン200を傾ける角度によって移動する投影画面10上の距離が大きくなる。
具体的には、電子ペン200で指す投影画面10上の位置座標を、図7に示すように点P1から点P2に移動距離:dだけ移動させるとする。このとき、投影画面10から、少し離れた位置から操作する電子ペン200(A)を傾ける(回動させる)角度はθaとなり、遠く離れた位置から操作する電子ペン200(B)を傾ける角度は、θaよりも少ないθbとなる(θa>θb)。言い換えれば、同じ角度:θだけペン先を傾けた場合、電子ペン200が投影画面10から離れているほど、電子ペン200で指す(特定する)投影画面10上の座標(位置座標)の移動距離:dが大きくなる。
そこで、ユーザ等の操作者が、電子ペン200を動かした(回動させた)移動角度:θと投影画面10上の移動距離:dとを比較することで、電子ペン200と、電子ペン200で指す(特定する)投影画面10上の座標位置との間の距離を求めることとした。
図8は、電子ペン200と、電子ペン200で指す投影画面10上の座標位置(投影画面)との間の距離を求めるためのテーブルのデータ構造の例である。
図8に示すテーブルは、電子ペン200で指す投影画面10上の画素値で示される移動座標と、電子ペン200のペン先の実際の角度差(角度)と、その組み合わせに対応する電子ペン200と投影画面10との間の距離からなる。
プロジェクタ100は、電子ペン200から受信した電子ペン200の単位時間当たりの角度差と、測定情報から算出した座標による画面上の移動座標をテーブルに当てはめることで、対応するペンと画面間の距離が決定(算出)する。
電子ペン200で指す投影画面10上の座標の移動距離(移動座標)がテーブルにある値と同値ではない場合は、より近い方の値が選択される。これにより、電子ペン200が画面からどのぐらい離れているかどうか判定(算出)できる。
つまり、ペン距離算出手段126は、ペン先の傾きを変化させたときの、電子ペン200の角度差と、位置座標算出手段125で算出した投影画面10上の位置座標の移動座標距離とを比較して、電子ペン200と投影画面10との間の距離を算出する。
このように算出することで、次のような効果を奏することができる。
例えば、特許文献1に記載の画像投影装置(リアプロジェクション表示装置)のように投影画面と座標入力手段との距離を算出するためのセンサを、投影画面近傍の複数の位置に設ける構成とは異なり、投影画面側にセンサを設ける必要がない。
したがって、スクリーンや部屋の壁面等の投影面に画像を投影する持ち運び可能な画像投影装置を設置するときの、投影画面側にセンサを配置する作業等をなくすことができ、画像投影装置を利用するユーザの利便性を高めることができる。
ここで、電子ペン200と、電子ペン200で指す投影画面10上の座標位置(投影画面)との間の距離については、投影画面10を平面と考えると、X軸/Y軸(角度はヨー/ピッチ)があるが、どちらか一方だけの値を使って算出すればよい。
そして、求めた、電子ペン200と、電子ペン200で指す(特定する)投影画面10上の座標位置との距離に応じて、電子ペン200で指した投影画面10上の座標の移動を投影画面10上に反映させるか否か判断することとした。
図9は、電子ペン200で指す投影画面10上の座標がどれぐらい動いたら投影画面10上の操作として反映させるか否かを決定する最小距離(最小移動距離)を求めるテーブルのデータ構造の例である。
図9に示すテーブルは、電子ペン200で指す投影画面10上の画素値で示される最小距離と、この最小距離に対応する電子ペン200と投影画面10との間の距離からなる。
電子ペン200と、電子ペン200で指す投影画面10上の座標位置との間の距離であるペン画面間距離をテーブルに当てはめることで、最小距離(画素値)を求める(算出する)ことができる。
次に、電子ペン200で指す投影画面10上の座標移動を投影画面10上の操作として反映させるか否かを判定するときのフローについて、図10を用いて説明する。
図10は、電子ペン200で指す投影画面10上の座標移動を、投影画面10上の操作として反映させるか否かを判定するときのフローの説明図である。
電子ペン200の操作を開始して(Start)、インタラクティブ通信手段129が電子ペン200から測定情報を受信する(S201)。その後、位置座標算出手段125は、受信した測定情報をもとに電子ペン200が現在、指している投影画像上の位置座標を算出する(S201)。
そして、ペン距離算出手段126で算出(決定)したペン画面間距離から、電子ペン200が投影画面10から離れているか否かを判断する(S203)。
電子ペン200が投影画面10から離れていない場合(S203のNo)、PC操作情報変換手段127は、算出した位置座標をコンピュータ300の操作情報に変換して(S206)、インタラクティブ通信手段129を使ってPCへ送る(S207)。すると、コンピュータ300側に、電子ペン200の操作が反映される。
電子ペン200が投影画面10から離れていると判断された場合(S203のYes)、ペン動作反映判断手段128は前回検出した位置座標との差分から移動座標距離を求め、それが最小距離を超えているか否かを判断する(S204)。
そして、移動座標距離が最小距離を超えていない(最小距離未満)と判断した場合(S204のNo)、ペン動作反映判断手段128は、コンピュータ300へ操作情報を送らないと判断する(S208)。コンピュータ300側へ操作情報を送らなければ、電子ペン200の動きがコンピュータ300の操作として反映されないので、手の揺れ等による操作者の意図せぬ微小な電子ペン200の動きが操作として投影画面10に反映されることがなくなる。
一方、移動座標距離が最小距離を超えていると判断した場合(S204のYes)、ペン動作反映判断手段128は、コンピュータ300へ操作情報を送ると判断する(S205)。その後、電子ペン200が投影画面10から離れていない場合(S203のNo)と同様に、PC操作情報変換手段127がコンピュータ300の操作情報に変換して(S206)、インタラクティブ通信手段129を使ってPCへ送る(S207)。すると、コンピュータ300側に、電子ペン200の操作が反映される。
このようにペン動作反映判断手段128で、インタラクティブ通信手段129からコンピュータ300に送信する操作情報を制御することで、電子ペン200を投影画面10から離間させて操作する場合に生じる入力誤差を低減できる。
よって、電子ペン200を用いるインタラクティブ機能を備えたプロジェクタ100で、電子ペン200を投影画面10から離間させて操作する場合に生じる入力誤差を低減できる。
また、電子ペン200で指す投影画面10上の座標位置に投影されるカーソル等の移動座標距離は、電子ペン200のペン先の傾きだけでなく、ユーザが電子ペン200自体を投影画面10のX軸方向又はY軸方向に移動したときにも発生する。
このような場合、電子ペン200のペン先の傾きだけから、電子ペン200と投影画面10との間の距離を算出する構成では、算出誤差が大きくなるおそれがある。また、算出誤差を低減するために電子ペン200自体の移動を抑えるように電子ペン200を操作しようとすると、ユーザによっては、電子ペン200の操作するときの動作の特定(癖)と異なってしまい、ユーザビリティ(利用性)が低下してしまうおそれもある。
そこで、本実施形態のプロジェクタ100のペン距離算出手段126では、電子ペン200を移動させたときの、電子ペン200の移動距離も考慮して、電子ペン200と投影画面10との間の距離を算出することとした。
このように算出することで、図8のテーブルを用いて電子ペン200のペン先と投影画面10との間の距離を算出するときの投影画面10上の移動座標を補正することができる。
このように補正することで、座標入力手段の姿勢変化と補正後の移動座標距離を、図8のテーブルと比較することで、算出誤差を低減することができるとともに、操作者の利用性を向上させることができる。
次に、電子ペン200の移動距離も考慮して、電子ペン200と投影画面10との間の距離を算出する具体的な例を、図11を用いて説明する。
図11は、ペン距離算出手段126で、電子ペン200の姿勢変化に加え、電子ペン200の移動距離も考慮して、電子ペン200と投影画面10との間の距離を算出するときのフローの説明図である。
電子ペン200の操作を開始すると、電子ペン200から、電子ペン200の移動距離を、一定間隔で受信し始める(Start)。その後、受信した電子ペン200の移動距離が0よりも大きいか否かを判断する(S301)。
電子ペン200の移動距離が0の場合(S301のNo)、ペン距離算出手段126は、算出するときに用いる投影画面10上の移動座標を補正せず、電子ペン200と投影画面10との間の距離を算出(決定)する(S304)。つまり、受信した電子ペン200の移動距離が0の場合、ペン距離算出手段126は、投影画面10上の移動座標を補正せず、電子ペン200のペン先の実際の角度差の情報とペン先が示す実際の移動座標を、図8のテーブルと比較して、ペン画面間距離を決定する。
一方、移動距離が0よりも大きい場合(S301のNo)、ペン距離算出手段126は、電子ペン200の移動距離分の座標で、投影画面10上の移動座標を補正する(S302)。より詳しくは、投影画面10上の移動座標、1[pixel]毎の移動距離を設定しておき(例えば、1[pixel]=1[mm])、これを使って移動座標の値を補正する。
例えば、電子ペン200のペン先が指す投影画面10上の位置座標がX軸方向に18[pixel]分だけ移動しており、電子ペン200がX軸方向へ実際に3[mm]だけ移動していれば、その補正後の移動座標は、18−1×3 = 15[pixel]となる。
その後、補正した投影画面10上の移動座標と電子ペン200のペン先の角度差を、図8のテーブルと比較して、ペン距離算出手段126が、電子ペン200と投影画面10との間の距離を算出する(S303)。
また、本実施形態のプロジェクタ100に備えたペン動作反映判断手段128では、電子ペン200の操作を投影画面10上に反映させるときの、最小距離を、このインタラクティブシステムを利用するユーザ(操作者)が設定できるように構成することもできる。
このように構成することで、ユーザ毎の動作の特性を考慮して、投影画面に反映させるときの投影画面上の座標位置の最小移動距離を利用者毎に設定することが可能となる。
したがって、電子ペン200を操作するときの動作の特性が異なる、いずれのユーザにとっても、電子ペン200の操作がさらに容易となるとともに、利用性をさらに向上させることができる。
ここで、具体的な最小距離の設定方法の例を、図12を用いて説明する。
図12は、電子ペン200の動作を反映させる最小距離をユーザごとに設定できるテーブルのデータ構造の例である。
上記した図9に示したテーブルでは、予め電子ペン200のペン先と投影画面10との間の距離に応じて、所定の最小距離(最小移動距離)を設定していた。
一方、図12に示すテーブルでは、最小距離に格納している図中、太線で囲った行(レコード)の値(最小距離情報)を、ユーザが設定できるように構成している。
また、電子ペン200が操作状態か筆記状態かによって、最適な最小移動距離は異なる。
そこで、本実施形態のプロジェクタ100に備えたペン動作反映判断手段128では、電子ペン200の操作を投影画面10上に反映させるときの、電子ペン200により入力される投影画面10上の座標位置の最小距離を、次のように設定する構成にもできる。電子ペン200が、コンピュータ300を操作する操作状態か、コンピュータ300を用いて投影画面10上に描画や筆記を行う筆記状態かによって、異ならせて設定する。
このように、電子ペン200が操作状態か筆記状態かによって、最小距離を異ならせることで、電子ペン200を操作するときのユーザにとって、最適な動きを実現することがでる。
したがって、本実施形態の画像投影システム1に用いるインタラクティブシステムの機能性を向上させることができる。
ここで、具体的な最小距離の設定方法の例を、図13を用いて説明する。
図13は、電子ペン200が操作状態か筆記状態かによって、最小距離を異ならせる最小距離テーブルのデータ構造の例である。
図13に示す最小距離のテーブルでは、最小距離の行(レコード)を、操作者が電子ペン200を用いている状態である、操作状態(操作)と筆記状態(筆記)とに分けて設けている。
このように分けたのは、次の理由による。
ユーザが、ユーザが電子ペン200を用いて筆記を行っている筆記状態の場合は、文字等を投影画面10上に書いている場合であり、電子ペン200の細かい動きまで反映させてしまうとミミズの這ったような字になってしまうおそれがある。
一方、ユーザが電子ペン200を用いて、マウスカーソル等と同様にコンピュータ300の操作している操作状態の場合は、筆記状態に比べて細かい動きを反映させても大きな問題は生じ難いためである。
ここで、電子ペン200が、筆記状態にあるか、操作状態にあるかを判断する具体的な例を、図14を用いて説明しておく。
図14は、電子ペン200のユーザによる使用状態の判断フローの例である。
ユーザが電子ペン200を用いて投影画面10上に筆記している筆記状態では、電子ペン200の操作ボタンのいずれかが一定時間以上押下されているといえる。したがって、電子ペン200の操作ボタンが一定時間以上押下されている場合は筆記状態、それ以外は操作状態と判断することができる。
電子ペン200の操作を開始すると、電子ペン200から、電子ペン200の移動距離を、一定間隔で受信し始める(Start)。その後、受信した電子ペン200の操作ボタンが一定時間押下げられているか否かを判断する(S401)。
操作ボタンが一定時間押下げられていない場合(S401のNo)、ペン動作反映判断手段128は、電子ペン200を操作状態と判断する(S403)。
一方、操作ボタンが一定時間押下げられている場合(S401のYes)、ペン動作反映判断手段128は、電子ペン200を筆記状態と判断する(S402)。
また、本実施形態のプロジェクタ100は、持ち運び可能なものであり、スクリーンや居室の壁等に画像(映像)を投影でき、投影するときの画面サイズを変更可能である。
このようなプロジェクタ100を備えたインタラクティブシステムでは、電子ペン200の姿勢変化と投影画面10上の移動座標の関係は、投影された画面サイズによって異なる。
そこで、プロジェクタ100に備えたペン動作反映判断手段128を、投影する画面サイズを考慮して電子ペン200のペン先と投影画面10との間の距離を算出できるように構成した。
このように構成することで、次のような効果を奏することができる。
プロジェクタ100で投影する画面サイズを考慮して、電子ペン200のペン先と投影画面10との間の距離を算出でき、どんな画像サイズでも、電子ペン200を投影画面10から離間させて操作する場合に生じる入力誤差を低減できる。
したがって、対話型入力システムの利用性を向上させることができる。
ここで、プロジェクタ100に備えたペン動作反映判断手段128で、電子ペン200のペン先で指す投影画面10上の位置座標の移動を、投影画面10上に反映させるか否か判断する具体的な構成例を、図15を用いて説明する。
図15は、投影する画面サイズ毎に、電子ペン200と、電子ペン200で指す投影画面10上の座標位置との間の距離を求めるためのテーブルを複数、設けた例の説明図である。
図15に示すように、プロジェクタ100に備えたペン動作反映判断手段128では、画面サイズ毎に電子ペン200のペン先と投影画面10との間の距離を求めるためのテーブルを作ることで対応している。画面サイズはユーザに入力してもらい、それに対応したテーブルを使うことで、精度良く電子ペン200と投影画面10間の距離を算出することができる。
なお、本実施形態では、本発明を、画像投影装置として、持ち運び可能なスクリーンや居室内の壁に画像を投影するプロジェクタ100、電子ペン200、コンピュータ300とを備えた画像投影システム1に適用した例について説明した。
しかし、本発明はこのような構成に限定されるものではなく、例えば、座標入力手段として、電子ペン200ではなく、指し棒や、ポインタのような構成の座標入力手段を用いるものにも適用可能である。
また、本発明を、投影画面10に投影される投影画像に埋め込まれたパターン情報を測定して投影画面10上の位置座標を入力する電子ペン200を備えたものについて説明した。
しかし、本発明は、本発明はこのような構成に限定されるものではなく、例えば、他の方式により、投影画面10上の位置座標を入力する座標入力手段を備えたものにも適用できる。
すなわち、本発明の趣旨を逸脱しない範囲で、様々な画像投影装置、画像投影システム、及び対話型入出力システムに適用可能である。
以上に説明したものは一例であり、本発明は、次の態様毎に特有の効果を奏する。
(態様A)
映像信号などの画像信号が入力される映像入力手段121などの画像入力手段、該画像入力手段で入力した画像信号を加工処理して投影信号に変換する映像編集手段124などの画像処理手段、該画像処理手段で投影信号に変換された前記投影信号を投影する投影手段122などの投影手段、及び該投影手段で投影した投影画面10などの投影画面上のP1やP2などの任意の位置座標を特定し、特定した位置座標に関する座標情報を入力する電子ペン200などの座標入力手段を用いるインタラクティブ機能などの対話型入出力機能を備えたプロジェクタ100などの画像投影装置において、前記座標情報から、前記座標入力手段を用いて特定する前記投影画面上の位置座標を算出する位置座標算出手段125などの座標算出手段、前記画像入力手段に画像信号を出力するコンピュータ300などの外部機器や前記座標入力手段と、前記対話型入出力機能に係る情報の送受信を行うインタラクティブ通信手段129などの対話型情報通信手段、前記座標算出手段で算出した位置座標や、前記座標入力手段に有した操作ボタンの操作情報を、当該画像投影装置や前記外部機器の操作情報へと変換するPC操作情報変換手段127などの操作情報変換手段、前記座標入力手段と前記投影画面との間の距離を算出するペン距離算出手段126などの距離算出手段、及び前記座標入力手段を用いて特定する前記投影画面上の位置座標の移動を、前記距離算出手段で算出した距離に応じて、前記投影画面上に反映させるか否か判断するペン動作反映判断手段128などの入力動作反映判断手段を備えることを特徴とする。
これによれば、上記実施形態について説明したように、次のような効果を奏することができる。
座標入力手段と投影画面との距離が離れている程、座標入力手段を操作するユーザなどの操作者の手の振れ等に起因した、操作者が意図しない座標入力手段の姿勢(角度)変化や移動による入力誤差が拡大されるおそれが高い。このため、距離算出手段で算出した距離に応じて、座標入力手段を用いて特定する投影画面上の位置座標の移動を投影画面上に、カーソルの移動や操作として反映させるか否か判断して、操作者の意図しない手の振れ等に起因した入力誤差を低減することができる。
具体的には、距離算出手段で算出した距離が長い程、投影画面上に反映させるときの、座標入力手段を操作した前後に座標算出手段で算出した位置座標の差分である移動座標距離の最小距離などの最小移動距離を大きく設定する。
そして、座標入力手段を投影画面から離間させて操作する場合に、移動座標距離が最小移動距離を超えていないと判断した場合、入力動作反映判断手段は、外部機器へ操作情報を送らないと判断する。外部機器側へ操作情報を送らなければ、座標入力手段の動きが外部機器の操作として反映されないので、手の揺れ等による操作者の意図せぬ微小な座標入力手段の動きが操作として投影画面に反映されることがなくなる。
一方、移動座標距離が最小移動距離を超えていると判断した場合、入力動作反映判断手段は、外部機器へ操作情報を送ると判断し、操作情報変換手段で外部機器の操作情報に変換して、対話型情報通信手段を使って外部機器へ送る。すると、外部機器側に、座標入力手段の操作が反映される。
このように、入力動作反映判断手段で、対話型情報通信手段から外部機器に送信する操作情報を制御することで、座標入力手段を投影画面から離間させて操作する場合に生じる入力誤差を低減できる。
よって、座標入力手段を用いる対話型入力機能を備えた画像投影装置で、座標入力手段を投影画面から離間させて操作する場合に生じる入力誤差を低減できる画像投影装置を提供できる。
(態様B)
(態様A)において、ペン距離算出手段126などの前記距離算出手段は、電子ペン200などの前記座標入力手段のペン先の傾きなどの姿勢を変化させたときの、前記座標入力手段の角度差などの姿勢変化と、位置座標算出手段125などの前記座標算出手段で算出した投影画面10などの前記投影画面上の位置座標の移動座標距離などの移動量とを比較して、前記座標入力手段と前記投影画面との間の距離を算出することを特徴とする。
これによれば、上記実施形態について説明したように、次のような効果を奏することができる。
例えば、特許文献1に記載の画像投影装置(リアプロジェクション表示装置)のように投影画面と座標入力手段との距離を算出するためのセンサを、投影画面近傍の複数の位置に設ける構成とは異なり、投影画面側にセンサを設ける必要がない。
したがって、スクリーンや部屋の壁面等の投影面に画像を投影する持ち運び可能な画像投影装置を設置するときの、投影画面側にセンサを配置する作業等をなくすことができ、画像投影装置を利用するユーザの利便性を高めることができる。
(態様C)
(態様B)において、ペン距離算出手段126などの前記距離算出手段は、電子ペン200などの前記座標入力手段を移動させたときの、前記座標入力手段の移動距離も考慮して、前記座標入力手段と投影画面10などの前記投影画面との間の距離を算出することを特徴とする。
これによれば、上記実施形態について説明したように、次のような効果を奏することができる。
座標入力手段で指す投影画面上の座標位置に投影されるカーソル等の移動座標距離は、座標入力手段の傾きだけでなく、ユーザなどの操作者が座標入力手段自体を投影画面のX軸方向又はY軸方向に移動したときにも発生する。
このような場合、座標入力手段の傾きなどの姿勢変化だけから、座標入力手段と投影画面との間の距離を算出する構成では、算出誤差が大きくなるおそれがある。
また、算出誤差を低減するために座標入力手段自体の移動を抑えるように座標入力手段を操作しようとすると、操作者によっては、座標入力手段の操作するときの動作の特定(癖)と異なってしまい、利用性が低下してしまうおそれもある。
そこで、投影画面との間の距離を算出するときに、座標入力手段の姿勢変化に加え、座標入力手段の移動も考慮することで、図8のテーブルを用いて座標入力手段と投影画面との間の距離を算出するときの投影画面上の移動座標距離を補正することができる。
このように補正することで、座標入力手段の姿勢変化と補正後の移動座標距離を、図8のテーブルと比較することで、算出誤差を低減することができるとともに、操作者の利用性を向上させることができる。
(態様D)
映像などの画像を投影する画像投影装置と、該投影装置で投影した投影画面10などの投影画面上の任意の座標を入力する電子ペン200などの座標入力手段と、前記画像投影装置に投影する画像信号を出力するコンピュータ300などの外部機器と、前記座標入力手段が接触、又は指す投影画面上の位置座標に基づいて、前記外部機器の操作を行うインタラクティブ機能などの対話型入出力機能と、を備えたインタラクティブシステムなどの対話型入力システムにおいて、前記画像投影装置として、請求項1乃至3のいずれか一に記載のプロジェクタ100などの画像投影装置を備え、前記座標入力手段は、前記画像投影装置と前記対話型入出力機能に係る情報の送受信を行うインタラクティブ通信手段229などの対話型情報通信手段、当該座標入力手段が指す投影画像上に埋め込まれているパターン情報を測定し、前記対話型情報通信手段を使って、測定して得た情報を前記画像投影装置へ送る位置情報測定手段225などの位置情報測定手段、操作するときの移動にともなう加速度から、当該座標入力手段自体の移動距離を算出する移動距離算出手段、及び操作するときの姿勢変化にともなう角速度から、当該座標入力手段自体の移動角度を算出する移動距離算出手段226などの移動角度算出手段を有し、コンピュータ300などの前記外部機器は、前記画像投影装置と前記対話型入出力機能に係る情報の送受信を行うインタラクティブ通信手段329などの対話型情報通信手段、当該外部機器に設けたディスプレイなどの表示装置や前記画像投影装置へ画像情報を出力する映像出力手段322などの画像出力手段、及び前記画像投影手段から受信した操作情報に基づいて操作を実行する操作手段323などの操作手段を有していることを特徴とする。
これによれば、上記実施形態について説明したように、座標入力手段を、画像投影装置で投影する投影画面から離間させて操作する場合に生じる入力誤差を低減できる対話型入力システムを提供できる。
(態様E)
(態様D)において、プロジェクタ100などの前記画像投影装置に備えたペン動作反映判断手段128などの前記入力動作反映判断手段は、投影画面10などの前記投影画面上に反映させるときの、電子ペン200などの前記座標入力手段により入力される投影画面10などの前記投影画面上の座標位置の最小距離などの最小移動距離を、インタラクティブシステムなどの当該対話型入力システムを利用するユーザなどの利用者が設定できることを特徴とする。
これによれば、上記実施形態について説明したように、次のような効果を奏することができる。
ユーザなどの操作者毎の動作の特性を考慮して、投影画面に反映させるときの投影画面上の座標位置の最小移動距離を操作者毎に設定することが可能となる。
したがって、座標入力手段を操作するときの動作の特性が異なる、いずれの操作者にとっても、座標入力手段の操作がさらに容易となるとともに、利用性をさらに向上させることができる。
(態様F)
(態様D)又は(態様E)において、プロジェクタ100などの前記画像投影装置に備えたペン動作反映判断手段128などの前記入力動作反映判断手段は、投影画面10などの前記投影画面上に反映させるときの、電子ペン200などの前記座標入力手段により入力される投影画面10などの前記投影画面上の座標位置の最小距離などの最小移動距離を、前記座標入力手段が、コンピュータ300などの前記外部機器を操作する操作状態か、前記外部機器を用いて前記投影画面上に描画や筆記を行う筆記状態かによって、異ならせることを特徴とする。
これによれば、上記実施形態について説明したように、次のような効果を奏することができる。
座標入力手段が操作状態か筆記状態かによって、最適な最小移動距離は異なる。
このため、座標入力手段が操作状態か筆記状態かによって、最小移動距離を異ならせることで、座標入力手段を操作するときのユーザなどの操作者にとって、最適な動きを実現することができる。
したがって、インタラクティブシステムなどの対話型入力システムの機能性を向上させることができる。
(態様G)
(態様D)乃至(態様F)のいずれかにおいて、プロジェクタ100などの前記画像投影装置に備えたペン動作反映判断手段128などの前記距離算出手段は、投影する画面サイズを考慮して電子ペン200などの前記座標入力手段と投影画面10などの前記投影画面との間の距離を算出することを特徴とする。
これによれば、上記実施形態について説明したように、次のような効果を奏することができる。
画像投影装置で投影する画面サイズを考慮して、座標入力装置と投影画面との間の距離を算出でき、どんな画像サイズでも、座標入力手段を投影画面から離間させて操作する場合に生じる入力誤差を低減できる。
したがって、対話型入力システムの利用性が向上させることができる。
1 画像投影システム
10 投影画面
21 映像ケーブル
23 無線
100 プロジェクタ
110 本体制御部
111 CPU(プロジェクタ)
112 ROM(プロジェクタ)
113 RAM(プロジェクタ)
121 映像入力手段
122 投影手段
124 映像編集手段
125 位置座標算出手段
126 ペン距離算出手段
127 PC操作情報変換手段
128 ペン動作反映判断手段
129 インタラクティブ通信手段(プロジェクタ)
130 電源制御部(プロジェクタ)
131 電源(プロジェクタ)
141 映像信号受付部
142 映像信号処理部
143 無線ユニット(プロジェクタ)
144 操作受付部(プロジェクタ)
150 ランプ制御部
151 ランプ
152 光学部
160 ファン
200 電子ペン
210 電子ペン制御部
211 CPU(電子ペン)
212 ROM(電子ペン)
213 RAM(電子ペン)
225 位置情報測定手段
226 移動距離算出手段
227 角度算出手段
229 インタラクティブ通信手段(電子ペン)
230 電源制御部(電子ペン)
231 電源(電子ペン)
243 無線ユニット(電子ペン)
244 操作受付部(電子ペン)
251 レンズ
252 光検出部
253 光変換部
270 加速度検出部
280 角速度検出部
300 コンピュータ
322 映像出力手段
323 操作手段
329 インタラクティブ通信手段(コンピュータ)
特開平10−231032号公報

Claims (7)

  1. 画像信号が入力される画像入力手段、
    該画像入力手段で入力した画像信号を加工処理して投影信号に変換する画像処理手段、
    該画像処理手段で投影信号に変換された前記投影信号を投影する投影手段、
    及び該投影手段で投影した投影画面上の任意の位置座標を特定し、特定した位置座標に関する座標情報を入力する座標入力手段を用いる対話型入出力機能を備えた画像投影装置において、
    前記座標情報から、前記座標入力手段を用いて特定する前記投影画面上の位置座標を算出する座標算出手段、
    前記画像入力手段に画像信号を出力する外部機器や前記座標入力手段と、前記対話型入出力機能に係る情報の送受信を行う対話型情報通信手段、
    前記座標算出手段で算出した位置座標や、前記座標入力手段に有した操作ボタンの操作情報を、当該画像投影装置や前記外部機器の操作情報へと変換する操作情報変換手段、
    前記座標入力手段と前記投影画面との間の距離を算出する距離算出手段、
    及び前記座標入力手段を用いて特定する前記投影画面上の位置座標の移動を、前記距離算出手段で算出した距離に応じて、前記投影画面上に反映させるか否か判断する入力動作反映判断手段を備えることを特徴とする画像投影装置。
  2. 請求項1に記載の画像投影装置において、
    前記距離算出手段は、前記座標入力手段の姿勢を変化させたときの、前記座標入力手段の姿勢変化と、前記座標算出手段で算出した前記投影画面上の位置座標の移動量とを比較して、前記座標入力手段と前記投影画面との間の距離を算出することを特徴とする画像投影装置。
  3. 請求項2に記載の画像投影装置において、
    前記距離算出手段は、前記座標入力手段を移動させたときの、前記座標入力手段の移動距離も考慮して、前記座標入力手段と前記投影画面との間の距離を算出することを特徴とする画像投影装置。
  4. 画像を投影する画像投影装置と、該投影装置で投影した投影画面上の任意の座標を入力する座標入力手段と、前記画像投影装置に投影する画像信号を出力する外部機器と、
    前記座標入力手段が接触、又は指す投影画面上の位置座標に基づいて、前記外部機器の操作を行う対話型入出力機能と、を備えた対話型入力システムにおいて、
    前記画像投影装置として、請求項1乃至3のいずれか一に記載の画像投影装置を備え、
    前記座標入力手段は、前記画像投影装置と前記対話型入出力機能に係る情報の送受信を行う対話型情報通信手段、当該座標入力手段が指す投影画像上に埋め込まれているパターン情報を測定し、前記対話型情報通信手段を使って、測定して得た情報を前記画像投影装置へ送る位置情報測定手段、操作するときの移動にともなう加速度から、当該座標入力手段自体の移動距離を算出する移動距離算出手段、及び操作するときの姿勢変化にともなう角速度から、当該座標入力手段自体の移動角度を算出する移動角度算出手段を有し、
    前記外部機器は、前記画像投影装置と前記対話型入出力機能に係る情報の送受信を行う対話型情報通信手段、
    当該外部機器に設けた表示装置や前記画像投影装置へ画像情報を出力する画像出力手段、
    及び前記画像投影手段から受信した操作情報に基づいて操作を実行する操作手段を有していることを特徴とする対話型入力システム。
  5. 請求項4に記載の対話型入力システムにおいて、
    前記画像投影装置に備えた前記入力動作反映判断手段は、前記投影画面上に反映させるときの、前記座標入力手段により入力される前記投影画面上の座標位置の最小移動距離を、当該対話型入力システムを利用する利用者が設定できることを特徴とする対話型入力システム。
  6. 請求項4又は5に記載の対話型入力システムにおいて、
    前記画像投影装置に備えた前記入力動作反映判断手段は、前記投影画面上に反映させるときの、前記座標入力手段により入力される前記投影画面上の座標位置の最小移動距離を、
    前記座標入力手段が、前記外部機器を操作する操作状態か、前記外部機器を用いて前記投影画面上に描画や筆記を行う筆記状態かによって、異ならせることを特徴とする対話型入力システム。
  7. 請求項4乃至6のいずれか一に記載の対話型入力システムにおいて、
    前記画像投影装置に備えた前記距離算出手段は、投影する画面サイズを考慮して前記座標入力手段と前記投影画面との間の距離を算出することを特徴とする対話型入力システム。
JP2014248047A 2014-12-08 2014-12-08 画像投影装置、及び対話型入出力システム。 Pending JP2016110436A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014248047A JP2016110436A (ja) 2014-12-08 2014-12-08 画像投影装置、及び対話型入出力システム。
EP15197295.7A EP3032380B1 (en) 2014-12-08 2015-12-01 Image projection apparatus, and system employing interactive input-output capability
US14/955,621 US9778763B2 (en) 2014-12-08 2015-12-01 Image projection apparatus, and system employing interactive input-output capability
CN201510870320.7A CN105677061A (zh) 2014-12-08 2015-12-02 图像投影装置以及对话方式输入系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014248047A JP2016110436A (ja) 2014-12-08 2014-12-08 画像投影装置、及び対話型入出力システム。

Publications (1)

Publication Number Publication Date
JP2016110436A true JP2016110436A (ja) 2016-06-20

Family

ID=54843614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014248047A Pending JP2016110436A (ja) 2014-12-08 2014-12-08 画像投影装置、及び対話型入出力システム。

Country Status (4)

Country Link
US (1) US9778763B2 (ja)
EP (1) EP3032380B1 (ja)
JP (1) JP2016110436A (ja)
CN (1) CN105677061A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10705626B2 (en) 2017-11-24 2020-07-07 Seiko Epson Corporation Image display device and control method for image display device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108965840B (zh) * 2018-08-02 2020-11-06 原点显示(深圳)科技有限公司 自由输入端的交互式投影仪
CN109683775B (zh) * 2018-12-12 2021-07-06 歌尔科技有限公司 基于投影的交互方法、投影设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3994672B2 (ja) * 2000-03-31 2007-10-24 セイコーエプソン株式会社 画像処理を用いた指示位置の検出
JP4006290B2 (ja) 2002-07-30 2007-11-14 キヤノン株式会社 座標入力装置、座標入力装置の制御方法、プログラム
WO2005119356A2 (en) 2004-05-28 2005-12-15 Erik Jan Banning Interactive direct-pointing system and calibration method
JP2006197105A (ja) * 2005-01-12 2006-07-27 Nec Viewtechnology Ltd 発信器情報受信部付プロジェクタと投射画像歪み補正方法
US9285897B2 (en) * 2005-07-13 2016-03-15 Ultimate Pointer, L.L.C. Easily deployable interactive direct-pointing system and calibration method therefor
TWI317084B (en) * 2006-05-05 2009-11-11 Pixart Imaging Inc Pointer positioning device and method
JP4745317B2 (ja) * 2007-11-07 2011-08-10 シャープ株式会社 表示システムおよび指示位置の検出方法
CN102422306B (zh) * 2009-04-08 2015-09-09 高通股份有限公司 增强型手持式屏幕感测指针
US8217997B2 (en) * 2010-03-16 2012-07-10 Interphase Corporation Interactive display system
JP5685854B2 (ja) 2010-08-20 2015-03-18 株式会社リコー 電子情報ボード装置
JP5821640B2 (ja) 2012-01-06 2015-11-24 株式会社リコー 情報処理装置
US20130285905A1 (en) * 2012-04-30 2013-10-31 Favepc Inc. Three-dimensional pointing device and system
JP6020159B2 (ja) 2012-12-27 2016-11-02 株式会社リコー 情報処理装置、及び情報処理方法
US9804689B2 (en) * 2013-02-19 2017-10-31 Pixart Imaging Inc. Handheld pointer device and pointer positioning method thereof
US10067576B2 (en) * 2013-02-19 2018-09-04 Pixart Imaging Inc. Handheld pointer device and tilt angle adjustment method thereof
JP6191412B2 (ja) 2013-11-21 2017-09-06 株式会社リコー 情報処理装置、画像投影装置、画像投影システム、歪み補正指示方法及びプログラム
JP2015115046A (ja) * 2013-12-16 2015-06-22 ソニー株式会社 情報処理装置、プログラム、情報処理方法及び情報処理システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10705626B2 (en) 2017-11-24 2020-07-07 Seiko Epson Corporation Image display device and control method for image display device

Also Published As

Publication number Publication date
CN105677061A (zh) 2016-06-15
US20160162050A1 (en) 2016-06-09
EP3032380B1 (en) 2018-05-02
EP3032380A1 (en) 2016-06-15
US9778763B2 (en) 2017-10-03

Similar Documents

Publication Publication Date Title
US9552071B2 (en) Information processing apparatus, information processing method and computer program
US20110242054A1 (en) Projection system with touch-sensitive projection image
JP5808712B2 (ja) 映像表示装置
JP2007141199A (ja) ハンドヘルド型のコンピュータカーソル制御装置、このハンドヘルド型のコンピュータカーソル制御装置を用いてカーソルを制御するコンピュータ装置、方法およびコンピュータ読取り可能媒体
EP3037936B1 (en) Image projection apparatus, and system employing interactive input-output capability
US10073586B2 (en) Method and system for mouse pointer to automatically follow cursor
JP2016110436A (ja) 画像投影装置、及び対話型入出力システム。
JP2010113598A (ja) 入力システム、入力方法、入力装置及びプログラム
EP2538308A2 (en) Motion-based control of a controllled device
JP2015215701A (ja) 座標入力装置、座標入力システム、座標入力装置の制御方法およびプログラム
JP2020135096A (ja) 表示方法、表示装置、及び、インタラクティブプロジェクター
JP5651358B2 (ja) 座標入力装置及びプログラム
US9946333B2 (en) Interactive image projection
JP2009238004A (ja) ポインティングデバイス
US20120062477A1 (en) Virtual touch control apparatus and method thereof
US10180759B2 (en) Coordinate detecting apparatus, system, and coordinate detecting method
JP2017111164A (ja) 画像投写装置、及び対話型入出力システム。
JP6500665B2 (ja) 画像投影装置及び画像投影システム
KR101719454B1 (ko) 키보드 타이핑 모션 생성 방법 및 장치
US9971419B2 (en) Interactive projector and method of correcting Z-coordinate of the same
JP6156227B2 (ja) 入力装置、本体装置、入力情報補正システム、制御プログラム
US20160320897A1 (en) Interactive display system, image capturing apparatus, interactive display method, and image capturing method
CN103677430A (zh) 一种触摸设备
KR20160107935A (ko) 터치스크린장치와 연동된 원격무선 포인터제어장치 및 그 제어방법
WO2018211659A1 (ja) 操作検出装置、及びそれを備えた映像表示装置、映像表示方法