JP2017010506A - タッチ入力装置、投影装置、タッチ入力方法及びプログラム - Google Patents

タッチ入力装置、投影装置、タッチ入力方法及びプログラム Download PDF

Info

Publication number
JP2017010506A
JP2017010506A JP2015139782A JP2015139782A JP2017010506A JP 2017010506 A JP2017010506 A JP 2017010506A JP 2015139782 A JP2015139782 A JP 2015139782A JP 2015139782 A JP2015139782 A JP 2015139782A JP 2017010506 A JP2017010506 A JP 2017010506A
Authority
JP
Japan
Prior art keywords
unit
finger
light
touch
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015139782A
Other languages
English (en)
Other versions
JP6540305B2 (ja
Inventor
宮崎 健
Takeshi Miyazaki
健 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Publication of JP2017010506A publication Critical patent/JP2017010506A/ja
Application granted granted Critical
Publication of JP6540305B2 publication Critical patent/JP6540305B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)
  • Projection Apparatus (AREA)

Abstract

【課題】専用のデバイスを用いず、多様なタッチ操作に対するUIを実現する。
【解決手段】予め設定された範囲でタッチ操作される手指を撮影するカメラ部10Bと、撮影した手指の画像から、タッチ操作の位置を検出し、撮影した手指の画像から、タッチ操作の圧力を示す特徴情報を抽出し、抽出した特徴情報に基づいてタッチ操作の圧力を算出するCPU32とを備える。
【選択図】図1

Description

本発明は、例えばプレゼンテーションで使用するプロジェクタ装置等に好適なタッチ入力装置、投影装置、タッチ入力方法及びプログラムに関する。
パーソナルコンピュータの操作やプロジェクタによる画像投影を可能とし、操作性の向上を図ることを目的としたインタラクティブ電子黒板に関する技術が提案されている。(例えば、特許文献1)
特開2000−355188号公報
また上記特許文献に記載された技術と同様の発想により、投影する画像中のなんらかの要素に対するタッチ操作等を受付けることが可能なプロジェクタ装置が考えられる。
図10は、例えば机上等の載置面BSに画像を投影する縦置き型のプロジェクタ1の設置構成を例示する図である。同図で、プロジェクタ1の上部に設けられる、図示しない投影レンズ系からの投影光PIが斜め下方の載置面BSに照射される。
投影光PIにより載置面BS上に表示される画像中の任意の位置に対して、ユーザの手指FGでタッチ操作を行なうものとする。
プロジェクタ1の下部にはIrレーザ出力部1Aが設けられ、投影光PIの投影面をカバーするように、載置面BSと一定距離、例えば5[mm]離れて平行となる不可視の赤外光を水平面で拡散して出射している。
合わせて、投影光PIの照射範囲をカバーするように、赤外光を受光して撮像するカメラ部1Bを設けている。
投影した画像に対して上記した如く手指FGによるタッチ操作があった場合、図示するように反射光Rを含む画像が上記カメラ部1Bにより撮影される。
図11は、上記プロジェクタ1において載置面BS上の投影光PIによる照射範囲内を手指FGでタッチ操作した場合に、プロジェクタ1内部で実行する位置検出に係る処理内容を示す。
なお上記カメラ部1Bで撮影する画像の範囲は、投影光PIが照射される範囲に対して予めマッチングされており、撮影した画像中の位置から投影した画像の位置を特定できるものとする。
その処理当初にプロジェクタ1の電源が投入されると、プロジェクタ1では投影動作を開始すると共に、上記Irレーザ出力部1Aによるレーザ光の出射とカメラ部1Bによる投影範囲の撮像とを起動させる(ステップS101)。
ここでプロジェクタ1では、カメラ部1Bにより撮像した画像中で、反射光Rによる受光と思われる画素成分があるか否かにより、投影範囲内で手指FGによるタッチ操作があるか否かを判断する(ステップS102)。
ここで撮像画像中に反射光Rによる受光と思われる画素成分がなく、投影範囲内で手指FGによるタッチ操作はないと判断した場合(ステップS102のNo)、プロジェクタ1は再び上記ステップS102からの処理に戻り、以後ステップS102の判断処理を繰返し実行することで、投影動作を実行しながら手指FGによるタッチ操作がなされるのを待機する。
また上記ステップS102において、撮像画像中に反射光Rによる受光と思われる画素成分があり、投影範囲内で手指FGによるタッチ操作があったと判断した場合(ステップS102のYes)、プロジェクタ1では次に直前の撮影で得た画像を取得した上で(ステップS103)、反射光Rによる受光と思われる画素成分の輪郭抽出処理を実行して手指FGの先端の形状を認識し、その輪郭の先端の中心となる座標位置をタッチ位置として算出する(ステップS104)。
ここでタッチ位置が算出できたか否かにより、タッチ位置の検出が成功したか否かを判断する(ステップS105)。
タッチ位置が算出できず、タッチ位置の検出が失敗したと判断した場合(ステップS105のNo)、プロジェクタ1では上記タッチ操作の検出を無効として、あらたなタッチ操作を検出するべく、上記ステップS102からの処理に戻る。
また上記ステップS105において、タッチ位置が算出でき、タッチ位置の検出が成功したと判断した場合(ステップS105のYes)、その時点で投影している内容に基づき、検出したタッチ位置座標を反映した動作を実行するか、あるいはプロジェクタ1が外部接続したパーソナルコンピュータ等から実行中のアプリプログラムに基づく画像を投影しているのであればタッチ位置座標を当該パーソナルコンピュータに送出して投影内容に反映させた上で(ステップS106)、次のタッチ操作に備えるべく上記ステップS102からの処理に戻る。
上記のような投影画像に対するタッチ検出を実行する場合、タッチの操作に対して検出できるのはタッチされた位置のみである。
本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、専用のタッチ入力用のデバイスを用いることなく、多様なタッチ操作に対するユーザインタフェースを実現することが可能なタッチ入力装置、投影装置、タッチ入力方法及びプログラムを提供することにある。
本発明の一態様は、予め設定された操作面の所定の範囲で手指を撮影する撮影部と、上記撮影部で撮影した手指の画像から、上記手指の位置及び上記操作面でのタッチ操作を検出する検出部と、を備えることを特徴とする。
本発明によれば、専用のタッチ入力用のデバイスを用いることなく、多様なタッチ操作に対するユーザインタフェースを実現することが可能となる。
本発明の第1の実施形態に係るプロジェクタの設置構成を例示する図。 同実施形態に係るプロジェクタの主として電子回路の機能構成を説明するブロック図。 同実施形態に係るCMOSイメージセンサが備えるカラーフィルタの画素構成の一部を示す図。 同実施形態に係る位置検出及び圧力検出に係る処理内容を示すフローチャート。 同実施形態に係る手指によるタッチ操作の圧力の大小を比較して示す図。 本発明の第2の実施形態に係るプロジェクタの設置構成を例示する図。 同実施形態に係るプロジェクタの主として電子回路の機能構成を説明するブロック図。 同実施形態に係るCMOSイメージセンサが備えるカラーフィルタの画素構成の一部を示す図。 同実施形態に係る位置検出及び圧力検出に係る処理内容を示すフローチャート。 一般的な縦置き型のプロジェクタ装置での投影構成を例示する図。 図10のプロジェクタで実行する位置検出に係る処理内容を示すフローチャート。
(第1の実施形態)
以下、本発明を縦置き型のプロジェクタに適用した場合の第1の実施形態について、図面を参照して詳細に説明する。
図1は、同プロジェクタ10の設置構成を例示する図である。同図で、プロジェクタ10の筐体上部側に設けられる、図示しない投影レンズ系からの投影光PIが斜め下方の載置面BSに照射される。
投影光PIにより載置面BS上に表示される画像中の任意の位置に対して、ユーザの手指FGでタッチ操作を行なうものとする。
プロジェクタ10の上部には、IrLED部10Aが設けられ、投影光PIの投影面をカバーするように、不可視の近赤外光LTを照射している。
合わせて、投影光PIの照射範囲をカバーするように、赤外光及び可視光を受光して撮像するカメラ部10Bを設けている。
投影した画像に対して上記した如く手指FGによるタッチ操作があった場合、図示するように反射光Rを含む画像が上記カメラ部10Bにより撮影される。
次に図2によりプロジェクタ10の主として電子回路の機能構成を説明する。信号入力部20は、パーソナルコンピュータやUSBメモリ等の外部機器を接続し、音声信号を伴う各種映像信号を入力する。信号入力部20から入力された映像信号は、後述するCPU32によりバスBを介して投影画像駆動部21に送られる。
上記投影画像駆動部21は、送られてきた映像信号に応じて、所定のフォーマットに従ったフレームレート、例えば120[フレーム/秒]と色成分の分割数、及び表示階調数を乗算した、より高速な時分割駆動により、表示素子であるマイクロミラー素子22を表示駆動する。
このマイクロミラー素子22は、アレイ状に配列された複数個、例えばWXGA(横1280画素×縦768画素)分の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することで、その反射光により光像を形成する。
一方で、光源部23から時分割でR,G,Bの原色光が循環的に出射される。光源部23は、半導体発光素子であるLEDを有し、R,G,Bの原色光を時分割で繰返し出射する。
光源部23が有するLEDは、広義でのLEDとして、LD(半導体レーザ)や有機EL素子を含むものとしても良い。この光源部23からの原色光が、ミラー24で反射して上記マイクロミラー素子22に照射される。
そして、マイクロミラー素子22での反射光で光像が形成され、形成された光像が投影レンズ部25を介して上記載置面BS上に投射される。
上記カメラ部10Bは、撮影レンズ部27、及びこの撮影レンズ部27の焦点位置に配設された固体撮像素子であるCMOSイメージセンサ28を含む。
図3は、CMOSイメージセンサ28が備えるカラーフィルタの画素構成の一部を示す。同図に示すように、可視光に対応した「R(赤色)」「G(緑色)」「B(青色)」と、上記IrLED部10Aの出力する近赤外光LTに対応した「Ir」の4画素を1単位として規則配置されたカラーフィルタを構成している。
CMOSイメージセンサ28で得られる画像信号は、A/D変換器29でデジタル化された後、撮影画像処理部30に送られる。
この撮影画像処理部30は、上記CMOSイメージセンサ28を走査駆動して撮影動作を実行させ、撮影により得た画像データをデータファイル化して、後述するCPU32に送出する。
さらに上記撮影画像処理部30は、撮影により得た画像データ中から輪郭抽出処理により人間の手指の先端を認識して抽出した上で、当該部分の中心位置の検出や、色の変化部分の抽出等を行なう。これらの画像認識処理の結果等は以下のCPU32へ送られる。
上記各回路の動作すべてをCPU32が制御する。このCPU32は、メインメモリ33及びプログラムメモリ34と直接接続される。メインメモリ33は、例えばSRAMで構成され、CPU32のワークメモリとして機能する。プログラムメモリ34は、電気的書換可能な不揮発性メモリ、例えばフラッシュROMで構成され、CPU32が実行する動作プログラムや各種定型データ等を記憶する。
CPU32は、上記プログラムメモリ34に記憶されている動作プログラムや定型データ等を読出し、メインメモリ33に展開して記憶させた上で当該プログラムを実行することにより、このプロジェクタ10を統括して制御する。
上記CPU32は、操作部35からの操作信号に応じて各種投影動作を実行する。この操作部35は、プロジェクタ10の本体に備える、電源キーを含むいくつかの操作キーのキー操作信号を受付け、受付けた操作に応じた信号を上記CPU32へ送出する。
上記CPU32はさらに、上記バスBを介して上記IrLED部10A、及び音処理部36と接続される。
音処理部36は、PCM音源等の音源回路を備え、投影動作時に上記信号入力部20を介して入力される音声信号をアナログ化し、スピーカ部37を駆動して放音させ、あるいは必要によりビープ音等を発生させる。
次に上記実施形態の動作について説明する。
図4は、上記プロジェクタ10において載置面BS上の投影光PIによる照射範囲内を手指FGでタッチ操作した場合に、プロジェクタ10内部でCPU32が実行する、位置検出及び圧力検出に係る処理内容を示す。
なお上記カメラ部10Bで撮影する画像の範囲は、投影光PIが照射される範囲に対して予めマッチングされており、撮影した画像中の位置から投影した画像の位置を特定できるものとする。
その処理当初にプロジェクタ10の電源が投入されると、プロジェクタ10では投影動作を開始すると共に、上記IrLED部10Aによる近赤外光LTの出射と、カメラ部10Bによる上記投影範囲を撮像する動作(撮影工程)と、を起動させる(ステップS201)。
ここでプロジェクタ10では、CPU32が撮影画像処理部30を介し、カメラ部10Bにより撮像した画像に基づいて、投影範囲内で手指FGによるタッチ操作があるか否かを判断する(ステップS202)。
これは、撮影画像データ中、上記図3で示したカラーフィルタの「Ir」位置の画素成分で予め設定した閾値を超えているものが部分的に連続してあるか否かにより判断するもので、ないと判断した場合(ステップS202のNo)、CPU32は再び上記ステップS202からの処理に戻り、以後ステップS202の判断処理を繰返し実行することで、投影動作を実行しながら手指FGによるタッチ操作がなされるのを待機する。
また上記ステップS202において、カラーフィルタの「Ir」位置の画素成分で予め設定した閾値を超えているものが部分的に連続してあり、投影範囲内で手指FGによるタッチ操作があったと判断した場合(ステップS202のYes)、CPU32ではあらためてカメラ部10Bの撮影により画像を取得した上で(ステップS203)、画像中の上記カラーフィルタの「Ir」位置の画素成分について輪郭抽出処理を実行して手指FGの先端の形状を認識し、その輪郭の先端の中心となる座標位置をタッチ位置として算出し、保持する(ステップS204:第1の検出工程)。
次に撮影画像中の上記手指FGの先端の画像範囲に対し、上記「R」「G」「B」の各画素成分に応じて、特に爪の先端側で、同根元側の肌色の部分に比して、白っぽくなっている部分を抽出して保持する(ステップS205:第2の検出工程)。
図5は、手指FGによるタッチ操作の圧力の大小を比較して示す図である。
図5(A)は、手指FGが軽く接触している程度のタッチ操作状態を例示している。手指FG全体がほぼ肌色一色であり、爪部NLも、爪床(爪に覆われている皮膚部分)と接していない先端側の縁の白い部分を除いて薄い肌色一色となっている。
図5(B)は、手指FGを強く押圧するようなタッチ操作状態を例示している。同図(B)中の一点鎖線で示す円V中に印「×」で示すように、手指FGの先端が強い押圧によって白くなると共に、爪部NLも、それまで薄い肌色であった先端側が同様に白くなる。これらは、指先内部の血管から押圧によって血液が押し出されて一時的に血流が途絶えることによるものと考えられる。
上記ステップS205でタッチ操作の圧力によって白くなっている部分を抽出した後、さらにCPU32はカメラ部10Bでの撮影により、投影範囲内で手指FGによるタッチ操作がなくなったかどうかを判断する(ステップS206)。
タッチ操作がなくなっていない場合(ステップS206のNo)、CPU32は上記ステップS203からの処理に戻る。
こうしてタッチ操作がなされている間、上記ステップS203〜S206の処理を繰返し実行し、タッチ操作された位置と圧力に関する情報を蓄積する。そして、タッチ操作がなくなったと判断した時点で(ステップS206のYes)、CPU32はそれまでに蓄積した時系列のタッチ操作の圧力の情報に基づき、一連のタッチ操作を総括したタッチの強さを解析する(ステップS207)。
ここで、タッチの強さの解析ができたか否かを判断する(ステップS208)。タッチの強さが解析できなかったと判断した場合(ステップS208のNo)、CPU32は上記タッチ操作の検出を無効として、あらたなタッチ操作を検出するべく、上記ステップS202からの処理に戻る。
また上記ステップS208においてタッチの強さの解析ができたと判断した場合(ステップS208のYes)、CPU32はその時点で投影している内容に基づき、検出したタッチの強さとタッチの位置を反映した動作を実行するか、あるいはプロジェクタ10が外部接続したパーソナルコンピュータ等から実行中のアプリプログラムに基づく画像を投影しているのであればタッチの強さと位置の情報を当該パーソナルコンピュータ等に送出して投影内容に反映させる(ステップS209)。
例えば、文字や絵などを描画している際、強くタッチした際は太い線となり、弱くタッチした際は細い線となる。また頁めくりを行う際、弱くタッチすると次の頁に頁めくりされ、強くタッチすると最終頁に移動する。次のタッチ操作に備えるべく上記ステップS202からの処理に戻る。
以上のような操作は、撮影部において予め設定された操作面の所定の範囲で手指を撮影し、第1の検出部によって撮影部で撮影した手指の画像から手指の位置を検出し、第2の検出部により撮影部で撮影した手指の画像から操作面でのタッチ操作を検出する。
(第2の実施形態)
以下、本発明を縦置き型のプロジェクタに適用した場合の第2の実施形態について、図面を参照して詳細に説明する。
図6は、同プロジェクタ10′の設置構成を例示する図である。同図で、プロジェクタ10′の筐体上部側に設けられる、図示しない投影レンズ系からの投影光PIが斜め下方の載置面BSに照射される。
投影光PIにより載置面BS上に表示される画像中の任意の位置に対して、ユーザの手指FGでタッチ操作を行なうものとする。
プロジェクタ10′の上部には第1のIrLED部10A′が設けられ、投影光PIの投影面をカバーするように、不可視の近赤外光LT1を照射している。
またプロジェクタ10′の下部には第2のIrLED部10Cが設けられ、投影光PIの投影面をカバーするように、不載置面BSと一定距離、例えば5[mm]離れて平行となる不可視の近赤外光LT2を水平面で拡散して出射している。
上記IrLED部10Aの出射する近赤外光LT1と、上記第2のIrLED部10Cが出射する近赤外光LT2は、互いに異なる波長とすることで、相互の出射光を分離して検出可能としている。
合わせて、上記投影光PIの照射範囲をカバーするように、近赤外光及び可視光を受光して撮像するカメラ部10B′を設けている。
投影した画像に対して上記した如く手指FGによるタッチ操作があった場合、図示するように反射光Rを含む画像が上記カメラ部10B′により撮影される。
次に図7によりプロジェクタ10′の主として電子回路の機能構成を説明する。なお、基本的な構成は上記図2に説明した内容とほぼ同等であるため、同一部分には同一符号を付してその説明を省略する。
図2のIrLED部10Aに代えて、バスBにはIrLED部10A′と第2のIrLED部10Cが接続される。
また、カメラ部10Bを構成するCMOSイメージセンサ28′には、図3に示すような画素構成のカラーフィルタが備えられる。
図8は、CMOSイメージセンサ28が備えるカラーフィルタの画素構成の一部を示す。同図に示すように、可視光に対応した「R(赤色)」「G(緑色)」「B(青色)」と、近赤外光に対応した「Irx(x=1または2)」の4画素を1単位として規則配置されたカラーフィルタを構成している。
ここで「Ir1」は、上記第1のIrLED部10A′の出力する近赤外光LT1を透過させるフィルタであり、一方の「Ir2」は、上記第2のIrLED部10C′の出力する近赤外光LT2を透過させるフィルタである。
図示するように「Irx」の画素位置では、「Ir1」のフィルタと「Ir2」のフィルタとを交互に配置している。
次に上記実施形態の動作について説明する。
図9は、上記プロジェクタ10′において載置面BS上の投影光PIによる照射範囲内を手指FGでタッチ操作した場合に、プロジェクタ10′内部でCPU32が実行する、位置検出及び圧力検出に係る処理内容を示す。
なお上記カメラ部10B′で撮影する画像の範囲は、投影光PIが照射される範囲に対して予めマッチングされており、撮影した画像中の位置から投影した画像の位置を特定できるものとする。
その処理当初にプロジェクタ10′の電源が投入されると、プロジェクタ10′では投影動作を開始すると共に、上記第1のIrLED部10A′による近赤外光LT1の出射、第2のIrLED部10Cによる近赤外光LT2の出射、及びカメラ部10B′による上記投影範囲を撮像する動作とを起動させる(ステップS301)。
ここでプロジェクタ10′では、CPU32が撮影画像処理部30を介し、カメラ部10B′により撮像した画像に基づいて、投影範囲内で手指FGによるタッチ操作があるか否かを判断する(ステップS302)。
これは、撮影画像データ中、上記図8で示したカラーフィルタの「Ir1」位置及び「Ir2」位置の画素成分で予め設定した閾値を超えているものが部分的に連続してあるか否かにより判断するもので、ないと判断した場合(ステップS302のNo)、CPU32は再び上記ステップS302からの処理に戻り、以後ステップS302の判断処理を繰返し実行することで、投影動作を実行しながら手指FGによるタッチ操作がなされるのを待機する。
また上記ステップS302において、カラーフィルタの「Ir1」位置及び「Ir2」位置の画素成分で予め設定した閾値を超えているものが部分的に連続してあり、投影範囲内で手指FGによるタッチ操作があったと判断した場合(ステップS302のYes)、CPU32ではあらためてカメラ部10Bの撮影により画像を取得する(ステップS303)。
その上で、取得した撮影画像中の上記カラーフィルタの「Ir2」位置の画素成分を主体として輪郭抽出処理を実行し、手指FGの先端の形状を認識して、その輪郭の先端の中心となる座標位置をタッチ位置として算出し、保持する(ステップS304)。
次に撮影画像中の上記手指FGの先端の画像範囲に対し、上記「Ir1」の各画素成分に応じた静脈の血流画像を主体とし、上記「R」「G」「B」の各画素成分とした色成分を副体として、タッチ操作の圧力画像を取得する(ステップS305)。
上記「Ir1」の各画素成分に応じた静脈の血流画像では、指で反射される近赤外線の画像をカメラで取得し、血中のヘモグロビンが赤外線を吸収するために画像中から静脈の形状、太さを取得することができるもので、タッチ操作の押圧により指先に強い圧力がかかっている場合には当該部分の静脈が一時的に細くなることから、指先に与えられている圧力を検出しようとするものである。
加えて、可視光による上記第1の実施形態と同様の「R」「G」「B」の各画素成分とした指先が加圧により白くなっている範囲を合わせて検出することで、より正確な検出動作を実現できる。
その後、さらにCPU32はカメラ部10B′での撮影により、投影範囲内で手指FGによるタッチ操作がなくなったかどうかを判断する(ステップS306)。
タッチ操作がなくなっていない場合(ステップS306のNo)、CPU32は上記ステップS303からの処理に戻る。
こうしてタッチ操作がなされている間、上記ステップS303〜S306の処理を繰返し実行し、タッチ操作された位置と圧力に関する情報を蓄積する。そして、タッチ操作がなくなったと判断した時点で(ステップS306のYes)、CPU32はそれまでに蓄積した時系列のタッチ操作の圧力の情報に基づき、一連のタッチ操作を総括したタッチの強さを解析する(ステップS307)。
ここで、タッチの強さの解析ができたか否かを判断する(ステップS308)。タッチの強さが解析できなかったと判断した場合(ステップS308のNo)、CPU32は上記タッチ操作の検出を無効として、あらたなタッチ操作を検出するべく、上記ステップS302からの処理に戻る。
また上記ステップS308において、タッチの強さの解析ができたと判断した場合(ステップS308のYes)、CPU32はその時点で投影している内容に基づき、検出したタッチの強さとタッチの位置を反映した動作を実行するか、あるいはプロジェクタ10′が外部接続したパーソナルコンピュータ等から実行中のアプリプログラムに基づく画像を投影しているのであればタッチの強さと位置の情報を当該パーソナルコンピュータ等に送出して投影内容に反映させた上で(ステップS309)、次のタッチ操作に備えるべく上記ステップS302からの処理に戻る。
以上詳述した如く第1及び第2の実施形態によれば、専用のタッチ入力用のデバイスを用いることなく、多様なタッチ操作に対するユーザインタフェースを実現することが可能となる。
また上記各実施形態では、IrLED部10A、または第1のIrLED部10A′及び第2のIrLED部10Cを用いて検出対象となる範囲に光を照射し、その反射光を撮影した上でタッチ操作の位置及び圧力をそれぞれ得るようにしたので、それらを得るのに適した特性を有する光を選定して使用することで、より高い精度でタッチ操作の位置及び圧力を得ることができる。
さらに上記第2の実施形態では、複数の箇所から投光することにより、より広い範囲内でもれなく手指に対して高い精度で位置及び圧力を得ることができる。
ここで上記複数の投光を互いに異なる波長の光で照射することにより、撮影結果を複数の投光位置と対応付けて認識することができ、さらに高い精度でタッチ操作の位置及び圧力を得ることができる。
なお上記各実施形態では説明していないが、撮影部であるカメラ部10Bを複数、例えば2台設けてステレオカメラとし、それぞれの撮影結果を参照することによっても、タッチ操作の位置及び圧力の精度を上げることができる。
また上記撮影部であるカメラ部10B(10B′)で、上記図3または図8に示したように投光する光の波長帯域に応じた透過フィルタを画素単位で配したカラーフィルタを有するものとすることで、容易に投光に対する反射光の成分を分離することができ、装置の構成や処理を簡易化できる。
なお上記第1及び第2の実施形態はいずれも、画像の投影を行なうプロジェクタ10(10′)において、投影画像の範囲内への手指によるタッチ操作を受付けるものであり、専用のタッチ入力用のデバイスを用いることなしに、スクリーンやカーテン、壁面、机上、テーブルなど、投影対象を選ばずに、投影画像に対するタッチ操作を受付けることができる。
加えて上記各実施形態では、画像投影の可視光に対して、IrLED部10A(10A′,10C)が不可視の近赤外光LTを出射するものとしたので、投影される画像に対する影響を与えることなくタッチ操作に対する処理を実行できる。
なお上記各実施形態では、プロジェクタがLEDを光源としてDLP(登録商標)(Digital Light Processing)方式の画像を投影を行なう場合について説明したが、本発明は光源となる素子やプロジェクション方式などを限定するものではない。
また、上記各実施形態では、赤外光及び可視光を受光して撮像するカメラ部10Bを設けてタッチ操作を検出したが、この構成に限らない。例えば、赤外光を受光して撮像する第1のカメラ部と、可視光を受光して撮像する第2のカメラ部と、をそれぞれ別個に設けても良い。
これにより、CMOSイメージセンサ28が備えるカラーフィルタも、第1のカメラ部は、上記IrLED部10Aの出力する近赤外光LTに対応した「Ir」の画素が配置されたカラーフィルタを有し、第2のカメラ部は、可視光に対応した「R(赤色)」「G(緑色)」「B(青色)」の画素を1単位として規則配置されたカラーフィルタを有する、それぞれ一般的で比較的安価なカメラを用いることができる。
また、第1または第2のカメラ部のいずれかが故障した場合、カメラ部10Bよりも安価なコストで修理、交換することができる。
さらには、カメラ部10Bは、赤外光のみを受光して撮像する構成としても良い。赤外光のみの受光でも手指FGの明暗及び階調を認識できるため、手指FGの撮像画像からタッチ操作を検出することができる。これにより、より安価で簡易な構成で同様の効果を得ることができる。
その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[請求項1]
予め設定された操作面の所定の範囲で手指を撮影する撮影部と、
上記撮影部で撮影した手指の画像から、上記手指の位置及び上記操作面でのタッチ操作を検出する検出部と、
を備えることを特徴とするタッチ入力装置。
[請求項2]
上記検出部は、上記手指の位置を検出する第1の検出部と、上記操作面でのタッチ操作を検出する第2の検出部と、を含むことを特徴とする請求項1記載のタッチ入力装置。
[請求項3]
上記範囲に光を照射する投光部をさらに備え、
上記撮影部は、上記投光部で照射した光の反射光を用いてタッチ操作される手指を撮影する
ことを特徴とする請求項1記載のタッチ入力装置。
[請求項4]
上記第2の検出部は、上記手指の白くなっている部分の面積を検出する
ことを特徴とする請求項2記載のタッチ入力装置。
[請求項5]
上記投光部は、複数箇所から上記範囲に光を照射することを特徴とする請求項3記載のタッチ入力装置。
[請求項6]
上記投光部は、複数箇所から互いの波長が異なる光を上記範囲に照射することを特徴とする請求項5記載のタッチ入力装置。
[請求項7]
上記撮影部は、上記投光部で照射する光の周波数帯域に応じた透過フィルタを画素単位で配した撮像素子を有することを特徴とする請求項3,5,6いずれか記載のタッチ入力装置。
[請求項8]
上記請求項1乃至7いずれか記載のタッチ入力装置を備え、上記範囲に対応して画像を投影する投影手段をさらに備えることを特徴とする投影装置。
[請求項9]
上記請求項3,5〜7いずれか記載のタッチ入力装置と、
上記範囲に対応して画像を投影する投影手段と、
を備え、
上記投光部は、上記投影手段の投影光の波長帯域から外れた周波数帯域の光を照射する
ことを特徴とする投影装置。
[請求項10]
予め設定された操作面の所定の範囲で手指を撮影する撮影工程と、
上記撮影工程で撮影した手指の画像から、上記手指の位置及び上記操作面でのタッチ操作を検出する検出工程と、
を有することを特徴とするタッチ入力方法。
[請求項11]
コンピュータが実行するプログラムであって、上記コンピュータを、
予め設定された操作面の所定の範囲で手指を撮影する撮影部、及び
上記撮影部で撮影した手指の画像から、上記手指の位置及び上記操作面でのタッチ操作を検出する検出部、
として機能させることを特徴とするプログラム。
1…プロジェクタ、
1A…Irレーザ出力部、
1B…カメラ部、
10,10′…プロジェクタ、
10A…IrLED部、
10A′…第1のIrLED部、
10B,10B′…カメラ部、
10C…第2のIrLED部、
20…信号入力部、
21…投影画像駆動部、
22…マイクロミラー素子、
23…光源部、
24…ミラー、
25…投影レンズ部、
27…撮影レンズ部、
28…CMOSイメージセンサ、
29…A/D変換器、
30…撮影画像処理部、
32…CPU、
33…メインメモリ、
34…プログラムメモリ、
35…操作部、
36…音処理部、
37…スピーカ部、
B…バス、
BS…載置面、
FG…手指、
LT,LT1,LT2…近赤外光、
NL…爪部、
PI…投影光、
R…反射光。

Claims (11)

  1. 予め設定された操作面の所定の範囲で手指を撮影する撮影部と、
    上記撮影部で撮影した手指の画像から、上記手指の位置及び上記操作面でのタッチ操作を検出する検出部と、
    を備えることを特徴とするタッチ入力装置。
  2. 上記検出部は、上記手指の位置を検出する第1の検出部と、上記操作面でのタッチ操作を検出する第2の検出部と、を含むことを特徴とする請求項1記載のタッチ入力装置。
  3. 上記範囲に光を照射する投光部をさらに備え、
    上記撮影部は、上記投光部で照射した光の反射光を用いてタッチ操作される手指を撮影する
    ことを特徴とする請求項1記載のタッチ入力装置。
  4. 上記第2の検出部は、上記手指の白くなっている部分の面積を検出する
    ことを特徴とする請求項2記載のタッチ入力装置。
  5. 上記投光部は、複数箇所から上記範囲に光を照射することを特徴とする請求項3記載のタッチ入力装置。
  6. 上記投光部は、複数箇所から互いの波長が異なる光を上記範囲に照射することを特徴とする請求項5記載のタッチ入力装置。
  7. 上記撮影部は、上記投光部で照射する光の周波数帯域に応じた透過フィルタを画素単位で配した撮像素子を有することを特徴とする請求項3,5,6いずれか記載のタッチ入力装置。
  8. 上記請求項1乃至7いずれか記載のタッチ入力装置を備え、上記範囲に対応して画像を投影する投影手段をさらに備えることを特徴とする投影装置。
  9. 上記請求項3,5〜7いずれか記載のタッチ入力装置と、
    上記範囲に対応して画像を投影する投影手段と、
    を備え、
    上記投光部は、上記投影手段の投影光の波長帯域から外れた周波数帯域の光を照射する
    ことを特徴とする投影装置。
  10. 予め設定された操作面の所定の範囲で手指を撮影する撮影工程と、
    上記撮影工程で撮影した手指の画像から、上記手指の位置及び上記操作面でのタッチ操作を検出する検出工程と、
    を有することを特徴とするタッチ入力方法。
  11. コンピュータが実行するプログラムであって、上記コンピュータを、
    予め設定された操作面の所定の範囲で手指を撮影する撮影部、及び
    上記撮影部で撮影した手指の画像から、上記手指の位置及び上記操作面でのタッチ操作を検出する検出部、
    として機能させることを特徴とするプログラム。
JP2015139782A 2015-06-18 2015-07-13 タッチ入力装置、投影装置、タッチ入力方法及びプログラム Active JP6540305B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015122840 2015-06-18
JP2015122840 2015-06-18

Publications (2)

Publication Number Publication Date
JP2017010506A true JP2017010506A (ja) 2017-01-12
JP6540305B2 JP6540305B2 (ja) 2019-07-10

Family

ID=57761676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015139782A Active JP6540305B2 (ja) 2015-06-18 2015-07-13 タッチ入力装置、投影装置、タッチ入力方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6540305B2 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251827A (ja) * 2008-04-03 2009-10-29 Denso Corp 位置検出装置
US20100225617A1 (en) * 2009-03-06 2010-09-09 Yoshimoto Yoshiharu Position detection device
JP2011048665A (ja) * 2009-08-27 2011-03-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2012208926A (ja) * 2011-03-15 2012-10-25 Nikon Corp 検出装置、入力装置、プロジェクタ、及び電子機器
JP2012256000A (ja) * 2011-06-10 2012-12-27 Sanyo Electric Co Ltd 投写型映像表示装置
JP2013003859A (ja) * 2011-06-16 2013-01-07 Sony Corp 投影装置、投影方法、及びプログラム
JP2013034168A (ja) * 2011-08-01 2013-02-14 Fuji Xerox Co Ltd 画像投影装置ならびに画像投影制御装置およびプログラム
JP2013254437A (ja) * 2012-06-08 2013-12-19 Pfu Ltd 画像処理装置、画像読取装置、画像処理方法及び画像処理プログラム
JP2014071513A (ja) * 2012-09-27 2014-04-21 Aisin Aw Co Ltd 電子機器、電子機器の制御方法及びコンピュータプログラム
JP2015084173A (ja) * 2013-10-25 2015-04-30 キヤノン株式会社 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251827A (ja) * 2008-04-03 2009-10-29 Denso Corp 位置検出装置
US20100225617A1 (en) * 2009-03-06 2010-09-09 Yoshimoto Yoshiharu Position detection device
JP2010211324A (ja) * 2009-03-06 2010-09-24 Sharp Corp 位置検出装置、制御方法、制御プログラムおよび記録媒体
JP2011048665A (ja) * 2009-08-27 2011-03-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2012208926A (ja) * 2011-03-15 2012-10-25 Nikon Corp 検出装置、入力装置、プロジェクタ、及び電子機器
JP2012256000A (ja) * 2011-06-10 2012-12-27 Sanyo Electric Co Ltd 投写型映像表示装置
JP2013003859A (ja) * 2011-06-16 2013-01-07 Sony Corp 投影装置、投影方法、及びプログラム
JP2013034168A (ja) * 2011-08-01 2013-02-14 Fuji Xerox Co Ltd 画像投影装置ならびに画像投影制御装置およびプログラム
JP2013254437A (ja) * 2012-06-08 2013-12-19 Pfu Ltd 画像処理装置、画像読取装置、画像処理方法及び画像処理プログラム
JP2014071513A (ja) * 2012-09-27 2014-04-21 Aisin Aw Co Ltd 電子機器、電子機器の制御方法及びコンピュータプログラム
JP2015084173A (ja) * 2013-10-25 2015-04-30 キヤノン株式会社 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体

Also Published As

Publication number Publication date
JP6540305B2 (ja) 2019-07-10

Similar Documents

Publication Publication Date Title
WO2012124730A1 (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
JP4566929B2 (ja) 撮像装置
KR101484230B1 (ko) 차량용 터치 디스플레이 장치 및 그 구동 방법
EP3584740B1 (en) Method for detecting biological feature data, biological feature recognition apparatus and electronic terminal
JP2010231336A (ja) 撮像装置及び認証装置
CN104049792A (zh) 操作检测装置和操作检测方法
KR20160050755A (ko) 전자 장치 및 그의 홍채 인식 방법
TWI531954B (zh) 觸控及手勢控制系統與觸控及手勢控制方法
JP2007026213A (ja) 撮像装置
JP6350175B2 (ja) 位置検出装置、プロジェクター、及び、位置検出方法
JP6314688B2 (ja) 入力装置
JP6844171B2 (ja) 投影装置、投影方法及びプログラム
US10748019B2 (en) Image processing method and electronic apparatus for foreground image extraction
JP2011198270A (ja) 対象認識装置及びそれを用いた制御装置、並びに対象認識方法
JP2012181264A (ja) 投影装置、投影方法及びプログラム
KR101071864B1 (ko) 터치 및 터치 제스처 인식 시스템
TWI485505B (zh) 數位相機及數位相機之影像擷取方法
JP6540305B2 (ja) タッチ入力装置、投影装置、タッチ入力方法及びプログラム
JP6390163B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR102617136B1 (ko) 촬영 장치, 인증 장치 및 생체 촬영 방법
JP2007058507A (ja) 視線検出装置
JP6740614B2 (ja) 物体検出装置、及び物体検出装置を備えた画像表示装置
CN108141523A (zh) 影像显示装置和用于其的操作检测方法
US10270929B2 (en) Image processing apparatus, control method, and recording medium
JP6679430B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190527

R150 Certificate of patent or registration of utility model

Ref document number: 6540305

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150