JP2015014882A - 情報処理装置、操作入力検出方法、プログラム、および記憶媒体 - Google Patents

情報処理装置、操作入力検出方法、プログラム、および記憶媒体 Download PDF

Info

Publication number
JP2015014882A
JP2015014882A JP2013140856A JP2013140856A JP2015014882A JP 2015014882 A JP2015014882 A JP 2015014882A JP 2013140856 A JP2013140856 A JP 2013140856A JP 2013140856 A JP2013140856 A JP 2013140856A JP 2015014882 A JP2015014882 A JP 2015014882A
Authority
JP
Japan
Prior art keywords
unit
laser pointer
information
laser
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013140856A
Other languages
English (en)
Other versions
JP2015014882A5 (ja
Inventor
智也 成田
Tomoya Narita
智也 成田
丈博 萩原
Takehiro Hagiwara
丈博 萩原
卓 井上
Taku Inoue
卓 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013140856A priority Critical patent/JP2015014882A/ja
Priority to US14/314,417 priority patent/US20150009138A1/en
Priority to CN201410302243.0A priority patent/CN104281276B/zh
Publication of JP2015014882A publication Critical patent/JP2015014882A/ja
Publication of JP2015014882A5 publication Critical patent/JP2015014882A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】レーザーポインタを用いて投影画像に対して直感的に操作入力を行うことが可能な情報処理装置、操作入力検出方法、プログラム、および記憶媒体を提供する。
【解決手段】投影画像に対するレーザーポインタ2によるレーザー光の照射位置を認識する認識部と、前記レーザーポインタに設けられた操作部20aにより検出されたユーザ操作の情報を取得する取得部と、前記認識部により認識された前記照射位置と、前記取得部により取得されたユーザ操作に基づいて、前記投影画像に対する操作入力情報を検出する検出部と、を備える、情報処理装置。
【選択図】図1

Description

本開示は、情報処理装置、操作入力検出方法、プログラム、および記憶媒体に関する。
画像を大型スクリーンに投影して表示することができるプロジェクタは、会社の会議や発表会、学校の授業等、様々な場面で用いられている。また、プロジェクタで画像を拡大投影して説明を行う際には、投影画像に対してレーザー光を投射するレーザーポインタが使われることは公知である。近年、このようなレーザー光を投射する機能を有するレーザーポインタを、プロジェクタのUI操作に活用する技術が、以下の通り提案されている。
例えば、下記特許文献1では、投影画像データと、投影画像面を撮像した撮像画像データの差分を算出することにより、レーザーポインタの動きを認識し、レーザーポインタの所定の動きに関連付けられたコマンドを実行する制御システムが開示されている。具体的には、かかる制御システムは、レーザーポインタにより照射されたポインタが右矢印を形成するように動いた場合、関連付けられた「次のスライドに進め」というディスプレイ・コマンドを実行するよう制御する。
また、下記特許文献2では、スクリーン設置場所の明るさが変わるような場合でも、プロジェクタによる投影画像上でのレーザーポインタの指示位置を正しく検出するための判定システムが提示されている。具体的には、かかる判定システムは、投影開始前にポインタ位置判定スレッシュ値を設定し、現フレームの撮影画像データと前フレームの撮影画像データとの差分の画像データを計算し、スレッシュ値を超える画素位置をレーザーポインタによる照射位置として判定する。
特開2001−125738号公報 特開2008−15560号公報
しかしながら、上記特許文献1、2では、撮像画像に基づいてレーザーポインタによるレーザー光の照射位置の座標を認識するだけであった。
そこで、本開示では、レーザーポインタを用いて投影画像に対して直感的に操作入力を行うことが可能な、新規かつ改良された情報処理装置、操作入力検出方法、プログラム、および記憶媒体を提案する。
本開示によれば、投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、前記レーザーポインタに設けられた操作部により検出されたユーザ操作の情報を取得する取得部と、前記認識部により認識された前記照射位置と、前記取得部により取得されたユーザ操作に基づいて、前記投影画像に対する操作入力情報を検出する検出部と、を備える、情報処理装置を提案する。
本開示によれば、投影画像に対するレーザーポインタによるレーザー光の照射位置を認識するステップと、前記レーザーポインタに設けられた操作部により検出されたユーザ操作の情報を取得するステップと、前記認識された前記照射位置と、前記取得されたユーザ操作に基づいて、前記投影画像に対する操作入力情報を検出するステップと、を含む、操作入力検出方法を提案する。
本開示によれば、コンピュータに、投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、前記レーザーポインタに設けられた操作部により検出されたユーザ操作の情報を取得する取得部と、前記認識部により認識された前記照射位置と、前記取得部により取得されたユーザ操作に基づいて、前記投影画像に対する操作入力情報を検出する検出部と、として機能させるための、プログラムを提案する。
本開示によれば、コンピュータに、投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、前記レーザーポインタに設けられた操作部により検出されたユーザ操作の情報を取得する取得部と、前記認識部により認識された前記照射位置と、前記取得部により取得されたユーザ操作に基づいて、前記投影画像に対する操作入力情報を検出する検出部と、として機能させるためのプログラムが記憶された、記憶媒体を提案する。
以上説明したように本開示によれば、レーザーポインタを用いて投影画像に対して直感的に操作入力を行うことが可能となる。
本開示の一実施形態による操作システムの概要を説明するための図である。 第1の実施形態による操作システムの全体構成を説明するための図である。 第1の実施形態によるレーザーポインタによるユーザ操作に応じたレーザー光および非可視光マーカーの第1の照射方法について説明するための図である。 第1の実施形態によるレーザーポインタによるユーザ操作に応じたレーザー光および非可視光マーカーの第2の照射方法について説明するための図である。 第1の実施形態によるレーザーポインタに設けられる複数の操作ボタンについて説明するための図である。 第1の実施形態によるレーザーポインタに設けられるタッチパネルについて説明するための図である。 第1の実施形態による操作システムの内部構成の一例を示すブロック図である。 第1の実施形態による動作処理を示すシーケンス図である。 第1の実施形態によるプロジェクタの動作処理を示すフローチャートである。 第1の実施形態の変形例によるレーザーポインタについて説明するための図である。 第1の実施形態の変形例による操作システムの内部構成の一例を示すブロック図である。 第2の実施形態による操作システムの全体構成を説明するための図である。 第2の実施形態による操作システムの内部構成の一例を示すブロック図である。 第3の実施形態による操作システムの全体構成を説明するための図である。 第3の実施形態による操作システムの内部構成の一例を示すブロック図である。 第4の実施形態による操作システムの全体構成を説明するための図である。 第3の実施形態による通信端末の内部構成の一例を示すブロック図である。 第5の実施形態による操作システムの全体構成を説明するための図である。 第5の実施形態による操作システムの内部構成の一例を示すブロック図である。 第6の実施形態による操作システムの全体構成を説明するための図である。 第6の実施形態による操作システムの内部構成の一例を示すブロック図である。 第7の実施形態による操作システムの全体構成を説明するための図である。 第7の実施形態による通信端末の内部構成の一例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による操作システムの概要
2.各実施形態
2−1.第1の実施形態
2−1−1.全体構成
2−1−2.内部構成
2−1−3.動作処理
2−1−4.変形例
2−2.第2の実施形態
2−3.第3の実施形態
2−4.第4の実施形態
2−5.第5の実施形態
2−6.第6の実施形態
2−7.第7の実施形態
3.まとめ
<<1.本開示の一実施形態による操作システムの概要>>
まず、本開示の一実施形態による操作システムの概要について図1を参照して説明する。図1に示すように、本開示の一実施形態による操作システムは、プロジェクタ1、レーザーポインタ2、および投影用のコンテンツをプロジェクタ1に出力するPC(パーソナルコンピュータ)3を含む。投影用のコンテンツとは、図表、文章、その他種々のグラフィック画像や、地図、ウェブサイト等であって、以下投影用の画像データと称する。
プロジェクタ1は、PC3から受信した画像データを、PC3からの制御信号にしたがって投写スクリーンや壁(以下一例としてスクリーンSを用いる)に投影する。
レーザーポインタ2は、ユーザ(講演者)による操作ボタン20aの押下操作に応じて、レーザー光(可視光)を照射する機能を有する。ユーザは、レーザーポインタ2を使用して、スクリーンSに投影された画像上にレーザー光を照射して、照射位置Pを説明個所に合せて指示しながらプレゼンテーションを行うことができる。
PC3は、投影用の画像を電子的に生成し、画像データをプロジェクタ1に有線/無線により送信し、投影制御を行う。図1では、一例としてノート型PCを示しているが、本実施形態によるPC3はノート型PCに限定されず、デスクトップ型PCや、ネットワーク(クラウド)上のサーバであってもよい。
(背景)
ここで、上述したように、上記特許文献1、2では、投影画像を撮像した撮像画像に基づいてレーザーポインタによるレーザー光の照射位置の座標を認識するだけであった。したがって、例えば「次のスライドに進む」といったコマンドを入力するためには、レーザー光で投影画像上に右矢印の図形を描くといった煩雑なジェスチャーが必要であった。
また、別途リモートコントローラーを用いてプロジェクタ若しくはPCに対して制御信号を送信する方法も知られているが、この場合ユーザ(講演者)が投影画像や聴衆から目をそらしてリモートコントローラーを操作し、プロジェクタ若しくはPCに注意を向ける必要があった。
いずれの操作方法も、例えばマウスで表示画面上のマウスカーソルを移動させて画面上のボタンをクリックする操作のように、投影画像に対する直感的な操作入力をレーザーポインタで行う方法については何ら言及されていなかった。
そこで、上記事情を一着眼点にして本開示の各実施形態による操作システムを創作するに至った。本開示の各実施形態による操作システムは、レーザーポインタを用いて投影画像に対して直感的な操作入力を行うことができる。以下、本開示の各実施形態による操作システムについて具体的に説明する。
<<2.各実施形態>>
<2−1.第1の実施形態>
まず、第1の実施形態による操作システムの全体構成について、図2を参照して説明する。
(2−1−1.全体構成)
図2は、第1の実施形態による操作システムの全体構成を説明するための図である。図2に示すように、本実施形態による操作システムは、プロジェクタ1a(本開示による情報処理装置)、レーザーポインタ2a、およびPC3aを含む。
本実施形態によるプロジェクタ1aは、PC3aと有線/無線接続し、PC3aから受信した画像を、スクリーンSに投影する。また、プロジェクタ1aは、投影画像上へのレーザーポインタ2aによる照射を認識するための撮像部(非可視光撮像部12および可視光撮像部15)を有する。撮像部は、プロジェクタ1aに内蔵されていてもよいし、外付けされてもよい。
また、撮像部は、プロジェクタ1aに設けられることで、撮像対象である投影画像の範囲のキャリブレーションを自動的に行うことができる。具体的には、撮像部は、撮像範囲や撮像方向を、プロジェクタ1aによる投影方向に連動して変更することができる。なお撮像部が投影画像の範囲よりも広範囲のエリアを撮像することで、投影画像の範囲外(画面の外側)に対するレーザー照射もUI操作に活用され得る。
レーザーポインタ2aは、レーザーポインタ2aに設けられている操作ボタン20aの押下に応じて、人間の眼に見える可視光線のレーザー光Vおよび非可視光マーカーMを照射する。レーザーポインタ2aは、ユーザがレーザー光Vで投影画像上の任意の位置を指し示すために使用される。また、非可視光マーカーMは、レーザー光Vの照射位置Pと同一あるいは近傍の位置に照射され、例えば赤外光線等の人間の眼には見えない光線で照射される。非可視光マーカーMの照射は、レーザーポインタ2aにおいて検出される投影画像に対するユーザ操作(操作入力)に応じて制御される。
具体的には、図3Aに示すように、レーザーポインタ2aは、操作ボタン20aが半押しされた場合はレーザー光Vのみを照射し、操作ボタン20aが全押しされた(押し切られた)場合はレーザー光Vと非可視光マーカーMを照射する。非可視光マーカーMは、図3Aに示すような2次元バーコードや、1次元バーコードのように、情報(ユーザID等)が埋め込まれたものであってもよいし、レーザー光と同形状の点だけや、任意の図形(十字型やハート型等)であってもよい。また、非可視光マーカーMは、静止画像に限定されず、色や形が変化したり点滅する動画像であってもよい。画像が変化することで、位置認識部において、より認識され易くなる。
また、図3Bに示すように、レーザーポインタ2aは、操作ボタン20aが半押しされた場合(1段階目の操作)はレーザー光Vと非可視光マーカーM1を照射し、操作ボタン20aが全押しされた場合(2段階目の操作)はレーザー光Vと非可視光マーカーM2を照射してもよい。半押し状態で照射される非可視光マーカーM1には、例えばユーザIDが埋め込まれ、全押し状態で照射された非可視光マーカーM2には、ユーザIDとユーザ操作情報(ボタンが全押しされたこと)が埋め込まれている。
このように、本実施形態によるレーザーポインタ2aは、操作ボタン20aにより検出されたユーザ操作に応じて非可視光マーカーMの照射を制御する。操作ボタン20aにより検出されるユーザ操作は、図3Aおよび図3Bに示す「半押し」、「全押し」に限定されず、ボタンを押す回数(連続で2度押し等)であってもよい。
また、レーザーポインタ2aに設けられる操作部は、1つの操作ボタン20aで複数段階のユーザ操作が検出できる構成に限定されず、図4Aに示すように、複数の操作ボタン20b、20b’で複数段階のユーザ操作を検出する構成であってもよい。図4Aに示すように、本実施形態によるレーザーポインタ2a’は、筐体の上面および底面にそれぞれ操作ボタン20b、20b’が設けられる。そして、レーザーポインタ2a’は、操作ボタン20bが押下された場合はレーザー光Vのみを照射し、さらに操作ボタン20b’も押下された場合はレーザー光Vと非可視光マーカーMを照射する。このように、レーザーポインタ2a’は、ボタンが1つ押されている段階(1段階目)と2つ押されている段階(2段階目)とで2段階のユーザ操作を検出し、検出したユーザ操作に応じて非可視光マーカーMの照射を制御する。
また、レーザーポインタ2aの上面に左右2つの操作ボタンを並べて設け、左クリックおよび右クリックといったマウスの操作と類似するユーザ操作を可能にしてもよい。レーザーポインタ2aは、左クリックか右クリックかに応じて異なる非可視光マーカーMを照射するよう制御する。また、この場合、レーザー光のON/OFFスイッチは別途レーザーポインタ2aに設けられてもよい。
さらに、レーザーポインタ2aに設けられる操作部は、上述した操作ボタン20a、20b、20b’のような物理的な構造による実現に限定されず、指の接触/近接を検知するセンサにより実現されてもよい。例えば、図4Bに示すように、レーザーポインタ2a’’に設けられたタッチパネル20cによりユーザ操作を検出する。レーザーポインタ2a’’は、タッチパネル20cにより指の接触/近接や、接触の回数(タップ回数)等に応じて異なる非可視光マーカーMを照射するよう制御する。また、この場合、レーザーポインタ2a’’がタッチパネル20cに指が継続的に接触/近接している場合にレーザー光Vを照射してもよいし、レーザー光V照射のON/OFFスイッチが別途レーザーポインタ2a’’に設けられてもよい。
なおレーザーポインタ2aの形状は図2〜図4Bに示した形状に限定されず、例えば先端に照射部が設けられた指し棒の形状等であってもよい。また、レーザーポインタ2aに設けられるボタンの数は、図3Aや図4Aに示す例に限定されず、例えば3つ以上であってもよい。複数のボタンを設けることで、ユーザが任意に可視光レーザーの色を選ぶことも可能である(例えば、赤レーザー発光用のボタン、青レーザー発光用のボタン、緑レーザー発光用のボタン等)。
以上説明したように、本実施形態によるレーザーポインタ2aは、投影画像に対して任意の場所を指し示すためのレーザー光V(可視光)と、レーザーポインタ2aで検出されたボタン押下やタップ操作といったユーザ操作に対応する非可視光マーカーMを照射する。
レーザーポインタ2aにより照射されたレーザー光V(可視光)および非可視光マーカーMは、プロジェクタ1aに設けられた撮像部(非可視光撮像部12および可視光撮像部15)により撮像され、照射位置座標やユーザ操作情報等がプロジェクタ1aに認識される。プロジェクタ1aは、認識したレーザー光Vの照射位置Pと、非可視光マーカーMに基づくユーザ操作情報とを合せて、操作入力情報としてPC3aに送信する。
PC3aは、プロジェクタ1aから受信した操作入力情報に応じた制御を実行し、操作入力情報が反映された投影用の画像データをプロジェクタ1aに送信する。
このように、本実施形態による操作システムによれば、投影画像上の任意の位置にレーザーポインタ2aから照射されるレーザー光Vの照射位置P(マウスカーソルに相当)を合わせて操作ボタン20aを押下する等の直感的な操作入力(マウスクリックに相当)を行うことができる。続いて、本実施形態による操作システムに含まれる各装置の内部構成について図5を参照して具体的に説明する。
(2−1−2.内部構成)
図5は、第1の実施形態による操作システムの内部構成の一例を示すブロック図である。
(プロジェクタ1a)
プロジェクタ1aは、図5に示すように、投影画像受信部10、画像投影部11、非可視光撮像部12、ユーザ操作情報取得部13a、可視光撮像部15、位置認識部16a、および操作入力情報出力部17を有する。
投影画像受信部10は、PC3aから有線/無線により投影用の画像データを受信し、受信した画像データを画像投影部11に出力する。
画像投影部11は、画像投影部11から送られた画像データを投写スクリーンや壁に投写(投影)する。
非可視光(不可視光)撮像部12は、投影された画像上にレーザーポインタ2aにより照射された非可視光マーカーMを撮像する機能を有する。例えば非可視光撮像部12は、赤外線カメラや紫外線カメラにより実現される。非可視光撮像部12は、撮像した非可視光画像をユーザ操作情報取得部13aに出力する。
ユーザ操作情報取得部13aは、非可視光マーカーMを撮像した非可視光撮像画像に基づいて、レーザーポインタ2aに設けられた操作部20により検出されたユーザ操作の情報を取得する取得部として機能する。例えば、ユーザ操作情報取得部13aは、非可視光撮像画像を解析して、非可視光マーカーMの有無、非可視光マーカーMの形や、非可視光マーカーMに埋め込まれた情報等を認識し、対応付けられたユーザ操作情報を取得する。対応付けられたユーザ操作情報とは、例えば操作ボタン20aの全押し、連続2回押し、右クリック/左クリック等である。
ユーザ操作情報取得部13aは、取得したユーザ操作情報を操作入力情報出力部17に出力する。
可視光撮像部15は、画像投影部11により投影した画像上にレーザーポインタ2aにより照射されたレーザー光Vのポインタ(照射位置P)を撮像する機能を有する。可視光撮像部15は、撮像した可視光画像を位置認識部16aに出力する。
位置認識部16aは、投影画像を撮像した可視光撮像画像に基づいて、投影画像に対するレーザーポインタ2aによるレーザー光Vの照射位置Pを認識する認識部として機能する。例えば、位置認識部16aは、画像投影部11により投影されている画像と、投影画像を撮像した可視光撮像画像の差分を検出することによって、照射位置P(例えば位置座標)を検出する。また、位置認識部16aは、現在投影されている画像の前のフレームの可視光撮像画像と、現在投影されている画像の可視光撮像画像との差分も分析に加えることで精度を高めることができる。なお、上記「現在投影されている画像の前のフレーム」とは、1フレーム前に限定されず、2フレーム、3フレーム等の数フレーム前であってもよい。複数フレームと比較してさらに精度を高めることも可能である。
位置認識部16aは、認識した照射位置Pを示す情報(例えば位置座標)を操作入力情報出力部17に出力する。
操作入力情報出力部17は、ユーザ操作情報取得部13aから出力されたユーザ操作情報および位置認識部16aから出力された照射位置Pを示す情報に基づいて、投影画像に対する操作入力情報を検出する検出部として機能する。具体的には、操作入力情報出力部17は、投影画像上の照射位置Pで示される位置座標に対して、所定のユーザ操作情報が入力されたことを、操作入力情報として検出する。また、操作入力情報出力部17は、検出した操作入力情報をPC3aに有線/無線により送信する送信部としても機能する。
以上、プロジェクタ1aの内部構成について具体的に説明した。なお、位置認識部16aによる照射位置Pの認識や、ユーザ操作情報取得部13aによる非可視光マーカーMの認識の精度を高めるために、プロジェクタ1aの画像投影部11は、投影色域を狭くしてもよい。
具体的には、例えば画像投影部11は、非可視光マーカーMの認識の精度を高めるために、投影光から非可視光をカットする。また、画像投影部11は、照射位置Pの認識精度を高めるために、投影画像を適切に暗くしてもよい。投影画像を暗くするタイミングは、位置認識部16aからレーザー光Vが照射されている場合(例えば照射位置Pが認識された場合)をトリガとしてもよい。また、画像投影部11による投影画像をスキャン照射にすることで、照射位置Pを認識しやすくすることも可能である。
(レーザーポインタ2a)
レーザーポインタ2aは、図5に示すように、操作部20、可視光レーザー照射部21、および非可視光マーカー照射部22を有する。
操作部20は、ユーザ操作を検出する機能を有し、例えば図3Aに示す操作ボタン20a、図4Aに示す操作ボタン20b、20b’、図4Bに示すタッチパネル20c、またはレーザー光ON/OFFスイッチ(不図示)により実現される。操作部20は、検出したユーザ操作を、可視光レーザー照射部21または非可視光マーカー照射部22に出力する。
可視光レーザー照射部21は、ユーザ操作に応じて可視光レーザー(レーザー光とも称す)を照射する機能を有する。例えば、可視光レーザー照射部21は、操作ボタン20aが半押しされた場合、操作ボタン20bが押下された場合、またはレーザー光ON/OFFスイッチが「ON」にされた場合等に、可視光レーザーを照射する。
非可視光マーカー照射部22は、ユーザ操作に応じて非可視光マーカー(非可視光画像とも称す)を照射する機能を有する。例えば、非可視光マーカー照射部22は、操作ボタン20aが全押しされた場合、操作ボタン20b、20b’が同時に押下された場合、またはタッチパネル20cがタップされた場合等に、非可視光マーカーを照射する。非可視光マーカーは、レーザー光と同形状の点だけであってもよいし、任意の図形(十字型やハート型等)であってもよい。
また、非可視光マーカー照射部22は、可視光レーザー照射部21により可視光レーザーが照射されている場合に、レーザー光の照射位置Pと同じ位置または近傍に、非可視光マーカーを照射してもよい。この場合、非可視光マーカー照射部22は、2次元バーコードや1次元バーコードのように情報(ユーザID等)が埋め込まれたものを非可視光マーカーとして照射してもよい。そして、非可視光マーカー照射部22は、操作ボタン20aが全押し等、複数段階のユーザ操作が検出された場合、ユーザ操作に応じて照射する非可視光マーカーを変化させる。
(PC3a)
PC3aは、図5に示すように、制御部30、画像出力部31、および操作入力部32aを有する。
制御部30は、PC3aの各構成を制御する機能を有する。具体的には、例えば制御部30は、操作入力部32aにより検出した操作入力情報を、画像出力部31によりプロジェクタ1aに出力(送信)する投影用の画像データに反映させることができる。
操作入力部32aは、PC3aが有するキーボードやマウス等からユーザ操作の入力(操作入力情報)を受け付ける機能を有する。また、操作入力部32aは、プロジェクタ1aから操作入力情報を受信する受信部としても機能する。操作入力部32aは、受け付けた操作入力情報を制御部30に出力する。
画像出力部31は、投影用の画像データをプロジェクタ1aに有線/無線により送信する機能を有する。投影用の画像データの送信は、継続的に行われてもよい。また、プロジェクタ1aに送信される投影用の画像データは、制御部30により、操作入力部32aが受け付けた操作入力情報が反映される。
以上説明した構成により、まず、レーザーポインタ2aを用いてユーザが投影画像に対して行ったユーザ操作(操作ボタン20aの全押し操作やタッチパネル20cのタップ操作等)が、非可視光マーカーを介してプロジェクタ1aに認識される。続いて、プロジェクタ1aは、可視光レーザーによる照射位置Pと、非可視光マーカーに基づいて認識したユーザ操作とを含む操作入力情報をPC3aに送信する。PC3aは、操作入力情報に従った処理を行い、当該処理を反映した投影用画像をプロジェクタ1aに送信する。そして、プロジェクタ1aは、操作入力情報に従った処理が反映された投影用画像を投影する。
これにより、レーザーポインタ2aがPC3aと通信する必要なく、ユーザはレーザーポインタ2aを用いて投影画像に対して直感的に操作入力を行うことができる。なお、本実施形態によるプロジェクタ1aの構成は、図5に示す例に限定されない。例えば、プロジェクタ1aは、可視光撮像部15を有していなくともよい。この場合、位置認識部16aは、非可視光撮像部12により撮像された非可視光マーカーの座標位置を、照射位置Pとして認識する。
または、プロジェクタ1aは、非可視光撮像部12を有していなくともよい。この場合、レーザーポインタ2aの可視光レーザー照射部21は、ユーザ操作に応じて変化する可視光マーカーを照射する。可視光マーカーは、2次元バーコードや、1次元バーコードのように、情報(ユーザID等)が埋め込まれたものであってもよいし、レーザー光と同形状の点だけや、任意の図形(十字型やハート型等)であってもよい。また、可視光マーカーは、静止画像に限定されず、色や形が変化したり点滅する動画像であってもよい。画像が変化することで、位置認識部において、より認識され易くなる。そして、プロジェクタ1aのユーザ操作情報取得部13aは、可視光撮像部15により撮像された可視光マーカーの有無、色、形等を解析して、ユーザ操作情報を取得する。このように、ユーザ操作に応じて人間の眼に見える可視光マーカーが照射されることで、ユーザに対する操作入力のフィードバックを実現することができる。
(2−1−3.動作処理)
次に、このような本実施形態による操作システムの動作処理について図6を参照して説明する。図6は、第1の実施形態による動作処理を示すシーケンス図である。図6に示すように、まず、ステップS106において、PC3aとプロジェクタ1aが有線/無線により接続する。接続方法については本明細書では特に限定しない。
次いで、ステップS109において、PC3aの画像出力部31は、投影用の画像データをプロジェクタ1aに送信する。
次に、ステップS112において、プロジェクタ1aの画像投影部11は、投影画像受信部10によりプロジェクタ1aから受信した投影画像をスクリーンSに投影する。
次いで、ステップS115において、プロジェクタ1aは、可視光撮像部15による投影画像の範囲を対象とする可視光撮像と、非可視光撮像部12による投影画像の範囲を対象とする非可視光撮像を開始する。
一方、ステップS118およびS121において、レーザーポインタ2aは、ユーザ操作に応じて可視光レーザーを照射する。具体的には、例えばレーザーポインタ2aは、操作ボタン20aが半押しされた場合、可視光レーザー照射部21によりレーザー光を照射する。これにより、ユーザ(講演者)は、レーザー光で投影画像中の任意の場所を指示しながら聴衆に説明を行うことができる。
次に、ステップS124において、プロジェクタ1aの位置認識部16aは、可視光撮像部15により撮像された可視光撮像画像に基づいて、レーザー光の照射位置P(座標位置)を認識する。
次いで、ステップS127およびS130において、レーザーポインタ2aは、ユーザ操作に応じて非可視光マーカーを照射する。具体的には、例えばレーザーポインタ2aは、操作ボタン20aが全押しされた場合、非可視光マーカー照射部22により非可視光マーカーをレーザー光と同じ位置または近傍に照射する。これにより、ユーザ(講演者)は、レーザー光で投影画像中の任意の場所を指示しながら、指示している場所に対するクリック操作を直感的に行うことができる。
続いて、ステップS133において、プロジェクタ1aのユーザ操作情報取得部13aは、非可視光撮像部12により撮像された非可視光撮像画像に基づいて、非可視光マーカーの有無や、形等を解析し、ユーザ操作情報を取得する。例えば、ユーザ操作情報取得部13aは、投影画像上に非可視光マーカーが照射されている場合や非可視光マーカーが所定の形である場合、「全押し操作」をユーザ操作情報として取得する。また、ユーザ操作情報取得部13aは、投影画像上に照射された非可視光マーカーに埋め込まれた情報から、「全押し操作」をユーザ操作情報として取得することもできる。
次に、ステップS136において、プロジェクタ1aの操作入力情報出力部17は、位置認識部16aにより認識された照射位置Pと、ユーザ操作情報取得部13aにより取得されたユーザ操作情報に基づいて、投影画像に対する操作入力情報を検出する。
次いで、ステップS139において、プロジェクタ1aの操作入力情報出力部17は、検出した操作入力情報をPC3aに送信する。
続いて、ステップS142において、PC3aの操作入力部32aは、操作入力情報をプロジェクタ1aから受信する。
次に、ステップS145において、PC3aの制御部30は、受信した操作入力情報を投影用の画像データに反映させる。具体的には、例えば操作入力情報が「照射位置P(座標位置)に対する『全押し操作』」を示す情報である場合、制御部30は、現在投影されている画像の、照射位置Pに対応する位置に対してクリック操作が入力されたとして処理を実行する。
そして、ステップS148において、PC3aの画像出力部31は、反映後の(操作入力情報に従った処理後の)投影用画像を、プロジェクタ1aに送信する。
以降、上記S112〜S148が繰り返される。
これにより、ユーザ(講演者)は、レーザー光で投影画像中の任意の場所を指示しながら、指示している場所に対する操作入力を、レーザーポインタ2aを用いて直感的に行うことができる。例えば、ユーザ(講演者)は、投影画像に対するクリック操作、ドラッグ操作、ダブルクリック操作といったマウスを用いた操作と類似する操作を直感的に行うことができる。
なお上述したように、本実施形態によるプロジェクタ1aの位置認識部16aは、非可視光マーカーの座標位置を、レーザーポインタ2aにより指示されている位置(照射位置P)として認識してもよい。この場合、上記S115において、プロジェクタ1aは、非可視光撮像部12による投影画像の範囲を対象とする非可視光撮像のみを開始する。そして、上記S124において、位置認識部16aは、非可視光撮像部12により撮像された可視光撮像画像に基づいて照射位置Pを認識する。
以上図6を参照して説明した動作処理は、本実施形態による操作システムに含まれるプロジェクタ1a、レーザーポインタ2a、およびPC3aによる全体の処理である。ここで、本実施形態によるプロジェクタ1a(本開示による情報処理装置)に特化した動作処理を、図7を参照して具体的に説明する。
図7は、第1の実施形態によるプロジェクタ1aの動作処理を示すフローチャートである。図7に示すように、まず、ステップS203において、プロジェクタ1aは、PC3aと有線/無線接続する。
次いで、ステップS206において、プロジェクタ1aは、正常に接続されているか否かを判断し、正常に接続されていない場合(S206/No)、ステップS209において、PC3aに対して正しい接続を促す。
一方、正常に接続された場合(S206/Yes)、プロジェクタ1aは、画像投影部11による画像投影(S212)、可視光撮像部15による可視光撮像(S215)、および非可視光撮像部12による非可視光撮像(S227)を行う。
具体的には、ステップS212において、プロジェクタ1aは、画像投影部11により、投影画像受信部10がPC3aから受信した画像をスクリーンSに投影する。
また、ステップS215において、プロジェクタ1aは、可視光撮像部15により、スクリーンSに投影された投影画像を可視光撮像する。
次に、ステップS218において、プロジェクタ1aの位置認識部16aは、可視光撮像画像を解析する。
次いで、ステップS221において、位置認識部16aは、可視光撮像画像から可視光レーザーによる点を認識できるか否かを判断する。
次に、可視光レーザーによる点を認識できた場合(S221/Yes)、ステップS224において、位置認識部16aは、可視光レーザーによる点の位置座標(照射位置P)を認識する。
一方、ステップS227において、プロジェクタ1aは、非可視光撮像部12により、スクリーンSに投影された投影画像を非可視光撮像する。
次に、ステップS230において、プロジェクタ1aのユーザ操作情報取得部13aは、非可視光撮像画像を解析する。
次いで、ステップS233において、ユーザ操作情報取得部13aは、非可視光撮像画像から非可視光マーカーを認識できるか否かを判断する。
次に、非可視光マーカーを認識できた場合(S233/Yes)、ステップS236において、ユーザ操作情報取得部13aは、非可視光マーカーの有無、形等から、ユーザ操作の情報を取得する。
続いて、ステップS239において、操作入力情報出力部17は、位置認識部16aにより認識された照射位置Pと、ユーザ操作情報取得部13aにより取得されたユーザ操作情報に基づいて、投影画像に対する操作入力情報を検出する。
次いで、ステップS242において、操作入力情報出力部17は、検出した操作入力情報をPC3aに送信する。PC3aに送信した操作入力情報は、PC3aにおいて投影用画像に反映され、反映された投影用画像がPC3aから送信され、上記S212で画像投影部11により投影される。
そして、ステップS245において、終了指示(電源OFFの指示)があるまで、上記S206〜S242に示す処理が繰り返される。
最後に、終了指示があった場合(S245/Yes)、ステップS248において、プロジェクタ1aは、プロジェクタ1aの電源をOFFする。
(2−1−4.変形例)
以上、第1の実施形態による操作システムについて具体的に説明した。上述した実施形態によるプロジェクタ1aのユーザ操作情報取得部13aは、レーザーポインタ2aにより検出されたユーザ操作情報(操作ボタン20aの全押し操作など)を、非可視光マーカーに基づいて取得しているが、本実施形態によるユーザ操作情報の取得方法はこれに限定されない。例えば、プロジェクタ1aは、レーザーポインタ2aからユーザ操作情報を無線により受信してもよい。以下、ユーザ操作情報を無線受信する場合について、第1の実施形態の変形例として図8〜図9を参照して説明する。本変形例による操作システムは、プロジェクタ1a’(本開示による情報処理装置)、レーザーポインタ2a’、およびPC3aを含む。PC3aの内部構成例は、図5を参照して説明した同ブロックと同様であるので、ここでの説明は省略する。
図8は、第1の実施形態の変形例によるレーザーポインタ2a’について説明するための図である。図8左に示すように、レーザーポインタ2a’は、操作ボタン20aが半押しされている間は可視光線によるレーザー光Vを照射する。
そして、図8右に示すように、レーザーポインタ2a’は、操作ボタン20aが全押しされると(押し切られると)、レーザー光Vの照射を継続しながら、全押し操作されたことを示すユーザ操作情報を無線によりプロジェクタ1a’に送信する。このように、本変形例によるレーザーポインタ2a’は、図3Aや図3Bに示す例と異なり、ユーザによる操作ボタン20aの全押し操作に応じて、ユーザ操作情報をプロジェクタ1a’に無線送信する。
続いて、このような本変形例による操作システムを形成する各装置の内部構成例について図9を参照して具体的に説明する。
図9は、第1の実施形態の変形例による操作システムの内部構成の一例を示すブロック図である。図9に示すように、プロジェクタ1a’は、投影画像受信部10、画像投影部11、ユーザ操作情報取得部13a’、可視光撮像部15、位置認識部16a、および操作入力情報出力部17を有する。投影画像受信部10、画像投影部11、可視光撮像部15、位置認識部16a、および操作入力情報出力部17は、図5を参照して説明した同ブロックと同様であるので、ここでの説明は省略する。
ユーザ操作情報取得部13a’は、レーザーポインタ2a’からユーザ操作情報を無線により受信する機能を有する。プロジェクタ1a’とレーザーポインタ2a’間の無線通信の方式は特に限定しないが、例えばWi−Fi(登録商標)またはBluetooth(登録商標)等によりデータの送受信が行われる。
また、本変形例によるレーザーポインタ2a’は、図9に示すように、操作部20、可視光レーザー照射部21、および送信部23を有する。操作部20および可視光レーザー照射部21は、図5を参照して説明した同ブロックと同様であるので、ここでの説明は省略する。
送信部23は、ペアリングされた(接続設定された)プロジェクタ1a’と無線通信を行う機能を有する。具体的には、送信部23は、操作部20によりユーザ操作が検出された場合、ユーザ操作(例えば操作ボタン20aの全押し操作)を示す情報(ユーザ操作情報)をプロジェクタ1a’に送信する。
以上説明した構成により、まず、レーザーポインタ2a’を用いてユーザが投影画像に対して行ったユーザ操作(操作ボタン20aの全押し操作等)が、無線通信を介してプロジェクタ1a’に送信される。続いて、プロジェクタ1a’は、可視光レーザーによる照射位置Pと、レーザーポインタ2a’から受信したユーザ操作とを含む操作入力情報をPC3aに送信する。PC3aは、操作入力情報に従った処理を行い、当該処理を反映した投影用画像をプロジェクタ1a’に送信する。そして、プロジェクタ1a’は、操作入力情報に従った処理が反映された投影用画像を投影する。
これにより、レーザーポインタ2a’がPC3a’と通信する必要なく、ユーザはレーザーポインタ2a’を用いて投影画像に対して直感的に操作入力を行うことができる。
<2−2.第2の実施形態>
次に、本開示による第2の実施形態について図10〜図11を参照して具体的に説明する。本実施形態では、上記第1の実施形態によるプロジェクタ1aが有する非可視光撮像部12、ユーザ操作情報取得部13a、可視光撮像部15、位置認識部16a、および操作入力情報出力部17が、プロジェクタ1aと別体の装置(便宜上、ポインタ認識用カメラと称する)に設けられている。これにより、既存のプロジェクタシステムに本実施形態によるポインタ認識用カメラ(本開示による情報処理装置)を新たに導入して、レーザーポインタによる直感的な操作入力が可能な操作システムを構築することができる。
(2−2−1.全体構成)
まず、第2の実施形態による操作システムの全体構成について、図10を参照して説明する。図10は、第2の実施形態による操作システムの全体構成を説明するための図である。図10に示すように、本実施形態による操作システムは、プロジェクタ1b、ポインタ認識用カメラ4a、レーザーポインタ2a、およびPC3aを含む。レーザーポインタ2aおよびPC3aの機能は、図2を参照して説明した第1の実施形態と同様であるので、ここでの説明は省略する。
プロジェクタ1bは、PC3aと有線/無線により接続し、投影用の画像データをPC3aから受信する。そして、プロジェクタ1bは、受信した画像データに基づいて、スクリーンSに画像を投影する。
ポインタ認識用カメラ4aは、投影画像を非可視光撮像し、非可視光マーカーMを認識し、レーザーポインタ2aによる指示位置(照射位置P)や操作入力情報を検出する。そして、ポインタ認識用カメラ4aは、検出した操作入力情報をPC3aに送信する。
PC3aは、ポインタ認識用カメラ4aから受信した操作入力情報に応じた制御を実行し、操作入力情報が反映された投影用の画像データをプロジェクタ1bに送信する。
このように、本実施形態による操作システムによれば、ユーザは、投影画像上の任意の位置にレーザーポインタ2aから照射されるレーザー光Vの照射位置Pを合わせて操作ボタン20aを押下する等の直感的な操作入力を行うことができる。
(2−2−2.内部構成)
続いて、本実施形態による操作システムに含まれる各装置の内部構成について図11を参照して具体的に説明する。図11は、第2の実施形態による操作システムの内部構成の一例を示すブロック図である。
(プロジェクタ1b)
プロジェクタ1bは、図11に示すように、投影画像受信部10および画像投影部11を有する。投影画像受信部10は、第1の実施形態と同様に、PC3aから投影用の画像データを有線/無線により受信し、画像投影部11に出力する。画像投影部11は、投影画像受信部10から出力された画像データに基づいて、スクリーンSに対して画像の投影を行う。
(ポインタ認識用カメラ4a)
ポインタ認識用カメラ4aは、図11に示すように、非可視光撮像部42、ユーザ操作情報取得部43、位置認識部46、および操作入力情報出力部47を有する。
非可視光撮像部42は、第1の実施形態による非可視光撮像部12と同様に、投影された画像上にレーザーポインタ2aにより照射された非可視光マーカーMを撮像する機能を有する。非可視光撮像部42による撮像範囲は、スクリーンSに投影された投影画像を含む範囲に調整される。
位置認識部46は、非可視光撮像部42により撮像された非可視光撮像画像に基づいて、非可視光マーカーMの座標位置を認識する。非可視光マーカーMは、レーザー光による照射位置Pと同じ位置または近傍に照射されるので、位置認識部46は、非可視光マーカーMの座標位置を、レーザー光による照射位置Pとして認識できる。
ユーザ操作情報取得部43は、第1の実施形態によるユーザ操作情報取得部13aと同様に、非可視光マーカーMを撮像した非可視光撮像画像に基づいて、レーザーポインタ2aで検出されたユーザ操作の情報を取得する取得部として機能する。
操作入力情報出力部47は、第1の実施形態による操作入力情報出力部17と同様に、ユーザ操作情報取得部43から出力されたユーザ操作情報と位置認識部46から出力された照射位置Pを示す情報とに基づいて、投影画像に対する操作入力情報を検出する機能を有する。また、操作入力情報出力部47は、検出した操作入力情報を、PC3aに有線/無線により送信する機能を有する。
(レーザーポインタ2a)
レーザーポインタ2aの内部構成は、図5を参照して説明した第1の実施形態と同様であるので、ここでの説明は省略する。
(PC3a)
PC3aの内部構成は、図5を参照して説明した第1の実施形態と同様である。特に本実施形態による操作入力部32aは、ポインタ認識用カメラ4aから操作入力情報を受信する機能を有する。操作入力部32aは、ポインタ認識用カメラ4aから受信した操作入力情報を制御部30に出力する。そして、制御部30は、操作入力情報に従った処理を実行し、処理が反映された投影用の画像データを、画像出力部31からプロジェクタ1bに送信する。
以上説明したように、第2の実施形態による操作システムは、プロジェクタ1bと別体のポインタ認識用カメラ4a(本開示による情報処理装置)を含む構成で、レーザーポインタ2aを用いた投影画像に対する直感的なユーザ操作を可能とする。
<2−3.第3の実施形態>
次に、本開示による第3の実施形態について図12〜図13を参照して具体的に説明する。本実施形態では、上記第2の実施形態によるポインタ認識用カメラ4aが有するユーザ操作情報取得部43、位置認識部46、および操作入力情報出力部47の機能を含むポインタ認識用エンジンが、PC3に内蔵されている。これにより、既存のプロジェクタとカメラを有するプロジェクタシステムに、本実施形態によるポインタ認識用エンジンが内蔵されたPC(以下、ポインタ認識PCと称す)を新たに導入して、レーザーポインタによる直感的な操作入力が可能な操作システムを構築することができる。ポインタ認識用エンジンの実装は、ハードウェアであってもよいし、ソフトウェアであってもよい。例えば汎用PCにポインタ認識用アプリケーションを実装してポインタ認識PCを実現することが可能である。
(2−3−1.全体構成)
まず、第3の実施形態による操作システムの全体構成について、図12を参照して説明する。図12は、第3の実施形態による操作システムの全体構成を説明するための図である。図12に示すように、本実施形態による操作システムは、プロジェクタ1b、カメラ4b、レーザーポインタ2a、およびポインタ認識PC3b(本開示による情報処理装置)を含む。プロジェクタ1bおよびレーザーポインタ2aの機能は、図11を参照して説明した第2の実施形態と同様であるので、ここでの説明は省略する。
カメラ4bは、ポインタ認識PC3bと有線/無線により接続し、投影画像を非可視光撮像した非可視光撮像画像をPC3bに送信する。
ポインタ認識PC3bは、非可視光撮像画像に基づいて非可視光マーカーMを認識し、レーザーポインタ2aによる指示位置(照射位置P)や操作入力情報を検出する。そして、PC3aは、検出した操作入力情報に応じた制御を実行し、操作入力情報が反映された投影用の画像データをプロジェクタ1bに送信する。
このように、本実施形態による操作システムによれば、ユーザは、投影画像上の任意の位置にレーザーポインタ2aから照射されるレーザー光Vの照射位置Pを合わせて操作ボタン20aを押下する等の直感的な操作入力を行うことができる。
(2−3−2.内部構成)
続いて、本実施形態による操作システムに含まれる各装置の内部構成について図13を参照して具体的に説明する。図13は、第3の実施形態による操作システムの内部構成の一例を示すブロック図である。なおプロジェクタ1bおよびレーザーポインタ2aの内部構成は、図11を参照して説明した第2の実施形態と同様であるので、ここでの説明は省略する。
(カメラ4b)
カメラ4bは、図13に示すように、非可視光撮像部42および撮像画像送信部49を有する。非可視光撮像部42は、図11に示す第2の実施形態による同ブロックと同様に、投影された画像上にレーザーポインタ2aにより照射された非可視光マーカーMを撮像する機能を有する。撮像画像送信部49は、非可視光撮像部42により撮像された非可視光撮像画像を有線/無線によりポインタ認識PC3bに送信する。
(ポインタ認識PC3b)
ポインタ認識PC3bは、図13に示すように、制御部30、画像出力部31、操作入力部32b、ユーザ操作情報取得部33、撮像画像受信部34、および位置認識部36を有する。
撮像画像受信部34は、カメラ4bから非可視光撮像画像を有線/無線により受信し、受信した非可視光撮像画像を位置認識部36およびユーザ操作情報取得部33に出力する。
位置認識部36は、図11に示す第2の実施形態による位置認識部46と同様に、非可視光撮像画像に基づいて、非可視光マーカーMの座標位置を認識する。非可視光マーカーMは、レーザー光による照射位置Pと同じ位置または近傍に照射されるので、位置認識部36は、非可視光マーカーMの座標位置を、レーザー光による照射位置Pとして認識できる。
ユーザ操作情報取得部33は、図11に示す第2の実施形態によるユーザ操作情報取得部43と同様に、非可視光マーカーMを撮像した非可視光撮像画像に基づいて、レーザーポインタ2aで検出されたユーザ操作の情報を取得する取得部として機能する。
操作入力部32bは、図11に示す第2の実施形態による操作入力情報出力部47と同様の機能を有する。具体的には、操作入力部32bは、ユーザ操作情報取得部33から出力されたユーザ操作情報と位置認識部36から出力された照射位置Pを示す情報とに基づいて、投影画像に対する操作入力情報を検出する機能を有する。そして、操作入力部32bは、検出した操作入力情報を制御部30に出力する。
制御部30は、操作入力情報に従った処理を実行し、処理が反映された投影用の画像データを、画像出力部31からプロジェクタ1bに送信する。
以上説明したように、第3の実施形態による操作システムは、カメラ4bと別体のポインタ認識用エンジンを内蔵するPC3b(本開示による情報処理装置)を含み、レーザーポインタ2aを用いた投影画像に対する直感的なユーザ操作が可能となる。
<2−4.第4の実施形態>
次に、本開示による第4の実施形態について図14〜図15を参照して具体的に説明する。本実施形態では、上記第3の実施形態によるカメラ4bとポインタ認識用エンジンが内蔵されたPC3bが、一体の装置で実現される。具体的には、例えばカメラ内蔵のモバイル通信端末(スマートフォンやタブレット端末等)に、ポインタ認識用エンジンを実装して実現される。これにより、既存のプロジェクタによるプロジェクタシステムに、本実施形態によるポインタ認識用エンジンが実装された通信端末を新たに導入して、レーザーポインタによる直感的な操作入力が可能な操作システムを構築することができる。ポインタ認識用エンジンの実装は、ハードウェアであってもよいし、ソフトウェアであってもよい。例えば汎用通信端末にポインタ認識用アプリケーションを実装してポインタ認識用の通信端末を実現することが可能である。
(2−4−1.全体構成)
まず、第4の実施形態による操作システムの全体構成について、図14を参照して説明する。図14は、第4の実施形態による操作システムの全体構成を説明するための図である。図14に示すように、本実施形態による操作システムは、プロジェクタ1b、通信端末5(本開示による情報処理装置)、およびレーザーポインタ2aを含む。プロジェクタ1bおよびレーザーポインタ2aの機能は、図12、図13に示す第3の実施形態と同様であるので、ここでの説明は省略する。
通信端末5は、プロジェクタ1bと有線/無線により接続し、投影用の画像データを送信する。また、通信端末5は、スクリーンSに投影された画像を非可視光撮像した非可視光撮像画像に基づいて、レーザーポインタ2aから照射された非可視光マーカーMを解析し、照射位置Pおよびユーザ操作情報を取得する。また、通信端末5は、照射位置Pおよびユーザ操作情報に基づいて操作入力情報を検出し、検出した操作入力情報に応じた制御を実行する。そして、通信端末5は、操作入力情報が反映された投影用の画像データをプロジェクタ1bに送信する。
このように、本実施形態による操作システムによれば、ユーザは、投影画像上の任意の位置にレーザーポインタ2aから照射されるレーザー光Vの照射位置Pを合わせて操作ボタン20aを押下する等の直感的な操作入力を行うことができる。
(2−4−2.内部構成)
続いて、本実施形態による操作システムに含まれる通信端末5の内部構成について図15を参照して具体的に説明する。図15は、第3の実施形態による通信端末5の内部構成の一例を示すブロック図である。
通信端末5は、制御部50、画像出力部51、操作入力部52、ユーザ操作情報取得部53、非可視光撮像部54、および位置認識部56を有する。
非可視光撮像部54は、スクリーンSに投影された画像上にレーザーポインタ2aにより照射された非可視光マーカーMを撮像する機能を有する。
位置認識部56は、図13に示す第3の実施形態による位置認識部36と同様に、非可視光撮像画像に基づいて、非可視光マーカーMの座標位置を認識する。非可視光マーカーMは、レーザー光による照射位置Pと同じ位置または近傍に照射されるので、位置認識部56は、非可視光マーカーMの座標位置を、レーザー光による照射位置Pとして認識できる。
ユーザ操作情報取得部53は、図13に示す第3の実施形態によるユーザ操作情報取得部33と同様に、非可視光マーカーMを撮像した非可視光撮像画像に基づいて、レーザーポインタ2aで検出されたユーザ操作の情報を取得する取得部として機能する。
操作入力部52は、図13に示す第3の実施形態による操作入力部32bと同様の機能を有する。具体的には、操作入力部52は、ユーザ操作情報取得部33から出力されたユーザ操作情報と位置認識部36から出力された照射位置Pを示す情報とに基づいて、投影画像に対する操作入力情報を検出する機能を有する。そして、操作入力部32bは、検出した操作入力情報を制御部30に出力する。
制御部30は、操作入力情報に従った処理を実行し、処理が反映された投影用の画像データを、画像出力部31からプロジェクタ1bに送信する。
以上説明したように、第4の実施形態による操作システムは、カメラが内蔵され、かつポインタ認識用エンジンを実装した通信端末5(本開示による情報処理装置)を含み、レーザーポインタ2aを用いた投影画像に対する直感的なユーザ操作が可能となる。
<2−5.第5の実施形態>
次に、本開示による第5の実施形態について図16〜図17を参照して具体的に説明する。上述した各実施形態では、プロジェクタ1aに設けられたカメラ、単体のカメラ、または通信端末5に設けられたカメラで、スクリーンSに投影された画像(投影画像)を撮像し、撮像画像に基づいて照射位置Pを認識していた。しかしながら、本開示による操作システムによる照射位置Pの認識方法は上記各実施形態に限定されず、例えばレーザーポインタ2にカメラを設け、操作ボタン20aが押下された場合にのみ非可視光撮像および照射位置Pの認識を行う方法であってもよい。このように操作ボタン20aが押下された場合にのみ非可視光撮像および照射位置Pの認識を行うことで、消費電力の無駄を省くことができる。
(2−5−1.全体構成)
まず、第5の実施形態による操作システムの全体構成について、図16を参照して説明する。図16は、第5の実施形態による操作システムの全体構成を説明するための図である。図16に示すように、本実施形態による操作システムは、プロジェクタ1c(本開示による情報処理装置)、レーザーポインタ2b、およびPC3aを含む。PC3aの機能は、上述した第1の実施形態と同様であるので、ここでの説明は省略する。
プロジェクタ1cは、PC3aと有線/無線により接続し、投影用の画像データをPC3aから受信する。また、プロジェクタ1cは、投影用の画像データをスクリーンSに投影する。さらに、本実施形態によるプロジェクタ1cは、赤外線など非可視光の座標特定用マップ(座標認識用画像とも称す)Qを、スクリーンS(画像投影エリア)に重畳投影する。非可視光の座標特定用マップQの投影エリアは、画像投影エリアを含む範囲であればよい。
また、プロジェクタ1cは、初期設定時に、レーザーポインタ2bがプロジェクタ1cと無線通信の接続設定を行うための情報(以下、接続情報とも称す)を埋め込んだ非可視光画像をスクリーンS(画像投影エリア)に重畳投影してもよい。
レーザーポインタ2bは、操作ボタン20aの押下状態に応じて、可視光線(レーザー光V)の照射や、ユーザ操作情報の送信制御を行う。具体的には、例えばレーザーポインタ2bは、操作ボタン20aが半押しされた場合はレーザー光Vを照射し、全押しされた場合はレーザー光Vの照射を継続しつつ、全押し操作を示す情報(ユーザ操作情報)を無線通信によりプロジェクタ1cに送信する。
さらに、本実施形態によるレーザーポインタ2bは、操作ボタン20aが全押しされた場合、レーザー光Vの照射位置Pを含む範囲を非可視光撮像する。初期設定時の場合、レーザーポインタ2bは、非可視光撮像画像から接続情報を読み取り、当該接続情報に基づいて自動的にプロジェクタ1cと無線接続設定を行うことができる。なお、レーザーポインタ2bとプロジェクタ1cの接続設定(ペアリング)は、ユーザが手動で行ってもよい。
また、レーザーポインタ2bは、非可視光撮像画像に含まれる座標特定用マップQ’を認識し、座標特定情報等を読み取る。そして、レーザーポインタ2bは、ユーザ操作情報と共に、読み取った情報(以下、読取情報とも称す)を、無線通信によりプロジェクタ1cに送信する。
レーザーポインタ2bからユーザ操作情報と読取情報を受信したプロジェクタ1cは、読取情報に基づいてレーザーポインタ2bの照射位置Pを認識することができる。また、プロジェクタ1cは、照射位置Pとユーザ操作情報とに基づいて操作入力情報を検出し、PC3aに送信する。
PC3aは、送信された操作入力情報に応じた制御を実行し、操作入力情報が反映された投影用の画像データをプロジェクタ1cに送信する。
このように、本実施形態による操作システムによれば、プロジェクタ1cから投影画像上に非可視光の座標特定用マップを重畳投影し、レーザーポインタ2b側で非可視光撮像し、当該非可視光撮像画像に基づいてレーザーポインタ2aによる照射位置Pが認識される。
(2−5−2.内部構成)
続いて、本実施形態による操作システムに含まれる各装置の内部構成について図17を参照して具体的に説明する。図17は、第5の実施形態による操作システムの内部構成の一例を示すブロック図である。
(プロジェクタ1c)
プロジェクタ1cは、投影画像受信部10、画像投影部11、非可視光画像生成部18、非可視光投影部19、情報取得部13c、位置認識部16c、および操作入力情報出力部17を有する。
投影画像受信部10および画像投影部11は、第1の実施形態による同ブロックと同様であるので、ここでの説明は省略する。
非可視光画像生成部18は、レーザーポインタ2bによる照射位置Pを認識する際に利用される座標特定情報を埋め込んだ非可視光の座標特定用マップQや、接続情報を埋め込んだ非可視光の画像を生成する。
非可視光投影部19は、非可視光画像生成部18により生成された非可視光の座標特定用マップQや接続情報が埋め込まれた画像を、スクリーンSの投影画像上に重畳投影する。なお、非可視光投影部19および画像投影部11による投影は、同一の光源で異なるフィルタを通じた投影としてもよい。
情報取得部13cは、レーザーポインタ2bと無線通信し、レーザーポインタ2bからユーザ操作情報および読取情報を受信する。
位置認識部16cは、非可視光画像生成部18が作成した座標特定用マップQと、情報取得部13cにより受信された読取情報に含まれる、非可視光撮像された座標特定用マップQ’から読み取られた座標特定情報とに基づいて、レーザーポインタ2bによる照射位置P(座標位置)を認識する。例えば位置認識部16cは、座標特定用マップQと座標特定情報で示される座標特定用マップQ’とを比較し、座標特定用マップQにおける座標特定用マップQ’の位置を特定する。そして、位置認識部16cは、座標特定用マップQ’の中心位置を、レーザーポインタ2bによる照射位置P(座標位置)として認識する。
操作入力情報出力部17は、情報取得部13cにより受信されたユーザ操作情報と、位置認識部16cにより認識された照射位置Pに基づいて、投影画像に対する操作入力情報を検出する機能を有する。また、操作入力情報出力部17は、検出した操作入力情報をPC3aに有線/無線送信する。
(レーザーポインタ2b)
レーザーポインタ2bは、図17に示すように、操作部20、可視光レーザー照射部21、非可視光撮像部25、情報読取部26、および送信部23を有する。
可視光レーザー照射部21は、操作部20により検出されたユーザ操作に応じて、レーザー光V(可視光)を照射する機能を有する。具体的には、例えば可視光レーザー照射部21は、操作ボタン20aが半押しされた場合、レーザー光Vを照射する。
非可視光撮像部25は、操作部20により検出されるユーザ操作に応じてレーザー光Vにより照射されている位置(照射位置P)を含む範囲を非可視光撮像する機能を有する。例えば、非可視光撮像部25は、操作ボタン20aが全押しされた場合のみ非可視光撮像を行う。
情報読取部26は、非可視光撮像画像に基づいて、座標特定用マップQ’を認識し、座標特定情報等を読み取る。
送信部23は、情報読取部26により読み取られた情報(読取情報)と、操作部20により検出されたユーザ操作情報(例えば全押し操作)を、無線通信によりプロジェクタ1cに送信する。
このように、本実施形態によるレーザーポインタ2bは、例えば操作ボタン20aが半押し(第1段階操作)された場合はレーザー光Vを照射する。そして、操作ボタン20aが全押し(第2段階操作)された場合、レーザーポインタ2bは、レーザー光Vを照射しつつ、かつ非可視光撮像を行い、非可視光撮像画像から読み取った情報とユーザ操作情報をプロジェクタ1cに無線送信する。これにより、ユーザは、レーザーポインタ2bを用いて投影画像に対して直感的に操作入力を行うことができる。
(PC3a)
PC3aの内部構成は、第1の実施形態と同様である。すなわち、操作入力部32aは、プロジェクタ1cから操作入力情報を受信し、制御部30は、当該操作入力情報に従った処理を実行する。また、画像出力部31は、制御部30による処理が反映された投影用の画像データをプロジェクタ1cに送信する。
以上説明したように、第5の実施形態による操作システムでは、レーザーポインタ2bにカメラ(非可視光撮像部25)が設けられ、レーザーポインタ2bで検出されたユーザ操作に応じて非可視光撮像が行われる。また、プロジェクタ1cは、レーザーポインタ2b側で非可視光撮像された座標特定用マップQ’から読み取られた座標特定情報を受信し、当該座標特定情報に基づいて、レーザーポインタ2bによる照射位置Pを認識することができる。
<2−6.第6の実施形態>
上述した第5の実施形態による操作システムに含まれる各装置の構成は一例であって、本開示による操作システムの各構成は図17に示す例に限定されない。例えば、上記第5の実施形態によるプロジェクタ1cが有する非可視光画像生成部18、非可視光投影部19、情報取得部13c、位置認識部16c、および操作入力情報出力部17を、プロジェクタ1cと別体の装置(便宜上、ポインタ認識装置と称する)に設けてもよい。これにより、既存のプロジェクタシステムに本実施形態によるポインタ認識装置(本開示による情報処理装置)を新たに導入することで、レーザーポインタによる直感的な操作入力が可能な操作システムを構築できる。
(2−6−1.全体構成)
まず、第6の実施形態による操作システムの全体構成について、図18を参照して説明する。図18は、第6の実施形態による操作システムの全体構成を説明するための図である。図18に示すように、本実施形態による操作システムは、プロジェクタ1b、ポインタ認識装置6、レーザーポインタ2b、およびPC3aを含む。PC3aは上述した第1の実施形態、プロジェクタ1bは上述した第2の実施形態、レーザーポインタ2bは上述した第5の実施形態とそれぞれ同様であるので、ここでの具体的な説明は省略する。
ポインタ認識装置6は、赤外線など非可視光の座標特定用マップQを、スクリーンS(画像投影エリア)に重畳投影する。非可視光の座標特定用マップQの投影エリアは、画像投影エリアを含む範囲であればよい。
レーザーポインタ2bは、第5の実施形態と同様に、操作ボタン20aの押下操作に応じて、レーザー光Vを照射したり、スクリーンS上の照射位置Pを含む範囲を非可視光撮像し、非可視光撮像画像に含まれる座標特定用マップQ’を認識したりする。そして、レーザーポインタ2bは、検出したユーザ操作情報と、座標特定用マップQ’から読み取った情報をポインタ認識装置6に送信する。
ポインタ認識装置6は、レーザーポインタ2bから受信した読取情報に基づいて、レーザーポインタ2bの照射位置Pを認識する。また、ポインタ認識装置6は、認識した照射位置Pと、レーザーポインタ2bから受信したユーザ操作情報とに基づいて操作入力情報を検出し、PC3aに送信する。
PC3aは、送信された操作入力情報に応じた制御を実行し、操作入力情報が反映された投影用の画像データをプロジェクタ1cに送信する。
このように、本実施形態による操作システムによれば、既存のプロジェクタシステムに本実施形態によるポインタ認識装置6(本開示による情報処理装置)を新たに導入することで、レーザーポインタによる直感的な操作入力が可能な操作システムを構築できる。
(2−6−2.内部構成)
続いて、本実施形態による操作システムに含まれる各装置の内部構成について図19を参照して具体的に説明する。図19は、第6の実施形態による操作システムの内部構成の一例を示すブロック図である。なおPC3aの構成は上記第1の実施形態、プロジェクタ1bは上記第2の実施形態、レーザーポインタ2bは上記第5の実施形態とそれぞれ同じ構成であるので、ここでの具体的な説明は省略する。
(ポインタ認識装置6)
ポインタ認識装置6は、図19に示すように、非可視光画像生成部68、非可視光投影部69、情報取得部63、位置認識部66、および操作入力情報出力部67を有する。
非可視光画像生成部68は、第5の実施形態による非可視光画像生成部18と同様に、非可視光の座標特定用マップQや、接続情報を埋め込んだ非可視光の画像を生成する。
非可視光投影部69は、第5の実施形態による非可視光投影部19と同様に、非可視光画像生成部68により生成された非可視光の座標特定用マップQや接続情報が埋め込まれた画像を、スクリーンSの投影画像上に重畳投影する。
情報取得部63は、第5の実施形態による情報取得部13cと同様に、レーザーポインタ2bと無線通信し、レーザーポインタ2bからユーザ操作情報および読取情報を受信する。
位置認識部66は、第5の実施形態による位置認識部16cと同様に、非可視光画像生成部68が作成した座標特定用マップQと、非可視光撮像された座標特定用マップQ’から読み取られた座標特定情報とに基づいて、レーザーポインタ2bによる照射位置P(座標位置)を認識する。
操作入力情報出力部67は、第5の実施形態による操作入力情報出力部17と同様に、情報取得部63により受信されたユーザ操作情報と、位置認識部66により認識された照射位置Pに基づいて、投影画像に対する操作入力情報を検出する機能を有する。また、操作入力情報出力部67は、検出した操作入力情報をPC3aに有線/無線送信する。
以上説明したように、第6の実施形態による操作システムは、プロジェクタ1bと別体のポインタ認識装置6(本開示による情報処理装置)を含む構成で、レーザーポインタ2bを用いた投影画像に対する直感的なユーザ操作を可能とする。
<2−7.第7の実施形態>
次に、本開示による第7の実施形態について図20〜図21を参照して具体的に説明する。本実施形態では、上記第6の実施形態によるポインタ認識装置6とPC3aが一体の装置で実現される。具体的には、例えばカメラ内蔵のモバイル通信端末(スマートフォンやタブレット端末等)に、ポインタ認識用エンジンを実装して実現される。これにより、既存のプロジェクタによるプロジェクタシステムに、本実施形態によるポインタ認識用エンジンが実装された通信端末を新たに導入することで、レーザーポインタによる直感的な操作入力が可能な操作システムを構築できる。
(2−7−1.全体構成)
まず、第7の実施形態による操作システムの全体構成について、図20を参照して説明する。図20は、第7の実施形態による操作システムの全体構成を説明するための図である。図20に示すように、本実施形態による操作システムは、プロジェクタ1b、通信端末7(本開示による情報処理装置)、およびレーザーポインタ2bを含む。プロジェクタ1bの機能は上記第2の実施形態において、また、レーザーポインタ2bの機能は上記第5の実施形態においてそれぞれ説明したので、ここでは省略する。
通信端末7は、プロジェクタ1bと有線/無線により接続し、投影用の画像データを送信する。また、通信端末7は、スクリーンSに投影された画像上に、赤外線など非可視光の座標特定用マップQを投影する。
また、通信端末7は、ユーザ操作情報、およびレーザーポインタ2bが撮像した非可視光撮像画像から読み取られた読取情報を、レーザーポインタ2bから無線通信により受信し、これらに基づいて操作入力情報を検出する。そして、通信端末7は、検出した操作入力情報に応じた制御を実行し、操作入力情報が反映された投影用の画像データをプロジェクタ1bに送信する。
このように、本実施形態による操作システムによれば、既存のプロジェクタシステムに、本実施形態によるポインタ認識用エンジンが実装された通信端末7(本開示による情報処理装置)を導入することで、レーザーポインタによる直感的な操作入力を可能にする。
(2−7−2.内部構成)
続いて、本実施形態による操作システムに含まれる通信端末7の内部構成について図21を参照して具体的に説明する。図21は、第7の実施形態による通信端末7の内部構成の一例を示すブロック図である。
図21に示すように、通信端末7は、制御部70、画像出力部71、非可視光画像生成部78、非可視光投影部79、情報取得部73、位置認識部76、および操作入力部72を有する。非可視光画像生成部78、非可視光投影部79、情報取得部73、および位置認識部76は、それぞれ第6の実施形態による非可視光画像生成部68、非可視光投影部69、情報取得部63、および位置認識部66と同様の機能を有する。
また、操作入力部72は、第6の実施形態による操作入力部52と同様に、情報取得部73から出力されたユーザ操作情報と位置認識部76から出力された照射位置Pを示す情報とに基づいて、投影画像に対する操作入力情報を検出する機能を有する。そして、操作入力部72は、検出した操作入力情報を制御部70に出力する。
制御部70は、操作入力情報に従った処理を実行し、処理が反映された投影用の画像データを、画像出力部71からプロジェクタ1bに送信する。
以上説明したように、第6の実施形態によれば、カメラが内蔵され、かつポインタ認識用エンジンを実装した通信端末7(本開示による情報処理装置)を既存のプロジェクタシステムに導入することで、レーザーポインタ2bを用いた投影画像に対する直感的なユーザ操作が可能となる。
<<3.まとめ>>
上述したように、本実施形態による操作システムでは、レーザーポインタ2を用いて、レーザー光Vを照射した状態のまま、投影画像に対して直感的な操作入力を行うことができる。レーザー光Vの照射は、1段階目の操作(例えば操作ボタン20aの半押し)により開始され、続く2段階目の操作(例えば操作ボタン20aの全押しや、2回押しなど)が直感的な操作入力に該当する。これにより、投影された画像(例えば地図、ウェブサイト等)に対して、マウスGUIのクリック、ドラッグ、範囲選択、ダブルクリック等に相当する直感的な操作入力をレーザーポインタ2で行うことができる。
具体的には、上記第1〜第4の実施形態では、レーザーポインタ2aで検出されたユーザ操作情報(操作ボタン20aの全押し操作等)が、レーザーポインタ2aから照射される非可視光マーカーMを介して、または無線通信を介して発信される。また、上記第1〜第4の実施形態では、本開示による情報処理装置が、プロジェクタ1a、1a’、ポインタ認識用カメラ4a、ポインタ認識PC3b、または通信端末5により実現される。かかる情報処理装置は、非可視光マーカーMを撮像した非可視光画像の解析またはレーザーポインタ2aとの無線通信により、レーザーポインタ2aで検出されたユーザ操作情報を取得する。さらに、かかる情報処理装置は、可視光画像/非可視光画像に基づいて、レーザーポインタ2aのレーザー光Vで指示される投影画像上の照射位置Pを認識する。そして、情報処理装置は、認識した照射位置Pと、上記取得したユーザ操作情報とに基づいて、操作入力情報を検出することができる。
なおレーザーポインタ2aで検出されたユーザ操作情報(操作ボタン20aの全押し操作等)の発信は、レーザーポインタ2aから照射される非可視光マーカーMに限定されず、例えば可視光マーカーであってもよい。
また、第5〜第7の実施形態では、スクリーンSの投影画像上に、非可視光の座標特定用マップQが重畳投影され、レーザーポインタ2bにより非可視光撮像される。レーザーポインタ2bは、操作部20により検出したユーザ操作情報(操作ボタン20aの全押し操作等)と、非可視光撮像画像から読み取った読取情報を、無線通信により情報処理装置に送信する。上記第5〜第7の実施形態では、本開示による情報処理装置が、プロジェクタ1c、ポインタ認識装置6、または通信端末7により実現される。かかる情報処理装置は、レーザーポインタ2bから受信した読取情報に基づいて、レーザーポインタ2aのレーザー光Vで指示される投影画像上の照射位置Pを認識する。そして、情報処理装置は、認識した照射位置Pと、上記受信したユーザ操作情報とに基づいて、操作入力情報を検出することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、プロジェクタ1a、1a’、1c、ポインタ認識用カメラ4a、ポインタ認識装置6、ポインタ認識PC3b、通信端末5、7に内蔵されるCPU、ROM、およびRAM等のハードウェアに、上述したプロジェクタ1a、1a’、1c、ポインタ認識用カメラ4a、ポインタ認識装置6、ポインタ認識PC3b、通信端末5、7の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、本開示による操作システムは、複数のプロジェクタ1による直感的な操作入力も可能である。これにより、複数人による共同作業や、両手を使った複数のレーザーポインタ2によるUI操作が可能となる。
複数のレーザーポインタ2による各照射位置Pの識別は、例えばレーザー光Vと共に照射される非可視光の1次元バーコードや2次元バーコード等に埋め込まれたユーザIDに基づいて識別されてもよい。または、レーザー光V(可視光)の色や形状に基づいて識別されてもよい。ユーザは、レーザー光Vの色や形状を、レーザーポインタ2に設けられたスイッチまたはタッチパネルディスプレイの表示画面、若しくは投影画像上で選択することができる。
また、上記第1〜第4の実施形態によるレーザーポインタ2aは、2段階目のユーザ操作に応じて非可視光マーカーMを照射すると共に音声出力を行うことで、直感的な操作入力のフィードバックをユーザに提供することができる。
なお、本技術は以下のような構成も取ることができる。
(1)
投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
前記レーザーポインタに設けられた操作部により検出されたユーザ操作の情報を取得する取得部と、
前記認識部により認識された前記照射位置と、前記取得部により取得されたユーザ操作に基づいて、前記投影画像に対する操作入力情報を検出する検出部と、
を備える、情報処理装置。
(2)
前記認識部は、投影面を撮像した撮像画像に基づいて前記照射位置を認識する、前記(1)に記載の情報処理装置。
(3)
前記レーザーポインタは、前記操作部により検出されたユーザ操作に応じた非可視光マーカーを照射し、
前記取得部は、前記レーザーポインタにより照射された非可視光マーカーを撮像した撮像画像に基づいて、前記ユーザ操作の情報を取得する、前記(1)または(2)に記載の情報処理装置。
(4)
前記非可視光マーカーは、点、図形、1次元/2次元バーコード、または動画像である、前記(3)に記載の情報処理装置。
(5)
前記認識部は、前記非可視光マーカーを撮像した撮像画像に基づいて、前記非可視光マーカーの位置座標を前記レーザーポインタによる前記照射位置として認識する、前記(3)または(4)に記載の情報処理装置。
(6)
前記取得部は、前記レーザーポインタにより検出された前記ユーザ操作の情報を、前記レーザーポインタから受信して取得する、前記(1)または(2)に記載の情報処理装置。
(7)
前記レーザーポインタは、前記操作部により検出されたユーザ操作に応じた可視光マーカーを照射し、
前記取得部は、前記レーザーポインタにより照射された可視光マーカーを撮像した撮像画像に基づいて、前記ユーザ操作の情報を取得する、前記(1)または(2)に記載の情報処理装置。
(8)
前記レーザーポインタは、前記ユーザ操作に応じて、前記可視光マーカーの形または色の少なくともいずれかを変化させる、前記(7)に記載の情報処理装置。
(9)
前記認識部は、前記投影画像の全体を撮像した撮像画像に基づいて、前記レーザーポインタによる前記投影画像に対するレーザー光の照射位置を認識する、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記認識部は、前記投影画像上に重ねて投影された非可視光の座標認識用画像を撮像した撮像画像に基づいて、前記レーザーポインタによる前記投影画像に対するレーザー光の照射位置を認識する、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(11)
前記非可視光の座標認識用画像を撮像した撮像画像は、前記レーザーポインタによる前記投影画像に対するレーザー光の照射位置周辺を撮像した撮像画像である、前記(10)に記載の情報処理装置。
(12)
前記認識部は、前記投影画像に対する複数のレーザーポインタによるレーザー光の照射位置を認識し、
前記複数のレーザーポインタは、自身の識別情報を示す非可視光または可視光マーカーを照射し、
前記取得部は、前記複数のレーザーポインタによりそれぞれ照射された非可視光または可視光マーカーを撮像した撮像画像に基づいて、各レーザーポインタを識別するための識別情報を取得する、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(13)
投影画像に対するレーザーポインタによるレーザー光の照射位置を認識するステップと、
前記レーザーポインタに設けられた操作部により検出されたユーザ操作の情報を取得するステップと、
前記認識された前記照射位置と、前記取得されたユーザ操作に基づいて、前記投影画像に対する操作入力情報を検出するステップと、
を含む、操作入力検出方法。
(14)
コンピュータに、
投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
前記レーザーポインタに設けられた操作部により検出されたユーザ操作の情報を取得する取得部と、
前記認識部により認識された前記照射位置と、前記取得部により取得されたユーザ操作に基づいて、前記投影画像に対する操作入力情報を検出する検出部と、
として機能させるための、プログラム。
(15)
コンピュータに、
投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
前記レーザーポインタに設けられた操作部により検出されたユーザ操作の情報を取得する取得部と、
前記認識部により認識された前記照射位置と、前記取得部により取得されたユーザ操作に基づいて、前記投影画像に対する操作入力情報を検出する検出部と、
として機能させるためのプログラムが記憶された、記憶媒体。
1、1a、1a’、1b、1c プロジェクタ
2、2a、2a’、2a’’、2b レーザーポインタ
3、3a、3c PC
4a ポインタ認識用カメラ
4b カメラ
5、7 通信端末
6 ポインタ認識装置
10 投影画像受信部
11 画像投影部
12 非可視光撮像部
13a、13a’、33、43、53 ユーザ操作情報取得部
13c、73、63 情報取得部
15、25、42、54 可視光撮像部
16a、16c、36、46、56、76、66 位置認識部
17、47、67 操作入力情報出力部
18、78、68 非可視光画像生成部
19、79、69 非可視光投影部
20 操作部
20a、20b、20b’ 操作ボタン
20c タッチパネル
21 可視光レーザー照射部
22 非可視光マーカー照射部
23 送信部
26 情報読取部
30、50、70 制御部
31、51、71 画像出力部
32a、32b、52、72 操作入力部
34 撮像画像受信部
49 撮像画像送信部


Claims (15)

  1. 投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
    前記レーザーポインタに設けられた操作部により検出されたユーザ操作の情報を取得する取得部と、
    前記認識部により認識された前記照射位置と、前記取得部により取得されたユーザ操作に基づいて、前記投影画像に対する操作入力情報を検出する検出部と、
    を備える、情報処理装置。
  2. 前記認識部は、投影面を撮像した撮像画像に基づいて前記照射位置を認識する、請求項1に記載の情報処理装置。
  3. 前記レーザーポインタは、前記操作部により検出されたユーザ操作に応じた非可視光マーカーを照射し、
    前記取得部は、前記レーザーポインタにより照射された非可視光マーカーを撮像した撮像画像に基づいて、前記ユーザ操作の情報を取得する、請求項1に記載の情報処理装置。
  4. 前記非可視光マーカーは、点、図形、1次元/2次元バーコード、または動画像である、請求項3に記載の情報処理装置。
  5. 前記認識部は、前記非可視光マーカーを撮像した撮像画像に基づいて、前記非可視光マーカーの位置座標を前記レーザーポインタによる前記照射位置として認識する、請求項3に記載の情報処理装置。
  6. 前記取得部は、前記レーザーポインタにより検出された前記ユーザ操作の情報を、前記レーザーポインタから受信して取得する、請求項1に記載の情報処理装置。
  7. 前記レーザーポインタは、前記操作部により検出されたユーザ操作に応じた可視光マーカーを照射し、
    前記取得部は、前記レーザーポインタにより照射された可視光マーカーを撮像した撮像画像に基づいて、前記ユーザ操作の情報を取得する、請求項1に記載の情報処理装置。
  8. 前記レーザーポインタは、前記ユーザ操作に応じて、前記可視光マーカーの形または色の少なくともいずれかを変化させる、請求項7に記載の情報処理装置。
  9. 前記認識部は、前記投影画像の全体を撮像した撮像画像に基づいて、前記レーザーポインタによる前記投影画像に対するレーザー光の照射位置を認識する、請求項1に記載の情報処理装置。
  10. 前記認識部は、前記投影画像上に重ねて投影された非可視光の座標認識用画像を撮像した撮像画像に基づいて、前記レーザーポインタによる前記投影画像に対するレーザー光の照射位置を認識する、請求項1に記載の情報処理装置。
  11. 前記非可視光の座標認識用画像を撮像した撮像画像は、前記レーザーポインタによる前記投影画像に対するレーザー光の照射位置周辺を撮像した撮像画像である、請求項10に記載の情報処理装置。
  12. 前記認識部は、前記投影画像に対する複数のレーザーポインタによるレーザー光の照射位置を認識し、
    前記複数のレーザーポインタは、自身の識別情報を示す非可視光または可視光マーカーを照射し、
    前記取得部は、前記複数のレーザーポインタによりそれぞれ照射された非可視光または可視光マーカーを撮像した撮像画像に基づいて、各レーザーポインタを識別するための識別情報を取得する、請求項1に記載の情報処理装置。
  13. 投影画像に対するレーザーポインタによるレーザー光の照射位置を認識するステップと、
    前記レーザーポインタに設けられた操作部により検出されたユーザ操作の情報を取得するステップと、
    前記認識された前記照射位置と、前記取得されたユーザ操作に基づいて、前記投影画像に対する操作入力情報を検出するステップと、
    を含む、操作入力検出方法。
  14. コンピュータに、
    投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
    前記レーザーポインタに設けられた操作部により検出されたユーザ操作の情報を取得する取得部と、
    前記認識部により認識された前記照射位置と、前記取得部により取得されたユーザ操作に基づいて、前記投影画像に対する操作入力情報を検出する検出部と、
    として機能させるための、プログラム。
  15. コンピュータに、
    投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
    前記レーザーポインタに設けられた操作部により検出されたユーザ操作の情報を取得する取得部と、
    前記認識部により認識された前記照射位置と、前記取得部により取得されたユーザ操作に基づいて、前記投影画像に対する操作入力情報を検出する検出部と、
    として機能させるためのプログラムが記憶された、記憶媒体。
JP2013140856A 2013-07-04 2013-07-04 情報処理装置、操作入力検出方法、プログラム、および記憶媒体 Pending JP2015014882A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013140856A JP2015014882A (ja) 2013-07-04 2013-07-04 情報処理装置、操作入力検出方法、プログラム、および記憶媒体
US14/314,417 US20150009138A1 (en) 2013-07-04 2014-06-25 Information processing apparatus, operation input detection method, program, and storage medium
CN201410302243.0A CN104281276B (zh) 2013-07-04 2014-06-27 信息处理装置、操作输入检测方法、程序和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013140856A JP2015014882A (ja) 2013-07-04 2013-07-04 情報処理装置、操作入力検出方法、プログラム、および記憶媒体

Publications (2)

Publication Number Publication Date
JP2015014882A true JP2015014882A (ja) 2015-01-22
JP2015014882A5 JP2015014882A5 (ja) 2016-02-12

Family

ID=52132466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013140856A Pending JP2015014882A (ja) 2013-07-04 2013-07-04 情報処理装置、操作入力検出方法、プログラム、および記憶媒体

Country Status (3)

Country Link
US (1) US20150009138A1 (ja)
JP (1) JP2015014882A (ja)
CN (1) CN104281276B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158644A (ja) * 2014-02-25 2015-09-03 カシオ計算機株式会社 投影装置、投影方法及びプログラム
WO2017130504A1 (ja) * 2016-01-25 2017-08-03 裕行 池田 画像投影装置
US10452158B2 (en) 2014-11-27 2019-10-22 Sony Corporation Information processing device, information processing method, and information processing system

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212291A (ja) * 2015-05-11 2016-12-15 株式会社リコー 画像投影システム、画像処理装置、及びプログラム
US20180210561A1 (en) * 2017-01-24 2018-07-26 Semiconductor Energy Laboratory Co., Ltd. Input unit, input method, input system, and input support system
JP6848575B2 (ja) * 2017-03-22 2021-03-24 カシオ計算機株式会社 制御システム、制御方法、及び制御プログラム
CN107831920B (zh) * 2017-10-20 2022-01-28 广州视睿电子科技有限公司 光标移动显示方法、装置、移动终端及存储介质
JP2021165865A (ja) * 2018-07-03 2021-10-14 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、記録媒体
CN111666880A (zh) * 2020-06-06 2020-09-15 南京聚特机器人技术有限公司 一种针对灭火器指针式仪表的智能识别系统
CN112702586B (zh) * 2020-12-21 2023-06-30 极米科技股份有限公司 基于可见光的投影仪虚拟触控跟踪方法、装置及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200157A (ja) * 1993-12-28 1995-08-04 Hitachi Ltd 遠隔指示入力方法及び装置
JPH07200160A (ja) * 1993-12-28 1995-08-04 Hitachi Ltd 情報提供装置及び情報表示装置
JP2001224856A (ja) * 1999-12-06 2001-08-21 Namco Ltd ゲーム用の装置、位置検出用の装置及び情報記憶媒体
US20030222849A1 (en) * 2002-05-31 2003-12-04 Starkweather Gary K. Laser-based user input device for electronic projection displays
JP2004265235A (ja) * 2003-03-03 2004-09-24 Matsushita Electric Ind Co Ltd プロジェクタシステム、プロジェクタ装置、画像投射方法
JP2007257639A (ja) * 2006-03-20 2007-10-04 Samsung Electronics Co Ltd 映像パターンを利用したポインティング入力装置、方法、およびシステム
JP2010015398A (ja) * 2008-07-03 2010-01-21 Sanyo Electric Co Ltd プレゼンテーションシステム及び撮像装置
JP2012230653A (ja) * 2011-04-27 2012-11-22 Nagasakiken Koritsu Daigaku Hojin プレゼンテーション装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6050690A (en) * 1998-01-08 2000-04-18 Siemens Information And Communication Networks, Inc. Apparatus and method for focusing a projected image
US7113169B2 (en) * 2002-03-18 2006-09-26 The United States Of America As Represented By The Secretary Of The Air Force Apparatus and method for a multiple-user interface to interactive information displays
US7477236B2 (en) * 2005-04-29 2009-01-13 Microsoft Corporation Remote control of on-screen interactions
US7872637B2 (en) * 2007-04-25 2011-01-18 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. System and method for tracking a laser spot on a projected computer screen image
US20090091532A1 (en) * 2007-10-04 2009-04-09 International Business Machines Corporation Remotely controlling computer output displayed on a screen using a single hand-held device
US20110230238A1 (en) * 2010-03-17 2011-09-22 Sony Ericsson Mobile Communications Ab Pointer device to navigate a projected user interface
US9195677B2 (en) * 2011-05-20 2015-11-24 Stephen Ball System and method for decorating a hotel room
CN102231187B (zh) * 2011-07-12 2013-07-24 四川大学 一种基于计算机视觉检测技术的qr码检测识别方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200157A (ja) * 1993-12-28 1995-08-04 Hitachi Ltd 遠隔指示入力方法及び装置
JPH07200160A (ja) * 1993-12-28 1995-08-04 Hitachi Ltd 情報提供装置及び情報表示装置
JP2001224856A (ja) * 1999-12-06 2001-08-21 Namco Ltd ゲーム用の装置、位置検出用の装置及び情報記憶媒体
US20030222849A1 (en) * 2002-05-31 2003-12-04 Starkweather Gary K. Laser-based user input device for electronic projection displays
JP2004265235A (ja) * 2003-03-03 2004-09-24 Matsushita Electric Ind Co Ltd プロジェクタシステム、プロジェクタ装置、画像投射方法
JP2007257639A (ja) * 2006-03-20 2007-10-04 Samsung Electronics Co Ltd 映像パターンを利用したポインティング入力装置、方法、およびシステム
JP2010015398A (ja) * 2008-07-03 2010-01-21 Sanyo Electric Co Ltd プレゼンテーションシステム及び撮像装置
JP2012230653A (ja) * 2011-04-27 2012-11-22 Nagasakiken Koritsu Daigaku Hojin プレゼンテーション装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158644A (ja) * 2014-02-25 2015-09-03 カシオ計算機株式会社 投影装置、投影方法及びプログラム
US10452158B2 (en) 2014-11-27 2019-10-22 Sony Corporation Information processing device, information processing method, and information processing system
WO2017130504A1 (ja) * 2016-01-25 2017-08-03 裕行 池田 画像投影装置
JPWO2017130504A1 (ja) * 2016-01-25 2018-11-22 裕行 池田 画像投影装置
US11513637B2 (en) 2016-01-25 2022-11-29 Hiroyuki Ikeda Image projection device
US11928291B2 (en) 2016-01-25 2024-03-12 Hiroyuki Ikeda Image projection device

Also Published As

Publication number Publication date
US20150009138A1 (en) 2015-01-08
CN104281276A (zh) 2015-01-14
CN104281276B (zh) 2019-01-29

Similar Documents

Publication Publication Date Title
JP2015014882A (ja) 情報処理装置、操作入力検出方法、プログラム、および記憶媒体
JP6372487B2 (ja) 情報処理装置、制御方法、プログラム、および記憶媒体
US20230205151A1 (en) Systems and methods of gestural interaction in a pervasive computing environment
US10915186B2 (en) Projection video display apparatus and video display method
KR102377277B1 (ko) 전자 장치에서 커뮤니케이션 지원 방법 및 장치
US20140247216A1 (en) Trigger and control method and system of human-computer interaction operation command and laser emission device
US20140333585A1 (en) Electronic apparatus, information processing method, and storage medium
JP5645444B2 (ja) 画像表示システムおよびその制御方法
JP2010204730A (ja) ジェスチャーに応答して機器を制御するシステム
CN102547172B (zh) 一种遥控电视机
US9875565B2 (en) Information processing device, information processing system, and information processing method for sharing image and drawing information to an external terminal device
CN103365617A (zh) 一种投影控制系统、装置及投影控制方法
US11907466B2 (en) Apparatus and method which displays additional information along with a display component in response to the display component being selected
CN102375564A (zh) 使用光学指示器的交互方法、光学指示器、展示方法和系统
WO2018150569A1 (ja) ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
US20190073808A1 (en) Terminal apparatus, information processing system, and display control method
US11442504B2 (en) Information processing apparatus and non-transitory computer readable medium
JP2017009664A (ja) 画像投写装置、及び対話型入出力システム
JP2020024763A (ja) 反射検知システム
WO2015156068A1 (ja) 画像処理装置及び画像処理方法
JP7287156B2 (ja) 表示装置、表示方法、プログラム
US20240004921A1 (en) Information processing system, information processing method, and non-transitory recording medium
JP2015219547A (ja) 機器制御システム、機器制御プログラムおよび機器制御装置
JP2021092907A (ja) 携帯端末、及び、翻訳処理方法
CN117608465A (zh) 信息处理装置、显示方法以及存储介质和计算机装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170619

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170704