JP6372487B2 - 情報処理装置、制御方法、プログラム、および記憶媒体 - Google Patents

情報処理装置、制御方法、プログラム、および記憶媒体 Download PDF

Info

Publication number
JP6372487B2
JP6372487B2 JP2015523897A JP2015523897A JP6372487B2 JP 6372487 B2 JP6372487 B2 JP 6372487B2 JP 2015523897 A JP2015523897 A JP 2015523897A JP 2015523897 A JP2015523897 A JP 2015523897A JP 6372487 B2 JP6372487 B2 JP 6372487B2
Authority
JP
Japan
Prior art keywords
laser pointer
laser
information
pointer
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015523897A
Other languages
English (en)
Other versions
JPWO2014208168A1 (ja
Inventor
智也 成田
智也 成田
卓 井上
卓 井上
丈博 萩原
丈博 萩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014208168A1 publication Critical patent/JPWO2014208168A1/ja
Application granted granted Critical
Publication of JP6372487B2 publication Critical patent/JP6372487B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/18Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective
    • G02B27/20Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective for imaging minute objects, e.g. light-pointer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本開示は、情報処理装置、制御方法、プログラム、および記憶媒体に関する。
画像を大型スクリーンに投影して表示することができるプロジェクタは、会社の会議や発表会、学校の授業等、様々な場面で用いられている。また、プロジェクタで画像を拡大投影して説明を行う際には、投影画像に対してレーザー光を投射するレーザーポインタが使われることは公知である。近年、このようなレーザー光を投射する機能を有するレーザーポインタを、プロジェクタのUI操作に活用する技術が、以下の通り提案されている。
例えば、下記特許文献1では、投影画像データと、投影画像面を撮像した撮像画像データの差分を算出することにより、レーザーポインタの動きを認識し、レーザーポインタの所定の動きに関連付けられたコマンドを実行する制御システムが開示されている。具体的には、かかる制御システムは、レーザーポインタにより照射されたポインタが右矢印を形成するように動いた場合、関連付けられた「次のスライドに進め」というディスプレイ・コマンドを実行するよう制御する。
また、下記特許文献2では、スクリーン設置場所の明るさが変わるような場合でも、プロジェクタによる投影画像上でのレーザーポインタの指示位置を正しく検出するための判定システムが提示されている。具体的には、かかる判定システムは、投影開始前にポインタ位置判定スレッシュ値を設定し、現フレームの撮影画像データと前フレームの撮影画像データとの差分の画像データを計算し、スレッシュ値を超える画素位置をレーザーポインタによる照射位置として判定する。
特開2001−125738号公報 特開2008−15560号公報
しかしながら、上記特許文献1、2では、撮像画像に基づいてレーザーポインタによるレーザー光の照射位置の座標を認識するだけであった。投影画像に対してクリック操作やドラッグ操作等を行うためには、プロジェクタに投影画像データを送信しているコンピュータに接続されたマウス等の入力デバイスを操作しなければならず、講演者(ユーザ)がスクリーン付近で立って説明している状況では使いにくかった。また、コンピュータのディスプレイ画面の表示信号がプロジェクタに送信され投影されている場合、マウス等の入力デバイスを介して画面上のカーソルを移動させる操作を行うと、処理遅延が発生し、ユーザは遅延を許容して操作を行う必要があった。処理遅延とは、すなわち、マウス等の入力デバイスにおける検出処理、コンピュータの内部処理、およびディスプレイへの表示処理それぞれにおいて発生する処理遅延である。
そこで、本開示では、レーザーポインタを動かすことで投影画像中のオブジェクトに対して直感的に操作入力を行うことが可能な、新規かつ改良された情報処理装置、制御方法、プログラム、および記憶媒体を提案する。
本開示によれば、投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、前記レーザーポインタの移動情報を取得する取得部と、前記照射位置に対応する投影画像中のオブジェクトを、前記移動情報に応じて表示変化させるための制御信号を出力する出力部と、を備える、情報処理装置を提案する。
本開示によれば、投影画像に対するレーザーポインタによるレーザー光の照射位置を認識するステップと、前記レーザーポインタの移動情報を取得するステップと、前記照射位置に対応する投影画像中のオブジェクトを、前記移動情報に応じて表示変化させるための制御信号を出力するステップと、を含む、制御方法を提案する。
本開示によれば、コンピュータに、投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、前記レーザーポインタの移動情報を取得する取得部と、前記照射位置に対応する投影画像中のオブジェクトを、前記移動情報に応じて表示変化させるための制御信号を出力する出力部と、として機能させるための、プログラムを提案する。
本開示によれば、コンピュータに、投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、前記レーザーポインタの移動情報を取得する取得部と、前記照射位置に対応する投影画像中のオブジェクトを、前記移動情報に応じて表示変化させるための制御信号を出力する出力部と、として機能させるためのプログラムが記憶された、記憶媒体を提案する。
以上説明したように本開示によれば、レーザーポインタを動かすことで投影画像中のオブジェクトに対して直感的に操作入力を行うことが可能となる。
本開示の一実施形態による操作システムの概要を説明するための図である。 本開示の一実施形態による操作システムの第1のシステム構成例を説明するための図である。 本開示の一実施形態による操作システムの第2のシステム構成例を説明するための図である。 本開示の一実施形態による操作システムの第3のシステム構成例を説明するための図である。 プロジェクタがPCから投影用画像データを受信する場合について説明するための図である。 プロジェクタがネットワーク上からコンテンツを取得する場合について説明するための図である。 本実施形態による操作システムの内部構成の一例を示すブロック図である。 本実施形態による操作システムの動作処理を示すシーケンス図である。 照射位置の円を描く軌跡に基づく操作入力について説明するための図である。 照射位置の横線を引く軌跡に基づく操作入力について説明するための図である。 複数の照射位置によるピンチアウト/ピンチインの軌跡に基づく操作入力について説明するための図である。 複数の照射位置が回転する軌跡に基づく操作入力について説明するための図である。 本実施形態によるレーザーポインタの動かし方の種類について説明するための図である。 ロール回転の動きを用いた操作入力例について説明するための図である。 前後垂直移動の動きを用いた操作入力例について説明するための図である。 左右にパンさせる動きを用いた操作入力例について説明するための図である。 複数のレーザーポインタを用いて3Dオブジェクトの視点位置操作を行う場合について説明するための図である。 複数の剛体が関節を介して接続されて形成される3Dオブジェクトを操作する場合について説明するための図である。 非可視光マーカーによる操作入力について説明するための図である。 複数のレーザーポインタによる各照射位置の識別について説明するための図である。 本実施形態による操作システムのシステム構成の変形例について説明するための図である。 本変形例による操作システムの内部構成の一例を示すブロック図である。 本実施形態による表示画面の正対制御について説明するための図である。 投影色域の制御について説明するための図である。 照射可能領域について説明するための図である。 スワイプイン、スワイプアウト操作について説明するための図である。 ユーザ情報の明示について説明するための図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による操作システムの概要
2.システム構成例
2−1.第1のシステム構成例
2−2.第2のシステム構成例
2−3.第3のシステム構成例
3.内部構成および動作処理
3−1.内部構成
3−2.動作処理
4.レーザーポインタによる操作入力例
4−1.照射位置の軌跡による操作入力
4−2.動きに応じた操作入力
5.変形例
5−1.システム構成
5−2.内部構成
6.補足
7.まとめ
<<1.本開示の一実施形態による操作システムの概要>>
まず、本開示の一実施形態による操作システムの概要について図1を参照して説明する。図1に示すように、本開示の一実施形態による操作システムは、プロジェクタ1、レーザーポインタ2、および投影用のコンテンツをプロジェクタ1に出力するPC(パーソナルコンピュータ)3を含む。投影用のコンテンツとは、図表、文章、その他種々のグラフィック画像や、地図、ウェブサイト、3Dオブジェクト等であって、以下投影用の画像データと称する。
プロジェクタ1は、PC3から受信した画像データ(表示信号)を、PC3からの制御信号にしたがって投写スクリーンや壁(以下一例としてスクリーンSを用いる)に投影する。スクリーンSに投影される投影画像には、例えば編集操作可能なオブジェクトobj1〜3が含まれている。
レーザーポインタ2は、ユーザ(講演者)による操作ボタン20aの押下操作に応じて、可視光のレーザー光を照射する機能を有する。ユーザは、レーザーポインタ2を使用して、スクリーンSに投影された画像上にレーザー光を照射して、照射位置Pを説明個所に合せて指示しながらプレゼンテーションを行うことができる。
PC3は、投影用の画像を電子的に生成し、画像データをプロジェクタ1に有線/無線により送信し、投影制御を行う。図1では、一例としてノート型PCを示しているが、本実施形態によるPC3はノート型PCに限定されず、デスクトップ型PCや、ネットワーク(クラウド)上のサーバであってもよい。
(背景)
ここで、上述したように、上記特許文献1、2では、投影画像を撮像した撮像画像に基づいてレーザーポインタによるレーザー光の照射位置の座標を認識するだけであった。したがって、レーザーポインタを用いて投影画像中の編集可能なオブジェクトobj1〜3に対して操作入力を行うことができず、オブジェクトobj1〜3を動かすためには、PC3の入力デバイス(マウス、タッチパッド、キーボード等)を操作しなければならなかった。
そこで、上記事情を一着眼点にして本開示の各実施形態による操作システムを創作するに至った。本開示の各実施形態による操作システムは、レーザーポインタを動かすことで投影画像中のオブジェクトに対して直感的に操作入力を行うことができる。具体的には、例えば図1に示すように、レーザーポインタ2の操作ボタン20aを押下して操作対象とするオブジェクトをオブジェクトobj1に決定した後、レーザーポインタ2を回転させることで、オブジェクトobj1を回転操作することができる。以下、本開示の一実施形態による操作システムのシステム構成例について具体的に説明する。
<<2.システム構成例>>
<2−1.第1のシステム構成例>
図2は、本開示の一実施形態による操作システムの第1のシステム構成例を説明するための図である。図2に示すように、第1のシステム構成例は、プロジェクタ1、レーザーポインタ2(本開示による情報処理装置)、およびPC3により形成される。
本実施形態によるプロジェクタ1は、PC3と有線/無線接続し、PC3から受信した投影用の画像データ(表示信号)に基づいて、スクリーンSに画像を投影する。また、プロジェクタ1は、投影画像上へのレーザーポインタ2による可視光のレーザー光Vの照射位置Pを認識するための可視光撮像部13vを有する。可視光撮像部13vは、プロジェクタ1に内蔵されていてもよいし、外付けされてもよい。
また、可視光撮像部13vは、プロジェクタ1に設けられることで、撮像対象である投影画像の範囲のキャリブレーションを自動的に行うことができる。具体的には、可視光撮像部13vは、撮像範囲や撮像方向を、プロジェクタ1による投影方向に連動して変更することができる。なお可視光撮像部13vが投影画像の範囲よりも広範囲のエリアを撮像することで、投影画像の範囲外(画面の外側)に対するレーザー照射もUI操作に活用され得る。
レーザーポインタ2は、レーザーポインタ2に設けられている操作ボタン20aの押下に応じて、人間の眼に見える可視光線のレーザー光Vを照射する。レーザーポインタ2は、ユーザがレーザー光Vで投影画像上の任意の位置を指し示すために使用される。具体的には、レーザーポインタ2は、操作ボタン20aが半押し(照射指示操作の一例)された場合にレーザー光Vを照射する。なお本実施形態によるレーザーポインタ2は、可視光線のレーザー光Vの他、可視光のマーカー画像(以下、可視光マーカーとも称する)を照射してもよい。可視光マーカーは、例えば任意の図形(十字型やハート型等)や、ユーザID等の情報が埋め込まれた1次元/2次元バーコードである。また、可視光マーカーは、静止画像に限定されず、色や形が変化する動画像であってもよい。
また、レーザーポインタ2は、操作ボタン20aが全押し(決定操作の一例)された場合に、レーザー光Vの照射を継続しつつ、決定操作を検出した旨を示す情報(以下、決定操作情報とも称する)を、無線通信によりプロジェクタ1に送信する。ここで、操作ボタン20aの全押し操作は、投影画像中のオブジェクトを操作対象として決定するための決定操作の一例である。ユーザは、レーザーポインタ2を手に持ってスクリーンSに向け、操作ボタン20aを半押ししてレーザー光Vを照射させ、照射位置Pを投影画像中のオブジェクトのうち任意のオブジェクトに合せた際に操作ボタン20aを全押しして操作対象として決定する。
さらに、ユーザは、レーザーポインタ2を移動させて、決定したオブジェクトに対して直感的な操作入力を行うことができる。具体的には、ユーザは、レーザーポインタ2をスクリーンSの投影画像に対して垂直/平行移動、回転移動、または、パン方向/チルト方向に動かすことで、投影画像中のオブジェクトに対してレーザーポインタ2の動きに対応する操作入力を行うことができる。例えば、図1に示すように、レーザーポインタ2を回転させることで、操作対象に決定したオブジェクトobj1を回転操作することができる。このようなレーザーポインタ2の移動情報は、レーザーポインタ2に設けられたジャイロセンサ、加速度センサ、地磁気センサ等の各種センサにより検知され、無線通信によりプロジェクタ1に送信される。
レーザーポインタ2により照射されたレーザー光Vは、プロジェクタ1に設けられた可視光撮像部13vにより撮像され、照射位置Pの位置座標がプロジェクタ1に認識される。また、プロジェクタ1は、レーザーポインタ2から決定操作情報が送信された際に、照射位置Pの座標位置に位置する投影画像中のオブジェクトを操作対象として決定する。
また、プロジェクタ1は、レーザーポインタ2からレーザーポインタ2の移動情報を受信する。そして、プロジェクタ1は、操作対象として決定したオブジェクトを、レーザーポインタ2から受信した移動情報に応じて表示変化させるための制御信号(以下、ポインタ情報とも称する)をPC3に送信(出力)する。
PC3は、プロジェクタ1から受信した制御信号(ポインタ情報)にしたがってオブジェクトに対する表示変化処理を実行し、実行後の画像データをプロジェクタ1に送信する。
このように、図2に示す第1のシステム構成例によれば、レーザーポインタ2を用いた投影画像中の任意のオブジェクトに対するレーザーポインタ2の動きに応じた直感的な操作入力が可能となる。
<2−2.第2のシステム構成例>
次に、本開示の一実施形態による操作システムの第2のシステム構成例について図3を参照して説明する。図3は、本開示の一実施形態による操作システムの第2のシステム構成例を説明するための図である。図3に示すように、操作システムの第2のシステム構成は、プロジェクタ1b(本開示による情報処理装置)、レーザーポインタ2b、およびPC3から形成される。
ここで、上記第1のシステム構成例では、レーザーポインタ2から可視光のレーザー光Vが照射される場合について説明したが、本実施形態によるレーザーポインタ2から照射されるレーザー光は、可視光に限定されず、例えば非可視光のレーザー光が照射されてもよい。
例えば、図3に示すように、レーザーポインタ2bが、操作ボタン20aの操作に応じて、可視光のレーザー光Vと、人間の眼に見えない赤外線などの非可視光のレーザー光Nとを照射する。具体的には、例えば操作ボタン20aが半押しされた場合に可視光のレーザー光Vを照射し、操作ボタン20aがさらに押し込まれた場合(全押しされた場合)、可視光のレーザー光Vの照射を継続しつつ、非可視光のレーザー光Nを照射する。
この場合、講演者や聴衆は可視光のレーザー光Vで指示される照射位置Pvを視認し、プロジェクタ1bは、プロジェクタ1bに設けられた非可視光撮像部13nにより投影画像を撮像した非可視光撮像画像に基づいて非可視光のレーザー光Nで指示される照射位置Pnを認識する。なお非可視光のレーザー光Nによる照射位置Pnは、レーザー光Vの照射位置Pvと同じ位置または近傍に位置している。
このように、第2のシステム構成例によれば、プロジェクタ1b(本開示による情報処理装置)は、レーザーポインタ2bから照射される非可視光のレーザー光Nの照射位置Pnを認識することができる。
また、第2のシステム構成例においても、第1のシステム構成例と同様に、レーザーポインタ2bで検出された決定操作情報(例えば操作ボタン20aの全押し操作情報)がプロジェクタ1bに送信される。プロジェクタ1bは、決定操作情報を受信した際に投影画像上でレーザー光Nにより指示されているオブジェクト(照射位置Pnの座標位置に位置する投影画像中のオブジェクト)を、操作対象のオブジェクトとして決定する。
また、レーザーポインタ2bは、レーザーポインタ2bに設けられたジャイロセンサ等により検出した移動情報(垂直/平行移動、回転移動、チルト/パン動作)に関しても第1のシステム構成例と同様に、プロジェクタ1bに送信する。
そして、プロジェクタ1bは、第1のシステム構成例に含まれるプロジェクタ1と同様に、操作対象として決定したオブジェクトを、レーザーポインタ2bから受信した移動情報に応じて表示変化させるための制御信号(ポインタ情報)をPC3に送信(出力)する。
このように、図3に示す第2のシステム構成例では、非可視光のレーザー光Nを照射するレーザーポインタ2bを用いた投影画像中の任意のオブジェクトに対するレーザーポインタ2bの動きに応じた直感的な操作入力が可能となる。
<2−3.第3のシステム構成例>
次に、本開示の一実施形態による操作システムの第3のシステム構成例について図4を参照して説明する。図4は、本開示の一実施形態による操作システムの第3のシステム構成例を説明するための図である。図4に示すように、操作システムの第3のシステム構成は、プロジェクタ1c(本開示による情報処理装置)、レーザーポインタ2c、およびPC3から形成される。
ここで、上記第1、第2のシステム構成例では、プロジェクタ1、1bは、レーザーポインタ2、2bの移動情報を無線通信により受信(取得)しているが、本実施形態による移動情報の取得方法はこれに限定されず、例えばレーザーポインタ2bから照射される非可視光マーカーMに基づいて取得されてもよい。
例えば図4に示すように、レーザーポインタ2cが、操作ボタン20aの操作に応じて、可視光のレーザー光Vと、人間の眼に見えない赤外線などの非可視光のマーカーMとを照射する。具体的には、例えば操作ボタン20aが半押しされた場合に可視光のレーザー光Vを照射し、操作ボタン20aがさらに押し込まれた場合(全押しされた場合)、可視光のレーザー光Vの照射を継続しつつ、非可視光のマーカーMを照射する。
この場合、講演者や聴衆は可視光のレーザー光Vで指示される照射位置Pを視認し、プロジェクタ1cは、プロジェクタ1cに設けられた非可視光撮像部13nにより投影画像を撮像した非可視光撮像画像に基づいて非可視光のマーカーMの位置座標(照射位置)を認識する。なお非可視光のマーカーMの照射位置は、レーザー光Vの照射位置Pと同じ位置または近傍に位置している。
また、非可視光マーカーMは、例えば任意の図形(十字型やハート型等)や、ユーザID等の情報が埋め込まれた1次元/2次元バーコード等、面積を持つ画像である。プロジェクタ1cは、非可視光マーカーMの形、大きさ、傾き、歪み等を解析することで、レーザーポインタ2cの投影画像に相対する位置を認識でき、さらに非可視光マーカーMの形、大きさ、歪み等の変化を継続的に解析することで、レーザーポインタ2cの移動情報を取得できる。なお非可視光マーカーMは、静止画像に限定されず、色や形が変化する動画像であってもよい。
また、第3のシステム構成例においても、第1、第2のシステム構成例と同様に、レーザーポインタ2cで検出された決定操作情報(例えば操作ボタン20aの全押し操作情報)がプロジェクタ1cに送信される。プロジェクタ1cは、決定操作情報を受信した際に投影画像上で非可視光マーカーMにより指示されているオブジェクトを、操作対象のオブジェクトとして決定する。
そして、プロジェクタ1cは、第1、第2のシステム構成例に含まれるプロジェクタ1、1bと同様に、操作対象として決定したオブジェクトを、レーザーポインタ2cの移動情報に応じて表示変化させるための制御信号(ポインタ情報)をPC3に送信(出力)する。
このように、図4に示す第3のシステム構成例では、非可視光のマーカーMを照射するレーザーポインタ2cを用いた投影画像中の任意のオブジェクトに対するレーザーポインタ2cの動きに応じた直感的な操作入力が可能となる。
以上、本実施形態による操作システムの第1〜第3のシステム構成例について説明した。以下、プロジェクタ1〜1cを個別に説明する必要がない場合はプロジェクタ1と総称する。また同様に、レーザーポインタ2〜2cを個別に説明する必要がない場合はレーザーポインタ2と総称する。
本実施形態によるレーザーポインタ2の操作部は、図2〜図4に示すような1つの操作ボタン20aで複数段階(半押し、全押し)のユーザ操作が検出できる構成に限定されず、例えば複数のボタンにより複数段階のユーザ操作を検出する構成であってもよい。
例えば、レーザーポインタ2の筐体上面と下面にそれぞれ操作ボタンが設けられ、上面の操作ボタンが押下された場合は第1段階(上記半押し操作に相当)のユーザ操作を検出し、さらに下面の操作ボタンも押下された場合は第2段階(上記全押し操作に相当)のユーザ操作を検出する。このように、レーザーポインタ2は、ボタンが1つ押されている段階(第1段階)と2つ同時に押されている段階(第2段階)とで2段階のユーザ操作を検出することができる。
また、レーザーポインタ2に設けられる操作部は、物理的な構造によるボタンに限定されず、指の接触/近接を検知するセンサにより実現されてもよい。例えば、レーザーポインタ2の筐体上面にタッチパネルが操作部として設けられ、レーザーポインタ2は、指の接触/近接の検知結果に基づいて、接触の回数(タップ回数)等に応じて複数段階のユーザ操作を検出する。
また、本実施形態によるレーザーポインタ2の形状は、図2〜図4Bに示した直方体形状に限定されず、例えば先端に照射部が設けられた指し棒の形状等であってもよい。
また、上述した第1〜第3のシステム構成例では、図5Aに示すように、プロジェクタ1にPC3から投影用の画像データ(表示信号)が送信され、プロジェクタ1からPC3にポインタ情報(制御信号)が送信される。そして、PC3において、ポインタ情報にしたがった表示制御処理が実行され、実行後の画像データ(表示信号)がプロジェクタ1に送信される。
しかしながら、本実施形態による操作システムの構成は図5Aに示す例に限定されず、例えば上記PC3の機能を含むプロジェクタ1’が、図5Bに示すようにネットワーク(クラウド)上のコンテンツサーバ4からコンテンツデータ(写真、動画、ゲーム、ウェブサイト等)を取得する構成であってもよい。この場合、プロジェクタ1’は、取得したコンテンツデータに基づいて表示信号(投影用の画像データ)を生成し、投影制御を行う。また、プロジェクタ1’は、ポインタ情報にしたがった表示制御処理を実行し、実行後の画像データを投影する。
<<3.内部構成および動作処理>>
続いて、本実施形態による操作システムの内部構成および動作処理について図6〜図7を参照して説明する。
<3−1.内部構成>
図6は、本実施形態による操作システムの内部構成の一例を示すブロック図である。
(プロジェクタ1)
プロジェクタ1は、図5に示すように、投影画像受信部10、画像投影部11、撮像部13、位置認識部14、情報取得部15、およびポインタ情報出力部16を有する。
投影画像受信部10は、PC3から有線/無線により投影用の画像データを受信し、受信した画像データを画像投影部11に出力する。
画像投影部11は、画像投影部11から送られた画像データを投写スクリーンや壁に投写(投影)する。
撮像部13は、スクリーンSに投影された投影画像を撮像し、撮像画像を位置認識部14に出力する。撮像部13は、赤外線カメラや紫外線カメラ等の非可視光(不可視光)撮像を行う非可視光撮像部13n、または可視光撮像を行う可視光撮像部13vにより実現される。
位置認識部14は、投影画像を撮像した可視光/非可視光撮像画像に基づいて、投影画像に対するレーザーポインタ2による可視光レーザー光Vの照射位置Pv、非可視光レーザー光Nの照射位置Pn、または非可視光マーカーMの座標位置を認識する認識部として機能する。例えば、位置認識部14は、画像投影部11により投影されている画像と、投影画像を撮像した可視光/非可視光撮像画像の差分を検出することによって、照射位置(位置座標)を検出する。また、位置認識部14は、現在投影されている画像の前のフレームの可視光/非可視光撮像画像と、現在投影されている画像の可視光/非可視光撮像画像との差分も分析に加えることで精度を高めることができる。位置認識部14は、認識した照射位置情報(位置座標情報)をポインタ情報出力部16に出力する。
情報取得部15は、レーザーポインタ2から決定操作情報および/または移動情報を無線により受信する機能を有する。プロジェクタ1とレーザーポインタ2間の無線通信の方式は特に限定しないが、例えばWi−Fi(登録商標)またはBluetooth(登録商標)等によりデータの送受信が行われる。
なお情報取得部15は、図4に示した第3のシステム構成例においては、非可視光撮像部13nにより撮像された非可視光撮像画像を解析して、非可視光マーカーMの形、大きさ、傾き、歪み等に応じてレーザーポインタ2の移動情報を取得する。
情報取得部15は、取得した決定操作情報および移動情報をポインタ情報出力部16に出力する。
ポインタ情報出力部16は、情報取得部15から出力された決定情報と、位置認識部14から出力された照射位置情報とに基づいて、画像投影部11から投影されている投影画像中の操作対象とするオブジェクトを決定する。そして、ポインタ情報出力部16は、上記決定したオブジェクトを、情報取得部15から出力される移動情報に応じて表示変化させるための制御信号をポインタ情報として検出し、PC3に有線/無線により送信(出力)する。
(レーザーポインタ2)
レーザーポインタ2は、図6に示すように、操作部20、可視光レーザー照射部21、非可視光照射部22、送信部23、および姿勢検知センサ24を有する。
操作部20は、複数段階のユーザ操作を検出する機能を有し、単数/複数の操作ボタンやタッチパネルにより実現される。例えば、第1段階のユーザ操作(具体的には、操作ボタン20aの半押し操作)を検出した場合、操作部20は、可視光レーザー照射部21に照射指示操作が検出された旨を出力する。また、第2段階のユーザ操作(具体的には、操作ボタン20aの全押し操作)を検出した場合、操作部20は、非可視光照射部22および送信部23に、決定操作が検出された旨を出力する。
可視光レーザー照射部21は、操作部20において第1段階のユーザ操作(照射指示操作)が検出された場合に可視光のレーザー光Vを照射する機能を有する。また、可視光レーザー照射部21によるレーザー光Vの照射は、操作部20において第2段階のユーザ操作(決定操作)が検出された場合も継続して行われる。
非可視光照射部22は、操作部20において第2段階のユーザ操作(決定操作)が検出された場合に非可視光のレーザー光Nまたは非可視光マーカーM(非可視光画像とも称す)を照射する機能を有する。非可視光照射部22による非可視光の照射は、可視光レーザー照射部21により照射される可視光のレーザー光Vの照射位置Pvと同じ位置または近傍に照射される。
なお、本実施形態による非可視光照射部22は、操作部20において第1段階のユーザ操作(照射指示操作)が検出された場合に、ユーザID等の情報を埋め込んだ1次元/2次元バーコードによる非可視光マーカーMを照射してもよい。
送信部23は、操作部20において第2段階のユーザ操作(決定操作)が検出された場合に、決定操作情報をプロジェクタ1に無線送信する機能を有する。また、送信部23は、第2段階のユーザ操作(決定操作)が検出されている間(例えば操作ボタン20aが全押しされている間)、姿勢検知センサ24から出力される検知結果を、移動情報として継続的にプロジェクタ1に無線送信する。
姿勢検知センサ24は、レーザーポインタ2の姿勢情報を検知する検知部であって、例えばジャイロセンサ、加速度センサ、地磁気センサ等により実現される。これにより、レーザーポインタ2は、自身の上下左右移動や回転移動、パン/チルト方向への動き(移動情報)を取得することができる。姿勢検知センサ24の検知結果は、送信部23に出力される。
(PC3)
PC3は、図6に示すように、制御部30、画像出力部31、および操作入力部32を有する。
制御部30は、PC3の各構成を制御する機能を有する。具体的には、例えば制御部30は、操作入力部32により検出した操作入力情報(プロジェクタ1から送信されたポインタ情報を含む)に従った表示制御処理を実行し、実行後の画像データを、画像出力部31からプロジェクタ1に出力(送信)する。具体的には、制御部30は、操作対象として決定された投影画像中のオブジェクトを、レーザーポインタ2の移動情報(上下左右移動や回転移動、パン/チルト方向への動き)に合せて表示変化させる。例えば、レーザーポインタ2が投影画像に対して右に回転する動きが移動情報で示されている場合、制御部30は、決定された投影画像中のオブジェクトを同様に右に回転させるよう処理する。
操作入力部32は、PC3に接続されたキーボードやマウス等からユーザ操作の入力(操作入力情報)を受け付ける機能を有する。また、操作入力部32は、プロジェクタ1からポインタ情報(制御信号)を操作入力情報として受信する受信部としても機能する。操作入力部32は、受け付けた操作入力情報を制御部30に出力する。
画像出力部31は、投影用の画像データをプロジェクタ1に有線/無線により送信する機能を有する。投影用の画像データの送信は、継続的に行われてもよい。
以上説明した構成により、本実施形態による操作システムでは、ユーザはレーザーポインタ2を用いて投影画像中のオブジェクトに対して、レーザーポインタ2の動きに応じた直感的な操作入力を行うことができる。
<3−2.動作処理>
次に、本実施形態による操作システムの動作処理について説明する。ここでは、上述した本実施形態による操作システムの第1〜第3のシステム構成例のうち、一例として第1のシステム構成例における動作処理について説明する。
図7は、本実施形態による操作システムの動作処理を示すシーケンス図である。図7に示すように、まず、ステップS103において、レーザーポインタ2aとプロジェクタ1aが自動または手動によりペアリング(接続設定)される。
次に、ステップS106において、PC3とプロジェクタ1が有線/無線により接続される。接続方法については本明細書では特に限定しない。
次いで、ステップS109において、PC3の画像出力部31は、投影用の画像データをプロジェクタ1に送信する。
次に、ステップS112において、プロジェクタ1aの画像投影部11は、投影画像受信部10によりプロジェクタ1aから受信した投影画像をスクリーンSに投影する。
次いで、ステップS115において、プロジェクタ1aは、可視光撮像部13vによる投影画像の範囲を対象とする可視光撮像を開始する。
一方、ステップS118およびS121において、レーザーポインタ2aは、ユーザ操作に応じてレーザーVを照射する。具体的には、例えばレーザーポインタ2aは、操作ボタン20aが半押しされた場合、可視光レーザー照射部21によりレーザー光Vを照射する。これにより、ユーザ(講演者)は、レーザー光Vで投影画像中の任意の場所を指示しながら聴衆に説明を行うことができる。
次に、ステップS124において、プロジェクタ1aの位置認識部14は、可視光撮像部13vにより撮像された可視光撮像画像に基づいて、レーザー光Vの照射位置P(座標位置)を認識する。
次いで、ステップS127において、レーザーポインタ2aは、操作部20により決定操作(例えば操作ボタン20aの全押し操作)を検出する。
続いて、ステップS130において、レーザーポインタ2aは、操作部20により検出された決定操作情報(決定コマンド)をプロジェクタ1aに無線送信する。
次に、ステップS131において、プロジェクタ1aのポインタ情報出力部16は、レーザーポインタ2aから決定操作情報を受信した際に、位置認識部14により認識された照射位置Pの座標位置に位置する投影画像中のオブジェクトを、操作対象として決定する。
一方、ステップS133において、レーザーポインタ2aは、姿勢検知センサ24により、レーザーポインタ2aの姿勢を検知する。具体的には、姿勢検知センサ24により、レーザーポインタ2aの向きや傾き、角速度等を検知する。
次に、ステップS135において、レーザーポインタ2aの送信部23は、姿勢検知センサ24による検知結果をレーザーポインタ2aの移動情報として継続的にプロジェクタ1aに送信する。なお送信部23は、操作部20により決定操作が検出され続けている間、レーザーポインタ2aの移動情報を継続的に送信してもよい。
次いで、ステップS136において、プロジェクタ1aのポインタ情報出力部16は、上記S131で決定したオブジェクトを、情報取得部15によりレーザーポインタ2aから受信した移動情報に応じて表示変化させるためのポインタ情報(制御信号)を検出する。
続いて、ステップS139において、プロジェクタ1aのポインタ情報出力部16は、検出したポインタ情報をPC3に送信する。
次に、ステップS142において、PC3の制御部30は、操作入力部32によりプロジェクタ1aから受信したポインタ情報にしたがった表示制御処理を実行する。
そして、ステップS145において、PC3の画像出力部31は、表示制御処理実行後の(ポインタ情報に従った処理後の)投影用画像を、プロジェクタ1aに送信する。
以降、上記S112〜S145に示す処理が繰り返される。以上、図7を参照して本実施形態による操作システムの動作処理の一例について具体的に説明した。
<<4.レーザーポインタによる操作入力例>>
続いて、本実施形態による送信システムにおけるレーザーポインタ2を用いた直感的な操作入力について具体例を挙げて説明する。ここでは、上述した本実施形態による操作システムの第1〜第3のシステム構成例のうち、一例として第1のシステム構成例におけるレーザーポインタ2aによる操作入力の具体例について説明する。
<4−1.照射位置の軌跡による操作入力>
本実施形態による操作システムでは、上述したレーザーポインタ2の移動情報に応じた操作入力の他、照射位置Pの軌跡に基づいた操作入力を行うことも可能である。プロジェクタ1aは、可視光撮像部13vにより撮像した可視光撮像画像に基づいて、照射位置Pの位置の変化を認識して照射位置Pの軌跡を把握し、所定の軌跡を描くジェスチャーに対応付けられた指示コマンドをポインタ情報として出力する。以下、図8を参照して説明する。
図8は、照射位置Pの軌跡に基づく操作入力の具体例を示す図である。例えば図8Aに示すように、レーザーポインタ2aにより照射されたレーザー光Vによる照射位置Pが円を描く軌跡を辿った場合、プロジェクタ1aは、決定コマンドをポインタ情報として出力する。
また、図8Bに示すように、レーザーポインタ2aにより照射されたレーザー光Vによる照射位置Pが線を横に引く軌跡を辿った場合、プロジェクタ1aは、取り消しや削除コマンドをポインタ情報として出力する。
また、図8Cに示すように、2つのレーザーポインタ2a−R、2a−Lによる照射位置Pr、Plが、ピンチアウト(照射位置Pr、Plが離れる)またはピンチイン(照射位置Pr、Plが近づく)の軌跡を辿った場合、プロジェクタ1aは、拡大または縮小コマンドをポインタ情報として出力する。
また、図8Dに示すように、2つのレーザーポインタ2a−R、2a−Lによる照射位置Pr、Plが、互いに対向する位置関係のまま回転する軌跡を辿った場合、プロジェクタ1aは、回転コマンドをポインタ情報として出力する。
<4−2.動きに応じた操作入力>
次に、図9〜図14を参照してレーザーポインタ2aの動き(移動情報)を用いた直感的な操作入力について具体的に説明する。
図9は、本実施形態によるレーザーポインタ2aの動かし方の種類について説明するための図である。レーザーポインタ2aの動かし方は、総じて6種類の軸に対する移動/回転の自由度を持つ。
具体的には、図9上に示すように、x方向の並進である左右水平移動、y方向の並進である上下水平移動、z方向の並進である前後垂直移動と、図9下に示すように、上下にチルトさせる動き(垂直方向の首振り)、左右にパンさせる動き(水平方向の首振り)、および回転移動である。
本操作システムでは、決定した投影画像中のオブジェクトを、この6自由度の動きに応じて動かす(表示変化させる)表示制御処理を行う。例えばレーザーポインタ2aを、図9上に示すようなx、y、z方向に並進させることで、オブジェクトもx、y、z方向に並進される。また、図9下に示すようなレーザーポインタ2aを上下にチルトさせる動きに応じて、オブジェクトはx軸について回転され(ピッチング)、左右にパンさせる動きに応じて、オブジェクトはy軸について回転され(ヨーイング)、回転移動に応じて、オブジェクトはz軸について回転される(ローリング)。
これにより、例えば3D CAD、3D CGモデリングソフトにおける視点制御を行うことも可能である。また、マウスのような2自由度の入力デバイスでは、xy方向/yz方向/xz方向に対する並進、ヨー・ピッチ回転、ロール回転などのモードの切替を、GUIのボタンやキーボード操作、マウスのボタンの押下状態等によって行う必要があり操作が煩雑であった。しかし、本実施形態による操作システムによれば、モードレスでシームレスにこれらの視点位置操作を行うことが可能になる。
以下、レーザーポインタ2aの6自由度の動きを用いた操作入力例について具体例を挙げて説明する。
(ロール回転)
図10は、ロール回転の動きを用いた操作入力例について説明するための図である。図10左に示すように、ユーザは、レーザーポインタ2aの操作ボタン20aを半押ししてレーザー光Vを照射させ、照射位置PをスクリーンSに投影されている画像中の任意のオブジェクト(obj)に合せる。その後、ユーザは、レーザーポインタ2aの操作ボタン20aを全押しして操作対象とするオブジェクト(obj)を決定し、操作ボタン20aを全押しした状態でレーザーポインタ2aを回転(z軸について回転、ローリング)させる。この際、レーザーポインタ2aからは移動情報(傾きや角速度)がプロジェクタ1aに送信され、プロジェクタ1aは、操作対象に決定されたオブジェクトをレーザーポインタ2aの移動情報に応じて表示変化させるための制御信号(ポインタ情報)をPC3に送信する。PC3は、ポインタ情報にしたがって、操作対象に決定されたオブジェクトをレーザーポインタ2aの回転に合せて回転するよう表示制御する。そして、PC3は、オブジェクトを回転させる表示制御した投影画像をプロジェクタ1aに送信し、プロジェクタ1aは送信された投影画像をスクリーンSに投影する。
これにより、図10右に示すように、オブジェクト(obj)がレーザーポインタ2aのロール回転に応じてz軸について回転する。
(前後垂直移動)
図11は、前後垂直移動の動きを用いた操作入力例について説明するための図である。図11に示すように、ユーザは、レーザーポインタ2aの操作ボタン20aを半押ししてレーザー光Vを照射させ、照射位置PをスクリーンSに投影されている画像中の任意のオブジェクト(例えば地図画像)に合せる。
その後、ユーザは、レーザーポインタ2aの操作ボタン20aを全押しして操作対象とするオブジェクト(obj)を決定し、操作ボタン20aを全押しした状態でレーザーポインタ2aをスクリーンSに対して前後垂直方向に動かす(z軸方向に並進させる)。この際、レーザーポインタ2aからは移動情報(加速度や方向)がプロジェクタ1aに送信され、プロジェクタ1aは、操作対象に決定されたオブジェクトをレーザーポインタ2aの移動情報に応じて表示変化させるための制御信号(ポインタ情報)をPC3に送信する。PC3は、ポインタ情報にしたがって、操作対象に決定されたオブジェクトをレーザーポインタ2aの前後垂直移動に合せて拡大/縮小するよう表示制御する。そして、PC3は、オブジェクトを拡大/縮小させる表示制御した投影画像をプロジェクタ1aに送信し、プロジェクタ1aは送信された投影画像をスクリーンSに投影する。
これにより、図11に示すように、例えばレーザーポインタ2aを垂直方向後ろに動かすと、地図画像(オブジェクト)が縮小表示され(ズームアウト)、レーザーポインタ2aを垂直方向前に動かすと、地図画像(オブジェクト)が拡大表示される(ズームイン)。
(パン移動)
図12は、左右にパンさせる動きを用いた操作入力例について説明するための図である。図12左に示すように、ユーザは、レーザーポインタ2aの操作ボタン20aを半押ししてレーザー光Vを照射させ、照射位置PをスクリーンSに投影されている画像中の任意のオブジェクト(例えば3Dオブジェクト)に合せる。
その後、ユーザは、レーザーポインタ2aの操作ボタン20aを全押しして操作対象とするオブジェクト(obj)を決定し、操作ボタン20aを全押しした状態でレーザーポインタ2aをスクリーンSに対して左右水平方向にパン移動させる(左右に首振りさせる)。この際、レーザーポインタ2aからは移動情報(加速度や方向)がプロジェクタ1aに送信され、プロジェクタ1aは、操作対象に決定されたオブジェクトをレーザーポインタ2aの移動情報に応じて表示変化させるための制御信号(ポインタ情報)をPC3に送信する。PC3は、ポインタ情報にしたがって、操作対象に決定されたオブジェクトをレーザーポインタ2aのパン移動に合せてy軸について回転(ヨーイング)するよう表示制御する。そして、PC3は、オブジェクトをヨーイング制御した投影画像をプロジェクタ1aに送信し、プロジェクタ1aは送信された投影画像をスクリーンSに投影する。
これにより、図12右に示すように、例えばレーザーポインタ2aをパン移動させると、3Dオブジェトがy軸方向について回転(ヨーイング)される。
(複数のレーザーポインタ2aによる操作入力)
本実施形態による操作システムでは、複数のレーザーポインタ2aを同時に用いて操作入力を行うことも可能である。以下、図13〜図14を参照して説明する。
図13は、複数のレーザーポインタ2aを用いて3Dオブジェクト(剛体)の視点位置操作を行う場合について説明するための図である。図13左に示すように、ユーザは、複数のレーザーポインタ2a−R、2a−Lを両手に持ってそれぞれ操作ボタン20aを半押ししてレーザー光Vを照射させ、照射位置Pr、PlをスクリーンSに投影されている画像中の任意のオブジェクト(例えば3Dオブジェクト)に合せる。
その後、ユーザは、レーザーポインタ2a−R、2a−Lの操作ボタン20aを全押しして操作対象とするオブジェクト(obj)を決定し、操作ボタン20aを全押しした状態でレーザーポインタ2a−R、2a−LをスクリーンSに対して左右水平方向にパン移動させる(左右に首振りさせる)。この際、プロジェクタ1aは、投影画像の可視光撮像画像に基づいて、レーザーポインタ2a−R、2a−Lによる各照射位置Pr、Plの座標位置をそれぞれ認識し、照射位置Pr、Plを両端に保持される3Dオブジェクトを操作対象に決定する。
また、レーザーポインタ2a−R、2a−Lからは移動情報(加速度や方向)がプロジェクタ1aに送信される。プロジェクタ1aは、操作対象に決定されたオブジェクトをレーザーポインタ2a−R、2a−Lの移動情報に応じて表示変化させるための制御信号(ポインタ情報)をPC3に送信する。
PC3は、ポインタ情報にしたがって、操作対象に決定されたオブジェクトをレーザーポインタ2aのパン移動に合せてy軸について回転(ヨーイング)するよう表示制御する。そして、PC3は、オブジェクトをヨーイング制御した投影画像をプロジェクタ1aに送信し、プロジェクタ1aは送信された投影画像をスクリーンSに投影する。
これにより、図13右に示すように、複数のレーザーポインタ2a−R、2a−Lから照射されるレーザー光Vの照射位置Pr、Plで保持した3Dオブジェクトを、レーザーポインタ2a−R、2a−Lをパン移動させることで、y軸方向について回転することができる。
以上説明した図13に示す例では、操作対象に決定される3Dオブジェクトが1つの剛体から形成されているが、本実施形態による操作対象は図13に示す例に限定されず、例えば複数の剛体が関節を介して接続されて形成される3Dオブジェクトであってもよい。以下図14を参照して具体的に説明する。
図14は、複数の剛体が関節を介して接続されて形成される3Dオブジェクトを操作する場合について説明するための図である。図14上に示すように、ユーザは、複数のレーザーポインタ2a−R、2a−Lを両手に持ってそれぞれ操作ボタン20aを半押ししてレーザー光Vを照射させ、照射位置Pr、PlをスクリーンSに投影されている画像中の任意のオブジェクト(例えば3Dオブジェクト)に合せる。具体的には、ユーザは、照射位置Prを、3Dオブジェクト(obj)を形成する剛体G1と剛体G2の関節部分に合せ、また、照射位置Prを剛体G1に関節を介して接続される剛体G2に合せる。
その後、ユーザは、レーザーポインタ2a−R、2a−Lの操作ボタン20aを全押しして操作対象とするオブジェクト(照射位置Prで指示されている剛体G2)を決定し、操作ボタン20aを全押しした状態でレーザーポインタ2a−Lを水平方向に移動させる。この際、プロジェクタ1aは、投影画像の可視光撮像画像に基づいて、レーザーポインタ2a−R、2a−Lによる各照射位置Pr、Plの座標位置をそれぞれ認識する。
また、レーザーポインタ2a−R、2a−Lからは移動情報(加速度や方向)がプロジェクタ1aに送信される。プロジェクタ1aは、照射位置Prで指示された剛体G2を、レーザーポインタ2a−Rの移動情報に応じて照射位置Plで指示された関節部分で折り曲げるための制御信号(ポインタ情報)をPC3に送信する。
PC3は、ポインタ情報にしたがって、操作対象に決定された3Dオブジェクトの剛体G2を、レーザーポインタ2aの水平移動に合せて、指示された関節部分で折り曲げるよう表示制御する。そして、PC3は、剛体G2を所定の関節部分で折り曲げるよう表示制御した投影画像をプロジェクタ1aに送信し、プロジェクタ1aは送信された投影画像をスクリーンSに投影する。
これにより、図14下に示すように、複数の剛体から形成される3Dオブジェクトにおいて、レーザーポインタ2a−Lによる照射位置Plで指示した3Dオブジェクトの関節部分で、当該関節部分に接続される剛体G2をレーザーポインタ2a−Rの動きに応じて動かすことができる。
(非可視光マーカーMによる操作入力)
図4を参照して説明したように、第3のシステム構成で形成される操作システムにおいては、非可視光マーカーMを介してレーザーポインタ2cの移動情報がプロジェクタ1cに取得される。ここで、図15を参照して、非可視光マーカーMによる操作入力について説明する。
例えば、図15上に示すように、レーザーポインタ2cから照射される非可視光マーカーMは、レーザーポインタ2cの回転と同様に回転する。非可視光マーカーMが照射されている投影画像を非可視光撮像するプロジェクタ1cは、非可視光撮像画像を解析して、当該非可視光マーカーMの傾きを解析し、非可視光マーカーMの傾きに応じて、レーザーポインタ2cの移動情報(回転移動)を取得することができる。
また、図15中央に示すように、レーザーポインタ2cから照射される非可視光マーカーMの大きさは、レーザーポインタ2cがスクリーンSから遠ざかる程大きくなる。非可視光マーカーMが照射されている投影画像を非可視光撮像するプロジェクタ1cは、非可視光撮像画像を解析して、当該非可視光マーカーMの大きさを解析し、非可視光マーカーMの大きさの変化に応じて、レーザーポインタ2cの移動情報(垂直移動)を取得することができる。
また、図15下に示すように、レーザーポインタ2cから照射される非可視光マーカーMの形は、レーザーポインタ2cがスクリーンSに対して斜めに移動する程歪む。非可視光マーカーMが照射されている投影画像を非可視光撮像するプロジェクタ1cは、非可視光撮像画像を解析して、当該非可視光マーカーMの形を解析し、非可視光マーカーMの形の変化(歪み)に応じて、レーザーポインタ2cの移動情報(パン/チルト移動)を取得することができる。
以上、非可視光マーカーMによる操作入力について説明した。なお、レーザーポインタ2cから照射される非可視光マーカーMの一例は、図15に示すような2次元バーコードであるが、かかる2次元バーコードの解析には、例えばサイバーコード等の画像認識技術が用いられる。また、以上説明した例では、非可視光マーカーMを用いたが、上記図3を参照して説明したシステム構成により形成される操作システムにおいては、可視光マーカーによる操作入力も同様に可能である。
(複数ユーザによる照射入力)
本実施形態による操作システムは、複数のユーザによるそれぞれ独立した操作入力を受け付けることも可能である。以下、図16を参照して説明する。
図16は、複数のレーザーポインタ2cによる各照射位置の識別について説明するための図である。図16に示すように、各レーザーポインタ2c−1〜2c−3から照射される非可視光マーカーM1〜M3の形状や色が、互いに異なるものである場合、プロジェクタ1cは、非可視光マーカーM1〜M3の形状や色に基づいて識別でき、各レーザーポインタ2cの軌跡を特定できる。なお非可視光マーカーMは、非可視光レーザーが多数平行して照射されている。
また、非可視光マーカーMは、単なる形状や色の違いではなく、ユーザIDを埋め込むことが可能な2次元バーコード(図16に示す非可視光マーカーM4)としてもよい。これにより、より多くのユーザの同時照射による混信を回避することができ、ロバストな識別を可能にする。
また、プロジェクタ1cは、非可視光マーカーM1〜M3に示すような形状や色の違いに応じて、また、非可視光マーカーM4から読み取ったユーザIDに基づいて、レーザーポインタ2c−1〜2c−4の操作者(ユーザ)の特定を行うことも可能である。各ユーザが特定できる場合、プロジェクタ1cは、どのユーザの操作を優先するかといった優先権の設定を行うことができる。例えば、プロジェクタ1cは、特定のユーザの操作を優先して受け付けたり、最初に照射を開始したユーザを優先したり、照射を開始して一定時間の間は特定のユーザを優先したり、他ユーザの割り込みを優先する後出し勝ち方式で優先権を移行したりする。特に、ボタン押下による投影画像の画面遷移や、全画面のスクロールなど、全員が閲覧している状態を大きく変化させる操作が競合した場合に、上記いずれかの優先方法にしたがって操作を受け付けることで、複数ユーザによる操作時の利便性が向上する。
<<5.変形例>>
続いて、本実施形態による操作システムのシステム構成の変形例について、図17〜図18を参照して説明する。上述した第1〜第3のシステム構成例では、プロジェクタ1に設けられた撮像部13で、スクリーンSに投影された画像(投影画像)を可視光/非可視光撮像し、撮像画像に基づいて照射位置Pを認識していた。
しかしながら、本開示による操作システムのシステム構成例は、上記第1〜第3のシステム構成に限定されず、例えばレーザーポインタ2側に撮像部を設け、投影画像を非可視光撮像し、かかる非可視光撮像画像に基づいて照射位置Pを認識するシステムであってもよい。また、レーザーポインタ2側に撮像部は、操作ボタン20aが押下された場合にのみ非可視光撮像を行うことで、消費電力の無駄を省くことができる。
<5−1.システム構成>
図17は、本実施形態による操作システムのシステム構成の変形例について説明するための図である。図17に示すように、本変形例によるシステム構成は、プロジェクタ1d(本開示による情報処理装置)、レーザーポインタ2d、およびPC3から形成される。
プロジェクタ1dは、PC3と有線/無線により接続し、投影用の画像データをPC3から受信し、受信した投影用の画像データをスクリーンSに投影する。さらに、本実施形態によるプロジェクタ1dは、赤外線など非可視光の座標特定用マップ(座標認識用画像とも称す)Qを、スクリーンS(画像投影エリア)に重畳投影する。非可視光の座標特定用マップQの投影エリアは、画像投影エリアを含む範囲であればよい。また、プロジェクタ1dは、スクリーンS上に大きく1種類の座標特定用マップQを投影してもよいし、スクリーンS上の何カ所かに異なる種類の座標特定用マップQを拡散して投影してもよい。複数個の異なる座標特定用マップQを投影することで、レーザーポインタ2dに設けられた撮像部の画角にスクリーンSの全域が入らなくとも部分的な画角で照射位置が特定され得る。
レーザーポインタ2dは、操作ボタン20aの押下状態に応じて、可視光線のレーザー光Vの照射を行う。具体的には、例えばレーザーポインタ2dは、操作ボタン20aが半押しされた場合に可視光のレーザー光Vを照射し、全押しされた場合にもレーザー光Vの照射を継続する。
さらに、本実施形態によるレーザーポインタ2dは、操作ボタン20aが全押しされた場合、レーザー光Vの照射位置Pを含む範囲を非可視光撮像する。また、レーザーポインタ2dは、非可視光撮像画像に含まれる座標特定用マップQ’を認識し、座標特定情報や、座標特定用マップQ’の大きさ、傾き、歪み等を読み取る。そして、レーザーポインタ2dは、読み取った情報(以下、読取情報とも称す)を無線通信によりプロジェクタ1dに送信する。
レーザーポインタ2dから決定操作情報と読取情報を受信したプロジェクタ1dは、読取情報に基づいてレーザーポインタ2dの照射位置Pを認識し、操作対象とするオブジェクトを決定する。また、プロジェクタ1dは、読取情報で示される座標特定用マップQ’の大きさ、傾き、歪み等に基づいて、レーザーポインタ2dの動き(移動情報)を取得する。


そして、プロジェクタ1cは、決定されたオブジェクトに対してレーザーポインタ2dの移動情報に応じた表示変化をさせるための制御信号(ポインタ情報)を検出し、PC3に送信する。
PC3は、送信されたポインタ情報に従って表示制御処理を実行し、実行後の投影用の画像データをプロジェクタ1dに送信する。
このように、本変形例による操作システムによれば、プロジェクタ1dから投影画像上に非可視光の座標特定用マップを重畳投影し、レーザーポインタ2d側で非可視光撮像することで、当該非可視光撮像画像に基づいてレーザーポインタ2dによる照射位置Pが認識される。
<5−2.内部構成>
続いて、本実施形態による操作システムに含まれる各装置の内部構成について図18を参照して具体的に説明する。図18は、本変形例による操作システムの内部構成の一例を示すブロック図である。以下、各構成について具体的に説明する。なおPC3の内部構成は、図6を参照して上述したので、ここでの説明は省略する。
(プロジェクタ1d)
プロジェクタ1dは、投影画像受信部10、画像投影部11、非可視光画像生成部17、非可視光投影部18、情報取得部15d、位置認識部14d、およびポインタ情報出力部16を有する。
投影画像受信部10および画像投影部11は、図6を参照して上述したので、ここでの説明は省略する。
非可視光画像生成部17は、レーザーポインタ2dによる照射位置Pを認識する際に利用される座標特定情報を埋め込んだ非可視光の座標特定用マップQを生成する。
非可視光投影部18は、非可視光画像生成部17により生成された非可視光の座標特定用マップQを、スクリーンSの投影画像上に重畳投影する。なお、非可視光投影部18および画像投影部11による投影は、同一の光源で異なるフィルタを通じた投影としてもよい。
情報取得部15dは、レーザーポインタ2dと無線通信し、レーザーポインタ2dから決定操作情報および読取情報を受信する。
位置認識部14dは、非可視光画像生成部17が作成した座標特定用マップQと、情報取得部15dにより受信された読取情報に含まれる、非可視光撮像された座標特定用マップQ’から読み取られた座標特定情報とに基づいて、レーザーポインタ2dによる照射位置P(座標位置)を認識する。例えば位置認識部14dは、座標特定用マップQと座標特定情報で示される座標特定用マップQ’とを比較し、座標特定用マップQにおける座標特定用マップQ’の位置を特定する。そして、位置認識部14dは、座標特定用マップQ’の中心位置を、レーザーポインタ2dによる照射位置P(座標位置)として認識する。
ポインタ情報出力部16は、情報取得部15dにより決定操作情報を受信した際に、位置認識部14dにより認識された照射位置Pの位置に対応する投影画像中のオブジェクトを、操作対象として決定する。そして、ポインタ情報出力部16は、決定したオブジェクトを、情報取得部15dにより受信した読取情報で示されるレーザーポインタ2dの動き(移動情報)に応じて表示変化させるための制御信号(ポインタ情報)を検出し、検出したポインタ情報をPC3に有線/無線送信する。
(レーザーポインタ2d)
レーザーポインタ2dは、図18に示すように、操作部20、可視光レーザー照射部21、非可視光撮像部25、情報読取部26、送信部23、および姿勢検知センサ24を有する。
可視光レーザー照射部21は、操作部20において第1段階のユーザ操作(照射指示操作)が検出された場合に可視光のレーザー光Vを照射する機能を有する。具体的には、例えば可視光レーザー照射部21は、操作ボタン20aが半押しされた場合にレーザー光Vを照射する。
非可視光撮像部25は、操作部20において第2段階のユーザ操作(決定操作)が検出された場合に、レーザー光Vにより照射されている位置(照射位置P)を含む範囲を非可視光撮像する機能を有する。例えば、非可視光撮像部25は、操作ボタン20aが全押しされた場合に非可視光撮像を行う。
情報読取部26は、非可視光撮像画像に基づいて、座標特定用マップQ’を認識し、座標特定情報や、座標特定用マップQ’の大きさ、傾き、歪み等を読み取る。
送信部23は、情報読取部26により読み取られた情報(読取情報)と、操作部20により検出された第2段階のユーザ操作を示す情報(決定操作情報)を、無線通信によりプロジェクタ1dに送信する。また、送信部23は、第2段階のユーザ操作(決定操作)が検出されている間(例えば操作ボタン20aが全押しされている間)、姿勢検知センサ24から出力される検知結果を、移動情報として継続的にプロジェクタ1dに無線送信する。
姿勢検知センサ24は、図6を参照して上述したので、ここでの説明は省略する。
以上説明したように、本変形例による操作システムでは、レーザーポインタ2dに非可視光撮像部25が設けられ、レーザーポインタ2dにおいて投影画像の非可視光撮像が行われる。また、プロジェクタ1dは、レーザーポインタ2d側で非可視光撮像された座標特定用マップQ’から読み取られた座標特定情報を受信し、当該座標特定情報に基づいて、レーザーポインタ2dによる照射位置Pを認識することができる。また、プロジェクタ1dは、非可視光撮像された座標特定用マップQ’の大きさ、傾き、歪み等に基づいて、レーザーポインタ2dの動き(移動情報)を取得することができる。
<<6.補足>>
続いて、本実施形態による操作システムについて補足する。
<6−1.表示画面の正対制御>
本実施形態によるプロジェクタ1は、レーザーポインタ2から照射されるレーザー光の方向や移動情報に基づいて、スクリーンSに対するレーザーポインタ2の相対的な位置を推定することが可能である。
この場合、例えばプロジェクタ1は、推定したレーザーポインタ2の位置に操作者(ユーザ)が居ると仮定して、ユーザに対して見やすいよう表示画面(投影画像中のオブジェクト)を正対表示させるための制御信号を検出してPC3に出力する。特に、レーザーポインタ2を操作してプレゼンテーションを行うユーザは、図19左に示すように、スクリーンSに対して浅い角度でレーザー光Vを照射しながら閲覧していることが多く、このような場合は斜めに歪んで見える表示画面(obj)を脳内で補正して認識する必要があった。
そこで、プロジェクタ1は、ユーザ方向に表示画面(obj)を正対表示させるための制御信号を検出してPC3に出力し、PC3により当該制御信号に従った表示制御処理が実行され、実行後の画像データがプロジェクタ1に送信され、投影される。これにより、図19右に示すように、表示画面(obj)がユーザに(レーザー光Vが照射される方向等に基づいて推定されたレーザーポインタ2の相対位置に)正対するよう表示制御される。
このように、ユーザに対して正対するよう表示制御することで、ユーザの閲覧負荷を低減することができる。また、照射位置Pの座標位置に対応して位置する画面項目毎に正対表示制御されることで、ユーザは、画面項目を選択的に確認することができる。また、画面項目が誰に向けて表示されているのかが明示的に示される。また、画面項目を形成するボタン等の面積が操作者に対して保証されるので、スクリーンSに対して浅い角度からの操作を行う場合の操作感の悪化を防止することができる。
<6−2.投影色域の制御>
プロジェクタ1による投影画像の輝度が高い場合や、レーザーポインタ2から照射される可視光のレーザー光Vが同系色の表示領域に位置する場合、レーザーポインタ2の軌跡が視認しづらくなることがある。そこで、本実施形態によるプロジェクタ1およびPC3は、図20に示すように、スクリーンS上にレーザーポインタ2による照射位置Pが検出された際は、照射位置P付近の表示領域を暗くしたり、色の彩度を落としたり等の表示制御を行う。これにより、レーザーポインタ2の軌跡が視認しづらくなることを回避することができる。
<6−3.照射領域の制限>
本実施形態による操作システムでは、レーザーポインタ2からのレーザー光の照射領域をスクリーンS上に限定することができる。例えば、本実施形態によるプロジェクタ1は、上述したように、レーザーポインタ2による照射位置Pの座標位置を認識することができるので、照射位置PがスクリーンSから外れる場合、レーザーポインタ2に対してレーザー光の照射を停止するための制御信号を無線送信する。これにより、レーザーポインタ2は、照射位置PがスクリーンSから外れる場合は自動的にレーザー光の照射を停止する。
また、プロジェクタ1により、レーザーポインタ2とスクリーンSの間に人が居ることが検知された場合も、プロジェクタ1は、レーザーポインタ2に対してレーザー光の照射を停止するための制御信号を無線送信する。これにより、レーザーポインタ2から照射されるレーザー光が誤って人に向けられた際には自動的にレーザー光の照射を停止するので、安全性を保つことができる。以下、図21を参照して具体的に説明する。
図21は、照射可能領域について説明するための図である。照射可能領域は、例えばプロジェクタ1に設けられた撮像部により撮像された、投影画像を画角内に含む撮像画像に基づいて、プロジェクタ1において顔認識等を行い、スクリーンS付近に人が居るか否かを判断し、人が居ない部分を照射可能領域Dに設定する。
したがって、例えば図21に示すように、レーザーポインタ2とスクリーンSの間に人5が検知された場合、プロジェクタ1は、スクリーンS上のうち、人5に対応する領域を除く領域を、照射可能領域Dに設定する。そして、プロジェクタ1は、図21上に示すように、照射位置Pが照射可能領域D内に位置する場合は照射を継続させる。また、図21左下に示すように、レーザーポインタ2の動きおよび照射位置Pの軌跡に応じて、照射位置PがスクリーンS上の照射可能領域Dから外れると判断された場合、プロジェクタ1は、レーザーポインタ2に対してレーザー光の照射を停止するための制御信号を無線送信する。これによりレーザーポインタ2は、照射可能領域Dから外れた際に自動的にレーザー光の照射を停止することができる。
また、図21右下に示すように、レーザーポインタ2の動きおよび照射位置Pの軌跡に応じて、照射位置PがスクリーンS外に出ると判断された場合も、プロジェクタ1は、レーザーポインタ2に対してレーザー光の照射を停止するための制御信号を無線送信する。これによりレーザーポインタ2は、スクリーンSから外れた際に自動的にレーザー光の照射を停止することができる。
<6−4.スクリーンS外を用いた操作入力>
以上、レーザーポインタ2によるレーザー光Vや非可視光マーカーM等をスクリーンSの範囲内に照射して行う操作入力について説明したが、本実施形態による操作システムにおける操作入力の範囲は、スクリーンSの範囲内に限定されない。
例えば、プロジェクタ1に設けられている撮像部13の画角が、スクリーンSの周囲も含む場合、図22左に示すように、スクリーンS(または設定された画面範囲)外の照射位置Pの位置座標も認識され得る。これにより、プロジェクタ1は、画面外から画面内へ照射位置Pが移動するスワイプインや、画面内から外面外へ照射位置Pが移動するスワイプアウトのようなジェスチャー操作に対応することができる。
この場合、スクリーンS外の検出可能な位置に照射位置Pがポイントされたとき、図22左に示すように、スワイプイン操作が可能なことを示すインジケータ40がスクリーンSに表示(投影)される。また、実際にスワイプイン操作が行われると、図22右に示すように、例えばメニューを表示するなどの動作が発動される。
また、本実施形態による操作システムは、スワイプ動作だけでなく、スクリーンS外で円を描くなど、様々なジェスチャー操作に対応することも可能である。また、可能なスクリーンS外のジェスチャー操作に対応するガイド表示が、スクリーンS内の端(スクリーンS外の照射位置Pの至近位置)に表示(投影)される。
<6−5.操作者情報の表示>
本実施形態による操作システムは、レーザーポインタ2の操作者情報(ユーザ情報)を、照射位置P付近に表示(投影)させることができる。具体的には、プロジェクタ1およびPC3は、レーザーポインタ2から受信した情報や、レーザーポインタ2から照射された1次元/2次元バーコードによる非可視光/可視光マーカーの解析結果に基づいて、レーザーポインタ2を識別し、ユーザ情報を取得する。
そして、プロジェクタ1は、ユーザ情報を示す画像44をレーザーポインタ2による照射位置P付近に重畳表示(投影)させ、スクリーンSを見ている閲覧者等に対して、誰が照射しているかを分かり易くすることができる。
また、プロジェクタ1は、投影画像に対して操作入力可能な情報示すカーソル45を投影し、レーザーポインタ2の照射位置Pを強調し、操作状態をわかりやすくすることもできる。
<<7.まとめ>>
上述したように、本実施形態による操作システムでは、レーザーポインタ2を動かすことで投影画像中のオブジェクトに対して直感的に操作入力を行うことができる。レーザー光Vの照射は、1段階目の操作(例えば操作ボタン20aの半押し)により開始され、続く2段階目の操作(例えば操作ボタン20aの全押し)に応じて操作対象のオブジェクトが決定される。そして、2段階目の操作が継続されたままレーザーポインタ2を上下左右前後、パン/チルト移動、または回転移動させることで、決定したオブジェクトも同様に表示変化させるための操作入力を直感的に行うことができる。
また、レーザー光の照射距離は一般的な電波と比べると非常に長いので、広い場所で遠くから大型の投影画像に対して操作を行うような状況にも有用である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、プロジェクタ1、レーザーポインタ2、PC3に内蔵されるCPU、ROM、およびRAM等のハードウェアに、上述したプロジェクタ1、レーザーポインタ2、PC3の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
なお、本技術は以下のような構成も取ることができる。
(1)
投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
前記レーザーポインタの移動情報を取得する取得部と、
前記照射位置に対応する投影画像中のオブジェクトを、前記移動情報に応じて表示変化させるための制御信号を出力する出力部と、
を備える、情報処理装置。
(2)
前記出力部は、前記レーザーポインタに設けられた操作部において検出された決定操作情報を受信した際に前記照射位置に対応して位置するオブジェクトを、操作対象のオブジェクトとして決定する、前記(1)に記載の情報処理装置。
(3)
前記情報処理装置は、前記決定操作を示す情報を前記レーザーポインタから受信する受信部をさらに備える、前記(2)に記載の情報処理装置。
(4)
前記認識部は、前記レーザーポインタから照射される可視光のレーザー光または非可視光のレーザー光の照射位置を認識する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記認識部は、前記レーザーポインタから照射される可視光マーカーまたは非可視光マーカーの位置座標を前記レーザー光の照射位置として認識する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(6)
前記可視光マーカーまたは非可視光マーカーは、図形または一次元/二次元バーコードである、前記(5)に記載の情報処理装置。
(7)
前記取得部は、前記可視光マーカーまたは前記非可視光マーカーの大きさ、傾き、および歪みの少なくともいずれかに基づいて、前記レーザーポインタの移動情報を取得する、前記(5)または(6)に記載の情報処理装置。
(8)
前記移動情報は、前記レーザーポインタの前記投影画像に対する垂直/水平方向の移動、回転移動、またはパン/チルトの動きを示す情報である、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記取得部は、前記移動情報を前記レーザーポインタから受信する、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記認識部は、前記投影画像上に重ねて投影された非可視光の座標認識用画像を前記レーザーポインタに設けられた非可視光撮像部で撮像した非可視光撮像画像に基づいて、前記レーザーポインタによる前記投影画像に対するレーザー光の照射位置を認識する、前記(1)に記載の情報処理装置。
(11)
前記認識部は、複数のレーザーポインタから前記投影画像に対して照射される各可視光/非可視光マーカーの形状、色、またはマーカーに埋め込まれたユーザIDに基づいて、前記複数のレーザーポインタによる各照射位置を識別して認識する、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)
投影画像に対するレーザーポインタによるレーザー光の照射位置を認識するステップと、
前記レーザーポインタの移動情報を取得するステップと、
前記照射位置に対応する投影画像中のオブジェクトを、前記移動情報に応じて表示変化させるための制御信号を出力するステップと、
を含む、制御方法。
(13)
コンピュータに、
投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
前記レーザーポインタの移動情報を取得する取得部と、
前記照射位置に対応する投影画像中のオブジェクトを、前記移動情報に応じて表示変化させるための制御信号を出力する出力部と、
として機能させるための、プログラム。
(14)
コンピュータに、
投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
前記レーザーポインタの移動情報を取得する取得部と、
前記照射位置に対応する投影画像中のオブジェクトを、前記移動情報に応じて表示変化させるための制御信号を出力する出力部と、
として機能させるためのプログラムが記憶された、記憶媒体。
1、1a〜1d プロジェクタ
2、2a〜2d レーザーポインタ
3 PC
10 投影画像受信部
11 画像投影部
13 撮像部
13v 可視光撮像部
13n 非可視光撮像部
14、14d 位置認識部
15、15d 情報取得部
16 ポインタ情報出力部
17 非可視光画像生成部
18 非可視光投影部
20 操作部
20a 操作ボタン
21 可視光レーザー照射部
23 送信部
24 姿勢検知センサ
25 非可視光撮像部
26 情報読取部
30 制御部
31 画像出力部
32 操作入力部


Claims (13)

  1. 投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
    前記レーザーポインタの移動情報を取得する取得部と、
    前記レーザーポインタに設けられた操作部において前記レーザー光の照射を行う第1段階の操作から対象オブジェクトを決定する第2段階の操作に移行したことを示す決定操作情報を取得した際、前記照射位置に対応して位置する、投影画像中のオブジェクトを、操作対象オブジェクトとして決定し、当該操作対象オブジェクトを前記移動情報に応じて表示変化させる制御信号を出力する出力部と、
    を備え
    前記出力部は、1の前記操作対象オブジェクトに対して照射を行う複数のレーザーポインタの各移動情報に応じて前記操作対象オブジェクトを表示変化させる制御信号を出力する、情報処理装置。
  2. 前記操作対象オブジェクトは、複数の剛体が間接を介して接続されて形成されるオブジェクトであって、
    前記出力部は、前記複数のレーザーポインタにより前記オブジェクトの間接部分および剛体がそれぞれ照射されている場合、前記剛体を照射しているレーザーポインタの移動情報に応じて、前記間接部分を支点として前記剛体を表示変化させる制御信号を出力する、請求項に記載の情報処理装置。
  3. 前記情報処理装置は、前記決定操作情報を前記レーザーポインタから受信する受信部をさらに備える、請求項1または2に記載の情報処理装置。
  4. 前記認識部は、前記レーザーポインタから照射される可視光のレーザー光または非可視光のレーザー光の照射位置を認識する、請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記認識部は、前記レーザーポインタから照射される可視光マーカーまたは非可視光マーカーの位置座標を前記レーザー光の照射位置として認識する、請求項1に記載の情報処理装置。
  6. 前記取得部は、前記可視光マーカーまたは前記非可視光マーカーの大きさ、傾き、および歪みの少なくともいずれかに基づいて、前記レーザーポインタの移動情報を取得する、請求項に記載の情報処理装置。
  7. 前記移動情報は、前記レーザーポインタの前記投影画像に対する垂直/水平方向の移動、回転移動、またはパン/チルトの動きを示す情報である、請求項1〜のいずれか1項に記載の情報処理装置。
  8. 前記取得部は、前記移動情報を前記レーザーポインタから受信する、請求項1〜のいずれか1項に記載の情報処理装置。
  9. 前記認識部は、前記投影画像上に重ねて投影された非可視光の座標認識用画像を前記レーザーポインタに設けられた非可視光撮像部で撮像した非可視光撮像画像に基づいて、前記レーザーポインタによる前記投影画像に対するレーザー光の照射位置を認識する、請求項1に記載の情報処理装置。
  10. 前記認識部は、複数のレーザーポインタから前記投影画像に対して照射される各可視光/非可視光マーカーの形状、色、またはマーカーに埋め込まれたユーザIDに基づいて、前記複数のレーザーポインタによる各照射位置を識別して認識する、請求項1〜のいずれか1項に記載の情報処理装置。
  11. プロセッサが、
    投影画像に対するレーザーポインタによるレーザー光の照射位置を認識するステップと、
    前記レーザーポインタの移動情報を取得するステップと、
    前記レーザーポインタに設けられた操作部において前記レーザー光の照射を行う第1段階の操作から対象オブジェクトを決定する第2段階の操作に移行したことを示す決定操作情報を取得した際、前記照射位置に対応して位置する、投影画像中のオブジェクトを、操作対象オブジェクトとして決定し、当該操作対象オブジェクトを前記移動情報に応じて表示変化させる制御信号を出力するステップと、
    を含み、
    前記出力するステップは、1の前記操作対象オブジェクトに対して照射を行う複数のレーザーポインタの各移動情報に応じて前記操作対象オブジェクトを表示変化させる制御信号を出力する、制御方法。
  12. コンピュータを、
    投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
    前記レーザーポインタの移動情報を取得する取得部と、
    前記レーザーポインタに設けられた操作部において前記レーザー光の照射を行う第1段階の操作から対象オブジェクトを決定する第2段階の操作に移行したことを示す決定操作情報を取得した際、前記照射位置に対応して位置する、投影画像中のオブジェクトを、操作対象オブジェクトとして決定し、当該操作対象オブジェクトを前記移動情報に応じて表示変化させる制御信号を出力する出力部と、
    として機能させ
    前記出力部は、1の前記操作対象オブジェクトに対して照射を行う複数のレーザーポインタの各移動情報に応じて前記操作対象オブジェクトを表示変化させる制御信号を出力する、プログラム。
  13. コンピュータを、
    投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
    前記レーザーポインタの移動情報を取得する取得部と、
    前記レーザーポインタに設けられた操作部において前記レーザー光の照射を行う第1段階の操作から対象オブジェクトを決定する第2段階の操作に移行したことを示す決定操作情報を取得した際、前記照射位置に対応して位置する、投影画像中のオブジェクトを、操作対象オブジェクトとして決定し、当該操作対象オブジェクトを前記移動情報に応じて表示変化させる制御信号を出力する出力部と、
    として機能させ
    前記出力部は、1の前記操作対象オブジェクトに対して照射を行う複数のレーザーポインタの各移動情報に応じて前記操作対象オブジェクトを表示変化させる制御信号を出力するためのプログラムが記憶された、記憶媒体。
JP2015523897A 2013-06-26 2014-03-31 情報処理装置、制御方法、プログラム、および記憶媒体 Expired - Fee Related JP6372487B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013133891 2013-06-26
JP2013133891 2013-06-26
PCT/JP2014/059530 WO2014208168A1 (ja) 2013-06-26 2014-03-31 情報処理装置、制御方法、プログラム、および記憶媒体

Publications (2)

Publication Number Publication Date
JPWO2014208168A1 JPWO2014208168A1 (ja) 2017-02-23
JP6372487B2 true JP6372487B2 (ja) 2018-08-15

Family

ID=52141522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015523897A Expired - Fee Related JP6372487B2 (ja) 2013-06-26 2014-03-31 情報処理装置、制御方法、プログラム、および記憶媒体

Country Status (5)

Country Link
US (1) US11029766B2 (ja)
EP (1) EP3015961B1 (ja)
JP (1) JP6372487B2 (ja)
CN (1) CN105308549B (ja)
WO (1) WO2014208168A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104602094B (zh) * 2014-12-26 2018-06-01 联想(北京)有限公司 信息处理方法及电子设备
CN104667526A (zh) * 2015-01-21 2015-06-03 深圳华侨城文化旅游科技有限公司 一种基于红外激光的射击点识别系统及方法
JP2017021237A (ja) * 2015-07-13 2017-01-26 キヤノン株式会社 画像投影装置、画像投影システム、表示装置、および、表示システム
JP6719768B2 (ja) * 2016-02-29 2020-07-08 国立大学法人東京工業大学 多重情報表示システム及びこれに用いる照光装置
US10347002B2 (en) * 2016-07-01 2019-07-09 Guangdong Virtual Reality Technology Co., Ltd. Electronic tracking device, electronic tracking system and electronic tracking method
JP2018005806A (ja) * 2016-07-08 2018-01-11 株式会社スクウェア・エニックス 位置特定プログラム、コンピュータ装置、位置特定方法、及び、位置特定システム
US11269480B2 (en) * 2016-08-23 2022-03-08 Reavire, Inc. Controlling objects using virtual rays
GB2557285A (en) * 2016-12-05 2018-06-20 Meiban Int Pte Ltd Smart working professional ring
JP2019078845A (ja) * 2017-10-23 2019-05-23 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
EP3518222B1 (en) * 2018-01-30 2020-08-19 Alexander Swatek Laser pointer
WO2019188046A1 (ja) * 2018-03-26 2019-10-03 富士フイルム株式会社 投影システム、投影制御装置、投影制御方法、投影制御プログラム
JP2021165865A (ja) * 2018-07-03 2021-10-14 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、記録媒体
CN113287370A (zh) * 2019-01-18 2021-08-20 株式会社半导体能源研究所 显示系统、显示装置、发光装置
CN110297550B (zh) * 2019-06-28 2023-05-16 北京百度网讯科技有限公司 一种标注显示方法、装置、投屏设备、终端和存储介质
CN112328158A (zh) * 2020-07-23 2021-02-05 深圳Tcl新技术有限公司 交互方法、显示装置、发射装置、交互系统及存储介质
CN112365828B (zh) * 2020-11-09 2024-03-12 深圳Tcl新技术有限公司 智能调整显示效果的方法、装置、设备及介质
CN112860083B (zh) * 2021-01-08 2023-01-24 深圳市华星光电半导体显示技术有限公司 激光笔光源定位方法及显示装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5712658A (en) * 1993-12-28 1998-01-27 Hitachi, Ltd. Information presentation apparatus and information display apparatus
US6346933B1 (en) 1999-09-21 2002-02-12 Seiko Epson Corporation Interactive display presentation system
JP3770308B2 (ja) * 2000-07-31 2006-04-26 セイコーエプソン株式会社 光ポインタ
US6910778B2 (en) * 2001-09-28 2005-06-28 Fujinon Corporation Presentation system using laser pointer
US6764185B1 (en) * 2003-08-07 2004-07-20 Mitsubishi Electric Research Laboratories, Inc. Projector as an input and output device
US7683881B2 (en) * 2004-05-24 2010-03-23 Keytec, Inc. Visual input pointing device for interactive display system
US7284866B2 (en) * 2005-01-05 2007-10-23 Nokia Corporation Stabilized image projecting device
US7486274B2 (en) * 2005-08-18 2009-02-03 Mitsubishi Electric Research Laboratories, Inc. Method for stabilizing and precisely locating pointers generated by handheld direct pointing devices
US7852315B2 (en) * 2006-04-07 2010-12-14 Microsoft Corporation Camera and acceleration based interface for presentations
JP4715653B2 (ja) 2006-06-30 2011-07-06 カシオ計算機株式会社 レーザポインタ位置判定システムおよびレーザポインタ位置判定方法
US20110102315A1 (en) * 2008-06-19 2011-05-05 Koninklijke Philips Electronics N.V. Remote control pointing technology
JP2010072977A (ja) * 2008-09-19 2010-04-02 Sony Corp 画像表示装置および位置検出方法
JP5279482B2 (ja) * 2008-12-25 2013-09-04 キヤノン株式会社 画像処理装置、方法及びプログラム
US8217997B2 (en) * 2010-03-16 2012-07-10 Interphase Corporation Interactive display system
US20110230238A1 (en) * 2010-03-17 2011-09-22 Sony Ericsson Mobile Communications Ab Pointer device to navigate a projected user interface
JP2012053545A (ja) 2010-08-31 2012-03-15 Canon Inc 画像処理システムおよびその制御方法
GB201020282D0 (en) * 2010-11-30 2011-01-12 Dev Ltd An improved input device and associated method
WO2012102690A1 (en) * 2011-01-28 2012-08-02 Hewlett-Packard Development Company, L.P. Filter
US8446364B2 (en) * 2011-03-04 2013-05-21 Interphase Corporation Visual pairing in an interactive display system
US9733713B2 (en) * 2012-12-26 2017-08-15 Futurewei Technologies, Inc. Laser beam based gesture control interface for mobile devices
EP3011415B1 (en) * 2013-06-19 2018-12-05 Nokia Technologies Oy Electronic-scribed input

Also Published As

Publication number Publication date
CN105308549B (zh) 2018-08-21
CN105308549A (zh) 2016-02-03
US20160370883A1 (en) 2016-12-22
EP3015961A1 (en) 2016-05-04
JPWO2014208168A1 (ja) 2017-02-23
WO2014208168A1 (ja) 2014-12-31
EP3015961B1 (en) 2021-07-14
EP3015961A4 (en) 2017-02-22
US11029766B2 (en) 2021-06-08

Similar Documents

Publication Publication Date Title
JP6372487B2 (ja) 情報処理装置、制御方法、プログラム、および記憶媒体
KR102098277B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US9134800B2 (en) Gesture input device and gesture input method
US20130135199A1 (en) System and method for user interaction with projected content
JP2018516422A (ja) スマートホームのためのジェスチャ制御システム及び方法
KR101446902B1 (ko) 사용자 인터랙션 장치 및 방법
CN107291221B (zh) 基于自然手势的跨屏幕自适应精度调整方法及装置
JP5645444B2 (ja) 画像表示システムおよびその制御方法
EP3121686A1 (en) Apparatus and method for remote control using camera-based virtual touch
TW201324235A (zh) 手勢輸入的方法及系統
US20140333585A1 (en) Electronic apparatus, information processing method, and storage medium
US20150009138A1 (en) Information processing apparatus, operation input detection method, program, and storage medium
CN110489027B (zh) 手持输入设备及其指示图标的显示位置控制方法和装置
JP2012238293A (ja) 入力装置
EP2586203A1 (en) Information processing apparatus, information processing system and information processing method
US9740294B2 (en) Display apparatus and method for controlling display apparatus thereof
KR20200040716A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
JP6866467B2 (ja) ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JP2008181198A (ja) 画像表示システム
WO2021004413A1 (zh) 一种手持输入设备及其指示图标的消隐控制方法和装置
KR20160072306A (ko) 스마트 펜 기반의 콘텐츠 증강 방법 및 시스템
US20220244788A1 (en) Head-mounted display
JP2013218423A (ja) 指向性映像コントロール装置及びその方法
JP2013257830A (ja) 情報処理装置
WO2015156068A1 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180702

R151 Written notification of patent or utility model registration

Ref document number: 6372487

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees