JP6372487B2 - 情報処理装置、制御方法、プログラム、および記憶媒体 - Google Patents
情報処理装置、制御方法、プログラム、および記憶媒体 Download PDFInfo
- Publication number
- JP6372487B2 JP6372487B2 JP2015523897A JP2015523897A JP6372487B2 JP 6372487 B2 JP6372487 B2 JP 6372487B2 JP 2015523897 A JP2015523897 A JP 2015523897A JP 2015523897 A JP2015523897 A JP 2015523897A JP 6372487 B2 JP6372487 B2 JP 6372487B2
- Authority
- JP
- Japan
- Prior art keywords
- laser pointer
- laser
- information
- pointer
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000010365 information processing Effects 0.000 title claims description 31
- 238000000034 method Methods 0.000 title description 22
- 238000003860 storage Methods 0.000 title description 6
- 230000033001 locomotion Effects 0.000 claims description 139
- 239000003550 marker Substances 0.000 claims description 56
- 230000008859 change Effects 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 description 39
- 238000012545 processing Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 19
- 238000001514 detection method Methods 0.000 description 18
- 230000005540 biological transmission Effects 0.000 description 13
- 238000003825 pressing Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 230000001678 irradiating effect Effects 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000013519 translation Methods 0.000 description 4
- 238000004091 panning Methods 0.000 description 3
- 239000013589 supplement Substances 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- YLZOPXRUQYQQID-UHFFFAOYSA-N 3-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)-1-[4-[2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidin-5-yl]piperazin-1-yl]propan-1-one Chemical compound N1N=NC=2CN(CCC=21)CCC(=O)N1CCN(CC1)C=1C=NC(=NC=1)NCC1=CC(=CC=C1)OC(F)(F)F YLZOPXRUQYQQID-UHFFFAOYSA-N 0.000 description 1
- CONKBQPVFMXDOV-QHCPKHFHSA-N 6-[(5S)-5-[[4-[2-(2,3-dihydro-1H-inden-2-ylamino)pyrimidin-5-yl]piperazin-1-yl]methyl]-2-oxo-1,3-oxazolidin-3-yl]-3H-1,3-benzoxazol-2-one Chemical class C1C(CC2=CC=CC=C12)NC1=NC=C(C=N1)N1CCN(CC1)C[C@H]1CN(C(O1)=O)C1=CC2=C(NC(O2)=O)C=C1 CONKBQPVFMXDOV-QHCPKHFHSA-N 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/18—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective
- G02B27/20—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective for imaging minute objects, e.g. light-pointer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
- G06F3/0386—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0383—Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0384—Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
Description
1.本開示の一実施形態による操作システムの概要
2.システム構成例
2−1.第1のシステム構成例
2−2.第2のシステム構成例
2−3.第3のシステム構成例
3.内部構成および動作処理
3−1.内部構成
3−2.動作処理
4.レーザーポインタによる操作入力例
4−1.照射位置の軌跡による操作入力
4−2.動きに応じた操作入力
5.変形例
5−1.システム構成
5−2.内部構成
6.補足
7.まとめ
まず、本開示の一実施形態による操作システムの概要について図1を参照して説明する。図1に示すように、本開示の一実施形態による操作システムは、プロジェクタ1、レーザーポインタ2、および投影用のコンテンツをプロジェクタ1に出力するPC(パーソナルコンピュータ)3を含む。投影用のコンテンツとは、図表、文章、その他種々のグラフィック画像や、地図、ウェブサイト、3Dオブジェクト等であって、以下投影用の画像データと称する。
ここで、上述したように、上記特許文献1、2では、投影画像を撮像した撮像画像に基づいてレーザーポインタによるレーザー光の照射位置の座標を認識するだけであった。したがって、レーザーポインタを用いて投影画像中の編集可能なオブジェクトobj1〜3に対して操作入力を行うことができず、オブジェクトobj1〜3を動かすためには、PC3の入力デバイス(マウス、タッチパッド、キーボード等)を操作しなければならなかった。
<2−1.第1のシステム構成例>
図2は、本開示の一実施形態による操作システムの第1のシステム構成例を説明するための図である。図2に示すように、第1のシステム構成例は、プロジェクタ1、レーザーポインタ2(本開示による情報処理装置)、およびPC3により形成される。
次に、本開示の一実施形態による操作システムの第2のシステム構成例について図3を参照して説明する。図3は、本開示の一実施形態による操作システムの第2のシステム構成例を説明するための図である。図3に示すように、操作システムの第2のシステム構成は、プロジェクタ1b(本開示による情報処理装置)、レーザーポインタ2b、およびPC3から形成される。
次に、本開示の一実施形態による操作システムの第3のシステム構成例について図4を参照して説明する。図4は、本開示の一実施形態による操作システムの第3のシステム構成例を説明するための図である。図4に示すように、操作システムの第3のシステム構成は、プロジェクタ1c(本開示による情報処理装置)、レーザーポインタ2c、およびPC3から形成される。
例えば、レーザーポインタ2の筐体上面と下面にそれぞれ操作ボタンが設けられ、上面の操作ボタンが押下された場合は第1段階(上記半押し操作に相当)のユーザ操作を検出し、さらに下面の操作ボタンも押下された場合は第2段階(上記全押し操作に相当)のユーザ操作を検出する。このように、レーザーポインタ2は、ボタンが1つ押されている段階(第1段階)と2つ同時に押されている段階(第2段階)とで2段階のユーザ操作を検出することができる。
続いて、本実施形態による操作システムの内部構成および動作処理について図6〜図7を参照して説明する。
図6は、本実施形態による操作システムの内部構成の一例を示すブロック図である。
プロジェクタ1は、図5に示すように、投影画像受信部10、画像投影部11、撮像部13、位置認識部14、情報取得部15、およびポインタ情報出力部16を有する。
レーザーポインタ2は、図6に示すように、操作部20、可視光レーザー照射部21、非可視光照射部22、送信部23、および姿勢検知センサ24を有する。
PC3は、図6に示すように、制御部30、画像出力部31、および操作入力部32を有する。
次に、本実施形態による操作システムの動作処理について説明する。ここでは、上述した本実施形態による操作システムの第1〜第3のシステム構成例のうち、一例として第1のシステム構成例における動作処理について説明する。
続いて、本実施形態による送信システムにおけるレーザーポインタ2を用いた直感的な操作入力について具体例を挙げて説明する。ここでは、上述した本実施形態による操作システムの第1〜第3のシステム構成例のうち、一例として第1のシステム構成例におけるレーザーポインタ2aによる操作入力の具体例について説明する。
本実施形態による操作システムでは、上述したレーザーポインタ2の移動情報に応じた操作入力の他、照射位置Pの軌跡に基づいた操作入力を行うことも可能である。プロジェクタ1aは、可視光撮像部13vにより撮像した可視光撮像画像に基づいて、照射位置Pの位置の変化を認識して照射位置Pの軌跡を把握し、所定の軌跡を描くジェスチャーに対応付けられた指示コマンドをポインタ情報として出力する。以下、図8を参照して説明する。
次に、図9〜図14を参照してレーザーポインタ2aの動き(移動情報)を用いた直感的な操作入力について具体的に説明する。
図10は、ロール回転の動きを用いた操作入力例について説明するための図である。図10左に示すように、ユーザは、レーザーポインタ2aの操作ボタン20aを半押ししてレーザー光Vを照射させ、照射位置PをスクリーンSに投影されている画像中の任意のオブジェクト(obj)に合せる。その後、ユーザは、レーザーポインタ2aの操作ボタン20aを全押しして操作対象とするオブジェクト(obj)を決定し、操作ボタン20aを全押しした状態でレーザーポインタ2aを回転(z軸について回転、ローリング)させる。この際、レーザーポインタ2aからは移動情報(傾きや角速度)がプロジェクタ1aに送信され、プロジェクタ1aは、操作対象に決定されたオブジェクトをレーザーポインタ2aの移動情報に応じて表示変化させるための制御信号(ポインタ情報)をPC3に送信する。PC3は、ポインタ情報にしたがって、操作対象に決定されたオブジェクトをレーザーポインタ2aの回転に合せて回転するよう表示制御する。そして、PC3は、オブジェクトを回転させる表示制御した投影画像をプロジェクタ1aに送信し、プロジェクタ1aは送信された投影画像をスクリーンSに投影する。
図11は、前後垂直移動の動きを用いた操作入力例について説明するための図である。図11に示すように、ユーザは、レーザーポインタ2aの操作ボタン20aを半押ししてレーザー光Vを照射させ、照射位置PをスクリーンSに投影されている画像中の任意のオブジェクト(例えば地図画像)に合せる。
図12は、左右にパンさせる動きを用いた操作入力例について説明するための図である。図12左に示すように、ユーザは、レーザーポインタ2aの操作ボタン20aを半押ししてレーザー光Vを照射させ、照射位置PをスクリーンSに投影されている画像中の任意のオブジェクト(例えば3Dオブジェクト)に合せる。
本実施形態による操作システムでは、複数のレーザーポインタ2aを同時に用いて操作入力を行うことも可能である。以下、図13〜図14を参照して説明する。
図4を参照して説明したように、第3のシステム構成で形成される操作システムにおいては、非可視光マーカーMを介してレーザーポインタ2cの移動情報がプロジェクタ1cに取得される。ここで、図15を参照して、非可視光マーカーMによる操作入力について説明する。
本実施形態による操作システムは、複数のユーザによるそれぞれ独立した操作入力を受け付けることも可能である。以下、図16を参照して説明する。
続いて、本実施形態による操作システムのシステム構成の変形例について、図17〜図18を参照して説明する。上述した第1〜第3のシステム構成例では、プロジェクタ1に設けられた撮像部13で、スクリーンSに投影された画像(投影画像)を可視光/非可視光撮像し、撮像画像に基づいて照射位置Pを認識していた。
図17は、本実施形態による操作システムのシステム構成の変形例について説明するための図である。図17に示すように、本変形例によるシステム構成は、プロジェクタ1d(本開示による情報処理装置)、レーザーポインタ2d、およびPC3から形成される。
続いて、本実施形態による操作システムに含まれる各装置の内部構成について図18を参照して具体的に説明する。図18は、本変形例による操作システムの内部構成の一例を示すブロック図である。以下、各構成について具体的に説明する。なおPC3の内部構成は、図6を参照して上述したので、ここでの説明は省略する。
プロジェクタ1dは、投影画像受信部10、画像投影部11、非可視光画像生成部17、非可視光投影部18、情報取得部15d、位置認識部14d、およびポインタ情報出力部16を有する。
レーザーポインタ2dは、図18に示すように、操作部20、可視光レーザー照射部21、非可視光撮像部25、情報読取部26、送信部23、および姿勢検知センサ24を有する。
続いて、本実施形態による操作システムについて補足する。
本実施形態によるプロジェクタ1は、レーザーポインタ2から照射されるレーザー光の方向や移動情報に基づいて、スクリーンSに対するレーザーポインタ2の相対的な位置を推定することが可能である。
プロジェクタ1による投影画像の輝度が高い場合や、レーザーポインタ2から照射される可視光のレーザー光Vが同系色の表示領域に位置する場合、レーザーポインタ2の軌跡が視認しづらくなることがある。そこで、本実施形態によるプロジェクタ1およびPC3は、図20に示すように、スクリーンS上にレーザーポインタ2による照射位置Pが検出された際は、照射位置P付近の表示領域を暗くしたり、色の彩度を落としたり等の表示制御を行う。これにより、レーザーポインタ2の軌跡が視認しづらくなることを回避することができる。
本実施形態による操作システムでは、レーザーポインタ2からのレーザー光の照射領域をスクリーンS上に限定することができる。例えば、本実施形態によるプロジェクタ1は、上述したように、レーザーポインタ2による照射位置Pの座標位置を認識することができるので、照射位置PがスクリーンSから外れる場合、レーザーポインタ2に対してレーザー光の照射を停止するための制御信号を無線送信する。これにより、レーザーポインタ2は、照射位置PがスクリーンSから外れる場合は自動的にレーザー光の照射を停止する。
以上、レーザーポインタ2によるレーザー光Vや非可視光マーカーM等をスクリーンSの範囲内に照射して行う操作入力について説明したが、本実施形態による操作システムにおける操作入力の範囲は、スクリーンSの範囲内に限定されない。
本実施形態による操作システムは、レーザーポインタ2の操作者情報(ユーザ情報)を、照射位置P付近に表示(投影)させることができる。具体的には、プロジェクタ1およびPC3は、レーザーポインタ2から受信した情報や、レーザーポインタ2から照射された1次元/2次元バーコードによる非可視光/可視光マーカーの解析結果に基づいて、レーザーポインタ2を識別し、ユーザ情報を取得する。
上述したように、本実施形態による操作システムでは、レーザーポインタ2を動かすことで投影画像中のオブジェクトに対して直感的に操作入力を行うことができる。レーザー光Vの照射は、1段階目の操作(例えば操作ボタン20aの半押し)により開始され、続く2段階目の操作(例えば操作ボタン20aの全押し)に応じて操作対象のオブジェクトが決定される。そして、2段階目の操作が継続されたままレーザーポインタ2を上下左右前後、パン/チルト移動、または回転移動させることで、決定したオブジェクトも同様に表示変化させるための操作入力を直感的に行うことができる。
(1)
投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
前記レーザーポインタの移動情報を取得する取得部と、
前記照射位置に対応する投影画像中のオブジェクトを、前記移動情報に応じて表示変化させるための制御信号を出力する出力部と、
を備える、情報処理装置。
(2)
前記出力部は、前記レーザーポインタに設けられた操作部において検出された決定操作情報を受信した際に前記照射位置に対応して位置するオブジェクトを、操作対象のオブジェクトとして決定する、前記(1)に記載の情報処理装置。
(3)
前記情報処理装置は、前記決定操作を示す情報を前記レーザーポインタから受信する受信部をさらに備える、前記(2)に記載の情報処理装置。
(4)
前記認識部は、前記レーザーポインタから照射される可視光のレーザー光または非可視光のレーザー光の照射位置を認識する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記認識部は、前記レーザーポインタから照射される可視光マーカーまたは非可視光マーカーの位置座標を前記レーザー光の照射位置として認識する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(6)
前記可視光マーカーまたは非可視光マーカーは、図形または一次元/二次元バーコードである、前記(5)に記載の情報処理装置。
(7)
前記取得部は、前記可視光マーカーまたは前記非可視光マーカーの大きさ、傾き、および歪みの少なくともいずれかに基づいて、前記レーザーポインタの移動情報を取得する、前記(5)または(6)に記載の情報処理装置。
(8)
前記移動情報は、前記レーザーポインタの前記投影画像に対する垂直/水平方向の移動、回転移動、またはパン/チルトの動きを示す情報である、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記取得部は、前記移動情報を前記レーザーポインタから受信する、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記認識部は、前記投影画像上に重ねて投影された非可視光の座標認識用画像を前記レーザーポインタに設けられた非可視光撮像部で撮像した非可視光撮像画像に基づいて、前記レーザーポインタによる前記投影画像に対するレーザー光の照射位置を認識する、前記(1)に記載の情報処理装置。
(11)
前記認識部は、複数のレーザーポインタから前記投影画像に対して照射される各可視光/非可視光マーカーの形状、色、またはマーカーに埋め込まれたユーザIDに基づいて、前記複数のレーザーポインタによる各照射位置を識別して認識する、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)
投影画像に対するレーザーポインタによるレーザー光の照射位置を認識するステップと、
前記レーザーポインタの移動情報を取得するステップと、
前記照射位置に対応する投影画像中のオブジェクトを、前記移動情報に応じて表示変化させるための制御信号を出力するステップと、
を含む、制御方法。
(13)
コンピュータに、
投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
前記レーザーポインタの移動情報を取得する取得部と、
前記照射位置に対応する投影画像中のオブジェクトを、前記移動情報に応じて表示変化させるための制御信号を出力する出力部と、
として機能させるための、プログラム。
(14)
コンピュータに、
投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
前記レーザーポインタの移動情報を取得する取得部と、
前記照射位置に対応する投影画像中のオブジェクトを、前記移動情報に応じて表示変化させるための制御信号を出力する出力部と、
として機能させるためのプログラムが記憶された、記憶媒体。
2、2a〜2d レーザーポインタ
3 PC
10 投影画像受信部
11 画像投影部
13 撮像部
13v 可視光撮像部
13n 非可視光撮像部
14、14d 位置認識部
15、15d 情報取得部
16 ポインタ情報出力部
17 非可視光画像生成部
18 非可視光投影部
20 操作部
20a 操作ボタン
21 可視光レーザー照射部
23 送信部
24 姿勢検知センサ
25 非可視光撮像部
26 情報読取部
30 制御部
31 画像出力部
32 操作入力部
Claims (13)
- 投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
前記レーザーポインタの移動情報を取得する取得部と、
前記レーザーポインタに設けられた操作部において前記レーザー光の照射を行う第1段階の操作から対象オブジェクトを決定する第2段階の操作に移行したことを示す決定操作情報を取得した際、前記照射位置に対応して位置する、投影画像中のオブジェクトを、操作対象オブジェクトとして決定し、当該操作対象オブジェクトを前記移動情報に応じて表示変化させる制御信号を出力する出力部と、
を備え、
前記出力部は、1の前記操作対象オブジェクトに対して照射を行う複数のレーザーポインタの各移動情報に応じて前記操作対象オブジェクトを表示変化させる制御信号を出力する、情報処理装置。 - 前記操作対象オブジェクトは、複数の剛体が間接を介して接続されて形成されるオブジェクトであって、
前記出力部は、前記複数のレーザーポインタにより前記オブジェクトの間接部分および剛体がそれぞれ照射されている場合、前記剛体を照射しているレーザーポインタの移動情報に応じて、前記間接部分を支点として前記剛体を表示変化させる制御信号を出力する、請求項1に記載の情報処理装置。 - 前記情報処理装置は、前記決定操作情報を前記レーザーポインタから受信する受信部をさらに備える、請求項1または2に記載の情報処理装置。
- 前記認識部は、前記レーザーポインタから照射される可視光のレーザー光または非可視光のレーザー光の照射位置を認識する、請求項1〜3のいずれか1項に記載の情報処理装置。
- 前記認識部は、前記レーザーポインタから照射される可視光マーカーまたは非可視光マーカーの位置座標を前記レーザー光の照射位置として認識する、請求項1に記載の情報処理装置。
- 前記取得部は、前記可視光マーカーまたは前記非可視光マーカーの大きさ、傾き、および歪みの少なくともいずれかに基づいて、前記レーザーポインタの移動情報を取得する、請求項5に記載の情報処理装置。
- 前記移動情報は、前記レーザーポインタの前記投影画像に対する垂直/水平方向の移動、回転移動、またはパン/チルトの動きを示す情報である、請求項1〜6のいずれか1項に記載の情報処理装置。
- 前記取得部は、前記移動情報を前記レーザーポインタから受信する、請求項1〜7のいずれか1項に記載の情報処理装置。
- 前記認識部は、前記投影画像上に重ねて投影された非可視光の座標認識用画像を前記レーザーポインタに設けられた非可視光撮像部で撮像した非可視光撮像画像に基づいて、前記レーザーポインタによる前記投影画像に対するレーザー光の照射位置を認識する、請求項1に記載の情報処理装置。
- 前記認識部は、複数のレーザーポインタから前記投影画像に対して照射される各可視光/非可視光マーカーの形状、色、またはマーカーに埋め込まれたユーザIDに基づいて、前記複数のレーザーポインタによる各照射位置を識別して認識する、請求項1〜9のいずれか1項に記載の情報処理装置。
- プロセッサが、
投影画像に対するレーザーポインタによるレーザー光の照射位置を認識するステップと、
前記レーザーポインタの移動情報を取得するステップと、
前記レーザーポインタに設けられた操作部において前記レーザー光の照射を行う第1段階の操作から対象オブジェクトを決定する第2段階の操作に移行したことを示す決定操作情報を取得した際、前記照射位置に対応して位置する、投影画像中のオブジェクトを、操作対象オブジェクトとして決定し、当該操作対象オブジェクトを前記移動情報に応じて表示変化させる制御信号を出力するステップと、
を含み、
前記出力するステップは、1の前記操作対象オブジェクトに対して照射を行う複数のレーザーポインタの各移動情報に応じて前記操作対象オブジェクトを表示変化させる制御信号を出力する、制御方法。 - コンピュータを、
投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
前記レーザーポインタの移動情報を取得する取得部と、
前記レーザーポインタに設けられた操作部において前記レーザー光の照射を行う第1段階の操作から対象オブジェクトを決定する第2段階の操作に移行したことを示す決定操作情報を取得した際、前記照射位置に対応して位置する、投影画像中のオブジェクトを、操作対象オブジェクトとして決定し、当該操作対象オブジェクトを前記移動情報に応じて表示変化させる制御信号を出力する出力部と、
として機能させ、
前記出力部は、1の前記操作対象オブジェクトに対して照射を行う複数のレーザーポインタの各移動情報に応じて前記操作対象オブジェクトを表示変化させる制御信号を出力する、プログラム。 - コンピュータを、
投影画像に対するレーザーポインタによるレーザー光の照射位置を認識する認識部と、
前記レーザーポインタの移動情報を取得する取得部と、
前記レーザーポインタに設けられた操作部において前記レーザー光の照射を行う第1段階の操作から対象オブジェクトを決定する第2段階の操作に移行したことを示す決定操作情報を取得した際、前記照射位置に対応して位置する、投影画像中のオブジェクトを、操作対象オブジェクトとして決定し、当該操作対象オブジェクトを前記移動情報に応じて表示変化させる制御信号を出力する出力部と、
として機能させ、
前記出力部は、1の前記操作対象オブジェクトに対して照射を行う複数のレーザーポインタの各移動情報に応じて前記操作対象オブジェクトを表示変化させる制御信号を出力するためのプログラムが記憶された、記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013133891 | 2013-06-26 | ||
JP2013133891 | 2013-06-26 | ||
PCT/JP2014/059530 WO2014208168A1 (ja) | 2013-06-26 | 2014-03-31 | 情報処理装置、制御方法、プログラム、および記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014208168A1 JPWO2014208168A1 (ja) | 2017-02-23 |
JP6372487B2 true JP6372487B2 (ja) | 2018-08-15 |
Family
ID=52141522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015523897A Expired - Fee Related JP6372487B2 (ja) | 2013-06-26 | 2014-03-31 | 情報処理装置、制御方法、プログラム、および記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11029766B2 (ja) |
EP (1) | EP3015961B1 (ja) |
JP (1) | JP6372487B2 (ja) |
CN (1) | CN105308549B (ja) |
WO (1) | WO2014208168A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104602094B (zh) * | 2014-12-26 | 2018-06-01 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
CN104667526A (zh) * | 2015-01-21 | 2015-06-03 | 深圳华侨城文化旅游科技有限公司 | 一种基于红外激光的射击点识别系统及方法 |
JP2017021237A (ja) * | 2015-07-13 | 2017-01-26 | キヤノン株式会社 | 画像投影装置、画像投影システム、表示装置、および、表示システム |
JP6719768B2 (ja) * | 2016-02-29 | 2020-07-08 | 国立大学法人東京工業大学 | 多重情報表示システム及びこれに用いる照光装置 |
US10347002B2 (en) * | 2016-07-01 | 2019-07-09 | Guangdong Virtual Reality Technology Co., Ltd. | Electronic tracking device, electronic tracking system and electronic tracking method |
JP2018005806A (ja) * | 2016-07-08 | 2018-01-11 | 株式会社スクウェア・エニックス | 位置特定プログラム、コンピュータ装置、位置特定方法、及び、位置特定システム |
US11269480B2 (en) * | 2016-08-23 | 2022-03-08 | Reavire, Inc. | Controlling objects using virtual rays |
GB2557285A (en) * | 2016-12-05 | 2018-06-20 | Meiban Int Pte Ltd | Smart working professional ring |
JP2019078845A (ja) * | 2017-10-23 | 2019-05-23 | セイコーエプソン株式会社 | プロジェクターおよびプロジェクターの制御方法 |
EP3518222B1 (en) * | 2018-01-30 | 2020-08-19 | Alexander Swatek | Laser pointer |
WO2019188046A1 (ja) * | 2018-03-26 | 2019-10-03 | 富士フイルム株式会社 | 投影システム、投影制御装置、投影制御方法、投影制御プログラム |
JP2021165865A (ja) * | 2018-07-03 | 2021-10-14 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び、記録媒体 |
CN113287370A (zh) * | 2019-01-18 | 2021-08-20 | 株式会社半导体能源研究所 | 显示系统、显示装置、发光装置 |
CN110297550B (zh) * | 2019-06-28 | 2023-05-16 | 北京百度网讯科技有限公司 | 一种标注显示方法、装置、投屏设备、终端和存储介质 |
CN112328158A (zh) * | 2020-07-23 | 2021-02-05 | 深圳Tcl新技术有限公司 | 交互方法、显示装置、发射装置、交互系统及存储介质 |
CN112365828B (zh) * | 2020-11-09 | 2024-03-12 | 深圳Tcl新技术有限公司 | 智能调整显示效果的方法、装置、设备及介质 |
CN112860083B (zh) * | 2021-01-08 | 2023-01-24 | 深圳市华星光电半导体显示技术有限公司 | 激光笔光源定位方法及显示装置 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5712658A (en) * | 1993-12-28 | 1998-01-27 | Hitachi, Ltd. | Information presentation apparatus and information display apparatus |
US6346933B1 (en) | 1999-09-21 | 2002-02-12 | Seiko Epson Corporation | Interactive display presentation system |
JP3770308B2 (ja) * | 2000-07-31 | 2006-04-26 | セイコーエプソン株式会社 | 光ポインタ |
US6910778B2 (en) * | 2001-09-28 | 2005-06-28 | Fujinon Corporation | Presentation system using laser pointer |
US6764185B1 (en) * | 2003-08-07 | 2004-07-20 | Mitsubishi Electric Research Laboratories, Inc. | Projector as an input and output device |
US7683881B2 (en) * | 2004-05-24 | 2010-03-23 | Keytec, Inc. | Visual input pointing device for interactive display system |
US7284866B2 (en) * | 2005-01-05 | 2007-10-23 | Nokia Corporation | Stabilized image projecting device |
US7486274B2 (en) * | 2005-08-18 | 2009-02-03 | Mitsubishi Electric Research Laboratories, Inc. | Method for stabilizing and precisely locating pointers generated by handheld direct pointing devices |
US7852315B2 (en) * | 2006-04-07 | 2010-12-14 | Microsoft Corporation | Camera and acceleration based interface for presentations |
JP4715653B2 (ja) | 2006-06-30 | 2011-07-06 | カシオ計算機株式会社 | レーザポインタ位置判定システムおよびレーザポインタ位置判定方法 |
US20110102315A1 (en) * | 2008-06-19 | 2011-05-05 | Koninklijke Philips Electronics N.V. | Remote control pointing technology |
JP2010072977A (ja) * | 2008-09-19 | 2010-04-02 | Sony Corp | 画像表示装置および位置検出方法 |
JP5279482B2 (ja) * | 2008-12-25 | 2013-09-04 | キヤノン株式会社 | 画像処理装置、方法及びプログラム |
US8217997B2 (en) * | 2010-03-16 | 2012-07-10 | Interphase Corporation | Interactive display system |
US20110230238A1 (en) * | 2010-03-17 | 2011-09-22 | Sony Ericsson Mobile Communications Ab | Pointer device to navigate a projected user interface |
JP2012053545A (ja) | 2010-08-31 | 2012-03-15 | Canon Inc | 画像処理システムおよびその制御方法 |
GB201020282D0 (en) * | 2010-11-30 | 2011-01-12 | Dev Ltd | An improved input device and associated method |
WO2012102690A1 (en) * | 2011-01-28 | 2012-08-02 | Hewlett-Packard Development Company, L.P. | Filter |
US8446364B2 (en) * | 2011-03-04 | 2013-05-21 | Interphase Corporation | Visual pairing in an interactive display system |
US9733713B2 (en) * | 2012-12-26 | 2017-08-15 | Futurewei Technologies, Inc. | Laser beam based gesture control interface for mobile devices |
EP3011415B1 (en) * | 2013-06-19 | 2018-12-05 | Nokia Technologies Oy | Electronic-scribed input |
-
2014
- 2014-03-31 CN CN201480035101.0A patent/CN105308549B/zh not_active Expired - Fee Related
- 2014-03-31 US US14/901,683 patent/US11029766B2/en active Active
- 2014-03-31 EP EP14817801.5A patent/EP3015961B1/en active Active
- 2014-03-31 JP JP2015523897A patent/JP6372487B2/ja not_active Expired - Fee Related
- 2014-03-31 WO PCT/JP2014/059530 patent/WO2014208168A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN105308549B (zh) | 2018-08-21 |
CN105308549A (zh) | 2016-02-03 |
US20160370883A1 (en) | 2016-12-22 |
EP3015961A1 (en) | 2016-05-04 |
JPWO2014208168A1 (ja) | 2017-02-23 |
WO2014208168A1 (ja) | 2014-12-31 |
EP3015961B1 (en) | 2021-07-14 |
EP3015961A4 (en) | 2017-02-22 |
US11029766B2 (en) | 2021-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6372487B2 (ja) | 情報処理装置、制御方法、プログラム、および記憶媒体 | |
KR102098277B1 (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 | |
US9134800B2 (en) | Gesture input device and gesture input method | |
US20130135199A1 (en) | System and method for user interaction with projected content | |
JP2018516422A (ja) | スマートホームのためのジェスチャ制御システム及び方法 | |
KR101446902B1 (ko) | 사용자 인터랙션 장치 및 방법 | |
CN107291221B (zh) | 基于自然手势的跨屏幕自适应精度调整方法及装置 | |
JP5645444B2 (ja) | 画像表示システムおよびその制御方法 | |
EP3121686A1 (en) | Apparatus and method for remote control using camera-based virtual touch | |
TW201324235A (zh) | 手勢輸入的方法及系統 | |
US20140333585A1 (en) | Electronic apparatus, information processing method, and storage medium | |
US20150009138A1 (en) | Information processing apparatus, operation input detection method, program, and storage medium | |
CN110489027B (zh) | 手持输入设备及其指示图标的显示位置控制方法和装置 | |
JP2012238293A (ja) | 入力装置 | |
EP2586203A1 (en) | Information processing apparatus, information processing system and information processing method | |
US9740294B2 (en) | Display apparatus and method for controlling display apparatus thereof | |
KR20200040716A (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 | |
JP6866467B2 (ja) | ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置 | |
JP2008181198A (ja) | 画像表示システム | |
WO2021004413A1 (zh) | 一种手持输入设备及其指示图标的消隐控制方法和装置 | |
KR20160072306A (ko) | 스마트 펜 기반의 콘텐츠 증강 방법 및 시스템 | |
US20220244788A1 (en) | Head-mounted display | |
JP2013218423A (ja) | 指向性映像コントロール装置及びその方法 | |
JP2013257830A (ja) | 情報処理装置 | |
WO2015156068A1 (ja) | 画像処理装置及び画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170207 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180604 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180619 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180702 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6372487 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |