JP2012014361A - Information processor and control method thereof - Google Patents
Information processor and control method thereof Download PDFInfo
- Publication number
- JP2012014361A JP2012014361A JP2010149480A JP2010149480A JP2012014361A JP 2012014361 A JP2012014361 A JP 2012014361A JP 2010149480 A JP2010149480 A JP 2010149480A JP 2010149480 A JP2010149480 A JP 2010149480A JP 2012014361 A JP2012014361 A JP 2012014361A
- Authority
- JP
- Japan
- Prior art keywords
- pointing device
- detected
- pointer
- unit
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、レーザポインタなどのポインティングデバイスによって指し示された点を特定する技術に関する。 The present invention relates to a technique for specifying a point pointed by a pointing device such as a laser pointer.
従来、所定の画面上にレーザポインタによって光線を照射するシステムにおいて、その光線が照射された位置を検出する技術が知られている。このような装置は、一般的には1人の操作者によって光線が照射されるため、どのレーザポインタがどの光線を出しているかなどを特定する必要は無い。 2. Description of the Related Art Conventionally, there is known a technique for detecting a position irradiated with a light beam in a system that irradiates a light beam on a predetermined screen with a laser pointer. Such an apparatus is generally irradiated with a light beam by one operator, and therefore it is not necessary to specify which laser pointer emits which light beam.
通常、画面からレーザポインタまでの距離が遠い場合には、レーザポインタを少し動かすだけで、その光線が照射された点は大きく動く。その一方で、画面からレーザポインタまでの距離が近い場合には、レーザポインタを少し動かすだけでは、その光線が照射された点は殆ど動かない。 Normally, when the distance from the screen to the laser pointer is far, the point irradiated with the light beam moves greatly by moving the laser pointer a little. On the other hand, when the distance from the screen to the laser pointer is short, the point irradiated with the light beam hardly moves even if the laser pointer is moved a little.
例えば、複数の操作者が同時にレーザポインタを照射するような場面では、画面上に複数のレーザポインタによって光線が照射されるであろう。このような場合には、それぞれの光線が照射された位置は、どの操作者によって照射された位置か解りにくい。もし、それぞれの照射位置に対して、それぞれの操作者に合った付加画像などを表示させようとした場合には、その表示を行わせる装置自身が、上記照射位置と操作者との関係を適切に知る必要がある。 For example, in a scene where a plurality of operators simultaneously irradiate laser pointers, a light beam will be irradiated by a plurality of laser pointers on the screen. In such a case, it is difficult to determine which operator has irradiated each light beam. If an additional image suitable for each operator is to be displayed for each irradiation position, the device that performs the display itself appropriately sets the relationship between the irradiation position and the operator. Need to know.
本発明は上記点に鑑みてなされたものであり、それぞれの光線が画面上に照射された位置と、その位置に光線を照射したポインティングデバイスとの対応関係を特定することを主な目的とする。 The present invention has been made in view of the above points, and has as its main object to specify the correspondence between the position where each light beam is irradiated on the screen and the pointing device that irradiated the light beam at that position. .
上記目的を達成するために、本発明の情報処理装置によれば、光線が照射された画面上の位置を検知する第1検知手段と、所定空間に存在するポインティングデバイスの位置および角度を検知する第2検知手段と、前記第2検知手段で検知された位置および角度に基づいて、前記第1検知手段で検知された位置に光線を照射したポインティングデバイスを特定する特定手段とを備えることを特徴とする。 In order to achieve the above object, according to the information processing apparatus of the present invention, the first detection means for detecting the position on the screen irradiated with the light beam, and the position and angle of the pointing device existing in the predetermined space are detected. And a second detection unit, and a specifying unit that specifies a pointing device that irradiates the position detected by the first detection unit with a light beam based on the position and the angle detected by the second detection unit. And
本発明によれば、それぞれの光線が画面上に照射された位置と、その位置に光線を照射したポインティングデバイスとの対応関係を特定することができる。 ADVANTAGE OF THE INVENTION According to this invention, the correspondence of the position where each light ray was irradiated on the screen and the pointing device which irradiated the light ray to the position can be specified.
[実施形態1]
図1は、本実施形態に適用される情報処理装置のハードウェア構成を示す図である。CPU(中央処理装置)101は、後述する図3の各機能、および図4の動作手順に相当するプログラムを実行する。ROM102は、上記プログラムに相当するプログラムコードなどを格納する。RAM103は、上記プログラムを実行する際のワークエリアとして利用される。記憶装置104は、本実施形態で利用される各種データを記憶する装置であって、例えばハードディスクなどに相当する。表示部105は、画像を画面上に表示させる。これは、例えば入力された画像データが表す画像を画面上に表示する液晶ディスプレイ、上記画像を外部の物体面上に投影するプロジェクタ、あるいは、上記画像が表すビットマップデータを外部の表示機器に送信して表示させる表示制御機器などに相当する。画面撮影用カメラ106は、上記表示部105によって画像が表示された画面上を撮影するカメラである。そして、このカメラ106は、上記CPUと協働して、後述するポインティングデバイスによって光線が照射された画面上の位置を検知する。ポインティングデバイス撮影用カメラ107は、このカメラが撮影可能な所定空間に存在する各種画像を撮影することができるカメラである。そして、このカメラ107は、上記CPUと協働して、上記所定空間に存在するポインティングデバイスの位置および角度を検知する。なお、上述した情報処理装置100は、上述したハードウェア構成を、1つの筐体に内蔵しているものとして利用されても良いが、複数の筐体に分離して協働するシステムとして利用されても良い。
[Embodiment 1]
FIG. 1 is a diagram illustrating a hardware configuration of an information processing apparatus applied to the present embodiment. A CPU (central processing unit) 101 executes a program corresponding to each function shown in FIG. 3 and an operation procedure shown in FIG. The
図2は、本実施形態に適用される情報処理装置100が室内に設置されている場合の外観図である。この図では、図1で説明した構成と同じものには同一の符号を付け、その詳細な説明を省略する。この例では、情報処理装置100は、操作者の頭上に設置されているものとする。表示部105は、プロジェクタとして画像を投影するものとして機能する。表示部105から投影された画像は、画面201上に表示される。画面撮影用カメラ106は、その画面201を少なくとも撮影範囲に含むように、室内を撮影する。ポインティングデバイス撮影用カメラ107は、後述するポインティングデバイス202が存在する可能性を有する空間を撮影する。操作者200は、レーザポインタ等で代表される、所定の光線を照射することによって画面上を指し示すポインティングデバイス202を保持している。ポインティングデバイス202から発せられた所定の光線は、画面201上に照射される。そして画面201上に、他の領域よりも極めて高い輝度で反射する点203(ポインタ輝点)を形成する。なお、画面撮影用カメラ106およびCPU101などが協働して、画面201上にポインタ輝点203があることを検知する。また、ポインティングデバイス撮影用カメラ107およびCPU101などが協働して、ポインティングデバイス202の位置と角度を検知する。
FIG. 2 is an external view when the
図3は、情報処理装置の機能構成を示す図である。上述したように、この図3に示す各機能は、図1のCPU101を中心とした各部の協働処理によって実現されるものとする。しかしながら、本発明はこれに限らず、これから説明する各機能に専用の処理部をハードウェア構成として備え、それぞれの機能を独立して実行するような装置またはシステムに適用しても構わない。画像出力部301は、上述した図1の表示部105と同様であり、図2に示す画面201上に画像を表示する処理部である。画像入力部302aは上述したカメラ106に相当し、画像入力部302bは上述したカメラ107に相当する。ポインタ輝点位置検知部303は、画像入力部302aから入力された画像に基づいて、図2に示したポインタ輝点203の位置、即ち、画面201上における座標を検知する処理部である。なお、この検知機能は、画像入力部302a(カメラ106)の内蔵機能として備えていても良いし、画像入力部302aが上記CPU101と協働して実行しても良い。ポインティングデバイス位置検知部304は、画像入力部302bから入力された画像に基づいて、ポインティングデバイスの位置を検知する処理部である。ポインティングデバイス角度検知部305は、画像入力部302bから入力された画像に基づいて、ポインティングデバイスの角度を検知する処理部である。この角度の検知方法は、後段の処理において、複数のポインタ輝点とポインティングデバイスの対応関係が判別できる方法であれば、特に限定はされない。例えば、「図2に示した画面201に正対し、操作者がポインティングデバイス(レーザポインタ)をその画面に向かって照射した角度に対して、左右の何れに何度傾いているか」などを検知すれば良い。なお、上記ポインティングデバイス位置検知部304とポインティングデバイス角度検知部305の2つの機能は、同じ入力部から入力された画像に基づいてポインティングデバイスの状態を解析するものとして、1つの機能として見なすこともできるであろう。ポインタ識別部306は、検知部303が検知したポインタ輝点の位置(座標)と、検知部304、305が検知したポインティングデバイスの位置および角度とに基づき、各ポインタ輝点とそこに光線を照射したポインティングデバイスとの対応関係を特定する。サイズ設定部307は、上記特定された対応関係に基づいて、各ポインタ輝点とそれに対応するポインティングデバイスとの距離を求める。なお、この距離は、ポインタ輝点位置検知部303が検知したポインタ輝点の位置と、ポインティングデバイス位置検知部304が検知したポインティングデバイスの位置から求めることができる。そして、サイズ設定部307は、上記距離に基づくサイズの付加画像を生成する。そのサイズは、距離が長いほど大きくなるように設定する。更にサイズ設定部307は、サイズが調整された付加画像を、該当するポインタ輝点203の位置もしくはその輝点付近に重畳して表示させるよう、画像出力部301による画像の表示を制御する。指示判定部308は、サイズ設定部307で生成され、画像出力部301を介して表示された付加画像に対する、操作者200によるポインティングデバイス202を用いた指示の有無を判定する。この判定は、ポインタ輝点位置検知部303が、画面201上に表示された付加画像に対する、ポインタ輝点203の相対移動の様子を検知した結果に基づいて行われる。即ち、上記指示は、操作者200がポインティングデバイス202を動かすこと、それに合わせてポインタ輝点203が移動することによって行われる。従って、指示判定部308は、ポインタ輝点位置検知部303から、ポインタ輝点203の位置を示す情報を定期的に受け取り、その位置の変化を認識する。また、指示判定部308は、サイズ設定部307あるいは画像出力部301から、どのような付加画像が表示されているのかを示す情報も定期的に受け取る。その上で、指示判定部308は、表示中の付加画像の位置と上記ポインタ輝点203の位置との相関関係をリアルタイムに検知する。そして、これらの相関関係が所定の条件を満たした場合には、操作者200によって、所定の指示コマンドが入力されたものとして判断する。指示実行部309は、上記指示コマンドが入力されたことに応答して、その指示コマンドに相当する動作を実行する。
FIG. 3 is a diagram illustrating a functional configuration of the information processing apparatus. As described above, each function shown in FIG. 3 is realized by the cooperative processing of each unit centering on the
図4は、情報処理装置100の動作手順を示すフローチャートである。まずステップS401では、画像入力部302aおよび302bによって、カメラ106、107のそれぞれが撮影した画像を入力する。ステップS402では、ポインタ輝点位置検知部303によって、画像入力部302aが入力した撮影画像に基づいて、ポインタ輝点の在るか否かを検知する。その結果、もしポインタ輝点を検知した場合には、ステップS403に進み、もしポインタ輝点を検知していない場合には、ステップS401に処理を戻す。なお、ポインタ輝点位置検知部303によるポインタ輝点の検知は、撮影画像中に特定の明度、色、形状が在ることを認識することによって行われる。たとえば、ポインティングデバイス202として、緑色の光線を用いて小さく丸い領域を照射するようなレーザポインタを想定する場合には、ポインタ輝点位置検知部303は、「所定の閾値以上の明度、緑色、丸い形状」の画像部分を検知すれば良い。ここでは、ポインタ輝点が2つ以上検知された場合も想定し、複数のポインタ輝点の候補があった場合には、それぞれをポインタ輝点として、後段の処理を行う。上記ステップS403では、上記ステップで検知されたポインタ輝点の位置(座標)を検知する。もし複数のポインタ輝点が在る場合には、それぞれの位置を検知し、その位置を示す情報を保持しておく。ステップS404では、ポインティングデバイス位置検知部304によって、カメラ107が撮影可能な空間に存在するポインティングデバイスの位置を検知する。これに続いて、ステップS405では、ポインティングデバイス角度検知部305によって、上記ポインティングデバイスが存在する角度を検知する。この角度は、ポインティングデバイスが何れの方角に向けて光線を照射しているかを知るために必要であるので、そのポインティングデバイスの光線が照射されるのが何れの方角であるかを検知する。ここでは、ポインティングデバイスが2つ以上検知された場合も想定し、それぞれのポインティングデバイスの位置と角度を示す情報は組にして保持することとする。ステップS406では、ポインタ識別部306によって、何れのポインタ輝点が何れのポインティングデバイスから照射された光線で形成されたものであるか、その対応関係を特定する。この特定は、ステップS402で検知されたポインタ輝点と、ステップS404、S405で検知されたポインティングデバイスの位置および角度に基づいて行われる。例えば、もし、ポインタ輝点が1つ検知され、ポインティングデバイスの位置と角度が1組検知された場合には、それらが対応付けされるであろう。一方、もし、ポインタ輝点が2つ検知され、ポインティングデバイスの位置と角度が2組検知された場合には、位置と角度の組を解析することで、それぞれのポインタ輝点に相応しいポインティングデバイスが対応付けられる。ステップS407では、サイズ設定部307によって、上記特定された対応関係に基づいて、それぞれのポインタ輝点からそれに対応するポインティングデバイスまでの距離を算出する。この距離の更なる具体例としては、ポインタ輝点の重心から、ポインティングデバイスの光線を発射する先端部までの距離などが相当する。更に、サイズ設定部307は、上記距離に応じて、それに対応するポインタ輝点、またはその輝点の周囲に表示するべき付加画像のサイズを設定する。なお、上記付加画像の例については後述する。ステップS408では、サイズ設定部307からの命令に基づいて、サイズが設定された付加画像を画像出力部301から表示させる。このステップS408では、何らかの付加画像を単純に表示する例に適用して構わない。その一方で、後述する図5のように、付加画像を表示するべき状態か否かの判定を更に行った後に、必要に応じて付加画像を表示するようにしても良い。
FIG. 4 is a flowchart showing an operation procedure of the
図5は、ステップS408の段階で、画像や文書などの何らかのオブジェクトを画面201上に表示している最中に、ポインティングデバイス(レーザポインタ)が光線を照射し、付加画像を表示させた場合の例を示す図である。この場合、ステップS402では、「ポインタ輝点があるか否か」だけでなく、「ポインタ輝点203が画像や文書などのオブジェクトを指し示している状態であるか」も判断する必要があるであろう。そして、ステップS402において、「ポインタ輝点が存在し、そのポインタ輝点203が画像や文書などのオブジェクトを指し示している状態である場合」に、ステップS403に進むようにすれば良い。この図5では、画像や文書などの何らかのオブジェクトを表示している際に、それをポインティングデバイスで指し示していることを条件に、付加画像を表示することになる。従って、もしオブジェクトが表示されていない画面201をポインティングデバイスで指し示したとしても、ステップS401とS402を繰り返すことになる。図5(a)と(c)は、ポインタ輝点からそれに対応するポインティングデバイスまでの距離が近い場合の例を示している。図5(b)と(d)は、ポインタ輝点からそれに対応するポインティングデバイスまでの距離が遠い場合の例を示している。図5(a)と(b)は、図2に示した室内上部から操作者200や画面201などを撮影した際の様子を示している。また、図5(c)と(d)は、画面201に操作者が正対した状態において、操作者によって見える画面201の様子を示している。これら図における符号501は、ポインティングデバイスの光線を発射する先端部を示しており、符号502は、ポインタ輝点の位置を示している。図5(c)と(d)における画面201内には、例えば画像や文書などのオブジェクト503が予め表示されている。更に、本実施形態では、操作者200がポインティングデバイスによって各種の操作ができるよう、ガイド表示としての付加画像504を表示する。本実施形態で適用される付加画像504(ガイド表示)は、図7(a)に示されるような画像で構成される。この付加画像504は、その中心から8方向に向かって放射線状に辺を備え、それら8辺の各先端部に丸い画像部を備えている。実際には、図5(c)と(d)に示すように、付加画像504がオブジェクト503に重なって表示される。ここで、図5(c)と(d)を見比べると判るように、「ポインタ輝点からそれに対応するポインティングデバイスまでの距離が近い場合」よりも、「ポインタ輝点からそれに対応するポインティングデバイスまでの距離が遠い場合」のほうが、各8辺の長さは長い。即ち、付加画像504の中央部から先端部である丸い画像部までの距離が長い。この理由の1つは、図5(b)のような遠方の操作者200から見ても、付加画像504を見え易くする為である。別の理由の1つは、遠方のポインティングデバイスが少し動いただけで付加画像504の中央部から端部まで移動してしまうことにより、操作者200の意図に反した指示をしてしまう誤りを回避する為である。次に、図5(c)と(d)および図7(b)を参照しながら、ポインタ輝点203を移動させることによる操作者の指示例を簡単に説明しておく。まず最初に、操作者200によって、オブジェクト503にポインタ輝点203が照射されるようにポインティングデバイスが操作されているものとする。従って、画面201上には、この照射されたオブジェクト503を中心とした、図示するような付加画像504が操作ガイドとして表示されている。本実施形態では、操作者200が、この状態から、ポインタ輝点203を8方向のいずれかに移動させることによって指示を行うものとする。具体的には、ポインタ輝点203が、図7(b)に示す領域AからHの何れかに入り、それに続けてオブジェクト503上に戻った場合に、所定の処理を行う指示が発生したものと判断する。例えば、ポインタ輝点203が一旦領域Aに入り、それに続けてオブジェクト503上に戻った場合には、「オブジェクト503に対して処理Aを行う」という指示が発生したものと判断する。また、ポインタ輝点203が一旦領域Bに入り、それに続けてオブジェクト503上に戻った場合には、「オブジェクト503に対して処理Bを行う」という指示が発生したものと判断する。他の領域C〜Hについても、ポインタ輝点203が入った領域に対応して、処理C〜Hの指示が発生したものとして判断する。なお、この処理Aは例えば「オブジェクトの一時記憶(コピー)」であり、処理Bは「一時記憶しているオブジェクトの貼り付け」である。また、処理Cは「オブジェクトの削除」であり、処理Dは「オブジェクトの切り取り(表示中のオブジェクトの削除&一時記憶)」である。
FIG. 5 shows a case where the pointing device (laser pointer) emits a light beam and displays an additional image while an object such as an image or a document is being displayed on the
ステップS409では、指示判定部308によって、上記図5で説明したようなオブジェクト503に対する指示が発生したか否かを判断する。これは、ポインタ輝点203が領域A〜Hの何れかに移動した後、オブジェクト503上に戻ったことを検知することによって実現される。ここで指示があった場合には、ステップS410に進む。ステップS410では、指示判定部308によって、図7(b)に示した領域A〜Hの何れにポインタ輝点203が入ったかに基づいて、その指示が処理AからHの何れであるか決定する。ステップS411では、指示実行部309によって、上記決定が成された処理を、オブジェクト503に対する処理として実行する。
In step S409, the
図6は、上述した「ポインタ輝点が2つ検知され、ポインティングデバイスの位置と角度が2組検知された場合」の付加画像504の表示例である。上述したように、それぞれのポインタ輝点603、604は、それぞれのポインティングデバイスの位置と角度の組を解析することで、それぞれのポインタ輝点が何れのポインティングデバイスから照射された光線に対応しているか判る。従って、図6のように、複数の操作者から照射される光線が画面201に到達する前に交差したとしても、情報処理装置100は、それぞれの操作者に対応する輝点を特定できている。よって、上記図4の各ステップの動作手順に従えば、ポインタ輝点603、604に対して、それぞれ適切なサイズの付加画像(ここではそれぞれ605、606とする)を表示することができる。なお、上述した図4の説明では、説明を簡単にするため、ステップS409〜411の処理について、1つのポインタ輝点に対する説明をした。しかしながら、ポインタ輝点(付加画像)がN個表示されることになった場合には、ステップS409〜411はN個分が並列して実行される。
FIG. 6 is a display example of the
本実施形態によれば、それぞれの光線が画面上に照射された位置と、その位置に光線を照射したポインティングデバイスとの対応関係を正確に特定することができる。それによって、例えば、図6のように、複数の操作者から光線が途中で交差するように照射されたとしても、それぞれのポインタ輝点を誤判断なく対応付けることができる。従って、それぞれの操作者にガイド表示として示す付加画像のサイズも、それぞれに適切なものになる。 According to the present embodiment, it is possible to accurately identify the correspondence between the position where each light beam is irradiated on the screen and the pointing device that irradiated the light beam at that position. Thereby, for example, as shown in FIG. 6, even when the light beams are irradiated from a plurality of operators so as to cross each other on the way, the respective pointer bright spots can be associated without misjudgment. Therefore, the size of the additional image shown as a guide display to each operator is also appropriate for each.
[変形例]
なお、上記実施形態では、ポインティングデバイス位置検知部304は、カメラ107によって撮影された画像からポインティングデバイスを検知したが、本発明はこれに限らない。例えば、赤外線を照射してこの反射光を検知するセンサを用い、このセンサが取得した距離情報に基づいてポインティングデバイスの形状や位置や角度などを取得しても良いであろう。
[Modification]
In the above embodiment, the pointing device
また、カメラ106と107は別体ではなく、画面201とポインティングデバイス202の両方を撮影範囲とする単一のカメラを適用しても構わない。
In addition, the
また、上記実施形態で説明した付加画像は一例であり、本発明は別の付加画像にも適用が可能である。例えば、8辺からなる付加画像ではなく、これと同様の考え方に基づいた4辺や16辺の付加画像をガイド表示として利用しても構わない。更には、ポインタ輝点による指示のためのガイド表示ではなく、ポインタ輝点の周囲に表示するべき付加画像であれば適宜応用できる。 The additional image described in the above embodiment is an example, and the present invention can be applied to another additional image. For example, instead of an additional image consisting of 8 sides, an additional image of 4 sides or 16 sides based on the same concept may be used as the guide display. Furthermore, it is applicable as long as it is an additional image to be displayed around the pointer bright spot instead of the guide display for the instruction by the pointer bright spot.
なお、上述した各実施形態は、以下の処理を実行することによっても実現される。即ち、上記実施形態の各工程や機能を実現するソフトウェア(コンピュータプログラム)を、ネットワークや記憶媒体を介してシステムに供給し、そのシステムのコンピュータ(またはCPU等)が上記プログラムを読み込んで実行する処理である。上記コンピュータプログラムや、それを記憶したコンピュータ可読記憶媒体も本発明の範疇に含まれる。 Each embodiment described above is also realized by executing the following processing. That is, a process of supplying software (computer program) that realizes each process and function of the above-described embodiment to the system via a network or a storage medium, and the computer (or CPU or the like) of the system reads and executes the program. It is. The computer program and a computer-readable storage medium storing the computer program are also included in the scope of the present invention.
Claims (7)
所定空間に存在するポインティングデバイスの位置および角度を検知する第2検知手段と、
前記第2検知手段で検知された位置および角度に基づいて、前記第1検知手段で検知された位置に光線を照射したポインティングデバイスを特定する特定手段と
を備えることを特徴とする情報処理装置。 First detection means for detecting a position on the screen irradiated with the light beam;
Second detection means for detecting the position and angle of the pointing device existing in the predetermined space;
An information processing apparatus comprising: a specifying unit that specifies a pointing device that irradiates a light beam at a position detected by the first detection unit based on a position and an angle detected by the second detection unit.
前記特定手段は、前記第2検知手段で検知された複数の位置および角度からなる組に基づいて、それぞれの組が表す位置および角度に対応する、前記第1検知手段で検知された位置を特定することにより、前記第1検知手段で検知された複数の位置のそれぞれに光線を照射したポインティングデバイスを特定することを特徴とする請求項1に記載の情報処理装置。 When the first detection means detects a plurality of positions as positions on the screen irradiated with light, and the second detection means detects the positions and angles of a plurality of pointing devices existing in a predetermined space,
The specifying unit specifies a position detected by the first detecting unit corresponding to a position and an angle represented by each set based on a set of a plurality of positions and angles detected by the second detecting unit. The information processing apparatus according to claim 1, wherein a pointing device that irradiates light to each of a plurality of positions detected by the first detection unit is specified.
前記表示制御手段は、前記サイズ設定手段によりサイズが設定された付加画像を、前記画面上に表示させることを特徴とする請求項3に記載の情報処理装置。 And a size setting means for setting the size of the additional image according to a distance from a position detected by the first detection means to a position of a pointing device that irradiates the position with light.
The information processing apparatus according to claim 3, wherein the display control unit displays an additional image whose size is set by the size setting unit on the screen.
前記第1検知手段によって、光線が照射された画面上の位置を検知する第1検知工程と、
前記第2検知手段によって、所定空間に存在するポインティングデバイスの位置および角度を検知する第2検知工程と、
前記特定手段によって、前記第2検知工程で検知された位置および角度に基づいて、前記第1検知工程で検知された位置に光線を照射したポインティングデバイスを特定する特定工程
とを備えることを特徴とする制御方法。 A method for controlling an information processing apparatus including first detection means, second detection means, and identification means,
A first detection step of detecting a position on the screen irradiated with light by the first detection means;
A second detection step of detecting the position and angle of the pointing device existing in the predetermined space by the second detection means;
A specifying step of specifying a pointing device that irradiates light at the position detected in the first detection step based on the position and angle detected in the second detection step by the specifying means. Control method to do.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010149480A JP2012014361A (en) | 2010-06-30 | 2010-06-30 | Information processor and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010149480A JP2012014361A (en) | 2010-06-30 | 2010-06-30 | Information processor and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012014361A true JP2012014361A (en) | 2012-01-19 |
Family
ID=45600730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010149480A Pending JP2012014361A (en) | 2010-06-30 | 2010-06-30 | Information processor and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012014361A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014059702A (en) * | 2012-09-18 | 2014-04-03 | Ricoh Co Ltd | Information processing device, image processing program, and projection system |
WO2018012062A1 (en) * | 2016-07-12 | 2018-01-18 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
-
2010
- 2010-06-30 JP JP2010149480A patent/JP2012014361A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014059702A (en) * | 2012-09-18 | 2014-04-03 | Ricoh Co Ltd | Information processing device, image processing program, and projection system |
WO2018012062A1 (en) * | 2016-07-12 | 2018-01-18 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9535538B2 (en) | System, information processing apparatus, and information processing method | |
US11029255B2 (en) | Defect inspection device, defect inspection method, and program | |
JP5680976B2 (en) | Electronic blackboard system and program | |
JP7058471B2 (en) | Image processing device, image processing method | |
US20130141561A1 (en) | Method of analyzing linearity of shot image, image obtaining method, and image obtaining apparatus | |
CN104658462B (en) | The control method of projector and projector | |
US20140036070A1 (en) | Method and apparatus for detecting or checking an arrangement of laboratory articles on a work area of a laboratory work station | |
CN105700736A (en) | Input operation detection device, projection apparatus, interactive whiteboard and digital signage device | |
KR101523046B1 (en) | Distance measurement apparatus of an image processing-based | |
EP3226090A1 (en) | Operation support system, operation support device and operation support method | |
KR101535801B1 (en) | Process inspection device, method and system for assembling process in product manufacturing using depth map sensors | |
JP2012014361A (en) | Information processor and control method thereof | |
KR102028864B1 (en) | Microscope apparatus and method for calibrating position of light source | |
JP2007010419A (en) | Three-dimensional shape of object verifying system | |
US20230188855A1 (en) | Installation assistance apparatus, installation assistance method, and non-transitory computer-readable storage medium | |
CN114543697A (en) | Measuring apparatus, control apparatus, and control method | |
US11606541B2 (en) | Projection control device, projection control method and projection control system | |
CN103854009A (en) | Information processing method and electronic equipment | |
JP2002122552A (en) | Defect inspection device and method | |
CN112840640B (en) | Projection control device, projection control method, and projection control system | |
US20230419735A1 (en) | Information processing device, information processing method, and storage medium | |
US11507245B1 (en) | Systems and methods for enhancing image content captured by a machine vision camera | |
KR20190027081A (en) | Electronic apparatus, method for controlling thereof and the computer readable recording medium | |
JP4665808B2 (en) | Detection device | |
KR101965045B1 (en) | The generating method for screen rotation effect using short focal length project |