JP2012014361A - Information processor and control method thereof - Google Patents

Information processor and control method thereof Download PDF

Info

Publication number
JP2012014361A
JP2012014361A JP2010149480A JP2010149480A JP2012014361A JP 2012014361 A JP2012014361 A JP 2012014361A JP 2010149480 A JP2010149480 A JP 2010149480A JP 2010149480 A JP2010149480 A JP 2010149480A JP 2012014361 A JP2012014361 A JP 2012014361A
Authority
JP
Japan
Prior art keywords
pointing device
detected
pointer
unit
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010149480A
Other languages
Japanese (ja)
Inventor
Hideo Kuboyama
英生 久保山
Tatsuya Tomono
達也 友野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010149480A priority Critical patent/JP2012014361A/en
Publication of JP2012014361A publication Critical patent/JP2012014361A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To identify a corresponding relationship between a position on a screen to which respective beams are irradiated and a pointing device irradiating beams to the position.SOLUTION: An information processor includes: first detection means 106 which detects a position 203 on a screen to which beams are irradiated; second detection means 107 which detects a position and an angle of a pointing device 202 existing in a predetermined space; and identifying means which identifies a pointing device irradiating beams to the position detected by the first detection means.

Description

本発明は、レーザポインタなどのポインティングデバイスによって指し示された点を特定する技術に関する。   The present invention relates to a technique for specifying a point pointed by a pointing device such as a laser pointer.

従来、所定の画面上にレーザポインタによって光線を照射するシステムにおいて、その光線が照射された位置を検出する技術が知られている。このような装置は、一般的には1人の操作者によって光線が照射されるため、どのレーザポインタがどの光線を出しているかなどを特定する必要は無い。   2. Description of the Related Art Conventionally, there is known a technique for detecting a position irradiated with a light beam in a system that irradiates a light beam on a predetermined screen with a laser pointer. Such an apparatus is generally irradiated with a light beam by one operator, and therefore it is not necessary to specify which laser pointer emits which light beam.

通常、画面からレーザポインタまでの距離が遠い場合には、レーザポインタを少し動かすだけで、その光線が照射された点は大きく動く。その一方で、画面からレーザポインタまでの距離が近い場合には、レーザポインタを少し動かすだけでは、その光線が照射された点は殆ど動かない。   Normally, when the distance from the screen to the laser pointer is far, the point irradiated with the light beam moves greatly by moving the laser pointer a little. On the other hand, when the distance from the screen to the laser pointer is short, the point irradiated with the light beam hardly moves even if the laser pointer is moved a little.

特開平9−80372号公報Japanese Patent Laid-Open No. 9-80372

例えば、複数の操作者が同時にレーザポインタを照射するような場面では、画面上に複数のレーザポインタによって光線が照射されるであろう。このような場合には、それぞれの光線が照射された位置は、どの操作者によって照射された位置か解りにくい。もし、それぞれの照射位置に対して、それぞれの操作者に合った付加画像などを表示させようとした場合には、その表示を行わせる装置自身が、上記照射位置と操作者との関係を適切に知る必要がある。   For example, in a scene where a plurality of operators simultaneously irradiate laser pointers, a light beam will be irradiated by a plurality of laser pointers on the screen. In such a case, it is difficult to determine which operator has irradiated each light beam. If an additional image suitable for each operator is to be displayed for each irradiation position, the device that performs the display itself appropriately sets the relationship between the irradiation position and the operator. Need to know.

本発明は上記点に鑑みてなされたものであり、それぞれの光線が画面上に照射された位置と、その位置に光線を照射したポインティングデバイスとの対応関係を特定することを主な目的とする。   The present invention has been made in view of the above points, and has as its main object to specify the correspondence between the position where each light beam is irradiated on the screen and the pointing device that irradiated the light beam at that position. .

上記目的を達成するために、本発明の情報処理装置によれば、光線が照射された画面上の位置を検知する第1検知手段と、所定空間に存在するポインティングデバイスの位置および角度を検知する第2検知手段と、前記第2検知手段で検知された位置および角度に基づいて、前記第1検知手段で検知された位置に光線を照射したポインティングデバイスを特定する特定手段とを備えることを特徴とする。   In order to achieve the above object, according to the information processing apparatus of the present invention, the first detection means for detecting the position on the screen irradiated with the light beam, and the position and angle of the pointing device existing in the predetermined space are detected. And a second detection unit, and a specifying unit that specifies a pointing device that irradiates the position detected by the first detection unit with a light beam based on the position and the angle detected by the second detection unit. And

本発明によれば、それぞれの光線が画面上に照射された位置と、その位置に光線を照射したポインティングデバイスとの対応関係を特定することができる。   ADVANTAGE OF THE INVENTION According to this invention, the correspondence of the position where each light ray was irradiated on the screen and the pointing device which irradiated the light ray to the position can be specified.

情報処理装置のハードウェア構成を示す図The figure which shows the hardware constitutions of information processing apparatus 情報処理装置が室内に設置されている場合の外観図External view when the information processing device is installed indoors 情報処理装置の機能構成を示す図The figure which shows the function structure of information processing apparatus 情報処理装置の動作手順を示すフローチャートFlow chart showing operation procedure of information processing apparatus 画面上に表示される付加画像の様子を示す図The figure which shows the appearance of the additional image which is displayed on the screen 複数のポインティングデバイスから光線が照射された様子を示す図The figure which shows a mode that the light ray was irradiated from the some pointing device 付加画像(ガイド表示)を説明する図Diagram explaining additional image (guide display)

[実施形態1]
図1は、本実施形態に適用される情報処理装置のハードウェア構成を示す図である。CPU(中央処理装置)101は、後述する図3の各機能、および図4の動作手順に相当するプログラムを実行する。ROM102は、上記プログラムに相当するプログラムコードなどを格納する。RAM103は、上記プログラムを実行する際のワークエリアとして利用される。記憶装置104は、本実施形態で利用される各種データを記憶する装置であって、例えばハードディスクなどに相当する。表示部105は、画像を画面上に表示させる。これは、例えば入力された画像データが表す画像を画面上に表示する液晶ディスプレイ、上記画像を外部の物体面上に投影するプロジェクタ、あるいは、上記画像が表すビットマップデータを外部の表示機器に送信して表示させる表示制御機器などに相当する。画面撮影用カメラ106は、上記表示部105によって画像が表示された画面上を撮影するカメラである。そして、このカメラ106は、上記CPUと協働して、後述するポインティングデバイスによって光線が照射された画面上の位置を検知する。ポインティングデバイス撮影用カメラ107は、このカメラが撮影可能な所定空間に存在する各種画像を撮影することができるカメラである。そして、このカメラ107は、上記CPUと協働して、上記所定空間に存在するポインティングデバイスの位置および角度を検知する。なお、上述した情報処理装置100は、上述したハードウェア構成を、1つの筐体に内蔵しているものとして利用されても良いが、複数の筐体に分離して協働するシステムとして利用されても良い。
[Embodiment 1]
FIG. 1 is a diagram illustrating a hardware configuration of an information processing apparatus applied to the present embodiment. A CPU (central processing unit) 101 executes a program corresponding to each function shown in FIG. 3 and an operation procedure shown in FIG. The ROM 102 stores a program code corresponding to the above program. The RAM 103 is used as a work area when executing the program. The storage device 104 is a device that stores various data used in the present embodiment, and corresponds to, for example, a hard disk. The display unit 105 displays an image on the screen. For example, a liquid crystal display that displays an image represented by input image data on a screen, a projector that projects the image on an external object surface, or bitmap data represented by the image is transmitted to an external display device. This corresponds to a display control device to be displayed. The screen photographing camera 106 is a camera that photographs the screen on which the image is displayed by the display unit 105. The camera 106 detects the position on the screen irradiated with light by a pointing device described later in cooperation with the CPU. The pointing device photographing camera 107 is a camera capable of photographing various images existing in a predetermined space that can be photographed by the camera. The camera 107 detects the position and angle of the pointing device existing in the predetermined space in cooperation with the CPU. Note that the information processing apparatus 100 described above may be used as the hardware configuration described above incorporated in one casing, but is used as a system that cooperates by separating into a plurality of casings. May be.

図2は、本実施形態に適用される情報処理装置100が室内に設置されている場合の外観図である。この図では、図1で説明した構成と同じものには同一の符号を付け、その詳細な説明を省略する。この例では、情報処理装置100は、操作者の頭上に設置されているものとする。表示部105は、プロジェクタとして画像を投影するものとして機能する。表示部105から投影された画像は、画面201上に表示される。画面撮影用カメラ106は、その画面201を少なくとも撮影範囲に含むように、室内を撮影する。ポインティングデバイス撮影用カメラ107は、後述するポインティングデバイス202が存在する可能性を有する空間を撮影する。操作者200は、レーザポインタ等で代表される、所定の光線を照射することによって画面上を指し示すポインティングデバイス202を保持している。ポインティングデバイス202から発せられた所定の光線は、画面201上に照射される。そして画面201上に、他の領域よりも極めて高い輝度で反射する点203(ポインタ輝点)を形成する。なお、画面撮影用カメラ106およびCPU101などが協働して、画面201上にポインタ輝点203があることを検知する。また、ポインティングデバイス撮影用カメラ107およびCPU101などが協働して、ポインティングデバイス202の位置と角度を検知する。   FIG. 2 is an external view when the information processing apparatus 100 applied to the present embodiment is installed indoors. In this figure, the same components as those described in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted. In this example, it is assumed that the information processing apparatus 100 is installed above the operator's head. The display unit 105 functions as a projector that projects an image. An image projected from the display unit 105 is displayed on the screen 201. The screen photographing camera 106 photographs the room so that the screen 201 is at least included in the photographing range. The pointing device photographing camera 107 photographs a space in which a pointing device 202 described later may exist. The operator 200 holds a pointing device 202, which is represented by a laser pointer or the like and points on the screen by irradiating a predetermined light beam. A predetermined light beam emitted from the pointing device 202 is irradiated on the screen 201. Then, a point 203 (pointer bright spot) is formed on the screen 201 that reflects with a much higher luminance than other areas. The screen photographing camera 106 and the CPU 101 cooperate to detect that the pointer bright spot 203 is on the screen 201. The pointing device photographing camera 107 and the CPU 101 cooperate to detect the position and angle of the pointing device 202.

図3は、情報処理装置の機能構成を示す図である。上述したように、この図3に示す各機能は、図1のCPU101を中心とした各部の協働処理によって実現されるものとする。しかしながら、本発明はこれに限らず、これから説明する各機能に専用の処理部をハードウェア構成として備え、それぞれの機能を独立して実行するような装置またはシステムに適用しても構わない。画像出力部301は、上述した図1の表示部105と同様であり、図2に示す画面201上に画像を表示する処理部である。画像入力部302aは上述したカメラ106に相当し、画像入力部302bは上述したカメラ107に相当する。ポインタ輝点位置検知部303は、画像入力部302aから入力された画像に基づいて、図2に示したポインタ輝点203の位置、即ち、画面201上における座標を検知する処理部である。なお、この検知機能は、画像入力部302a(カメラ106)の内蔵機能として備えていても良いし、画像入力部302aが上記CPU101と協働して実行しても良い。ポインティングデバイス位置検知部304は、画像入力部302bから入力された画像に基づいて、ポインティングデバイスの位置を検知する処理部である。ポインティングデバイス角度検知部305は、画像入力部302bから入力された画像に基づいて、ポインティングデバイスの角度を検知する処理部である。この角度の検知方法は、後段の処理において、複数のポインタ輝点とポインティングデバイスの対応関係が判別できる方法であれば、特に限定はされない。例えば、「図2に示した画面201に正対し、操作者がポインティングデバイス(レーザポインタ)をその画面に向かって照射した角度に対して、左右の何れに何度傾いているか」などを検知すれば良い。なお、上記ポインティングデバイス位置検知部304とポインティングデバイス角度検知部305の2つの機能は、同じ入力部から入力された画像に基づいてポインティングデバイスの状態を解析するものとして、1つの機能として見なすこともできるであろう。ポインタ識別部306は、検知部303が検知したポインタ輝点の位置(座標)と、検知部304、305が検知したポインティングデバイスの位置および角度とに基づき、各ポインタ輝点とそこに光線を照射したポインティングデバイスとの対応関係を特定する。サイズ設定部307は、上記特定された対応関係に基づいて、各ポインタ輝点とそれに対応するポインティングデバイスとの距離を求める。なお、この距離は、ポインタ輝点位置検知部303が検知したポインタ輝点の位置と、ポインティングデバイス位置検知部304が検知したポインティングデバイスの位置から求めることができる。そして、サイズ設定部307は、上記距離に基づくサイズの付加画像を生成する。そのサイズは、距離が長いほど大きくなるように設定する。更にサイズ設定部307は、サイズが調整された付加画像を、該当するポインタ輝点203の位置もしくはその輝点付近に重畳して表示させるよう、画像出力部301による画像の表示を制御する。指示判定部308は、サイズ設定部307で生成され、画像出力部301を介して表示された付加画像に対する、操作者200によるポインティングデバイス202を用いた指示の有無を判定する。この判定は、ポインタ輝点位置検知部303が、画面201上に表示された付加画像に対する、ポインタ輝点203の相対移動の様子を検知した結果に基づいて行われる。即ち、上記指示は、操作者200がポインティングデバイス202を動かすこと、それに合わせてポインタ輝点203が移動することによって行われる。従って、指示判定部308は、ポインタ輝点位置検知部303から、ポインタ輝点203の位置を示す情報を定期的に受け取り、その位置の変化を認識する。また、指示判定部308は、サイズ設定部307あるいは画像出力部301から、どのような付加画像が表示されているのかを示す情報も定期的に受け取る。その上で、指示判定部308は、表示中の付加画像の位置と上記ポインタ輝点203の位置との相関関係をリアルタイムに検知する。そして、これらの相関関係が所定の条件を満たした場合には、操作者200によって、所定の指示コマンドが入力されたものとして判断する。指示実行部309は、上記指示コマンドが入力されたことに応答して、その指示コマンドに相当する動作を実行する。   FIG. 3 is a diagram illustrating a functional configuration of the information processing apparatus. As described above, each function shown in FIG. 3 is realized by the cooperative processing of each unit centering on the CPU 101 in FIG. However, the present invention is not limited to this, and the present invention may be applied to an apparatus or system that includes a processing unit dedicated to each function described below as a hardware configuration and executes each function independently. The image output unit 301 is the same as the display unit 105 of FIG. 1 described above, and is a processing unit that displays an image on the screen 201 shown in FIG. The image input unit 302a corresponds to the camera 106 described above, and the image input unit 302b corresponds to the camera 107 described above. The pointer bright spot position detection unit 303 is a processing unit that detects the position of the pointer bright spot 203 shown in FIG. 2, that is, the coordinates on the screen 201, based on the image input from the image input unit 302a. This detection function may be provided as a built-in function of the image input unit 302a (camera 106), or the image input unit 302a may be executed in cooperation with the CPU 101. The pointing device position detection unit 304 is a processing unit that detects the position of the pointing device based on the image input from the image input unit 302b. The pointing device angle detection unit 305 is a processing unit that detects the angle of the pointing device based on the image input from the image input unit 302b. This angle detection method is not particularly limited as long as it can determine the correspondence between a plurality of pointer bright spots and the pointing device in the subsequent processing. For example, it is detected how many times it is tilted to the left or right with respect to the angle at which the operator irradiates the pointing device (laser pointer) toward the screen facing the screen 201 shown in FIG. It ’s fine. Note that the two functions of the pointing device position detection unit 304 and the pointing device angle detection unit 305 may be regarded as one function as an analysis of the state of the pointing device based on an image input from the same input unit. It will be possible. The pointer identifying unit 306 irradiates each pointer luminescent spot and a light beam based on the position (coordinates) of the pointer luminescent spot detected by the detecting unit 303 and the position and angle of the pointing device detected by the detecting units 304 and 305. The correspondence relationship with the pointing device is specified. The size setting unit 307 obtains the distance between each pointer bright spot and the corresponding pointing device based on the identified correspondence. This distance can be obtained from the position of the pointer bright spot detected by the pointer bright spot position detection unit 303 and the position of the pointing device detected by the pointing device position detection unit 304. Then, the size setting unit 307 generates an additional image having a size based on the distance. The size is set so as to increase as the distance increases. Further, the size setting unit 307 controls the display of the image by the image output unit 301 so that the additional image whose size has been adjusted is displayed superimposed on the position of the corresponding pointer bright spot 203 or in the vicinity of the bright spot. The instruction determination unit 308 determines whether or not there is an instruction using the pointing device 202 by the operator 200 for the additional image generated by the size setting unit 307 and displayed via the image output unit 301. This determination is performed based on the result of the pointer bright spot position detection unit 303 detecting the relative movement of the pointer bright spot 203 with respect to the additional image displayed on the screen 201. That is, the above instruction is given when the operator 200 moves the pointing device 202 and the pointer bright spot 203 moves accordingly. Therefore, the instruction determination unit 308 periodically receives information indicating the position of the pointer bright spot 203 from the pointer bright spot position detection unit 303 and recognizes the change in the position. The instruction determination unit 308 also periodically receives information indicating what additional image is displayed from the size setting unit 307 or the image output unit 301. In addition, the instruction determination unit 308 detects the correlation between the position of the additional image being displayed and the position of the pointer bright spot 203 in real time. If these correlations satisfy a predetermined condition, it is determined that the operator 200 has input a predetermined instruction command. The instruction execution unit 309 executes an operation corresponding to the instruction command in response to the input of the instruction command.

図4は、情報処理装置100の動作手順を示すフローチャートである。まずステップS401では、画像入力部302aおよび302bによって、カメラ106、107のそれぞれが撮影した画像を入力する。ステップS402では、ポインタ輝点位置検知部303によって、画像入力部302aが入力した撮影画像に基づいて、ポインタ輝点の在るか否かを検知する。その結果、もしポインタ輝点を検知した場合には、ステップS403に進み、もしポインタ輝点を検知していない場合には、ステップS401に処理を戻す。なお、ポインタ輝点位置検知部303によるポインタ輝点の検知は、撮影画像中に特定の明度、色、形状が在ることを認識することによって行われる。たとえば、ポインティングデバイス202として、緑色の光線を用いて小さく丸い領域を照射するようなレーザポインタを想定する場合には、ポインタ輝点位置検知部303は、「所定の閾値以上の明度、緑色、丸い形状」の画像部分を検知すれば良い。ここでは、ポインタ輝点が2つ以上検知された場合も想定し、複数のポインタ輝点の候補があった場合には、それぞれをポインタ輝点として、後段の処理を行う。上記ステップS403では、上記ステップで検知されたポインタ輝点の位置(座標)を検知する。もし複数のポインタ輝点が在る場合には、それぞれの位置を検知し、その位置を示す情報を保持しておく。ステップS404では、ポインティングデバイス位置検知部304によって、カメラ107が撮影可能な空間に存在するポインティングデバイスの位置を検知する。これに続いて、ステップS405では、ポインティングデバイス角度検知部305によって、上記ポインティングデバイスが存在する角度を検知する。この角度は、ポインティングデバイスが何れの方角に向けて光線を照射しているかを知るために必要であるので、そのポインティングデバイスの光線が照射されるのが何れの方角であるかを検知する。ここでは、ポインティングデバイスが2つ以上検知された場合も想定し、それぞれのポインティングデバイスの位置と角度を示す情報は組にして保持することとする。ステップS406では、ポインタ識別部306によって、何れのポインタ輝点が何れのポインティングデバイスから照射された光線で形成されたものであるか、その対応関係を特定する。この特定は、ステップS402で検知されたポインタ輝点と、ステップS404、S405で検知されたポインティングデバイスの位置および角度に基づいて行われる。例えば、もし、ポインタ輝点が1つ検知され、ポインティングデバイスの位置と角度が1組検知された場合には、それらが対応付けされるであろう。一方、もし、ポインタ輝点が2つ検知され、ポインティングデバイスの位置と角度が2組検知された場合には、位置と角度の組を解析することで、それぞれのポインタ輝点に相応しいポインティングデバイスが対応付けられる。ステップS407では、サイズ設定部307によって、上記特定された対応関係に基づいて、それぞれのポインタ輝点からそれに対応するポインティングデバイスまでの距離を算出する。この距離の更なる具体例としては、ポインタ輝点の重心から、ポインティングデバイスの光線を発射する先端部までの距離などが相当する。更に、サイズ設定部307は、上記距離に応じて、それに対応するポインタ輝点、またはその輝点の周囲に表示するべき付加画像のサイズを設定する。なお、上記付加画像の例については後述する。ステップS408では、サイズ設定部307からの命令に基づいて、サイズが設定された付加画像を画像出力部301から表示させる。このステップS408では、何らかの付加画像を単純に表示する例に適用して構わない。その一方で、後述する図5のように、付加画像を表示するべき状態か否かの判定を更に行った後に、必要に応じて付加画像を表示するようにしても良い。   FIG. 4 is a flowchart showing an operation procedure of the information processing apparatus 100. First, in step S401, images captured by the cameras 106 and 107 are input by the image input units 302a and 302b. In step S402, the pointer bright spot position detection unit 303 detects whether or not there is a pointer bright spot based on the captured image input by the image input unit 302a. As a result, if a pointer bright spot is detected, the process proceeds to step S403. If a pointer bright spot is not detected, the process returns to step S401. Note that the pointer bright spot detection by the pointer bright spot position detection unit 303 is performed by recognizing that a specific brightness, color, and shape are present in the captured image. For example, when the pointing device 202 is assumed to be a laser pointer that irradiates a small round area using a green light beam, the pointer bright spot position detection unit 303 reads “lightness above a predetermined threshold, green, round It is only necessary to detect the image portion of “shape”. Here, it is assumed that two or more pointer luminescent spots are detected, and when there are a plurality of pointer luminescent spot candidates, the subsequent processes are performed using each as a pointer luminescent spot. In step S403, the position (coordinates) of the pointer bright spot detected in the above step is detected. If there are a plurality of pointer bright spots, each position is detected and information indicating the position is held. In step S <b> 404, the pointing device position detection unit 304 detects the position of the pointing device that exists in a space where the camera 107 can shoot. Subsequently, in step S405, the pointing device angle detection unit 305 detects the angle at which the pointing device is present. Since this angle is necessary to know in which direction the pointing device is irradiating the light beam, it is detected which direction the light beam of the pointing device is irradiated. Here, it is assumed that two or more pointing devices are detected, and information indicating the position and angle of each pointing device is held as a set. In step S406, the pointer identification unit 306 identifies which pointer bright spot is formed by the light beam emitted from which pointing device, and the corresponding relationship. This specification is performed based on the pointer bright spot detected in step S402 and the position and angle of the pointing device detected in steps S404 and S405. For example, if one pointer bright spot is detected and one set of pointing device position and angle is detected, they will be associated. On the other hand, if two pointer luminescent spots are detected and two pairs of pointing device positions and angles are detected, a pointing device suitable for each pointer luminescent spot is obtained by analyzing the position and angle pairs. It is associated. In step S407, the size setting unit 307 calculates the distance from each pointer bright spot to the corresponding pointing device based on the identified correspondence. A further specific example of this distance corresponds to the distance from the center of gravity of the pointer bright spot to the tip of the pointing device that emits the light beam. Further, the size setting unit 307 sets the size of the pointer bright spot corresponding to the distance or the size of the additional image to be displayed around the bright spot according to the distance. An example of the additional image will be described later. In step S <b> 408, based on the command from the size setting unit 307, the additional image with the size set is displayed from the image output unit 301. This step S408 may be applied to an example in which some kind of additional image is simply displayed. On the other hand, as shown in FIG. 5 to be described later, after further determining whether or not the additional image should be displayed, the additional image may be displayed as necessary.

図5は、ステップS408の段階で、画像や文書などの何らかのオブジェクトを画面201上に表示している最中に、ポインティングデバイス(レーザポインタ)が光線を照射し、付加画像を表示させた場合の例を示す図である。この場合、ステップS402では、「ポインタ輝点があるか否か」だけでなく、「ポインタ輝点203が画像や文書などのオブジェクトを指し示している状態であるか」も判断する必要があるであろう。そして、ステップS402において、「ポインタ輝点が存在し、そのポインタ輝点203が画像や文書などのオブジェクトを指し示している状態である場合」に、ステップS403に進むようにすれば良い。この図5では、画像や文書などの何らかのオブジェクトを表示している際に、それをポインティングデバイスで指し示していることを条件に、付加画像を表示することになる。従って、もしオブジェクトが表示されていない画面201をポインティングデバイスで指し示したとしても、ステップS401とS402を繰り返すことになる。図5(a)と(c)は、ポインタ輝点からそれに対応するポインティングデバイスまでの距離が近い場合の例を示している。図5(b)と(d)は、ポインタ輝点からそれに対応するポインティングデバイスまでの距離が遠い場合の例を示している。図5(a)と(b)は、図2に示した室内上部から操作者200や画面201などを撮影した際の様子を示している。また、図5(c)と(d)は、画面201に操作者が正対した状態において、操作者によって見える画面201の様子を示している。これら図における符号501は、ポインティングデバイスの光線を発射する先端部を示しており、符号502は、ポインタ輝点の位置を示している。図5(c)と(d)における画面201内には、例えば画像や文書などのオブジェクト503が予め表示されている。更に、本実施形態では、操作者200がポインティングデバイスによって各種の操作ができるよう、ガイド表示としての付加画像504を表示する。本実施形態で適用される付加画像504(ガイド表示)は、図7(a)に示されるような画像で構成される。この付加画像504は、その中心から8方向に向かって放射線状に辺を備え、それら8辺の各先端部に丸い画像部を備えている。実際には、図5(c)と(d)に示すように、付加画像504がオブジェクト503に重なって表示される。ここで、図5(c)と(d)を見比べると判るように、「ポインタ輝点からそれに対応するポインティングデバイスまでの距離が近い場合」よりも、「ポインタ輝点からそれに対応するポインティングデバイスまでの距離が遠い場合」のほうが、各8辺の長さは長い。即ち、付加画像504の中央部から先端部である丸い画像部までの距離が長い。この理由の1つは、図5(b)のような遠方の操作者200から見ても、付加画像504を見え易くする為である。別の理由の1つは、遠方のポインティングデバイスが少し動いただけで付加画像504の中央部から端部まで移動してしまうことにより、操作者200の意図に反した指示をしてしまう誤りを回避する為である。次に、図5(c)と(d)および図7(b)を参照しながら、ポインタ輝点203を移動させることによる操作者の指示例を簡単に説明しておく。まず最初に、操作者200によって、オブジェクト503にポインタ輝点203が照射されるようにポインティングデバイスが操作されているものとする。従って、画面201上には、この照射されたオブジェクト503を中心とした、図示するような付加画像504が操作ガイドとして表示されている。本実施形態では、操作者200が、この状態から、ポインタ輝点203を8方向のいずれかに移動させることによって指示を行うものとする。具体的には、ポインタ輝点203が、図7(b)に示す領域AからHの何れかに入り、それに続けてオブジェクト503上に戻った場合に、所定の処理を行う指示が発生したものと判断する。例えば、ポインタ輝点203が一旦領域Aに入り、それに続けてオブジェクト503上に戻った場合には、「オブジェクト503に対して処理Aを行う」という指示が発生したものと判断する。また、ポインタ輝点203が一旦領域Bに入り、それに続けてオブジェクト503上に戻った場合には、「オブジェクト503に対して処理Bを行う」という指示が発生したものと判断する。他の領域C〜Hについても、ポインタ輝点203が入った領域に対応して、処理C〜Hの指示が発生したものとして判断する。なお、この処理Aは例えば「オブジェクトの一時記憶(コピー)」であり、処理Bは「一時記憶しているオブジェクトの貼り付け」である。また、処理Cは「オブジェクトの削除」であり、処理Dは「オブジェクトの切り取り(表示中のオブジェクトの削除&一時記憶)」である。   FIG. 5 shows a case where the pointing device (laser pointer) emits a light beam and displays an additional image while an object such as an image or a document is being displayed on the screen 201 in the stage of step S408. It is a figure which shows an example. In this case, in step S402, it is necessary to determine not only “whether there is a pointer bright spot” but also “whether the pointer bright spot 203 is pointing to an object such as an image or a document”. Let's go. Then, in step S402, if “a pointer bright spot exists and the pointer bright spot 203 is in a state pointing to an object such as an image or a document”, the process may proceed to step S403. In FIG. 5, when an object such as an image or a document is displayed, the additional image is displayed on the condition that the object is pointed by the pointing device. Therefore, even if the screen 201 on which no object is displayed is pointed by the pointing device, steps S401 and S402 are repeated. FIGS. 5A and 5C show examples in the case where the distance from the pointer bright spot to the corresponding pointing device is short. FIGS. 5B and 5D show an example in which the distance from the pointer bright spot to the corresponding pointing device is long. FIGS. 5A and 5B show the situation when the operator 200, the screen 201, and the like are photographed from the upper part of the room shown in FIG. 5C and 5D show the state of the screen 201 that can be seen by the operator when the operator is facing the screen 201. In these drawings, reference numeral 501 indicates the tip of the pointing device that emits the light beam, and reference numeral 502 indicates the position of the pointer bright spot. In the screen 201 in FIGS. 5C and 5D, an object 503 such as an image or a document is displayed in advance. Furthermore, in the present embodiment, an additional image 504 is displayed as a guide display so that the operator 200 can perform various operations using the pointing device. The additional image 504 (guide display) applied in the present embodiment is configured with an image as shown in FIG. This additional image 504 is provided with sides radially from its center in eight directions, and is provided with a round image portion at each tip portion of these eight sides. Actually, as shown in FIGS. 5C and 5D, the additional image 504 is displayed so as to overlap the object 503. Here, as can be seen by comparing FIG. 5C and FIG. 5D, “from the pointer bright spot to the corresponding pointing device rather than“ when the distance from the pointer bright spot to the corresponding pointing device is short ”. In the case where the distance of “is far”, the length of each of the eight sides is longer. That is, the distance from the central part of the additional image 504 to the round image part which is a front-end | tip part is long. One reason for this is to make it easy to see the additional image 504 even when viewed from a remote operator 200 as shown in FIG. Another reason is to avoid an error in which an instruction contrary to the intention of the operator 200 is given because the remote pointing device moves from the center to the end of the additional image 504 with a slight movement. It is to do. Next, an example of an instruction from the operator by moving the pointer bright spot 203 will be briefly described with reference to FIGS. First, it is assumed that the pointing device is operated by the operator 200 so that the object 503 is irradiated with the pointer bright spot 203. Accordingly, on the screen 201, an additional image 504 as shown in the figure centered on the irradiated object 503 is displayed as an operation guide. In the present embodiment, it is assumed that the operator 200 gives an instruction by moving the pointer bright spot 203 in any of eight directions from this state. Specifically, when the pointer bright spot 203 enters any one of the areas A to H shown in FIG. 7B and subsequently returns to the object 503, an instruction to perform a predetermined process is generated. Judge. For example, when the pointer bright spot 203 once enters the region A and then returns to the object 503, it is determined that an instruction “perform processing A on the object 503” has occurred. Further, when the pointer bright spot 203 once enters the region B and then returns to the object 503, it is determined that an instruction “perform processing B on the object 503” has occurred. The other areas C to H are also determined to have been instructed for processes C to H corresponding to the area in which the pointer bright spot 203 is entered. The process A is, for example, “temporary storage (copy) of an object”, and the process B is “pasting an object temporarily stored”. Further, the process C is “deletion of object”, and the process D is “cut object (deletion and temporary storage of displayed object)”.

ステップS409では、指示判定部308によって、上記図5で説明したようなオブジェクト503に対する指示が発生したか否かを判断する。これは、ポインタ輝点203が領域A〜Hの何れかに移動した後、オブジェクト503上に戻ったことを検知することによって実現される。ここで指示があった場合には、ステップS410に進む。ステップS410では、指示判定部308によって、図7(b)に示した領域A〜Hの何れにポインタ輝点203が入ったかに基づいて、その指示が処理AからHの何れであるか決定する。ステップS411では、指示実行部309によって、上記決定が成された処理を、オブジェクト503に対する処理として実行する。   In step S409, the instruction determination unit 308 determines whether an instruction for the object 503 described with reference to FIG. This is realized by detecting that the pointer bright spot 203 returns to the object 503 after moving to any of the areas A to H. If there is an instruction here, the process proceeds to step S410. In step S410, the instruction determination unit 308 determines whether the instruction is processing A to H based on which of the areas A to H illustrated in FIG. . In step S <b> 411, the instruction execution unit 309 executes the process in which the determination is made as a process for the object 503.

図6は、上述した「ポインタ輝点が2つ検知され、ポインティングデバイスの位置と角度が2組検知された場合」の付加画像504の表示例である。上述したように、それぞれのポインタ輝点603、604は、それぞれのポインティングデバイスの位置と角度の組を解析することで、それぞれのポインタ輝点が何れのポインティングデバイスから照射された光線に対応しているか判る。従って、図6のように、複数の操作者から照射される光線が画面201に到達する前に交差したとしても、情報処理装置100は、それぞれの操作者に対応する輝点を特定できている。よって、上記図4の各ステップの動作手順に従えば、ポインタ輝点603、604に対して、それぞれ適切なサイズの付加画像(ここではそれぞれ605、606とする)を表示することができる。なお、上述した図4の説明では、説明を簡単にするため、ステップS409〜411の処理について、1つのポインタ輝点に対する説明をした。しかしながら、ポインタ輝点(付加画像)がN個表示されることになった場合には、ステップS409〜411はN個分が並列して実行される。   FIG. 6 is a display example of the additional image 504 described above “when two pointer bright spots are detected and two sets of the pointing device position and angle are detected”. As described above, each of the pointer bright spots 603 and 604 corresponds to the light beam emitted from each pointing device by analyzing the pair of position and angle of each pointing device. I know if Therefore, as shown in FIG. 6, even if the light beams emitted from a plurality of operators cross before reaching the screen 201, the information processing apparatus 100 can identify the bright spot corresponding to each operator. . Therefore, according to the operation procedure of each step of FIG. 4 described above, additional images of appropriate sizes (here, 605 and 606, respectively) can be displayed on the pointer bright spots 603 and 604, respectively. In the description of FIG. 4 described above, one pointer bright spot has been described for the processing in steps S409 to S411 for the sake of simplicity. However, when N pointer bright spots (additional images) are to be displayed, steps S409 to S411 are executed in parallel in N steps.

本実施形態によれば、それぞれの光線が画面上に照射された位置と、その位置に光線を照射したポインティングデバイスとの対応関係を正確に特定することができる。それによって、例えば、図6のように、複数の操作者から光線が途中で交差するように照射されたとしても、それぞれのポインタ輝点を誤判断なく対応付けることができる。従って、それぞれの操作者にガイド表示として示す付加画像のサイズも、それぞれに適切なものになる。   According to the present embodiment, it is possible to accurately identify the correspondence between the position where each light beam is irradiated on the screen and the pointing device that irradiated the light beam at that position. Thereby, for example, as shown in FIG. 6, even when the light beams are irradiated from a plurality of operators so as to cross each other on the way, the respective pointer bright spots can be associated without misjudgment. Therefore, the size of the additional image shown as a guide display to each operator is also appropriate for each.

[変形例]
なお、上記実施形態では、ポインティングデバイス位置検知部304は、カメラ107によって撮影された画像からポインティングデバイスを検知したが、本発明はこれに限らない。例えば、赤外線を照射してこの反射光を検知するセンサを用い、このセンサが取得した距離情報に基づいてポインティングデバイスの形状や位置や角度などを取得しても良いであろう。
[Modification]
In the above embodiment, the pointing device position detection unit 304 detects a pointing device from an image captured by the camera 107, but the present invention is not limited to this. For example, a sensor that irradiates infrared rays and detects the reflected light may be used, and the shape, position, angle, and the like of the pointing device may be acquired based on distance information acquired by the sensor.

また、カメラ106と107は別体ではなく、画面201とポインティングデバイス202の両方を撮影範囲とする単一のカメラを適用しても構わない。   In addition, the cameras 106 and 107 are not separate bodies, and a single camera having both the screen 201 and the pointing device 202 as an imaging range may be applied.

また、上記実施形態で説明した付加画像は一例であり、本発明は別の付加画像にも適用が可能である。例えば、8辺からなる付加画像ではなく、これと同様の考え方に基づいた4辺や16辺の付加画像をガイド表示として利用しても構わない。更には、ポインタ輝点による指示のためのガイド表示ではなく、ポインタ輝点の周囲に表示するべき付加画像であれば適宜応用できる。   The additional image described in the above embodiment is an example, and the present invention can be applied to another additional image. For example, instead of an additional image consisting of 8 sides, an additional image of 4 sides or 16 sides based on the same concept may be used as the guide display. Furthermore, it is applicable as long as it is an additional image to be displayed around the pointer bright spot instead of the guide display for the instruction by the pointer bright spot.

なお、上述した各実施形態は、以下の処理を実行することによっても実現される。即ち、上記実施形態の各工程や機能を実現するソフトウェア(コンピュータプログラム)を、ネットワークや記憶媒体を介してシステムに供給し、そのシステムのコンピュータ(またはCPU等)が上記プログラムを読み込んで実行する処理である。上記コンピュータプログラムや、それを記憶したコンピュータ可読記憶媒体も本発明の範疇に含まれる。   Each embodiment described above is also realized by executing the following processing. That is, a process of supplying software (computer program) that realizes each process and function of the above-described embodiment to the system via a network or a storage medium, and the computer (or CPU or the like) of the system reads and executes the program. It is. The computer program and a computer-readable storage medium storing the computer program are also included in the scope of the present invention.

Claims (7)

光線が照射された画面上の位置を検知する第1検知手段と、
所定空間に存在するポインティングデバイスの位置および角度を検知する第2検知手段と、
前記第2検知手段で検知された位置および角度に基づいて、前記第1検知手段で検知された位置に光線を照射したポインティングデバイスを特定する特定手段と
を備えることを特徴とする情報処理装置。
First detection means for detecting a position on the screen irradiated with the light beam;
Second detection means for detecting the position and angle of the pointing device existing in the predetermined space;
An information processing apparatus comprising: a specifying unit that specifies a pointing device that irradiates a light beam at a position detected by the first detection unit based on a position and an angle detected by the second detection unit.
前記第1検知手段が、光線が照射された画面上の位置として複数の位置を検知し、前記第2検知手段が、所定空間に存在する複数のポインティングデバイスの位置および角度を検知した場合、
前記特定手段は、前記第2検知手段で検知された複数の位置および角度からなる組に基づいて、それぞれの組が表す位置および角度に対応する、前記第1検知手段で検知された位置を特定することにより、前記第1検知手段で検知された複数の位置のそれぞれに光線を照射したポインティングデバイスを特定することを特徴とする請求項1に記載の情報処理装置。
When the first detection means detects a plurality of positions as positions on the screen irradiated with light, and the second detection means detects the positions and angles of a plurality of pointing devices existing in a predetermined space,
The specifying unit specifies a position detected by the first detecting unit corresponding to a position and an angle represented by each set based on a set of a plurality of positions and angles detected by the second detecting unit. The information processing apparatus according to claim 1, wherein a pointing device that irradiates light to each of a plurality of positions detected by the first detection unit is specified.
更に、前記第1検知手段が検知した画面上の位置に、付加画像を表示させる表示制御手段を備えることを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising display control means for displaying an additional image at a position on the screen detected by the first detection means. 更に、前記第1検知手段が検知した位置から、該位置に光線を照射したポインティングデバイスの位置までの距離に応じて、前記付加画像のサイズを設定するサイズ設定手段を備え、
前記表示制御手段は、前記サイズ設定手段によりサイズが設定された付加画像を、前記画面上に表示させることを特徴とする請求項3に記載の情報処理装置。
And a size setting means for setting the size of the additional image according to a distance from a position detected by the first detection means to a position of a pointing device that irradiates the position with light.
The information processing apparatus according to claim 3, wherein the display control unit displays an additional image whose size is set by the size setting unit on the screen.
コンピュータに読み込み込ませ実行させることで、前記コンピュータを請求項1乃至4のいずれか1項に記載の表示制御装置として機能させるコンピュータプログラム。   The computer program which makes the said computer function as a display control apparatus of any one of Claim 1 thru | or 4 by being read and executed by a computer. 請求項5に記載のコンピュータプログラムを記憶したことを特徴とするコンピュータ可読記憶媒体。   A computer-readable storage medium storing the computer program according to claim 5. 第1検知手段、第2検知手段、特定手段を含む情報処理装置の制御方法であって、
前記第1検知手段によって、光線が照射された画面上の位置を検知する第1検知工程と、
前記第2検知手段によって、所定空間に存在するポインティングデバイスの位置および角度を検知する第2検知工程と、
前記特定手段によって、前記第2検知工程で検知された位置および角度に基づいて、前記第1検知工程で検知された位置に光線を照射したポインティングデバイスを特定する特定工程
とを備えることを特徴とする制御方法。
A method for controlling an information processing apparatus including first detection means, second detection means, and identification means,
A first detection step of detecting a position on the screen irradiated with light by the first detection means;
A second detection step of detecting the position and angle of the pointing device existing in the predetermined space by the second detection means;
A specifying step of specifying a pointing device that irradiates light at the position detected in the first detection step based on the position and angle detected in the second detection step by the specifying means. Control method to do.
JP2010149480A 2010-06-30 2010-06-30 Information processor and control method thereof Pending JP2012014361A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010149480A JP2012014361A (en) 2010-06-30 2010-06-30 Information processor and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010149480A JP2012014361A (en) 2010-06-30 2010-06-30 Information processor and control method thereof

Publications (1)

Publication Number Publication Date
JP2012014361A true JP2012014361A (en) 2012-01-19

Family

ID=45600730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010149480A Pending JP2012014361A (en) 2010-06-30 2010-06-30 Information processor and control method thereof

Country Status (1)

Country Link
JP (1) JP2012014361A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059702A (en) * 2012-09-18 2014-04-03 Ricoh Co Ltd Information processing device, image processing program, and projection system
WO2018012062A1 (en) * 2016-07-12 2018-01-18 ソニー株式会社 Information processing apparatus, information processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059702A (en) * 2012-09-18 2014-04-03 Ricoh Co Ltd Information processing device, image processing program, and projection system
WO2018012062A1 (en) * 2016-07-12 2018-01-18 ソニー株式会社 Information processing apparatus, information processing method, and program

Similar Documents

Publication Publication Date Title
US9535538B2 (en) System, information processing apparatus, and information processing method
US11029255B2 (en) Defect inspection device, defect inspection method, and program
JP5680976B2 (en) Electronic blackboard system and program
JP7058471B2 (en) Image processing device, image processing method
US20130141561A1 (en) Method of analyzing linearity of shot image, image obtaining method, and image obtaining apparatus
CN104658462B (en) The control method of projector and projector
US20140036070A1 (en) Method and apparatus for detecting or checking an arrangement of laboratory articles on a work area of a laboratory work station
CN105700736A (en) Input operation detection device, projection apparatus, interactive whiteboard and digital signage device
KR101523046B1 (en) Distance measurement apparatus of an image processing-based
EP3226090A1 (en) Operation support system, operation support device and operation support method
KR101535801B1 (en) Process inspection device, method and system for assembling process in product manufacturing using depth map sensors
JP2012014361A (en) Information processor and control method thereof
KR102028864B1 (en) Microscope apparatus and method for calibrating position of light source
JP2007010419A (en) Three-dimensional shape of object verifying system
US20230188855A1 (en) Installation assistance apparatus, installation assistance method, and non-transitory computer-readable storage medium
CN114543697A (en) Measuring apparatus, control apparatus, and control method
US11606541B2 (en) Projection control device, projection control method and projection control system
CN103854009A (en) Information processing method and electronic equipment
JP2002122552A (en) Defect inspection device and method
CN112840640B (en) Projection control device, projection control method, and projection control system
US20230419735A1 (en) Information processing device, information processing method, and storage medium
US11507245B1 (en) Systems and methods for enhancing image content captured by a machine vision camera
KR20190027081A (en) Electronic apparatus, method for controlling thereof and the computer readable recording medium
JP4665808B2 (en) Detection device
KR101965045B1 (en) The generating method for screen rotation effect using short focal length project