JP2009176138A - Projection user interface system and mobile robot therewith - Google Patents

Projection user interface system and mobile robot therewith Download PDF

Info

Publication number
JP2009176138A
JP2009176138A JP2008015265A JP2008015265A JP2009176138A JP 2009176138 A JP2009176138 A JP 2009176138A JP 2008015265 A JP2008015265 A JP 2008015265A JP 2008015265 A JP2008015265 A JP 2008015265A JP 2009176138 A JP2009176138 A JP 2009176138A
Authority
JP
Japan
Prior art keywords
bright spot
user interface
interface system
projection type
type user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008015265A
Other languages
Japanese (ja)
Inventor
Susumu Shimizu
奨 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008015265A priority Critical patent/JP2009176138A/en
Publication of JP2009176138A publication Critical patent/JP2009176138A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a projection user interface system that allows operations like mouse clicks with ease and at low cost. <P>SOLUTION: The projection user interface system includes: a projector 103 for projecting a conversation window; a camera 104 for imaging the conversation window projected by the projector 103; a bright point detection unit 108 for detecting the movement of the gravitational center of a bright point created by a pointer on the conversation window from the image of the conversation window captured by the camera 104; and a bright point fluctuation detecting unit 110 for detecting the fluctuation of the gravitational center of the bright spot. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、投影型ユーザインターフェースシステム及びこれを搭載した移動ロボットに関する。   The present invention relates to a projection type user interface system and a mobile robot equipped with the same.

プロジェクタなどにより投影された画面に対し、レーザポインタなどを用いて、パソコンのマウス操作と同様の操作を直接行いたいというニーズは高い。特許文献1〜5に開示されているように、プロジェクタにより投影した画像にポインタからの輝点を重ね、これをカメラで撮影することで輝点の位置を測定することができる。すなわち、パソコンにおけるマウスカーソルの位置に相当するデータは、算出することができる。   There is a high need to directly perform operations similar to mouse operations on a personal computer using a laser pointer or the like on a screen projected by a projector or the like. As disclosed in Patent Documents 1 to 5, the position of a bright spot can be measured by superimposing a bright spot from a pointer on an image projected by a projector and photographing this with a camera. That is, data corresponding to the position of the mouse cursor on the personal computer can be calculated.

より具体的には、プロジェクタとカメラとを組み合わせ、校正用の画像を撮影するなどして撮影領域とカメラ撮像画面上の領域とを対応付けする。その上で、発光するポインタなどで輝点を与えれば、カメラ撮像によりスクリーン上の輝点座標を得ることができる。この輝点座標をマウスカーソルの入力として用いれば、コンピュータのカーソルをポインタにより動かすことができる。   More specifically, a projector and a camera are combined, and a calibration image is captured to associate the imaging region with the region on the camera imaging screen. Then, if a bright spot is given by a pointer that emits light, the bright spot coordinates on the screen can be obtained by camera imaging. If this bright spot coordinate is used as an input of a mouse cursor, the cursor of the computer can be moved by the pointer.

ところで、ロボットのようにアクチュエータを有する場合、投影画像は必ずしも投影用の白色スクリーンに投影されるわけではない。そのため、実環境における種々の物体上に投影可能なユーザインターフェースが必要となる。
特開平8−331667号公報 特開2003−36142号公報 特開平8−123612号公報 特開2000−276297号公報 特開平10−91344号公報
By the way, when an actuator is provided like a robot, the projected image is not necessarily projected onto the white screen for projection. Therefore, a user interface that can be projected onto various objects in a real environment is required.
JP-A-8-331667 JP 2003-36142 A JP-A-8-123612 JP 2000-276297 A JP-A-10-91344

上述の技術では、カーソルをポインタにより動かすことはできるものの、マウスクリックに相当する操作(以下、マウスクリック様操作という)を行うことはできなかった。そのため、例えば、ポインタにスイッチを設け、マウスクリックに相当する命令を無線通信により、コンピュータに送信するなどの方法が考えられる。しかしながら、機構が煩雑で高コストになる。   In the above technique, although the cursor can be moved by the pointer, an operation corresponding to a mouse click (hereinafter referred to as a mouse click-like operation) cannot be performed. Therefore, for example, a method is conceivable in which a switch is provided on the pointer and a command corresponding to a mouse click is transmitted to the computer by wireless communication. However, the mechanism is complicated and expensive.

なお、特許文献1〜5に開示された技術は、いずれもスクリーン上に投影されたユーザインターフェースであり、実環境における種々の物体上に投影可能なユーザインターフェースについて考慮されたものではない。   The techniques disclosed in Patent Documents 1 to 5 are all user interfaces projected onto a screen, and are not considered for user interfaces that can be projected onto various objects in a real environment.

本発明は上記に鑑みなされたものであって、本発明の目的は、簡易かつ低コストに、マウスクリック様操作が可能な投影型ユーザインターフェースシステムを提供することである。   The present invention has been made in view of the above, and an object of the present invention is to provide a projection type user interface system capable of a mouse click-like operation easily and at low cost.

本発明の第1の態様は、
対話ウィンドウを投影するプロジェクタと、
前記プロジェクタにより投影された前記対話ウィンドウを撮影するカメラと、
前記カメラにより撮影された前記対話ウィンドウの画像から、当該対話ウィンドウ上のポインタによる輝点の重心の動きを検出する輝点検出部と、
前記輝点の重心のゆらぎを検出する輝点ゆらぎ検出部とを備えた投影型ユーザインターフェースシステムである。
The first aspect of the present invention is:
A projector that projects a dialogue window;
A camera that captures the dialogue window projected by the projector;
A bright spot detection unit that detects a movement of the center of gravity of a bright spot by a pointer on the dialog window from an image of the dialog window captured by the camera;
The projection type user interface system includes a bright spot fluctuation detecting unit that detects fluctuation of the center of gravity of the bright spot.

本発明により、簡易かつ低コストに、マウスクリック様操作が可能な投影型ユーザインターフェースシステムを提供することができる。   According to the present invention, it is possible to provide a projection type user interface system capable of a mouse click-like operation easily and at low cost.

以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted as necessary for the sake of clarity.

実施の形態に係る投影型ユーザインターフェースシステムの構成を図1に示す。この投影型ユーザインターフェースシステムは、特に、移動ロボットに適している。図1に示すように、実施の形態に係る投影型ユーザインターフェースシステムは、コントローラ101、対話ウィンドウ生成部102、プロジェクタ(投影機)103、カメラ104、画像比較部106、領域校正部107、輝点検出部108、輝点静止タイマ109、輝点ゆらぎ検出部110を備えている。   FIG. 1 shows the configuration of a projection type user interface system according to the embodiment. This projection type user interface system is particularly suitable for a mobile robot. As shown in FIG. 1, the projection type user interface system according to the embodiment includes a controller 101, a dialog window generation unit 102, a projector (projector) 103, a camera 104, an image comparison unit 106, an area calibration unit 107, and a brightness check. A light emitting unit 108, a bright spot stationary timer 109, and a bright spot fluctuation detecting unit 110 are provided.

実施の形態に係る投影型ユーザインターフェースシステムは、例えば、図2に示すような対話ウィンドウを床面、壁面、天井面などに投影する移動ロボットに搭載するものとして最適である。ここで、投影された画面に対し、ユーザがレーザポインタ、懐中電灯などの発光型ポインタを用いてマウスクリック様操作を行う。発光型ポインタの光源としてはレーザなどが好適であるが、特に限定されるものではない。   The projection type user interface system according to the embodiment is optimal for mounting on a mobile robot that projects an interactive window as shown in FIG. 2 on a floor surface, a wall surface, a ceiling surface, or the like. Here, the user performs a mouse click-like operation on the projected screen using a light emitting pointer such as a laser pointer or a flashlight. The light source of the light emitting pointer is preferably a laser, but is not particularly limited.

具体的には、例えば、図2の選択ボタン「指示1」を上記マウスクリック様操作により選択し、続いて、選択ボタン「OK」を上記マウスクリック様操作により選択する。これにより、選択ボタン「指示1」が正式に選択され、実施されることになる。ここで、誤入力防止のため、このように2段階方式にするのが好ましい。しかしながら、選択ボタン「OK」を選択する操作を省略し、選択ボタン「指示1」のみの選択で、選択ボタン「指示1」が正式に選択されるようにしてもよい。   Specifically, for example, the selection button “instruction 1” in FIG. 2 is selected by the mouse click-like operation, and then the selection button “OK” is selected by the mouse click-like operation. As a result, the selection button “instruction 1” is formally selected and executed. Here, in order to prevent erroneous input, it is preferable to use the two-stage method in this way. However, the operation of selecting the selection button “OK” may be omitted, and the selection button “instruction 1” may be formally selected by selecting only the selection button “instruction 1”.

コントローラ101は、対話ウィンドウ生成部102に対し、対話ウィンドウの作成を指示する。そして、コントローラ101は、プロジェクタ103に対し、対話ウィンドウ生成部102により作成された対話ウィンドウの投影を指示する。
一方、コントローラ101は、輝点検出部108及びゆらぎ検出部110を介して入力された指示(例えば、図2に示した選択ボタン「指示1」や「指示2」)に応じた動作を規定し、他のユニット(不図示)に対し、指示する。
The controller 101 instructs the dialog window generation unit 102 to create a dialog window. Then, the controller 101 instructs the projector 103 to project the dialogue window created by the dialogue window generation unit 102.
On the other hand, the controller 101 defines an operation in accordance with an instruction (for example, the selection buttons “instruction 1” and “instruction 2” illustrated in FIG. 2) input via the bright spot detection unit 108 and the fluctuation detection unit 110. Instruct other units (not shown).

対話ウィンドウ生成部102は、コントローラ101からの指示に基づいて、対話ウィンドウを作成する。作成された対話ウィンドウは直接プロジェクタ103により投影されても、一旦バッファ(不図示)に格納されてから投影されてもよい。
プロジェクタ103は、コントローラ101からの指示に基づいて、対話ウィンドウを所定の場所に投影する。
The dialogue window generation unit 102 creates a dialogue window based on an instruction from the controller 101. The created dialogue window may be projected directly by the projector 103 or may be projected once stored in a buffer (not shown).
The projector 103 projects an interactive window on a predetermined location based on an instruction from the controller 101.

カメラ104は、対話ウィンドウ投射前の背景及び投射された対話ウィンドウを撮影する。ここで、移動ロボット起動中、カメラ104は随時動画撮影している。もちろん、例えば、コントローラ101からの指示に基づいて、必要な場合のみ撮影するような構成であってもよい。
画像バッファ105には、カメラ104により撮影された画像が格納される。
The camera 104 captures the background before projecting the dialogue window and the projected dialogue window. Here, while the mobile robot is activated, the camera 104 shoots a video at any time. Of course, for example, a configuration may be adopted in which shooting is performed only when necessary based on an instruction from the controller 101.
An image captured by the camera 104 is stored in the image buffer 105.

フレーム比較部106は、画像バッファ105に格納された対話ウィンドウの画像とその背景画像とを比較し、背景画像補正を行う。図3は背景画像補正の概念図である。図3に示すように、背景画像補正とは、背景画像を含む対話ウィンドウの画像データから背景画像データを除去する補正である。移動ロボットでは、ロボット自身が移動しながら対話ウィンドウを投影する。そのため、必ずしも白色スクリーンに投影するわけではない。具体的には、床面、壁面、天井面など、実環境における種々の物体上に投影する。本発明では、背景画像補正をおこなうことにより、いかなる投影場所であっても、精度よく輝点の動きを検出することができる。   The frame comparison unit 106 compares the dialog window image stored in the image buffer 105 with the background image, and performs background image correction. FIG. 3 is a conceptual diagram of background image correction. As shown in FIG. 3, the background image correction is a correction for removing the background image data from the image data of the dialogue window including the background image. In a mobile robot, the robot itself projects a dialogue window while moving. Therefore, it is not necessarily projected onto a white screen. Specifically, projection is performed on various objects in a real environment such as a floor surface, a wall surface, and a ceiling surface. In the present invention, by performing background image correction, it is possible to accurately detect the movement of a bright spot at any projection location.

また、フレーム比較部106は、領域校正部107からの指示に基づいて、撮影された対話ウィンドウの台形形状及び回転を補正する。具体的には、図3に示すように、例えば、床面に投影された対話ウィンドウは台形形状にゆがんでいる。   Further, the frame comparison unit 106 corrects the trapezoidal shape and rotation of the captured dialogue window based on an instruction from the region calibration unit 107. Specifically, as shown in FIG. 3, for example, the dialogue window projected on the floor is distorted in a trapezoidal shape.

また、ロボットと対面するユーザに対して対話ウィンドウを投影する場合、対話ウィンドウを180度回転させて投影する。そのため、対話ウィンドウの台形形状及び回転を補正する必要がある。図3は、図2に示した対話ウィンドウを180度回転させて投影した場合を示している。   Further, when projecting a dialog window to a user facing the robot, the dialog window is rotated 180 degrees and projected. Therefore, it is necessary to correct the trapezoidal shape and rotation of the dialogue window. FIG. 3 shows a case where the dialog window shown in FIG. 2 is projected after being rotated by 180 degrees.

輝点検出部108は、輝点静止タイマ109を参照しつつ、ユーザがポインタにより指し示した輝点を検出する。また、輝点検出部108は、検出した輝点の重心を算出する。輝点検出方法の詳細については後述する。   The bright spot detection unit 108 detects the bright spot indicated by the user with the pointer while referring to the bright spot stationary timer 109. The bright spot detection unit 108 calculates the center of gravity of the detected bright spot. Details of the bright spot detection method will be described later.

輝点ゆらぎ検出部110は、ユーザがポインタにより指し示した輝点のゆらぎを検出するローパスフィルタ(LPF:Low Pass Filter)を備えている。ここで、ユーザが指し示した輝点の位置はゆらぐ。一方、背景の反射や外光などは静止している。そのため、ユーザが指し示した輝点以外の光は、偽輝点として除去することができる。   The bright spot fluctuation detection unit 110 includes a low pass filter (LPF) that detects fluctuations of the bright spot pointed to by the user with the pointer. Here, the position of the bright spot pointed to by the user fluctuates. On the other hand, background reflections and external light are stationary. Therefore, light other than the bright spot indicated by the user can be removed as a false bright spot.

また、輝点ゆらぎ検出部110は、輝点重心のゆらぎが設定した領域内にある場合、輝点が静止していると判断する。そして、所定の時間、輝点が静止していれば、その輝点が位置する対話ウィンドウの選択ボタンが選択される。この指示がコントローラ101に入力される。一方、輝点が静止していないと判断した場合、静止タイマ109をリセットする。   Further, the bright spot fluctuation detection unit 110 determines that the bright spot is stationary when the fluctuation of the bright spot center of gravity is within the set region. Then, if the luminescent spot is stationary for a predetermined time, the selection button of the dialogue window where the luminescent spot is located is selected. This instruction is input to the controller 101. On the other hand, if it is determined that the bright spot is not stationary, the stationary timer 109 is reset.

以上説明したとおり、本発明の構成により、投影された対話ウィンドウに対するポインタによる光照射のみにより、すなわち、簡易かつ低コストに、マウスクリック様操作が可能な投影型ユーザインターフェースシステムを提供することができる。   As described above, according to the configuration of the present invention, it is possible to provide a projection type user interface system capable of mouse click-like operation only by light irradiation with a pointer to a projected dialogue window, that is, simply and at low cost. .

次に、上記投影型ユーザインターフェースシステムの処理フローについて、図4を参照して説明する。
まず、コントローラ101の指示に基づいて、対話ウィンドウ生成部102が対話ウィンドウを作成する(S201)。
次に、コントローラ101の指示に基づいて、プロジェクタ103により作成された対話ウィンドウを床面や壁面などに投影する(S202)。なお、対話ウィンドウ投影前に、カメラ104により背景が撮影される。
Next, a processing flow of the projection type user interface system will be described with reference to FIG.
First, the dialogue window generation unit 102 creates a dialogue window based on an instruction from the controller 101 (S201).
Next, based on the instruction from the controller 101, the dialogue window created by the projector 103 is projected onto a floor surface, a wall surface, or the like (S202). Note that the background is photographed by the camera 104 before the dialogue window is projected.

次に、投影された対話ウィンドウをカメラ104により撮影する(S203)。
次に、フレーム比較部106が、撮影された対話ウィンドウの画像から、投影前に撮影された背景を除去する背景画像補正を行う(S204)。
続いて、フレーム比較部106が、領域校正部107の指示に基づいて、撮影された対話ウィンドウの台形形状及び回転を補正する(S205)。
Next, the projected dialogue window is photographed by the camera 104 (S203).
Next, the frame comparison unit 106 performs background image correction for removing the background photographed before projection from the photographed dialogue window image (S204).
Subsequently, the frame comparison unit 106 corrects the trapezoidal shape and rotation of the captured dialogue window based on an instruction from the region calibration unit 107 (S205).

次に、輝点検出部108が、ユーザにより指し示されたポインタの輝点を探索する(S206)。具体的には、背景画像補正後の画像を元に、2値化のカットオフレベルをスイープし、あるサイズ(例えば、32×32ピクセル)以下の明るい領域が残るかどうかで判定する。   Next, the bright spot detection unit 108 searches for the bright spot of the pointer pointed by the user (S206). Specifically, based on the image after the background image correction, the binarization cut-off level is swept, and it is determined whether or not a bright area of a certain size (for example, 32 × 32 pixels) remains.

輝点があれば(S207YES)、続けて、輝点の重心を計算し、その輝点重心の動きを検出する(S208)。
一方、輝点がなければ(S207NO)、S203に戻り、再度投影された対話ウィンドウをカメラ104により撮影する。
If there is a bright spot (YES in S207), the center of gravity of the bright spot is calculated, and the movement of the center of bright spot is detected (S208).
On the other hand, if there is no bright spot (NO in S207), the process returns to S203, and the projected conversation window is captured by the camera 104.

次に、輝点ゆらぎ検出部110が、重心位置が揺らぐか否かを判断する(S209)。輝点が揺らがない場合(S209NO)、偽輝点であると判断し、S206に戻り、再び輝点を探索する。一方、輝点が揺らぐ場合(S209YES)、輝点であると判断する。そして、重心の軌跡が閾値以下か否かを判断する(S210)。   Next, the bright spot fluctuation detection unit 110 determines whether or not the position of the center of gravity fluctuates (S209). When the bright spot does not fluctuate (S209 NO), it is determined that it is a false bright spot, and the process returns to S206 to search for the bright spot again. On the other hand, when the bright spot fluctuates (YES in S209), it is determined that it is a bright spot. Then, it is determined whether the locus of the center of gravity is equal to or less than a threshold value (S210).

重心の軌跡が閾値以下でない場合(S210NO)、輝点ゆらぎ検出部110は、輝点が静止していないものと判断する。そして、静止タイマ109をリセットし、S208に戻り、再び輝点重心の動きを検出する。一方、重心の軌跡が閾値以下の場合(S210YES)、輝点が静止しているものと判断する。そして、静止時間を計測中か否かを判断する(S211)。   When the locus of the center of gravity is not less than or equal to the threshold (NO in S210), the bright spot fluctuation detection unit 110 determines that the bright spot is not stationary. Then, the stationary timer 109 is reset, the process returns to S208, and the movement of the bright spot centroid is detected again. On the other hand, when the locus of the center of gravity is equal to or smaller than the threshold (S210 YES), it is determined that the bright spot is stationary. Then, it is determined whether or not the stationary time is being measured (S211).

静止時間を計測中でない場合(S211NO)、ゆらぎ検出部110は、静止タイマ109をスタートさせ、S208に戻り、輝点重心の動きを検出する。一方、静止時間を計測中の場合(S211YES)、続けて、静止時間が設定値を超えているか否かを判断する(S212)。   When the stationary time is not being measured (NO in S211), the fluctuation detecting unit 110 starts the stationary timer 109, returns to S208, and detects the movement of the bright spot centroid. On the other hand, when the stationary time is being measured (YES in S211), it is subsequently determined whether or not the stationary time exceeds the set value (S212).

静止時間が設定値を超えていない場合(S212NO)、S208に戻り、輝点重心の動きを検出する。一方、静止時間が設定値を超えている場合(S212YES)、トリガ座標を出力する(S213)。この座標から選択された選択ボタンを認識する。以上により、無線通信などの複雑な機構を用いることなく、投影された対話ウィンドウに対し、ポインタにより光を照射するだけで、マウスクリック様操作を実施することができる。すなわち、簡易かつ低コストに、マウスクリック様操作を実施することができる。   If the stationary time does not exceed the set value (NO in S212), the process returns to S208, and the movement of the bright spot centroid is detected. On the other hand, if the stationary time exceeds the set value (S212 YES), trigger coordinates are output (S213). The selection button selected from this coordinate is recognized. As described above, a mouse click-like operation can be performed simply by irradiating the projected dialogue window with light using a pointer without using a complicated mechanism such as wireless communication. That is, a mouse click-like operation can be performed easily and at low cost.

本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。   The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention already described.

本発明の実施の形態に係る投影型ユーザインターフェースシステムのブロック図である。It is a block diagram of the projection type user interface system concerning an embodiment of the invention. 対話ウィンドウの一例を示す図である。It is a figure which shows an example of a dialogue window. 背景画像補正の概念図である。It is a conceptual diagram of background image correction. 本発明の実施の形態に係る投影型ユーザインターフェースシステムのフローチャートである。It is a flowchart of the projection type user interface system concerning an embodiment of the invention.

符号の説明Explanation of symbols

101 コントローラ
102 対話ウィンドウ生成部
103 プロジェクタ
104 カメラ
105 画像バッファ
106 画像比較部
107 領域校正部
108 輝点検出部
109 輝点静止タイマ
110 輝点ゆらぎ検出部
DESCRIPTION OF SYMBOLS 101 Controller 102 Dialog window generation part 103 Projector 104 Camera 105 Image buffer 106 Image comparison part 107 Area correction part 108 Bright spot detection part 109 Bright spot stationary timer 110 Bright spot fluctuation detection part

Claims (7)

対話ウィンドウを投影するプロジェクタと、
前記プロジェクタにより投影された前記対話ウィンドウを撮影するカメラと、
前記カメラにより撮影された前記対話ウィンドウの画像から、当該対話ウィンドウ上のポインタによる輝点の重心の動きを検出する輝点検出部と、
前記輝点の重心のゆらぎを検出する輝点ゆらぎ検出部とを備えた投影型ユーザインターフェースシステム。
A projector that projects a dialogue window;
A camera that captures the dialogue window projected by the projector;
A bright spot detection unit that detects a movement of the center of gravity of a bright spot by a pointer on the dialog window from an image of the dialog window captured by the camera;
A projection type user interface system comprising: a bright spot fluctuation detecting unit that detects fluctuation of the center of gravity of the bright spot.
前記輝点ゆらぎ検出部がローパスフィルタを備える請求項1に記載の投影型ユーザインターフェースシステム。   The projection type user interface system according to claim 1, wherein the bright spot fluctuation detecting unit includes a low-pass filter. 前記対話ウィンドウの画像から、前記カメラにより撮影された前記対話ウィンドウの投影場所の背景画像を除去する画像比較部をさらに備えた請求項1又は2に記載の投影型ユーザインターフェースシステム。   3. The projection type user interface system according to claim 1, further comprising an image comparison unit that removes a background image of a projection location of the dialogue window captured by the camera from the image of the dialogue window. 前記輝点のゆらぎが所定の領域内である場合、前記輝点が静止していると判断する請求項1〜3のいずれか一項に記載の投影型ユーザインターフェースシステム。   The projection type user interface system according to any one of claims 1 to 3, wherein when the fluctuation of the bright spot is within a predetermined region, the bright spot is determined to be stationary. 前記輝点が所定の時間静止している場合、当該輝点が位置する前記対話ウィンドウ上の選択ボタンが選択されたと判断する請求項1〜4のいずれか一項に記載の投影型ユーザインターフェースシステム。   The projection type user interface system according to any one of claims 1 to 4, wherein when the bright spot is stationary for a predetermined time, it is determined that a selection button on the dialogue window where the bright spot is located is selected. . 前記輝点のゆらぎが検出されない場合、当該輝点はポインタによる輝点ではないと判断する請求項1〜5のいずれか一項に記載の投影型ユーザインターフェースシステム。   The projection type user interface system according to any one of claims 1 to 5, wherein when the fluctuation of the bright spot is not detected, the bright spot is determined not to be a bright spot by a pointer. 請求項1〜6のいずれか一項に記載の投影型ユーザインターフェースシステムが搭載された移動ロボット。   A mobile robot equipped with the projection type user interface system according to claim 1.
JP2008015265A 2008-01-25 2008-01-25 Projection user interface system and mobile robot therewith Pending JP2009176138A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008015265A JP2009176138A (en) 2008-01-25 2008-01-25 Projection user interface system and mobile robot therewith

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008015265A JP2009176138A (en) 2008-01-25 2008-01-25 Projection user interface system and mobile robot therewith

Publications (1)

Publication Number Publication Date
JP2009176138A true JP2009176138A (en) 2009-08-06

Family

ID=41031135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008015265A Pending JP2009176138A (en) 2008-01-25 2008-01-25 Projection user interface system and mobile robot therewith

Country Status (1)

Country Link
JP (1) JP2009176138A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07319616A (en) * 1994-05-26 1995-12-08 Hitachi Ltd Position input method and conference support system using the same
JP2001236178A (en) * 2000-02-22 2001-08-31 Seiko Epson Corp System and method for detecting indication position, presentation system and information storage medium
JP2007172303A (en) * 2005-12-22 2007-07-05 Seiko Epson Corp Information input system
JP2007233647A (en) * 2006-02-28 2007-09-13 Shinano Kenshi Co Ltd Presentation data processing apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07319616A (en) * 1994-05-26 1995-12-08 Hitachi Ltd Position input method and conference support system using the same
JP2001236178A (en) * 2000-02-22 2001-08-31 Seiko Epson Corp System and method for detecting indication position, presentation system and information storage medium
JP2007172303A (en) * 2005-12-22 2007-07-05 Seiko Epson Corp Information input system
JP2007233647A (en) * 2006-02-28 2007-09-13 Shinano Kenshi Co Ltd Presentation data processing apparatus

Similar Documents

Publication Publication Date Title
US6829394B2 (en) System and method of pointed position detection, presentation system, and program
US9594455B2 (en) Projector and control method
JP4927021B2 (en) Cursor control device and control method for image display device, and image system
US9033516B2 (en) Determining motion of projection device
JP6075122B2 (en) System, image projection apparatus, information processing apparatus, information processing method, and program
US8449122B2 (en) Image marking method and apparatus
JP2008165800A (en) Cursor control method and device
US8928626B2 (en) Optical navigation system with object detection
US9304607B2 (en) Pointer positioning method of handheld pointer device
JP2011043876A (en) Image display device
US8434879B2 (en) Control device and projection-type video-image display device
US9875525B2 (en) Image processing device, projector, and image processing method
US20160041632A1 (en) Contact detection system, information processing method, and information processing apparatus
WO2014029020A1 (en) Keyboard projection system with image subtraction
EP3032380B1 (en) Image projection apparatus, and system employing interactive input-output capability
US20120281100A1 (en) Control system and method for a computer using a projector
JP2012053603A (en) Information display system
JP2009176138A (en) Projection user interface system and mobile robot therewith
TWI607343B (en) Information technology device input systems and associated methods
JP2012027769A (en) Interactive white board device, image display device and calibration method
JP5521809B2 (en) Pointing system, control device, and control method
JP2010026754A (en) Terminal device, display control method, and display control program
JP2005078291A (en) Image projecting and displaying device, pointing position detecting method, program and recording medium
JP2005339269A (en) Image display device
JP4665808B2 (en) Detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120306