JP2009176138A - Projection user interface system and mobile robot therewith - Google Patents
Projection user interface system and mobile robot therewith Download PDFInfo
- Publication number
- JP2009176138A JP2009176138A JP2008015265A JP2008015265A JP2009176138A JP 2009176138 A JP2009176138 A JP 2009176138A JP 2008015265 A JP2008015265 A JP 2008015265A JP 2008015265 A JP2008015265 A JP 2008015265A JP 2009176138 A JP2009176138 A JP 2009176138A
- Authority
- JP
- Japan
- Prior art keywords
- bright spot
- user interface
- interface system
- projection type
- type user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、投影型ユーザインターフェースシステム及びこれを搭載した移動ロボットに関する。 The present invention relates to a projection type user interface system and a mobile robot equipped with the same.
プロジェクタなどにより投影された画面に対し、レーザポインタなどを用いて、パソコンのマウス操作と同様の操作を直接行いたいというニーズは高い。特許文献1〜5に開示されているように、プロジェクタにより投影した画像にポインタからの輝点を重ね、これをカメラで撮影することで輝点の位置を測定することができる。すなわち、パソコンにおけるマウスカーソルの位置に相当するデータは、算出することができる。 There is a high need to directly perform operations similar to mouse operations on a personal computer using a laser pointer or the like on a screen projected by a projector or the like. As disclosed in Patent Documents 1 to 5, the position of a bright spot can be measured by superimposing a bright spot from a pointer on an image projected by a projector and photographing this with a camera. That is, data corresponding to the position of the mouse cursor on the personal computer can be calculated.
より具体的には、プロジェクタとカメラとを組み合わせ、校正用の画像を撮影するなどして撮影領域とカメラ撮像画面上の領域とを対応付けする。その上で、発光するポインタなどで輝点を与えれば、カメラ撮像によりスクリーン上の輝点座標を得ることができる。この輝点座標をマウスカーソルの入力として用いれば、コンピュータのカーソルをポインタにより動かすことができる。 More specifically, a projector and a camera are combined, and a calibration image is captured to associate the imaging region with the region on the camera imaging screen. Then, if a bright spot is given by a pointer that emits light, the bright spot coordinates on the screen can be obtained by camera imaging. If this bright spot coordinate is used as an input of a mouse cursor, the cursor of the computer can be moved by the pointer.
ところで、ロボットのようにアクチュエータを有する場合、投影画像は必ずしも投影用の白色スクリーンに投影されるわけではない。そのため、実環境における種々の物体上に投影可能なユーザインターフェースが必要となる。
上述の技術では、カーソルをポインタにより動かすことはできるものの、マウスクリックに相当する操作(以下、マウスクリック様操作という)を行うことはできなかった。そのため、例えば、ポインタにスイッチを設け、マウスクリックに相当する命令を無線通信により、コンピュータに送信するなどの方法が考えられる。しかしながら、機構が煩雑で高コストになる。 In the above technique, although the cursor can be moved by the pointer, an operation corresponding to a mouse click (hereinafter referred to as a mouse click-like operation) cannot be performed. Therefore, for example, a method is conceivable in which a switch is provided on the pointer and a command corresponding to a mouse click is transmitted to the computer by wireless communication. However, the mechanism is complicated and expensive.
なお、特許文献1〜5に開示された技術は、いずれもスクリーン上に投影されたユーザインターフェースであり、実環境における種々の物体上に投影可能なユーザインターフェースについて考慮されたものではない。 The techniques disclosed in Patent Documents 1 to 5 are all user interfaces projected onto a screen, and are not considered for user interfaces that can be projected onto various objects in a real environment.
本発明は上記に鑑みなされたものであって、本発明の目的は、簡易かつ低コストに、マウスクリック様操作が可能な投影型ユーザインターフェースシステムを提供することである。 The present invention has been made in view of the above, and an object of the present invention is to provide a projection type user interface system capable of a mouse click-like operation easily and at low cost.
本発明の第1の態様は、
対話ウィンドウを投影するプロジェクタと、
前記プロジェクタにより投影された前記対話ウィンドウを撮影するカメラと、
前記カメラにより撮影された前記対話ウィンドウの画像から、当該対話ウィンドウ上のポインタによる輝点の重心の動きを検出する輝点検出部と、
前記輝点の重心のゆらぎを検出する輝点ゆらぎ検出部とを備えた投影型ユーザインターフェースシステムである。
The first aspect of the present invention is:
A projector that projects a dialogue window;
A camera that captures the dialogue window projected by the projector;
A bright spot detection unit that detects a movement of the center of gravity of a bright spot by a pointer on the dialog window from an image of the dialog window captured by the camera;
The projection type user interface system includes a bright spot fluctuation detecting unit that detects fluctuation of the center of gravity of the bright spot.
本発明により、簡易かつ低コストに、マウスクリック様操作が可能な投影型ユーザインターフェースシステムを提供することができる。 According to the present invention, it is possible to provide a projection type user interface system capable of a mouse click-like operation easily and at low cost.
以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted as necessary for the sake of clarity.
実施の形態に係る投影型ユーザインターフェースシステムの構成を図1に示す。この投影型ユーザインターフェースシステムは、特に、移動ロボットに適している。図1に示すように、実施の形態に係る投影型ユーザインターフェースシステムは、コントローラ101、対話ウィンドウ生成部102、プロジェクタ(投影機)103、カメラ104、画像比較部106、領域校正部107、輝点検出部108、輝点静止タイマ109、輝点ゆらぎ検出部110を備えている。
FIG. 1 shows the configuration of a projection type user interface system according to the embodiment. This projection type user interface system is particularly suitable for a mobile robot. As shown in FIG. 1, the projection type user interface system according to the embodiment includes a
実施の形態に係る投影型ユーザインターフェースシステムは、例えば、図2に示すような対話ウィンドウを床面、壁面、天井面などに投影する移動ロボットに搭載するものとして最適である。ここで、投影された画面に対し、ユーザがレーザポインタ、懐中電灯などの発光型ポインタを用いてマウスクリック様操作を行う。発光型ポインタの光源としてはレーザなどが好適であるが、特に限定されるものではない。 The projection type user interface system according to the embodiment is optimal for mounting on a mobile robot that projects an interactive window as shown in FIG. 2 on a floor surface, a wall surface, a ceiling surface, or the like. Here, the user performs a mouse click-like operation on the projected screen using a light emitting pointer such as a laser pointer or a flashlight. The light source of the light emitting pointer is preferably a laser, but is not particularly limited.
具体的には、例えば、図2の選択ボタン「指示1」を上記マウスクリック様操作により選択し、続いて、選択ボタン「OK」を上記マウスクリック様操作により選択する。これにより、選択ボタン「指示1」が正式に選択され、実施されることになる。ここで、誤入力防止のため、このように2段階方式にするのが好ましい。しかしながら、選択ボタン「OK」を選択する操作を省略し、選択ボタン「指示1」のみの選択で、選択ボタン「指示1」が正式に選択されるようにしてもよい。 Specifically, for example, the selection button “instruction 1” in FIG. 2 is selected by the mouse click-like operation, and then the selection button “OK” is selected by the mouse click-like operation. As a result, the selection button “instruction 1” is formally selected and executed. Here, in order to prevent erroneous input, it is preferable to use the two-stage method in this way. However, the operation of selecting the selection button “OK” may be omitted, and the selection button “instruction 1” may be formally selected by selecting only the selection button “instruction 1”.
コントローラ101は、対話ウィンドウ生成部102に対し、対話ウィンドウの作成を指示する。そして、コントローラ101は、プロジェクタ103に対し、対話ウィンドウ生成部102により作成された対話ウィンドウの投影を指示する。
一方、コントローラ101は、輝点検出部108及びゆらぎ検出部110を介して入力された指示(例えば、図2に示した選択ボタン「指示1」や「指示2」)に応じた動作を規定し、他のユニット(不図示)に対し、指示する。
The
On the other hand, the
対話ウィンドウ生成部102は、コントローラ101からの指示に基づいて、対話ウィンドウを作成する。作成された対話ウィンドウは直接プロジェクタ103により投影されても、一旦バッファ(不図示)に格納されてから投影されてもよい。
プロジェクタ103は、コントローラ101からの指示に基づいて、対話ウィンドウを所定の場所に投影する。
The dialogue
The
カメラ104は、対話ウィンドウ投射前の背景及び投射された対話ウィンドウを撮影する。ここで、移動ロボット起動中、カメラ104は随時動画撮影している。もちろん、例えば、コントローラ101からの指示に基づいて、必要な場合のみ撮影するような構成であってもよい。
画像バッファ105には、カメラ104により撮影された画像が格納される。
The
An image captured by the
フレーム比較部106は、画像バッファ105に格納された対話ウィンドウの画像とその背景画像とを比較し、背景画像補正を行う。図3は背景画像補正の概念図である。図3に示すように、背景画像補正とは、背景画像を含む対話ウィンドウの画像データから背景画像データを除去する補正である。移動ロボットでは、ロボット自身が移動しながら対話ウィンドウを投影する。そのため、必ずしも白色スクリーンに投影するわけではない。具体的には、床面、壁面、天井面など、実環境における種々の物体上に投影する。本発明では、背景画像補正をおこなうことにより、いかなる投影場所であっても、精度よく輝点の動きを検出することができる。
The
また、フレーム比較部106は、領域校正部107からの指示に基づいて、撮影された対話ウィンドウの台形形状及び回転を補正する。具体的には、図3に示すように、例えば、床面に投影された対話ウィンドウは台形形状にゆがんでいる。
Further, the
また、ロボットと対面するユーザに対して対話ウィンドウを投影する場合、対話ウィンドウを180度回転させて投影する。そのため、対話ウィンドウの台形形状及び回転を補正する必要がある。図3は、図2に示した対話ウィンドウを180度回転させて投影した場合を示している。 Further, when projecting a dialog window to a user facing the robot, the dialog window is rotated 180 degrees and projected. Therefore, it is necessary to correct the trapezoidal shape and rotation of the dialogue window. FIG. 3 shows a case where the dialog window shown in FIG. 2 is projected after being rotated by 180 degrees.
輝点検出部108は、輝点静止タイマ109を参照しつつ、ユーザがポインタにより指し示した輝点を検出する。また、輝点検出部108は、検出した輝点の重心を算出する。輝点検出方法の詳細については後述する。
The bright
輝点ゆらぎ検出部110は、ユーザがポインタにより指し示した輝点のゆらぎを検出するローパスフィルタ(LPF:Low Pass Filter)を備えている。ここで、ユーザが指し示した輝点の位置はゆらぐ。一方、背景の反射や外光などは静止している。そのため、ユーザが指し示した輝点以外の光は、偽輝点として除去することができる。
The bright spot
また、輝点ゆらぎ検出部110は、輝点重心のゆらぎが設定した領域内にある場合、輝点が静止していると判断する。そして、所定の時間、輝点が静止していれば、その輝点が位置する対話ウィンドウの選択ボタンが選択される。この指示がコントローラ101に入力される。一方、輝点が静止していないと判断した場合、静止タイマ109をリセットする。
Further, the bright spot
以上説明したとおり、本発明の構成により、投影された対話ウィンドウに対するポインタによる光照射のみにより、すなわち、簡易かつ低コストに、マウスクリック様操作が可能な投影型ユーザインターフェースシステムを提供することができる。 As described above, according to the configuration of the present invention, it is possible to provide a projection type user interface system capable of mouse click-like operation only by light irradiation with a pointer to a projected dialogue window, that is, simply and at low cost. .
次に、上記投影型ユーザインターフェースシステムの処理フローについて、図4を参照して説明する。
まず、コントローラ101の指示に基づいて、対話ウィンドウ生成部102が対話ウィンドウを作成する(S201)。
次に、コントローラ101の指示に基づいて、プロジェクタ103により作成された対話ウィンドウを床面や壁面などに投影する(S202)。なお、対話ウィンドウ投影前に、カメラ104により背景が撮影される。
Next, a processing flow of the projection type user interface system will be described with reference to FIG.
First, the dialogue
Next, based on the instruction from the
次に、投影された対話ウィンドウをカメラ104により撮影する(S203)。
次に、フレーム比較部106が、撮影された対話ウィンドウの画像から、投影前に撮影された背景を除去する背景画像補正を行う(S204)。
続いて、フレーム比較部106が、領域校正部107の指示に基づいて、撮影された対話ウィンドウの台形形状及び回転を補正する(S205)。
Next, the projected dialogue window is photographed by the camera 104 (S203).
Next, the
Subsequently, the
次に、輝点検出部108が、ユーザにより指し示されたポインタの輝点を探索する(S206)。具体的には、背景画像補正後の画像を元に、2値化のカットオフレベルをスイープし、あるサイズ(例えば、32×32ピクセル)以下の明るい領域が残るかどうかで判定する。
Next, the bright
輝点があれば(S207YES)、続けて、輝点の重心を計算し、その輝点重心の動きを検出する(S208)。
一方、輝点がなければ(S207NO)、S203に戻り、再度投影された対話ウィンドウをカメラ104により撮影する。
If there is a bright spot (YES in S207), the center of gravity of the bright spot is calculated, and the movement of the center of bright spot is detected (S208).
On the other hand, if there is no bright spot (NO in S207), the process returns to S203, and the projected conversation window is captured by the
次に、輝点ゆらぎ検出部110が、重心位置が揺らぐか否かを判断する(S209)。輝点が揺らがない場合(S209NO)、偽輝点であると判断し、S206に戻り、再び輝点を探索する。一方、輝点が揺らぐ場合(S209YES)、輝点であると判断する。そして、重心の軌跡が閾値以下か否かを判断する(S210)。
Next, the bright spot
重心の軌跡が閾値以下でない場合(S210NO)、輝点ゆらぎ検出部110は、輝点が静止していないものと判断する。そして、静止タイマ109をリセットし、S208に戻り、再び輝点重心の動きを検出する。一方、重心の軌跡が閾値以下の場合(S210YES)、輝点が静止しているものと判断する。そして、静止時間を計測中か否かを判断する(S211)。
When the locus of the center of gravity is not less than or equal to the threshold (NO in S210), the bright spot
静止時間を計測中でない場合(S211NO)、ゆらぎ検出部110は、静止タイマ109をスタートさせ、S208に戻り、輝点重心の動きを検出する。一方、静止時間を計測中の場合(S211YES)、続けて、静止時間が設定値を超えているか否かを判断する(S212)。
When the stationary time is not being measured (NO in S211), the
静止時間が設定値を超えていない場合(S212NO)、S208に戻り、輝点重心の動きを検出する。一方、静止時間が設定値を超えている場合(S212YES)、トリガ座標を出力する(S213)。この座標から選択された選択ボタンを認識する。以上により、無線通信などの複雑な機構を用いることなく、投影された対話ウィンドウに対し、ポインタにより光を照射するだけで、マウスクリック様操作を実施することができる。すなわち、簡易かつ低コストに、マウスクリック様操作を実施することができる。 If the stationary time does not exceed the set value (NO in S212), the process returns to S208, and the movement of the bright spot centroid is detected. On the other hand, if the stationary time exceeds the set value (S212 YES), trigger coordinates are output (S213). The selection button selected from this coordinate is recognized. As described above, a mouse click-like operation can be performed simply by irradiating the projected dialogue window with light using a pointer without using a complicated mechanism such as wireless communication. That is, a mouse click-like operation can be performed easily and at low cost.
本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。 The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention already described.
101 コントローラ
102 対話ウィンドウ生成部
103 プロジェクタ
104 カメラ
105 画像バッファ
106 画像比較部
107 領域校正部
108 輝点検出部
109 輝点静止タイマ
110 輝点ゆらぎ検出部
DESCRIPTION OF
Claims (7)
前記プロジェクタにより投影された前記対話ウィンドウを撮影するカメラと、
前記カメラにより撮影された前記対話ウィンドウの画像から、当該対話ウィンドウ上のポインタによる輝点の重心の動きを検出する輝点検出部と、
前記輝点の重心のゆらぎを検出する輝点ゆらぎ検出部とを備えた投影型ユーザインターフェースシステム。 A projector that projects a dialogue window;
A camera that captures the dialogue window projected by the projector;
A bright spot detection unit that detects a movement of the center of gravity of a bright spot by a pointer on the dialog window from an image of the dialog window captured by the camera;
A projection type user interface system comprising: a bright spot fluctuation detecting unit that detects fluctuation of the center of gravity of the bright spot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008015265A JP2009176138A (en) | 2008-01-25 | 2008-01-25 | Projection user interface system and mobile robot therewith |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008015265A JP2009176138A (en) | 2008-01-25 | 2008-01-25 | Projection user interface system and mobile robot therewith |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009176138A true JP2009176138A (en) | 2009-08-06 |
Family
ID=41031135
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008015265A Pending JP2009176138A (en) | 2008-01-25 | 2008-01-25 | Projection user interface system and mobile robot therewith |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009176138A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07319616A (en) * | 1994-05-26 | 1995-12-08 | Hitachi Ltd | Position input method and conference support system using the same |
JP2001236178A (en) * | 2000-02-22 | 2001-08-31 | Seiko Epson Corp | System and method for detecting indication position, presentation system and information storage medium |
JP2007172303A (en) * | 2005-12-22 | 2007-07-05 | Seiko Epson Corp | Information input system |
JP2007233647A (en) * | 2006-02-28 | 2007-09-13 | Shinano Kenshi Co Ltd | Presentation data processing apparatus |
-
2008
- 2008-01-25 JP JP2008015265A patent/JP2009176138A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07319616A (en) * | 1994-05-26 | 1995-12-08 | Hitachi Ltd | Position input method and conference support system using the same |
JP2001236178A (en) * | 2000-02-22 | 2001-08-31 | Seiko Epson Corp | System and method for detecting indication position, presentation system and information storage medium |
JP2007172303A (en) * | 2005-12-22 | 2007-07-05 | Seiko Epson Corp | Information input system |
JP2007233647A (en) * | 2006-02-28 | 2007-09-13 | Shinano Kenshi Co Ltd | Presentation data processing apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6829394B2 (en) | System and method of pointed position detection, presentation system, and program | |
US9594455B2 (en) | Projector and control method | |
JP4927021B2 (en) | Cursor control device and control method for image display device, and image system | |
US9033516B2 (en) | Determining motion of projection device | |
JP6075122B2 (en) | System, image projection apparatus, information processing apparatus, information processing method, and program | |
US8449122B2 (en) | Image marking method and apparatus | |
JP2008165800A (en) | Cursor control method and device | |
US8928626B2 (en) | Optical navigation system with object detection | |
US9304607B2 (en) | Pointer positioning method of handheld pointer device | |
JP2011043876A (en) | Image display device | |
US8434879B2 (en) | Control device and projection-type video-image display device | |
US9875525B2 (en) | Image processing device, projector, and image processing method | |
US20160041632A1 (en) | Contact detection system, information processing method, and information processing apparatus | |
WO2014029020A1 (en) | Keyboard projection system with image subtraction | |
EP3032380B1 (en) | Image projection apparatus, and system employing interactive input-output capability | |
US20120281100A1 (en) | Control system and method for a computer using a projector | |
JP2012053603A (en) | Information display system | |
JP2009176138A (en) | Projection user interface system and mobile robot therewith | |
TWI607343B (en) | Information technology device input systems and associated methods | |
JP2012027769A (en) | Interactive white board device, image display device and calibration method | |
JP5521809B2 (en) | Pointing system, control device, and control method | |
JP2010026754A (en) | Terminal device, display control method, and display control program | |
JP2005078291A (en) | Image projecting and displaying device, pointing position detecting method, program and recording medium | |
JP2005339269A (en) | Image display device | |
JP4665808B2 (en) | Detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111220 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120125 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120306 |