JP2011028629A - Presentation system - Google Patents

Presentation system Download PDF

Info

Publication number
JP2011028629A
JP2011028629A JP2009175413A JP2009175413A JP2011028629A JP 2011028629 A JP2011028629 A JP 2011028629A JP 2009175413 A JP2009175413 A JP 2009175413A JP 2009175413 A JP2009175413 A JP 2009175413A JP 2011028629 A JP2011028629 A JP 2011028629A
Authority
JP
Japan
Prior art keywords
image
light
captured image
captured
presentation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009175413A
Other languages
Japanese (ja)
Inventor
Kazuo Ishimoto
一男 石本
Yusuke Ito
優祐 伊藤
Toshiro Nakakuki
俊朗 中▲茎▼
Makoto Maeda
誠 前田
Hiroshi Murashima
弘嗣 村島
Shugo Yamashita
周悟 山下
Toru Watanabe
透 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009175413A priority Critical patent/JP2011028629A/en
Publication of JP2011028629A publication Critical patent/JP2011028629A/en
Pending legal-status Critical Current

Links

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a presentation system for superimposing a drawing image drawn by a pointing stick on a basic image, and to provide an imaging apparatus included in the presentation system. <P>SOLUTION: The presentation system 10 including a projection type image display device 40 for projecting image light to a projection surface, and an imaging apparatus 60 for imaging the projection surface also includes: a pointer image acquisition part 130 for acquiring a pointer image composed of infrared light; a specification part 140 for specifying a position pointed by the infrared light on the basis of the pointer image; and an image control part 160 for controlling the image light on the basis of the position pointed. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、投写面上に表示される映像内において、ポインタ光によって指示された指示位置を特定するプレゼンテーションシステムに関する。   The present invention relates to a presentation system for specifying an indicated position indicated by a pointer light in an image displayed on a projection surface.

従来、投写レンズユニットから出射された映像光を投写面上に投写する投写型映像表示装置が知られている。プレゼンテーションや会議などで投写型映像表示装置が用いられるケースが考えられる。プレゼンテーションや会議では、ユーザは、投写面上に表示された映像を指示棒などによって指示しながら説明を行うことが一般的である。   2. Description of the Related Art Conventionally, a projection display apparatus that projects image light emitted from a projection lens unit onto a projection surface is known. A case where a projection display apparatus is used in a presentation or a meeting is conceivable. In a presentation or a meeting, a user generally performs an explanation while instructing an image displayed on a projection surface with an instruction bar or the like.

ここで、投写面上に表示された映像内において、指示棒などによって指示された指示位置の検出によって、ユーザの利便性の向上を図ることが提案されている。例えば、指示位置を利用するアプリケーションとしては、(a)指示位置にカーソル画像を表示するアプリケーション、(b)指示位置の推移に沿って線や曲線を描画するアプリケーションなどが挙げられる。   Here, it has been proposed to improve the convenience of the user by detecting an indication position indicated by an indication stick or the like in an image displayed on the projection surface. For example, applications that use the designated position include (a) an application that displays a cursor image at the designated position, and (b) an application that draws a line or a curve along the transition of the designated position.

指示位置を検出する技術としては、投写レンズユニットから出射された映像光が指示棒によって遮られることによって、投写面上に投影される指示棒の影を利用する指示位置検出システムが提案されている(例えば、特許文献1)。
特開2001−222375号公報
As a technique for detecting the pointing position, there has been proposed a pointing position detection system that uses the shadow of the pointing bar projected on the projection surface when the image light emitted from the projection lens unit is blocked by the pointing bar. (For example, patent document 1).
JP 2001-222375 A

しかしながら、投写面上に投影される指示棒の影を利用するシステムでは、スクリーンに対し、投写型映像表示装置が正対した状態で配置されないと、指示棒が指示している位置と指示棒の影との位置関係にずれが生じてしまう。すなわち、上記(b)のようなアプリケーションを活用する場合、描画映像がユーザの指示した位置からずれてしまい、ユーザの利便性の向上が十分に図れない。   However, in a system that uses the shadow of the indicator bar projected on the projection surface, the position indicated by the indicator bar and the position of the indicator bar are not provided unless the projection display device is placed facing the screen. Deviation occurs in the positional relationship with the shadow. That is, when using the application as described in (b) above, the drawn video is shifted from the position designated by the user, and the convenience for the user cannot be sufficiently improved.

そこで、本発明は、上述した課題を解決するためになされたものであり、基本映像に、指示棒によって描いた描画映像を重畳することを可能とするプレゼンテーションシステム及び撮像装置を提供することを目的とする。   Accordingly, the present invention has been made to solve the above-described problems, and an object of the present invention is to provide a presentation system and an imaging apparatus that can superimpose a drawn video drawn with a pointing stick on a basic video. And

上述した課題を解決するため、本発明は、次のような特徴を有している。まず、本発明の一の特徴において、プレゼンテーションシステム(プレゼンテーションシステム10)は、投写面(スクリーン30)上に映像光を投写する投写型映像表示装置投写型映像表示装置40)と、前記投写面を撮像する撮像装置(撮像装置60)とを備えるものである。このプレゼンテーションシステムは、前記撮像装置によって撮像された撮像画像に基づいて、赤外光によって構成されるポインタ画像を取得するポインタ画像取得部(ポインタ画像取得部130)と、前記ポインタ画像に基づいて、前記赤外光によって指示された指示位置を特定する特定部(指示位置特定部140)と、前記指示位置に基づいて、前記映像光を制御する映像制御部(映像制御部160)とを備えることを要旨とする。   In order to solve the above-described problems, the present invention has the following features. First, in one aspect of the present invention, a presentation system (presentation system 10) includes a projection display apparatus (projection display apparatus 40) that projects image light on a projection plane (screen 30), and the projection plane. And an imaging device (imaging device 60) for imaging. This presentation system includes a pointer image acquisition unit (pointer image acquisition unit 130) that acquires a pointer image composed of infrared light based on a captured image captured by the imaging device, and based on the pointer image. A specifying unit (instructed position specifying unit 140) for specifying the indicated position instructed by the infrared light; and a video control unit (video control unit 160) for controlling the video light based on the designated position. Is the gist.

かかる特徴によれば、特定部は、可視光画像取得部によって取得された可視光画像、及び、ポインタ画像取得部によって取得されたポインタ画像に基づいて、映像光によって構成される映像内において、指示棒などによって指示された指示位置を特定する。そして、指示棒が指示している指示位置に基づいて、描画映像を生成する。従って、基本映像に、指示棒によって描いた描画映像を重畳することが可能となる。これにより、ユーザの利便性の向上を図ることができる。   According to such a feature, the specifying unit provides an instruction in a video composed of video light based on the visible light image acquired by the visible light image acquisition unit and the pointer image acquired by the pointer image acquisition unit. The indicated position indicated by a stick or the like is specified. Then, a drawing image is generated based on the indication position indicated by the indication bar. Therefore, it is possible to superimpose a drawing image drawn by the pointer on the basic image. Thereby, the user's convenience can be improved.

本発明の一の特徴において、前記撮像装置は、連続して前記撮像画像を撮像するものであり、前記特定部は、前記連続した撮像画像のうち一つ前の撮像画像(N−1フレーム目の撮像画像)に基づいて、前記赤外光によって指示された指示位置を特定するものである。   In one aspect of the present invention, the imaging device continuously captures the captured image, and the specifying unit includes the first captured image (N-1th frame) of the consecutive captured images. The designated position designated by the infrared light is specified on the basis of the captured image).

この構成により、特定部での演算量を低減することができ、引いては、描画画像を生成するための応答速度を向上させることができる。   With this configuration, it is possible to reduce the amount of calculation in the specific unit, and in turn, it is possible to improve the response speed for generating a drawn image.

本発明の一の特徴において、プレゼンテーションシステムは、前記撮像装置によって撮像された撮像画像を記憶する記憶部(撮像画像記憶部110)をさらに備える。前記記憶部は、前記撮像装置の位置による歪みを補正して撮像画像を記憶する。   In one aspect of the present invention, the presentation system further includes a storage unit (captured image storage unit 110) that stores a captured image captured by the imaging device. The storage unit corrects distortion due to the position of the imaging device and stores a captured image.

この構成により、撮像装置の位置に拠らず、正対した位置からの投写面の映像を記憶させることができる。従って、指示位置を正確に特定することができるほか、投写面に投写されている映像光を記録に残したい場合にも、きれいな映像を保存することができる。   With this configuration, it is possible to store an image of the projection surface from a directly facing position regardless of the position of the imaging device. Therefore, it is possible to accurately specify the designated position, and it is also possible to save a clear image when it is desired to leave the image light projected on the projection surface in the record.

本発明によれば、基本映像に、指示棒によって描いた描画映像を重畳することを可能とするプレゼンテーションシステムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the presentation system which makes it possible to superimpose the drawing image drawn with the indicator on the basic image can be provided.

第1実施形態に係るプレゼンテーションシステムの構成を示す図である。It is a figure which shows the structure of the presentation system which concerns on 1st Embodiment. 第1実施形態に係る撮像装置の撮像レンズ近傍を示す図である。It is a figure which shows the imaging lens vicinity of the imaging device which concerns on 1st Embodiment. 第1実施形態に係る制御ユニットを示すブロック図である。It is a block diagram which shows the control unit which concerns on 1st Embodiment. 第1実施形態に係る撮像装置によって撮像された撮像画像(第1撮像画像)の一例を示す図である。It is a figure which shows an example of the captured image (1st captured image) imaged with the imaging device which concerns on 1st Embodiment. 第1実施形態に係る撮像装置によって撮像された撮像画像(第2撮像画像)の一例を示す図である。It is a figure which shows an example of the captured image (2nd captured image) imaged with the imaging device which concerns on 1st Embodiment. 第1実施形態に係る撮像装置によって撮像された撮像画像の他の例を示す図である。It is a figure which shows the other example of the captured image imaged with the imaging device which concerns on 1st Embodiment. 第1実施形態に係る撮像装置によって撮像された撮像画像の歪みを補正する例を示す図である。It is a figure which shows the example which correct | amends the distortion of the captured image imaged with the imaging device which concerns on 1st Embodiment. 第1実施形態に係る撮像装置によって撮像された撮像画像から特定被写体を追尾する一例を示す図である。It is a figure which shows an example which tracks a specific subject from the captured image imaged with the imaging device which concerns on 1st Embodiment. 第1実施形態に係る基本映像、描画映像および重畳映像の一例を示す図である。It is a figure which shows an example of the basic image, drawing image, and superimposed image which concern on 1st Embodiment.

以下において、本発明の実施形態に係るプレゼンテーションシステムについて、図面を参照しながら説明する。なお、以下の図面の記載において、同一又は類似の部分には、同一又は類似の符号を付している。   Hereinafter, a presentation system according to an embodiment of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

ただし、図面は模式的なものであり、各寸法の比率などは現実のものとは異なることに留意すべきである。従って、具体的な寸法などは以下の説明を参酌して判断すべきである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。   However, it should be noted that the drawings are schematic and ratios of dimensions and the like are different from actual ones. Therefore, specific dimensions and the like should be determined in consideration of the following description. Moreover, it is a matter of course that portions having different dimensional relationships and ratios are included between the drawings.

[第1実施形態]
(プレゼンテーションシステムの構成)
以下において、第1実施形態に係るプレゼンテーションシステムの構成について、図面を参照しながら説明する。図1は、第1実施形態に係るプレゼンテーションシステムの構成を示す図であり、図2は、第1実施形態に係る撮像装置の撮像レンズ近傍を示す図である。
[First Embodiment]
(Presentation system configuration)
The configuration of the presentation system according to the first embodiment will be described below with reference to the drawings. FIG. 1 is a diagram illustrating the configuration of the presentation system according to the first embodiment, and FIG. 2 is a diagram illustrating the vicinity of the imaging lens of the imaging device according to the first embodiment.

図1に示すように、プレゼンテーションシステム10は、パーソナルコンピュータ(以下、PC20)と、映像光Iを投写面であるスクリーン30に拡大投写する投写型映像表示装置40と、特定の波長帯の光を透過する選択透過素子50と、スクリーン30およびスクリーン30の下部に設けられた載置台32とを撮像する撮像装置60と、映像光Iの一部を指示するために用いられ、先端に赤外LED71が配された指示棒70とを備えている。   As shown in FIG. 1, the presentation system 10 includes a personal computer (hereinafter referred to as a PC 20), a projection display device 40 that enlarges and projects the image light I onto a screen 30 that is a projection surface, and light in a specific wavelength band. Used for instructing a part of the image light I, an image pickup device 60 for picking up an image of the selective transmission element 50 that transmits the light, the screen 30 and the mounting table 32 provided below the screen 30, and an infrared LED 71 at the tip. Is provided with an indicator rod 70 arranged.

PC20は、画像等を表示する表示部21と、投写型映像表示装置40及びPC20を操作する操作部22とを備える。なお、PC20は、図1において、1台であるが、必ずしも1台である必要はなく、複数台であっても勿論よい。また、プレゼンテーションシステム10では、PC20の代わりに、他の情報端末装置が用いられていてもよい。   The PC 20 includes a display unit 21 that displays an image and the like, and a projection video display device 40 and an operation unit 22 that operates the PC 20. In addition, although the number of PCs 20 is one in FIG. 1, it is not always necessary to be one, and may be a plurality of units. In the presentation system 10, another information terminal device may be used instead of the PC 20.

スクリーン30は、投写型映像表示装置40からの映像光Iを反射する。投写型映像表示装置40からスクリーン30に投写された映像光Iの領域は、映像光Iによって構成される映像内31と定義される。スクリーン30は、下部に載置台32を、上部に投写型映像表示装置40を備える。載置台32上に載置されたサンプルは、撮像装置60によって撮像され、投写型映像表示装置40によってスクリーン30へ投写される。   The screen 30 reflects the image light I from the projection display apparatus 40. The area of the image light I projected from the projection display apparatus 40 onto the screen 30 is defined as an image 31 constituted by the image light I. The screen 30 includes a mounting table 32 at the lower part and a projection display device 40 at the upper part. The sample placed on the placing table 32 is picked up by the image pickup device 60 and projected onto the screen 30 by the projection display device 40.

投写型映像表示装置40は、スクリーン30の上部に設けられる。投写型映像表示装置40は、図示しない投写レンズ群と非球面の凹面ミラーとによって、スクリーン30の上部からの、極めて焦点距離の短い投写を可能にしている。   The projection display apparatus 40 is provided on the upper part of the screen 30. The projection display apparatus 40 enables projection with a very short focal length from the upper part of the screen 30 by a projection lens group (not shown) and an aspherical concave mirror.

投写型映像表示装置40は、図面では不図示であるが、白色光を発する光源と、可視光を透過して非可視光(視外光)を遮光するUV/IRカットフィルタと、光を均一化するフライアイレンズユニットと、光の偏光状態を揃えるPBSアレイと、可視光(赤成分光、緑成分光及び青成分光)を変調する液晶パネル(例えば、赤成分光用液晶パネル、緑成分光用液晶パネル及び青成分光用液晶パネル)と、液晶パネルから出射された光を合成するクロスダイクロイックプリズムとを備えている。   Although not shown in the drawing, the projection display 40 is a light source that emits white light, a UV / IR cut filter that transmits visible light and blocks non-visible light (external light), and uniform light. Fly eye lens unit, PBS array that aligns the polarization state of light, and liquid crystal panel that modulates visible light (red component light, green component light, and blue component light) (eg, liquid crystal panel for red component light, green component) A liquid crystal panel for light and a liquid crystal panel for blue component light) and a cross dichroic prism for synthesizing light emitted from the liquid crystal panel.

選択透過素子50は、図2に示すように、撮像装置60の光入射側に設けられる。具体的には、選択透過素子50は、可視光が有する第1波長帯の光を透過する第1状態と、赤外LED71が発する赤外の波長帯(第2波長帯)の光を透過する第2状態とを切り替え可能に構成されている。   As illustrated in FIG. 2, the selective transmission element 50 is provided on the light incident side of the imaging device 60. Specifically, the selective transmission element 50 transmits light in a first state where visible light has a first wavelength band and light in an infrared wavelength band (second wavelength band) emitted from the infrared LED 71. The second state can be switched.

撮像装置60は、スクリーン30上に照射された光(すなわち、スクリーン30から反射した光)とスクリーン30の下部に設けられた載置台32からの光とを集光する撮像レンズ61と、撮像レンズ61から出射された光を撮像する撮像素子62とを有している。   The imaging device 60 includes an imaging lens 61 that collects the light irradiated on the screen 30 (that is, the light reflected from the screen 30) and the light from the mounting table 32 provided below the screen 30, and the imaging lens. And an image sensor 62 that images the light emitted from 61.

この場合、撮像レンズ61は、スクリーン30および載置台32を含む広い範囲からの光を集光可能な広角レンズが適している。また、撮像レンズ61が通常の集光レンズの場合、図示しない切替手段によって、スクリーン30を含む領域から集光する向き(指示位置特定モード)と、載置台32上の面を含む領域から集光する向き(書画カメラモード)とを切り替えてもよい。   In this case, the imaging lens 61 is suitably a wide-angle lens that can collect light from a wide range including the screen 30 and the mounting table 32. When the imaging lens 61 is a normal condensing lens, the switching unit (not shown) collects light from the region including the screen 30 (instructed position specifying mode) and condenses from the region including the surface on the mounting table 32. The direction to be performed (document camera mode) may be switched.

撮像素子62は、撮像レンズ61から出射された光をアナログ信号に変換する。そして、撮像素子62は、アナログ信号をデジタル信号(すなわち、撮像画像)に変換する。撮像素子62は、撮像画像をPC20に出力する。撮像素子62は、選択透過素子50が第1状態である場合に、第1撮像画像(図4参照)を撮像する。一方で、撮像素子62は、選択透過素子50が第2状態である場合に、第2撮像画像(図5参照)を撮像する。なお、第1撮像画像及び第2撮像画像の詳細については、後述する。   The imaging element 62 converts the light emitted from the imaging lens 61 into an analog signal. Then, the image sensor 62 converts the analog signal into a digital signal (that is, a captured image). The image sensor 62 outputs the captured image to the PC 20. The imaging element 62 captures the first captured image (see FIG. 4) when the selective transmission element 50 is in the first state. On the other hand, the imaging element 62 captures a second captured image (see FIG. 5) when the selective transmission element 50 is in the second state. Details of the first captured image and the second captured image will be described later.

指示棒70は、ユーザ(不図示)がスクリーン30上に表示された映像を指示するツールである。指示棒70は、先端に赤外光を発する赤外LED71を備える。指示棒70は、赤外LED71から赤外光を出射する光出射ボタン72を有している。つまり、ユーザが光出射ボタン72を押すことにより、指示棒70から赤外光が出射される。   The instruction bar 70 is a tool for instructing an image displayed on the screen 30 by a user (not shown). The indicator bar 70 includes an infrared LED 71 that emits infrared light at the tip. The indicator bar 70 has a light emission button 72 for emitting infrared light from the infrared LED 71. That is, when the user presses the light emitting button 72, infrared light is emitted from the pointing rod 70.

(制御ユニットの構成)
次に、第1実施形態に係る制御ユニットの構成について、図面を参照しながら説明する。図3は、第1実施形態に係る制御ユニットを示すブロック図であり、図4〜図6は、第1実施形態に係る撮像装置によって撮像された撮像画像の一例を示す図である。
(Configuration of control unit)
Next, the configuration of the control unit according to the first embodiment will be described with reference to the drawings. FIG. 3 is a block diagram illustrating the control unit according to the first embodiment, and FIGS. 4 to 6 are diagrams illustrating an example of a captured image captured by the imaging apparatus according to the first embodiment.

ここで、図4(a)は、選択透過素子50が第1状態である場合に、選択透過素子50を透過する光(可視光)の波長帯を示す図であり、図4(b)は、選択透過素子50が第1状態である場合に、撮像素子62によって撮像された第1撮像画像を示す図である。なお、第1撮像画像には、投写型映像表示装置40がスクリーン30上に投写する映像光Iによって構成される基本映像と、ユーザの手など映像と、指示棒70の映像とが含まれる。   Here, FIG. 4A is a diagram illustrating a wavelength band of light (visible light) transmitted through the selective transmission element 50 when the selective transmission element 50 is in the first state, and FIG. FIG. 11 is a diagram showing a first captured image captured by the image sensor 62 when the selective transmission element 50 is in the first state. Note that the first captured image includes a basic image constituted by the image light I projected on the screen 30 by the projection display apparatus 40, an image of a user's hand, and an image of the pointing bar 70.

図5(a)は、選択透過素子50が第2状態である場合に、選択透過素子50を透過する光(赤外成分光)の波長帯を示す図であり、図5(b)は、選択透過素子50が第2状態である場合に、撮像素子62によって撮像された第2撮像画像を示す図である。なお、このとき、ユーザは光出射ボタン72を押しており、赤外LED71から赤外光が出射されているものとする。   FIG. 5A is a diagram illustrating a wavelength band of light (infrared component light) transmitted through the selective transmission element 50 when the selective transmission element 50 is in the second state, and FIG. It is a figure which shows the 2nd picked-up image imaged with the image pick-up element 62, when the selective transmission element 50 is a 2nd state. At this time, it is assumed that the user is pressing the light emitting button 72 and infrared light is emitted from the infrared LED 71.

図6は、ユーザが光出射ボタン72を押してなく、赤外LED71から赤外光が出射されていない場合の第2撮像画像を示す図である。   FIG. 6 is a diagram illustrating a second captured image when the user does not press the light emitting button 72 and infrared light is not emitted from the infrared LED 71.

図3に示すように、制御ユニット100は、PC20に設けられている。制御ユニット100は、指示棒70によって指示された指示位置を特定する。具体的には、制御ユニット100は、撮像画像記憶部110と、可視光画像取得部120と、ポインタ画像取得部130と、指示位置特定部140と、基本映像生成部150と、描画映像生成部155と、映像制御部160とを備えている。   As shown in FIG. 3, the control unit 100 is provided in the PC 20. The control unit 100 specifies the indicated position indicated by the indication rod 70. Specifically, the control unit 100 includes a captured image storage unit 110, a visible light image acquisition unit 120, a pointer image acquisition unit 130, an indicated position specifying unit 140, a basic video generation unit 150, and a drawing video generation unit. 155 and a video control unit 160.

撮像画像記憶部110は、撮像素子62によって撮像された撮像画像を記憶する。例えば、撮像画像記憶部110は、第1撮像画像(図4参照)や、第2撮像画像(図5参照)などを記憶する。   The captured image storage unit 110 stores a captured image captured by the image sensor 62. For example, the captured image storage unit 110 stores a first captured image (see FIG. 4), a second captured image (see FIG. 5), and the like.

ここで、撮像装置60は、スクリーン30から50cm乃至100cmの距離からスクリーン30全体を撮像する広角な撮像レンズ61を有する。したがって、スクリーン30から撮像素子62に入射する光は、スクリーン30の面に対して所定の角度傾斜している。そこで、撮像画像記憶部110は、撮像素子62によって撮像された撮像画像を、以下の手法を用いて、撮像装置60位置による画像の歪みを補正し、第1撮像画像、第2撮像画像として記憶する。   Here, the imaging device 60 includes a wide-angle imaging lens 61 that images the entire screen 30 from a distance of 50 cm to 100 cm from the screen 30. Accordingly, light incident on the image sensor 62 from the screen 30 is inclined at a predetermined angle with respect to the surface of the screen 30. Therefore, the captured image storage unit 110 corrects the distortion of the image due to the position of the imaging device 60 using the following method and stores the captured image captured by the imaging element 62 as the first captured image and the second captured image. To do.

補正画像を生成するためには、撮像画像を補正画像に変換するための変換パラメータが必要となる。撮像画像記憶部110は、適切な補正画像が得られるように、即ち、補正画像上において、校正パターンの形状が正方形(或いは略正方形)になるように変換パラメータを校正し、校正後の変換パラメータを用いて撮像画像を補正画像に変換する。   In order to generate a corrected image, a conversion parameter for converting a captured image into a corrected image is required. The captured image storage unit 110 calibrates the conversion parameter so that an appropriate corrected image is obtained, that is, on the corrected image, so that the shape of the calibration pattern is square (or substantially square). Is used to convert the captured image into a corrected image.

具体的には、撮像画像と補正画像との間で、4点の座標値対応関係が分かれば、ホモグラフィ行列Hが一意に定まる。撮像画像と補正画像との間における4点の座標値対応関係に基づきホモグラフィ行列(射影変換行列)を求める手法として、公知の手法を用いればよい。   Specifically, the homography matrix H is uniquely determined if a correspondence relationship between four coordinate values is known between the captured image and the corrected image. A known technique may be used as a technique for obtaining a homography matrix (projection transformation matrix) based on the four-point coordinate value correspondence between the captured image and the corrected image.

すなわち、図7に示すような撮像画像の座標値(x1,y1)、(x2,y2)、(x3,y3)及び(x4,y4)が、夫々、補正画像上における座標値(X1,Y1)、(X2,Y2)、(X3,Y3)及び(X4,Y4)に変換されるように、ホモグラフィ行列Hの要素を求める。ホモグラフィ行列Hが求まれば、撮像画像上の任意の点を補正画像上の点に変換することが可能である。   That is, the coordinate values (x1, y1), (x2, y2), (x3, y3) and (x4, y4) of the captured image as shown in FIG. 7 are respectively the coordinate values (X1, Y1) on the corrected image. ), (X2, Y2), (X3, Y3) and (X4, Y4), the elements of the homography matrix H are obtained. If the homography matrix H is obtained, an arbitrary point on the captured image can be converted to a point on the corrected image.

実際には、最新のホモグラフィ行列Hに従って、撮像画像上の各座標(x,y)と補正画像上の各座標(X,Y)との対応関係を示すテーブルデータを作成し、これを撮像画像記憶部110に格納しておく。このテーブルデータを用いれば、撮像画像を補正画像、すなわち、図4に示すような第1撮像画像や、図5に示すような第2撮像画像に変換することができる。   Actually, according to the latest homography matrix H, table data indicating the correspondence between each coordinate (x, y) on the captured image and each coordinate (X, Y) on the corrected image is created, and this is captured. Stored in the image storage unit 110. By using this table data, the captured image can be converted into a corrected image, that is, a first captured image as shown in FIG. 4 or a second captured image as shown in FIG.

可視光画像取得部120は、撮像素子62によって撮像された撮像画像に基づいて、スクリーン30上に照射された可視光によって構成される可視光画像を取得する。具体的には、可視光画像取得部120は、第1撮像画像(図4参照)を可視光画像として取得する。   The visible light image acquisition unit 120 acquires a visible light image composed of visible light irradiated on the screen 30 based on the captured image captured by the imaging element 62. Specifically, the visible light image acquisition unit 120 acquires the first captured image (see FIG. 4) as a visible light image.

ポインタ画像取得部130は、撮像素子62によって撮像された撮像画像に基づいて、指示棒70の先端部の位置、具体的には、指示棒70の先端に設けられた赤外LED71から出射された赤外成分光によって構成されるポインタ画像を取得する。すなわち、ポインタ画像取得部130は、第2撮像画像(図5参照)に基づいて、ポインタ画像を取得する。   The pointer image acquisition unit 130 is emitted from the position of the distal end portion of the pointing rod 70, specifically, the infrared LED 71 provided at the distal end of the pointing rod 70 based on the captured image captured by the imaging element 62. A pointer image composed of infrared component light is acquired. That is, the pointer image acquisition unit 130 acquires a pointer image based on the second captured image (see FIG. 5).

指示位置特定部140は、可視光画像取得部120により取得された可視光画像(図4参照)、及び、ポインタ画像取得部130により取得されたポインタ画像(図5参照)に基づいて、映像光Iによって構成される映像内31において、指示棒70によって指示された指示位置を特定する。   The pointing position specifying unit 140 uses the visible light image (see FIG. 4) acquired by the visible light image acquisition unit 120 and the pointer light (see FIG. 5) acquired by the pointer image acquisition unit 130 based on the video light. In the image 31 constituted by I, the designated position designated by the pointing rod 70 is specified.

具体的には、指示位置特定部140は、取得した撮像画像(可視光画像及びポインタ画像)内の特定被写体を追尾する追尾機能を備えている。かかる機能は指示位置特定部140が備える追尾処理部141により実現される。追尾処理部141は、例えば、撮像により取得した追尾対象の色情報(例えば、R、G、B信号からなる色信号)を追尾することにより、追尾対象を追尾する。   Specifically, the designated position specifying unit 140 has a tracking function for tracking a specific subject in the acquired captured image (visible light image and pointer image). Such a function is realized by the tracking processing unit 141 included in the designated position specifying unit 140. For example, the tracking processing unit 141 tracks the tracking target by tracking color information of the tracking target (for example, a color signal including R, G, and B signals) acquired by imaging.

指示位置特定部140には、例えば、その内部メモリに予め追尾対象の色情報として、赤外LED71から出射される赤外成分光に基づく色信号が登録されている。ここで、赤外成分光は、人間には色として視認されないが、便宜上、色信号と称する。追尾処理部141は、追尾開始時に登録されている追尾対象の色信号を追尾色として設定する。追尾処理部141は、順次入力される撮像画像(フレーム画像)から追尾対象の位置及び大きさを検出する。   For example, a color signal based on infrared component light emitted from the infrared LED 71 is registered in the instructed position specifying unit 140 in advance in the internal memory as color information to be tracked. Here, the infrared component light is not visually recognized as a color by humans but is referred to as a color signal for convenience. The tracking processing unit 141 sets a tracking target color signal registered at the start of tracking as a tracking color. The tracking processing unit 141 detects the position and size of a tracking target from sequentially input captured images (frame images).

色情報に基づく追尾処理の方法として、特開平5−284411号公報、特開2000−48211号公報、特開2001−169169号公報などに記載の方法を用いることができる。上述したように、追尾対象が有する色情報は、設定した追尾色によって表現される。このため、追尾処理部141は、撮像画像の色情報に基づいて、追尾色との類似性が高い色を有する領域を撮像画像から抽出する。   As a tracking processing method based on color information, the methods described in JP-A-5-284411, JP-A-2000-48211, JP-A-2001-169169, and the like can be used. As described above, the color information that the tracking target has is expressed by the set tracking color. For this reason, the tracking processing unit 141 extracts a region having a color with high similarity to the tracking color from the captured image based on the color information of the captured image.

ここで抽出された領域は、赤外LED71から出射された赤外成分光によって構成されるポインタ画像の領域とみなされる。より具体的には、図8に示すように、撮像画像内Pに、追尾対象のポインタ画像領域の大きさと同程度の大きさを有する追尾枠Tを設定する。追尾枠T内における画像の色と追尾色との類似性評価を、探索範囲S内で追尾枠Tの位置を順次変更しながら実行する。最大の類似性が得られた追尾枠の位置に、追尾対象のポインタ画像領域が存在すると判断する。   The extracted area is regarded as a pointer image area constituted by infrared component light emitted from the infrared LED 71. More specifically, as shown in FIG. 8, a tracking frame T having the same size as the size of the tracking target pointer image area is set in the captured image P. Similarity evaluation between the color of the image and the tracking color within the tracking frame T is executed while sequentially changing the position of the tracking frame T within the search range S. It is determined that the tracking target pointer image area exists at the position of the tracking frame where the maximum similarity is obtained.

Nフレーム目における探索範囲Sは、N−1フレーム目の撮像画像における追尾対象の位置を基準にして設定される。通常、その探索範囲Sは、前回の撮像画像における追尾対象の位置を中心とする矩形領域とされ、探索範囲のサイズ(画像サイズ)は、撮像画像の全体領域のサイズよりも小さく設定される。   The search range S in the Nth frame is set based on the position of the tracking target in the captured image of the (N-1) th frame. Usually, the search range S is a rectangular region centered on the position of the tracking target in the previous captured image, and the size of the search range (image size) is set smaller than the size of the entire region of the captured image.

追尾処理部141は、次々と入力される撮像画像に対して、上述の色情報に基づく追尾処理を実行することにより、各追尾対象フレーム画像における追尾対象の位置を検出する。例えば、追尾対象の位置は、その追尾対象のポインタ画像領域の中心座標値によって表現される。また、撮像画像P上における追尾対象の大きさは、追尾対象と撮像装置60との間における、実空間上の距離の変化などに起因して変化する。   The tracking processing unit 141 detects the position of the tracking target in each tracking target frame image by executing the tracking process based on the color information described above for the captured images that are input one after another. For example, the position of the tracking target is expressed by the center coordinate value of the tracking target pointer image area. Further, the size of the tracking target on the captured image P changes due to a change in the distance in the real space between the tracking target and the imaging device 60.

このため、撮像画像P上における追尾対象の大きさに応じて上記の追尾枠Tの大きさを適切に変更していく必要がある。この変更は、公知の追尾アルゴリズムで用いられる被写体サイズ検出方法を用いることによって実現される。   For this reason, it is necessary to appropriately change the size of the tracking frame T according to the size of the tracking target on the captured image P. This change is realized by using a subject size detection method used in a known tracking algorithm.

画像特徴は、輝度情報及び色情報を含む。この分類によって追尾対象の輪郭が推定される。そして、その輪郭から追尾対象の大きさを推定し、この推定された大きさに応じて追尾枠の大きさを設定する。追尾枠の大きさを設定するということは、撮像画像における追尾対象のポインタ画像領域の大きさを検出するということと同義である。また、追尾対象の大きさは、ポインタ画像領域の大きさに比例するのであるから、ポインタ画像領域の大きさの検出と同時に追尾対象の大きさも特定される。このため、追尾処理部141は、各撮像画像における追尾対象の位置及び大きさを検出することとなる。   The image feature includes luminance information and color information. The contour of the tracking target is estimated by this classification. Then, the size of the tracking target is estimated from the contour, and the size of the tracking frame is set according to the estimated size. Setting the size of the tracking frame is synonymous with detecting the size of the pointer image area to be tracked in the captured image. Further, since the size of the tracking target is proportional to the size of the pointer image area, the size of the tracking target is specified simultaneously with the detection of the size of the pointer image area. For this reason, the tracking processing unit 141 detects the position and size of the tracking target in each captured image.

このように、追尾機能を用いて指示棒70、特にその赤外LED71の位置を特定することにより、指示位置特定部140での演算量を低減することができる。   Thus, by specifying the position of the pointing rod 70, particularly the infrared LED 71, using the tracking function, the amount of calculation in the pointing position specifying unit 140 can be reduced.

基本映像生成部150は、映像入力信号に基づいて、基本映像(図9(a)参照)を生成する。具体的には、基本映像生成部150は、投写型映像表示装置40がスクリーン30上に投写する映像光Iによって構成される基本映像を生成する。   The basic video generation unit 150 generates a basic video (see FIG. 9A) based on the video input signal. Specifically, the basic video generation unit 150 generates a basic video composed of video light I projected on the screen 30 by the projection video display device 40.

描画映像生成部155は、指示位置特定部140によって特定された赤外LED71によって指示された指示位置に基づいて、描画映像(図9(b)参照)を生成する。ここで、描画映像生成部155は、ユーザの手振れの影響を除去するために、細かい指示棒70(赤外LED71)の移動は特定せずに、描画映像を生成できる。   The drawn video generation unit 155 generates a drawn video (see FIG. 9B) based on the designated position specified by the infrared LED 71 specified by the specified position specifying unit 140. Here, the drawing image generation unit 155 can generate a drawing image without specifying the movement of the fine pointer 70 (infrared LED 71) in order to remove the influence of the user's hand shake.

映像制御部160は、描画映像生成部155によって生成された描画映像を基本映像生成部150によって生成された基本映像に重畳して、可視光によって構成される重畳映像(図9(c)参照)を生成する。   The video control unit 160 superimposes the drawn video generated by the drawn video generation unit 155 on the basic video generated by the basic video generation unit 150, and includes a superimposed video composed of visible light (see FIG. 9C). Is generated.

なお、映像制御部160は、一定時間が経過した後に、描画映像を重畳映像から消去して基本映像に生成し直してもよい。また、描画映像生成部155は、映像内31において、赤外LED71によって指示された指示位置において描画映像を生成するものとして説明したが、これに限定されるものではない。   Note that the video controller 160 may delete the drawn video from the superimposed video and regenerate the basic video after a certain period of time has elapsed. Moreover, although the drawing image generation unit 155 has been described as generating the drawing image at the designated position designated by the infrared LED 71 in the image 31, the present invention is not limited to this.

以上の構成により、投写型映像表示装置40からスクリーン30上に投写された映像光Iによって構成される映像内31において、指示棒70によって指示された指示位置が特定される。そして、描画映像生成部155によって生成された描画映像が基本映像生成部150によって生成された基本映像に重畳されて、可視光によって構成される重畳映像(図9(c)参照)が生成される。従って、投写型映像表示装置40からスクリーン上に重畳映像(すなわち、基本映像及び描画映像)が投写される。   With the above configuration, in the image 31 constituted by the image light I projected on the screen 30 from the projection display apparatus 40, the indication position indicated by the indication rod 70 is specified. Then, the drawn video generated by the drawn video generation unit 155 is superimposed on the basic video generated by the basic video generation unit 150, and a superimposed video (see FIG. 9C) configured by visible light is generated. . Therefore, a superimposed image (that is, a basic image and a drawn image) is projected from the projection display apparatus 40 onto the screen.

(作用・効果)
第1実施形態では、基本映像生成部150は、映像データに基づいて、基本映像を生成する。描画映像生成部155は、描画データに基づいて、描画映像を生成する。映像制御部160は、描画映像生成部155によって生成された描画映像を基本映像生成部150によって生成された基本映像に重畳して、映像光Iによって構成される重畳映像を生成する。そして、投写型映像表示装置40からスクリーン30上に重畳映像(すなわち、基本映像及び描画映像)が投写される。従って、ユーザの指示によってスクリーン30上に投写型映像表示装置40から描画映像を投写することができ、ユーザの利便性の向上をさらに図ることができる。
(Action / Effect)
In the first embodiment, the basic video generation unit 150 generates a basic video based on video data. The drawing video generation unit 155 generates a drawing video based on the drawing data. The video controller 160 superimposes the drawn video generated by the drawn video generator 155 on the basic video generated by the basic video generator 150 to generate a superimposed video composed of the video light I. Then, a superimposed image (that is, a basic image and a drawn image) is projected on the screen 30 from the projection display apparatus 40. Therefore, a drawing image can be projected from the projection display device 40 on the screen 30 in accordance with a user instruction, and the convenience for the user can be further improved.

[その他の実施形態]
本発明は上述した実施形態によって説明したが、この開示の一部をなす論述及び図面は、この発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
[Other Embodiments]
Although the present invention has been described with reference to the above-described embodiments, it should not be understood that the descriptions and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art.

具体的には、選択透過素子50は、第1状態と第2状態とを切り替え可能に構成されているものとして説明したが、これに限定されるものではなく、例えば、特定の色成分光のみを透過するフィルタなどの複数の素子を備えていてもよい。   Specifically, the selective transmission element 50 has been described as being configured to be switchable between the first state and the second state, but is not limited to this, for example, only specific color component light A plurality of elements such as a filter that transmits light may be provided.

また、選択透過素子50は、撮像装置60の光入射側に設けられているものとして説明したが、これに限定されるものではなく、第1状態と第2状態とを切り替え可能に構成されていればよく、例えば、撮像レンズ61と撮像素子62との間に設けられていてもよい。   The selective transmission element 50 has been described as being provided on the light incident side of the imaging device 60, but is not limited thereto, and is configured to be switchable between the first state and the second state. For example, it may be provided between the imaging lens 61 and the imaging element 62.

指示棒70の先端に設けられた赤外LED71は、光出射ボタン72を押すことにより、点灯状態になることを前提に説明したが、これに限定されるものではなく、複数の点灯パターンを選択したり、周波数が変化するように調整したりできるように、複数の光出射ボタンを備えていてもよい。   The infrared LED 71 provided at the tip of the indicator rod 70 has been described on the assumption that the light emitting button 72 is turned on when the light emitting button 72 is pressed. However, the present invention is not limited to this, and a plurality of lighting patterns are selected. Or a plurality of light emission buttons may be provided so that the frequency can be adjusted.

また、所定の距離をあけて、複数の赤外LEDを配することにより、指示棒70全体の位置や傾きなどを特定し、その情報によって、様々な描画映像を描けるように設定されてもよい。指示棒70に加速度センサを内蔵させることにより、指示棒70の動きを検出し、赤外LED71の点灯パターンを変更できるように設定されてもよい。これらの構成により、指示棒70に配されたボタン類を削除することができ、シンプルな指示棒70を提供できる。   In addition, by arranging a plurality of infrared LEDs at a predetermined distance, the position and inclination of the entire pointing bar 70 may be specified, and various drawing images may be drawn based on the information. . It may be set so that the movement of the indicator bar 70 can be detected and the lighting pattern of the infrared LED 71 can be changed by incorporating an acceleration sensor in the indicator bar 70. With these configurations, the buttons arranged on the pointing bar 70 can be deleted, and a simple pointing bar 70 can be provided.

さらには、一定時間が経過した後に、描画映像が消去されるのではなく、光停止ボタンを配して、描画映像を消去できるように設定されてもよい。   Furthermore, the drawing image may not be erased after a certain time has elapsed, but a light stop button may be arranged so that the drawing image can be erased.

第1実施の形態では、指示棒70は基本映像に描画映像を追加する手段として説明したが、指示棒70の役割はこれに限定されるものではない。上述したような点灯パターンやアイコンとの組み合わせなどによって、PC20に接続されるマウスに代わる手段としても活用可能である。   In the first embodiment, the instruction bar 70 has been described as means for adding a drawn image to the basic image, but the role of the instruction bar 70 is not limited to this. It can be used as a means to replace the mouse connected to the PC 20 by combining the lighting pattern and the icon as described above.

加えて、投写型映像表示装置40(撮像装置60)と投射面30との距離が非常に近い場合は、指示棒70に代えてペン型のものを用いてもよい。この場合、撮像装置60が極めて斜めから撮像することになるので、赤外LED71からの光が指示棒70を持つ人で遮られることがない。従って、扱いやすい形状(例えば、ペン型)にすることで、ユーザの利便性がより向上する。   In addition, when the distance between the projection display device 40 (imaging device 60) and the projection surface 30 is very short, a pen-type device may be used instead of the pointing rod 70. In this case, since the imaging device 60 captures an image from an extremely oblique direction, the light from the infrared LED 71 is not blocked by a person holding the pointer 70. Therefore, the convenience for the user is further improved by making the shape easy to handle (for example, pen type).

実施形態では、特に触れていないが、PC20は、投写型映像表示装置40や撮像装置60と有線により接続されてもよく、無線により接続されてもよい。同様に、投写型映像表示装置40は、撮像装置60と有線又は無線により接続されてもよい。   Although not particularly mentioned in the embodiment, the PC 20 may be connected to the projection display apparatus 40 and the imaging apparatus 60 by wire or may be connected wirelessly. Similarly, the projection display apparatus 40 may be connected to the imaging apparatus 60 by wire or wireless.

この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。したがって、本発明の技術的範囲は、上述の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。   From this disclosure, various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.

10…プレゼンテーションシステム、20…PC、21…表示部、22…操作部、30…スクリーン、31…映像内、32…載置台、40…投写型映像表示装置、50…選択透過素子、60…撮像装置、61…撮像レンズ、62…撮像素子、70…指示棒、71…赤外LED、72…光出射ボタン、100…制御ユニット、110…撮像画像記憶部、120…可視光画像取得部、130…ポインタ画像取得部、140…指示位置特定部、141…追尾処理部、150…基本映像生成部、155…描画映像生成部、160…映像制御部   DESCRIPTION OF SYMBOLS 10 ... Presentation system, 20 ... PC, 21 ... Display part, 22 ... Operation part, 30 ... Screen, 31 ... In image, 32 ... Mounting stand, 40 ... Projection type video display apparatus, 50 ... Selective transmission element, 60 ... Imaging Device: 61 ... Imaging lens, 62 ... Imaging element, 70 ... Indicator bar, 71 ... Infrared LED, 72 ... Light exit button, 100 ... Control unit, 110 ... Captured image storage unit, 120 ... Visible light image acquisition unit, 130 ... Pointer image acquisition unit, 140 ... Instructed position specifying unit, 141 ... Tracking processing unit, 150 ... Basic video generation unit, 155 ... Drawing video generation unit, 160 ... Video control unit

Claims (3)

投写面上に映像光を投写する投写型映像表示装置と、前記投写面を撮像する撮像装置とを備えたプレゼンテーションシステムであって、
前記撮像装置によって撮像された撮像画像に基づいて、赤外光によって構成されるポインタ画像を取得するポインタ画像取得部と、
前記ポインタ画像に基づいて、前記赤外光によって指示された指示位置を特定する特定部と、
前記指示位置に基づいて、前記映像光を制御する映像制御部とを備えることを特徴とするプレゼンテーションシステム。
A presentation system comprising a projection display device that projects image light onto a projection surface, and an imaging device that images the projection surface,
A pointer image acquisition unit that acquires a pointer image composed of infrared light based on a captured image captured by the imaging device;
Based on the pointer image, a specifying unit that specifies the indicated position indicated by the infrared light,
A presentation system comprising: a video control unit that controls the video light based on the indicated position.
請求項1記載のプレゼンテーションシステムにおいて、
前記撮像装置は、連続して前記撮像画像を撮像するものであり、
前記特定部は、前記連続した撮像画像のうち一つ前の撮像画像に基づいて、前記赤外光によって指示された指示位置を特定することを特徴とするプレゼンテーションシステム。
The presentation system according to claim 1, wherein
The imaging device continuously captures the captured image,
The said specification part specifies the instruction | indication position instruct | indicated with the said infrared light based on the previous captured image among the said continuous captured images.
請求項1記載のプレゼンテーションシステムにおいて、
前記撮像装置によって撮像された撮像画像を記憶する記憶部をさらに備え、
前記記憶部は、前記撮像装置の位置による歪みを補正して撮像画像を記憶することを特徴とするプレゼンテーションシステム。
The presentation system according to claim 1, wherein
A storage unit that stores a captured image captured by the imaging device;
The said storage part correct | amends the distortion by the position of the said imaging device, and memorize | stores a captured image, The recording system characterized by the above-mentioned.
JP2009175413A 2009-07-28 2009-07-28 Presentation system Pending JP2011028629A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009175413A JP2011028629A (en) 2009-07-28 2009-07-28 Presentation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009175413A JP2011028629A (en) 2009-07-28 2009-07-28 Presentation system

Publications (1)

Publication Number Publication Date
JP2011028629A true JP2011028629A (en) 2011-02-10

Family

ID=43637276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009175413A Pending JP2011028629A (en) 2009-07-28 2009-07-28 Presentation system

Country Status (1)

Country Link
JP (1) JP2011028629A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013175001A (en) * 2012-02-24 2013-09-05 Seiko Epson Corp Image display device, image display system and control method for image display device
CN103425354A (en) * 2012-05-25 2013-12-04 精工爱普生株式会社 Data processing apparatus, display apparatus, and method for controlling the data processing apparatus
WO2014045560A1 (en) 2012-09-18 2014-03-27 Seiko Epson Corporation Interactive system, control method for interactive system, and projector
JP2015060087A (en) * 2013-09-19 2015-03-30 セイコーエプソン株式会社 Projector system, and control method of projector system
US9304606B2 (en) 2012-05-09 2016-04-05 Seiko Epson Corporation Image display system
JPWO2014073346A1 (en) * 2012-11-09 2016-09-08 ソニー株式会社 Information processing apparatus, information processing method, and computer-readable recording medium
WO2018211659A1 (en) * 2017-05-18 2018-11-22 マクセル株式会社 Operation detection device, video display device equipped with same, and video display method
US10438384B2 (en) 2014-08-22 2019-10-08 Nec Display Solutions, Ltd. Image display system, image control device, display device and display control method
US11061494B2 (en) 2018-03-26 2021-07-13 Seiko Epson Corporation Electronic pen, display system, and method for controlling electronic pen
US11150768B2 (en) 2018-10-22 2021-10-19 Seiko Epson Corporation Position detection device, display device, and position detection method
US11333959B2 (en) 2018-10-22 2022-05-17 Seiko Epson Corporation Position detection device, display device, and position detection method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013175001A (en) * 2012-02-24 2013-09-05 Seiko Epson Corp Image display device, image display system and control method for image display device
US9304606B2 (en) 2012-05-09 2016-04-05 Seiko Epson Corporation Image display system
CN103425354A (en) * 2012-05-25 2013-12-04 精工爱普生株式会社 Data processing apparatus, display apparatus, and method for controlling the data processing apparatus
US9524574B2 (en) 2012-05-25 2016-12-20 Seiko Epson Corporation Data processing apparatus, display apparatus, and method of controlling the data processing apparatus
CN103425354B (en) * 2012-05-25 2017-10-13 精工爱普生株式会社 The control method of data processing equipment, display device and data processing equipment
WO2014045560A1 (en) 2012-09-18 2014-03-27 Seiko Epson Corporation Interactive system, control method for interactive system, and projector
US9632616B2 (en) 2012-09-18 2017-04-25 Seiko Epson Corporation Interactive system, control method for interactive system, and projector
US11132063B2 (en) 2012-11-09 2021-09-28 Sony Corporation Information processing apparatus for interactively performing work based on input content in extended work space
JPWO2014073346A1 (en) * 2012-11-09 2016-09-08 ソニー株式会社 Information processing apparatus, information processing method, and computer-readable recording medium
JP2015060087A (en) * 2013-09-19 2015-03-30 セイコーエプソン株式会社 Projector system, and control method of projector system
US10438384B2 (en) 2014-08-22 2019-10-08 Nec Display Solutions, Ltd. Image display system, image control device, display device and display control method
WO2018211659A1 (en) * 2017-05-18 2018-11-22 マクセル株式会社 Operation detection device, video display device equipped with same, and video display method
US11061494B2 (en) 2018-03-26 2021-07-13 Seiko Epson Corporation Electronic pen, display system, and method for controlling electronic pen
US11150768B2 (en) 2018-10-22 2021-10-19 Seiko Epson Corporation Position detection device, display device, and position detection method
US11333959B2 (en) 2018-10-22 2022-05-17 Seiko Epson Corporation Position detection device, display device, and position detection method

Similar Documents

Publication Publication Date Title
JP2011028629A (en) Presentation system
JP3867205B2 (en) Pointed position detection device, pointed position detection system, and pointed position detection method
US20110228044A1 (en) Imaging apparatus, imaging method and recording medium with program recorded therein
CN102055908B (en) Image capturing apparatus and image capturing method
JP2011017894A (en) Projector, system, and method for projecting image
US20110063327A1 (en) Display and imager displaying and magnifying images on their screen
WO2010073619A1 (en) Image capture device
JP2013219525A (en) Imaging device, control method therefor, and program
JP2008118387A (en) Imaging device
JP5885395B2 (en) Image capturing apparatus and image data recording method
JP2013007836A (en) Image display device, image display method, and program
JP2016189517A (en) Display device, control method of display device, painting camera, and control method of painting camera
JP2015192310A (en) Projection system, portable equipment, program, and control method of portable equipment
JP2002325200A (en) Data presentation device
JP2011128750A (en) Image processing apparatus and program
JP2008287624A (en) System and method for processing image, image processor, and program
JP2011108251A (en) Presentation controller and program
JP2011078055A (en) Electronic camera
JP2011110281A (en) Electronic endoscope apparatus
US11991481B2 (en) Display method, information processing device, and non-transitory computer-readable storage medium storing program
JP6167511B2 (en) Document camera and document camera control method
JP2017050593A (en) Imaging apparatus, imaging control method and program
JP2010015398A (en) Presentation system and imaging device
JP3769568B2 (en) Projector having an image sensor with a spectrum selection mechanism
JP5119972B2 (en) Image playback system

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111117

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111130