JP2016197192A - Projection system and video projection method - Google Patents

Projection system and video projection method Download PDF

Info

Publication number
JP2016197192A
JP2016197192A JP2015077399A JP2015077399A JP2016197192A JP 2016197192 A JP2016197192 A JP 2016197192A JP 2015077399 A JP2015077399 A JP 2015077399A JP 2015077399 A JP2015077399 A JP 2015077399A JP 2016197192 A JP2016197192 A JP 2016197192A
Authority
JP
Japan
Prior art keywords
screen
projection
image
desired position
projection system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015077399A
Other languages
Japanese (ja)
Inventor
えりか 足利
Erika Ashikaga
えりか 足利
聡一郎 内田
Soichiro Uchida
聡一郎 内田
憲作 藤井
Kensaku Fujii
憲作 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015077399A priority Critical patent/JP2016197192A/en
Publication of JP2016197192A publication Critical patent/JP2016197192A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Overhead Projectors And Projection Screens (AREA)
  • Projection Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a projection system that projects a video on a moving screen without using a marker.SOLUTION: A projection system comprises: a screen arrangement device 10 that moves to arrange a screen at a desired position where a user wants to project a video; a camera 20 that photographs an image including the screen; a projector 40 that projects a video on the screen; and a projection control device 30. The projection control device 30 controls the screen arrangement device with information on a projection request position as an input, acquires the image including the screen, and estimates the position of the screen from the image. When the screen is determined to be arranged at the desired position, the projection control device 30 projects a video on the moving screen.SELECTED DRAWING: Figure 1

Description

本発明は、映像を投影するプロジェクションシステムと映像投影方法に関する。   The present invention relates to a projection system and an image projection method for projecting an image.

近年、映像を立体的に投影するために様々な映像投影方法や、様々な種類のスクリーンが開発されており、アートやエンタテイメントにおける利用可能性が広がっている。しかし、その多くは映像を投影するスクリーンが固定的なものであり、使われ方が限定されてしまっていた。   In recent years, various video projection methods and various types of screens have been developed to project video stereoscopically, and the applicability in art and entertainment has been expanding. However, in many cases, the screen for projecting images is fixed, and its usage has been limited.

新たなインタラクションを可能にする映像投影方法としては、例えば非特許文献1に開示された方法が知られている。その映像投影方法は、スクリーンの根元にマーカーを取り付け、そのマーカーの位置を動的に検出して映像を投影する方法である。   As a video projection method that enables new interaction, for example, a method disclosed in Non-Patent Document 1 is known. The image projection method is a method of projecting an image by attaching a marker to the base of the screen and dynamically detecting the position of the marker.

石川優、他5名、「花水:多視点観察及び移動が可能なフォグスクリーン」、日本バーチャルリアリティ学会論文誌、Vol.19, No.2, pp.227-236, 2014.Yu Ishikawa and five others, “Hanamizu: Fog screen capable of multi-viewpoint observation and movement”, Transactions of the Virtual Reality Society of Japan, Vol.19, No.2, pp.227-236, 2014.

しかしながら、非特許文献1の方法は、マーカーを移動するスクリーンの近傍に取り付ける必要があり、利用が限定されたものになっている。   However, the method of Non-Patent Document 1 requires a marker to be attached in the vicinity of the moving screen, and its use is limited.

この発明は、この課題に鑑みてなされたものであり、スクリーンにマーカーを取り付けることなく、移動するスクリーンにも映像を投影することが出来るプロジェクションシステムと映像投影方法を提供することを目的とする。   The present invention has been made in view of this problem, and an object of the present invention is to provide a projection system and an image projection method that can project an image on a moving screen without attaching a marker to the screen.

本発明のプロジェクションシステムは、所望の位置にスクリーンを移動させて配置するスクリーン配置装置と、移動する前記スクリーンを認識して前記スクリーンの位置を推定し、前記スクリーンが前記所望の位置にあると推定される場合に映像を投影するプロジェクション制御装置とを具備する。   The projection system of the present invention estimates a position of the screen by recognizing the moving screen, moving the screen to a desired position, and estimating that the screen is at the desired position. A projection control device for projecting a video image.

また、本発明の映像投影方法は、プロジェクションシステムが映像を投影する映像投影方法であって、所望の位置にスクリーンを移動させて配置するスクリーン配置ステップと、移動する前記スクリーンを認識して前記スクリーンの位置を推定し、前記スクリーンが前記所望の位置にあると推定される場合に映像を投影するプロジェクション制御ステップとを行う。   The video projection method of the present invention is a video projection method in which a projection system projects an image, the screen arranging step of arranging the screen by moving the screen to a desired position, and the screen recognizing the moving screen. And a projection control step of projecting an image when the screen is estimated to be at the desired position.

この発明によれば、スクリーンにマーカーを取り付けることなく、移動するスクリーンにも映像を投影することが出来るプロジェクションシステムと映像投影方法を提供することができる。   According to the present invention, it is possible to provide a projection system and a video projection method capable of projecting an image on a moving screen without attaching a marker to the screen.

第1実施形態のプロジェクションシステム1の構成例を示す図である。It is a figure which shows the structural example of the projection system 1 of 1st Embodiment. プロジェクションシステム1が行う映像投影方法の動作フローを示す図である。It is a figure which shows the operation | movement flow of the image | video projection method which the projection system 1 performs. カメラの配置の他の例を示す図である。It is a figure which shows the other example of arrangement | positioning of a camera. スクリーン配置装置10の他の例を示す図である。It is a figure which shows the other example of the screen arrangement | positioning apparatus.

以下、本発明の実施の形態について図面を用いて説明する。複数の図面中同一のものには同じ参照符号を付し、説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same reference numerals are given to the same components in a plurality of drawings, and the description will not be repeated.

〔第1実施形態〕
図1に、本発明の第1実施形態のプロジェクション制御装置30を具備したプロジェクションシステム1のシステム構成例を示す。プロジェクションシステム1は、スクリーン配置装置10と、カメラ20と、プロジェクション制御装置30と、プロジェクタ40とを具備する。
[First Embodiment]
FIG. 1 shows a system configuration example of a projection system 1 including a projection control device 30 according to the first embodiment of the present invention. The projection system 1 includes a screen arrangement device 10, a camera 20, a projection control device 30, and a projector 40.

スクリーン配置装置10は、利用者が映像を投影したい所望の位置にスクリーンを移動させて配置する。利用者が映像を投影したい所望の位置は、投影環境2の空間上の1点若しくは範囲である。所望の位置は、スクリーン配置装置10に、その位置情報を直接入力してもよいし、プロジェクション制御装置30に入力してもよい。なお、投影環境2内の人4は、例えばプレゼンターである。   The screen arrangement device 10 moves and arranges the screen to a desired position where the user wants to project an image. A desired position where the user wants to project an image is one point or a range on the space of the projection environment 2. The desired position may be input directly to the screen arrangement device 10 or may be input to the projection control device 30. The person 4 in the projection environment 2 is a presenter, for example.

スクリーン配置装置10は、例えばガスや霧などの無形のフォグスクリーン(Fog Screen)3を、空間中に発生する装置である。フォグスクリーン3は、例えば超音波やガスの噴射装置によって、所望の方向の凡その位置に配置することができる。   The screen arrangement device 10 is a device that generates an intangible fog screen (Fog Screen) 3 such as gas or fog in a space. The fog screen 3 can be arranged at an approximate position in a desired direction by, for example, an ultrasonic wave or gas injection device.

以降において、本実施形態の説明は、霧や煙で形成されるフォグスクリーン3を例にして行う。しかし、スクリーンは移動するものであればフォグスクリーン3である必要はない。   Hereinafter, the description of the present embodiment will be made by taking the fog screen 3 formed of fog or smoke as an example. However, the screen need not be the fog screen 3 as long as it moves.

カメラ20は、スクリーン配置装置10が配置したフォグスクリーン3を含む画像を撮影する。カメラ20は、複数台有っても構わない。   The camera 20 captures an image including the fog screen 3 arranged by the screen arrangement device 10. There may be a plurality of cameras 20.

プロジェクション制御装置30は、所望の位置の位置情報を入力としてスクリーン配置装置10を制御すると共に、フォグスクリーン3を含む画像を取得し、当該画像からフォグスクリーン3の位置を推定する。そして、フォグスクリーン3が所望の位置にあると推定される場合に、プロジェクタ40を介してフォグスクリーン3に映像を投影する。   The projection control device 30 controls the screen arrangement device 10 with the position information of a desired position as an input, acquires an image including the fog screen 3, and estimates the position of the fog screen 3 from the image. Then, when it is estimated that the fog screen 3 is at a desired position, an image is projected onto the fog screen 3 via the projector 40.

図2に示す映像投影方法の動作フローも参照して、プロジェクション制御装置30の動作を詳しく説明する。プロジェクション制御装置30は、投影位置受付部31と、スクリーン制御部32と、画像取得部33と、投影位置推定部34と、映像投影部35とを具備する。   The operation of the projection control device 30 will be described in detail with reference to the operation flow of the video projection method shown in FIG. The projection control device 30 includes a projection position receiving unit 31, a screen control unit 32, an image acquisition unit 33, a projection position estimation unit 34, and a video projection unit 35.

画像取得部33は、フォグスクリーン3が配置される投影環境2の画像を、カメラ20から取得する(ステップS1)。画像はディジタル情報である。   The image acquisition unit 33 acquires an image of the projection environment 2 on which the fog screen 3 is arranged from the camera 20 (step S1). An image is digital information.

投影位置受付部31は、利用者が映像を投影したい所望の位置を表す位置情報の入力を受け付ける(ステップS2)。所望の位置は、カメラ20が撮影した画像の例えば2次元平面上の特定の座標(範囲又は点)を入力することで受け付ける。入力は、プロジェクションシステム1を利用する利用者が行う。   The projection position receiving unit 31 receives input of position information representing a desired position where the user wants to project an image (step S2). A desired position is received by inputting specific coordinates (range or point) on, for example, a two-dimensional plane of an image captured by the camera 20. The input is performed by a user who uses the projection system 1.

スクリーン制御部32は、その特定の座標(範囲又は点)に、フォグスクリーン3を移動させて配置するようにスクリーン配置装置10を制御する(ステップS3)。ステップS3は、スクリーン配置装置10が行うスクリーン配置ステップに相当する。   The screen control unit 32 controls the screen arrangement device 10 to move and arrange the fog screen 3 at the specific coordinates (range or point) (step S3). Step S3 corresponds to a screen placement step performed by the screen placement device 10.

フォグスクリーン3は、霧であるので特定の座標に一致させて配置するのは困難である。フォグスクリーン3の縁部は霧が薄くなった部分であり、その存在が希薄である。また、フォグスクリーン3は、室内の空調の風の影響を受ける。したがって、フォグスクリーン3の位置は固定されずに漂うように移動する。   Since the fog screen 3 is fog, it is difficult to arrange the fog screen 3 in accordance with specific coordinates. The edge of the fog screen 3 is a portion where the fog is thin, and its presence is sparse. Further, the fog screen 3 is affected by the wind of the indoor air conditioning. Therefore, the position of the fog screen 3 moves so as to drift without being fixed.

投影位置推定部34は、画像から求めたフォグスクリーン3の移動軌跡から、フォグスクリーン3が所望の位置に最も近づく位置と時間を推定する(ステップS4)。フォグスクリーン3は、投影環境2上の障害物などにより、必ずしも所望の位置に配置できるとは限らない。そこで、投影位置推定部34は、フォグスクリーン3の動きからフォグスクリーンの位置を推定する。   The projection position estimation unit 34 estimates the position and time at which the fog screen 3 is closest to the desired position from the movement locus of the fog screen 3 obtained from the image (step S4). The fog screen 3 cannot always be disposed at a desired position due to an obstacle on the projection environment 2. Therefore, the projection position estimation unit 34 estimates the position of the fog screen from the movement of the fog screen 3.

画像からフォグスクリーン3を検出するには、例えばMean-Shift法(参考文献:http://cose-stor.sfsu.edu/~kazokada/research/okada cvim08 meanshift.pdf)を用いた物体検出技術を用いることができる。なお、使用する物体検出技術によっては、スクリーンとなる物体の学習用画像が必要な場合がある。その場合は、例えばフォグスクリーン3の形状の時間的な変化の画像を、投影位置推定部34に学習させておく。   To detect the fog screen 3 from the image, for example, an object detection technique using the Mean-Shift method (reference: http://cose-stor.sfsu.edu/~kazokada/research/okada cvim08 meanshift.pdf) Can be used. Depending on the object detection technique used, a learning image of an object to be a screen may be required. In that case, for example, the projection position estimation unit 34 learns an image of a temporal change in the shape of the fog screen 3.

検出(認識)したフォグスクリーン3の移動速度や移動方向の算出は、例えば、画像のフレームレート(例えば30fps)を用いて行う。フォグスクリーン3の画像のフレーム間の差分を算出することで、フォグスクリーン3の移動ベクトルを算出する(ステップS4a)。   The movement speed and movement direction of the detected (recognized) fog screen 3 are calculated using, for example, an image frame rate (for example, 30 fps). The movement vector of the fog screen 3 is calculated by calculating the difference between the frames of the image of the fog screen 3 (step S4a).

投影位置推定部34は、移動ベクトルからフォグスクリーン3の移動軌跡を推定し、移動軌跡と所望の位置とが、指定の範囲内に収まる時間と位置を推定する(ステップS4b)。   The projection position estimation unit 34 estimates the movement trajectory of the fog screen 3 from the movement vector, and estimates the time and position where the movement trajectory and the desired position are within the specified range (step S4b).

この指定の範囲は、所望の位置から半径x[m]以内の円や、その円の上部のみといった指定ができる。指定の範囲は、その半径x[m]の円の下部であってもよいし、右部等であってもよい。また、指定の範囲の形状は円に限られない。   The designation range can be designated as a circle within a radius x [m] from a desired position, or only the upper part of the circle. The designated range may be the lower part of the circle having the radius x [m], the right part, or the like. Moreover, the shape of the designated range is not limited to a circle.

指定の範囲は、投影位置受付部が所望の位置情報を受け付ける時に同時に受け付ける。なお、指定の範囲は、所望の位置(範囲)と一致していてもよい。   The designated range is received simultaneously when the projection position receiving unit receives desired position information. Note that the designated range may coincide with a desired position (range).

投影位置推定部34は、フォグスクリーン3が所望の位置から一定範囲内の位置に存在すると推定されるまでステップS4aとS4bの処理を繰り返し、投影位置の推定精度を高める。   The projection position estimation unit 34 repeats the processes of steps S4a and S4b until it is estimated that the fog screen 3 exists at a position within a certain range from the desired position, thereby improving the projection position estimation accuracy.

映像投影部35は、投影位置推定部34が推定した時間の推定した位置に、プロジェクタ40を介して映像を投影する(ステップS5)。ステップS5は、プロジェクション制御ステップに相当する。   The video projection unit 35 projects the video via the projector 40 at the estimated position of the time estimated by the projection position estimation unit 34 (step S5). Step S5 corresponds to a projection control step.

なお、映像投影部35とプロジェクタ40とを別々の構成で説明したが、映像投影部35にプロジェクタ40を含めた構成にしてもよい。また、プロジェクタ40は複数台有っても構わない。   Although the video projection unit 35 and the projector 40 have been described as separate configurations, the video projection unit 35 may include the projector 40. There may be a plurality of projectors 40.

以上説明したように、本実施形態のプロジェクションシステム1は、移動する例えばフォグスクリーン3の動きからその移動軌跡を推定し、移動軌跡と所望の位置とが、指定の範囲内に収まる時間と位置に映像を投影することができる。つまり、マーカーを使用する事無く、移動するスクリーン上に映像を投影することができる。   As described above, the projection system 1 according to the present embodiment estimates the movement trajectory from the movement of the moving fog screen 3, for example, and the movement trajectory and the desired position are within the specified time and position. Video can be projected. That is, an image can be projected on a moving screen without using a marker.

このように本実施形態のプロジェクションシステム1は、マーカーを使用せずに移動するスクリーン上に映像を投影する新たな演出を可能にし、自由度の高いインタラクションを実現する。また、新たな情報提示技術の提供を可能にする。   As described above, the projection system 1 of the present embodiment enables a new effect of projecting an image on a moving screen without using a marker, and realizes a highly flexible interaction. In addition, new information presentation technology can be provided.

なお、フォグスクリーン3の移動ベクトルを2次元の例で説明を行ったが、移動ベクトルは2次元に限られない。図3に示すように、投影環境2の上からの画像を撮影するカメラ21を配置することで、フォグスクリーン3の移動ベクトルを3次元で求めることができる。3次元の移動ベクトルを用いることで、投影環境2の奥行方向のフォグスクリーン3の移動に対しても適切な映像を投影することのできるプロジェクションシステムを提供することができる。なお、カメラ21は、カメラ20と同一平面上に配置してもよい。   Although the movement vector of the fog screen 3 has been described with a two-dimensional example, the movement vector is not limited to two dimensions. As shown in FIG. 3, the movement vector of the fog screen 3 can be obtained in three dimensions by arranging a camera 21 that captures an image from above the projection environment 2. By using a three-dimensional movement vector, it is possible to provide a projection system that can project an appropriate image even when the fog screen 3 moves in the depth direction of the projection environment 2. The camera 21 may be disposed on the same plane as the camera 20.

また、スクリーンはフォグスクリーン3で無くてもよい。移動可能なスクリーンであれば何でもよい。例えば、図4に示すように移動可能な台車42の上に載せられたスクリーン41等でもよい。台車42は、例えば乱数によって移動が制御され、投影環境2の範囲内を自由に移動可能にプログラムされているとする。また、スクリーン41も上下方向に位置が移動可能とする。   The screen may not be the fog screen 3. Any screen that can be moved. For example, a screen 41 or the like placed on a movable carriage 42 as shown in FIG. 4 may be used. The movement of the carriage 42 is controlled by random numbers, for example, and is programmed to be freely movable within the projection environment 2. The screen 41 is also movable in the vertical direction.

投影位置推定部34は、このようなスクリーン41の動きを推定することも可能である。なお、上記のように動きを制御する必要の無いスクリーン41を用いる場合は、スクリーン制御部32の構成は無くてもよい。   The projection position estimation unit 34 can also estimate the movement of the screen 41. In addition, when using the screen 41 which does not need to control a movement as mentioned above, the structure of the screen control part 32 does not need to be.

また、映像投影部35は、その動きに対応させた映像の投影も可能である。また、本実施形態のプロジェクションシステム1は、動かないスクリーン、つまり投影環境2内の任意の位置に配置された位置が固定されたスクリーンに対しても、映像を投影することができる。   The video projection unit 35 can also project a video corresponding to the movement. In addition, the projection system 1 according to the present embodiment can project an image even on a screen that does not move, that is, a screen that is fixed at an arbitrary position in the projection environment 2.

このように本発明は、上記した実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。   As described above, the present invention is not limited to the above-described embodiment, and various modifications can be made within the scope of the gist thereof.

なお、プロジェクション制御装置30をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、各装置における処理部がコンピュータ上で実現される。   When the projection control device 30 is realized by a computer, the processing contents of functions that each device should have are described by a program. Then, by executing this program on the computer, the processing unit in each device is realized on the computer.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記録装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としても良い。   The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Further, the program may be distributed by storing the program in a recording device of the server computer and transferring the program from the server computer to another computer via a network.

また、各機能部は、コンピュータ上で所定のプログラムを実行させることにより構成することにしてもよいし、これらの処理内容の少なくとも一部をハードウェア的に実現することとしても良い。   Each functional unit may be configured by executing a predetermined program on a computer, or at least a part of these processing contents may be realized by hardware.

1: プロジェクションシステム
2: 投影環境
3: フォグスクリーン
4: 人(プレゼンター)
10:スクリーン配置装置
20:カメラ
21:カメラ
30:プロジェクション制御装置
40:プロジェクタ
41:スクリーン
42:台車
1: Projection system 2: Projection environment 3: Fog screen 4: People (presenter)
10: Screen arrangement device 20: Camera 21: Camera 30: Projection control device 40: Projector 41: Screen 42: Cart

Claims (4)

所望の位置にスクリーンを移動させて配置するスクリーン配置装置と、
移動する前記スクリーンを認識して前記スクリーンの位置を推定し、前記スクリーンが前記所望の位置にあると推定される場合に映像を投影するプロジェクション制御装置と
を具備することを特徴とするプロジェクションシステム。
A screen placement device for placing the screen by moving it to a desired position;
A projection system comprising: a projection control device that recognizes the moving screen, estimates a position of the screen, and projects an image when the screen is estimated to be at the desired position.
請求項1に記載したプロジェクションシステムにおいて、
前記スクリーン配置装置は、
霧や煙で形成されるフォグスクリーンを空間中に配置することを特徴とするプロジェクションシステム。
In the projection system according to claim 1,
The screen arrangement device includes:
A projection system characterized by placing fog screens formed of fog or smoke in the space.
請求項1又2に記載したプロジェクションシステムにおいて、
前記プロジェクション制御装置は、
前記所望の位置を表す位置情報の入力を受け付ける投影位置受付部と、
前記位置情報を用いて前記スクリーン配置装置を制御して前記スクリーンを移動させて配置するスクリーン制御部と、
前記スクリーンを含む画像を取得する画像取得部と、
前記画像から求めた前記スクリーンの移動軌跡から、前記スクリーンが前記所望の位置に最も近づく位置と時間を推定する投影位置推定部と、
前記所望の位置から一定範囲内の位置に存在すると推定される前記スクリーンに、前記映像を投影する映像投影部と
を具備することを特徴とするプロジェクションシステム。
In the projection system according to claim 1 or 2,
The projection control device includes:
A projection position receiving unit that receives input of position information representing the desired position;
A screen control unit for controlling the screen arrangement device using the position information to move and arrange the screen; and
An image acquisition unit for acquiring an image including the screen;
A projection position estimation unit that estimates the position and time at which the screen is closest to the desired position from the movement trajectory of the screen obtained from the image;
A projection system comprising: an image projection unit that projects the image on the screen that is estimated to exist at a position within a certain range from the desired position.
プロジェクションシステムが映像を投影する映像投影方法であって、
所望の位置にスクリーンを移動させて配置するスクリーン配置ステップと、
移動する前記スクリーンを認識して前記スクリーンの位置を推定し、前記スクリーンが前記所望の位置にあると推定される場合に映像を投影するプロジェクション制御ステップとを行うことを特徴とする映像投影方法。
A projection method in which a projection system projects an image,
A screen placement step for placing the screen by moving it to a desired position;
A projection control step of recognizing the moving screen, estimating a position of the screen, and projecting an image when the screen is estimated to be at the desired position.
JP2015077399A 2015-04-06 2015-04-06 Projection system and video projection method Pending JP2016197192A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015077399A JP2016197192A (en) 2015-04-06 2015-04-06 Projection system and video projection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015077399A JP2016197192A (en) 2015-04-06 2015-04-06 Projection system and video projection method

Publications (1)

Publication Number Publication Date
JP2016197192A true JP2016197192A (en) 2016-11-24

Family

ID=57358322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015077399A Pending JP2016197192A (en) 2015-04-06 2015-04-06 Projection system and video projection method

Country Status (1)

Country Link
JP (1) JP2016197192A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108920116A (en) * 2018-06-12 2018-11-30 广州视源电子科技股份有限公司 Control method, device and equipment of screen projection equipment and storage medium
WO2019146929A1 (en) * 2018-01-23 2019-08-01 서강대학교 산학협력단 Fog screen system
US11392021B2 (en) 2018-02-22 2022-07-19 Nippon Telegraph And Telephone Corporation Video presentation system and video presentation method
US20220406095A1 (en) * 2019-12-04 2022-12-22 Nec Corporation Information presenting system, information presenting method, computer program, and authentication system
US12019362B2 (en) 2021-09-30 2024-06-25 Seiko Epson Corporation Projection system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019146929A1 (en) * 2018-01-23 2019-08-01 서강대학교 산학협력단 Fog screen system
US11392021B2 (en) 2018-02-22 2022-07-19 Nippon Telegraph And Telephone Corporation Video presentation system and video presentation method
CN108920116A (en) * 2018-06-12 2018-11-30 广州视源电子科技股份有限公司 Control method, device and equipment of screen projection equipment and storage medium
US20220406095A1 (en) * 2019-12-04 2022-12-22 Nec Corporation Information presenting system, information presenting method, computer program, and authentication system
US12019362B2 (en) 2021-09-30 2024-06-25 Seiko Epson Corporation Projection system

Similar Documents

Publication Publication Date Title
JP6559316B2 (en) Method and apparatus for generating haptic feedback based on analysis of video content
US10674142B2 (en) Optimized object scanning using sensor fusion
US9667870B2 (en) Method for controlling camera operation based on haptic function and terminal supporting the same
JP6235022B2 (en) Multi-dimensional data capture of the surrounding environment using multiple devices
EP3341851B1 (en) Gesture based annotations
US20190392630A1 (en) Automated understanding of three dimensional (3d) scenes for augmented reality applications
JP6456347B2 (en) INSITU generation of plane-specific feature targets
CA3025525C (en) Digital camera with audio, visual and motion analysis
JP2016197192A (en) Projection system and video projection method
WO2019128109A1 (en) Face tracking based dynamic projection method, device and electronic equipment
KR20150082358A (en) Reference coordinate system determination
JP2016502712A (en) Fast initialization for monocular visual SLAM
KR101650269B1 (en) System and method for provding efficient interface for display control
EP2946274B1 (en) Methods and systems for creating swivel views from a handheld device
TW202121155A (en) Interactive object driving method, apparatus, device, and computer readable storage meidum
JP7103354B2 (en) Information processing equipment, information processing methods, and programs
US20180350216A1 (en) Generating Representations of Interior Space
US9329679B1 (en) Projection system with multi-surface projection screen
US11770551B2 (en) Object pose estimation and tracking using machine learning
WO2009119288A1 (en) Communication system and communication program
KR101414362B1 (en) Method and apparatus for space bezel interface using image recognition
US9607207B1 (en) Plane-fitting edge detection
JP2016066918A (en) Video display device, video display control method and program
JP2017139582A (en) Movement control system
EP3705844A1 (en) Three-dimensional dataset and two-dimensional image localisation