JP6412685B2 - Video projection device - Google Patents

Video projection device Download PDF

Info

Publication number
JP6412685B2
JP6412685B2 JP2013239466A JP2013239466A JP6412685B2 JP 6412685 B2 JP6412685 B2 JP 6412685B2 JP 2013239466 A JP2013239466 A JP 2013239466A JP 2013239466 A JP2013239466 A JP 2013239466A JP 6412685 B2 JP6412685 B2 JP 6412685B2
Authority
JP
Japan
Prior art keywords
projection
information
unit
user
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013239466A
Other languages
Japanese (ja)
Other versions
JP2015100052A (en
JP2015100052A5 (en
Inventor
大津 誠
誠 大津
岩内 謙一
謙一 岩内
北浦 竜二
竜二 北浦
悟郎 清水
悟郎 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013239466A priority Critical patent/JP6412685B2/en
Publication of JP2015100052A publication Critical patent/JP2015100052A/en
Publication of JP2015100052A5 publication Critical patent/JP2015100052A5/ja
Application granted granted Critical
Publication of JP6412685B2 publication Critical patent/JP6412685B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、実物体に対して映像を重畳し表示する技術に関するものである。   The present invention relates to a technique for superimposing and displaying an image on a real object.

壁に掛けたスクリーンや白色系の壁面に、図形や文字、静止画、映像などのビジュアル的な情報(以下、「ビジュアル情報」と称する。)を投影する投影装置がある。また、この投影装置をインターネット等の公衆ネットワークあるいは社内のLAN等に接続し、遠隔からビジュアル情報を当該投影装置に送信し、コミュニケーションや遠隔会議、遠隔プレゼンテーションに活用することもできる。投影装置の特徴は、比較的容易に大画面表示ができることと、実物に視覚的な情報を直接投影して重畳できることである。   There is a projection device that projects visual information (hereinafter referred to as “visual information”) such as graphics, characters, still images, and images on a wall-mounted screen or white wall. Further, the projection apparatus can be connected to a public network such as the Internet or an in-house LAN, etc., and visual information can be transmitted from the remote to the projection apparatus for communication, remote conference, and remote presentation. The features of the projection device are that it can be displayed on a large screen relatively easily, and that visual information can be directly projected and superimposed on the actual object.

後者の特徴を生かした利用シーンの一つとして、現場の作業者に対して、遠隔からベテランが指導を行うシーンがある。このようなケースでは、現場の作業者は実物を見ながら作業をすることが重要である。そこで、実物体に情報を重畳して提示すれば、作業者は直感的で分かりやすく、作業がやりやすくなると考えられる。   As one of the usage scenes taking advantage of the latter feature, there is a scene where veterans give guidance to workers on site from a distance. In such a case, it is important for the worker on site to work while looking at the actual product. Therefore, if information is superimposed on a real object and presented, it is considered that the operator is intuitive and easy to understand, and the work becomes easier.

ところで、作業の現場によっては、投影面と投影装置の間に障害物が存在することがある。下記特許文献1によると、投影面の状態を撮影するカメラを投影装置に備え、そのカメラで撮影した映像と投影しようした映像との間に相違が生じた場合、前方に障害物(遮蔽物)が存在していると判断することができる装置が提案されている。そのような障害物を検知した場合、投影する映像のレイアウトを変更し、障害物をよけた映像を再構成して提示することも可能である。   By the way, depending on the work site, there may be an obstacle between the projection surface and the projection apparatus. According to the following Patent Document 1, a camera that captures the state of a projection plane is provided in a projection apparatus, and when there is a difference between an image captured by the camera and an image to be projected, an obstacle (shield) There has been proposed an apparatus that can determine that the presence of the. When such an obstacle is detected, it is also possible to change the layout of the projected image and reconstruct and present the image avoiding the obstacle.

特開2013−148868号公報JP 2013-148868 A

ところで、実際の作業現場では、投影面が平面ではなく凸凹した立体面であったり、あるいは、投影面の素材が金属物で投影映像が反射することも考えられる。また、このような作業指示において提示するビジュアル情報は、指示ポインタ等の表示する位置そのものが重要な情報と、図面や図形など表示位置には直接関係しない一般情報が存在する。   By the way, in an actual work site, the projection surface is not a flat surface but a three-dimensional surface that is uneven, or the projection image may be reflected by a metal material of the projection surface. Further, visual information presented in such work instructions includes information in which the display position itself such as an instruction pointer is important, and general information that is not directly related to the display position such as a drawing or a figure.

しかしながら、上記特許文献1では、投影面前方の障害物の検知、および、それによるレイアウト変更を行うことができるが、投影映像を見ている利用者の立ち位置については考慮されておらず、投影面の状態によっては十分に機能しないことがある。このような状態とは、具体的には、投影面における反射による見難さや投影面の凹凸による映像の歪みなどが存在する状態である。   However, in Patent Document 1, an obstacle in front of the projection plane can be detected and the layout can be changed accordingly. However, the standing position of the user who is viewing the projected image is not considered, and the projection is not performed. Depending on the condition of the surface, it may not function sufficiently. Specifically, such a state is a state in which there is difficulty in viewing due to reflection on the projection surface, distortion of the image due to projections and depressions on the projection surface, and the like.

本発明は以上の課題に鑑みてなされたものであり、実物体にビジュアル情報を投影することができる投影装置において、そのビジュアル情報を見ている利用者の立ち位置に応じて、適した投影位置とすることを目的とする。   The present invention has been made in view of the above problems, and in a projection apparatus capable of projecting visual information onto a real object, a projection position suitable for the standing position of the user who is viewing the visual information. It aims to be.

本発明は、利用者の位置及び投影面を含む被写体までの奥行き情報に基づいて、投影位置が利用者の立ち位置に対して反射の位置関係になる場合や投影面の凹凸度に応じて、その投影位置の変更を行うものである。また、投影するビジュアル情報の内容が、投影位置を変更することについて許可できないビジュアル情報の場合、投影位置を変更せずに、そのままの位置に投影することを可能にするものである。   The present invention is based on the position of the user and the depth information to the subject including the projection plane, depending on the projection positional relationship of the reflection relative to the standing position of the user or the degree of unevenness of the projection plane. The projection position is changed. Further, when the content of visual information to be projected is visual information that cannot be permitted to change the projection position, it is possible to project to the position as it is without changing the projection position.

本発明の一観点によれば、投影面を含む被写体に映像を投影する投影装置において、前記投影装置から被写体までの距離を算出する距離算出部と、前記投影装置を利用する利用者の3次元位置を検出する利用者位置検出部と、前記距離算出部によって算出された被写体までの距離と、前記利用者位置検出部によって検出された利用者の位置とに基づいて、前記投影装置から投影面に向かって映像を正常に投影することが可能であるか否かを判断する正常投影可否判定部と、前記投影装置に投影するオブジェクトの情報を入力するオブジェクト入力部と、前記正常投影可否判定部の判定結果に従って投影する位置を変更して投影する描画部と、を有することを特徴とする投影装置が提供される。   According to an aspect of the present invention, in a projection device that projects an image on a subject including a projection plane, a distance calculation unit that calculates a distance from the projection device to the subject, and a three-dimensional view of a user who uses the projection device Based on the user position detection unit for detecting the position, the distance to the subject calculated by the distance calculation unit, and the position of the user detected by the user position detection unit, the projection device projects the projection plane. A normal projection propriety determination unit that determines whether or not it is possible to normally project an image toward the projector, an object input unit that inputs information of an object to be projected onto the projection device, and the normal projection propriety determination unit And a drawing unit for projecting by changing the projection position according to the determination result.

本発明によれば、実物体にビジュアル情報を投影することができる投影装置において、そのビジュアル情報を見ている利用者の立ち位置に応じて、適した投影位置とすることができる。   According to the present invention, in a projection device capable of projecting visual information onto a real object, a suitable projection position can be set according to the standing position of the user who is viewing the visual information.

本発明によれば、実物体にビジュアル情報を投影することができる投影装置において、そのビジュアル情報を見ている利用者の立ち位置に応じて、適した投影位置とすることができる。   According to the present invention, in a projection device capable of projecting visual information onto a real object, a suitable projection position can be set according to the standing position of the user who is viewing the visual information.

本発明の第1の実施の形態による投影装置の外観図であり、投影装置の利用シーンを模式的に示した図である。1 is an external view of a projection apparatus according to a first embodiment of the present invention, and is a diagram schematically showing a use scene of the projection apparatus. FIG. 第1の実施の形態による投影装置の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the projection apparatus by 1st Embodiment. 視差から距離値を算出する方法の原理を示す図である。It is a figure which shows the principle of the method of calculating a distance value from parallax. 視差画像、利用者領域マスクおよび3次元投影処理を示す図である。It is a figure which shows a parallax image, a user area | region mask, and a three-dimensional projection process. 投影映像が利用者に反射して見えるか否かを判断する反射判定の原理について説明する図である。It is a figure explaining the principle of the reflection determination which judges whether a projection image | video is reflected by a user. 図1の利用シーンにおける視差画像と撮影画像とを示す図である。It is a figure which shows the parallax image and picked-up image in the utilization scene of FIG. 投影面の法線ベクトルを算出するための3次元位置情報を示す図である。It is a figure which shows the three-dimensional position information for calculating the normal vector of a projection surface. オブジェクト情報とリンク情報を説明する図である。It is a figure explaining object information and link information. 本実施の形態による処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the process by this Embodiment. 本発明の第2の実施の形態による投影装置の外観、及び該装置の利用シーンを模式的に示した図である。It is the figure which showed typically the external appearance of the projection apparatus by the 2nd Embodiment of this invention, and the utilization scene of this apparatus. 第2の実施の形態のオブジェクト情報を説明する図である。It is a figure explaining the object information of 2nd Embodiment. 第2の実施の形態の処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a process of 2nd Embodiment. 本発明の第3の実施の形態による投影装置の外観、及び該装置の利用シーンを模式的に示した図である。It is the figure which showed typically the external appearance of the projection apparatus by the 3rd Embodiment of this invention, and the utilization scene of this apparatus. 第3の実施の形態に関する投影装置の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the projection apparatus regarding 3rd Embodiment. 第3の実施の形態に関する遠隔端末の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the remote terminal regarding 3rd Embodiment. 第3の実施の形態の処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a process of 3rd Embodiment. 遠隔端末の処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a process of a remote terminal.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。なお、各図面における表現は理解しやすいように許容できる範囲で誇張して記載しており、実際とは異なる場合がある。
また、以下の説明において、異なる図面においても同じ符号を付した構成は同様の構成であるとして、その説明を省略することとする。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the expressions in the drawings are exaggerated as far as they are acceptable for easy understanding, and may be different from actual ones.
Moreover, in the following description, the structure which attached | subjected the same code | symbol also in different drawing is suppose that it is the same structure, and suppose that the description is abbreviate | omitted.

(第1の実施の形態)
まず、本発明の第1の実施の形態について、図1〜図9までを参照して説明を行う。
<装置の外観>
図1は、実物体に対して映像を重畳し表示することができる本発明の第1の実施形態における投影装置の外観、及びこの投影装置を用いて実物体に表示を行い、利用者が作業を行っている様子を模式的に示した図である。
(First embodiment)
First, a first embodiment of the present invention will be described with reference to FIGS.
<Appearance of the device>
FIG. 1 shows the appearance of a projection apparatus according to the first embodiment of the present invention that can superimpose and display an image on an actual object, and displays the actual object using this projection apparatus, so that the user can work It is the figure which showed the mode that it is performing typically.

本実施の形態による投影装置107は、プロジェクタ102、マルチカメラ103、及び制御部104(例えば、汎用のパーソナルコンピュータ(PC))を有する。尚、図1では、プロジェクタ102、マルチカメラ103、及び制御部104がそれぞれ独立した構成になっているが、一つの筐体の中にこれらの機能を含んだ構成であっても良い。   Projection apparatus 107 according to the present embodiment includes projector 102, multi-camera 103, and control unit 104 (for example, a general-purpose personal computer (PC)). In FIG. 1, the projector 102, the multi-camera 103, and the control unit 104 are independent from each other. However, a configuration in which these functions are included in one housing may be used.

プロジェクタ102より投影されたビジュアル情報は、実物体101に投影されている。利用者105は、実物体101に投影された投影情報106を見ながら作業を行っている。ここで、投影情報106は、図面やテキストなどの情報であり、表示位置がそれほど重要ではない情報を代表する例として模式的に示している。   Visual information projected from the projector 102 is projected onto the real object 101. The user 105 is working while viewing the projection information 106 projected on the real object 101. Here, the projection information 106 is information such as a drawing and text, and is schematically shown as an example representing information whose display position is not so important.

<ブロック構成>
続いて、図2は、本実施形態における投影装置107の一構成例を示す機能ブロック図である。
図2に示すように、投影装置107は、マルチカメラ103、プロジェクタ102、制御部104、及び図1には示していない投影情報入力装置206を有している。ここでは、マルチカメラ103は、さらに、カメラ1(103−1)及びカメラ2(103−2)より構成される。制御部104は、さらに、距離算出部201、利用者立ち位置算出部202、正常投影可否判定部203、描画部204、及びオブジェクト入力部205を有している。
<Block configuration>
Next, FIG. 2 is a functional block diagram showing a configuration example of the projection device 107 in the present embodiment.
As shown in FIG. 2, the projection device 107 includes a multi-camera 103, a projector 102, a control unit 104, and a projection information input device 206 not shown in FIG. Here, the multi-camera 103 further includes a camera 1 (103-1) and a camera 2 (103-2). The control unit 104 further includes a distance calculation unit 201, a user standing position calculation unit 202, a normal projection availability determination unit 203, a drawing unit 204, and an object input unit 205.

<処理の内容>
マルチカメラ103は、図1に示す実物体101を含む撮影範囲の映像を取得する装置であり、撮影範囲の被写体を、例えば2台のカメラを用いて異なる位置より撮影することができるようになっている。マルチカメラ103で取得した映像は、制御部104内の距離算出部201に入力される。ここで、マルチカメラ103は、図示したようなマルチカメラに限定されるわけではなく、後述する距離算出部201において算出する視差、あるいは被写体までの距離を直接算出することができる装置であればよく、汎用の測距デバイスに置き換えることが可能である。汎用の測距デバイスとは、具体的には赤外光の投影パターンを用いたアクティブな視差算出デバイスや、被写体までの赤外光の反射時間に基づいて距離を測定するTOF(Time of Flight)による測距デバイスなど、種々のデバイスを適用することができる。視差を算出することができる測距デバイスの場合はマルチカメラ103を単純に置き換えれば良く、直接距離を算出することができる測距デバイスの場合は距離算出部201も含めて置き換えれば良い。
<Content of processing>
The multi-camera 103 is a device that acquires an image of the shooting range including the real object 101 illustrated in FIG. 1, and can shoot subjects in the shooting range from different positions using, for example, two cameras. ing. The video acquired by the multi-camera 103 is input to the distance calculation unit 201 in the control unit 104. Here, the multi-camera 103 is not limited to the multi-camera as illustrated, and any device that can directly calculate the parallax calculated by the distance calculation unit 201 described later or the distance to the subject may be used. It can be replaced with a general-purpose ranging device. Specifically, general-purpose ranging devices are active parallax calculation devices using infrared light projection patterns, and TOF (Time of Flight) that measures distance based on the reflection time of infrared light to the subject. Various devices such as a distance measuring device can be applied. In the case of a distance measuring device capable of calculating parallax, the multi-camera 103 may be simply replaced. In the case of a distance measuring device capable of directly calculating a distance, the distance calculating unit 201 may be replaced.

制御部104においては、マルチカメラ103で取得した映像を距離算出部201に取り込む。距離算出部201は、カメラ(1)103−1とカメラ(2)103−2で取得した映像をそれぞれ入力とし、それらの映像の間の視差画像を算出する。同時に、カメラ(1)103−1とカメラ(2)103−2の位置関係に基づいて、画像間の視差画像から距離値に変換を行う。距離算出部201は、算出した視差画像と距離値を正常投影可否判定部203と利用者立ち位置算出部202とに出力する。なお、視差画像及び距離値の算出方法については後述する。   In the control unit 104, the video acquired by the multi camera 103 is taken into the distance calculation unit 201. The distance calculation unit 201 receives the images acquired by the camera (1) 103-1 and the camera (2) 103-2, and calculates a parallax image between these images. At the same time, based on the positional relationship between the camera (1) 103-1 and the camera (2) 103-2, the parallax image between the images is converted into a distance value. The distance calculation unit 201 outputs the calculated parallax image and the distance value to the normal projection availability determination unit 203 and the user standing position calculation unit 202. A method for calculating the parallax image and the distance value will be described later.

制御部104においては、カメラ(2)103−2で取得した映像を利用者立ち位置算出部202に取り込む。利用者立ち位置算出部202は、カメラ(2)103−2で取得した映像と距離算出部201で算出した視差画像と距離値とを入力とし、利用者の立ち位置を算出する。利用者立ち位置算出部202は、算出した利用者の立ち位置を正常投影可否判定部203に出力する。なお、利用者の立ち位置を算出する方法については後述する。   In the control unit 104, the video acquired by the camera (2) 103-2 is taken into the user standing position calculation unit 202. The user standing position calculation unit 202 receives the video acquired by the camera (2) 103-2, the parallax image calculated by the distance calculation unit 201, and the distance value, and calculates the user standing position. The user standing position calculation unit 202 outputs the calculated user standing position to the normal projection availability determination unit 203. A method for calculating the user's standing position will be described later.

正常投影可否判定部203は、距離算出部201で算出された視差画像および距離値と利用者立ち位置算出部202で算出された利用者立ち位置を入力とし、オブジェクトを正常に投影することが可能であるか否かの判定を行い、その結果を描画部204に出力する。正常投影の可否判定方法については後述する。   The normal projection availability determination unit 203 can project the object normally by using the parallax image calculated by the distance calculation unit 201 and the distance value and the user standing position calculated by the user standing position calculation unit 202 as inputs. And outputs the result to the drawing unit 204. The normal projection propriety determination method will be described later.

オブジェクト入力部205は、制御部104の外部にある図1には示していない投影情報入力装置206より、投影するオブジェクトに関する情報であるオブジェクト情報とリンク情報を入力し、そのまま描画部204に出力する。ここで、投影情報入力装置206は、オブジェクト情報とリンク情報を入力することができる装置であれば良く、例えばキーボードやマウスによる直接入力や、予め作成しておいたオブジェクトの情報を保持できる外部記憶装置などから入力しても良い。オブジェクト情報とリンク情報については後述する。   An object input unit 205 inputs object information and link information, which are information related to an object to be projected, from a projection information input device 206 (not shown in FIG. 1) outside the control unit 104 and outputs the information to the drawing unit 204 as it is. . Here, the projection information input device 206 only needs to be a device that can input object information and link information. You may input from an apparatus. The object information and link information will be described later.

描画部204は、正常投影可否判定部203で算出された判定結果とオブジェクト入力部205からオブジェクト情報とリンク情報を入力とし、必要があればオブジェクトを適切に配置し直して、描画データを外部のプロジェクタ102に出力する。
プロジェクタ102は、描画部204より描画データを受け取ると、それに従って投影を行う。
The drawing unit 204 receives the determination result calculated by the normal projection propriety determination unit 203 and the object information and the link information from the object input unit 205, rearranges the objects appropriately if necessary, and converts the drawing data to the external Output to the projector 102.
Upon receiving the drawing data from the drawing unit 204, the projector 102 performs projection according to the drawing data.

<各処理内容の詳細>
距離算出部201で行う、視差画像及び距離値の算出方法について図3を参照して詳細に説明する。
<Details of each processing content>
A method of calculating a parallax image and a distance value performed by the distance calculation unit 201 will be described in detail with reference to FIG.

まず初めに、視差画像の算出方法について説明する。視差とは、異なる位置で撮影した2枚の画像において、被写体の対応する位置が異なり、そのずれのことを示す。視差を画像として表したものが視差画像であり、図4(a)にその例を示す。視差画像は、上述のずれを画素値で表したもので、0〜255になるように正規化されている。値が大きいほど近景(値255、白)を表し、値が小さいほど遠景(値0、黒)を示す。本明細書では、最も近景までの距離と最も遠景までの距離を限定し、視差が255を超えないものとして説明を行う。視差が255を超えて正規化を行う場合は、以下に示す距離値の算出の際に、近景と遠景の視差量を用いて正規化前の視差を再計算を行えば良い。   First, a method for calculating a parallax image will be described. The parallax indicates that the corresponding positions of the subject are different in the two images taken at different positions, and the deviation. A parallax image representing parallax as an image is shown in FIG. 4A. The parallax image represents the above-described shift in terms of pixel values, and is normalized so as to be 0 to 255. A larger value represents a foreground (value 255, white), and a smaller value represents a distant view (value 0, black). In this specification, the distance to the foreground and the distance to the farthest background are limited, and description will be made assuming that the parallax does not exceed 255. When normalization is performed with the parallax exceeding 255, the parallax before normalization may be recalculated using the parallax amount between the foreground and the distant view when calculating the distance value shown below.

被写体の方向に向いて、カメラ(2)103−2が左側、カメラ(1)103−1が右側に位置しているものとする。図3がその様子を真上から捉えた図である。図3において、点301が被写体の位置する1点を示し、さらに、カメラ(1)103−1、カメラ(2)103−2が示されている。ここで、2台のカメラの内、左側のカメラ(2)103−2を基準(基準カメラ)とし、このカメラの座標系を基準の座標系(以下、「基準座標系」と称する。)とする。また、2台のカメラは特性が同じで、完全に水平に設置されているものとする。なお、2台のカメラの特性が異なる場合や、水平に設置されていない場合の補正方法については、カメラ幾何を用いて対応可能であるが、詳細な説明は省略する。また、カメラ(1)103−1,カメラ(2)103−2の左右の位置関係は逆であっても特に問題はない。視差は、基準カメラで撮影した画像の中から選択した所定サイズの局所ブロックに対応するブロックをもう一方のカメラ画像から抽出(局所ブロックマッチングにより抽出)して、そのずれ量を算出することで求めることができる。   It is assumed that the camera (2) 103-2 is located on the left side and the camera (1) 103-1 is located on the right side in the direction of the subject. FIG. 3 is a diagram showing the situation from directly above. In FIG. 3, a point 301 indicates one point where the subject is located, and further, a camera (1) 103-1 and a camera (2) 103-2 are shown. Here, of the two cameras, the left camera (2) 103-2 is used as a reference (reference camera), and the coordinate system of this camera is referred to as a reference coordinate system (hereinafter referred to as “reference coordinate system”). To do. Further, it is assumed that the two cameras have the same characteristics and are installed completely horizontally. The correction method when the characteristics of the two cameras are different or when they are not installed horizontally can be dealt with using camera geometry, but detailed description thereof is omitted. Further, there is no particular problem even if the left and right positional relationships of the camera (1) 103-1 and the camera (2) 103-2 are reversed. The parallax is obtained by extracting a block corresponding to a local block of a predetermined size selected from images captured by the reference camera from the other camera image (extracting by local block matching) and calculating the amount of deviation. be able to.

ここで、カメラ(1)103−1の入力画像をIR(x,y)、カメラ(2)103−2の入力画像をIL(x,y)とし、局所ブロックサイズを15×15とした場合の、視差M(x,y)の算出式は以下の様になる。I(x,y)は、画素(x,y)における輝度値を示している。 Here, the input image of the camera (1) 103-1 is I R (x, y), the input image of the camera (2) 103-2 is I L (x, y), and the local block size is 15 × 15. In this case, the formula for calculating the parallax M (x, y) is as follows. I (x, y) represents the luminance value at the pixel (x, y).

Figure 0006412685
Figure 0006412685

Figure 0006412685
Figure 0006412685

以上、局所領域における輝度値の差の絶対値和(SAD:Sum of Absolute Difference)を最小とするずれ量を、画像内の各画素位置で求めることによって、視差画像を算出することができる。但し、視差画像の算出方法については、上記方法に限定するものではなく、異なる位置に設置したカメラの視差画像を算出できる方法であれば、どのような手法であっても良い。   As described above, the parallax image can be calculated by obtaining the shift amount that minimizes the sum of absolute values (SAD: Sum of Absolute Difference) in the local region at each pixel position in the image. However, the method for calculating the parallax image is not limited to the above method, and any method may be used as long as it can calculate the parallax images of the cameras installed at different positions.

次に、視差画像から距離値を算出する方法について説明する。視差画像から距離値を算出するためには、撮影したカメラの特性を示すカメラパラメータが必要である。カメラパラメータには、内部パラメータと外部パラメータとがあるが、これらは、例えば「コンピュータビジョン−視覚の幾何学−」(コロナ社)の第6章カメラ校正の章に記載された方法を用いて算出することが可能である。
算出したカメラパラメータのうち、焦点距離f(単位m)とカメラ間の距離d(単位m)を用いて以下の様に距離値を算出することができる。
Next, a method for calculating the distance value from the parallax image will be described. In order to calculate the distance value from the parallax image, a camera parameter indicating the characteristics of the photographed camera is necessary. The camera parameters include internal parameters and external parameters, which are calculated by using the method described in Chapter 6 “Camera Calibration” of “Computer Vision-Geometry of Vision” (Corona), for example. Is possible.
Of the calculated camera parameters, the distance value can be calculated as follows using the focal length f (unit m) and the distance d (unit m) between the cameras.

図3において、被写体の一点301は、カメラ(2)103−2の撮影面上の像302、カメラ(1)103−1の撮影面上の像303としてそれぞれ写っている(結像されている)。位置304は、カメラ(2)103−2の像302をカメラ(1)103−1の投影面上に示した点である。従って、像303と位置304との間の画素のずれMが視差となる。また、上記カメラパラメータに関係する焦点距離fを符号305で示し、カメラ間距離dを符号306で示す。   In FIG. 3, one point 301 of the subject is shown (imaged) as an image 302 on the imaging surface of the camera (2) 103-2 and an image 303 on the imaging surface of the camera (1) 103-1. ). A position 304 is a point where the image 302 of the camera (2) 103-2 is shown on the projection plane of the camera (1) 103-1. Therefore, the pixel shift M between the image 303 and the position 304 is parallax. Further, a focal length f related to the camera parameter is denoted by reference numeral 305, and an inter-camera distance d is denoted by reference numeral 306.

被写体までの距離z(単位m)と視差Mとの関係は三角測量の原理に従い、一般的に以下のように求めることが可能である。   The relationship between the distance z (unit m) to the subject and the parallax M can be generally obtained as follows according to the principle of triangulation.

Figure 0006412685
Figure 0006412685

ここで、qは画像1画素当たりの長さ(単位m)であり、カメラに採用されている撮像素子によって決まる値である。Mとqの積により、画素のずれ量から実距離の視差に変換することができる。
以上により、異なる位置に配置した2台のカメラで取得した画像を用いて、視差画像及び被写体までの距離値を算出することができる。
Here, q is the length (unit: m) per pixel of the image, and is a value determined by the image sensor employed in the camera. By the product of M and q, the amount of pixel shift can be converted into a real distance parallax.
As described above, the parallax image and the distance value to the subject can be calculated using images acquired by the two cameras arranged at different positions.

続いて、利用者立ち位置算出部202で行われる利用者の立ち位置を算出する方法について、図4を参照しながら詳細に説明する。尚、利用者の立ち位置とは、基準座標における位置(3次元座標)のことである。利用者の立ち位置(以下、「利用者座標」と称する。)を求める方法として、利用者の頭などに超音波や磁気を発生させる機材を装着し、その情報を用いて算出する汎用の3次元位置計測装置を用いても良いが、ここでは距離算出部201で求めた視差画像および距離値を利用する方法について説明する。   Next, a method for calculating the user standing position performed by the user standing position calculating unit 202 will be described in detail with reference to FIG. The standing position of the user is a position (three-dimensional coordinates) in the reference coordinates. As a method for obtaining a user's standing position (hereinafter referred to as “user coordinates”), a general-purpose 3 that calculates by using information that generates ultrasonic waves or magnetism on the user's head or the like is used. Although a dimension position measurement device may be used, a method of using a parallax image and a distance value obtained by the distance calculation unit 201 will be described here.

図4(a)は、距離算出部201で算出された視差画像を模式的に示した図である。上述の式(2)によって、視差値は距離値に変換することが可能であることは記載した。このときの距離値は前述の基準座標系におけるz座標である。さらに、基準座標における横方向の位置(x座標)と縦方向の位置(y座標)とが分かれば、利用者の3次元位置を特定することができる。横方向と縦方向の位置については、視差画像において、利用者に対応する画像上の座標と、その視差値から変換した距離値を用いて3次元空間に逆投影することで求めることができる。以下、視差画像における利用者位置に対応する領域を抽出する方法と、その領域の視差値を用いて3次元空間に逆投影して、利用者の横方向の位置(x座標)と縦方向の位置(y座標)を取得する方法について説明する。   FIG. 4A is a diagram schematically illustrating a parallax image calculated by the distance calculation unit 201. It has been described that the parallax value can be converted into a distance value by the above equation (2). The distance value at this time is the z coordinate in the aforementioned reference coordinate system. Furthermore, if the horizontal position (x coordinate) and the vertical position (y coordinate) in the reference coordinates are known, the three-dimensional position of the user can be specified. The position in the horizontal direction and the vertical direction can be obtained by back-projecting in the three-dimensional space using the coordinates on the image corresponding to the user and the distance value converted from the parallax value in the parallax image. Hereinafter, a method of extracting a region corresponding to a user position in a parallax image, and back projection into a three-dimensional space using the parallax value of the region, the user's horizontal position (x coordinate) and vertical direction A method for acquiring the position (y coordinate) will be described.

初めに、視差画像上の利用者位置に対応する領域及びその座標を求める方法について説明する。具体的には、基準カメラ(2)103−2の映像を使い、利用者の写っていない背景のみの画像と利用者が映っている画像との差分を取ることで、利用者の存在する領域を抽出する。その結果を利用者領域マスクとして取得する(以下、「利用者領域マスク画像」と称する。)。利用者の写っていない背景画像は、例えばシステム起動時に、利用者を除いた状態で撮影をすることで取得可能である。撮影した背景画像は、制御部104内の図示していない保存領域(メモリ)に保持しておけばよい。尚、このような手法は、画像処理の背景差分と呼ばれる一般的な手法である。   First, a method for obtaining an area corresponding to a user position on a parallax image and its coordinates will be described. Specifically, an area where the user exists is obtained by using the video of the reference camera (2) 103-2 and taking the difference between the image of only the background where the user is not shown and the image where the user is shown. To extract. The result is acquired as a user area mask (hereinafter referred to as “user area mask image”). A background image without a user can be obtained, for example, by taking a picture without the user when the system is activated. The captured background image may be held in a storage area (memory) (not shown) in the control unit 104. Such a method is a general method called background difference in image processing.

Figure 0006412685
Figure 0006412685

ここで、nは利用者マスク画像において、マスク値が1となる画素の総数である。(Xi,Yi)は、i番目のマスク値が1となる画素の座標を示している。ここで、背景差分に使ったカメラと視差画像の基準となるカメラは同じであるため、利用者領域マスク画像と視差画像とは共通の座標軸を持つ。以上により、視差画像における利用者位置に対応する領域(座標)を特定することができる。 Here, n is the total number of pixels whose mask value is 1 in the user mask image. (X i , Y i ) indicates the coordinates of the pixel whose i-th mask value is 1. Here, since the camera used for the background difference and the camera used as the reference for the parallax image are the same, the user area mask image and the parallax image have a common coordinate axis. As described above, the region (coordinates) corresponding to the user position in the parallax image can be specified.

続いて、視差値を用いて3次元空間に逆投影し、利用者の3次元座標を取得する方法について、図4(c)を参照しながら説明する。先ほど算出した重心位置(利用者位置)が図4(c)の座標位置403である。2次元画像上の座標位置403とその視差値を知ることが出来るため、前述の式(2)より利用者までの距離Zを算出することができる。ΔOPAとΔOP’A’は相似の関係になるため、利用者の3次元位置P'(X,Y,Z)を以下の様に算出することができる。   Next, a method of back projecting to a three-dimensional space using a parallax value and acquiring a user's three-dimensional coordinates will be described with reference to FIG. The position of the center of gravity (user position) calculated earlier is the coordinate position 403 in FIG. Since the coordinate position 403 on the two-dimensional image and its parallax value can be known, the distance Z to the user can be calculated from the above equation (2). Since ΔOPA and ΔOP′A ′ have a similar relationship, the three-dimensional position P ′ (X, Y, Z) of the user can be calculated as follows.

Figure 0006412685
Figure 0006412685

以上により、基準座標系における利用者の立ち位置(利用者座標)を算出することができる。ここでは、視差画像内の利用者位置を背景差分によって算出したが、この方法に限定するものではない。例えば、汎用の顔検出処理を用いて画像内から顔領域を検出してやり、上記と同様の処理を行っても良い。   As described above, the user's standing position (user coordinates) in the reference coordinate system can be calculated. Here, the user position in the parallax image is calculated based on the background difference, but the present invention is not limited to this method. For example, a face area may be detected from the image using a general-purpose face detection process, and the same process as described above may be performed.

続いて、正常投影可否判定部203で行う判定処理について、図5〜図7を参照しながら詳細に説明する。   Next, the determination process performed by the normal projection availability determination unit 203 will be described in detail with reference to FIGS.

図5は、図1を真上から捉えた図であり、投影装置107の一部であるプロジェクタ102とマルチカメラ103と、利用者105、及び、投影面101が示されている。ここでは、制御部104の記載は省略している。位置502は、投影装置107によってビジュアル情報を投影する点(以下、「実物体上描画位置」と称する。)を示している。破線501は、その投影点における投影面101の法線を示している。正常投影可否判定部203は、実物体上描画位置502の面の状態によって正常投影が可能であるか否かの判定を行う。具体的には、利用者105がプロジェクタ102から実物体上描画位置502に向かい正反射の方向に位置しているか否かの判定(以下、「反射判定」と称する。)と、実物体上描画位置502周辺の投影面が所定の条件以上に凹凸しているかの判定(以下、「凹凸判定」と称する。)の2種類を行う。正常投影可否判定部203は、この2種類の判定結果に基づいて投影可否の判定を行う。   FIG. 5 is a view of FIG. 1 taken from directly above, and shows a projector 102, a multi-camera 103, a user 105, and a projection plane 101 that are a part of the projection device 107. Here, the description of the control unit 104 is omitted. A position 502 indicates a point at which visual information is projected by the projection device 107 (hereinafter referred to as “real object drawing position”). A broken line 501 indicates a normal line of the projection plane 101 at the projection point. The normal projection propriety determination unit 203 determines whether normal projection is possible according to the state of the surface of the on-object drawing position 502. Specifically, it is determined whether or not the user 105 is positioned in the direction of regular reflection from the projector 102 toward the on-object drawing position 502 (hereinafter referred to as “reflection determination”), and on-object drawing. Two types of determination (hereinafter, referred to as “concave / convex determination”) are performed as to whether or not the projection surface around the position 502 is uneven more than a predetermined condition. The normal projection availability determination unit 203 determines whether projection is possible based on these two types of determination results.

図6は、図5に記載したような位置関係のときの視差画像(図6(a))と基準カメラの撮影画像(図6(b))を模式的に示した図である。視差画像(図6(a))内の点603(以下、「点T」と称する)と撮影画像(図6(b))内の点602とは同一の位置を示しており、図5における実物体上描画位置502に対応している。また、同図(b)内の601、605、606はそれぞれ図1における101、105、106に対応している。   FIG. 6 is a diagram schematically showing a parallax image (FIG. 6A) and a captured image of the reference camera (FIG. 6B) in the positional relationship as described in FIG. 5. A point 603 (hereinafter referred to as “point T”) in the parallax image (FIG. 6A) and a point 602 in the captured image (FIG. 6B) indicate the same position. This corresponds to the real object drawing position 502. Also, reference numerals 601, 605, and 606 in FIG. 7B correspond to 101, 105, and 106 in FIG.

Figure 0006412685
Figure 0006412685

Figure 0006412685
Figure 0006412685

Figure 0006412685
Figure 0006412685

Figure 0006412685
Figure 0006412685

ここで、Trefは反射判定のパラメータで、正の定数である。例えば、15度に設定する。続いて、凹凸判定について説明する。凹凸判定は、実物体上描画位置502に対応する603を含む、所定範囲内の近傍の視差値(距離値でも良いが記載しない)を用いて行う。その凹凸判定の判定式は以下の通りである。 Here, T ref is a parameter for reflection determination, and is a positive constant. For example, it is set to 15 degrees. Subsequently, the unevenness determination will be described. The unevenness determination is performed using a parallax value in the vicinity including a distance 603 corresponding to the drawing position 502 on the real object (which may be a distance value but is not described). The determination formula for the unevenness determination is as follows.

Figure 0006412685
Figure 0006412685

ここで、Tbumpは凹凸判定のパラメータで、正の整数である。設定については、1画素の視差がどれくらいの距離に対応するかによって決めることができる。例えば、距離が10cm程度の視差量を設定すればよい。
以上、反射判定結果JudgeFref(T)と凹凸判定結果JudgeFbump(T)が求められると、正常投影可否判定部203は、以下のように判定を行う。
Here, T bump is a parameter for determining unevenness and is a positive integer. The setting can be determined according to how far the parallax of one pixel corresponds. For example, a parallax amount with a distance of about 10 cm may be set.
As described above, when the reflection determination result JudgeF ref (T) and the unevenness determination result JudgeF bump (T) are obtained, the normal projection propriety determination unit 203 performs the determination as follows.

Figure 0006412685
Figure 0006412685

正常投影可否判定部203は、以上により判定結果を生成し結果を出力する。上記式(10)では、反射判定と凹凸判定の両方を用いて最終判定を行ったが、いずれか一方のみを用いて最終判定を行っても良い。   The normal projection availability determination unit 203 generates a determination result as described above and outputs the result. In the above formula (10), the final determination is performed using both the reflection determination and the unevenness determination, but the final determination may be performed using only one of them.

次いで、描画部204で行う投影位置の制御方法について詳細に説明する。描画部204では、正常投影可否判定203において「正常投影不可」の判定がされた場合(JudgeF(T)が1あるいはTRUEの場合)に、投影位置の制御を行う。正常投影可否判定部203において「正常投影可」の判定がされた場合(JudgeF(T)が0あるいはFALSEの場合)は、通常の投影位置にそのまま投影を行う。以下は、「正常投影不可」の場合について説明を行う。   Next, a method for controlling the projection position performed by the drawing unit 204 will be described in detail. The drawing unit 204 controls the projection position when “normal projection is impossible” is determined in the normal projection propriety determination 203 (when JudgeF (T) is 1 or TRUE). When the normal projection propriety determination unit 203 determines “normal projection is possible” (when JudgeF (T) is 0 or FALSE), the normal projection position is projected as it is. Hereinafter, the case of “normal projection impossible” will be described.

描画部204は、オブジェクト入力部205よりオブジェクト情報とリンク情報を受け取る。ここで、オブジェクト情報とリンク情報について図8を参照しながら説明する。オブジェクト情報800は、オブジェクトID801、オブジェクト種類802a、オブジェクト引数長802b、オブジェクト引数803c、オブジェクト位置804、及びリンクID805より構成される情報であり、オブジェクトの描画内容を示す情報になっている。一方、リンク情報810は、リンクID811、リンク長812a、リンク−オブジェクトID(s)813b、及び移動シフト量814より構成される情報であり、オブジェクト間のリンク情報を示している。以下、個々の項目について説明をする。   The drawing unit 204 receives object information and link information from the object input unit 205. Here, object information and link information will be described with reference to FIG. The object information 800 is information including an object ID 801, an object type 802a, an object argument length 802b, an object argument 803c, an object position 804, and a link ID 805, and is information indicating the drawing contents of the object. On the other hand, the link information 810 is information composed of a link ID 811, a link length 812a, a link-object ID (s) 813b, and a movement shift amount 814, and indicates link information between objects. Hereinafter, individual items will be described.

初めに、オブジェクト情報800の項目について説明する。オブジェクトID801は、描画オブジェクト毎に設定される固有のIDである。オブジェクト種類802aは、オブジェクトの種類を示す情報で、例えば、直線、曲線、点、文字、矩形、画像、動画等のビジュアル情報の種類を示す項目である。オブジェクト引数長802bは、オブジェクトの種類によって変わる引数の長さを指定する項目であり、803cの格納サイズを決める。オブジェクト引数803cは、オブジェクト種類802aに固有の引数を格納する項目である。例えば、オブジェクトの色や線の太さ、始点や終点、曲率、キャラクタコード、ストリングコード、画像サイズ、画像・動画データ保存先等、オブジェクトを描画する際に必要な引数である。オブジェクト位置804は、オブジェクトの描画位置を示す情報である。リンクID805は、関連するオブジェクトのリンク情報を格納する項目で、リンク情報810のリンクIDを格納している。お互いにリンクしたオブジェクトは、レイアウトを変更する際に共通の変更(描画位置の変更)を行うものとする。リンク情報は必須の情報ではないが、後述のレイアウト変更を行う際に、関連するオブジェクトのレイアウト崩れを抑制することができる。続いて、リンク情報810の項目について説明する。リンクID811は、リンク情報毎に与えられる固有のIDである。リンク長812aは、関連するオブジェクトのIDを格納する813bの格納サイズを決める項目である。リンク−オブジェクトID(s)813bは、関連するオブジェクト(レイアウト変更時に同じ移動をさせるオブジェクト群)のIDを格納する項目である(複数も可能である)。移動シフト量814は、リンクしているオブジェクト全体の移動量を格納する項目である。リンク情報810の移動シフト量814は、入力時には0が設定されている。後述のレイアウト変更時に移動量が設定され、リンクされたオブジェクト全てを同じ移動量分シフトして描画する。これにより、リンクされたオブジェクト間のレイアウトを崩すことなく描画することができる。オブジェクトのレイアウトの変更に関しては、所定の条件でオブジェクトを移動させ、その移動先で前述の投影可否判定を繰り返し行い問題がなければそこに移動させれば良い。所定の条件とは、元々の投影位置から移動量をできるだけ少なくなるように制御することである。具体的な方法としては、元々の描画位置から新規移動先までの距離が極力少なくなるように制御すればよい。また、従来特許文献1に記載のレイアウト変更部で行うレイアウトの変更方法を用いても良い。このときの評価値は、複数の移動先について、前述の正常投影可否判定部203の判定結果を用いれば良い。また、特許文献1に記載の移動先に関して、ユーザの指示を入力し、その結果によって移動先を決めるような仕組みを用いても良い。   First, the items of the object information 800 will be described. The object ID 801 is a unique ID set for each drawing object. The object type 802a is information indicating the type of object, and is an item indicating the type of visual information such as a straight line, a curve, a point, a character, a rectangle, an image, and a moving image. The object argument length 802b is an item for designating the length of an argument that varies depending on the type of object, and determines the storage size of 803c. The object argument 803c is an item for storing an argument specific to the object type 802a. For example, the object color, line thickness, start point and end point, curvature, character code, string code, image size, image / video data storage destination, etc. are necessary arguments for drawing the object. The object position 804 is information indicating the drawing position of the object. A link ID 805 is an item for storing link information of related objects, and stores the link ID of the link information 810. The objects linked to each other are assumed to make a common change (change of drawing position) when changing the layout. The link information is not essential information, but layout changes of related objects can be suppressed when a layout change described later is performed. Subsequently, items of the link information 810 will be described. The link ID 811 is a unique ID given for each piece of link information. The link length 812a is an item that determines the storage size of 813b that stores the IDs of related objects. The link-object ID (s) 813b is an item for storing the ID of a related object (an object group that is moved in the same manner when the layout is changed). The movement shift amount 814 is an item for storing the movement amount of the entire linked object. The movement shift amount 814 of the link information 810 is set to 0 at the time of input. A movement amount is set when the layout is changed, which will be described later, and all linked objects are shifted and drawn by the same movement amount. Thereby, it is possible to draw without breaking the layout between linked objects. Regarding the change of the object layout, the object is moved under a predetermined condition, and the above-described projection propriety determination is repeated at the movement destination, and if there is no problem, the object may be moved there. The predetermined condition is to control the movement amount to be as small as possible from the original projection position. As a specific method, the distance from the original drawing position to the new destination may be controlled to be as small as possible. Further, a layout changing method performed by the layout changing unit described in Patent Document 1 may be used. As the evaluation value at this time, the determination result of the normal projection availability determination unit 203 may be used for a plurality of movement destinations. Further, a mechanism may be used in which a user instruction is input with respect to the movement destination described in Patent Document 1 and the movement destination is determined based on the result.

<フローチャート>
次いで、制御部104の処理の流れについて、図9及び図2を用いて説明する。
(ステップS101)
制御部104は、外部に接続されたマルチカメラ103で撮影された映像を取り込み、距離算出部201に入力する。距離算出部201は、映像を入力し、前述の方法により視差画像を算出する。その後、ステップS102に進む。
<Flowchart>
Next, the processing flow of the control unit 104 will be described with reference to FIGS. 9 and 2.
(Step S101)
The control unit 104 captures video captured by the multi-camera 103 connected to the outside and inputs the video to the distance calculation unit 201. The distance calculation unit 201 inputs a video and calculates a parallax image by the method described above. Thereafter, the process proceeds to step S102.

(ステップS102)
距離算出部201は、算出した視差画像とカメラパラメータに基づいて距離値を算出し、結果を利用者立ち位置算出部202と正常投影可否判定部203に出力する。その後、ステップS103に進む。
(Step S102)
The distance calculation unit 201 calculates a distance value based on the calculated parallax image and camera parameters, and outputs the result to the user standing position calculation unit 202 and the normal projection availability determination unit 203. Thereafter, the process proceeds to step S103.

(ステップS103)
利用者立ち位置算出部202は、距離算出部201より視差画像及び距離値を入力し、前述の方法により利用者の立ち位置を算出する。利用者立ち位置算出部202は、算出した結果を、正常投影可否判定部203に出力する。その後、ステップS104に進む。
(Step S103)
The user standing position calculation unit 202 inputs the parallax image and the distance value from the distance calculation unit 201, and calculates the user standing position by the method described above. The user standing position calculation unit 202 outputs the calculated result to the normal projection availability determination unit 203. Thereafter, the process proceeds to step S104.

(ステップS104)
正常投影可否判定部203は、利用者立ち位置算出部202より利用者の立ち位置を入力し、さらに、距離算出部201より視差画像及び距離値を入力し、前述の反射判定を行う(オブジェクト位置804に移動シフト量814を加えた位置で判定する)。正常投影可否判定部203は、反射判定によって正常投影が可能と判断した場合、処理をステップS105に進める。正常投影可否判定部203は、反射判定によって正常投影が不可と判断した場合、ステップS106に処理を進める。
(Step S104)
The normal projection availability determination unit 203 inputs the user's standing position from the user standing position calculation unit 202, and further receives the parallax image and the distance value from the distance calculation unit 201, and performs the above-described reflection determination (object position). (It is determined at a position obtained by adding a movement shift amount 814 to 804). If the normal projection propriety determination unit 203 determines that normal projection is possible by the reflection determination, the process proceeds to step S105. When the normal projection propriety determination unit 203 determines that normal projection is not possible by the reflection determination, the process proceeds to step S106.

(ステップS105)
正常投影可否判定部203は、続いて、前述の凹凸判定を行う。正常投影可否判定部203は、凹凸判定によって正常投影が可能と判断した場合、処理をステップS107に進める。正常投影可否判定部203は、凹凸判定によって正常投影が不可と判断した場合、ステップS106に処理を進める。
(Step S105)
Subsequently, the normal projection availability determination unit 203 performs the above-described unevenness determination. If the normal projection propriety determination unit 203 determines that normal projection is possible by the unevenness determination, the process proceeds to step S107. If the normal projection propriety determination unit 203 determines that normal projection is not possible through the unevenness determination, the process proceeds to step S106.

(ステップS106)
描画部204は、正常投影可否判定部203において正常投影が不可と判断された場合、前述の投影位置の変更を行い、ステップS104に戻り前述の処理を繰り返す。
(Step S106)
When the normal projection propriety determination unit 203 determines that normal projection is not possible, the drawing unit 204 changes the projection position described above, returns to step S104, and repeats the above-described processing.

(ステップS107)
描画部204は、正常投影可否判定部106において正常投影が可能と判断された場合、描画を行う。
(Step S107)
The drawing unit 204 performs drawing when the normal projection availability determination unit 106 determines that normal projection is possible.

以上の処理により、ビジュアル情報を見ている利用者の立ち位置に応じて、投影内容が見難いことが予想される場合に、その投影位置を変更して描画することが可能になる。   With the above processing, when it is predicted that the projection content is difficult to see according to the standing position of the user who is viewing the visual information, the projection position can be changed and the drawing can be performed.

(第2の実施の形態)
次に、本発明の第2の実施の形態について、図10から図12までを参照しながら説明を行う。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to FIGS.

<装置の外観例>
図10は、実物体に対して映像を重畳して表示することができる本発明の第2の実施形態による投影装置の外観及び当該装置を用いて実物体に表示を行い、利用者が作業を行っている状態を模式的に示した図である。本実施の形態が第1の実施の形態と異なる点は、実物体101に投影しているビジュアル情報に、投影位置が重要なポインタ(1001)情報があることである。利用者105は、実物体101に投影された情報(投影情報106とポインタ情報1001)を見ながら作業を行っている。以上、図10は本発明の投影装置を利用しているシーンの一例を示す図である。
<Appearance example of the device>
FIG. 10 shows an appearance of a projection apparatus according to the second embodiment of the present invention that can display an image superimposed on an actual object, and displays the actual object using the apparatus, so that the user can perform work. It is the figure which showed the state currently performed typically. This embodiment is different from the first embodiment in that the visual information projected on the real object 101 includes pointer (1001) information whose projection position is important. The user 105 is working while viewing information (projection information 106 and pointer information 1001) projected onto the real object 101. As described above, FIG. 10 is a diagram showing an example of a scene using the projection apparatus of the present invention.

<ブロック構成例>
本実施の形態における投影装置の機能ブロック図及び処理内容については第1の実施形態と同じである(図2参照)。第1の実施の形態と異なる点は、第1の実施の形態のオブジェクト情報800(図8)に「オブジェクト移動可否」項目を追加した点である。本実施の形態で使用するオブジェクト情報について図11を参照しながら説明する。
<Block configuration example>
The functional block diagram and processing contents of the projection apparatus in the present embodiment are the same as those in the first embodiment (see FIG. 2). The difference from the first embodiment is that an “object movement availability” item is added to the object information 800 (FIG. 8) of the first embodiment. Object information used in the present embodiment will be described with reference to FIG.

オブジェクト情報1100は、オブジェクトID1101、オブジェクト種類1102a、オブジェクト引数長1102b、オブジェクト引数1103c、オブジェクト位置1104、オブジェクト移動可否1105、及びリンクID1106より構成される情報で、オブジェクトの描画内容を示す情報になっている。一方、リンク情報は、第1の実施の形態と同じである。
以下において、オブジェクト情報1100の各項目について説明する。
The object information 1100 is information including an object ID 1101, an object type 1102 a, an object argument length 1102 b, an object argument 1103 c, an object position 1104, an object movement availability 1105, and a link ID 1106, and is information indicating the drawing contents of the object. Yes. On the other hand, the link information is the same as in the first embodiment.
Hereinafter, each item of the object information 1100 will be described.

オブジェクトID1101は、描画オブジェクト毎に設定される固有のIDである。
オブジェクト種類1102aは、オブジェクトの種類を示す情報で、例えば、直線、曲線、点、文字、矩形、画像、動画等のビジュアル情報の種類を示す項目である。オブジェクト引数長1102bは、オブジェクトの種類によって変わる引数の長さを指定する項目で、1103cの格納サイズを決める。オブジェクト引数1103cは、オブジェクト種類1102aに固有の引数を格納する項目である。例えば、オブジェクトの色や線の太さ、始点や終点、曲率、キャラクタコード、ストリングコード、画像サイズ、画像・動画データ保存先等、オブジェクトを描画する際に必要な引数である。オブジェクト位置1104は、オブジェクトの描画位置を示す情報である。
The object ID 1101 is a unique ID set for each drawing object.
The object type 1102a is information indicating the type of object, and is an item indicating the type of visual information such as, for example, a straight line, a curve, a point, a character, a rectangle, an image, and a moving image. The object argument length 1102b is an item that specifies the length of an argument that varies depending on the type of object, and determines the storage size of 1103c. The object argument 1103c is an item for storing an argument specific to the object type 1102a. For example, the object color, line thickness, start point and end point, curvature, character code, string code, image size, image / video data storage destination, etc. are necessary arguments for drawing the object. The object position 1104 is information indicating the drawing position of the object.

オブジェクト移動可否1105は、本実施の形態で追加した項目で、レイアウトの変更を許可するか否かを制御するフラグである。このフラグが設定(「移動不可」)されている場合は、正常投影可否判定部203において正常投影不可と判断されても投影位置の変更は行わない。詳細は後述する。リンクID1106は、関連するオブジェクトのリンク情報を格納する項目で、リンク情報のリンクIDを格納している。お互いにリンクしたオブジェクトは、レイアウトを変更する際に共通の変更(描画位置の変更)を行うものとする。リンク情報は必須の情報ではないが、後述のレイアウト変更を行う際に、関連するオブジェクトのレイアウト崩れを抑制することができる。   The object movement permission / prohibition 1105 is a flag that controls whether or not to permit the layout change in the item added in the present embodiment. When this flag is set (“unmovable”), the projection position is not changed even if the normal projection availability determination unit 203 determines that normal projection is impossible. Details will be described later. The link ID 1106 is an item for storing the link information of the related object, and stores the link ID of the link information. The objects linked to each other are assumed to make a common change (change of drawing position) when changing the layout. The link information is not essential information, but layout changes of related objects can be suppressed when a layout change described later is performed.

<フローチャート>
制御部104の処理の流れについて、図12及び図2を参照しながら説明する。
(ステップS201)
制御部104は、外部に接続されたマルチカメラ103で撮影された映像を取り込み、距離算出部201に入力する。距離算出部201は、映像を入力し、前述の方法により視差画像を算出する。その後、ステップS202に進む。
<Flowchart>
The processing flow of the control unit 104 will be described with reference to FIGS.
(Step S201)
The control unit 104 captures video captured by the multi-camera 103 connected to the outside and inputs the video to the distance calculation unit 201. The distance calculation unit 201 inputs a video and calculates a parallax image by the method described above. Thereafter, the process proceeds to step S202.

(ステップS202)
距離算出部201は、算出した視差画像とカメラパラメータに基づいて距離値を算出し、結果を利用者立ち位置算出部202と正常投影可否判定部203に出力する。その後、ステップS203に進む。
(Step S202)
The distance calculation unit 201 calculates a distance value based on the calculated parallax image and camera parameters, and outputs the result to the user standing position calculation unit 202 and the normal projection availability determination unit 203. Thereafter, the process proceeds to step S203.

(ステップS203)
利用者立ち位置算出部202は、距離算出部201より視差画像及び距離値を入力し、前述の方法により利用者の立ち位置を算出する。利用者立ち位置算出部202は、算出した結果を、正常投影可否判定部203に出力する。その後、ステップS204に進む。
(Step S203)
The user standing position calculation unit 202 inputs the parallax image and the distance value from the distance calculation unit 201, and calculates the user standing position by the method described above. The user standing position calculation unit 202 outputs the calculated result to the normal projection availability determination unit 203. Thereafter, the process proceeds to step S204.

(ステップS204)
正常投影可否判定部203は、オブジェクト入力部205より入力したオブジェクト情報とリンク情報のうち、オブジェクト情報に格納されたオブジェクト移動可否項目1105に従って、正常投影可否判定を行うか否かの判断を行う。正常投影可否判定部203は、オブジェクト移動可否項目1105の値が「移動不可」の場合、描画位置の変更が行えないため、処理をステップS208に進める。正常投影可否判定部203は、オブジェクト移動可否項目1105の値が「移動可能」な場合、処理をステップS205に進める。
(Step S204)
The normal projection propriety determination unit 203 determines whether or not to perform normal projection propriety according to the object movement propriety item 1105 stored in the object information among the object information and the link information input from the object input unit 205. The normal projection propriety determination unit 203 advances the process to step S208 because the drawing position cannot be changed when the value of the object movement propriety item 1105 is “impossible to move”. If the value of the object movement permission / prohibition item 1105 is “movable”, the normal projection propriety determination unit 203 advances the process to step S205.

(ステップS205)
正常投影可否判定部203は、利用者立ち位置算出部202より利用者の立ち位置を入力し、さらに、距離算出部201より視差画像及び距離値を入力し、前述の反射判定を行う(オブジェクト位置1104に移動シフト量814を加えた位置で判定する)。正常投影可否判定部203は、反射判定によって正常投影が可能と判断した場合、処理をステップS206に進める。正常投影可否判定部203は、反射判定によって正常投影が不可と判断した場合、ステップS207に処理を進める。
(Step S205)
The normal projection availability determination unit 203 inputs the user's standing position from the user standing position calculation unit 202, and further receives the parallax image and the distance value from the distance calculation unit 201, and performs the above-described reflection determination (object position). 1104 is determined at a position obtained by adding a movement shift amount 814). If the normal projection propriety determination unit 203 determines that normal projection is possible by the reflection determination, the process proceeds to step S206. When the normal projection propriety determination unit 203 determines that normal projection is impossible by the reflection determination, the process proceeds to step S207.

(ステップS206)
正常投影可否判定部203は、続いて、前述の凹凸判定を行う(オブジェクト位置1104に移動シフト量814を加えた位置で判定する)。正常投影可否判定部203は、凹凸判定によって正常投影が可能と判断した場合、処理をステップS208に進める。正常投影可否判定部203は、凹凸判定によって正常投影が不可と判断した場合、ステップS207に処理を進める。
(Step S206)
Subsequently, the normal projection propriety determination unit 203 performs the above-described unevenness determination (determination is performed at a position obtained by adding the movement shift amount 814 to the object position 1104). If the normal projection propriety determination unit 203 determines that normal projection is possible by the unevenness determination, the process proceeds to step S208. If the normal projection propriety determination unit 203 determines that normal projection is not possible by the unevenness determination, the process proceeds to step S207.

(ステップS207)
描画部204は、正常投影可否判定部203において正常投影が不可と判断された場合、前述の投影位置の変更を行い(移動シフト量814に移動量を設定)、ステップS205に戻り処理を繰り返す。
(Step S207)
When the normal projection propriety determination unit 203 determines that normal projection is not possible, the drawing unit 204 changes the projection position described above (sets the movement amount to the movement shift amount 814), returns to step S205, and repeats the processing.

(ステップS208)
描画部204は、正常投影可否判定部203において正常投影が可能と判断された場合、その描画を行う。
(Step S208)
When the normal projection propriety determination unit 203 determines that normal projection is possible, the drawing unit 204 performs drawing.

以上により、ビジュアル情報を見ている利用者の立ち位置に応じて、投影内容が見難いことが予想される場合にその投影位置を変更することが可能になる。同時に、投影位置を変えることに問題のあるビジュアル情報の場合は、そのままの位置に表示を行うように制御することができる。   As described above, according to the standing position of the user who is viewing the visual information, the projection position can be changed when it is predicted that the projection content is difficult to see. At the same time, in the case of visual information that has a problem in changing the projection position, it can be controlled to display it as it is.

(第3の実施の形態)
次に、本発明の第3の実施の形態について、図13から図17までを参照しながら説明を行う。
(Third embodiment)
Next, a third embodiment of the present invention will be described with reference to FIGS.

<装置の外観例>
図13は、実物体に対して映像を重畳し表示することができる本発明の第3の実施の形態による投影装置および遠隔地から投影内容をコントロールする端末の外観例、及び、当該投影装置を用いて実物体に表示を行い、利用者が作業を行っている様子を模式的に示した図である。
<Appearance example of the device>
FIG. 13 shows an example of the appearance of a projection apparatus according to a third embodiment of the present invention that can superimpose and display an image on a real object, and a terminal that controls projection contents from a remote location, and the projection apparatus. It is the figure which showed typically a mode that it displayed on a real object using and the user is working.

これまでの実施の形態と異なる点は、遠隔地から投影内容をコントロールすることができる端末1301(以下、「遠隔端末」と称する。)が存在するところである。
遠隔端末1301は、Wi−Fi(Wireless Fidelity)等の無線通信を行う機能及び装置を備えており、遠隔地から投影装置107にビジュアル情報を送信することができる。遠隔端末1301の表示面1302は、タッチパネル方式(静電容量方式、加圧方式等どのような方式でも良い)のディスプレイになっており、画面をタッチしてビジュアル情報を操作したり、指示位置を示すポインタを操作したりすることができる。表示面1302には、投影装置107のある作業現場の映像が映し出されている。実物体101が1305として、利用者105が1306として、ポインタ1001が1303として、投影情報106が1304として表示されている。遠隔端末1301を用いてベテランが作業現場に遠隔から指示を出しているシーンを示している図である。
A difference from the embodiments described above is that there is a terminal 1301 (hereinafter referred to as a “remote terminal”) that can control projection contents from a remote location.
The remote terminal 1301 has a function and apparatus for performing wireless communication such as Wi-Fi (Wireless Fidelity), and can transmit visual information to the projection apparatus 107 from a remote place. The display surface 1302 of the remote terminal 1301 is a touch panel type display (capacitance type, pressurization type or any other type), and can be used to manipulate visual information by touching the screen, The pointer shown can be manipulated. On the display surface 1302, an image of a work site where the projection device 107 is located is displayed. The real object 101 is displayed as 1305, the user 105 is displayed as 1306, the pointer 1001 is displayed as 1303, and the projection information 106 is displayed as 1304. It is a figure which shows the scene where the veteran is giving the instruction | indication from the remote site using the remote terminal 1301. FIG.

<ブロック構成例>
本実施の形態の機能ブロック図について、図14と図15とを参照しながら説明する。図14が投影装置107に関するブロック図で、図15が遠隔端末1301に関するブロック図になっている。
<Block configuration example>
A functional block diagram of the present embodiment will be described with reference to FIG. 14 and FIG. FIG. 14 is a block diagram relating to the projection device 107, and FIG. 15 is a block diagram relating to the remote terminal 1301.

初めに、投影装置107について説明する。制御部1401に接続されたマルチカメラ103とプロジェクタ102は第1の実施の形態と同様である。制御部1401の内部の点線で示した部分1402は第1の実施の形態と同様であるためその説明を省く。制御部1401に追加されたブロックは、符号化部1403、送信部1404、復号部1405、及び受信部1406である。送信部1404と受信部1406は、外部のネットワーク(インターネットや社内LAN等)に接続(接続方法は無線・有線どちらの方式でも良い)しており、後述する遠隔端末1301との間でデータの送受信を行うことができる。   First, the projection device 107 will be described. The multi-camera 103 and the projector 102 connected to the control unit 1401 are the same as those in the first embodiment. A portion 1402 indicated by a dotted line inside the control unit 1401 is the same as that of the first embodiment, and thus the description thereof is omitted. The blocks added to the control unit 1401 are an encoding unit 1403, a transmission unit 1404, a decoding unit 1405, and a reception unit 1406. The transmission unit 1404 and the reception unit 1406 are connected to an external network (Internet, in-house LAN, etc.) (the connection method may be either wireless or wired), and data transmission / reception with a remote terminal 1301 described later It can be performed.

続いて、遠隔端末1301について説明する。図15に示すように、遠隔端末1301は、遠隔端末制御部1501と遠隔端末入出力部1502とを有している。遠隔端末制御部1501は、受信部1503、復号部1504、制御部1505、符号化部1506、及び送信部1507を有している。遠隔端末入出力部1502は、ディスプレイ1507と入力部1508とを有している。遠隔端末入出力部1502内のディスプレイ1507と入力部1508とは一体形成されていても良く、所謂タッチパネルディスプレイとなっていても良い。   Next, the remote terminal 1301 will be described. As shown in FIG. 15, the remote terminal 1301 has a remote terminal control unit 1501 and a remote terminal input / output unit 1502. The remote terminal control unit 1501 includes a receiving unit 1503, a decoding unit 1504, a control unit 1505, an encoding unit 1506, and a transmitting unit 1507. The remote terminal input / output unit 1502 includes a display 1507 and an input unit 1508. The display 1507 and the input unit 1508 in the remote terminal input / output unit 1502 may be integrally formed, or may be a so-called touch panel display.

<処理の内容>
続いて、各ブロックにおける処理の内容に関して、第1の実施の形態と異なる部分についてのみ説明する。初めに投影装置107について説明を行い、続いて遠隔端末1301について説明する。
<Content of processing>
Subsequently, regarding the contents of processing in each block, only the parts different from the first embodiment will be described. First, the projection device 107 will be described, and then the remote terminal 1301 will be described.

投影装置107の制御部1401は、マルチカメラ(2)103−2で撮影した映像を符号化部1403に取り込む。符号化部1403は、入力した映像をよりデータ量の少ない符号に圧縮(例えば、国際標準動画圧縮規格H.264等)し、その符号化データを送信部1404に出力する。送信部1404は、符号化部1403から符号化されたデータを入力し、ネットワークを通じて外部(例えば、遠隔端末1301)に通信規格(TCP/IP、UDP、SIP等)に合わせて符号化された符号化データを送信する。制御部1401は、外部(例えば、遠隔端末1301)より送られてきたデータを受信部1406に取り込む。このとき受信するデータは、オブジェクト情報とリンク情報とを符号化したデータである。受信部1406は、送られてきた符号化データを取り込むと、そのデータを復号部1405に出力する。復号部1405は、受信部1406より符号化データを入力し、オブジェクト情報とリンク情報に復号(後述の遠隔端末1301の符号化部1506で行った圧縮処理とは逆の処理)を行い、結果をオブジェクト入力部205に出力する。制御部1401は、1402において、マルチカメラ映像とオブジェクト情報とを入力し、前述の方法(第1の実施の形態あるいは第2の実施の形態)に従って投影映像を生成する。プロジェクタ102は、生成された投影映像を投影する。   The control unit 1401 of the projection device 107 captures the video captured by the multi-camera (2) 103-2 into the encoding unit 1403. The encoding unit 1403 compresses the input video to a code with a smaller data amount (for example, the international standard video compression standard H.264) and outputs the encoded data to the transmission unit 1404. The transmission unit 1404 receives the encoded data from the encoding unit 1403, and is encoded to the outside (for example, the remote terminal 1301) according to the communication standard (TCP / IP, UDP, SIP, etc.) through the network. Send data. The control unit 1401 takes in data transmitted from the outside (for example, the remote terminal 1301) into the reception unit 1406. The data received at this time is data obtained by encoding object information and link information. When receiving the encoded data sent thereto, the receiving unit 1406 outputs the data to the decoding unit 1405. The decoding unit 1405 receives the encoded data from the receiving unit 1406, decodes the object information and the link information (processing opposite to the compression processing performed by the encoding unit 1506 of the remote terminal 1301 described later), and outputs the result. The data is output to the object input unit 205. In 1402, the control unit 1401 inputs the multi-camera video and the object information, and generates a projection video according to the above-described method (the first embodiment or the second embodiment). The projector 102 projects the generated projection video.

続いて、遠隔端末1301について説明する。外部のネットワークより送られてきたデータは、遠隔端末制御部1501の内部にある受信部1503に取り込まれ、データの中から前述の符号化部1403で生成された符号化データにあたるデータを取り出し、取り出した符号化データを復号部1504に出力する。復号部1504は、受信部1503より符号化データを入力し、前述の符号化部1403で行った圧縮処理とは逆の処理を行い、映像データを復号する。復号部1504は、復号された映像データを遠隔端末入出力部1502の内部にあるディスプレイ1507に出力する。ディスプレイ1507は、復号部1504より入力した映像を表示する。入力部1508は、外部からのタッチ入力操作を受け付け、その座標情報を制御部1505に出力する。制御部1505は、入力部1508でタッチ入力した情報を受け取るとともに、図示していないオブジェクト情報を入力する装置(例えば、前述のキーボードやマウス、あるいは外部記憶装置)より、オブジェクト情報とリンク情報を受け取る。制御部1505は、入力部1508より入力した情報より、オブジェクト情報の内容(例えば、オブジェクトの種類、位置情報、オブジェクトの引数等)を変更し、結果を符号化部1506に出力する。符号化部1506は、オブジェクト情報とリンク情報とを受け取り、よりデータ量の少ない符号に圧縮(例えば、ZIP圧縮)を行う。符号化部1506は、圧縮した符号化データを送信部1507に出力する。送信部1507は、符号化部1506より符号化データを受け取り、ネットワークを介して外部(例えば、投影装置の制御部1401)に通信規格(TCP/IP、SIP等)に乗せて送信する。   Next, the remote terminal 1301 will be described. The data sent from the external network is taken into the receiving unit 1503 inside the remote terminal control unit 1501, and the data corresponding to the encoded data generated by the encoding unit 1403 is extracted from the data and extracted. The encoded data is output to the decoding unit 1504. The decoding unit 1504 receives the encoded data from the receiving unit 1503, performs a process reverse to the compression process performed by the above-described encoding unit 1403, and decodes the video data. The decoding unit 1504 outputs the decoded video data to the display 1507 inside the remote terminal input / output unit 1502. The display 1507 displays the video input from the decoding unit 1504. The input unit 1508 accepts an external touch input operation and outputs the coordinate information to the control unit 1505. The control unit 1505 receives information touched by the input unit 1508 and receives object information and link information from a device (for example, the above-described keyboard, mouse, or external storage device) that inputs object information (not shown). . The control unit 1505 changes the content of the object information (for example, object type, position information, object argument, etc.) based on the information input from the input unit 1508, and outputs the result to the encoding unit 1506. The encoding unit 1506 receives the object information and the link information, and compresses (for example, ZIP compression) into a code with a smaller data amount. The encoding unit 1506 outputs the compressed encoded data to the transmission unit 1507. The transmission unit 1507 receives the encoded data from the encoding unit 1506, and transmits the encoded data to the outside (for example, the control unit 1401 of the projection apparatus) on the communication standard (TCP / IP, SIP, etc.) via the network.

<フローチャート>
第3の実施の形態について、投影装置107と遠隔端末1301の処理フローについて図16と図17とを参照しながら説明する。初めに投影装置107の処理フローについて図16を用いて説明する。
<Flowchart>
In the third embodiment, a processing flow of the projection device 107 and the remote terminal 1301 will be described with reference to FIGS. 16 and 17. First, the processing flow of the projection apparatus 107 will be described with reference to FIG.

(ステップS301)
投影装置107は、描画処理、受信処理、送信処理を平行して開始させ、ステップS302、ステップS304、ステップS306に進める。
(Step S301)
The projection device 107 starts drawing processing, reception processing, and transmission processing in parallel, and proceeds to step S302, step S304, and step S306.

(ステップS302)
投影装置107は、前述の第1の実施の形態におけるフローチャートのステップS101からステップS107の処理、あるいは、第2の実施の形態におけるフローチャートのステップS201からステップS208に該当する処理を実施する。その後、ステップS303に進む。
(Step S302)
The projection apparatus 107 performs processing corresponding to steps S101 to S107 in the flowchart in the first embodiment described above, or processing corresponding to steps S201 to S208 in the flowchart in the second embodiment. Thereafter, the process proceeds to step S303.

(ステップS303)
投影装置107は、図示していない装置全体をコントロールする全体制御部によって、描画処理を終了するか否かの判断をする。全体制御部は、描画処理を終了する場合、他の受信処理と送信処理も合わせて終了させる。全体制御部は、描画処理を終了させない場合、ステップS302戻り処理を繰り返す。
(Step S303)
The projection device 107 determines whether or not to end the drawing process by an overall control unit that controls the entire device (not shown). When terminating the drawing process, the overall control unit also terminates other reception processes and transmission processes. The overall control unit repeats the return process in step S302 when the drawing process is not terminated.

(ステップS304)
投影装置107は、投影装置107の内部にある受信部1406で、外部から送られてくるデータを受信する。受信部1406は、データを受信すると、オブジェクト情報とリンク情報を符号化したデータを取り出し、復号部1405に出力する。復号部1405は、受信部1406より符号化データを受け取ると、データの復号を行い、オブジェクト情報とリンク情報を分離する。復号部1405は、オブジェクト情報とリンク情報をオブジェクト入力部205に出力する。その後、ステップS305に進む。
(Step S304)
The projection device 107 receives data sent from the outside by a receiving unit 1406 inside the projection device 107. Upon receiving the data, the receiving unit 1406 takes out data obtained by encoding the object information and the link information, and outputs the data to the decoding unit 1405. When receiving the encoded data from the receiving unit 1406, the decoding unit 1405 decodes the data and separates the object information and the link information. The decryption unit 1405 outputs the object information and link information to the object input unit 205. Thereafter, the process proceeds to step S305.

(ステップS305)
投影装置107は、図示していない装置全体をコントロールする全体制御部によって、受信処理を終了するか否かの判断をする。全体制御部は、受信処理を終了する場合、他の描画処理と送信処理も合わせて終了させる。全体制御部は、受信処理を終了させない場合、ステップS304戻り処理を繰り返す。
(Step S305)
The projection device 107 determines whether or not to end the reception process by an overall control unit that controls the entire device (not shown). When terminating the reception process, the overall control unit also terminates other drawing processes and transmission processes. If the overall control unit does not terminate the reception process, it repeats the return process of step S304.

(ステップS306)
投影装置107は、カメラ(2)103−2の映像を取り込み、符号化部1403に入力させる。符号化部1403は、入力したカメラ映像を圧縮し符号化する。符号化部1403は、符号化されたデータを送信部1404に出力する。送信部1404は、符号化部1403より符号化データを入力し、通信可能なデータに加工した後、投影装置107の外部に送信する。その後、ステップS307に進む。
(Step S306)
The projection device 107 takes in the video of the camera (2) 103-2 and inputs it to the encoding unit 1403. The encoding unit 1403 compresses and encodes the input camera video. The encoding unit 1403 outputs the encoded data to the transmission unit 1404. A transmission unit 1404 receives encoded data from the encoding unit 1403, processes the data into communicable data, and transmits the data to the outside of the projection device 107. Thereafter, the process proceeds to step S307.

(ステップS307)
投影装置107は、図示していない装置全体をコントロールする全体制御部によって、送信処理を終了するか否かの判断をする。全体制御部は、送信処理を終了する場合、他の描画処理と受信処理も合わせて終了させる。全体制御部は、送信処理を終了しない場合、ステップS306戻り処理を繰り返す。
(Step S307)
The projection device 107 determines whether or not to end the transmission process by an overall control unit that controls the entire device (not shown). When terminating the transmission process, the overall control unit also terminates other drawing processes and reception processes. If the overall control unit does not end the transmission process, the overall control unit repeats the return process of step S306.

続いて、遠隔端末1301の処理フローについて図17を参照して説明する。
(ステップS401)
遠隔端末1301は、受信・描画処理、タッチ入力・送信処理を平行して開始させ、ステップS402、ステップS405に進める。
(ステップS402)
遠隔端末1301は、内部にある受信部1503で、外部から送られてくるデータを受信する。受信部1503は、データを受信すると、映像符号化データを取り出し、復号部1504に出力する。復号部1504は、受信部1503より映像符号化データを受け取ると、データの復号を行い、結果をディスプレイ1507に出力する。その後、ステップS403に進む。
Next, the processing flow of the remote terminal 1301 will be described with reference to FIG.
(Step S401)
The remote terminal 1301 starts reception / drawing processing and touch input / transmission processing in parallel, and proceeds to step S402 and step S405.
(Step S402)
The remote terminal 1301 receives data sent from the outside by an internal receiving unit 1503. When receiving the data, the receiving unit 1503 takes out the encoded video data and outputs it to the decoding unit 1504. When receiving the encoded video data from the receiving unit 1503, the decoding unit 1504 decodes the data and outputs the result to the display 1507. Thereafter, the process proceeds to step S403.

(ステップS403)
ディスプレイ1507は、復号部1504より映像データを受け取ると、その映像をディスプレイに表示する。その後、ステップS404に進む。
(Step S403)
Upon receiving the video data from the decoding unit 1504, the display 1507 displays the video on the display. Thereafter, the process proceeds to step S404.

(ステップS404)
遠隔端末1301は、図示していない端末全体をコントロールする全体制御部によって、受信・描画処理を終了するか否かの判断をする。全体制御部は、受信・描画処理を終了する場合、他のタッチ入力・送信処理も合わせて終了させる。全体制御部は、受信・描画処理を終了しない場合、ステップS402に戻り処理を繰り返す。
(Step S404)
The remote terminal 1301 determines whether or not to end the reception / drawing process by an overall control unit that controls the entire terminal (not shown). When terminating the reception / drawing process, the overall control unit also terminates other touch input / transmission processes. If the reception / drawing process is not terminated, the overall control unit returns to step S402 and repeats the process.

(ステップS405)
遠隔端末1301の入力部1508は、外部からのタッチ入力を受け付け、その情報を制御部1505に出力する。制御部1505は、オブジェクト情報の内容(例えば、オブジェクトの種類、位置情報、オブジェクトの引数等)を変更し、結果を符号化部1506に出力する。その後、ステップS406に進む。
(Step S405)
The input unit 1508 of the remote terminal 1301 accepts touch input from the outside and outputs the information to the control unit 1505. The control unit 1505 changes the contents of the object information (for example, object type, position information, object argument, etc.), and outputs the result to the encoding unit 1506. Thereafter, the process proceeds to step S406.

(ステップS406)
符号化部1506は、制御部1505よりオブジェクト情報とリンク情報を受け取り、よりデータ量の少ない符号に圧縮を行う。符号化部1506は、圧縮した符号化データを送信部1507に出力する。送信部1507は、符号化部1506より符号化データを受け取り、ネットワークを介して外部(例えば、投影装置の制御部1401)に通信規格に乗せて送信する。その後、ステップS407に進む。
(Step S406)
The encoding unit 1506 receives object information and link information from the control unit 1505, and compresses the code into a code with a smaller data amount. The encoding unit 1506 outputs the compressed encoded data to the transmission unit 1507. The transmission unit 1507 receives the encoded data from the encoding unit 1506, and transmits the encoded data to the outside (for example, the control unit 1401 of the projection apparatus) on the communication standard via the network. Thereafter, the process proceeds to step S407.

(ステップS407)
遠隔端末1301は、図示していない端末全体をコントロールする全体制御部によって、タッチ入力・送信処理を終了するか否かの判断をする。全体制御部は、タッチ入力・送信処理を終了する場合、他の受信・描画処理も合わせて終了させる。全体制御部は、タッチ入力・送信処理を終了しない場合、ステップS405戻り処理を繰り返す。
(Step S407)
The remote terminal 1301 determines whether or not to end the touch input / transmission process by an overall control unit that controls the entire terminal (not shown). When terminating the touch input / transmission process, the overall control unit also terminates other reception / drawing processes. If the touch input / transmission process is not terminated, the overall control unit repeats the return process in step S405.

本実施の形態によれば、実物体にビジュアル情報を投影することができる投影装置において、そのビジュアル情報を見ている利用者の立ち位置に応じて、投影内容が見難いことが予想される場合にその投影位置を変更することが可能になる。
また、投影位置を変えることに問題のあるビジュアル情報の場合は、そのままの位置に表示を行うように制御をすることができる。
According to the present embodiment, in a projection device that can project visual information onto a real object, it is expected that the projection content is difficult to see depending on the standing position of the user who is viewing the visual information. It is possible to change the projection position.
Further, in the case of visual information having a problem in changing the projection position, control can be performed so that the display is performed at the position as it is.

<第1から第3までの実施の形態について>
上記各実施の形態において、添付図面に図示されている構成等については、あくまで一例であり、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。例えば、投影装置における投影処理や制御方法、これらの方法をコンピュータに実行させるためのプログラム、当該プログラムを記録するコンピュータ読み取り可能な記録媒体などであり、また、投影処理や制御方法をハードウェア処理する集積回路等であっても良い。
<About the first to third embodiments>
In each of the above-described embodiments, the configuration and the like illustrated in the accompanying drawings are merely examples, and are not limited thereto, and can be appropriately changed within a range in which the effect of the present invention is exhibited. is there. In addition, various modifications can be made without departing from the scope of the object of the present invention. For example, a projection processing and control method in the projection apparatus, a program for causing a computer to execute these methods, a computer-readable recording medium for recording the program, and the like, and the projection processing and the control method are processed by hardware. An integrated circuit or the like may be used.

上記の各実施例の説明では、機能を実現するための各構成要素をそれぞれ異なる部位であるとして説明を行っているが、実際にこのように明確に分離して認識できる部位を有していなければならないわけではない。上記の各実施例の機能を実現する映像投影装置が、機能を実現するための各構成要素を、例えば実際にそれぞれ異なる部位を用いて構成していてもかまわないし、あるいは、全ての構成要素を一つのLSIに実装していてもかまわない。すなわち、どういう実装形態であれ、機能として各構成要素を有していれば良い。   In the description of each of the above embodiments, each component for realizing the function is described as being a different part, but it should actually have a part that can be clearly separated and recognized in this way. It doesn't have to be. The image projection apparatus that implements the functions of the above embodiments may configure each component for realizing the function using, for example, different parts, or may configure all the components. It may be mounted on one LSI. That is, what kind of mounting form should just have each component as a function.

また、上記の各実施例で説明した機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行っても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
In addition, a program for realizing the functions described in the above embodiments is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. Processing may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices.
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また前記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the above-described functions, or may be a program that can realize the above-described functions in combination with a program already recorded in a computer system.

本発明は、映像投影装置として利用可能である。   The present invention can be used as a video projection device.

(付記)本発明は、以下の開示を含む。
(1)
投影面を含む被写体に映像を投影する投影装置において、
前記投影装置から被写体までの距離を算出する距離算出部と、
前記投影装置を利用する利用者の3次元位置を検出する利用者位置検出部と、
前記距離算出部によって算出された被写体までの距離と、前記利用者位置検出部によって検出された利用者の位置とに基づいて、前記投影装置から投影面に向かって映像を正常に投影することが可能であるか否かを判断する正常投影可否判定部と、
前記投影装置に投影するオブジェクトの情報を入力するオブジェクト入力部と、
前記正常投影可否判定部の判定結果に従って投影する位置を変更して投影する描画部と
を有することを特徴とする投影装置。
本発明によれば、実物体にビジュアル情報を投影することができる投影装置において、そのビジュアル情報を見ている利用者の立ち位置に応じて、適した投影位置とすることができる。
(2)
前記オブジェクト入力部に入力するオブジェクト情報に、移動可あるいは移動否の指定を行う項目を有することを特徴とする(1)に記載の投影装置。
本発明によれば、ビジュアル情報を見ている利用者の立ち位置に応じて、投影内容が見難いことが予想される場合にその投影位置を変更することが可能になる。同時に、投影位置を変えることに問題のあるビジュアル情報の場合は、そのままの位置に表示を行うように制御することができる。
(3)
前記正常投影可否判定部の判定結果に従って投影する位置を変更する際に、さらに前記オブジェクト情報に有する移動可あるいは移動否の指定を行う項目に従って、オブジェクトの表示位置を制御することを特徴とする(2)に記載の投影装置。
オブジェクト移動可否はレイアウトの変更を許可するか否かを制御するフラグである。ビジュアル情報を見ている利用者の立ち位置に応じて、投影内容が見難いことが予想される場合にその投影位置を変更することが可能になる。
(4)
前記オブジェクト情報に有する移動可あるいは移動否の指定を行う項目において、指示位置を示すポインタを描画するオブジェクトに対して移動否を設定することを特徴とする(2)又は(3)に記載の投影装置。
このフラグが設定(「移動不可」)されている場合は、正常投影可否判定部において正常投影不可と判断されても投影位置の変更は行わないようにすることができる。
(5)
前記正常投影可否判定部で行う判定は、
反射判定あるいは凹凸判定のいずれか、あるいは両方であることを特徴とする(1)から(4)までのいずれか1に記載の投影装置。
投影位置を変えることに問題のあるビジュアル情報の場合は、そのままの位置に表示を行うように制御することができる。
(6)
投影面を含む被写体に映像を投影する投影装置を用いた投影処理方法において、
前記投影装置から被写体までの距離を算出する距離算出ステップと、
前記投影装置を利用する利用者の3次元位置を検出する利用者位置検出ステップと、
前記距離算出ステップによって算出された被写体までの距離と、前記利用者位置検出ステップによって検出された利用者の位置とに基づいて、前記投影装置から投影面に向かって映像を正常に投影することが可能であるか否かを判断する正常投影可否判定ステップと、
前記投影装置に投影するオブジェクトの情報を入力するオブジェクト入力ステップと、
前記正常投影可否判定ステップの判定結果に従って投影する位置を変更して投影する描画ステップと
を有することを特徴とする投影処理方法。
(7)
上記(6)に記載の投影処理方法をコンピュータに実行させるためのプログラム。
(8)
上記(7)に記載のプログラムの記録するコンピュータ読み取り可能な記録媒体。
(Appendix) The present invention includes the following disclosure.
(1)
In a projection device that projects an image on a subject including a projection surface,
A distance calculation unit for calculating a distance from the projection device to the subject;
A user position detector for detecting a three-dimensional position of a user who uses the projection device;
Based on the distance to the subject calculated by the distance calculation unit and the position of the user detected by the user position detection unit, it is possible to normally project an image from the projection device toward the projection plane. A normal projection propriety determining unit that determines whether or not it is possible;
An object input unit for inputting information of an object to be projected onto the projection device;
A projection apparatus comprising: a drawing unit configured to change a projection position according to a determination result of the normal projection availability determination unit.
According to the present invention, in a projection device capable of projecting visual information onto a real object, a suitable projection position can be set according to the standing position of the user who is viewing the visual information.
(2)
The projection apparatus according to (1), wherein the object information input to the object input unit includes an item for designating whether movement is possible or not.
According to the present invention, it is possible to change the projection position according to the standing position of the user who is viewing the visual information when the projection content is expected to be difficult to see. At the same time, in the case of visual information that has a problem in changing the projection position, it can be controlled to display it as it is.
(3)
When changing the projection position according to the determination result of the normal projection enable / disable determining unit, the display position of the object is controlled according to an item for specifying whether or not to move that is included in the object information. The projection apparatus according to 2).
Whether or not the object can be moved is a flag for controlling whether or not to permit the change of the layout. Depending on the standing position of the user who is viewing the visual information, the projection position can be changed when it is expected that the projection content is difficult to see.
(4)
The projection according to (2) or (3), wherein, in the item for designating whether movement is possible or not, included in the object information, whether to move the pointer indicating the indicated position is set for the object to be drawn. apparatus.
When this flag is set (“unmovable”), it is possible to prevent the projection position from being changed even if the normal projection propriety determination unit determines that normal projection is impossible.
(5)
The determination performed by the normal projection propriety determination unit is:
The projection apparatus according to any one of (1) to (4), wherein either one of reflection determination or unevenness determination, or both is performed.
In the case of visual information that has a problem in changing the projection position, it can be controlled to display at the position as it is.
(6)
In a projection processing method using a projection device that projects an image on a subject including a projection surface,
A distance calculating step of calculating a distance from the projection device to the subject;
A user position detecting step for detecting a three-dimensional position of a user who uses the projection device;
Based on the distance to the subject calculated by the distance calculating step and the position of the user detected by the user position detecting step, the image is normally projected from the projection device toward the projection plane. Normal projection propriety determination step for determining whether or not it is possible;
An object input step for inputting information of an object to be projected onto the projection device;
A projection processing method comprising: a drawing step of projecting by changing a projection position according to a determination result of the normal projection propriety determination step.
(7)
A program for causing a computer to execute the projection processing method according to (6) above.
(8)
The computer-readable recording medium which records the program as described in said (7).

101…実物体、102…プロジェクタ、103…マルチカメラ、104…制御部、105…利用者、106…投影情報、107…投影装置、201…距離算出部、202…利用者立ち位置算出部、203…正常投影可否判定部、204…描画部、205…オブジェクト入力部、206…投影入力装置。 DESCRIPTION OF SYMBOLS 101 ... Real object, 102 ... Projector, 103 ... Multi camera, 104 ... Control part, 105 ... User, 106 ... Projection information, 107 ... Projection apparatus, 201 ... Distance calculation part, 202 ... User standing position calculation part, 203 ... normal projection propriety determination unit, 204 ... drawing unit, 205 ... object input unit, 206 ... projection input device.

Claims (6)

投影面にオブジェクトを投影する投影装置であって、
測距デバイスと、
利用者の3次元位置を検出する利用者位置検出部と、
前記測距デバイスの測定結果に基づいて、前記投影面上の或る位置への前記オブジェクトの投影が、前記利用者の3次元位置に向かう方向の正反射を生じさせるか否かを判定する判定部と、
前記判定部が、前記利用者の3次元位置に向かう方向の正反射を生じさせると判定した投影位置を避けるように、前記投影面上における前記オブジェクトの投影位置を制御する制御部と、を備えていることを特徴とする投影装置。
A projection device that projects an object onto a projection plane,
A ranging device,
A user position detection unit for detecting a three-dimensional position of the user;
Judgment whether or not the projection of the object to a certain position on the projection plane causes regular reflection in the direction toward the three-dimensional position of the user based on the measurement result of the distance measuring device And
A controller that controls a projection position of the object on the projection plane so as to avoid a projection position that the determination unit determines to cause regular reflection in a direction toward the three-dimensional position of the user. A projection apparatus.
前記判定部は、前記測距デバイスの測定結果に基づいて、前記或る位置における前記投影面の傾きが、当該或る位置への投影時に前記利用者の3次元位置に向かう方向の正反射を生じさせるか否かを判定することを特徴とする請求項1に記載の投影装置。   The determination unit performs regular reflection in a direction in which the inclination of the projection surface at the certain position is directed to the three-dimensional position of the user when projecting to the certain position, based on the measurement result of the distance measuring device. The projection apparatus according to claim 1, wherein it is determined whether or not it is generated. 前記オブジェクトの位置を指定するオブジェクト位置情報を含むオブジェクト情報を入力する入力部を備え、
前記制御部は、前記判定部が、前記オブジェクト位置情報が指定する位置への前記オブジェクトの投影が、前記利用者の3次元位置に向かう方向の正反射を生じさせると判定した場合に、前記オブジェクトの投影位置を前記オブジェクト位置情報が指定する位置とは異なる位置に変更する変更処理を行うことを特徴とする請求項1または2に記載の投影装置。
An input unit for inputting object information including object position information for specifying the position of the object;
When the determination unit determines that the projection of the object to the position specified by the object position information causes specular reflection in a direction toward the three-dimensional position of the user, the control unit The projection apparatus according to claim 1, wherein a change process is performed to change the projection position to a position different from a position specified by the object position information.
前記オブジェクト情報は、前記オブジェクトの移動の可否を指定するオブジェクト移動可否情報を更に含み、
前記制御部は、前記オブジェクト移動可否情報が、移動不可を指定する場合には、前記変更処理を禁止することを特徴とする請求項3に記載の投影装置。
The object information further includes object movement availability information for designating whether the object can be moved,
The projection apparatus according to claim 3, wherein the control unit prohibits the change process when the object movement availability information specifies immovability.
前記オブジェクトが、前記投影面において指示位置を表すポインタである場合に、前記オブジェクト移動可否情報には、移動不可が指定されていることを特徴とする請求項4に記載の投影装置。   5. The projection apparatus according to claim 4, wherein when the object is a pointer representing a designated position on the projection plane, the object movement availability information is designated as immovable. 6. 投影面にオブジェクトを投影する投影装置であって、
測距デバイスと、
前記測距デバイスの測定結果に基づいて、前記投影面上の或る位置へ前記オブジェクトを正常に投影することが可能であるか否かを判定する正常投影可否判定部と、
前記オブジェクトの位置を指定するオブジェクト位置情報を含むオブジェクト情報を入力する入力部と、
前記正常投影可否判定部が前記オブジェクトを前記オブジェクト位置情報が指定する位置へ正常に投影することができないと判定した場合に、前記オブジェクトの投影位置を前記オブジェクト位置情報が指定する位置とは異なる位置であって、前記オブジェクトを正常に投影することができる位置に変更する変更処理を行う制御部とを備え、
前記オブジェクト情報は、前記オブジェクトの移動の可否を指定するオブジェクト移動可否情報を更に含み、
前記制御部は、前記オブジェクト移動可否情報が、移動不可を指定する場合には、前記変更処理を禁止することを特徴とする投影装置。
A projection device that projects an object onto a projection plane,
A ranging device,
A normal projection propriety determination unit that determines whether or not the object can be normally projected to a certain position on the projection plane based on the measurement result of the distance measuring device;
An input unit for inputting object information including object position information for specifying the position of the object;
When the normal projection propriety determining unit determines that the object cannot be normally projected onto the position specified by the object position information, the projection position of the object is different from the position specified by the object position information. And a control unit that performs a change process for changing the object to a position where the object can be normally projected .
The object information further includes object movement availability information for designating whether the object can be moved,
The control unit prohibits the change processing when the object movement availability information specifies immovability.
JP2013239466A 2013-11-20 2013-11-20 Video projection device Expired - Fee Related JP6412685B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013239466A JP6412685B2 (en) 2013-11-20 2013-11-20 Video projection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013239466A JP6412685B2 (en) 2013-11-20 2013-11-20 Video projection device

Publications (3)

Publication Number Publication Date
JP2015100052A JP2015100052A (en) 2015-05-28
JP2015100052A5 JP2015100052A5 (en) 2017-04-27
JP6412685B2 true JP6412685B2 (en) 2018-10-24

Family

ID=53376413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013239466A Expired - Fee Related JP6412685B2 (en) 2013-11-20 2013-11-20 Video projection device

Country Status (1)

Country Link
JP (1) JP6412685B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6812755B2 (en) * 2016-11-07 2021-01-13 富士通株式会社 Information projection device, information projection method and information projection program
JP6898803B2 (en) * 2017-03-28 2021-07-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Display device, display method and program
JP7239138B2 (en) * 2018-07-30 2023-03-14 日本電気通信システム株式会社 INFORMATION DISPLAY DEVICE, INFORMATION DISPLAY METHOD AND PROGRAM

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006246306A (en) * 2005-03-07 2006-09-14 Seiko Epson Corp Projector and its control method
JP2009036865A (en) * 2007-07-31 2009-02-19 Brother Ind Ltd Image projector
JP5186964B2 (en) * 2008-03-18 2013-04-24 株式会社リコー Projection system
JP2013114467A (en) * 2011-11-29 2013-06-10 Nikon Corp Display system, display method and program
JP2013152711A (en) * 2011-12-28 2013-08-08 Nikon Corp Projector and display device

Also Published As

Publication number Publication date
JP2015100052A (en) 2015-05-28

Similar Documents

Publication Publication Date Title
US10964108B2 (en) Augmentation of captured 3D scenes with contextual information
US8730164B2 (en) Gesture recognition apparatus and method of gesture recognition
US9392248B2 (en) Dynamic POV composite 3D video system
JP6747292B2 (en) Image processing apparatus, image processing method, and program
CN112039937B (en) Display method, position determination method and device
KR102197615B1 (en) Method of providing augmented reality service and server for the providing augmented reality service
CN113474816A (en) Elastic dynamic projection mapping system and method
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
EP3005300A1 (en) Combining a digital image with a virtual entity
JP6412685B2 (en) Video projection device
TWI608737B (en) Image projection
WO2019012803A1 (en) Designation device and designation method
JP6359333B2 (en) Telecommunications system
JP5996233B2 (en) Imaging device
JPWO2018012524A1 (en) Projection apparatus, projection method and projection control program
JP5216703B2 (en) Video display system and video display method
JP6625654B2 (en) Projection device, projection method, and program
JP2013258583A (en) Captured image display, captured image display method, and program
JP5509986B2 (en) Image processing apparatus, image processing system, and image processing program
JP6581280B1 (en) Monitoring device, monitoring system, monitoring method, monitoring program
JP2018081424A (en) Image processing device and image processing method
JP7111416B2 (en) Mobile terminal, information processing system, control method, and program
JP6830112B2 (en) Projection suitability detection system, projection suitability detection method and projection suitability detection program
JP2018032991A (en) Image display unit, image display method and computer program for image display
KR101860215B1 (en) Content Display System and Method based on Projector Position

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160816

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160822

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181001

R150 Certificate of patent or registration of utility model

Ref document number: 6412685

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees