JP2016122182A - Projection device - Google Patents

Projection device Download PDF

Info

Publication number
JP2016122182A
JP2016122182A JP2015227172A JP2015227172A JP2016122182A JP 2016122182 A JP2016122182 A JP 2016122182A JP 2015227172 A JP2015227172 A JP 2015227172A JP 2015227172 A JP2015227172 A JP 2015227172A JP 2016122182 A JP2016122182 A JP 2016122182A
Authority
JP
Japan
Prior art keywords
projection
image
unit
projection image
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015227172A
Other languages
Japanese (ja)
Other versions
JP6307706B2 (en
Inventor
藤畝 健司
Kenji Fujiune
健司 藤畝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to US14/964,617 priority Critical patent/US10122976B2/en
Publication of JP2016122182A publication Critical patent/JP2016122182A/en
Application granted granted Critical
Publication of JP6307706B2 publication Critical patent/JP6307706B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a projection device capable of preventing projected images from overlapping one another when being projected in a situation where individual images are projected onto a plurality of mobile bodies, respectively.SOLUTION: A projection device comprises: a detection unit that detects a specific object; a projection unit that projects a first projection image; a drive unit that changes a direction of the projection unit so as to change a projection position of the first projection image; a control unit that controls the drive unit so that the first projection image is projected to track a motion of the detected specific object; and a communication unit that receives information on a second projection image projected by another projection device. The control unit acquires information on a position of the second projection image via the communication unit, and controls a projection method of the first projection image so that the first projection image and the second projection image do not overlap each other when being projected, on the basis of positions of the first projection image and the second projection image.SELECTED DRAWING: Figure 8

Description

本開示は、所定の対象物を検出し、検出した対象物に追従して画像を投影する投影装置に関する。   The present disclosure relates to a projection apparatus that detects a predetermined object and projects an image following the detected object.

特許文献1は、一定枠内を背景とする壁面もしくは床面に対して通過する移動体を撮像するビデオカメラと、ビデオカメラにより順次撮像した現在画像内に進入してきた移動体の位置座標を順次抽出し、抽出された各位置座標に基づいて当該各位置座標と離れたそれぞれの表示用位置座標を算出し、算出された各表示用位置座標にテキストおよび画像等の情報を所定の表示サイズで順次挿入して映像情報として出力するイメージプロセッサと、壁面もしくは床面に表示画面を有し、当該表示画面上に所定の表示サイズのテキストおよび画像等の映像情報を移動体の移動に従って表示する映像表示装置と、を備えた移動体付随情報表示装置を開示する。   Patent Document 1 discloses a video camera that captures a moving body passing through a wall surface or floor surface with a fixed frame in the background, and position coordinates of the moving body that has entered the current image sequentially captured by the video camera. Based on the extracted position coordinates, display position coordinates that are separated from the position coordinates are calculated, and information such as texts and images is displayed in a predetermined display size in the calculated display position coordinates. An image processor that sequentially inserts and outputs as video information, and a video that has a display screen on the wall or floor, and displays video information such as text and images of a predetermined display size on the display screen as the mobile object moves A moving body-associated information display device including the display device is disclosed.

特許文献1の映像表示装置によれば、ビデオカメラ1台で複数の移動体を認識でき、認識した複数の移動体のそれぞれに付随して、提供する情報を個別に表示可能とする。   According to the video display device of Patent Document 1, a single video camera can recognize a plurality of moving bodies, and can individually display information to be provided accompanying each of the recognized plurality of moving bodies.

特開2005−115270号公報JP 2005-115270 A

複数の移動体のそれぞれに対して、移動体の位置に応じて提供する情報を個別に表示する場合、移動体の位置によっては、表示される情報が重なってしまう場合がある。情報が重なって表示されると、情報の内容が識別できず、情報の内容が正確に伝わらないという問題がある。   When the information provided according to the position of the moving body is individually displayed for each of the plurality of moving bodies, the displayed information may overlap depending on the position of the moving body. If the information is displayed in an overlapping manner, the content of the information cannot be identified, and the content of the information cannot be accurately transmitted.

本開示は、複数の移動体のそれぞれに個別の画像が投影される状況において、投影された画像が重なって投影されることを防止できる投影装置を提供する。   The present disclosure provides a projection device that can prevent projected images from being superimposed and projected in a situation where individual images are projected onto each of a plurality of moving bodies.

本開示の第1の態様において、画像を投影する投影装置が提供される。投影装置は、特定のオブジェクトを検出する検出部と、第1の投影画像を投影する投影部と、第1の投影画像の投影位置を変更するために投影部の向きを変更する駆動部と、検出部で検出した特定のオブジェクトの動きに追従して第1の投影画像が投影されるように駆動部を制御する制御部と、他の投影装置が投影する第2の投影画像の情報を受信する通信部と、を備える。制御部は、通信部を介して、第2の投影画像の位置に関する情報を取得し、第1の投影画像及び第2の投影画像の位置に基づき、第1の投影画像と第2の投影画像とが重なって投影されないように第1の投影画像の投影方法を制御する。   In a first aspect of the present disclosure, a projection apparatus for projecting an image is provided. The projection device includes a detection unit that detects a specific object, a projection unit that projects the first projection image, a drive unit that changes the orientation of the projection unit to change the projection position of the first projection image, Receives information on the control unit that controls the drive unit so that the first projection image is projected following the movement of the specific object detected by the detection unit, and the second projection image that is projected by another projection device. A communication unit. The control unit acquires information on the position of the second projection image via the communication unit, and based on the positions of the first projection image and the second projection image, the first projection image and the second projection image And the projection method of the first projection image is controlled so as not to be projected.

本開示によれば、複数の移動体(特定のオブジェクト)の各々に個別の画像が投影される状況において、投影された画像が重なって投影されることを防止できる。   According to the present disclosure, in a situation where individual images are projected on each of a plurality of moving bodies (specific objects), it is possible to prevent the projected images from being projected on each other.

プロジェクタ装置が壁面に映像を投影する状況を示す模式図である。It is a schematic diagram which shows the condition where a projector apparatus projects an image | video on a wall surface. プロジェクタ装置が床面に映像を投影する状況を示す模式図である。It is a schematic diagram which shows the condition where a projector apparatus projects an image | video on a floor surface. プロジェクタ装置の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a projector apparatus. 距離検出部の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a distance detection part. 距離検出部により取得された距離情報を説明するための図である。It is a figure for demonstrating the distance information acquired by the distance detection part. プロジェクタ装置の光学的構成を示すブロック図である。It is a block diagram which shows the optical structure of a projector apparatus. プロジェクタ装置の利用例を説明した図である。It is a figure explaining the usage example of a projector apparatus. 実施の形態1におけるプロジェクタ装置による画像の迂回による衝突回避動作を説明した図である。6 is a diagram illustrating a collision avoidance operation by detouring an image by the projector device in the first embodiment. FIG. 実施の形態1における画像の迂回による回避動作を行うための制御部の機能的構成を示すブロック図である。3 is a block diagram illustrating a functional configuration of a control unit for performing an avoidance operation by detouring an image according to Embodiment 1. FIG. 画像の投影経路の変更(迂回)を説明するための図である。It is a figure for demonstrating the change (detour) of the projection path | route of an image. 実施の形態2における画像間の斥力による回避動作を行うための制御部の機能的構成例を示すブロック図である。10 is a block diagram illustrating a functional configuration example of a control unit for performing an avoidance operation by repulsive force between images in Embodiment 2. FIG. 実施の形態3におけるプロジェクタ装置による画像の消滅による衝突回避動作を説明した図である。FIG. 10 is a diagram for explaining a collision avoidance operation by the disappearance of an image by the projector device in the third embodiment. 実施の形態3における画像の消滅による回避動作を行うための制御部の機能的構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a functional configuration example of a control unit for performing an avoidance operation due to disappearance of an image in the third embodiment. 実施の形態4における画像サイズの変更による障害物の回避動作を行うための制御部の機能的構成例を示すブロック図である。10 is a block diagram illustrating a functional configuration example of a control unit for performing an obstacle avoidance operation by changing an image size according to Embodiment 4. FIG. プロジェクタ装置による画像の反発による衝突回避動作を説明した図である。It is a figure explaining the collision avoidance operation | movement by the repulsion of the image by a projector apparatus.

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。   Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art.

なお、出願人は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。   The applicant provides the accompanying drawings and the following description in order for those skilled in the art to fully understand the present disclosure, and is not intended to limit the subject matter described in the claims. Absent.

(実施の形態1)
以下、添付の図面を用いて実施の形態1を説明する。以下では、本開示にかかる投影装置の具体的な実施の形態としてプロジェクタ装置を説明する。
(Embodiment 1)
The first embodiment will be described below with reference to the accompanying drawings. Hereinafter, a projector apparatus will be described as a specific embodiment of the projection apparatus according to the present disclosure.

[1−1.概要]
図1及び図2を用いて、プロジェクタ装置100による映像投影動作の概要を説明する。図1は、プロジェクタ装置100が壁面に映像を投影するイメージ図である。図2は、プロジェクタ装置100が床面に映像を投影するイメージ図である。
[1-1. Overview]
An outline of a video projection operation by the projector device 100 will be described with reference to FIGS. 1 and 2. FIG. 1 is an image diagram in which the projector device 100 projects an image on a wall surface. FIG. 2 is an image diagram in which the projector apparatus 100 projects an image on the floor surface.

図1及び図2に示すように、プロジェクタ装置100は、駆動部110とともに筐体120に固定されている。プロジェクタ本体部100b及び駆動部110を構成する各部と電気的に接続される配線は、筐体120及び配線ダクト130を介して電源と接続される。これにより、プロジェクタ本体部100b及び駆動部110に対して電力が供給される。プロジェクタ装置100は、プロジェクタ本体部100bに開口部101を有している。プロジェクタ装置100は、開口部101を介して映像の投影を行う。   As shown in FIGS. 1 and 2, the projector device 100 is fixed to the housing 120 together with the drive unit 110. Wirings electrically connected to the respective parts constituting the projector main body 100b and the driving unit 110 are connected to a power source via the casing 120 and the wiring duct 130. Thereby, electric power is supplied to the projector main body 100b and the drive unit 110. The projector device 100 has an opening 101 in the projector main body 100b. Projector apparatus 100 projects an image through opening 101.

駆動部110は、プロジェクタ本体部100bの向き(姿勢)を変更するよう駆動することにより、プロジェクタ装置100の投影方向を変更することができる。駆動部110は、図1に示すようにプロジェクタ装置100の投影方向を壁140の方向になるよう駆動することができる。これにより、プロジェクタ装置100は、壁140に対して映像141を投影することができる。同様に、駆動部110は、図2に示すようにプロジェクタ装置100の投影方向を床面150の方向になるよう駆動することができる。これにより、プロジェクタ装置100は、床面150に対して映像151を投影することができる。駆動部110は、ユーザのマニュアル操作に基づいて駆動してもよいし、所定のセンサの検出結果に応じて自動的に駆動してもよい。また、壁140に投影する映像141と、床面150に投影する映像151とは、内容を異ならせてもよいし、同一にしてもよい。駆動部110は電動モータを含み、プロジェクタ本体部100bを水平方向(パン方向)及び垂直方向(チルト方向)に回動することにより、プロジェクタ装置100の向き(姿勢)を変更し、映像の投影方向や投影位置を変化させることができる。   The drive unit 110 can change the projection direction of the projector device 100 by driving to change the orientation (posture) of the projector main body 100b. The drive unit 110 can drive the projection direction of the projector device 100 so as to be in the direction of the wall 140 as shown in FIG. Thereby, the projector device 100 can project the image 141 on the wall 140. Similarly, the drive unit 110 can drive the projection direction of the projector device 100 so as to be in the direction of the floor 150 as shown in FIG. Thereby, the projector device 100 can project the image 151 onto the floor 150. The drive unit 110 may be driven based on a user's manual operation, or may be automatically driven according to a detection result of a predetermined sensor. The content of the image 141 projected on the wall 140 and the image 151 projected on the floor 150 may be different or the same. The drive unit 110 includes an electric motor, and changes the orientation (posture) of the projector device 100 by rotating the projector main body 100b in the horizontal direction (pan direction) and the vertical direction (tilt direction), thereby projecting the image. And the projection position can be changed.

プロジェクタ装置100は、特定のオブジェクトを検出し、検出したオブジェクトの動きに追従して、特定のオブジェクトの位置を基準とした所定の位置関係を有する位置または領域に映像(コンテンツ)を投影することができる。なお、以下では、特定のオブジェクトとして「人」を検出する。検出した人の動きに追従して映像を投影させる制御を「人追従制御」という。   The projector device 100 detects a specific object, follows the movement of the detected object, and projects a video (content) on a position or region having a predetermined positional relationship with respect to the position of the specific object. it can. In the following, “person” is detected as a specific object. Control for projecting an image following the detected movement of the person is called “person tracking control”.

[1−2.構成]
以下、プロジェクタ装置100の構成及び動作について詳細を説明する。図3は、プロジェクタ装置100の電気的構成を示すブロック図である。プロジェクタ装置100は、駆動制御部200と、光源部300と、映像生成部400と、投影光学系500とを備えている。以下、順にプロジェクタ装置100を構成する各部の構成について説明する。
[1-2. Constitution]
Hereinafter, the configuration and operation of the projector device 100 will be described in detail. FIG. 3 is a block diagram showing an electrical configuration of projector apparatus 100. The projector device 100 includes a drive control unit 200, a light source unit 300, a video generation unit 400, and a projection optical system 500. Hereinafter, the structure of each part which comprises the projector apparatus 100 is demonstrated in order.

駆動制御部200は、制御部210と、メモリ220と、距離検出部230と、通信部240とを備えている。   The drive control unit 200 includes a control unit 210, a memory 220, a distance detection unit 230, and a communication unit 240.

制御部210は、プロジェクタ装置100全体を制御する半導体素子である。すなわち、制御部210は、駆動制御部200を構成する距離検出部230、メモリ220等の各部の動作と、光源部300、映像生成部400、投影光学系500の動作を制御する。また、制御部210は、投影画像を映像信号処理により縮小・拡大するデジタルズーム制御や、投影面の向きを考慮して投影映像に対し幾何補正を行うことができる。また、制御部210は、プロジェクタ装置100からの投影光の投影方向や投影位置を変更するために駆動部110を制御する。制御部210は、パン方向及びチルト方向における駆動部110の現在の制御位置に関する情報と、パン方向及びチルト方向における駆動部110がプロジェクタ本体部100bの向きを変更する際の速度に関する情報を駆動部110から取得する。制御部210は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組合せることにより実現してもよい。例えば、制御部210は、1つまたは複数の、CPU,MPUなどで構成することができる。   The control unit 210 is a semiconductor element that controls the entire projector device 100. That is, the control unit 210 controls the operation of each unit such as the distance detection unit 230 and the memory 220 constituting the drive control unit 200 and the operation of the light source unit 300, the image generation unit 400, and the projection optical system 500. In addition, the control unit 210 can perform digital zoom control for reducing / enlarging the projection image by video signal processing and geometric correction for the projection video in consideration of the orientation of the projection plane. The control unit 210 also controls the drive unit 110 to change the projection direction and projection position of the projection light from the projector device 100. The control unit 210 provides information on the current control position of the drive unit 110 in the pan direction and the tilt direction, and information on the speed when the drive unit 110 in the pan direction and the tilt direction changes the orientation of the projector main body 100b. Obtain from 110. The control unit 210 may be configured only by hardware, or may be realized by combining hardware and software. For example, the control unit 210 can be configured by one or a plurality of CPUs, MPUs, and the like.

メモリ220は、各種の情報を記憶する記憶素子である。メモリ220は、フラッシュメモリや強誘電体メモリなどで構成される。メモリ220は、プロジェクタ装置100を制御するための制御プログラム等を記憶する。また、メモリ220は、制御部210から供給された各種の情報を記憶する。更に、メモリ220は、投影すべき静止画や動画の画像データや、映像を投影すべき位置や投影サイズなど設定を含んだ参照テーブルや、物体検出の対象物体の形状のデータなどを記憶している。   The memory 220 is a storage element that stores various types of information. The memory 220 includes a flash memory or a ferroelectric memory. The memory 220 stores a control program and the like for controlling the projector device 100. The memory 220 stores various information supplied from the control unit 210. Further, the memory 220 stores image data of still images and moving images to be projected, a reference table including settings such as positions and projection sizes at which images are to be projected, shape detection target object data, and the like. Yes.

距離検出部230は、例えば、TOF(Time−of−Flight)方式の距離画像センサ(以下「TOFセンサ」という)から構成され、対向する投影面や物体までの距離を直線的に検出する。距離検出部230が壁140と対向しているときは、距離検出部230から壁140までの距離を検出する。壁140に絵画が吊り掛けられていれば、距離検出部230は、絵画の表面までの距離を検出することができる。同様に、距離検出部230が床面150と対向しているときは、距離検出部230から床面150までの距離を検出する。床面150に物体が載置されていれば、距離検出部230は、物体の表面までの距離を検出することができる。   The distance detection unit 230 includes, for example, a TOF (Time-of-Flight) type distance image sensor (hereinafter referred to as “TOF sensor”), and linearly detects a distance to an opposing projection surface or object. When the distance detection unit 230 faces the wall 140, the distance from the distance detection unit 230 to the wall 140 is detected. If the painting is hung on the wall 140, the distance detection unit 230 can detect the distance to the surface of the painting. Similarly, when the distance detection unit 230 faces the floor surface 150, the distance from the distance detection unit 230 to the floor surface 150 is detected. If an object is placed on the floor 150, the distance detection unit 230 can detect the distance to the surface of the object.

通信部240は、所定の通信規格に準拠して他のプロジェクタ装置と通信を行うモジュールである。通信部240は有線の通信回線を介して他のプロジェクタ装置と通信を行っても良いし、無線回線を介して通信を行っても良い。通信部240は、例えば、無線LANやWiFi、Bluetooh等の規格に準拠してデータ通信を行う。   The communication unit 240 is a module that communicates with other projector devices in accordance with a predetermined communication standard. The communication unit 240 may communicate with another projector device via a wired communication line, or may communicate via a wireless line. The communication unit 240 performs data communication in accordance with standards such as wireless LAN, WiFi, Bluetooth, and the like.

図4Aは、距離検出部230の電気的構成を示すブロック図である。図4Aに示すように、距離検出部230は、赤外検出光を照射する赤外光源部231と、対向する面(又は物体)で反射した赤外検出光を受光する赤外受光部232と、センサ制御部233とから構成される。赤外光源部231は、開口部101を介して、赤外検出光を周囲一面に拡散されるように照射する。赤外光源部231は、例えば、850nm〜950nmの波長の赤外光を、赤外検出光として用いる。制御部210は、赤外光源部231が照射した赤外検出光の位相を内部のメモリに記憶しておく。対向する面が距離検出部230から等距離になく、傾きや形状を有する場合、赤外受光部232の撮像面上に配列された複数の画素は、それぞれ別々のタイミングで反射光を受光する。別々のタイミングで受光するため、赤外受光部232で受光する赤外検出光は、各画素で位相が異なってくる。センサ制御部233は、赤外受光部232が各画素で受光した赤外検出光の位相をメモリに記憶する。   FIG. 4A is a block diagram illustrating an electrical configuration of the distance detection unit 230. As shown in FIG. 4A, the distance detection unit 230 includes an infrared light source unit 231 that irradiates infrared detection light, and an infrared light reception unit 232 that receives infrared detection light reflected by an opposing surface (or object). And a sensor control unit 233. The infrared light source unit 231 irradiates the infrared detection light through the opening 101 so as to be diffused over the entire surface. The infrared light source unit 231 uses, for example, infrared light having a wavelength of 850 nm to 950 nm as infrared detection light. The controller 210 stores the phase of the infrared detection light emitted by the infrared light source unit 231 in an internal memory. When the opposing surfaces are not equidistant from the distance detection unit 230 and have an inclination or a shape, the plurality of pixels arranged on the imaging surface of the infrared light receiving unit 232 receive reflected light at different timings. Since the light is received at different timings, the phase of the infrared detection light received by the infrared light receiving unit 232 is different for each pixel. The sensor control unit 233 stores the phase of the infrared detection light received by each pixel by the infrared light receiving unit 232 in the memory.

センサ制御部233は、赤外光源部231が照射した赤外検出光の位相と、赤外受光部232が各画素で受光した赤外検出光の位相とをメモリから読出す。センサ制御部233は、距離検出部230が照射した赤外検出光と、受光した赤外検出光との位相差に基づいて、距離検出部230から対向する面までの距離を測定し、距離情報(距離画像)を生成することができる。   The sensor control unit 233 reads the phase of the infrared detection light emitted from the infrared light source unit 231 and the phase of the infrared detection light received by each pixel by the infrared light receiving unit 232 from the memory. The sensor control unit 233 measures the distance from the distance detection unit 230 to the opposite surface based on the phase difference between the infrared detection light emitted by the distance detection unit 230 and the received infrared detection light, and distance information (Distance image) can be generated.

図4Bは、距離検出部230の赤外受光部232により生成された距離情報を説明するための図である。距離検出部230は、受光した赤外検出光による赤外画像を構成する画素の一つ一つについて上述した位相差に基づいて赤外検出光を反射した物体との距離を検出する。これにより、センサ制御部233は、距離検出部230が受光した赤外画像の画角全域についての距離の検出結果を画素単位で得ることができる。制御部210は、距離検出部230から距離情報を取得できる。   FIG. 4B is a diagram for explaining the distance information generated by the infrared light receiving unit 232 of the distance detection unit 230. The distance detection unit 230 detects the distance from the object that reflected the infrared detection light based on the phase difference described above for each of the pixels constituting the infrared image by the received infrared detection light. Thereby, the sensor control part 233 can obtain the detection result of the distance about the whole angle of view of the infrared image received by the distance detection part 230 for each pixel. The control unit 210 can acquire distance information from the distance detection unit 230.

制御部210は、距離情報に基づいて、壁140、床面150等の投影面や、人、物等の特定の物体を検出できる。   Based on the distance information, the control unit 210 can detect projection surfaces such as the walls 140 and the floor surface 150 and specific objects such as people and objects.

上記では、距離検出部230としてTOFセンサを例示したが、本開示はこれに限定されない。すなわち、ランダムドットパターンのように、既知のパターンを投光してそのパターンのズレから距離を算出するものであっても良いし、ステレオカメラによる視差を利用したものであってもよい。また、プロジェクタ装置100は、距離検出部230とともに、図示しないRGBカメラを備えてもよい。その場合、プロジェクタ装置100は、TOFセンサが出力する距離情報と併せてRGBカメラが出力する画像情報を用いて、物体の検出を行ってよい。RGBカメラを併用することにより、距離情報から得られる物体の三次元形状の情報に加え、物体が有する色彩や物体に記載された文字等の情報を利用して物体検出を行うことができる。   In the above, the TOF sensor is exemplified as the distance detection unit 230, but the present disclosure is not limited to this. That is, as in a random dot pattern, a known pattern may be projected and a distance may be calculated from the deviation of the pattern, or a parallax obtained by a stereo camera may be used. Further, the projector device 100 may include an RGB camera (not shown) together with the distance detection unit 230. In that case, the projector device 100 may detect an object using image information output from the RGB camera together with distance information output from the TOF sensor. By using the RGB camera together, it is possible to detect an object using information such as the color of the object and characters written on the object in addition to the information of the three-dimensional shape of the object obtained from the distance information.

続いて、プロジェクタ装置100の光学的な構成を説明する。すなわち、プロジェクタ装置100における、光源部300、映像生成部400および投影光学系500の構成について説明する。図5は、プロジェクタ装置100の光学的構成を示すブロック図である。図5に示すように、光源部300は、投影映像を生成するために必要な光を映像生成部400に供給する。映像生成部400は生成した映像を投影光学系500に供給する。投影光学系500は、映像生成部400から供給された映像に対してフォーカシング、ズーミング等の光学的変換を行う。投影光学系500は、開口部101と対向しており、開口部101から映像を投影する。   Next, the optical configuration of the projector device 100 will be described. That is, the configuration of the light source unit 300, the image generation unit 400, and the projection optical system 500 in the projector device 100 will be described. FIG. 5 is a block diagram showing an optical configuration of projector device 100. As shown in FIG. 5, the light source unit 300 supplies light necessary for generating a projection image to the image generation unit 400. The video generation unit 400 supplies the generated video to the projection optical system 500. The projection optical system 500 performs optical conversion such as focusing and zooming on the video supplied from the video generation unit 400. The projection optical system 500 faces the opening 101 and projects an image from the opening 101.

光源部300の構成について説明する。図5に示すように、光源部300は、半導体レーザー310、ダイクロイックミラー330、λ/4板340、蛍光体ホイール360などを備えている。   The configuration of the light source unit 300 will be described. As shown in FIG. 5, the light source unit 300 includes a semiconductor laser 310, a dichroic mirror 330, a λ / 4 plate 340, a phosphor wheel 360, and the like.

半導体レーザー310は、例えば、波長440nm〜455nmのS偏光の青色光を発光する固体光源である。半導体レーザー310から出射されたS偏光の青色光は、導光光学系320を介してダイクロイックミラー330に入射される。   The semiconductor laser 310 is a solid light source that emits S-polarized blue light having a wavelength of 440 nm to 455 nm, for example. S-polarized blue light emitted from the semiconductor laser 310 is incident on the dichroic mirror 330 via the light guide optical system 320.

ダイクロイックミラー330は、例えば、波長440nm〜455nmのS偏光の青色光に対しては98%以上の高い反射率を有する一方、波長440nm〜455nmのP偏光の青色光及び、波長490nm〜700nmの緑色光〜赤色光に対しては偏光状態に関わらず95%以上の高い透過率を有する光学素子である。ダイクロイックミラー330は、半導体レーザー310から出射されたS偏光の青色光を、λ/4板340の方向に反射する。   The dichroic mirror 330 has, for example, a high reflectance of 98% or more for S-polarized blue light having a wavelength of 440 nm to 455 nm, while P-polarized blue light having a wavelength of 440 nm to 455 nm and green having a wavelength of 490 nm to 700 nm. It is an optical element having a high transmittance of 95% or more for light to red light regardless of the polarization state. The dichroic mirror 330 reflects the S-polarized blue light emitted from the semiconductor laser 310 in the direction of the λ / 4 plate 340.

λ/4板340は、直線偏光を円偏光に変換又は、円偏光を直線偏光に変換する偏光素子である。λ/4板340は、ダイクロイックミラー330と蛍光体ホイール360との間に配置される。λ/4板340に入射したS偏光の青色光は、円偏光の青色光に変換された後、レンズ350を介して蛍光体ホイール360に照射される。   The λ / 4 plate 340 is a polarizing element that converts linearly polarized light into circularly polarized light or converts circularly polarized light into linearly polarized light. The λ / 4 plate 340 is disposed between the dichroic mirror 330 and the phosphor wheel 360. The S-polarized blue light incident on the λ / 4 plate 340 is converted into circularly-polarized blue light and then irradiated onto the phosphor wheel 360 via the lens 350.

蛍光体ホイール360は、高速回転が可能なように構成されたアルミ平板である。蛍光体ホイール360の表面には、拡散反射面の領域であるB領域と、緑色光を発光する蛍光体が塗付されたG領域と、赤色光を発光する蛍光体が塗付されたR領域とが複数形成されている。蛍光体ホイール360のB領域に照射された円偏光の青色光は拡散反射されて、円偏光の青色光として再びλ/4板340に入射する。λ/4板340に入射した円偏光の青色光は、P偏光の青色光に変換された後、再びダイクロイックミラー330に入射する。このときダイクロイックミラー330に入射した青色光は、P偏光であるためダイクロイックミラー330を透過して、導光光学系370を介して映像生成部400に入射する。   The phosphor wheel 360 is an aluminum flat plate configured to be capable of high speed rotation. On the surface of the phosphor wheel 360, a B region which is a diffuse reflection surface region, a G region coated with a phosphor emitting green light, and an R region coated with a phosphor emitting red light. A plurality of and are formed. The circularly polarized blue light applied to the region B of the phosphor wheel 360 is diffusely reflected and reenters the λ / 4 plate 340 as circularly polarized blue light. The circularly polarized blue light incident on the λ / 4 plate 340 is converted into P-polarized blue light and then incident on the dichroic mirror 330 again. At this time, since the blue light incident on the dichroic mirror 330 is P-polarized light, it passes through the dichroic mirror 330 and enters the video generation unit 400 via the light guide optical system 370.

蛍光体ホイール360のG領域又はR領域上に照射された青色光又は赤色光は、G領域又はR領域上に塗付された蛍光体を励起して緑色光又は赤色光を発光させる。G領域又はR領域上から発光された緑色光又は赤色光は、ダイクロイックミラー330に入射する。このときダイクロイックミラー330に入射した緑色光又は赤色光は、ダイクロイックミラー330を透過して、導光光学系370を介して映像生成部400に入射する。   The blue light or red light irradiated on the G region or R region of the phosphor wheel 360 excites the phosphor applied on the G region or R region to emit green light or red light. Green light or red light emitted from the G region or the R region is incident on the dichroic mirror 330. At this time, the green light or red light incident on the dichroic mirror 330 is transmitted through the dichroic mirror 330 and is incident on the image generation unit 400 via the light guide optical system 370.

蛍光体ホイール360は高速回転しているため、光源部300から映像生成部400へは、青色光、緑色光、赤色光が時分割されて出射する。   Since the phosphor wheel 360 rotates at high speed, blue light, green light, and red light are emitted from the light source unit 300 to the image generation unit 400 in a time-sharing manner.

映像生成部400は、制御部210から供給される映像信号に応じた投影映像を生成する。映像生成部400は、DMD(Digital−Mirror−Device)420などを備えている。DMD420は、多数のマイクロミラーを平面に配列した表示素子である。DMD420は、制御部210から供給される映像信号に応じて、配列したマイクロミラーのそれぞれを偏向させて、入射する光を空間的に変調させる。光源部300は、青色光、緑色光、赤色光を時分割で出射する。DMD420は、導光光学系410を介して、時分割に出射されてくる青色光、緑色光、赤色光を順に繰り返し受光する。DMD420は、それぞれの色の光が出射されてくるタイミングに同期して、マイクロミラーのそれぞれを偏向させる。これにより、映像生成部400は、映像信号に応じた投影映像を生成する。DMD420は、映像信号に応じて、投影光学系500に進行させる光と、投影光学系500の有効範囲外へと進行させる光とにマイクロミラーを偏向させる。これにより、映像生成部400は、生成した投影映像を、投影光学系500に供給することができる。   The video generation unit 400 generates a projection video corresponding to the video signal supplied from the control unit 210. The video generation unit 400 includes a DMD (Digital-Mirror-Device) 420 and the like. The DMD 420 is a display element in which a large number of micromirrors are arranged in a plane. The DMD 420 deflects each of the arranged micromirrors according to the video signal supplied from the control unit 210 to spatially modulate the incident light. The light source unit 300 emits blue light, green light, and red light in a time division manner. The DMD 420 repeatedly receives blue light, green light, and red light that are emitted in a time division manner through the light guide optical system 410 in order. The DMD 420 deflects each of the micromirrors in synchronization with the timing at which light of each color is emitted. Accordingly, the video generation unit 400 generates a projected video corresponding to the video signal. The DMD 420 deflects the micromirror according to the video signal into light that travels to the projection optical system 500 and light that travels outside the effective range of the projection optical system 500. Thereby, the video generation unit 400 can supply the generated projection video to the projection optical system 500.

投影光学系500は、ズームレンズ510やフォーカスレンズ520などの光学部材を備える。投影光学系500は、映像生成部400から入射した光を拡大して投影面へ投影する。制御部210は、ズームレンズ510の位置を調整することで、所望のズーム値になるよう投影対象に対して投影領域を制御できる。ズーム値を大きくする場合、制御部210は、ズームレンズ510の位置を画角が狭くなる方向へ移動させて、投影領域を狭くする。一方、ズーム値を小さくする場合、制御部210は、ズームレンズ510の位置を画角が広くなる方向に移動させて、投影領域を広くする。また、制御部210は、ズームレンズ510の移動に追従するよう、所定のズームトラッキングデータに基づきフォーカスレンズ520の位置を調整することで、投影映像のフォーカスを合わせることができる。   The projection optical system 500 includes optical members such as a zoom lens 510 and a focus lens 520. The projection optical system 500 enlarges the light incident from the video generation unit 400 and projects it onto the projection surface. The control unit 210 can control the projection area with respect to the projection target so as to obtain a desired zoom value by adjusting the position of the zoom lens 510. When the zoom value is increased, the control unit 210 moves the position of the zoom lens 510 in the direction in which the angle of view becomes narrower, thereby narrowing the projection area. On the other hand, when the zoom value is decreased, the control unit 210 moves the position of the zoom lens 510 in the direction in which the angle of view is widened to widen the projection area. In addition, the control unit 210 can adjust the focus of the projected video by adjusting the position of the focus lens 520 based on predetermined zoom tracking data so as to follow the movement of the zoom lens 510.

上記では、プロジェクタ装置100の一例として、DMD420を用いたDLP(Digital−Light−Processing)方式による構成を説明したが、本開示はこれに限定されない。すなわち、プロジェクタ装置100として、液晶方式による構成を採用しても構わない。   In the above description, the configuration by the DLP (Digital-Light-Processing) method using the DMD 420 is described as an example of the projector device 100, but the present disclosure is not limited thereto. That is, the projector apparatus 100 may employ a liquid crystal configuration.

上記では、プロジェクタ装置100の一例として、蛍光体ホイール360を用いた光源を時分割させた単板方式による構成を説明したが、本開示はこれに限定されない。すなわち、プロジェクタ装置100として、青色光、緑色光、赤色光の各種光源を備えた三板方式による構成を採用しても構わない。   In the above description, the configuration of the single plate system in which the light source using the phosphor wheel 360 is time-divided is described as an example of the projector device 100, but the present disclosure is not limited thereto. That is, the projector device 100 may employ a three-plate configuration including various light sources of blue light, green light, and red light.

上記では、投影映像を生成するための青色光の光源と、距離を測定するための赤外光の光源とを別ユニットとする構成を説明したが、本開示はこれに限定されない。すなわち、投影映像を生成するための青色光の光源と、距離を測定するための赤外光の光源とを統合したユニットとしても構わない。三板方式を採用するのであれば、各色の光源と赤外光の光源とを統合したユニットとしても構わない。   In the above description, the blue light source for generating the projected image and the infrared light source for measuring the distance are described as separate units, but the present disclosure is not limited thereto. That is, a unit in which a blue light source for generating a projected image and an infrared light source for measuring a distance may be integrated. If a three-plate method is adopted, a unit in which a light source of each color and an infrared light source are integrated may be used.

[1−3.動作]
以下、上記の構成を有するプロジェクタ装置100の動作を説明する。本実施形態のプロジェクタ装置100は、特定のオブジェクトとして人を検出し、検出した人の動きに追従し、人の位置と所定の位置関係にある位置(例えば、検知した人の位置から進行方向において1m前の位置)に、所定の映像を投影させることができる。
[1-3. Operation]
Hereinafter, the operation of the projector apparatus 100 having the above configuration will be described. The projector device 100 according to the present embodiment detects a person as a specific object, follows the detected movement of the person, and has a predetermined positional relationship with the position of the person (for example, in the traveling direction from the detected position of the person). A predetermined image can be projected at a position 1 m before).

具体的には、距離検出部230は、ある領域(例えば、店舗や建物の入り口)に向けて赤外検出光を照射して、その領域における距離情報を取得する。制御部210は、距離検出部230により取得された距離情報に基づき、人とその人の位置及び進行方向、速度等を検出する。尚、進行方向及び速度は、複数フレームの距離情報から検出する。制御部210は、検知した人の位置や進行方向等に基づいて、投影画像を投影する位置を決定する。制御部210は、その決定した位置に投影画像を投影するように駆動部110を制御し、プロジェクタ本体部100bをパン方向やチルト方向に移動させる。制御部210は、所定期間(例えば1/60秒)毎に人物の位置を検出し、検出した人物の位置に基づき、投影画像を人物に追従させるように、画像を投影する。   Specifically, the distance detection unit 230 irradiates infrared detection light toward a certain region (for example, an entrance of a store or a building), and acquires distance information in the region. Based on the distance information acquired by the distance detection unit 230, the control unit 210 detects the person, the position of the person, the traveling direction, the speed, and the like. The traveling direction and speed are detected from distance information of a plurality of frames. The control unit 210 determines a position to project the projection image based on the detected position of the person, the traveling direction, and the like. The control unit 210 controls the drive unit 110 to project the projection image at the determined position, and moves the projector main body 100b in the pan direction or the tilt direction. The control unit 210 detects the position of a person every predetermined period (for example, 1/60 seconds), and projects an image so that the person follows the projected image based on the detected position of the person.

例えば、図6に示すように、プロジェクタ装置100は、建物内の通路やホール等の天井や壁などに設置され、人6を検出すると、その人6の動きに追従して投影画像8を投影する。投影画像(コンテンツ画像)8は、例えば、人6を所定の場所や店舗に誘導、案内する矢印等の図形やメッセージ、人6を歓迎するメッセージ、宣伝広告のテキスト、レッドカーペットなどの人6の移動を演出する図形や画像を含む。投影画像8は静止画であってもよいし、動画であってもよい。これにより、検出した人6に対して、所望の情報を、検出した人6の動きに応じて常に見やすい位置に提示することができ、所望の情報を確実にその人6に伝えることが可能となる。   For example, as shown in FIG. 6, the projector device 100 is installed on a ceiling or a wall of a passage or a hall in a building, and when a person 6 is detected, the projected image 8 is projected following the movement of the person 6. To do. The projected image (content image) 8 is, for example, a figure or message such as an arrow that guides and guides the person 6 to a predetermined place or store, a message that welcomes the person 6, a text of an advertisement, a red carpet, etc. Includes graphics and images that produce movement. The projected image 8 may be a still image or a moving image. Accordingly, it is possible to present desired information to the detected person 6 at a position that is always easy to see according to the movement of the detected person 6, and to reliably transmit the desired information to the person 6. Become.

ここで、このような人追従制御による映像の投影を行うプロジェクタ装置100を複数配置した場合の問題点について説明する。   Here, a problem in the case where a plurality of projector apparatuses 100 that project images by such human tracking control are arranged will be described.

複数のプロジェクタ装置100を配置した場合、各プロジェクタがそれぞれ人を検出し、検出した人に追従してそれぞれの画像を表示する。この場合、各プロジェクタが追従する人の位置によっては、一つのプロジェクタにより投影された画像と、他のプロジェクタにより投影された画像とが重なって投影されてしまう場合がある。投影した画像が重なると、画像の内容が見難くなり、画像を提示したい人に対して、画像が示す情報を正しく伝達できないという問題がある。   When a plurality of projector devices 100 are arranged, each projector detects a person, and displays each image following the detected person. In this case, depending on the position of the person following each projector, the image projected by one projector and the image projected by another projector may be projected in an overlapping manner. When the projected images overlap, it becomes difficult to see the contents of the images, and there is a problem that information indicated by the images cannot be correctly transmitted to a person who wants to present the images.

そこで、本開示のプロジェクタ装置100は、自装置が投影した画像が他のプロジェクタ装置が投影した画像と重なって投影される可能性がある場合、画像が重ならないように画像の投影方法を制御する。これにより、自装置からの投影画像が、他のプロジェクタ装置からの投影画像と重なって見難くなることを防止する。   Accordingly, the projector device 100 according to the present disclosure controls the image projecting method so that the images are not overlapped when there is a possibility that the image projected by the own device overlaps with the image projected by another projector device. . As a result, it is possible to prevent the projected image from the own apparatus from being overlapped with the projected images from other projector apparatuses and becoming difficult to see.

具体的には、図7に示すように、プロジェクタ装置100A、100Bからそれぞれ投影画像8A、8Bが投影されている場合、投影画像8A、8Bが互いに近づき重なりそうになった場合、一方のプロジェクタ装置100Aは、投影画像8Aを他方の投影画像8Bを迂回するように図7(A)、(B)、(C)の順番に移動させる。これにより、投影画像8Aと投影画像8Bが重ならないようにする。以下、図7に示すような、迂回による回避動作について説明する。   Specifically, as shown in FIG. 7, when the projection images 8A and 8B are projected from the projector devices 100A and 100B, respectively, when the projection images 8A and 8B are likely to approach each other and overlap, 100A moves the projected image 8A in the order of FIGS. 7A, 7B, and 7C so as to bypass the other projected image 8B. Thus, the projection image 8A and the projection image 8B are prevented from overlapping. Hereinafter, the avoidance operation by detour as shown in FIG. 7 will be described.

図8は、迂回による回避動作を実現するための制御部210の機能的な構成を示した図である。制御部210は、人追従制御を行う制御ブロック10と、回避動作のための制御を行う制御ブロック20とを含む。制御部210は、制御ブロック10で生成された駆動指令(電圧)と制御ブロック20で生成された駆動指令(電圧)とを加算部37で加算して最終的な駆動指令(電圧)を生成し、この駆動指令(電圧)を駆動部110に対して出力して駆動部110を駆動する。   FIG. 8 is a diagram illustrating a functional configuration of the control unit 210 for realizing an avoidance operation by detour. The control unit 210 includes a control block 10 that performs human tracking control and a control block 20 that performs control for avoidance operation. The controller 210 adds the drive command (voltage) generated by the control block 10 and the drive command (voltage) generated by the control block 20 by the adder 37 to generate a final drive command (voltage). The drive command (voltage) is output to the drive unit 110 to drive the drive unit 110.

最初に、人追従制御のための駆動指令を生成する制御ブロック10の動作を説明する。なお、以下の説明において、位置、速度は大きさと方向を持った2次元ベクトルである。   First, the operation of the control block 10 that generates a drive command for human follow-up control will be described. In the following description, the position and speed are two-dimensional vectors having magnitude and direction.

人位置検出部11は、距離検出部230からの距離情報(距離画像)により、人を検出する。人の検出は、予め人を示す特徴量をメモリ220に記憶しておき、その特徴量を示すオブジェクトを距離情報(距離画像)から検出することにより行う。人位置検出部11は、さらに検出した人の位置(相対位置)を算出する。ここでの「相対位置」とは、駆動部110の位置を中心とした座標系での位置をいう。投影目標位置算出部13は、検出した人の位置を基準として投影画像の目標投影位置(相対位置)を算出する。例えば、検出した人の位置から進行方向において所定距離(例えば、1m)だけ離れた位置が、目標投影位置として算出される。駆動指令算出部15は、プロジェクタ装置100からの投影画像が目標投影位置(相対位置)に投影されるような向きにプロジェクタ装置100の向きを制御するように、駆動部110を駆動するための駆動指令(電圧)を算出する。   The human position detection unit 11 detects a person based on the distance information (distance image) from the distance detection unit 230. A person is detected in advance by storing a feature value indicating a person in the memory 220 and detecting an object indicating the feature value from distance information (distance image). The person position detecting unit 11 further calculates the position (relative position) of the detected person. Here, “relative position” refers to a position in a coordinate system centered on the position of the drive unit 110. The projection target position calculation unit 13 calculates the target projection position (relative position) of the projection image based on the detected position of the person. For example, a position that is separated from the detected person's position by a predetermined distance (for example, 1 m) in the traveling direction is calculated as the target projection position. The drive command calculation unit 15 is a drive for driving the drive unit 110 so as to control the orientation of the projector device 100 so that the projection image from the projector device 100 is projected onto the target projection position (relative position). Calculate the command (voltage).

次に、回避動作のための駆動指令を生成する制御ブロック20の動作を説明する。位置・速度通信部21は、他のプロジェクタ装置と通信して、他のプロジェクタ装置が現在投影している画像に関して、その投影位置(絶対位置)、サイズ、移動速度に関する情報を受信する。ここで、「絶対位置」とは、複数のプロジェクタ装置を含む空間全体を示す絶対座標系での位置をいう。また、位置・速度通信部21は、他のプロジェクタ装置に対して、自装置が投影している画像に関して、その投影位置、サイズ、移動速度に関する情報を送信する。   Next, the operation of the control block 20 that generates a drive command for the avoidance operation will be described. The position / speed communication unit 21 communicates with another projector apparatus, and receives information on the projection position (absolute position), size, and moving speed of the image currently projected by the other projector apparatus. Here, the “absolute position” refers to a position in an absolute coordinate system indicating the entire space including a plurality of projector apparatuses. In addition, the position / speed communication unit 21 transmits information regarding the projection position, size, and moving speed of an image projected by the own apparatus to another projector apparatus.

仮想質量B算出部25は、他のプロジェクタ装置の投影画像の投影位置の移動速度に基づき、その投影画像の仮想質量を算出する。ここで、仮想質量は速度が速いほど軽い値をとるように算出する。仮想質量(m)は次の数式で算出できる。   The virtual mass B calculation unit 25 calculates the virtual mass of the projection image based on the moving speed of the projection position of the projection image of another projector device. Here, the virtual mass is calculated so as to take a lighter value as the speed increases. The virtual mass (m) can be calculated by the following formula.

仮想質量(m)=係数(K)/画像の移動投影速度(v)
位置・速度取得部23は、距離検出部230から距離情報を取得する。また、位置・速度取得部23は、駆動部110から、駆動部110の位置(パン・チルト方向の位置)及び駆動速度に関する情報を取得する。位置・速度取得部23は、距離検出部230及び駆動部110のそれぞれから取得した情報と、駆動部110が設置されている位置(絶対位置)を示す設置位置情報22とに基づき、自装置が現在投影している画像について、その投影位置(絶対位置)及び移動速度を算出する。なお、設置位置情報22はメモリ220に格納されている。
Virtual mass (m) = coefficient (K) / moving image projection speed (v)
The position / speed acquisition unit 23 acquires distance information from the distance detection unit 230. Further, the position / speed acquisition unit 23 acquires information on the position of the driving unit 110 (position in the pan / tilt direction) and the driving speed from the driving unit 110. The position / velocity acquisition unit 23 is based on the information acquired from each of the distance detection unit 230 and the drive unit 110 and the installation position information 22 indicating the position (absolute position) where the drive unit 110 is installed. The projection position (absolute position) and moving speed of the currently projected image are calculated. The installation position information 22 is stored in the memory 220.

相対位置算出部27は、位置・速度通信部21から、他のプロジェクタ装置の投影画像の位置を取得する。相対位置算出部27は、他のプロジェクタ装置の投影画像の位置(絶対位置)と、算出した自装置の投影画像の位置(絶対位置)とに基づき、他のプロジェクタ装置による投影画像と、自装置による投影画像と間の相対的な位置関係(相対位置、距離)を算出する。   The relative position calculation unit 27 acquires the position of the projection image of another projector device from the position / speed communication unit 21. Based on the position (absolute position) of the projection image of the other projector apparatus and the calculated position (absolute position) of the projection image of the own apparatus, the relative position calculation unit 27 The relative positional relationship (relative position, distance) between the projection image and the projection image is calculated.

仮想質量A算出部29は、自装置の現在の投影画像の投影位置の移動速度に基づき、自装置の投影画像の仮想質量を算出する。   The virtual mass A calculation unit 29 calculates the virtual mass of the projection image of the own device based on the moving speed of the projection position of the current projection image of the own device.

経路算出部30は、仮想質量A算出部29からの質量と、仮想質量B算出部25からの質量と、相対位置算出部27からの位置関係とに基づいて、自装置による投影画像の投影経路を算出する。経路算出部30は、自装置による投影画像の仮想質量と、他のプロジェクタ装置による投影画像の仮想質量とを比較する。比較の結果、自装置による投影画像の仮想質量が、他のプロジェクタ装置による投影画像の仮想質量よりも軽い場合に、経路算出部30は、自装置による投影画像の経路を迂回させると判定し、迂回経路を算出する。迂回経路の算出について図9を用いて説明する。   Based on the mass from the virtual mass A calculation unit 29, the mass from the virtual mass B calculation unit 25, and the positional relationship from the relative position calculation unit 27, the path calculation unit 30 projects the projection path of the projection image by its own device. Is calculated. The path calculation unit 30 compares the virtual mass of the projection image by the own device with the virtual mass of the projection image by another projector device. As a result of the comparison, when the virtual mass of the projection image by the own device is lighter than the virtual mass of the projection image by another projector device, the path calculation unit 30 determines to bypass the path of the projection image by the own device, Calculate a detour route. The calculation of the detour route will be described with reference to FIG.

自装置が投影する投影画像8Aと、他のプロジェクタ装置が投影する投影画像8Bとに基づいて、投影画像8Aの迂回経路の算出について説明する。人追従制御による投影画像8Aの本来の軌道Xに対して、同じ角度だけ軌道をずらした右回避の軌道Y1と左回避の軌道Y2を設定する。これらの軌道Y1,Y2について画像の衝突の有無を評価する。具体的には、投影画像8Aが軌道Y1、Y2のそれぞれを辿った際に投影画像8Bとの衝突が発生するかどうかを判断し、衝突が発生しない方の経路(軌道)を選択する。右左どちらの軌道Y1、Y2も衝突が発生する場合、回避角度をさらに広げて再度評価する。回避角度は最初小さい値に設定しておき、衝突を回避できる軌道が得られないときに段階的に増加していくようにする。これにより、できるだけ小さい回避角度での回避軌道を求めることができ、速度変化(加速度)の少ない回避軌道を求めることができる。   The calculation of the detour path of the projection image 8A will be described based on the projection image 8A projected by the own device and the projection image 8B projected by another projector device. A right avoidance trajectory Y1 and a left avoidance trajectory Y2 are set by shifting the trajectory by the same angle with respect to the original trajectory X of the projected image 8A by the human tracking control. The presence or absence of image collision is evaluated for these trajectories Y1 and Y2. Specifically, it is determined whether or not a collision with the projection image 8B occurs when the projection image 8A follows each of the trajectories Y1 and Y2, and a path (trajectory) on which the collision does not occur is selected. If a collision occurs in either the right or left orbit Y1, Y2, the avoidance angle is further expanded and the evaluation is performed again. The avoidance angle is initially set to a small value, and is increased step by step when a trajectory that can avoid a collision cannot be obtained. Thereby, an avoidance trajectory with the smallest possible avoidance angle can be obtained, and an avoidance trajectory with a small speed change (acceleration) can be obtained.

図8に戻り、経路算出部30により算出された経路の情報に基づき、投影加速度算出部31は、投影画像の加速度を算出する。さらに、角加速度算出部33は、投影画像の加速度から、駆動部110の駆動に関する角加速度を算出する。続いて、駆動指令算出部35は、この角加速度に基づき、駆動部110を駆動するための駆動指令(電圧)を算出する。このようにして、制御ブロック20により、回避動作のための駆動部110の駆動に関する駆動指令を算出する。   Returning to FIG. 8, based on the route information calculated by the route calculation unit 30, the projection acceleration calculation unit 31 calculates the acceleration of the projection image. Further, the angular acceleration calculation unit 33 calculates an angular acceleration related to driving of the driving unit 110 from the acceleration of the projection image. Subsequently, the drive command calculation unit 35 calculates a drive command (voltage) for driving the drive unit 110 based on the angular acceleration. In this way, the control block 20 calculates a drive command related to the drive of the drive unit 110 for the avoidance operation.

加算部37は、制御ブロック10により算出された人追従制御のための駆動指令(電圧)と、制御ブロック20により算出された回避動作のための駆動指令(電圧)とを加算して、駆動部110に対する駆動指令(電圧)を生成して出力する。駆動部110は、駆動指令(電圧)に基づいてパン方向、チルト方向に回動する。これにより、プロジェクタ装置100は、人に追従させながら投影画像を投影しつつ、自装置からの投影画像を、他のプロジェクタ装置からの投影画像と重ならないように投影することができる。   The adding unit 37 adds the drive command (voltage) for the human follow-up control calculated by the control block 10 and the drive command (voltage) for the avoidance operation calculated by the control block 20 to add the drive unit A drive command (voltage) for 110 is generated and output. The drive unit 110 rotates in the pan direction and the tilt direction based on a drive command (voltage). Thereby, the projector device 100 can project the projection image from the own device so as not to overlap the projection image from the other projector device while projecting the projection image while following the person.

[1−4.効果、等]
以上のように、本実施形態のプロジェクタ装置100は、画像を投影する投影装置であって、特定のオブジェクトを検出する人位置検出部11と、第1の投影画像を投影する投影部(映像生成部400、投影光学系500)と、第1の投影画像の投影位置を変更するために投影部の向きを変更する駆動部110と、検出した特定のオブジェクトの動きに追従して第1の投影画像が投影されるように駆動部110を制御する制御部210と、他の投影装置が投影する第2の投影画像の情報を受信する通信部240と、を備える。制御部210は、通信部240を介して、第2の投影画像の位置に関する情報を取得し、第1の投影画像及び第2の投影画像の位置に基づき、第1の投影画像と第2の投影画像とが重なって投影されないように第1の投影画像の投影方法(本例では、投影画像の経路)を制御する。
[1-4. Effect, etc.]
As described above, the projector device 100 according to the present embodiment is a projection device that projects an image, and includes a human position detection unit 11 that detects a specific object, and a projection unit (video generation) that projects a first projection image. Unit 400, projection optical system 500), driving unit 110 that changes the direction of the projection unit to change the projection position of the first projection image, and the first projection following the movement of the detected specific object. A control unit 210 that controls the drive unit 110 so that an image is projected, and a communication unit 240 that receives information of a second projection image projected by another projection device are provided. The control unit 210 acquires information on the position of the second projection image via the communication unit 240, and based on the first projection image and the position of the second projection image, the first projection image and the second projection image are obtained. The projection method of the first projection image (in this example, the path of the projection image) is controlled so that the projection image does not overlap with the projection image.

上記の構成により、検出した人に対して人追従制御を行う複数のプロジェクタ装置を配置した場合であっても、プロジェクタ装置は、他のプロジェクタ装置の映像と重ならないように映像を投影することが可能となり、情報を確実に、検出した人に伝えることが可能となる。   With the above configuration, even when a plurality of projector devices that perform human tracking control on a detected person are arranged, the projector device can project an image so as not to overlap with images of other projector devices. It becomes possible, and it becomes possible to convey information to the detected person reliably.

(実施の形態2)
投影画像が重なって投影されないようにするための投影方法の別の例を説明する。本実施形態では、2つの投影画像に対して互いの距離に逆比例した斥力を付加して移動させることで、2つの投影画像が重ならないようにする。
(Embodiment 2)
Another example of a projection method for preventing projection images from overlapping and projecting will be described. In the present embodiment, the two projected images are prevented from overlapping by adding a repulsive force that is inversely proportional to the distance between the two projected images and moving them.

図10は、このような画像間の互いに離す方向の斥力による回避動作を実現するための制御部210の機能的な構成を示した図である。制御部210における人追従制御に関する制御ブロック10の構成、動作は実施の形態1で説明したものと同様であるので、ここでの説明は省略する。以下、回避動作に関する制御ブロック20bの構成、動作について説明する。   FIG. 10 is a diagram illustrating a functional configuration of the control unit 210 for realizing the avoiding operation by the repulsive force in the direction in which the images are separated from each other. Since the configuration and operation of the control block 10 relating to the human follow-up control in the control unit 210 are the same as those described in the first embodiment, description thereof is omitted here. Hereinafter, the configuration and operation of the control block 20b related to the avoidance operation will be described.

制御ブロック20bにおいて、位置・速度取得部23は、距離検出部230及び駆動部110のそれぞれから取得した情報と、駆動部110の設置位置を示す設置位置情報22とに基づき、自装置が現在投影している画像について、投影位置(絶対位置)、画像のサイズ、移動速度を算出する。また、位置・速度通信部21は、他のプロジェクタ装置から、他のプロジェクタ装置が投影している画像について、投影位置(絶対位置)、画像のサイズ、移動速度に関する情報を受信する。   In the control block 20b, the position / velocity acquisition unit 23 projects the current device based on the information acquired from each of the distance detection unit 230 and the drive unit 110 and the installation position information 22 indicating the installation position of the drive unit 110. For the current image, the projection position (absolute position), the image size, and the moving speed are calculated. Further, the position / speed communication unit 21 receives information on the projection position (absolute position), the size of the image, and the moving speed of the image projected by the other projector apparatus from the other projector apparatus.

相対位置算出部27は、位置・速度取得部23から自装置の投影画像の位置(絶対位置)及びサイズを受信し、また、位置・速度通信部21から、他のプロジェクタ装置の投影画像の位置(絶対位置)及びサイズを受信する。このとき、他のプロジェクタ装置の投影画像の位置は、絶対位置で表されている。相対位置算出部27は、他のプロジェクタ装置の投影画像の位置と、自装置の投影画像の現在の位置(絶対位置)とに基づき、他のプロジェクタ装置の投影画像と自装置の投影画像それぞれの相対位置を算出する。例えば、一方の投影画像の位置を基準(原点)として、他方の投影画像の相対的な位置を求める。   The relative position calculation unit 27 receives the position (absolute position) and size of the projection image of its own device from the position / velocity acquisition unit 23, and also receives the position of the projection image of another projector device from the position / velocity communication unit 21. (Absolute position) and size are received. At this time, the position of the projection image of the other projector device is represented by an absolute position. Based on the position of the projection image of the other projector apparatus and the current position (absolute position) of the projection image of the own apparatus, the relative position calculation unit 27 calculates the projection image of the other projector apparatus and the projection image of the own apparatus. The relative position is calculated. For example, using the position of one projection image as a reference (origin), the relative position of the other projection image is obtained.

斥力算出部39は、他のプロジェクタ装置による投影画像と自装置による投影画像の相対位置に基づき距離を算出し、その距離に基づき自装置の投影画像に作用する斥力(反発する力)を算出する。斥力は、他のプロジェクタ装置の投影画像と、自装置の投影画像との間の距離が大きくなるほど、小さくなるように算出される。例えば、斥力は、他のプロジェクタ装置の投影画像と、自装置の投影画像との間の距離または距離の二乗に反比例するような値として算出できる。このように斥力を算出することで投影画像間の距離が小さくなったときに大きな斥力が投影画像に加わる。このため、2つの投影画像が非常に近づいたときには、投影画像に対して大きな斥力が加わり、投影画像が離れる方向に移動するよう表示される。なお、2つの投影画像間の距離は、投影画像のサイズを考慮して算出される。   The repulsive force calculation unit 39 calculates a distance based on the relative position of the projection image by another projector device and the projected image by the own device, and calculates a repulsive force (repulsive force) acting on the projected image of the own device based on the distance. . The repulsive force is calculated so as to decrease as the distance between the projection image of the other projector device and the projection image of the own device increases. For example, the repulsive force can be calculated as a value that is inversely proportional to the distance between the projected image of the other projector apparatus and the projected image of the own apparatus or the square of the distance. By calculating the repulsive force in this way, a large repulsive force is applied to the projected image when the distance between the projected images is reduced. For this reason, when the two projected images are very close to each other, a large repulsive force is applied to the projected images, and the projected images are displayed so as to move away from each other. Note that the distance between two projection images is calculated in consideration of the size of the projection image.

投影加速度算出部31は、斥力算出部39からの斥力と、仮想質量A算出部29からの質量とから投影画像の加速度(=力/質量)を算出する。   The projection acceleration calculating unit 31 calculates the acceleration (= force / mass) of the projection image from the repulsive force from the repulsive force calculating unit 39 and the mass from the virtual mass A calculating unit 29.

角加速度算出部33は、投影加速度算出部31で算出された加速度から、駆動部110の駆動に関する角加速度を算出する。駆動指令算出部35は、角加速度算出部33で算出された角加速度に基づき、駆動部110を駆動するための駆動指令(電圧)を算出する。このようにして、制御ブロック20bにより、回避動作のための駆動部110の駆動に関する駆動指令が算出される。   The angular acceleration calculation unit 33 calculates an angular acceleration related to driving of the drive unit 110 from the acceleration calculated by the projection acceleration calculation unit 31. The drive command calculation unit 35 calculates a drive command (voltage) for driving the drive unit 110 based on the angular acceleration calculated by the angular acceleration calculation unit 33. In this way, the drive command related to the drive of the drive unit 110 for the avoidance operation is calculated by the control block 20b.

加算部37は、制御ブロック10により算出された人追従動作のための駆動指令(電圧)と、制御ブロック20bにより算出された回避動作のための駆動指令(電圧)とを加算して、駆動部110に対する駆動指令(電圧)を生成して出力する。   The adder 37 adds the drive command (voltage) for the human follow-up operation calculated by the control block 10 and the drive command (voltage) for the avoidance operation calculated by the control block 20b, A drive command (voltage) for 110 is generated and output.

以上のように投影画像の仮想的な斥力を付加して軌道を制御することにより、2つの投影画像が衝突しそうになる前に2つの投影画像を互いに離す方向に移動させることができ、投影画像が重なって表示されることを防止できる。   As described above, by adding the virtual repulsive force of the projected image and controlling the trajectory, the two projected images can be moved away from each other before the two projected images are likely to collide. Can be prevented from overlapping each other.

(実施の形態3)
投影画像が重なって投影されないようにするための投影方法のさらに別の例を説明する。図11(A)、(B)、(C)は、本実施形態における回避動作を説明した図である。本実施形態では、2つの投影画像8A、8Bが重なりそうになったときに、一方の投影画像8Aにおいて重なり部分を消去することで(図11(B)参照)、投影画像8A、8Bが重ならないようにする。
(Embodiment 3)
Still another example of a projection method for preventing projection images from overlapping and projecting will be described. FIGS. 11A, 11 </ b> B, and 11 </ b> C are diagrams illustrating the avoidance operation in the present embodiment. In the present embodiment, when the two projected images 8A and 8B are likely to overlap, by deleting the overlapping portion in one projected image 8A (see FIG. 11B), the projected images 8A and 8B are overlapped. Do not become.

図12は、投影画像8A、8Bの重なり部分を消去する回避動作を実現するための制御部210の機能ブロック図である。制御部210における人追従制御に関する構成(制御ブロック10)及び動作については、前述のとおりであるので、説明は省略する。図12では、投影画像の編集処理にかかる機能に関して、制御部210の機能的な構成を示している。以下、本実施形態の回避動作について説明する。   FIG. 12 is a functional block diagram of the control unit 210 for realizing an avoidance operation for erasing an overlapping portion of the projection images 8A and 8B. Since the configuration (control block 10) and operation related to the human follow-up control in the control unit 210 are as described above, the description thereof is omitted. FIG. 12 illustrates a functional configuration of the control unit 210 regarding functions related to the projection image editing process. Hereinafter, the avoidance operation of this embodiment will be described.

位置・速度取得部23は、距離検出部230から距離情報を取得する。また、位置・速度取得部23は、駆動部110から、駆動部110の位置(パン・チルト方向の位置)及び駆動速度に関する情報を取得する。位置・速度取得部23は、距離検出部230及び駆動部110のそれぞれから取得した情報と、駆動部110が設置されている位置(絶対位置)を示す設置位置情報22とに基づき、自装置が現在投影している画像についての投影位置及びサイズを算出する。位置・速度通信部21は、他のプロジェクタ装置から、他のプロジェクタ装置が現在投影している画像の位置および画像のサイズを受信する。   The position / speed acquisition unit 23 acquires distance information from the distance detection unit 230. Further, the position / speed acquisition unit 23 acquires information on the position of the driving unit 110 (position in the pan / tilt direction) and the driving speed from the driving unit 110. The position / velocity acquisition unit 23 is based on the information acquired from each of the distance detection unit 230 and the drive unit 110 and the installation position information 22 indicating the position (absolute position) where the drive unit 110 is installed. The projection position and size for the currently projected image are calculated. The position / speed communication unit 21 receives the position of the image currently projected by the other projector apparatus and the size of the image from the other projector apparatus.

仮想質量B算出部25は、他のプロジェクタ装置の投影画像の投影位置の移動速度に基づき、他のプロジェクタ装置の投影画像の仮想質量を算出する。   The virtual mass B calculation unit 25 calculates the virtual mass of the projection image of the other projector device based on the moving speed of the projection position of the projection image of the other projector device.

重複領域算出部41は、位置・速度通信部21から、他のプロジェクタ装置の投影画像の位置、サイズを受信する。重複領域算出部41は、他のプロジェクタ装置の投影画像の位置、サイズと、自装置の現在の投影画像の位置、サイズとに基づいて重複領域を算出する。   The overlapping area calculation unit 41 receives the position and size of the projection image of another projector device from the position / speed communication unit 21. The overlapping area calculation unit 41 calculates an overlapping area based on the position and size of the projection image of another projector apparatus and the position and size of the current projection image of the own apparatus.

仮想質量A算出部29は、自装置の現在の投影画像の投影位置の移動速度に基づき、自装置の投影画像の仮想質量を算出する。   The virtual mass A calculation unit 29 calculates the virtual mass of the projection image of the own device based on the moving speed of the projection position of the current projection image of the own device.

マスク画像生成部43は、自装置の投影画像の質量と、他プロジェクタ装置の投影画像の質量と、重複領域算出部41からの重複領域とに基づいてマスク画像を生成する。具体的には、マスク画像生成部43は、自装置の投影画像の質量と、他プロジェクタ装置の投影画像の質量とを比較し、自装置の投影画像の方が軽ければ、自装置の投影画像の重複部分を削除するようなマスク画像を生成する。一方、自装置の投影画像の方が重ければ、自装置の投影画像を全て透過させるようなマスク画像を生成する。なお、マスク画像とは、画素毎に透過か削除を選択するための画像である。   The mask image generation unit 43 generates a mask image based on the mass of the projection image of the own device, the mass of the projection image of the other projector device, and the overlap region from the overlap region calculation unit 41. Specifically, the mask image generation unit 43 compares the mass of the projection image of its own device with the mass of the projection image of the other projector device, and if the projection image of its own device is lighter, the projection image of its own device A mask image is generated so as to delete the overlapping portion. On the other hand, if the projected image of the own apparatus is heavier, a mask image that transmits all of the projected image of the own apparatus is generated. The mask image is an image for selecting transmission or deletion for each pixel.

投影マスク部45はマスク画像を用いて画像(映像信号)をマスクして投影する。   The projection mask unit 45 masks and projects an image (video signal) using the mask image.

以上のような方法により、2つの投影画像が重なる場合に、一方の投影画像の重複部分を削除して投影することから、投影画像が重なって表示されることを防止できる。   By the above method, when two projection images are overlapped, an overlapping portion of one projection image is deleted and projected, so that it is possible to prevent the projection images from being overlapped and displayed.

上記の例では、仮想質量の軽い方の画像、すなわち、動きの速い方の投影画像を削除し、動きの遅い方の投影画像は削除しないようにした。動きが速い投影画像の方が、動きが遅い投影画像よりも画像の内容を把握し難いことから、視認性の観点から、動きの速い方の投影画像を削除している。しかしながら、動きの遅い方の投影画像の重複部分を削除して表示するようにしてもよい。   In the above example, the image with the lighter virtual mass, that is, the projection image with the faster movement is deleted, and the projection image with the slower movement is not deleted. Since the projected image with fast movement is harder to grasp the image content than the projected image with slow movement, the projected image with the faster movement is deleted from the viewpoint of visibility. However, the overlapped portion of the slower projected image may be deleted and displayed.

(実施の形態4)
投影画像が重なって投影されないようにするための投影方法のさらに別の例を説明する。本実施形態では、投影画像を床面等の投影面に投影する際に投影面に、投影の妨げとなる障害物が載置されているような場合に、投影画像が障害物により妨げられずに投影されるようにする方法を説明する。
(Embodiment 4)
Still another example of a projection method for preventing projection images from overlapping and projecting will be described. In the present embodiment, when a projection image is projected on a projection surface such as a floor surface, and an obstacle that hinders projection is placed on the projection surface, the projection image is not blocked by the obstacle. A method for projecting the image will be described.

具体的には、投影画像を床面等の投影面に投影する際に投影面に、投影の妨げとなる障害物が載置されているような場合に、障害物に投影されずに、投影面の障害物がない平らな領域に投影画像が投影されるように投影画像のサイズを小さくする。   Specifically, when a projected image is projected onto a projection surface such as a floor surface, and an obstacle that hinders projection is placed on the projection surface, the projection is performed without projecting to the obstacle. The size of the projected image is reduced so that the projected image is projected onto a flat area free from obstructions on the surface.

図13は、投影画像のサイズを変更する動作を実現するための制御部210の機能的な構成を示す図である。制御部210における、人に追従して画像を投影する制御ブロック10の構成及び動作は前述のとおりであるので、説明は省略する。図13は、投影画像の編集処理にかかる機能についての制御部210の機能的な構成を示している。   FIG. 13 is a diagram illustrating a functional configuration of the control unit 210 for realizing an operation of changing the size of the projection image. Since the configuration and operation of the control block 10 that projects an image following a person in the control unit 210 are as described above, description thereof will be omitted. FIG. 13 shows a functional configuration of the control unit 210 with respect to functions related to the projection image editing process.

障害物検出部51は、距離検出部230からの距離情報から障害物の有無を検出する。障害物とは投影画像の投影面への投影光の到達を遮蔽する物体である。特定オブジェクトとして検出する“人”以外のオブジェクトを、距離情報から障害物として検出する。   The obstacle detection unit 51 detects the presence or absence of an obstacle from the distance information from the distance detection unit 230. An obstacle is an object that blocks projection light from reaching the projection plane of the projection image. Objects other than “people” detected as specific objects are detected as obstacles from the distance information.

位置・速度取得部23は、距離検出部230からの距離情報に基づき、自装置が現在投影している画像についての投影位置を算出する。   The position / speed acquisition unit 23 calculates a projection position for an image currently projected by the own apparatus based on the distance information from the distance detection unit 230.

投影平面検出部53は、自装置が現在投影している投影画像の位置と、障害物検出部51で検出された障害物の位置とを受信する。投影平面検出部53は、障害物の位置の情報を参照して、現在の投影画像の投影位置の周辺において、平面領域すなわち障害物のない領域(以下「空き領域」という)を検出する。投影サイズ算出部55は平面領域すなわち障害物のない領域のサイズを算出する。   The projection plane detection unit 53 receives the position of the projection image currently projected by the own apparatus and the position of the obstacle detected by the obstacle detection unit 51. The projection plane detection unit 53 refers to the position information of the obstacle, and detects a plane area, that is, an area without an obstacle (hereinafter referred to as “empty area”) around the projection position of the current projection image. The projection size calculator 55 calculates the size of a planar area, that is, an area without an obstacle.

投影サイズ変更部57は、投影画像47を、平面領域すなわち障害物のない領域として算出した領域に投影できるように、投影画像47のサイズを調整して投影する。   The projection size changing unit 57 adjusts and projects the size of the projection image 47 so that the projection image 47 can be projected onto a plane area, that is, an area calculated as an area without an obstacle.

以上のような方法により、投影面において、投影の障害となるような物体が載置されている場合であっても、その障害となる物体を回避して画像を投影させることができ、視認し易い投影画像を表示することができる。   With the above method, even when an object that is a hindrance to projection is placed on the projection surface, the object can be projected while avoiding the hindered object, An easy projection image can be displayed.

(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1〜4を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1〜4で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
(1)本開示におけるプロジェクタ装置100は投影装置の一例である。本開示における人位置検出部11は特定のオブジェクトを検出する検出部の一例である。本開示における映像生成部400と投影光学系500は投影部の一例である。本開示における駆動部110は、投影部の向きを変更する駆動部の一例である。本開示における制御部210は、駆動部を制御する制御部の一例である。本開示における通信部240は、他の投影装置が投影する投影画像の情報を受信する通信部の一例である。
(2)投影画像の衝突回避動作の別の例として、図14(A)、(B)、(C)に示すように、人追従制御による軌道制御により2つの投影画像8A、8Bが衝突する場合には、反発する回避動作を行っても良い。この場合、投影画像の跳ね返り係数を事前に定義しメモリ220に記憶しておく。制御部210は、他のプロジェクタ装置から、他のプロジェクタ装置の投影画像の位置、速度、サイズの情報を取得する。そして、制御部210は、自装置の投影画像と他のプロジェクタ装置の投影画像の位置とサイズに基づき、2つの投影画像が衝突するか否かを判断する。衝突すると判断した場合、制御部210は、跳ね返り係数と2つの投影画像の投影位置の移動速度を考慮して、自装置の投影画像の反発に起因する速度を算出する。この速度に基づき、反発に起因する駆動部110の駆動指令値を求め、人追従制御による駆動指令値と加算することで、最終的な駆動部110の駆動指令値を求める。
(3)上記の実施形態において仮想質量は投影画像の投影位置の移動速度のみに基づいて算出したが、仮想質量の算出方法はこれに限定されない。例えば、投影画像の投影位置の移動速度に代えて、または、それに加えて、投影画像の空間周波数を考慮して仮想質量を算出してもよい。具体的には、投影画像の空間周波数が高いほど、質量が大きくなるように仮想質量を算出する。これにより、実施の形態1では、空間周波数が低い画像の方が回避動作を行うことになる。また、実施の形態2では、空間周波数が低いほど、より大きい加速度を受けることになり、より大きい回避動作を行うことになる。空間周波数がより高いほど、画像の内容がより細かくなるため、画像を大きく動かすと、空間周波数が低い画像と比べて視認性が低下する。このため、視認性の観点から、空間周波数が低い方の画像を回避動作において大きく動かすようにするのが適切であると考えられるからである。
(4)上記実施の形態において、投影画像の加速度(速度の変化)に上限を設けても良い。すなわち、図8、10において、投影加速度算出部31において、算出した加速度が上限に達したときは、加速度を上限に制限するようにしてもよい。これにより、急激な画像の移動を低減できる。
(5)上記の実施形態では、各プロジェクタ装置が、他のプロジェクタ装置から他のプロジェクタ装置の投影画像の情報を取得し、その取得した情報に基づき自装置の投影画像の軌道等を制御した。これに対して、複数のプロジェクタ装置の投影画像の位置を集中的に管理する中央管理装置を設けてもよい。中央管理装置は、各プロジェクタ装置と通信し、各プロジェクタ装置の投影画像の位置の情報を収集し、収集した情報に基づいて上述の方法で、画像の軌道や画像サイズを算出して、各プロジェクタに指示するようにしてもよい。
(6)上記の実施形態では、特定のオブジェクトとして人を検出し、人の動きに追従して所定の画像(コンテンツ)を表示させたが、特定のオブジェクトは人に限定されない。例えば、自動車や動物等の人以外の動くものであってもよい。
(7)上記の実施形態では、特定のオブジェクトの検出のために距離情報を用いたが、特定のオブジェクトの検出手段はこれに限定されない。距離検出部230の代わりに、RGB光による画像を撮像可能な撮像装置を用いても良い。撮像装置により撮像された画像から特定のオブジェクトを検出し、さらに、特定オブジェクトの位置、速度等を検出してもよい。
(8)上記の実施形態1〜4にそれぞれ開示した技術は適宜組み合わせることが可能である。
(Other embodiments)
As described above, Embodiments 1 to 4 have been described as examples of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can also be applied to an embodiment in which changes, replacements, additions, omissions, and the like are appropriately performed. Moreover, it is also possible to combine each component demonstrated in the said Embodiment 1-4 and it can also be set as a new embodiment. Therefore, other embodiments will be exemplified below.
(1) The projector device 100 according to the present disclosure is an example of a projection device. The human position detection unit 11 in the present disclosure is an example of a detection unit that detects a specific object. The image generation unit 400 and the projection optical system 500 in the present disclosure are examples of a projection unit. The drive unit 110 in the present disclosure is an example of a drive unit that changes the orientation of the projection unit. The control unit 210 in the present disclosure is an example of a control unit that controls the drive unit. The communication unit 240 in the present disclosure is an example of a communication unit that receives information on a projection image projected by another projection apparatus.
(2) As another example of the collision avoidance operation of the projected images, as shown in FIGS. 14A, 14B, and 14C, the two projected images 8A and 8B collide by trajectory control by human tracking control. In some cases, a repelling avoidance operation may be performed. In this case, the rebound coefficient of the projection image is defined in advance and stored in the memory 220. The control unit 210 acquires information on the position, speed, and size of the projected image of the other projector device from the other projector device. Then, the control unit 210 determines whether or not the two projection images collide based on the position and size of the projection image of the own device and the projection image of another projector device. If it is determined that there is a collision, the control unit 210 calculates the speed resulting from the repulsion of the projection image of the own apparatus in consideration of the rebound coefficient and the movement speed of the projection position of the two projection images. Based on this speed, the drive command value of the drive unit 110 resulting from the repulsion is obtained, and the final drive command value of the drive unit 110 is obtained by adding the drive command value by the human follow-up control.
(3) In the above embodiment, the virtual mass is calculated based only on the moving speed of the projection position of the projection image, but the method of calculating the virtual mass is not limited to this. For example, instead of or in addition to the movement speed of the projection position of the projection image, the virtual mass may be calculated in consideration of the spatial frequency of the projection image. Specifically, the virtual mass is calculated so that the mass increases as the spatial frequency of the projection image increases. Thereby, in Embodiment 1, an avoidance operation is performed for an image having a lower spatial frequency. In the second embodiment, the lower the spatial frequency, the higher the acceleration, and the larger the avoidance operation. The higher the spatial frequency, the finer the content of the image. Therefore, when the image is moved a lot, the visibility decreases compared to an image with a low spatial frequency. For this reason, from the viewpoint of visibility, it is considered appropriate to move the image with the lower spatial frequency greatly in the avoidance operation.
(4) In the above embodiment, an upper limit may be provided for the acceleration (change in speed) of the projection image. That is, in FIGS. 8 and 10, when the calculated acceleration reaches the upper limit in the projected acceleration calculation unit 31, the acceleration may be limited to the upper limit. Thereby, rapid movement of the image can be reduced.
(5) In the above embodiment, each projector device acquires information on the projection image of the other projector device from the other projector device, and controls the trajectory of the projection image of the own device based on the acquired information. On the other hand, a central management device that centrally manages the positions of projection images of a plurality of projector devices may be provided. The central management device communicates with each projector device, collects information on the position of the projection image of each projector device, calculates the trajectory and image size of the image by the above-described method based on the collected information, and each projector You may make it instruct | indicate.
(6) In the above embodiment, a person is detected as a specific object and a predetermined image (content) is displayed following the movement of the person. However, the specific object is not limited to a person. For example, a moving object other than a person such as an automobile or an animal may be used.
(7) In the above embodiment, distance information is used to detect a specific object, but the specific object detection means is not limited to this. Instead of the distance detection unit 230, an imaging device that can capture an image using RGB light may be used. A specific object may be detected from an image captured by the imaging device, and the position, speed, and the like of the specific object may be detected.
(8) The techniques disclosed in the first to fourth embodiments can be appropriately combined.

以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。   As described above, the embodiments have been described as examples of the technology in the present disclosure. For this purpose, the accompanying drawings and detailed description are provided.

したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。   Accordingly, among the components described in the accompanying drawings and the detailed description, not only the components essential for solving the problem, but also the components not essential for solving the problem in order to illustrate the above technique. May also be included. Therefore, it should not be immediately recognized that these non-essential components are essential as those non-essential components are described in the accompanying drawings and detailed description.

また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。   Moreover, since the above-mentioned embodiment is for demonstrating the technique in this indication, a various change, replacement, addition, abbreviation, etc. can be performed in a claim or its equivalent range.

本開示における投影装置は、投影面へと映像を投影する種々の用途に適用可能である。   The projection device according to the present disclosure can be applied to various uses for projecting an image onto a projection surface.

6 人
8,8A,8B,47 投影画像
10,20,20b 制御ブロック
11 人位置検出部
15,35 駆動指令算出部
21 位置・速度通信部
23 位置・速度取得部
25 仮想質量B算出部
27 相対位置算出部
29 仮想質量A算出部
30 経路算出部
31 投影加速度算出部
33 角加速度算出部
37 加算部
39 斥力算出部
41 重複領域算出部
43 マスク画像生成部
45 投影マスク部
51 障害物検出部
53 投影平面検出部
57 投影サイズ変更部
100,100A,100B プロジェクタ装置
100b プロジェクタ本体部
101 開口部
110 駆動部
120 筐体
130 配線ダクト
140 壁
141,151 映像
150 床面
200 駆動制御部
210 制御部
220 メモリ
230 距離検出部
231 赤外光源部
232 赤外受光部
233 センサ制御部
240 通信部
300 光源部
310 半導体レーザー
320 導光光学系
330 ダイクロイックミラー
340 λ/4板
350 レンズ
360 蛍光体ホイール
370 導光光学系
400 映像生成部
410 導光光学系
420 DMD
500 投影光学系
510 ズームレンズ
520 フォーカスレンズ
X,Y1,Y2 軌道
6 persons 8, 8A, 8B, 47 Projected images 10, 20, 20b Control block 11 Person position detection unit 15, 35 Drive command calculation unit 21 Position / speed communication unit 23 Position / speed acquisition unit 25 Virtual mass B calculation unit 27 Relative Position calculation unit 29 Virtual mass A calculation unit 30 Path calculation unit 31 Projection acceleration calculation unit 33 Angular acceleration calculation unit 37 Addition unit 39 Repulsive force calculation unit 41 Overlapping region calculation unit 43 Mask image generation unit 45 Projection mask unit 51 Obstacle detection unit 53 Projection plane detection unit 57 Projection size change unit 100, 100A, 100B Projector device 100b Projector body unit 101 Opening unit 110 Drive unit 120 Housing 130 Wiring duct 140 Wall 141, 151 Video 150 Floor surface 200 Drive control unit 210 Control unit 220 Memory 230 Distance detector 231 Infrared light source 232 Red The communication unit 300 the light source unit 310 receiving unit 233 sensor controller 240 semiconductor laser 320 and light guide system 330 dichroic mirror 340 lambda / 4 plate 350 lens 360 phosphor wheel 370 guiding optical system 400 image generator 410 and light guide system 420 DMD
500 Projection optical system 510 Zoom lens 520 Focus lens X, Y1, Y2 Orbit

Claims (6)

画像を投影する投影装置であって、
特定のオブジェクトを検出する検出部と、
第1の投影画像を投影する投影部と、
前記第1の投影画像の投影位置を変更するために前記投影部の向きを変更する駆動部と、
前記検出部で検出した特定のオブジェクトの動きに追従して前記第1の投影画像が投影されるように前記駆動部を制御する制御部と、
他の投影装置が投影する第2の投影画像の情報を受信する通信部と、
を備え、
前記制御部は、前記通信部を介して、前記第2の投影画像の位置に関する情報を取得し、
前記第1の投影画像及び第2の投影画像の位置に基づき、前記第1の投影画像と前記第2の投影画像とが重なって投影されないように前記第1の投影画像の投影方法を制御する、
投影装置。
A projection device for projecting an image,
A detection unit for detecting a specific object;
A projection unit that projects the first projection image;
A drive unit that changes the orientation of the projection unit to change the projection position of the first projection image;
A control unit that controls the drive unit so that the first projection image is projected following the movement of the specific object detected by the detection unit;
A communication unit that receives information of a second projection image projected by another projection device;
With
The control unit acquires information regarding the position of the second projection image via the communication unit,
Based on the positions of the first projection image and the second projection image, the projection method of the first projection image is controlled so that the first projection image and the second projection image are not projected overlapping each other. ,
Projection device.
前記制御部は、前記第1の投影画像と前記第2の投影画像間の距離が所定距離より小さくなったときに、前記第1の投影画像が前記第2の投影画像の周囲を迂回して移動するように、前記駆動部を制御する、
請求項1記載の投影装置。
When the distance between the first projection image and the second projection image becomes smaller than a predetermined distance, the control unit bypasses the first projection image around the second projection image. Controlling the drive to move,
The projection apparatus according to claim 1.
前記制御部は、前記第1の投影画像の投影位置の移動速度が前記第2の投影画像の投影位置の移動速度よりも速い場合に、前記第1の投影画像を迂回動作させる、
請求項2記載の投影装置。
The control unit causes the first projection image to be detoured when the movement speed of the projection position of the first projection image is faster than the movement speed of the projection position of the second projection image;
The projection apparatus according to claim 2.
前記制御部は、前記第1の投影画像に対して、前記第1の投影画像と前記第2の投影画像間の距離が小さくなるほど、互いに離す方向の軌道に基づき、前記駆動部を制御する、
請求項1記載の投影装置。
The control unit controls the driving unit based on trajectories in directions away from each other as the distance between the first projection image and the second projection image becomes smaller with respect to the first projection image.
The projection apparatus according to claim 1.
前記制御部は、前記第1の投影画像から、前記第1の投影画像と前記第2の投影画像が重複する部分を削除した画像を生成し、前記生成した画像を前記投影部に投影させる、
請求項1記載の投影装置。
The control unit generates an image obtained by deleting a portion where the first projection image and the second projection image overlap from the first projection image, and causes the projection unit to project the generated image.
The projection apparatus according to claim 1.
前記制御部は、前記特定のオブジェクトの動きに追従した前記第1の投影画像の軌道上において、前記第1の投影画像の投影光を遮蔽する障害物がある場合、前記障害物に映像が投影されないように、前記第1の投影画像のサイズを変更する、
請求項1に記載の投影装置。
When there is an obstacle that blocks the projection light of the first projection image on the trajectory of the first projection image following the movement of the specific object, the control unit projects an image on the obstacle. Changing the size of the first projected image so that it is not
The projection apparatus according to claim 1.
JP2015227172A 2014-12-25 2015-11-20 Projection device Active JP6307706B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/964,617 US10122976B2 (en) 2014-12-25 2015-12-10 Projection device for controlling a position of an image projected on a projection surface

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014263637 2014-12-25
JP2014263637 2014-12-25

Publications (2)

Publication Number Publication Date
JP2016122182A true JP2016122182A (en) 2016-07-07
JP6307706B2 JP6307706B2 (en) 2018-04-11

Family

ID=56327403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015227172A Active JP6307706B2 (en) 2014-12-25 2015-11-20 Projection device

Country Status (1)

Country Link
JP (1) JP6307706B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018167999A1 (en) * 2017-03-17 2018-09-20 パナソニックIpマネジメント株式会社 Projector and projector system
JP2019009762A (en) * 2017-06-20 2019-01-17 カシオ計算機株式会社 Projection apparatus, projection method, and program

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10123938A (en) * 1996-10-18 1998-05-15 Goto Kogaku Kenkyusho:Kk Fixed star projector for planetarium
JPH10123939A (en) * 1996-10-18 1998-05-15 Goto Kogaku Kenkyusho:Kk Fixed star projector for planetarium
JP2004306779A (en) * 2003-04-07 2004-11-04 Denso Corp On-vehicle mirror display device
WO2006077665A1 (en) * 2005-01-20 2006-07-27 National University Corporation NARA Institute of Science and Technology Projection device, control method for projection device, composite projection system, control program for projection device, and recording medium having projection device control program recorded therein
JP2007079210A (en) * 2005-09-15 2007-03-29 Seiko Epson Corp Video projecting device and video projecting method
JP2007079028A (en) * 2005-09-13 2007-03-29 Canon Inc Projection type image display apparatus and multi-projection system
JP2008145541A (en) * 2006-12-06 2008-06-26 Sharp Corp Display device, display method, and program
JP2009276561A (en) * 2008-05-14 2009-11-26 Sanyo Electric Co Ltd Projection image display apparatus and image display system
JP2010114769A (en) * 2008-11-07 2010-05-20 Canon Inc Video processing unit, system, and program
JP2012128177A (en) * 2010-12-15 2012-07-05 Sharp Corp Image projection system, image projection method, control program and record medium
JP2013115644A (en) * 2011-11-29 2013-06-10 Canon Inc Display device and display method
JP2013178368A (en) * 2012-02-28 2013-09-09 Nikon Corp Projector
JP2013195498A (en) * 2012-03-16 2013-09-30 Nikon Corp Multi-projector system
JP2014153666A (en) * 2013-02-13 2014-08-25 Mitsubishi Electric Corp Advertisement presentation device
JP2014175745A (en) * 2013-03-07 2014-09-22 Ricoh Co Ltd Projector device, protector system, projector control method, and projector control program
JP2014224871A (en) * 2013-05-15 2014-12-04 株式会社五藤光学研究所 Planetarium projector and planetarium system
US20150055096A1 (en) * 2013-08-26 2015-02-26 Cj Cgv Co., Ltd. Theater parameter management apparatus and method

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10123938A (en) * 1996-10-18 1998-05-15 Goto Kogaku Kenkyusho:Kk Fixed star projector for planetarium
JPH10123939A (en) * 1996-10-18 1998-05-15 Goto Kogaku Kenkyusho:Kk Fixed star projector for planetarium
JP2004306779A (en) * 2003-04-07 2004-11-04 Denso Corp On-vehicle mirror display device
WO2006077665A1 (en) * 2005-01-20 2006-07-27 National University Corporation NARA Institute of Science and Technology Projection device, control method for projection device, composite projection system, control program for projection device, and recording medium having projection device control program recorded therein
JP2007079028A (en) * 2005-09-13 2007-03-29 Canon Inc Projection type image display apparatus and multi-projection system
JP2007079210A (en) * 2005-09-15 2007-03-29 Seiko Epson Corp Video projecting device and video projecting method
JP2008145541A (en) * 2006-12-06 2008-06-26 Sharp Corp Display device, display method, and program
JP2009276561A (en) * 2008-05-14 2009-11-26 Sanyo Electric Co Ltd Projection image display apparatus and image display system
JP2010114769A (en) * 2008-11-07 2010-05-20 Canon Inc Video processing unit, system, and program
JP2012128177A (en) * 2010-12-15 2012-07-05 Sharp Corp Image projection system, image projection method, control program and record medium
JP2013115644A (en) * 2011-11-29 2013-06-10 Canon Inc Display device and display method
JP2013178368A (en) * 2012-02-28 2013-09-09 Nikon Corp Projector
JP2013195498A (en) * 2012-03-16 2013-09-30 Nikon Corp Multi-projector system
JP2014153666A (en) * 2013-02-13 2014-08-25 Mitsubishi Electric Corp Advertisement presentation device
JP2014175745A (en) * 2013-03-07 2014-09-22 Ricoh Co Ltd Projector device, protector system, projector control method, and projector control program
JP2014224871A (en) * 2013-05-15 2014-12-04 株式会社五藤光学研究所 Planetarium projector and planetarium system
US20150055096A1 (en) * 2013-08-26 2015-02-26 Cj Cgv Co., Ltd. Theater parameter management apparatus and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018167999A1 (en) * 2017-03-17 2018-09-20 パナソニックIpマネジメント株式会社 Projector and projector system
JP2019009762A (en) * 2017-06-20 2019-01-17 カシオ計算機株式会社 Projection apparatus, projection method, and program
JP7031191B2 (en) 2017-06-20 2022-03-08 カシオ計算機株式会社 Projector, projection method and program

Also Published As

Publication number Publication date
JP6307706B2 (en) 2018-04-11

Similar Documents

Publication Publication Date Title
US10122976B2 (en) Projection device for controlling a position of an image projected on a projection surface
US10999565B2 (en) Projecting device
JP6186599B1 (en) Projection device
JP6064150B2 (en) Projection device
US10447979B2 (en) Projection device for detecting and recognizing moving objects
US9690427B2 (en) User interface device, and projector device
US10104351B2 (en) Projection system and calibration apparatus
WO2016103560A1 (en) Projector device
US20210302753A1 (en) Control apparatus, control method, and program
JP6101944B2 (en) Projection device
JP6167308B2 (en) Projection device
KR20140118637A (en) The docent robot for exhibition that offers guiding screen using projector, camera, and distance sensor
JP6307706B2 (en) Projection device
JP7052719B2 (en) Information processing equipment, information processing methods, and programs
JP2017163532A (en) Projection apparatus
US9841847B2 (en) Projection device and projection method, for projecting a first image based on a position of a moving object and a second image without depending on the position
JP2017169195A (en) Projection system and calibration device
JP6303306B2 (en) Video processing device
JP2016071864A (en) Projector apparatus
US20160191878A1 (en) Image projection device
US20160091987A1 (en) Projector
JP6209746B2 (en) Image projection device
JP2015204487A (en) projection system

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180212

R151 Written notification of patent or utility model registration

Ref document number: 6307706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151