JP6167308B2 - Projection device - Google Patents

Projection device Download PDF

Info

Publication number
JP6167308B2
JP6167308B2 JP2015210321A JP2015210321A JP6167308B2 JP 6167308 B2 JP6167308 B2 JP 6167308B2 JP 2015210321 A JP2015210321 A JP 2015210321A JP 2015210321 A JP2015210321 A JP 2015210321A JP 6167308 B2 JP6167308 B2 JP 6167308B2
Authority
JP
Japan
Prior art keywords
image
projection
unit
control
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015210321A
Other languages
Japanese (ja)
Other versions
JP2016123074A (en
Inventor
藤畝 健司
健司 藤畝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to US14/948,417 priority Critical patent/US10447979B2/en
Publication of JP2016123074A publication Critical patent/JP2016123074A/en
Application granted granted Critical
Publication of JP6167308B2 publication Critical patent/JP6167308B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本開示は、所定の対象物を検出し、検出した対象物に追従して映像を投影する投影装置に関する。   The present disclosure relates to a projection apparatus that detects a predetermined object and projects an image following the detected object.

近年、移動している人に対し、広告、案内等の情報を発信する方法として、液晶表示装置やプロジェクタなどの表示装置を用いた広告宣伝方法(デジタルサイネージ)が普及している。さらに、移動する人を検出し、検出した人に対して個別に情報を表示する液晶表示装置も研究、開発されている(例えば、特許文献1、2等参照)。   In recent years, an advertising method (digital signage) using a display device such as a liquid crystal display device or a projector has become widespread as a method for transmitting information such as advertisements and guidance to moving people. Furthermore, a liquid crystal display device that detects a moving person and displays information individually for the detected person has been researched and developed (see, for example, Patent Documents 1 and 2).

特許文献1は、一定枠内を背景とする壁面もしくは床面に対して通過する移動体を撮像するビデオカメラと、ビデオカメラにより順次撮像した現在画像内に進入してきた移動体の位置座標を順次抽出し、抽出された各位置座標に基づいて当該各位置座標と離れたそれぞれの表示用位置座標を算出し、算出された各表示用位置座標にテキストおよび画像等の情報を所定の表示サイズで順次挿入して映像情報として出力するイメージプロセッサと、壁面もしくは床面に表示画面を有し、当該表示画面上に所定の表示サイズのテキストおよび画像等の映像情報を移動体の移動に従って表示する映像表示装置と、を備えた移動体付随情報表示装置を開示する。この映像表示装置によれば、ビデオカメラで移動体(例えば、人)を認識し、認識した移動体に情報を個別に表示できる。   Patent Document 1 discloses a video camera that captures a moving body passing through a wall surface or floor surface with a fixed frame in the background, and position coordinates of the moving body that has entered the current image sequentially captured by the video camera. Based on the extracted position coordinates, display position coordinates that are separated from the position coordinates are calculated, and information such as texts and images is displayed in a predetermined display size in the calculated display position coordinates. An image processor that sequentially inserts and outputs as video information, and a video that has a display screen on the wall or floor, and displays video information such as text and images of a predetermined display size on the display screen as the mobile object moves A moving body-associated information display device including the display device is disclosed. According to this video display device, a moving body (for example, a person) can be recognized by a video camera, and information can be individually displayed on the recognized moving body.

特開2005−115270号公報JP 2005-115270 A 特開2012−118121号公報JP 2012-118121 A

特許文献1の表示装置のように、移動中の人を検出し、検出した人に個別に情報を提示することは、その人に対してより確実に情報を伝えられる可能性が高まり効果的である。さらに効果的に情報を伝えるためには、情報の表示方法において様々な演出効果を付加することが有効と考えられる。   Like the display device of Patent Document 1, detecting a person who is moving and presenting information to the detected person individually increases the possibility that information can be more reliably transmitted to the person. is there. In order to convey information more effectively, it is considered effective to add various effects in the information display method.

本開示は、特定のオブジェクト(例えば、人)に対して演出効果を付加した投影画像を提示できる投影装置を提供する。   The present disclosure provides a projection apparatus capable of presenting a projection image with a presentation effect added to a specific object (for example, a person).

本開示の一の態様において投影装置が提供される。投影装置は、特定のオブジェクトを検出する検出部と、映像信号が示す投影画像を投影する投影部と、投影画像の投影位置を変更するために投影部の向きを変更する駆動部と、検出部で検出した特定のオブジェクトの動きに追従した位置に投影画像を投影させる第1の制御に加えて、映像信号に応じて投影画像の投影位置を変化させる第2の制御を行うように駆動部を制御する制御部と、を備え、前記制御部は、前記投影画像が、前記映像信号が示すコンテンツに対応した位置から所定範囲内に投影されている場合、前記所定範囲内に投影されていない場合と比べて、前記特定のオブジェクトにより近い位置に前記投影画像を投影するように前記駆動部を制御する。 In one aspect of the present disclosure, a projection apparatus is provided. The projection device includes a detection unit that detects a specific object, a projection unit that projects a projection image indicated by the video signal, a drive unit that changes the orientation of the projection unit to change the projection position of the projection image, and a detection unit In addition to the first control for projecting the projection image at a position following the movement of the specific object detected in step (2), the drive unit is configured to perform the second control for changing the projection position of the projection image according to the video signal. A control unit that controls , when the projection image is projected within a predetermined range from a position corresponding to the content indicated by the video signal, and is not projected within the predetermined range As compared with the above, the drive unit is controlled to project the projection image at a position closer to the specific object.

本開示によれば、投影画像の投影位置を映像信号の内容に応じて変化させるため、映像の投影方法において様々な演出効果を付加することができる。   According to the present disclosure, since the projection position of the projection image is changed according to the content of the video signal, various effects can be added in the video projection method.

プロジェクタ装置が壁面に映像を投影する状況を示す模式図である。It is a schematic diagram which shows the condition where a projector apparatus projects an image | video on a wall surface. プロジェクタ装置が床面に映像を投影する状況を示す模式図である。It is a schematic diagram which shows the condition where a projector apparatus projects an image | video on a floor surface. プロジェクタ装置の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a projector apparatus. 距離検出部の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a distance detection part. 距離検出部により取得された距離情報を説明するための図である。It is a figure for demonstrating the distance information acquired by the distance detection part. プロジェクタ装置の光学的構成を示すブロック図である。It is a block diagram which shows the optical structure of a projector apparatus. プロジェクタ装置の利用例を説明した図である。It is a figure explaining the usage example of a projector apparatus. 速い動きの映像を示す図である。It is a figure which shows the image | video of a quick motion. 速い動きの映像に応じて変化する駆動部の動きを説明した図である。It is a figure explaining the motion of the drive part which changes according to the image | video of a quick motion. 遅い動きの映像を示す図である。It is a figure which shows the image | video of a slow motion. 遅い動きの映像に応じて変化する駆動部の動きを説明した図である。It is a figure explaining the motion of the drive part which changes according to the image | video of a slow motion. 実施の形態1におけるプロジェクタ装置の制御部の機能的構成を示すブロック図である。3 is a block diagram illustrating a functional configuration of a control unit of the projector device according to Embodiment 1. FIG. 実施の形態2における演出用に付加される投影画像の軌道を説明した図である。FIG. 10 is a diagram for describing a trajectory of a projection image added for presentation in Embodiment 2. 実施の形態2におけるプロジェクタ装置の制御部の機能的構成を示すブロック図である。FIG. 10 is a block diagram showing a functional configuration of a control unit of a projector device in a second embodiment. 実施の形態3におけるプロジェクタ装置の制御部の機能的構成を示すブロック図である。10 is a block diagram illustrating a functional configuration of a control unit of a projector device according to Embodiment 3. FIG.

なお、発明者は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。   In addition, the inventor provides the accompanying drawings and the following description in order for those skilled in the art to fully understand the present disclosure, and is not intended to limit the claimed subject matter. .

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。   Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art.

なお、出願人は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。   The applicant provides the accompanying drawings and the following description in order for those skilled in the art to fully understand the present disclosure, and is not intended to limit the subject matter described in the claims. Absent.

(実施の形態1)
以下、添付の図面を用いて実施の形態1を説明する。以下では、本開示にかかる投影装置の具体的な実施の形態としてプロジェクタ装置を説明する。
(Embodiment 1)
The first embodiment will be described below with reference to the accompanying drawings. Hereinafter, a projector apparatus will be described as a specific embodiment of the projection apparatus according to the present disclosure.

[1−1.概要]
図1及び図2を用いて、プロジェクタ装置100による映像投影動作の概要を説明する。図1は、プロジェクタ装置100が壁140に映像を投影するイメージ図である。図2は、プロジェクタ装置100が床面150に映像を投影するイメージ図である。
[1-1. Overview]
An outline of a video projection operation by the projector device 100 will be described with reference to FIGS. 1 and 2. FIG. 1 is an image diagram in which the projector device 100 projects an image on the wall 140. FIG. 2 is an image diagram in which the projector device 100 projects an image on the floor 150.

図1及び図2に示すように、プロジェクタ装置100は、駆動部110とともに筐体120に固定されている。プロジェクタ本体部100b及び駆動部110を構成する各部と電気的に接続される配線は、筐体120及び配線ダクト130を介して電源と接続される。これにより、プロジェクタ本体部100b及び駆動部110に対して電力が供給される。プロジェクタ装置100は、プロジェクタ本体部100bに開口部101を有している。プロジェクタ装置100は、開口部101を介して映像の投影を行う。   As shown in FIGS. 1 and 2, the projector device 100 is fixed to the housing 120 together with the drive unit 110. Wirings electrically connected to the respective parts constituting the projector main body 100b and the driving unit 110 are connected to a power source via the casing 120 and the wiring duct 130. Thereby, electric power is supplied to the projector main body 100b and the drive unit 110. The projector device 100 has an opening 101 in the projector main body 100b. Projector apparatus 100 projects an image through opening 101.

駆動部110は、プロジェクタ本体部100bの向きを変更するよう駆動することにより、プロジェクタ装置100の投影方向を変更することができる。駆動部110は、図1に示すようにプロジェクタ装置100の投影方向を壁140の方向になるよう駆動することができる。これにより、プロジェクタ装置100は、壁140に対して映像141を投影することができる。同様に、駆動部110は、図2に示すようにプロジェクタ装置100の投影方向を床面150の方向になるよう駆動することができる。これにより、プロジェクタ装置100は、床面150に対して映像151を投影することができる。駆動部110は、ユーザのマニュアル操作に基づいて駆動してもよいし、所定のセンサの検出結果に応じて自動的に駆動してもよい。また、壁140に投影する映像141と、床面150に投影する映像151とは、内容を異ならせてもよいし、同一にしてもよい。駆動部110は電動モータを含み、プロジェクタ本体部100bを水平方向(パン方向)及び垂直方向(チルト方向)に回動することにより、プロジェクタ装置100の向き(姿勢)を変更し、映像の投影方向や投影位置を変化させることができる。   The drive unit 110 can change the projection direction of the projector device 100 by driving to change the orientation of the projector main body 100b. The drive unit 110 can drive the projection direction of the projector device 100 so as to be in the direction of the wall 140 as shown in FIG. Thereby, the projector device 100 can project the image 141 on the wall 140. Similarly, the drive unit 110 can drive the projection direction of the projector device 100 so as to be in the direction of the floor 150 as shown in FIG. Thereby, the projector device 100 can project the image 151 onto the floor 150. The drive unit 110 may be driven based on a user's manual operation, or may be automatically driven according to a detection result of a predetermined sensor. The content of the image 141 projected on the wall 140 and the image 151 projected on the floor 150 may be different or the same. The drive unit 110 includes an electric motor, and changes the orientation (posture) of the projector device 100 by rotating the projector main body 100b in the horizontal direction (pan direction) and the vertical direction (tilt direction), thereby projecting the image. And the projection position can be changed.

プロジェクタ装置100は、特定のオブジェクトを検出し、検出したオブジェクトの動きに追従して、特定のオブジェクトの位置を基準とした所定の位置関係を有する位置または領域に映像(コンテンツ)を投影することができる。なお、以下の説明では、特定のオブジェクトとして「人」を検出し、検出した人の動きに追従して映像を投影させる制御を「人追従制御」という。   The projector device 100 detects a specific object, follows the movement of the detected object, and projects a video (content) on a position or region having a predetermined positional relationship with respect to the position of the specific object. it can. In the following description, control for detecting a “person” as a specific object and projecting an image following the detected movement of the person is referred to as “person tracking control”.

[1−2.構成]
以下、プロジェクタ装置100の構成及び動作について詳細を説明する。
[1-2. Constitution]
Hereinafter, the configuration and operation of the projector device 100 will be described in detail.

図3は、プロジェクタ装置100の電気的構成を示すブロック図である。プロジェクタ装置100は、駆動制御部200と、光源部300と、映像生成部400と、投影光学系500とを備えている。以下、順にプロジェクタ装置100を構成する各部の構成について説明する。   FIG. 3 is a block diagram showing an electrical configuration of projector apparatus 100. The projector device 100 includes a drive control unit 200, a light source unit 300, a video generation unit 400, and a projection optical system 500. Hereinafter, the structure of each part which comprises the projector apparatus 100 is demonstrated in order.

駆動制御部200は、制御部210と、メモリ220と、距離検出部230とを備えている。   The drive control unit 200 includes a control unit 210, a memory 220, and a distance detection unit 230.

制御部210は、プロジェクタ装置100全体を制御する半導体素子である。すなわち、制御部210は、駆動制御部200を構成する距離検出部230、メモリ220等の各部の動作と、光源部300、映像生成部400、投影光学系500の動作を制御する。また、制御部210は、投影画像を映像信号処理により縮小・拡大するデジタルズーム制御や、投影面の向きを考慮して投影映像に対し幾何補正を行うことができる。また、制御部210は、プロジェクタ装置100からの投影光の投影方向や投影位置を変更するために駆動部110を制御する。制御部210は、駆動部110のパン方向及びチルト方向における現在の制御位置に関する情報と、駆動部110がパン方向及びチルト方向におけるプロジェクタ本体部100bの向きを変更する際の速度に関する情報を駆動部110から取得する。制御部210は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組合せることにより実現してもよい。例えば、制御部210は、1つまたは複数のCPU,MPUなどで構成することができる。   The control unit 210 is a semiconductor element that controls the entire projector device 100. That is, the control unit 210 controls the operation of each unit such as the distance detection unit 230 and the memory 220 constituting the drive control unit 200 and the operation of the light source unit 300, the image generation unit 400, and the projection optical system 500. In addition, the control unit 210 can perform digital zoom control for reducing / enlarging the projection image by video signal processing and geometric correction for the projection video in consideration of the orientation of the projection plane. The control unit 210 also controls the drive unit 110 to change the projection direction and projection position of the projection light from the projector device 100. The control unit 210 includes information on the current control position of the drive unit 110 in the pan direction and the tilt direction, and information on the speed when the drive unit 110 changes the orientation of the projector main body 100b in the pan direction and the tilt direction. Obtain from 110. The control unit 210 may be configured only by hardware, or may be realized by combining hardware and software. For example, the control unit 210 can be configured by one or a plurality of CPUs, MPUs, and the like.

メモリ220は、各種の情報を記憶する記憶素子である。メモリ220は、フラッシュメモリや強誘電体メモリなどで構成される。メモリ220は、プロジェクタ装置100を制御するための制御プログラム等を記憶する。また、メモリ220は、制御部210から供給された各種の情報を記憶する。更に、メモリ220は、投影すべき静止画や動画の画像データや、映像を投影すべき位置や投影サイズなど設定を含んだ参照テーブルや、物体検出の対象物体の形状のデータなどを記憶している。   The memory 220 is a storage element that stores various types of information. The memory 220 includes a flash memory or a ferroelectric memory. The memory 220 stores a control program and the like for controlling the projector device 100. The memory 220 stores various information supplied from the control unit 210. Further, the memory 220 stores image data of still images and moving images to be projected, a reference table including settings such as positions and projection sizes at which images are to be projected, shape detection target object data, and the like. Yes.

距離検出部230は、例えば、TOF(Time−of−Flight)方式の距離画像センサ(以下、TOFセンサ)から構成され、対向する投影面や物体までの距離を直線的に検出する。距離検出部230が壁140と対向しているときは、距離検出部230から壁140までの距離を検出する。壁140に絵画が吊り掛けられていれば、距離検出部230は、絵画の表面までの距離を検出することができる。同様に、距離検出部230が床面150と対向しているときは、距離検出部230から床面150までの距離を検出する。床面150に物体が載置されていれば、距離検出部230は、物体の表面までの距離を検出することができる。   The distance detection unit 230 includes, for example, a TOF (Time-of-Flight) type distance image sensor (hereinafter referred to as a TOF sensor), and linearly detects a distance to an opposing projection surface or object. When the distance detection unit 230 faces the wall 140, the distance from the distance detection unit 230 to the wall 140 is detected. If the painting is hung on the wall 140, the distance detection unit 230 can detect the distance to the surface of the painting. Similarly, when the distance detection unit 230 faces the floor surface 150, the distance from the distance detection unit 230 to the floor surface 150 is detected. If an object is placed on the floor 150, the distance detection unit 230 can detect the distance to the surface of the object.

図4Aは、距離検出部230の電気的構成を示すブロック図である。図4Aに示すように、距離検出部230は、赤外検出光を照射する赤外光源部231と、対向する面(又は物体)で反射した赤外検出光を受光する赤外受光部232と、センサ制御部233とから構成される。赤外光源部231は、開口部101を介して、赤外検出光を周囲一面に拡散されるように照射する。赤外光源部231は、例えば、850nm〜950nmの波長の赤外光を、赤外検出光として用いる。制御部210は、赤外光源部231が照射した赤外検出光の位相を内部のメモリに記憶しておく。対向する面が距離検出部230から等距離になく、傾きや形状を有する場合、赤外受光部232の撮像面上に配列された複数の画素は、それぞれ別々のタイミングで反射光を受光する。別々のタイミングで受光するため、赤外受光部232で受光する赤外検出光は、各画素で位相が異なってくる。センサ制御部233は、赤外受光部232が各画素で受光した赤外検出光の位相をメモリに記憶する。   FIG. 4A is a block diagram illustrating an electrical configuration of the distance detection unit 230. As shown in FIG. 4A, the distance detection unit 230 includes an infrared light source unit 231 that irradiates infrared detection light, and an infrared light reception unit 232 that receives infrared detection light reflected by an opposing surface (or object). And a sensor control unit 233. The infrared light source unit 231 irradiates the infrared detection light through the opening 101 so as to be diffused over the entire surface. The infrared light source unit 231 uses, for example, infrared light having a wavelength of 850 nm to 950 nm as infrared detection light. The controller 210 stores the phase of the infrared detection light emitted by the infrared light source unit 231 in an internal memory. When the opposing surfaces are not equidistant from the distance detection unit 230 and have an inclination or a shape, the plurality of pixels arranged on the imaging surface of the infrared light receiving unit 232 receive reflected light at different timings. Since the light is received at different timings, the phase of the infrared detection light received by the infrared light receiving unit 232 is different for each pixel. The sensor control unit 233 stores the phase of the infrared detection light received by each pixel by the infrared light receiving unit 232 in the memory.

センサ制御部233は、赤外光源部231が照射した赤外検出光の位相と、赤外受光部232が各画素で受光した赤外検出光の位相とをメモリから読出す。センサ制御部233は、距離検出部230が照射した赤外検出光と、受光した赤外検出光との位相差に基づいて、距離検出部230から対向する面までの距離を測定し、距離情報(距離画像)を生成することができる。   The sensor control unit 233 reads the phase of the infrared detection light emitted from the infrared light source unit 231 and the phase of the infrared detection light received by each pixel by the infrared light receiving unit 232 from the memory. The sensor control unit 233 measures the distance from the distance detection unit 230 to the opposite surface based on the phase difference between the infrared detection light emitted by the distance detection unit 230 and the received infrared detection light, and distance information (Distance image) can be generated.

図4Bは、距離検出部230の赤外受光部232により生成された距離情報を説明するための図である。距離検出部230は、受光した赤外検出光による赤外画像を構成する画素の一つ一つについて上述した位相差に基づいて赤外検出光を反射した物体との距離を検出する。これにより、センサ制御部233は、距離検出部230が受光した赤外画像の画角全域についての距離の検出結果を画素単位で得ることができる。制御部210は、距離検出部230から距離情報を取得できる。   FIG. 4B is a diagram for explaining the distance information generated by the infrared light receiving unit 232 of the distance detection unit 230. The distance detection unit 230 detects the distance from the object that reflected the infrared detection light based on the phase difference described above for each of the pixels constituting the infrared image by the received infrared detection light. Thereby, the sensor control part 233 can obtain the detection result of the distance about the whole angle of view of the infrared image received by the distance detection part 230 for each pixel. The control unit 210 can acquire distance information from the distance detection unit 230.

制御部210は、距離情報に基づいて、壁140、床面150等の投影面や、人、物等の特定の物体を検出できる。   Based on the distance information, the control unit 210 can detect projection surfaces such as the walls 140 and the floor surface 150 and specific objects such as people and objects.

上記では、距離検出部230としてTOFセンサを例示したが、本開示はこれに限定されない。すなわち、ランダムドットパターンのように、既知のパターンを投光してそのパターンのズレから距離を算出するものであっても良いし、ステレオカメラによる視差を利用したものであってもよい。また、プロジェクタ装置100は、距離検出部230とともに、図示しないRGBカメラを備えてもよい。その場合、プロジェクタ装置100は、TOFセンサが出力する距離情報と併せてRGBカメラが出力する画像情報を用いて、物体の検出を行ってよい。RGBカメラを併用することにより、距離情報から得られる物体の三次元形状の情報に加え、物体が有する色彩や物体に記載された文字等の情報を利用して物体検出を行うことができる。   In the above, the TOF sensor is exemplified as the distance detection unit 230, but the present disclosure is not limited to this. That is, as in a random dot pattern, a known pattern may be projected and a distance may be calculated from the deviation of the pattern, or a parallax obtained by a stereo camera may be used. Further, the projector device 100 may include an RGB camera (not shown) together with the distance detection unit 230. In that case, the projector device 100 may detect an object using image information output from the RGB camera together with distance information output from the TOF sensor. By using the RGB camera together, it is possible to detect an object using information such as the color of the object and characters written on the object in addition to the information of the three-dimensional shape of the object obtained from the distance information.

続いて、プロジェクタ装置100の光学的な構成を説明する。すなわち、プロジェクタ装置100における、光源部300、映像生成部400および投影光学系500の構成について説明する。図5は、プロジェクタ装置100の光学的構成を示すブロック図である。図5に示すように、光源部300は、投影映像を生成するために必要な光を映像生成部400に供給する。映像生成部400は生成した映像を投影光学系500に供給する。投影光学系500は、映像生成部400から供給された映像に対してフォーカシング、ズーミング等の光学的変換を行う。投影光学系500は、開口部101と対向しており、開口部101から映像を投影する。   Next, the optical configuration of the projector device 100 will be described. That is, the configuration of the light source unit 300, the image generation unit 400, and the projection optical system 500 in the projector device 100 will be described. FIG. 5 is a block diagram showing an optical configuration of projector device 100. As shown in FIG. 5, the light source unit 300 supplies light necessary for generating a projection image to the image generation unit 400. The video generation unit 400 supplies the generated video to the projection optical system 500. The projection optical system 500 performs optical conversion such as focusing and zooming on the video supplied from the video generation unit 400. The projection optical system 500 faces the opening 101 and projects an image from the opening 101.

光源部300の構成について説明する。図5に示すように、光源部300は、半導体レーザー310、ダイクロイックミラー330、λ/4板340、蛍光体ホイール360などを備えている。   The configuration of the light source unit 300 will be described. As shown in FIG. 5, the light source unit 300 includes a semiconductor laser 310, a dichroic mirror 330, a λ / 4 plate 340, a phosphor wheel 360, and the like.

半導体レーザー310は、例えば、波長440nm〜455nmのS偏光の青色光を発光する固体光源である。半導体レーザー310から出射されたS偏光の青色光は、導光光学系320を介してダイクロイックミラー330に入射される。   The semiconductor laser 310 is a solid light source that emits S-polarized blue light having a wavelength of 440 nm to 455 nm, for example. S-polarized blue light emitted from the semiconductor laser 310 is incident on the dichroic mirror 330 via the light guide optical system 320.

ダイクロイックミラー330は、例えば、波長440nm〜455nmのS偏光の青色光に対しては98%以上の高い反射率を有する一方、波長440nm〜455nmのP偏光の青色光及び、波長490nm〜700nmの緑色光〜赤色光に対しては偏光状態に関わらず95%以上の高い透過率を有する光学素子である。ダイクロイックミラー330は、半導体レーザー310から出射されたS偏光の青色光を、λ/4板340の方向に反射する。   The dichroic mirror 330 has, for example, a high reflectance of 98% or more for S-polarized blue light having a wavelength of 440 nm to 455 nm, while P-polarized blue light having a wavelength of 440 nm to 455 nm and green having a wavelength of 490 nm to 700 nm. It is an optical element having a high transmittance of 95% or more for light to red light regardless of the polarization state. The dichroic mirror 330 reflects the S-polarized blue light emitted from the semiconductor laser 310 in the direction of the λ / 4 plate 340.

λ/4板340は、直線偏光を円偏光に変換又は、円偏光を直線偏光に変換する偏光素子である。λ/4板340は、ダイクロイックミラー330と蛍光体ホイール360との間に配置される。λ/4板340に入射したS偏光の青色光は、円偏光の青色光に変換された後、レンズ350を介して蛍光体ホイール360に照射される。   The λ / 4 plate 340 is a polarizing element that converts linearly polarized light into circularly polarized light or converts circularly polarized light into linearly polarized light. The λ / 4 plate 340 is disposed between the dichroic mirror 330 and the phosphor wheel 360. The S-polarized blue light incident on the λ / 4 plate 340 is converted into circularly-polarized blue light and then irradiated onto the phosphor wheel 360 via the lens 350.

蛍光体ホイール360は、高速回転が可能なように構成されたアルミ平板である。蛍光体ホイール360の表面には、拡散反射面の領域であるB領域と、緑色光を発光する蛍光体が塗付されたG領域と、赤色光を発光する蛍光体が塗付されたR領域とが複数形成されている。蛍光体ホイール360のB領域に照射された円偏光の青色光は拡散反射されて、円偏光の青色光として再びλ/4板340に入射する。λ/4板340に入射した円偏光の青色光は、P偏光の青色光に変換された後、再びダイクロイックミラー330に入射する。このときダイクロイックミラー330に入射した青色光は、P偏光であるためダイクロイックミラー330を透過して、導光光学系370を介して映像生成部400に入射する。   The phosphor wheel 360 is an aluminum flat plate configured to be capable of high speed rotation. On the surface of the phosphor wheel 360, a B region which is a diffuse reflection surface region, a G region coated with a phosphor emitting green light, and an R region coated with a phosphor emitting red light. A plurality of and are formed. The circularly polarized blue light applied to the region B of the phosphor wheel 360 is diffusely reflected and reenters the λ / 4 plate 340 as circularly polarized blue light. The circularly polarized blue light incident on the λ / 4 plate 340 is converted into P-polarized blue light and then incident on the dichroic mirror 330 again. At this time, since the blue light incident on the dichroic mirror 330 is P-polarized light, it passes through the dichroic mirror 330 and enters the video generation unit 400 via the light guide optical system 370.

蛍光体ホイール360のG領域又はR領域上に照射された青色光又は赤色光は、G領域又はR領域上に塗付された蛍光体を励起して緑色光又は赤色光を発光させる。G領域又はR領域上から発光された緑色光又は赤色光は、ダイクロイックミラー330に入射する。このときダイクロイックミラー330に入射した緑色光又は赤色光は、ダイクロイックミラー330を透過して、導光光学系370を介して映像生成部400に入射する。   The blue light or red light irradiated on the G region or R region of the phosphor wheel 360 excites the phosphor applied on the G region or R region to emit green light or red light. Green light or red light emitted from the G region or the R region is incident on the dichroic mirror 330. At this time, the green light or red light incident on the dichroic mirror 330 is transmitted through the dichroic mirror 330 and is incident on the image generation unit 400 via the light guide optical system 370.

蛍光体ホイール360は高速回転しているため、光源部300から映像生成部400へは、青色光、緑色光、赤色光が時分割されて出射する。   Since the phosphor wheel 360 rotates at high speed, blue light, green light, and red light are emitted from the light source unit 300 to the image generation unit 400 in a time-sharing manner.

映像生成部400は、制御部210から供給される映像信号に応じた投影映像を生成する。映像生成部400は、DMD(Digital−Mirror−Device)420などを備えている。DMD420は、多数のマイクロミラーを平面に配列した表示素子である。DMD420は、制御部210から供給される映像信号に応じて、配列したマイクロミラーのそれぞれを偏向させて、入射する光を空間的に変調させる。光源部300は、青色光、緑色光、赤色光を時分割で出射する。DMD420は、導光光学系410を介して、時分割に出射されてくる青色光、緑色光、赤色光を順に繰り返し受光する。DMD420は、それぞれの色の光が出射されてくるタイミングに同期して、マイクロミラーのそれぞれを偏向させる。これにより、映像生成部400は、映像信号に応じた投影映像を生成する。DMD420は、映像信号に応じて、投影光学系500に進行させる光と、投影光学系500の有効範囲外へと進行させる光とにマイクロミラーを偏向させる。これにより、映像生成部400は、生成した投影映像を、投影光学系500に供給することができる。   The video generation unit 400 generates a projection video corresponding to the video signal supplied from the control unit 210. The video generation unit 400 includes a DMD (Digital-Mirror-Device) 420 and the like. The DMD 420 is a display element in which a large number of micromirrors are arranged in a plane. The DMD 420 deflects each of the arranged micromirrors according to the video signal supplied from the control unit 210 to spatially modulate the incident light. The light source unit 300 emits blue light, green light, and red light in a time division manner. The DMD 420 repeatedly receives blue light, green light, and red light that are emitted in a time division manner through the light guide optical system 410 in order. The DMD 420 deflects each of the micromirrors in synchronization with the timing at which light of each color is emitted. Accordingly, the video generation unit 400 generates a projected video corresponding to the video signal. The DMD 420 deflects the micromirror according to the video signal into light that travels to the projection optical system 500 and light that travels outside the effective range of the projection optical system 500. Thereby, the video generation unit 400 can supply the generated projection video to the projection optical system 500.

投影光学系500は、ズームレンズ510やフォーカスレンズ520などの光学部材を備える。投影光学系500は、映像生成部400から入射した光を拡大して投影面へ投影する。制御部210は、ズームレンズ510の位置を調整することで、所望のズーム値になるよう投影対象に対して投影領域を制御できる。ズーム値を大きくする場合、制御部210は、ズームレンズ510の位置を画角が狭くなる方向へ移動させて、投影領域を狭くする。一方、ズーム値を小さくする場合、制御部210は、ズームレンズ510の位置を画角が広くなる方向に移動させて、投影領域を広くする。また、制御部210は、ズームレンズ510の移動に追従するよう、所定のズームトラッキングデータに基づきフォーカスレンズ520の位置を調整することで、投影映像のフォーカスを合わせることができる。   The projection optical system 500 includes optical members such as a zoom lens 510 and a focus lens 520. The projection optical system 500 enlarges the light incident from the video generation unit 400 and projects it onto the projection surface. The control unit 210 can control the projection area with respect to the projection target so as to obtain a desired zoom value by adjusting the position of the zoom lens 510. When the zoom value is increased, the control unit 210 moves the position of the zoom lens 510 in the direction in which the angle of view becomes narrower, thereby narrowing the projection area. On the other hand, when the zoom value is decreased, the control unit 210 moves the position of the zoom lens 510 in the direction in which the angle of view is widened to widen the projection area. In addition, the control unit 210 can adjust the focus of the projected video by adjusting the position of the focus lens 520 based on predetermined zoom tracking data so as to follow the movement of the zoom lens 510.

上記では、プロジェクタ装置100の一例として、DMD420を用いたDLP(Digital−Light−Processing)方式による構成を説明したが、本開示はこれに限定されない。すなわち、プロジェクタ装置100として、液晶方式による構成を採用しても構わない。   In the above description, the configuration by the DLP (Digital-Light-Processing) method using the DMD 420 is described as an example of the projector device 100, but the present disclosure is not limited thereto. That is, the projector apparatus 100 may employ a liquid crystal configuration.

上記では、プロジェクタ装置100の一例として、蛍光体ホイール360を用いた光源を時分割させた単板方式による構成を説明したが、本開示はこれに限定されない。すなわち、プロジェクタ装置100として、青色光、緑色光、赤色光の各種光源を備えた三板方式による構成を採用しても構わない。   In the above description, the configuration of the single plate system in which the light source using the phosphor wheel 360 is time-divided is described as an example of the projector device 100, but the present disclosure is not limited thereto. That is, the projector device 100 may employ a three-plate configuration including various light sources of blue light, green light, and red light.

上記では、投影映像を生成するための青色光の光源と、距離を測定するための赤外光の光源とを別ユニットとする構成を説明したが、本開示はこれに限定されない。すなわち、投影映像を生成するための青色光の光源と、距離を測定するための赤外光の光源とを統合したユニットとしても構わない。三板方式を採用するのであれば、各色の光源と赤外光の光源とを統合したユニットとしても構わない。   In the above description, the blue light source for generating the projected image and the infrared light source for measuring the distance are described as separate units, but the present disclosure is not limited thereto. That is, a unit in which a blue light source for generating a projected image and an infrared light source for measuring a distance may be integrated. If a three-plate method is adopted, a unit in which a light source of each color and an infrared light source are integrated may be used.

[1−3.動作]
以下、上記の構成を有するプロジェクタ装置100の動作を説明する。本実施形態のプロジェクタ装置100は、特定のオブジェクトとして人を検出し、検出した人の動きに追従し、人の位置と所定の位置関係にある位置(例えば、検知した人の位置から進行方向において1m前の位置)に、所定の映像を投影させることができる。
[1-3. Operation]
Hereinafter, the operation of the projector apparatus 100 having the above configuration will be described. The projector device 100 according to the present embodiment detects a person as a specific object, follows the detected movement of the person, and has a predetermined positional relationship with the position of the person (for example, in the traveling direction from the detected position of the person). A predetermined image can be projected at a position 1 m before).

具体的には、距離検出部230は、ある領域(例えば、店舗や建物の入り口)に向けて赤外検出光を照射して、その領域における距離情報を取得する。制御部210は、距離検出部230により取得された距離情報に基づき、人とその人の位置及び進行方向、速度等を検出する。尚、進行方向及び速度は複数フレームの距離情報から検出する。制御部210は、検知した人の位置や進行方向等に基づいて、投影画像を投影する位置を決定する。制御部210は、その決定した位置に投影画像を投影するように駆動部110を制御し、プロジェクタ本体部100bをパン方向やチルト方向に移動させる。制御部210は、所定期間(例えば1/60秒)毎に人物の位置を検出し、検出した人物の位置に基づき、投影画像を人物に追従させるように映像を投影する。   Specifically, the distance detection unit 230 irradiates infrared detection light toward a certain region (for example, an entrance of a store or a building), and acquires distance information in the region. Based on the distance information acquired by the distance detection unit 230, the control unit 210 detects the person, the position of the person, the traveling direction, the speed, and the like. The traveling direction and speed are detected from distance information of a plurality of frames. The control unit 210 determines a position to project the projection image based on the detected position of the person, the traveling direction, and the like. The control unit 210 controls the drive unit 110 to project the projection image at the determined position, and moves the projector main body 100b in the pan direction or the tilt direction. The control unit 210 detects the position of a person every predetermined period (for example, 1/60 seconds), and projects a video so that the projected image follows the person based on the detected position of the person.

例えば、図6に示すように、プロジェクタ装置100は、建物内の通路やホール等の天井や壁などに設置され、人6を検出すると、その人6の動きに追従して投影画像8を投影する。投影画像(コンテンツ画像)8は、例えば、人6を所定の場所や店舗に誘導、案内する矢印等の図形やメッセージ、人6を歓迎するメッセージ、宣伝広告のテキスト、レッドカーペットなどの人6の移動を演出する図形や画像を含む。投影画像8は静止画であってもよいし、動画であってもよい。これにより、検出した人6に対して、所望の情報を、検出した人6の動きに応じて常に見やすい位置に提示することができ、所望の情報を確実にその人6に伝えることが可能となる。   For example, as shown in FIG. 6, the projector device 100 is installed on a ceiling or a wall of a passage or a hall in a building, and when a person 6 is detected, the projected image 8 is projected following the movement of the person 6. To do. The projected image (content image) 8 is, for example, a figure or message such as an arrow that guides and guides the person 6 to a predetermined place or store, a message that welcomes the person 6, a text of an advertisement, a red carpet, etc. Includes graphics and images that produce movement. The projected image 8 may be a still image or a moving image. Accordingly, it is possible to present desired information to the detected person 6 at a position that is always easy to see according to the movement of the detected person 6, and to reliably transmit the desired information to the person 6. Become.

さらに、本実施形態のプロジェクタ装置100は、人追従制御による投影画像の軌道制御に加えて、映像信号が示すコンテンツ画像の内容に応じて映像の投影位置を制御する。   Further, the projector device 100 according to the present embodiment controls the projection position of the video according to the content of the content image indicated by the video signal, in addition to the trajectory control of the projection image by the human follow-up control.

具体的には、映像信号の周波数、映像信号が示す映像に含まれるオブジェクトの動き等に応じて、駆動部110の軌道を制御する。例えば、映像信号が示す映像がめまぐるしく変化する映像であれば、駆動部110を速く動かす。映像信号が示す映像がゆったりした映像であれば、駆動部110を遅く動かす。または、映像信号の内容(コンテンツ)によって、人を誘導したい方向に駆動部110を動かす。または、映像信号が示す映像がクルクルまわる映像であれば、駆動部110もクルクル回るように移動させてもよい。映像信号が示す映像が、人が右へ歩く映像であれば、駆動部110を右へ動かしてもよい。   Specifically, the trajectory of the drive unit 110 is controlled according to the frequency of the video signal, the movement of the object included in the video indicated by the video signal, and the like. For example, if the video indicated by the video signal changes rapidly, the drive unit 110 is moved quickly. If the video indicated by the video signal is a loose video, the drive unit 110 is moved slowly. Alternatively, the drive unit 110 is moved in a direction in which a person is desired to be guided according to the content (content) of the video signal. Alternatively, if the video indicated by the video signal is a video that turns around, the drive unit 110 may also be moved around. If the video indicated by the video signal is a video in which a person walks to the right, the drive unit 110 may be moved to the right.

例えば、図7Aに示すように、映像信号がサッカーボールを示し、そのサッカーボールの動きが速い場合、プロジェクタ装置100の制御部210は、図7Bに示すように、サッカーボールの動きの速さに応じて駆動部110を速く動かす。一方、図8Aに示すように、映像信号が示すサッカーボールの動きが遅い場合、プロジェクタ装置100の制御部210は、図8Bに示すように、サッカーボールの動きの遅さに応じて駆動部110の向きをゆっくりと動かす。   For example, as shown in FIG. 7A, when the video signal indicates a soccer ball and the movement of the soccer ball is fast, the control unit 210 of the projector device 100 determines the speed of the soccer ball as shown in FIG. 7B. Accordingly, the drive unit 110 is moved quickly. On the other hand, when the movement of the soccer ball indicated by the video signal is slow as shown in FIG. 8A, the control unit 210 of the projector device 100 causes the driving unit 110 to respond to the slow movement of the soccer ball as shown in FIG. 8B. Move the direction of slowly.

このように、プロジェクタ装置100は、映像信号の内容に応じて、駆動部110の駆動方法(すなわち、映像の投影軌道)を変化させる。すなわち、本実施形態のプロジェクタ装置100は、駆動部110の駆動に関して、人追従制御による動作(駆動)に対して、演出による動作(駆動)を加算する。以下、プロジェクタ装置100の動作を詳細に説明する。   As described above, the projector device 100 changes the driving method of the driving unit 110 (that is, the projection trajectory of video) according to the content of the video signal. In other words, the projector device 100 according to the present embodiment adds an operation (drive) based on the effect to an operation (drive) based on the human follow-up control regarding the drive of the drive unit 110. Hereinafter, the operation of the projector apparatus 100 will be described in detail.

図9は、制御部210の機能的な構成を示した図である。制御部210は、人追従制御を行う制御ブロック10と、演出動作のための制御を行う制御ブロック20とを含む。制御部210は、制御ブロック10で生成された駆動指令(電圧)と制御ブロック20で生成された駆動指令(電圧)とを加算部17で加算して最終的な駆動指令(電圧)を生成する。この駆動指令(電圧)は駆動部110に出力されて駆動部110が制御される。   FIG. 9 is a diagram illustrating a functional configuration of the control unit 210. The control unit 210 includes a control block 10 that performs human follow-up control and a control block 20 that performs control for a rendering operation. The controller 210 adds the drive command (voltage) generated in the control block 10 and the drive command (voltage) generated in the control block 20 by the adder 17 to generate a final drive command (voltage). . This drive command (voltage) is output to the drive unit 110 to control the drive unit 110.

[1−3−1.人追従制御]
最初に、人追従制御のための駆動指令を生成する制御ブロック10の動作を説明する。なお、以下の説明において、位置、速度は大きさと方向を持った2次元ベクトルである。
[1-3-1. Human tracking control]
First, the operation of the control block 10 that generates a drive command for human follow-up control will be described. In the following description, the position and speed are two-dimensional vectors having magnitude and direction.

人位置検出部11は、距離検出部230からの距離情報(距離画像)により、人を検出する。人の検出は、予め人を示す特徴量をメモリ220に記憶しておき、その特徴量を示すオブジェクトを距離情報(距離画像)から検出することにより行う。人位置検出部11は、さらに検出した人の位置(相対位置)を算出する。ここでの「相対位置」とは、駆動部110の位置を中心とした座標系での位置をいう。投影目標位置算出部13は、検出した人の位置を基準として投影画像の目標投影位置(相対位置)を算出する。例えば、検出した人の位置から進行方向において所定距離(例えば、1m)だけ離れた位置が、目標投影位置として算出される。駆動指令算出部15は、プロジェクタ装置100からの投影画像が目標投影位置(相対位置)に投影されるような向きにプロジェクタ装置100の向きを制御するように、駆動部110を駆動するための駆動指令(電圧)を算出する。   The human position detection unit 11 detects a person based on the distance information (distance image) from the distance detection unit 230. A person is detected in advance by storing a feature value indicating a person in the memory 220 and detecting an object indicating the feature value from distance information (distance image). The person position detecting unit 11 further calculates the position (relative position) of the detected person. Here, “relative position” refers to a position in a coordinate system centered on the position of the drive unit 110. The projection target position calculation unit 13 calculates the target projection position (relative position) of the projection image based on the detected position of the person. For example, a position that is separated from the detected person's position by a predetermined distance (for example, 1 m) in the traveling direction is calculated as the target projection position. The drive command calculation unit 15 is a drive for driving the drive unit 110 so as to control the orientation of the projector device 100 so that the projection image from the projector device 100 is projected onto the target projection position (relative position). Calculate the command (voltage).

[1−3−2.演出のための駆動制御]
次に、演出のための駆動指令を生成する制御ブロック20の動作を説明する。位置・速度取得部23は、距離検出部230から距離情報を取得し、その距離情報に基づき、現在投影している画像についての投影位置を算出する。
[1-3-2. Drive control for production]
Next, the operation of the control block 20 that generates a drive command for production will be described. The position / speed acquisition unit 23 acquires distance information from the distance detection unit 230 and calculates a projection position for the currently projected image based on the distance information.

投影サイズ算出部25は、位置・速度取得部23から投影画像の位置を取得し、取得した投影画像の位置に基づき映像信号が示す映像に含まれるオブジェクトのサイズを算出する。ここで、投影された場所でのオブジェクトのサイズが常に一定となるように、映像信号内のオブジェクトのサイズは投影位置が遠くなるほど、小さく設定される。   The projection size calculation unit 25 acquires the position of the projection image from the position / velocity acquisition unit 23, and calculates the size of the object included in the video indicated by the video signal based on the acquired position of the projection image. Here, the size of the object in the video signal is set smaller as the projection position becomes farther so that the size of the object at the projected location is always constant.

背景画像速度検出部29は、映像信号が示すコンテンツ画像27の中から、コンテンツ画像27に含まれる主オブジェクト以外の画像である背景画像の速度を検出する。この速度はpixel/sの単位で検出される。   The background image speed detection unit 29 detects the speed of a background image that is an image other than the main object included in the content image 27 from the content image 27 indicated by the video signal. This speed is detected in units of pixel / s.

背景画像速度算出部30は、コンテンツ画像27内の背景画像の速度から、コンテンツ画像27が実際に投影された場所での背景画像の速度(m/s)を、投影サイズ算出部25で算出された画像サイズを用いて算出する。   The background image speed calculation unit 30 calculates the speed (m / s) of the background image where the content image 27 is actually projected from the speed of the background image in the content image 27 by the projection size calculation unit 25. The image size is used for calculation.

プロジェクタ装置100は、メモリ220内に演出用軌道情報37を格納している。演出用軌道情報37は、駆動部110の軌道における移動可能な範囲を示す情報である。駆動部110はその移動可能な範囲を超えて移動(回動)することはできない。投影範囲判定部39は、人追従制御において算出された投影目標位置が移動可能な範囲を超えているか否かを判定し、判定結果を速度算出部31に出力する。   Projector apparatus 100 stores effect trajectory information 37 in memory 220. The effect trajectory information 37 is information indicating a movable range in the trajectory of the drive unit 110. The drive unit 110 cannot move (turn) beyond the movable range. The projection range determination unit 39 determines whether or not the projection target position calculated in the human follow-up control exceeds the movable range, and outputs the determination result to the speed calculation unit 31.

速度算出部31は、背景画像の速度に基づいて投影画像の投影位置の移動速度を算出する。具体的には、速度算出部31は、背景画像が静止して見えるように投影画像の投影位置の移動速度を算出する。すなわち、速度算出部31は、投影画像に含まれる主オブジェクトが動く方向とは逆方向に、かつ、背景画像の速度に等価な大きさの速度で投影画像を進めるように速度(向き、大きさ)を算出する。なお、速度算出部31は、投影範囲判定部39から、投影目標位置が移動可能な範囲を超えていることを示す判定結果を受けた場合、投影画像の投影位置の移動速度を0に設定する。   The speed calculation unit 31 calculates the movement speed of the projection position of the projection image based on the speed of the background image. Specifically, the speed calculation unit 31 calculates the movement speed of the projection position of the projection image so that the background image looks stationary. That is, the speed calculation unit 31 moves the speed (orientation and size) so that the projection image is advanced in a direction opposite to the direction in which the main object included in the projection image moves and at a speed equivalent to the speed of the background image. ) Is calculated. When the speed calculation unit 31 receives a determination result indicating that the projection target position exceeds the movable range from the projection range determination unit 39, the speed calculation unit 31 sets the movement speed of the projection position of the projection image to zero. .

角加速度算出部33は、速度算出部31により算出された投影画像の投影位置の移動速度から、駆動部110の駆動に関する角加速度を算出する。続いて、駆動指令算出部35は、この角加速度に基づき、駆動部110を駆動するための駆動指令(電圧)を算出する。このようにして、制御ブロック20により、演出動作のための駆動部110の駆動に関する駆動指令を算出する。   The angular acceleration calculation unit 33 calculates an angular acceleration related to driving of the drive unit 110 from the moving speed of the projection position of the projection image calculated by the speed calculation unit 31. Subsequently, the drive command calculation unit 35 calculates a drive command (voltage) for driving the drive unit 110 based on the angular acceleration. In this way, the control block 20 calculates a drive command related to driving of the drive unit 110 for the rendering operation.

加算部17は、制御ブロック10により算出された人追従制御のための駆動指令(電圧)と、制御ブロック20により算出された演出動作のための駆動指令(電圧)とを加算して、駆動部110に対する駆動指令(電圧)を生成して出力する。駆動部110は、駆動指令(電圧)に基づいてパン方向、チルト方向に回動する。   The adder 17 adds the drive command (voltage) for the human follow-up control calculated by the control block 10 and the drive command (voltage) for the rendering operation calculated by the control block 20 to add the drive command (voltage). A drive command (voltage) for 110 is generated and output. The drive unit 110 rotates in the pan direction and the tilt direction based on a drive command (voltage).

以上のように本実施形態のプロジェクタ装置100によれば、人追従制御により決定された画像の駆動速度に対して、映像信号の内容に応じた演出のための速度が追加される。これにより、プロジェクタ装置100は、人に追従させながら投影画像を投影しつつ、さらに、演出効果を持たせた投影画像の投影が可能となる。   As described above, according to the projector device 100 of the present embodiment, the speed for rendering according to the content of the video signal is added to the driving speed of the image determined by the human follow-up control. As a result, the projector device 100 can project a projection image with a production effect while projecting a projection image while following a person.

[1−4.効果、等]
以上のように、本実施形態のプロジェクタ装置100は、人(特定のオブジェクトの一例)を検出する人位置検出部11と、映像信号が示す投影画像を投影する投影部(映像生成部400及び投影光学系500)と、投影画像の投影位置を変更するために投影部の向きを変更する駆動部110と、人位置検出部11で検出した人の動きに追従した位置に投影画像を投影させる第1の制御(制御ブロック10)に加えて、映像信号に応じて、投影画像の投影位置を変化させる第2の制御(制御ブロック20)を行うように駆動部110を制御する制御部210と、を備える。
[1-4. Effect, etc.]
As described above, the projector device 100 according to the present embodiment includes the human position detection unit 11 that detects a person (an example of a specific object) and the projection unit that projects the projection image indicated by the video signal (the video generation unit 400 and the projection). An optical system 500), a driving unit 110 that changes the direction of the projection unit in order to change the projection position of the projection image, and a first unit that projects the projection image at a position that follows the movement of the person detected by the human position detection unit 11. A control unit 210 that controls the drive unit 110 to perform a second control (control block 20) that changes the projection position of the projection image in accordance with the video signal in addition to the control (control block 10) of 1; Is provided.

上記の構成により、人追従の軌道に加えて、投影画像の軌道(投影する映像の内容に応じて駆動部110の軌道)を変化させることができるため、見ている人にとって印象深い映像を提示することができ、所望の場所、店舗等についての誘導、案内、宣伝を効果的に行うことができる。   With the above configuration, the trajectory of the projection image (the trajectory of the drive unit 110 according to the content of the projected image) can be changed in addition to the human tracking trajectory, so that an impressive video is presented to the viewer. It is possible to effectively guide, guide, and promote a desired place, store, etc.

(実施の形態2)
映像信号の内容に応じた演出制御の別の例を説明する。本実施形態では、投影画像の軌道に関して、図10に示すように、人追従による軌道90に加えて、演出のための所定の軌道(例えば、円状の軌道)91を追加する。さらに、映像信号の時間的な変化量(周波数)に応じて投影画像の投影位置の移動速度を制御する。
(Embodiment 2)
Another example of effect control according to the content of the video signal will be described. In the present embodiment, as shown in FIG. 10, a predetermined trajectory (for example, a circular trajectory) 91 for production is added to the trajectory of the projection image in addition to the trajectory 90 that follows the person. Further, the moving speed of the projection position of the projection image is controlled according to the temporal change amount (frequency) of the video signal.

本実施形態のプロジェクタ装置の構成は、図1〜図5を参照して説明した実施の形態1のものと基本的に同様であるが、制御部210の機能、動作が前述のものと異なる。   The configuration of the projector device of the present embodiment is basically the same as that of the first embodiment described with reference to FIGS. 1 to 5, but the function and operation of the control unit 210 are different from those described above.

図11を用いて、本実施形態における制御部210の具体的な動作を説明する。図11は、本実施形態における制御部210の機能的な構成を示した図である。人追従制御を行う制御ブロック10の動作は前述と同様である。以下、演出制御を行う制御ブロック20bの動作について説明する。   A specific operation of the control unit 210 in the present embodiment will be described with reference to FIG. FIG. 11 is a diagram illustrating a functional configuration of the control unit 210 in the present embodiment. The operation of the control block 10 that performs human tracking control is the same as described above. Hereinafter, the operation of the control block 20b that performs effect control will be described.

画像変化量検出部41は、映像信号が示すコンテンツ画像27から画像の時間的な変化量(周波数)を検出する。   The image change amount detection unit 41 detects a temporal change amount (frequency) of the image from the content image 27 indicated by the video signal.

投影速度値算出部43は、時間的な変化量に応じて、投影画像を投影するときの投影位置の移動速度の絶対値を決定する。具体的には、投影速度値算出部43は、時間的な変化量(周波数)が高いほど、投影画像の投影位置の移動速度の絶対値を大きい値に設定する。これにより、映像信号が示す映像がめまぐるしく変化する映像であれば、投影画像が速く動かされ、映像信号が示す映像がゆったり変化する映像であれば、投影画像が遅く動かされる。但し、映像の時間的な変化量が所定の閾値(上限値)を超える場合は、投影画像の投影位置の移動速度を上限値以下に制限する。これは、画像の時間的な変化量(周波数)が大きいと、画像を速く動かしたときに視認性が悪くなる場合があるからである。   The projection speed value calculation unit 43 determines the absolute value of the movement speed of the projection position when projecting the projection image according to the temporal change amount. Specifically, the projection speed value calculation unit 43 sets the absolute value of the movement speed of the projection position of the projection image to a larger value as the temporal change amount (frequency) is higher. Thereby, if the video indicated by the video signal changes rapidly, the projected image is moved fast, and if the video indicated by the video signal changes slowly, the projected image is moved slowly. However, when the temporal change amount of the video exceeds a predetermined threshold value (upper limit value), the movement speed of the projection position of the projection image is limited to the upper limit value or less. This is because if the temporal change amount (frequency) of the image is large, the visibility may deteriorate when the image is moved quickly.

演出用軌道情報45は、投影画像の演出用の軌道を示す情報であり、例えば、図10に示す軌道91を示す情報を含む。演出用軌道情報45はメモリ220に格納されている。   The effect trajectory information 45 is information indicating the effect trajectory of the projection image, and includes, for example, information indicating the trajectory 91 shown in FIG. The effect trajectory information 45 is stored in the memory 220.

速度算出部31は、人追従制御で求められた投影目標位置と、投影速度値算出部43で求められた速度の絶対値と、演出用軌道情報45とを取得し、これらの情報に基づいて、例えば、床面や壁面において投影画像を移動させる速度を算出する。   The speed calculation unit 31 acquires the projection target position obtained by the human follow-up control, the absolute value of the speed obtained by the projection speed value calculation unit 43, and the rendering trajectory information 45, and based on these information For example, the speed at which the projected image is moved on the floor or wall surface is calculated.

角加速度算出部33は、速度算出部31で算出した投影画像の速度から、駆動部110の駆動に関する角加速度を算出する。駆動指令算出部35は、角加速度算出部33で算出された角加速度に基づき、駆動部110を駆動するための駆動指令(電圧)を算出する。このようにして、制御ブロック20bにより、演出動作のための駆動部110の駆動に関する駆動指令を算出する。   The angular acceleration calculation unit 33 calculates an angular acceleration related to driving of the driving unit 110 from the speed of the projection image calculated by the speed calculation unit 31. The drive command calculation unit 35 calculates a drive command (voltage) for driving the drive unit 110 based on the angular acceleration calculated by the angular acceleration calculation unit 33. In this way, the drive command related to the drive of the drive unit 110 for the rendering operation is calculated by the control block 20b.

制御ブロック10により生成された駆動指令と制御ブロック20により生成された駆動指令とが加算部17で加算されて駆動部110へ出力され、駆動部110が制御される。   The drive command generated by the control block 10 and the drive command generated by the control block 20 are added by the adder 17 and output to the drive unit 110, and the drive unit 110 is controlled.

以上のように、本実施形態の制御によれば、投影画像の投影軌道について、人追従の軌道90に加えて演出用の軌道91を付加できる。また、本実施形態の制御によれば、画像の時間的な変化量を検出し、変化量が大きいときには、演出用の画像の動きの速度(絶対値)を低下させている。これにより、時間的にめまぐるしく変化する画像について、投影画像の動きによる投影位置の変化によって視認性が低下することを低減している。   As described above, according to the control of the present embodiment, it is possible to add the effect trajectory 91 to the projection trajectory of the projection image in addition to the human tracking trajectory 90. Further, according to the control of the present embodiment, the temporal change amount of the image is detected, and when the change amount is large, the speed (absolute value) of the effect image is reduced. As a result, for an image that changes rapidly in time, the decrease in visibility due to a change in the projection position due to the movement of the projection image is reduced.

なお、上記の例では、画像の時間的な変化量に基づき演出制御による画像の移動速度を設定したが、画像の時間的な変化量に代えて、又は、画像の時間的な変化量とともに、画像の空間周波数に基づいて演出制御による画像の速度を設定してもよい。例えば、空間周波数が高いほど、演出制御による画像の移動速度を大きく設定してもよい。   In the above example, the moving speed of the image by the effect control is set based on the temporal change amount of the image, but instead of the temporal change amount of the image or together with the temporal change amount of the image, You may set the speed of the image by effect control based on the spatial frequency of an image. For example, the higher the spatial frequency, the larger the moving speed of the image by effect control may be set.

上記の例では、演出用軌道として円状の軌道を例として説明したが、軌道の形状はそれに限定されない。例えば、8の字状でもよい。   In the above example, the circular trajectory has been described as an example of the effect trajectory, but the trajectory shape is not limited thereto. For example, the shape of figure 8 may be sufficient.

また、メモリ220には、演出用軌道情報45として複数種類の軌道情報が格納されており、投影画像の内容に応じて複数種類の軌道情報の中から1つの軌道情報を選択するようにしてもよい。例えば、画像の周波数、映像信号の輝度、オブジェクトの動き、オブジェクトの形状等に基づいて1つの軌道情報を選択し、人追従軌道に加算するようにしてもよい。   The memory 220 stores a plurality of types of trajectory information as the rendering trajectory information 45, and one trajectory information may be selected from the plurality of types of trajectory information according to the content of the projection image. Good. For example, one piece of trajectory information may be selected based on the frequency of the image, the luminance of the video signal, the movement of the object, the shape of the object, etc., and added to the human tracking trajectory.

(実施の形態3)
本実施形態のプロジェクタ装置100は、投影画像の追従対象である人が、所定の位置に近づいたときに、投影画像の追従対象である人に投影画像をより近づけて投影するようにする。これにより、投影画像を視認させたい人に対して、その投影画像に注意を向けさせることができ、その位置に関連する情報をより確実に伝達することができる。
(Embodiment 3)
The projector device 100 according to the present embodiment projects the projected image closer to the person who is the follow-up target of the projection image when the person who is the follow-up target of the projection image approaches a predetermined position. Thereby, a person who wants to visually recognize the projected image can pay attention to the projected image, and information related to the position can be more reliably transmitted.

本実施形態のプロジェクタ装置の構成は、図1〜図5を参照して説明した実施の形態1、2のものと基本的に同様であるが、制御部210の機能、動作が前述のものと異なる。   The configuration of the projector device of the present embodiment is basically the same as that of the first and second embodiments described with reference to FIGS. 1 to 5, but the function and operation of the control unit 210 are the same as those described above. Different.

図12を用いて、本実施形態における制御部210の具体的な動作を説明する。図12は、本実施形態における制御部210の機能的な構成を示した図である。人追従制御を行う制御ブロック10の動作は前述と同様である。以下、演出制御を行う制御ブロック20cの動作について説明する。   A specific operation of the control unit 210 in the present embodiment will be described with reference to FIG. FIG. 12 is a diagram illustrating a functional configuration of the control unit 210 in the present embodiment. The operation of the control block 10 that performs human tracking control is the same as described above. Hereinafter, the operation of the control block 20c that performs effect control will be described.

コンテンツ画像27は、店舗毎にその店舗の宣伝用等に作成された画像を含む。コンテンツ画像27は、複数の店舗に対する宣伝用等の画像を含み、店舗毎にその店舗の画像が切替えながら表示されるように構成されている。   The content image 27 includes an image created for advertising of the store for each store. The content image 27 includes advertisement images for a plurality of stores, and is configured to be displayed while switching the store image for each store.

対応店舗位置情報55は、コンテンツ画像に含まれる各店舗の位置情報(例えば、各店舗の店先の位置情報)を格納している。対応店舗位置情報55はメモリ220に格納されている。   The corresponding store position information 55 stores position information of each store included in the content image (for example, position information of the storefront of each store). The corresponding store location information 55 is stored in the memory 220.

位置・速度取得部23は距離検出部230から距離情報を取得する。また、位置・速度取得部23は、駆動部110から、駆動部110の位置(パン・チルト方向の位置)及び駆動速度に関する情報を取得する。位置・速度取得部23は、距離検出部230及び駆動部110からそれぞれ取得した情報に基づき、投影画像の現在の投影位置及び投影画像の移動速度を算出する。   The position / speed acquisition unit 23 acquires distance information from the distance detection unit 230. Further, the position / speed acquisition unit 23 acquires information on the position of the driving unit 110 (position in the pan / tilt direction) and the driving speed from the driving unit 110. The position / speed acquisition unit 23 calculates the current projection position of the projection image and the movement speed of the projection image based on the information acquired from the distance detection unit 230 and the driving unit 110, respectively.

距離算出部51は、投影画像の現在の投影位置(換言すれば、投影画像の追従対象である人の位置)と、コンテンツ画像27に対応した店舗の位置との間の距離を算出する。具体的には、距離算出部51は、コンテンツ画像27から対応する店舗を特定し、特定した店舗の位置を、対応店舗位置情報55を参照して求める。距離算出部51は、投影画像の現在の投影位置と、特定した店舗の位置との間の距離を算出する。   The distance calculation unit 51 calculates the distance between the current projection position of the projection image (in other words, the position of the person who is the tracking target of the projection image) and the position of the store corresponding to the content image 27. Specifically, the distance calculation unit 51 specifies a corresponding store from the content image 27 and obtains the position of the specified store with reference to the corresponding store position information 55. The distance calculation unit 51 calculates the distance between the current projection position of the projection image and the specified shop position.

修正距離設定部53は、距離算出部51で算出された投影画像の現在の投影位置と、特定した店舗の位置との間の距離に基づき、投影画像の現在の投影位置が、特定した店舗から所定範囲内にあるか否かを判断する。ここで、所定範囲とは、人が店舗に近づいたと判断されるような範囲であり、例えば、特定した店舗の位置から半径2m〜3mの範囲内に設定される。   The correction distance setting unit 53 determines the current projection position of the projection image from the specified store based on the distance between the current projection position of the projection image calculated by the distance calculation unit 51 and the specified store position. It is determined whether it is within a predetermined range. Here, the predetermined range is a range in which it is determined that a person has approached the store, and is set, for example, within a radius of 2 m to 3 m from the position of the specified store.

投影画像の現在の投影位置が、特定した店舗から所定範囲内にないと判断したときは、修正距離設定部53は、投影画像を追従させる人と投影画像の間の距離の修正値をゼロに設定する。一方、投影画像の現在の投影位置が、特定した店舗から所定範囲内にあると判断したときは、修正距離設定部53は、投影画像を追従させる人と投影画像の間の距離が、人追従制御において設定されている所定距離(例えば1m)よりも短くなるように距離の修正値を設定する。そして、修正距離設定部53は、距離の修正値に基づき投影画像の修正位置(人の位置を基準にした相対的な位置)を設定する。すなわち、人追従制御において設定されている所定距離よりも人に近い位置に投影画像が投影されるように、投影画像の修正位置(相対的な位置)が設定され、速度算出部31に出力される。   When it is determined that the current projection position of the projection image is not within the predetermined range from the specified store, the correction distance setting unit 53 sets the correction value of the distance between the person who follows the projection image and the projection image to zero Set. On the other hand, when it is determined that the current projection position of the projection image is within a predetermined range from the specified store, the correction distance setting unit 53 determines that the distance between the person who follows the projection image and the projection image is human tracking. The distance correction value is set so as to be shorter than a predetermined distance (for example, 1 m) set in the control. Then, the correction distance setting unit 53 sets the correction position of the projection image (relative position based on the position of the person) based on the correction value of the distance. That is, the correction position (relative position) of the projection image is set so that the projection image is projected at a position closer to the person than the predetermined distance set in the human follow-up control, and is output to the speed calculation unit 31. The

以後、速度算出部31,角加速度算出部33及び駆動指令算出部35により演出制御による駆動指令が求められる。加算部17において人追従制御による駆動指令と、演出制御による駆動指令とが加算され、駆動部110に出力される。   Thereafter, the speed calculation unit 31, the angular acceleration calculation unit 33, and the drive command calculation unit 35 obtain a drive command based on effect control. The adder 17 adds the drive command based on the human follow-up control and the drive command based on the effect control, and outputs the result to the drive unit 110.

以上の制御により、投影するコンテンツ画像に対応した店舗の近くに、情報を提示したい人が移動してきたときに、投影画像と情報を提示したい人との間の距離を縮めて投影することができる。投影画像が情報を提示したい人により近づいて投影されることで、情報を提示したい人の注意がその投影画像に向きやすくなり、店舗の存在の報知、店舗への誘導、宣伝等を効果的に行うことが可能となる。   By the above control, when a person who wants to present information moves near a store corresponding to the content image to be projected, the distance between the projected image and the person who wants to present information can be reduced and projected. . The projected image is projected closer to the person who wants to present information, so that the attention of the person who wants to present information is easily directed to the projected image, and it is effective to notify the existence of the store, guide to the store, advertisement, etc. Can be done.

(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1〜3を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置換、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1〜3で説明した各構成要素を組合せて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
(1)本開示におけるプロジェクタ装置100は投影装置の一例である。本開示における人位置検出部11は特定のオブジェクトを検出する検出部の一例である。本開示における映像生成部400と投影光学系500は投影部の一例である。本開示における駆動部110は、投影部の向きを変更する駆動部の一例である。本開示における制御部210は、駆動部を制御する制御部の一例である。
(2)上記の実施の形態では、演出制御における投影画像の投影位置の移動速度を、画像中の主オブジェクト(すなわち背景画像)の速度や画像の周波数に基づいて決定したが、画像の他の属性に基づいて決定してもよい。例えば、映像信号の輝度に基づき、演出制御における投影画像の投影位置の移動速度を制御してもよい。「明るいシーン」や「暗いシーン」など映像信号の輝度が高いほど、演出制御による投影画像の投影位置の移動速度を速くしてもよい。或いは、映像信号の輝度の変化が大きく、かつ、投影映像の速度が速いと視認性が下がるため、映像信号の輝度の変化が大きいほど、演出制御による投影画像の投影位置の移動速度を遅くしてもよい。
(3)実施の形態1、2では、画像中のオブジェクトの速度または時間変化量(周波数)が高いほど、演出制御による投影画像の投影位置の移動速度を速い値に設定した。しかし、視認性を確保する点を重視するのであれば、画像中のオブジェクトの速度または時間変化量(周波数)が高いほど、演出制御による画像の投影映像の投影位置の移動速度を遅い値に設定するようにしてもよい。その理由は、画像中の速度と投影画像の移動速度が加算されて、必要以上な速度になり視認性が下がるのを回避するためである。
(4)上記の実施形態では、特定のオブジェクトとして人を検出し、人の動きに追従して所定の画像(コンテンツ)を表示させたが、特定のオブジェクトは人に限定されない。例えば、自動車や動物等の人以外の動くものであってもよい。
(5)上記の実施形態では、特定のオブジェクトの検出のために距離情報を用いたが、特定のオブジェクトの検出手段はこれに限定されない。距離検出部230の代わりに、RGB光による画像を撮像可能な撮像装置を用いても良い。撮像装置により撮像された画像から特定のオブジェクトを検出し、さらに、特定オブジェクトの位置、速度等を検出してもよい。
(6)上記の実施形態1〜3にそれぞれ開示した技術は適宜組合せることが可能である。
(Other embodiments)
As described above, Embodiments 1 to 3 have been described as examples of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can also be applied to an embodiment in which changes, substitutions, additions, omissions, and the like are appropriately performed. Moreover, it is also possible to combine each component demonstrated in the said Embodiment 1-3 and it can also be set as new embodiment. Therefore, other embodiments will be exemplified below.
(1) The projector device 100 according to the present disclosure is an example of a projection device. The human position detection unit 11 in the present disclosure is an example of a detection unit that detects a specific object. The image generation unit 400 and the projection optical system 500 in the present disclosure are examples of a projection unit. The drive unit 110 in the present disclosure is an example of a drive unit that changes the orientation of the projection unit. The control unit 210 in the present disclosure is an example of a control unit that controls the drive unit.
(2) In the above embodiment, the movement speed of the projection position of the projection image in the effect control is determined based on the speed of the main object (that is, the background image) in the image and the frequency of the image. You may determine based on an attribute. For example, the movement speed of the projection position of the projection image in effect control may be controlled based on the luminance of the video signal. As the brightness of the video signal such as “bright scene” or “dark scene” increases, the movement speed of the projection position of the projected image by the effect control may be increased. Alternatively, if the change in the luminance of the video signal is large and the speed of the projected video is high, the visibility decreases. Therefore, the larger the change in the luminance of the video signal, the slower the moving speed of the projection position of the projected image by the effect control. May be.
(3) In Embodiments 1 and 2, the moving speed of the projection position of the projected image by the effect control is set to a faster value as the speed of the object in the image or the amount of time change (frequency) is higher. However, if importance is placed on ensuring visibility, the moving speed of the projected position of the projected image of the image by effect control is set to a slower value as the speed of the object in the image or the amount of time change (frequency) is higher. You may make it do. This is because the speed in the image and the moving speed of the projected image are added to avoid an unnecessary speed and a decrease in visibility.
(4) In the above embodiment, a person is detected as a specific object and a predetermined image (content) is displayed following the movement of the person. However, the specific object is not limited to a person. For example, a moving object other than a person such as an automobile or an animal may be used.
(5) In the above embodiment, distance information is used to detect a specific object, but the specific object detection means is not limited to this. Instead of the distance detection unit 230, an imaging device that can capture an image using RGB light may be used. A specific object may be detected from an image captured by the imaging device, and the position, speed, and the like of the specific object may be detected.
(6) The techniques disclosed in the first to third embodiments can be appropriately combined.

以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。   As described above, the embodiments have been described as examples of the technology in the present disclosure. For this purpose, the accompanying drawings and detailed description are provided.

したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。   Accordingly, among the components described in the accompanying drawings and the detailed description, not only the components essential for solving the problem, but also the components not essential for solving the problem in order to illustrate the above technique. May also be included. Therefore, it should not be immediately recognized that these non-essential components are essential as those non-essential components are described in the accompanying drawings and detailed description.

また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置換、付加、省略などを行うことができる。   Moreover, since the above-mentioned embodiment is for demonstrating the technique in this indication, a various change, substitution, addition, omission, etc. can be performed in a claim or its equivalent range.

本開示における投影装置は、投影面へと映像を投影する種々の用途に適用可能である。   The projection device according to the present disclosure can be applied to various uses for projecting an image onto a projection surface.

6 人
8 投影画像
10,20,20b,20c 制御ブロック
11 人位置検出部
13 投影目標位置算出部
15 駆動指令算出部
17 加算部
23 位置・速度取得部
25 投影サイズ算出部
27 コンテンツ画像
29 背景画像速度検出部
30 背景画像速度算出部
31 速度算出部
33 角加速度算出部
35 駆動指令算出部
37 演出用軌道情報
39 投影範囲判定部
41 画像変化量検出部
43 投影速度値算出部
45 演出用軌道情報
51 距離算出部
53 修正距離設定部
55 対応店舗位置情報
90,91 軌道
100 プロジェクタ装置
100b プロジェクタ本体部
101 開口部
110 駆動部
120 筐体
130 配線ダクト
140 壁
141,151 映像
150 床面
200 駆動制御部
210 制御部
220 メモリ
230 距離検出部
231 赤外光源部
232 赤外受光部
233 センサ制御部
300 光源部
310 半導体レーザー
320 導光光学系
330 ダイクロイックミラー
340 λ/4板
350 レンズ
360 蛍光体ホイール
370 導光光学系
400 映像生成部
410 導光光学系
420 DMD
500 投影光学系
6 person 8 projected image 10, 20, 20b, 20c control block 11 person position detecting unit 13 projection target position calculating unit 15 drive command calculating unit 17 adding unit 23 position / velocity acquiring unit 25 projection size calculating unit 27 content image 29 background image Speed detection unit 30 Background image speed calculation unit 31 Speed calculation unit 33 Angular acceleration calculation unit 35 Drive command calculation unit 37 Effect trajectory information 39 Projection range determination unit 41 Image change amount detection unit 43 Projection speed value calculation unit 45 Effect trajectory information 51 Distance calculation unit 53 Correction distance setting unit 55 Corresponding store position information 90, 91 Track 100 Projector device 100b Projector main body unit 101 Opening unit 110 Drive unit 120 Housing 130 Wiring duct 140 Wall 141, 151 Video 150 Floor surface 200 Drive control unit 210 Control unit 220 Memory 230 Distance detection Unit 231 infrared light source unit 232 infrared light receiving unit 233 sensor control unit 300 light source unit 310 semiconductor laser 320 light guide optical system 330 dichroic mirror 340 λ / 4 plate 350 lens 360 phosphor wheel 370 light guide optical system 400 image generation unit 410 Light guiding optical system 420 DMD
500 Projection optical system

Claims (1)

特定のオブジェクトを検出する検出部と、
映像信号が示す投影画像を投影する投影部と、
投影画像の投影位置を変更するために前記投影部の向きを変更する駆動部と、
前記検出部で検出した特定のオブジェクトの動きに追従した位置に前記投影画像を投影させる第1の制御に加えて、前記映像信号に応じて前記投影画像の投影位置を変化させる第2の制御を行うように前記駆動部を制御する制御部と、を備え
前記制御部は、前記投影画像が、前記映像信号が示すコンテンツに対応した位置から所定範囲内に投影されている場合、前記所定範囲内に投影されていない場合と比べて、前記特定のオブジェクトにより近い位置に前記投影画像を投影するように前記駆動部を制御する、投影装置。
A detection unit for detecting a specific object;
A projection unit that projects a projection image indicated by the video signal;
A drive unit that changes the orientation of the projection unit in order to change the projection position of the projection image;
In addition to the first control for projecting the projection image at a position following the movement of the specific object detected by the detection unit, the second control for changing the projection position of the projection image according to the video signal. A control unit for controlling the drive unit to perform ,
When the projected image is projected within a predetermined range from a position corresponding to the content indicated by the video signal, the control unit uses the specific object as compared with a case where the projected image is not projected within the predetermined range. A projection device that controls the drive unit to project the projection image at a close position .
JP2015210321A 2014-12-25 2015-10-27 Projection device Expired - Fee Related JP6167308B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/948,417 US10447979B2 (en) 2014-12-25 2015-11-23 Projection device for detecting and recognizing moving objects

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014263633 2014-12-25
JP2014263633 2014-12-25

Publications (2)

Publication Number Publication Date
JP2016123074A JP2016123074A (en) 2016-07-07
JP6167308B2 true JP6167308B2 (en) 2017-07-26

Family

ID=56329223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015210321A Expired - Fee Related JP6167308B2 (en) 2014-12-25 2015-10-27 Projection device

Country Status (1)

Country Link
JP (1) JP6167308B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021122078A (en) * 2018-05-01 2021-08-26 ソニーグループ株式会社 Information processing device, information processing method, and recording medium
WO2020121439A1 (en) * 2018-12-12 2020-06-18 三菱電機株式会社 Guidance assistance control device and guidance assistance system
WO2021079402A1 (en) * 2019-10-21 2021-04-29 日本電信電話株式会社 Video processing device, display system, video processing method, and program
JP7137609B2 (en) * 2020-12-11 2022-09-14 Idec株式会社 Illuminated display device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3594051B2 (en) * 1995-11-22 2004-11-24 東芝ライテック株式会社 Moving projector system
JP2011118253A (en) * 2009-12-07 2011-06-16 Sharp Corp Video projection method, video projector, projection base and video projection system
JP5447115B2 (en) * 2010-04-08 2014-03-19 セイコーエプソン株式会社 Image forming apparatus
JP5643543B2 (en) * 2010-05-20 2014-12-17 キヤノン株式会社 Information presentation system, control method therefor, and program
JP5834464B2 (en) * 2011-04-22 2015-12-24 国立大学法人佐賀大学 Guidance instruction apparatus, guidance instruction method and program thereof

Also Published As

Publication number Publication date
JP2016123074A (en) 2016-07-07

Similar Documents

Publication Publication Date Title
US10122976B2 (en) Projection device for controlling a position of an image projected on a projection surface
US10999565B2 (en) Projecting device
US10447979B2 (en) Projection device for detecting and recognizing moving objects
JP6186599B1 (en) Projection device
JP6101944B2 (en) Projection device
US10194125B2 (en) Projection apparatus
JP6613458B2 (en) Projection device
JP6167308B2 (en) Projection device
US20210302753A1 (en) Control apparatus, control method, and program
US9690427B2 (en) User interface device, and projector device
JP6191019B2 (en) Projection apparatus and projection method
US9841847B2 (en) Projection device and projection method, for projecting a first image based on a position of a moving object and a second image without depending on the position
JP2017163532A (en) Projection apparatus
WO2017154609A1 (en) Information processing device, information processing method, and program
JP6307706B2 (en) Projection device
JP2015045751A (en) Projection device
JP6182739B2 (en) Projection apparatus and projection method
US10559087B2 (en) Information processing apparatus and method of controlling the same
US20160191878A1 (en) Image projection device
JP2016071864A (en) Projector apparatus
JP6209746B2 (en) Image projection device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170522

R151 Written notification of patent or utility model registration

Ref document number: 6167308

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees