JP2017158037A - Projection device and projection system - Google Patents

Projection device and projection system Download PDF

Info

Publication number
JP2017158037A
JP2017158037A JP2016039578A JP2016039578A JP2017158037A JP 2017158037 A JP2017158037 A JP 2017158037A JP 2016039578 A JP2016039578 A JP 2016039578A JP 2016039578 A JP2016039578 A JP 2016039578A JP 2017158037 A JP2017158037 A JP 2017158037A
Authority
JP
Japan
Prior art keywords
projection
light
image
range
scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016039578A
Other languages
Japanese (ja)
Inventor
新 勇一
Yuichi Arata
勇一 新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2016039578A priority Critical patent/JP2017158037A/en
Publication of JP2017158037A publication Critical patent/JP2017158037A/en
Pending legal-status Critical Current

Links

Landscapes

  • Mechanical Optical Scanning Systems (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Illuminated Signs And Luminous Advertising (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily achieve reduction in size and weight of a projection device having a function of a laser radar and a function of video projection by suppressing the number of components, and to reduce a difference between an emission point of the projection device and an emission point of the laser radar, and to project a desired image to an object whose three-dimensional distance information has been detected by the laser radar with real time property of detection and projection.SOLUTION: A projection device shares: a scanning optical system (501) for scanning measurement light (505) of a laser radar; and a scanning optical system (501) for scanning image light (507) of a projection image. The projection device comprises a projection data arithmetic operation processing part for, on the basis of three-dimensional distance information of a projection range (509) of a surface of a peripheral object (504) detected by a function of the laser radar, performing deforming arithmetic operation of original image data for projection to be projected to the projection range into actual projection image data to be actually projected. The projection device projects an image to the projection range by driving a light source (508) of image light on the basis of the actual projection image data.SELECTED DRAWING: Figure 5

Description

本発明は、投影装置及び投影システムに関する。   The present invention relates to a projection apparatus and a projection system.

任意の対象物の表面を投影面として画像を投影する場合、また移動している物体の表面に画像を投影しようとする場合、また、ドローンなどの移動体に搭載されることによって投影装置が移動している場合、原画像を正射影したような所望の画像が投影されない、投影範囲から対象物が移動してしまうなどの問題がある。最近注目されているプロジェクションマッピングは、精密な位置決め、測定が必要であるが、コンサートや屋外イベントなどのアミューズメント用途では、事前に正確な測定をするのが困難・煩雑なことがある。仮に建物や会場の図面があっても現実と違う可能性があり、このような状況で投影すると、「見た目」が不自然になり、好ましくない。 またコンサートやライブなどのイベントなどではリアルタイム性が要求されることがあり、このような場合は移動する対象に投影することがあり、事前に位置決め・同期プログラミング、リハーサルを行っておく必要があるが、そのような精密な設定を行うことなく、しかしリアルタイムで正確な投影を行いたいという要望がある。
従来、投影範囲の投影装置からの距離(3次元形状)を検出し、検出した3次元距離情報に基づき投影画像データを補正して、補正された投影画像データに基づき当該投影範囲に当該投影装置から画像を投影することが提案されている。
特許文献1に記載の発明にあっては、投影の光軸に平行でない平面や、平面ではない投影面(折れ曲がりがある面)に画像を投影する際、その投影面の3次元形状をレーザーレーダーなどにより検出して、最適な画像に補正した上で投影する。
レーザーレーダーでXY方向に2次元走査することによって、各XY座標に距離情報Zが付加された3次元距離情報が取得可能である。
When projecting an image using the surface of any object as the projection surface, or when trying to project an image onto the surface of a moving object, the projector moves when mounted on a moving object such as a drone. In such a case, there is a problem that a desired image such as an orthogonal projection of the original image is not projected, and the object moves from the projection range. Projection mapping, which has recently attracted attention, requires precise positioning and measurement, but it may be difficult and complicated to make accurate measurements in advance for amusement applications such as concerts and outdoor events. Even if there is a drawing of the building or the venue, there is a possibility that it is different from the reality, and if it is projected in such a situation, the “look” becomes unnatural, which is not preferable. Also, in real-time events such as concerts and live performances, real-time performance may be required, and in such cases, it may be projected onto a moving object, and positioning / synchronization programming and rehearsal must be performed in advance. There is a desire to perform accurate projection in real time without performing such precise settings.
Conventionally, the distance (three-dimensional shape) of the projection range from the projection device is detected, the projection image data is corrected based on the detected three-dimensional distance information, and the projection device is added to the projection range based on the corrected projection image data. It has been proposed to project an image.
In the invention described in Patent Document 1, when an image is projected onto a plane that is not parallel to the optical axis of projection or a projection plane that is not a plane (a plane with bending), the three-dimensional shape of the projection plane is converted into a laser radar. Detected by the above, and after correcting to the optimal image, it projects.
By performing two-dimensional scanning in the XY direction with a laser radar, three-dimensional distance information in which distance information Z is added to each XY coordinate can be acquired.

特開2015−139087号公報Japanese Patent Laying-Open No. 2015-139087

しかしながら、投影装置のほかにレーザーレーダーを設けると、大型化、重量増が生じて設置や、ドローンなどへの搭載に難が生じる。
レーザーレーダーは、レーザーレーダーからの距離を検出するものであり、投影装置の出射点から見える形状がレーザーレーダーの出射点からは見えない形状もあるから、距離換算をしても、投影装置の出射点から見た3次元距離情報を完全に得ることはでいないという問題がある。すなわち、投影装置の出射点と、レーザーレーダーの出射点との差を小さくすべきという課題がある。
レーザーレーダーで検出した後、レーザーレーダーが設置されていた場所に投影装置を設置して投影を始めるとすると、投影装置の出射点とレーザーレーダーの出射点との差を解消することはできるが、検出から投影までに時間を要し、移動する物体への投影や、投影装置が移動体に搭載されている場合には現実的でないし、実際には設置誤差がその都度バラバラに生じるから、投影画像に影響し得るし、正確に設置しようとすると設置作業が煩雑である。
レーザープロジェクション機器としては、MEMSを用いた投影機器が普及しているが、広角の描画、高速描き換えには難点がある。
レーザーレーダーは広範囲の3次元形状を把握できる機器であり、様々な活用が検討さ
れており、特にポリゴンミラーを使用してスキャンするタイプのものは、広角及び高速スキャンが可能である。
一方で、レーザーレーダーは赤外光などの不可視光源を用いるため、どの範囲が測定されているか、目視では確認できないという問題がある。前述のレーザーレーダーで検出した後、レーザーレーダーが設置されていた場所に投影装置を設置して投影を始める場合は、検出と投影のリアルタイム性がなく、レーザーレーダーで検出範囲の表示を投影装置によって行うことはできない。
また、レーザーレーダーの受光器は、可視光の入射で不具合を生じるという問題もある。
However, when a laser radar is provided in addition to the projection device, the size and weight increase occur, which makes it difficult to install and mount on a drone.
Laser radar detects the distance from the laser radar, and some shapes that are visible from the exit point of the projection device are not visible from the exit point of the laser radar. There is a problem that three-dimensional distance information viewed from a point cannot be obtained completely. That is, there is a problem that the difference between the exit point of the projection device and the exit point of the laser radar should be reduced.
After detecting with the laser radar, if the projection device is installed at the place where the laser radar was installed and projection starts, the difference between the emission point of the projection device and the emission point of the laser radar can be eliminated, It takes time from detection to projection, and is not realistic when projected onto a moving object or when a projection device is mounted on a moving object. The image can be affected, and the installation work is complicated if it is to be installed accurately.
As laser projection equipment, projection equipment using MEMS is widespread, but there are difficulties in wide-angle drawing and high-speed drawing.
Laser radar is a device capable of grasping a wide range of three-dimensional shapes, and various uses are being studied. Particularly, a type that scans using a polygon mirror can perform wide-angle and high-speed scanning.
On the other hand, since laser radar uses an invisible light source such as infrared light, there is a problem that it is impossible to visually confirm which range is being measured. After detecting with the aforementioned laser radar, when installing a projection device at the place where the laser radar was installed and starting projection, there is no real-time detection and projection, and the display of the detection range with the laser radar is not possible. Can't do it.
In addition, the laser radar receiver also has a problem in that it causes a problem with the incidence of visible light.

本発明は以上の従来技術における問題に鑑みてなされたものであって、レーザーレーダーの機能及び映像投影の機能を備えた投影装置において、部品点数を抑えて小型軽量化しやすく、投影装置の出射点とレーザーレーダーの出射点との差を小さくすること、さらにはレーザーレーダーにより3次元距離情報を検出した対象物に所望の画像を投影することを、検出と投影のリアルタイム性をもって実現することを課題とする。   The present invention has been made in view of the above-described problems in the prior art, and in a projection apparatus having a laser radar function and a video projection function, the number of components can be reduced and the size and weight can be easily reduced. To realize the real-time detection and projection of the desired image by reducing the difference between the laser radar emission point and the laser radar, and further projecting the desired image on the object whose 3D distance information is detected by the laser radar And

以上の課題を解決するための請求項1記載の発明は、レーザーレーダーの機能及び映像投影の機能を備えた投影装置であって、レーザーレーダーの測定光を走査する走査光学系と、投影画像の画像光を走査する走査光学系とが共有されてなる投影装置である。   The invention described in claim 1 for solving the above-described problem is a projection apparatus having a laser radar function and a video projection function, a scanning optical system that scans the measurement light of the laser radar, and a projection image This is a projection apparatus that is shared with a scanning optical system that scans image light.

請求項2記載の発明は、前記画像光の光源は、前記走査光学系による主走査方向に交わる副走査方向の画素列となる複数の画素光を配光可能である請求項1に記載の投影装置である。   According to a second aspect of the present invention, the light source of the image light is capable of distributing a plurality of pixel lights that form pixel rows in a sub-scanning direction intersecting with a main scanning direction by the scanning optical system. Device.

請求項3記載の発明は、前記画像光の光源は、前記走査光学系による主走査方向に交わる副走査方向の画素列となる複数の画素光を配光可能とするための、光出射方向を音響光学効果により変化させる音響光学素子を備えて構成されている請求項1に記載の投影装置である。   According to a third aspect of the present invention, the light source of the image light has a light emitting direction for enabling light distribution of a plurality of pixel lights that form pixel rows in the sub-scanning direction intersecting with the main scanning direction by the scanning optical system. The projection apparatus according to claim 1, comprising an acoustooptic element that is changed by an acoustooptic effect.

請求項4記載の発明は、前記走査光学系は、反射面を変角駆動させる機構を有し、当該反射面により前記測定光及び前記画像光を反射して走査することを特徴とする請求項1から請求項3のうちいずれか一に記載の投影装置である。   The invention according to claim 4 is characterized in that the scanning optical system has a mechanism for driving the reflection surface to change the angle, and the measurement light and the image light are reflected and scanned by the reflection surface. It is a projector as described in any one of Claims 1-3.

請求項5記載の発明は、前記走査光学系は、前記測定光の出射時及び受光時並びに前記画像光の出射時に2回反射する1対の反射面を有する請求項4に記載の投影装置である。   The invention according to claim 5 is the projection apparatus according to claim 4, wherein the scanning optical system has a pair of reflecting surfaces that are reflected twice when the measurement light is emitted and received and when the image light is emitted. is there.

請求項6記載の発明は、レーザーレーダーの機能により検出した周辺対象物の表面の投影範囲の3次元距離情報に基づき、当該投影範囲に投影する投影用の原画像データを実際に投影する実投影画像データに変形演算する投影データ演算処理部を備え、
前記実投影画像データに基づき前記画像光の光源を駆動して前記投影範囲に画像を投影する請求項1から請求項5のうちいずれか一に記載の投影装置である。
The invention according to claim 6 is based on the three-dimensional distance information of the projection range of the surface of the peripheral object detected by the function of the laser radar, and the actual projection for actually projecting the original image data for projection to be projected on the projection range Provided with a projection data computation processing unit that transforms image data
6. The projection apparatus according to claim 1, wherein an image is projected onto the projection range by driving a light source of the image light based on the actual projection image data. 7.

請求項7記載の発明は、前記投影データ演算処理部は、前記投影範囲の3次元距離の変化による射影変化が縮小するように前記変形演算を行う請求項6に記載の投影装置である。   The invention according to claim 7 is the projection apparatus according to claim 6, wherein the projection data calculation processing unit performs the deformation calculation so that a change in projection due to a change in a three-dimensional distance of the projection range is reduced.

請求項8記載の発明は、レーザーレーダーの機能により検出した3次元距離情報に基づき人間を認識する認識部と、
前記認識部により認識された人間の範囲と前記投影範囲との重なる範囲に、投影禁止範囲
を設けて前記投影データ演算処理部に指令する制御部とを備え、
前記投影データ演算処理部は、前記投影禁止範囲にある画素を非発光画素とする請求項6又は請求項7に記載の投影装置である。
The invention according to claim 8 is a recognition unit for recognizing a human based on three-dimensional distance information detected by a function of a laser radar;
A control unit for instructing the projection data calculation processing unit by providing a projection prohibition range in a range where the human range recognized by the recognition unit overlaps the projection range;
The projection device according to claim 6, wherein the projection data calculation processing unit sets a pixel in the projection prohibited range as a non-light emitting pixel.

請求項9記載の発明は、レーザーレーダーの機能により検出した3次元距離情報に基づき人間を認識する認識部を備え、
前記投影データ演算処理部は、前記認識部により認識された人間に観察点を設定して、当該観察点から投影画像を観察した際の観察画像が所望の画像となるように、原画像データを実際に投影する実投影画像データに変形演算する請求項6から請求項8のうちいずれか一に記載の投影装置である。
The invention according to claim 9 includes a recognition unit for recognizing a person based on the three-dimensional distance information detected by the function of the laser radar.
The projection data calculation processing unit sets the observation point for the person recognized by the recognition unit, and converts the original image data so that the observation image when the projection image is observed from the observation point becomes a desired image. The projection apparatus according to claim 6, wherein a deformation calculation is performed on actual projection image data to be actually projected.

請求項10記載の発明は、前記画像光の光源を可視光光源とする請求項1から請求項9のうちいずれか一に記載の投影装置である。   A tenth aspect of the present invention is the projection apparatus according to any one of the first to ninth aspects, wherein the image light source is a visible light source.

請求項11記載の発明は、前記レーザーレーダーの機能を実現する受光素子の前に可視光カットフィルターが配置されている請求項1から請求項10のうちいずれか一に記載の投影装置である。   The invention according to claim 11 is the projection apparatus according to any one of claims 1 to 10, wherein a visible light cut filter is disposed in front of a light receiving element that realizes the function of the laser radar.

請求項12記載の発明は、前記測定光の光軸と前記画像光の光軸とが平行でない角度を有する請求項1から請求項11のうちいずれか一に記載の投影装置である。   A twelfth aspect of the present invention is the projection apparatus according to any one of the first to eleventh aspects, wherein the optical axis of the measurement light and the optical axis of the image light are not parallel to each other.

請求項13記載の発明は、前記画像光の走査範囲が前記測定光の走査範囲に含まれる請求項12に記載の投影装置である。   A thirteenth aspect of the present invention is the projection apparatus according to the twelfth aspect, wherein the scanning range of the image light is included in the scanning range of the measurement light.

請求項14記載の発明は、前記画像光の走査範囲と前記測定光の走査範囲とが共有範囲を有さない請求項12に記載の投影装置である。   The invention according to claim 14 is the projection apparatus according to claim 12, wherein the scanning range of the image light and the scanning range of the measurement light do not have a common range.

請求項15記載の発明は、前記測定光の受光検出期間と前記画像光の投光期間とが互いに時間的に重ならないように1フレーム中に時分割して前記測定光の受光検出及び前記画像光の投光を制御する請求項1から請求項14のうちいずれか一に記載の投影装置である。   According to a fifteenth aspect of the present invention, the measurement light reception detection and the image are time-divided into one frame so that the measurement light reception detection period and the image light projection period do not overlap each other in time. The projection apparatus according to claim 1, wherein the projection of light is controlled.

請求項16記載の発明は、前記測定光の光源及び前記画像光の光源を冷却する冷却装置を備えた請求項1から請求項15のうちいずれか一に記載の投影装置である。   A sixteenth aspect of the invention is the projection apparatus according to any one of the first to fifteenth aspects, further comprising a cooling device that cools the light source of the measurement light and the light source of the image light.

請求項17記載の発明は、請求項1から請求項5のうちいずれか一に記載の投影装置を複数備えるとともに、そのうち一の投影装置のレーザーレーダーの機能により検出した周辺対象物の表面の投影範囲の3次元距離情報に基づき、当該投影範囲に投影する投影用の原画像データを実際に投影する実投影画像データに変形演算する投影データ演算処理部を備え、他の投影装置が前記実投影画像データに基づき自己の前記画像光の光源を駆動して前記投影範囲に画像を投影する投影システムである。   According to a seventeenth aspect of the present invention, there are provided a plurality of projection apparatuses according to any one of the first to fifth aspects, and the projection of the surface of a peripheral object detected by the function of the laser radar of one of the projection apparatuses. A projection data calculation processing unit configured to perform transformation calculation on the projection original image data to be projected onto the projection range into actual projection image data based on the three-dimensional distance information of the range; The projection system projects an image onto the projection range by driving a light source of the image light based on image data.

本発明によれば、レーザーレーダーの測定光を走査する走査光学系と、投影画像の画像光を走査する走査光学系とが共有されてなるので、レーザーレーダーの機能及び映像投影の機能を備えた投影装置において、部品点数を抑えて小型軽量化しやすく、投影装置の出射点とレーザーレーダーの出射点との差を小さくすることができる。
さらにはレーザーレーダーの機能により検出した周辺対象物の表面の投影範囲の3次元距離情報に基づき、当該投影範囲に投影する投影用の原画像データを実際に投影する実投影画像データに変形演算する投影データ演算処理部を備えることにより、レーザーレーダ
ーにより3次元距離情報を検出した対象物に所望の画像の投影を実現することができる。
また、測定光の受光検出期間と画像光の投光期間とを1フレーム中に時分割して分配することで、検出と投影のリアルタイム性を高度に実現することができる。
According to the present invention, since the scanning optical system that scans the measurement light of the laser radar and the scanning optical system that scans the image light of the projection image are shared, the laser radar function and the video projection function are provided. In the projection device, it is easy to reduce the size and weight by suppressing the number of parts, and the difference between the emission point of the projection device and the emission point of the laser radar can be reduced.
Furthermore, based on the three-dimensional distance information of the projection range of the surface of the peripheral object detected by the laser radar function, the projection original image data to be projected onto the projection range is transformed into actual projection image data to be actually projected. By providing the projection data calculation processing unit, it is possible to realize projection of a desired image on an object whose three-dimensional distance information is detected by a laser radar.
Further, the real-time property of detection and projection can be realized at a high level by distributing the measurement light reception detection period and the image light projection period in one frame in a time-sharing manner.

本発明の投影装置を構成する一例の機能ブロック図である。It is a functional block diagram of an example which comprises the projection apparatus of this invention. 本発明の投影装置の光学系の構成例を示す模式図である。It is a schematic diagram which shows the structural example of the optical system of the projection apparatus of this invention. 本発明の投影装置の投影光学系の構成例を示す模式図である。It is a schematic diagram which shows the structural example of the projection optical system of the projection apparatus of this invention. 本発明の投影装置における測定と投影の時分割制御方式を説明するための受光検出期間を示すグラフ(a)及び画像投光期間を示すグラフ(b)である。FIG. 5 is a graph (a) showing a light reception detection period and a graph (b) showing an image projection period for explaining a time division control method of measurement and projection in the projection apparatus of the present invention. 本発明の投影装置の構成例、利用例を示す模式図である。It is a schematic diagram which shows the structural example and utilization example of the projection apparatus of this invention. 本発明の投影装置の測定対象となる一例の周辺環境の撮影画像である。It is the picked-up image of an example surrounding environment used as the measuring object of the projection apparatus of this invention. 図6の周辺環境を測定して得られた3次元距離情報を2次元面に可視化表現したコンピューターグラフィックである。7 is a computer graphic in which the three-dimensional distance information obtained by measuring the surrounding environment in FIG. 6 is visualized on a two-dimensional surface. 得られた3次元距離情報に基づき認識した人間及びその移動軌跡等を示したコンピューターグラフィックである。It is the computer graphic which showed the person recognized based on the obtained three-dimensional distance information, its movement locus | trajectory, etc. 本発明の投影装置の他の構成例を示す模式図である。It is a schematic diagram which shows the other structural example of the projector of this invention. 本発明の投影装置の他の利用例を示す模式図である。It is a schematic diagram which shows the other usage example of the projector of this invention.

以下に本発明の一実施形態につき図面を参照して説明する。以下は本発明の一実施形態であって本発明を限定するものではない。   An embodiment of the present invention will be described below with reference to the drawings. The following is one embodiment of the present invention and does not limit the present invention.

〔機能ブロック〕
図1は、本発明の投影装置を構成する一例の機能ブロック図である。図1に示すように本例の投影装置は、中央制御部10、駆動手段制御部11、走査光学系12、測定光制御部21、測定光光源22、出射光学系23、受光光学系31、測定光受光部32、測定光演算処理部33、原画像データ・投影条件記憶部41、投影データ演算処理部42、画像光光源43、投影光学系44のほか、データ入出力部8、操作部9等を備えて構成される。走査光学系12に、走査面12aと、走査面12aの回転等の駆動する駆動手段12bが設けられている。
[Function block]
FIG. 1 is a functional block diagram of an example constituting the projection apparatus of the present invention. As shown in FIG. 1, the projection apparatus of this example includes a central control unit 10, a drive unit control unit 11, a scanning optical system 12, a measurement light control unit 21, a measurement light source 22, an emission optical system 23, a light reception optical system 31, Measurement light receiving unit 32, measurement light calculation processing unit 33, original image data / projection condition storage unit 41, projection data calculation processing unit 42, image light source 43, projection optical system 44, data input / output unit 8, operation unit 9 and so on. The scanning optical system 12 is provided with a scanning surface 12a and driving means 12b for driving the scanning surface 12a to rotate.

レーザーレーダーの機能は、機能要素8,9,10,11,12,21,22,23,31,32,33で実現される。レーザーレーダーとしてのみ使用する場合は、これらの要素のみが機能する。
レーザーレーダーにより検出した情報に基づかずに画像を投影する投影装置としては、機能要素8,9,10,11,12,41,42,43,44により機能する。
以上のように走査光学系12は、レーザーレーダーの測定光を走査する手段と、投影画像の画像光を走査する手段として共有されている。
The function of the laser radar is realized by functional elements 8, 9, 10, 11, 12, 21, 22, 23, 31, 32, 33. When used only as a laser radar, only these elements will work.
A projection device that projects an image without being based on information detected by the laser radar functions by the functional elements 8, 9, 10, 11, 12, 41, 42, 43, 44.
As described above, the scanning optical system 12 is shared as means for scanning the measurement light of the laser radar and means for scanning the image light of the projection image.

〔光学系構成例1〕
図2は、本投影装置の光学系の構成例を示す。
図2に示すように本例の走査面は、ミラー201の反射面で構成される。ミラー201を、ガルバノスキャナのミラー部とし、駆動軸を2軸としたガルバノスキャナを適用するか、駆動軸を1軸とした2つのガルバノスキャナをX,Y方向に使い分けることで、XY方向に2次元走査するレーザーレーダーとすることができ、これによって、各XY座標に距離情報Zが付加された3次元距離情報が取得可能であり、また、画像を投影可能である。このとき、ガルバノスキャナは、走査面12aとしての反射面を変角駆動させる機構の一例である。
[Optical system configuration example 1]
FIG. 2 shows a configuration example of the optical system of the projection apparatus.
As shown in FIG. 2, the scanning surface of this example is constituted by the reflecting surface of the mirror 201. The mirror 201 is a mirror part of a galvano scanner, and a galvano scanner with two driving axes is applied, or two galvano scanners with one driving axis are used in the X and Y directions, so that 2 in the XY direction. A laser radar that performs dimension scanning can be used, whereby three-dimensional distance information in which distance information Z is added to each XY coordinate can be acquired, and an image can be projected. At this time, the galvano scanner is an example of a mechanism for driving the reflection surface as the scanning surface 12a to change the angle.

ミラー201に対して測定光202を出射するレーザー光源装置203(図1の要素21,22,23に相当)と、測定光202が照射された周辺対象物から反射して戻ってきた測定光204を受光する受光装置205(図1の要素32に相当)と、ミラー201に対して画像光206を出射する画像光出力装置207(図1の要素43,44に相当)が備えられる。   A laser light source device 203 (corresponding to elements 21, 22, and 23 in FIG. 1) that emits measurement light 202 to the mirror 201, and measurement light 204 that has returned from a peripheral object irradiated with the measurement light 202. Is received, and an image light output device 207 (corresponding to elements 43 and 44 in FIG. 1) that emits image light 206 to the mirror 201 is provided.

一例として画像光の光源を可視光光源として実施することができる。この場合、特殊な効果なしに直接的に投影面に映像を可視化できる。なお、アミューズメント用途や保安用途として、不可視光で描画し、特殊なゴーグルやメガネを観察者が装用することで可視化できる。その他、投影面が紫外線発光性であれば紫外線描画でも可能である。   As an example, the light source of image light can be implemented as a visible light source. In this case, the image can be visualized directly on the projection surface without any special effect. In addition, as an amusement use or a security use, it can be visualized by drawing with invisible light and wearing special goggles or glasses by an observer. In addition, if the projection surface emits ultraviolet rays, ultraviolet drawing is also possible.

図1の受光光学系31に相当するものとして、受光装置205とミラー201の間の光路には、集光レンズ208、可視光カットフィルター209が配置されている。可視光カットフィルター209は、レーザーレーダーの機能を実現する受光素子(受光装置205に装備)の前に配置されフィルターで、当該受光素子への可視光の入射を防止する。可視光カットフィルター209により、外部から入射する可視光のほか、画像光の光源を可視光光源とした場合の画像光(機器内部での回析光など)をカットできる。レーザーレーダーは不要光対策が入念に必要であり、そのための構成を工夫した公知例も多々公開されている(機器内部での不要光回折などの影響を排除する構成をはじめ、多々公知例がある)。
不要光としての最たるものは外部からの可視光(自然光や人工照明)であるが、投影機能が無ければ、装置筐体の外装部材に可視光カットフィルターを設置しても十分だが、前記の一例では可視光を投影するため、そのような構成としても機器内部での回析による不要光を回避できない。
そこで、受光素子の部位にのみ可視光カットフィルター209を設けて不要光を分離する。したがって、可視光カットフィルター209を通らずに受光素子に入射しないように機器内部に可視光カットフィルター209を配置して構成する。
As an equivalent to the light receiving optical system 31 in FIG. 1, a condensing lens 208 and a visible light cut filter 209 are disposed in the optical path between the light receiving device 205 and the mirror 201. The visible light cut filter 209 is disposed in front of a light receiving element (equipped in the light receiving device 205) that realizes a laser radar function, and prevents visible light from entering the light receiving element. The visible light cut filter 209 can cut not only visible light incident from the outside but also image light (such as diffracted light inside the device) when the light source of image light is a visible light source. Laser radar requires careful measures against unnecessary light, and many publicly known examples that have been devised for that purpose have been published (including many known examples including a configuration that eliminates the influence of unnecessary light diffraction inside the device). ).
The most unwanted light is externally visible light (natural light or artificial lighting), but if there is no projection function, it is sufficient to install a visible light cut filter on the exterior member of the device housing. Then, since visible light is projected, unnecessary light due to diffraction inside the device cannot be avoided even with such a configuration.
Therefore, the visible light cut filter 209 is provided only at the site of the light receiving element to separate unnecessary light. Therefore, the visible light cut filter 209 is arranged inside the device so as not to enter the light receiving element without passing through the visible light cut filter 209.

投影光学系44に相当する構成部品として、コリメーターレンズなどの画像光の指向性を高め、投影面での画素鮮明度を高めるための収束光学系部品が配置される。   As a component corresponding to the projection optical system 44, a converging optical system component for enhancing the directivity of image light such as a collimator lens and increasing the pixel definition on the projection surface is disposed.

〔光学系構成例2〕
図3は、本投影装置の投影光学系の構成例を示す。ミラー201は図2と同様にものであり、走査光学系12の走査面12aを構成するものである。
図3に示す画像光出力装置301(図1の要素43に相当)は、走査光学系による主走査方向Xに交わる副走査方向Yの画素列となる複数の画素光を配光可能とするための一例である。図示例の画像光出力装置301は、副走査方向Yの一列上に配置した9点の光源を半画素ずつずらして2列並べた18画素を備える構成を有する。18画素が同時発光可能な構成であり、これを主走査方向と副走査方向に走査する。
画像光光源が1画素分しか存在しないと、1回の主走査では主走査方向に1ライン分しか描画できないので副走査、主走査を全走査ライン分繰り返さなければならないが、主走査方向Xと交わる方向に発光点光源(1画素分)を複数配列しておくことで、同時に走査される走査ラインを増やし走査回数を減少させることができる。発光点光源の配列方向は、主走査方向Xに垂直に交わる方向としてもよいし、斜めに交わる方向としてもよい。斜めに交わる方向とすることで画素密度を向上できる。
このような画像光の光源を、例えば、LCOS(エルコス、Liquid crystal on silicon, LCoS は商標)や、デジタルミラーデバイスで構成して実施することができる。
画像光の光源は画素(発光点)が多いほうが精細な描画が可能になるので好ましいものの、装置が大型化するのは好ましくない。
そこで、図3に示す例のように複数の発光点を配置する構成の場合、それらを複数列、
かつ画素中央をずらして並べることで、多数の発光点を集積化させることが可能である。
別の構成として、例えば音響光学素子を適用することができる。適用する音響光学素子としては、光出射方向を音響光学効果により変化させる音響光学素子(光偏向素子)である。これにより、出射点は一つであっても、複数の方向に出射することで、事実上複数の発光点を持つのと同等の構成とすることができる。また音響光学素子の別目的の活用例としては、光の高度(明るさ)を調整する機能を有する音響光学素子(光変調素子)を適用して画像光の明るさの調整する構成や、光の波長(色)を選択する機能を有する音響光学素子(音響光学フィルタ)を適用して画像の色調整をする構成も合わせて実施してもよい。
[Optical system configuration example 2]
FIG. 3 shows a configuration example of the projection optical system of the projection apparatus. The mirror 201 is the same as that in FIG. 2 and constitutes the scanning surface 12 a of the scanning optical system 12.
The image light output device 301 shown in FIG. 3 (corresponding to the element 43 in FIG. 1) is capable of distributing a plurality of pixel lights that form pixel rows in the sub-scanning direction Y that intersects the main scanning direction X by the scanning optical system. It is an example. The image light output device 301 in the illustrated example has a configuration including 18 pixels in which nine light sources arranged on one column in the sub-scanning direction Y are shifted by half a pixel and arranged in two columns. 18 pixels are configured to emit light simultaneously, and are scanned in the main scanning direction and the sub-scanning direction.
If there is only one image light source for one pixel, only one line can be drawn in the main scanning direction in one main scanning, so the sub-scanning and main scanning must be repeated for all scanning lines. By arranging a plurality of light emitting point light sources (for one pixel) in the intersecting direction, the number of scanning lines scanned simultaneously can be increased and the number of scans can be reduced. The arrangement direction of the light emitting point light sources may be a direction perpendicular to the main scanning direction X or a direction intersecting obliquely. The pixel density can be improved by making the directions intersect diagonally.
Such a light source of image light can be implemented by, for example, an LCOS (ELCOS, Liquid crystal on silicon, LCoS is a trademark) or a digital mirror device.
As the light source of the image light, it is preferable that the number of pixels (light emitting points) is large because fine drawing is possible, but it is not preferable that the apparatus is enlarged.
Therefore, in the case of a configuration in which a plurality of light emitting points are arranged as in the example shown in FIG.
In addition, a large number of light emitting points can be integrated by shifting the pixel centers.
As another configuration, for example, an acousto-optic element can be applied. The acousto-optic element to be applied is an acousto-optic element (light deflection element) that changes the light emission direction by an acousto-optic effect. Thereby, even if there is one emission point, it can be set as the structure equivalent to having a plurality of light emission points by emitting in a plurality of directions. As another example of utilization of the acoustooptic device, a configuration for adjusting the brightness of image light by applying an acoustooptic device (light modulation device) having a function of adjusting the altitude (brightness) of light, A configuration for adjusting the color of an image by applying an acousto-optic element (acousto-optic filter) having a function of selecting the wavelength (color) of the image may also be implemented.

〔測定と投影のリアルタイム制御方式例1〕
測定と投影のリアルタイム性を確保する制御方式として、例えば、測定光と投影を同時に行う方式を適用できる。この場合、例えば、測定光を常時出射し受光し、所定のサンプリング期間に受光した測定光を検出する。測定光を検出するサンプリング期間に重なる時間帯も含めて画像光を出射して投影する。
この方式の場合でも、上述の可視光カットフィルターにより画像光が受光素子に入射することは防がれる。
[Measurement and projection real-time control system example 1]
As a control method for ensuring real-time measurement and projection, for example, a method of simultaneously performing measurement light and projection can be applied. In this case, for example, the measurement light is always emitted and received, and the measurement light received during a predetermined sampling period is detected. Image light is emitted and projected, including a time period that overlaps the sampling period in which the measurement light is detected.
Even in this method, the visible light cut filter described above prevents image light from entering the light receiving element.

〔測定と投影のリアルタイム制御方式例2〕
測定と投影のリアルタイム性を確保する制御方式として、例えば、測定光の受光検出期間と画像光の投光期間とを時間的に分けて測定光の受光検出及び画像光の投光を制御する時分割制御方式を適用できる。この場合、例えば、1フレームごとに分ける方式を適用できる。すなわち、検出範囲全域の1走査が終了した後、次の1フレームは画像投影のための走査期間とする方式である。この場合でも、フレームレートが30(fps)であれば、検出から投影までの時間を1/30(秒)にすることができる。検出して得られた3次元距離情報を反映した画像を最短で1/30(秒)後に描画可能である。
[Measurement and projection real-time control method example 2]
As a control method for ensuring real-time measurement and projection, for example, when measuring light reception detection and image light projection are controlled by dividing the measurement light reception detection period and the image light projection period in time. A division control method can be applied. In this case, for example, a method of dividing each frame can be applied. That is, after one scan of the entire detection range is completed, the next one frame is a scan period for image projection. Even in this case, if the frame rate is 30 (fps), the time from detection to projection can be reduced to 1/30 (second). An image reflecting the detected three-dimensional distance information can be drawn after 1/30 (second) at the shortest.

〔測定と投影のリアルタイム制御方式例3〕
測定光の受光検出期間と画像光の投光期間とを時間的に分ける時分割方式でも、1フレーム中に時分割して測定光の受光検出及び画像光の投光を制御する時分割制御方式を適用できる。
図4(a)の受光検出期間401のグラフにおいて「1」で受光した測定光を検出し、図4(b)の画像投光期間402を示すグラフにおいて「1」で画像光を出射し投影面に画像を描画する。図4に示すように受光検出期間401と画像投光期間402とが時間的に重ならないように時分割する。また、走査光学系に同期して1フレーム分のレーザーレーダーの走査が行われるように受光検出期間401が複数回に分かれて設けられる。同じく走査光学系に同期して1フレーム分の画像投影の走査が行われるように画像投光期間402が複数回に分かれて設けられる。それぞれの分解能のためである。そして、受光検出期間401と画像投光期間402とが互いに間に配置されるように設けられる。なお、図4に示す例に拘わらず、1回測定して2回描画するなどの制御パターンで実施してもよい。ここで、1回描画するとは、上述の複数画素を有する画像光の光源で、その画素数分を1回とした場合である。
デュアロポリゴンを走査光学系に適用した場合、ポリゴンの対の数をnとした場合に、1つの対がスキャンする時間は、1/(30*n)秒であり、1/(30*n)秒内で実行される走査分解能分だけ受光検出期間401が設けられる。
画像光が不要光となって検出されてしまう可能性があるところ、上述のように可視光カットフィルターを設けても、完全に排除できない可能性がある。
そこで、以上のように受光検出期間401と画像投光期間402とが時間的に重ならないように時分割することで、測定時に受光されないようにせしめることができる。
走査は間歇的に行われるところ、測定のための走査中は描画を行わない(画像光を発光
せず)。
測定光の出射は、少なくとも受光検出期間401で実行し、常時実行してもよい。
[Example 3 of real-time control method for measurement and projection]
A time-division control method that controls the detection of the measurement light and the projection of the image light by time-division in one frame even in the time-division method that divides the measurement light reception detection period and the image light projection period in time. Can be applied.
The measurement light received at “1” is detected in the graph of the light reception detection period 401 of FIG. 4A, and the image light is emitted and projected at “1” in the graph of the image projection period 402 of FIG. Draw an image on the surface. As shown in FIG. 4, time division is performed so that the light reception detection period 401 and the image projection period 402 do not overlap in time. In addition, the light reception detection period 401 is divided into a plurality of times so that one frame of laser radar is scanned in synchronization with the scanning optical system. Similarly, the image projection period 402 is divided into a plurality of times so that scanning of image projection for one frame is performed in synchronization with the scanning optical system. This is for each resolution. The light reception detection period 401 and the image projection period 402 are provided so as to be disposed between each other. Note that, regardless of the example shown in FIG. 4, a control pattern of measuring once and drawing twice may be used. Here, “drawing once” refers to a case where the number of pixels is set to once with the above-described light source of image light having a plurality of pixels.
When a dual polygon is applied to a scanning optical system, when the number of polygon pairs is n, the time for one pair to scan is 1 / (30 * n) seconds, and 1 / (30 * n ) The light reception detection period 401 is provided for the scanning resolution executed in seconds.
Where image light may be detected as unnecessary light, even if a visible light cut filter is provided as described above, it may not be completely eliminated.
Thus, as described above, time division is performed so that the light reception detection period 401 and the image projection period 402 do not overlap with each other in time, thereby preventing light reception during measurement.
Although scanning is performed intermittently, drawing is not performed during scanning for measurement (image light is not emitted).
The emission of the measurement light is performed at least in the light reception detection period 401 and may be performed constantly.

〔適用例1〕
図5に示す構成例、利用例に沿って説明する。
図5に示すように走査光学系をデュアロポリゴン501とした装置構成例である。デュアロポリゴン501の反射面501aに対して測定光502を出射するレーザー光源装置503は、図1の要素21,22,23に相当する。測定光502か照射された列車車両504などの周辺対象物から反射して戻ってきた測定光505を受光する受光装置506は、図1の要素31,32に相当する。反射面501aに対して画像光507を出射する画像光出力装置508は、図1の要素43,44に相当に相当する。
[Application Example 1]
Description will be made along the configuration example and usage example shown in FIG.
FIG. 5 shows an apparatus configuration example in which the scanning optical system is a dual polygon 501. The laser light source device 503 that emits the measurement light 502 to the reflecting surface 501a of the dual polygon 501 corresponds to the elements 21, 22, and 23 in FIG. The light receiving device 506 that receives the measurement light 505 reflected and returned from the surrounding object such as the train vehicle 504 irradiated with the measurement light 502 corresponds to the elements 31 and 32 in FIG. The image light output device 508 that emits the image light 507 to the reflection surface 501a corresponds to the elements 43 and 44 in FIG.

デュアロポリゴン501は、走査面12aとしての反射面を変角駆動させる機構の一例である。
デュアロポリゴン501は、測定光502の出射時及び測定光505の受光時並びに画像光507の出射時に2回反射する1対の反射面501a,501bを有する。すなわち、測定光502は、レーザー光源装置503から出て反射面501aで反射し、さらに反射面501bで反射して装置外に出射し周辺対象物に照射される。戻りの測定光505は、反射面501bで反射し、さらに反射面501aで反射して受光装置506に入射する。画像光507は、画像光出力装置508から出て反射面501aで反射し、さらに反射面501bで反射して装置外に出射し周辺対象物の投影範囲509に照射される。
このように2回反射する1対の反射面501a,501bを有するデュアロポリゴン501を適用することで、レーザー光源装置503等の後方側に照射することができ、コンパクトな装置構成とすることが容易である。
The dual polygon 501 is an example of a mechanism that drives the reflection surface as the scanning surface 12a to change the angle.
The dual polygon 501 has a pair of reflecting surfaces 501a and 501b that are reflected twice when the measuring light 502 is emitted, when the measuring light 505 is received, and when the image light 507 is emitted. That is, the measurement light 502 is emitted from the laser light source device 503, reflected by the reflecting surface 501a, further reflected by the reflecting surface 501b, emitted outside the device, and irradiated on the peripheral object. The returned measurement light 505 is reflected by the reflecting surface 501b, and further reflected by the reflecting surface 501a and enters the light receiving device 506. The image light 507 exits from the image light output device 508, is reflected by the reflecting surface 501a, is further reflected by the reflecting surface 501b, is emitted outside the device, and is irradiated onto the projection range 509 of the peripheral object.
By applying the dual polygon 501 having a pair of reflecting surfaces 501a and 501b that reflects twice in this manner, the rear side of the laser light source device 503 and the like can be irradiated, and a compact device configuration can be obtained. Easy.

図5に示す例のデュアロポリゴン501は、1対の反射面501a,501bを3ペア有し、回転軸に垂直な断面が三角形状のものであり、各ペア間で反射面のチルト角が異なり走査範囲が副走査方向にずれるので、1回転で1フレームの走査を完了する。デュアロポリゴン501を、1対の反射面501a,501bを3ペア有する断面三角形状のものとすることで、水平画角510を最大180度として広範囲の走査が可能である。
本例は、測定光の光軸と画像光の光軸とが平行である例である。画像の投影範囲としては、レーザーレーダーの走査範囲の全部又は一部を選択することができる。
The dual polygon 501 in the example shown in FIG. 5 has three pairs of a pair of reflecting surfaces 501a and 501b, has a triangular cross section perpendicular to the rotation axis, and the tilt angle of the reflecting surface is between each pair. Differently, the scanning range is shifted in the sub-scanning direction, so that one frame of scanning is completed in one rotation. By making the dual polygon 501 have a triangular cross section having three pairs of reflecting surfaces 501a and 501b, a wide range of scanning is possible with a horizontal field angle 510 of 180 degrees at the maximum.
In this example, the optical axis of the measurement light and the optical axis of the image light are parallel. As the image projection range, all or part of the scanning range of the laser radar can be selected.

図1に示した投影データ演算処理部42は、本装置のレーザーレーダーの機能により検出した周辺対象物(列車車両504等)の表面の投影範囲509の3次元距離情報に基づき、当該投影範囲509に投影する投影用の原画像データを実際に投影する実投影画像データに変形演算する。
例えば図6に示すような周辺環境をレーザーレーダーで走査すると、図7に示すような各XY座標に距離情報Zが付加された3次元距離情報が取得される。図7は3次元距離情報を2次元面に可視化表現したものである。
このような3次元距離情報が連続したフレームごとの距離画像として得られる。
各フレームの距離画像を解析してエッジ検出、連続面の認識、路面(地面、床面)の認識、路面(地面、床面)上の各物体の認識、グループ化、路面(地面、床面)上の物体から人間の大きさ、形状、動きなどに基づき絞り込み人間認識も行う。バス、列車車両、自動車などの認識も同様に行う。移動体については、連続したフレームを追うことで図8に示すように移動方向、移動軌跡、移動速度なども算出する。
レーザーレーダーの機能により検出した3次元距離情報に基づき人間を認識する認識部その他の認識部は、図1の中央制御部10に構成される。測定光演算処理部33が3次元距離情報を生成し、中央制御部10に与える。
The projection data calculation processing unit 42 shown in FIG. 1 is based on the three-dimensional distance information of the projection range 509 on the surface of the peripheral object (train vehicle 504, etc.) detected by the function of the laser radar of this apparatus. The projection original image data to be projected onto the image is transformed into actual projection image data to be actually projected.
For example, when the surrounding environment as shown in FIG. 6 is scanned with a laser radar, three-dimensional distance information in which distance information Z is added to each XY coordinate as shown in FIG. 7 is acquired. FIG. 7 is a visual representation of 3D distance information on a 2D surface.
Such three-dimensional distance information is obtained as a distance image for each continuous frame.
Analyzing the distance image of each frame, edge detection, continuous surface recognition, road surface (ground, floor surface) recognition, object recognition on the road surface (ground, floor surface), grouping, road surface (ground, floor surface) ) Human recognition is also performed based on the size, shape, movement, etc. of the person from the above object. Recognition of buses, train cars, cars, etc. is performed in the same way. As for the moving object, the moving direction, moving locus, moving speed, etc. are calculated by following the continuous frames as shown in FIG.
A recognition unit that recognizes a person based on three-dimensional distance information detected by the function of the laser radar and other recognition units are configured in the central control unit 10 of FIG. The measurement light calculation processing unit 33 generates three-dimensional distance information and gives it to the central control unit 10.

さて、図5に示す状況例で、中央制御部10が列車車両504と、ホーム床面511と、人間512とを認識したとする。
結果的に列車車両504の側面所定範囲に投影されている画像513の原画像データは、予め図1のデータ入出力部8から入力され、原画像データ・投影条件記憶部41に記憶されている。原画像データのほかに、どの対象物のどの範囲に画像を投影するかの条件が必要であり、それを特定する投影条件も同様に原画像データ・投影条件記憶部41に記憶されている。ここでは、列車車両の側面の車両連結部を除いた所定範囲が指定されているとする。また、原画像データによる画像をそのまま正射影した画像が目的の投影画像であるとする。
まず、本投影装置が列車車両504より高い位置に設置されていると、投影範囲509が本投影装置の水平方向にないので、上下方向に投影範囲509が傾き、目的の正射影画像に対して投影画像が歪む。
そこで、中央制御部10が認識した列車車両504の側面の投影範囲509の角度に基づき、投影データ演算処理部42が投影範囲509に投影する投影用の原画像データを実際に投影する実投影画像データに変形演算する。ここでは、投影データ演算処理部42は、投影範囲509の3次元距離の変化(角度の違い)による射影変化が縮小するように、すなわち、目的の正射影画像が投影されるように変形演算を行う。その演算は、所定の時間レート(例えば投影のフレームレートと同じにする)で行い、リアルタイムに変化する状況に追従するように実行する。また、投影範囲509までの距離・方向、その距離・方向の時間変化、水平方向角度、その水平方向角度の時間変化についても同様に、リアルタイムに変化する状況に追従するように実行する。
投影データ演算処理部42が演算した実投影画像データに基づき画像光の光源(43)を駆動して投影範囲509に画像を投影する。
以上により、列車車両504の所定位置に所望の画像が投影でき、その投影画像が列車の移動とともに移動し、列車に対して移動しないように投影することもできるし、アニメーションにより列車に対して予定された移動をするような動画プログラムを実行することも可能できる。例えば、列車車両504のドアに「駆け込み乗車は止めましょう」と表示することができる。また、列車車両504のドアに向かって駆け込み危険であることを表現したキャラクターのアニメーションを表示することもできる。
Now, in the situation example shown in FIG. 5, it is assumed that the central control unit 10 recognizes the train vehicle 504, the home floor 511, and the human 512.
As a result, the original image data of the image 513 projected on the predetermined range of the side surface of the train vehicle 504 is input in advance from the data input / output unit 8 in FIG. 1 and stored in the original image data / projection condition storage unit 41. . In addition to the original image data, a condition for projecting an image to which range of an object is necessary, and a projection condition for specifying the condition is also stored in the original image data / projection condition storage unit 41. Here, it is assumed that a predetermined range excluding the vehicle connecting portion on the side surface of the train car is designated. In addition, it is assumed that an image obtained by orthogonally projecting an image based on original image data is a target projection image.
First, when the projection apparatus is installed at a position higher than the train vehicle 504, the projection range 509 is not in the horizontal direction of the projection apparatus, so the projection range 509 is inclined in the vertical direction, and the target orthographic image is displayed. The projected image is distorted.
Therefore, based on the angle of the projection range 509 on the side surface of the train vehicle 504 recognized by the central control unit 10, the actual projection image that actually projects the projection original image data to be projected on the projection range 509 by the projection data calculation processing unit 42. Perform transformation operations on data. Here, the projection data calculation processing unit 42 performs the deformation calculation so that the projection change due to the three-dimensional distance change (difference in angle) of the projection range 509 is reduced, that is, the target orthographic image is projected. Do. The calculation is performed at a predetermined time rate (for example, the same as the projection frame rate), and is executed so as to follow the situation changing in real time. Similarly, the distance / direction to the projection range 509, the time change of the distance / direction, the horizontal angle, and the time change of the horizontal angle are executed so as to follow the situation changing in real time.
Based on the actual projection image data calculated by the projection data calculation processing unit 42, the image light source (43) is driven to project an image onto the projection range 509.
As described above, a desired image can be projected onto a predetermined position of the train vehicle 504, and the projected image can be projected so as to move with the movement of the train so as not to move with respect to the train. It is also possible to execute a moving image program that performs the movement. For example, “Let's stop rushing” can be displayed on the door of the train vehicle 504. Further, it is possible to display an animation of a character expressing that it is dangerous to rush toward the door of the train vehicle 504.

中央制御部10は、ホーム床面511上の人間512を認識したので、これに基づく次の実投影画像データの生成を投影データ演算処理部42に指令する。
一つには、中央制御部10は、人間512の範囲と投影範囲509との画像光507の光路上で少なくとも重なる範囲に、投影禁止範囲を設けて投影データ演算処理部42に指令する。投影データ演算処理部42は、投影禁止範囲にある画素を非発光画素とする。「投影禁止範囲にある画素を非発光画素とする」には、全領域投影中止とすることのほか、当該投影禁止範囲において画像513が欠けた画像を表示する実投影画像データを生成することが含まれる。また、「投影禁止範囲にある画素を非発光画素とする」には、当該投影禁止範囲から画像513の全体が退避した領域を投影領域とした実投影画像データを生成することが含まれる。この場合は、投影条件に含まれる投影範囲に関する条件は選択性のある条件である。例えば、列車車両の側面の全体のうち任意の一部に投影する条件や、列車車両の側面又はホーム床面に表示する条件などである。
人間512の範囲の周囲に余裕領域を持たせて投影禁止範囲を設定し安全を確保してもよい。人間512の移動している方向や速度も認識できるので、その移動方向に余裕領域幅を他に対して比較的大きくとって投影禁止範囲を設定してもよい。
以上のように、いずれにしても人間512に対して画像光を照射しないので、人間の目の安全が保たれる。
The central control unit 10 recognizes the person 512 on the home floor 511, and instructs the projection data calculation processing unit 42 to generate the next actual projection image data based on this.
For example, the central control unit 10 instructs the projection data calculation processing unit 42 to provide a projection prohibited range in a range at least overlapping the range of the human 512 and the projection range 509 on the optical path of the image light 507. The projection data calculation processing unit 42 sets pixels in the projection prohibited range as non-light emitting pixels. “To make a pixel in the projection prohibited range a non-light emitting pixel” is to stop the whole area projection and generate actual projection image data that displays an image lacking the image 513 in the projection prohibited range. included. Further, “making a pixel in the projection prohibited range a non-light emitting pixel” includes generating actual projection image data in which a region where the entire image 513 is saved from the projection prohibited range is used as a projection region. In this case, the condition regarding the projection range included in the projection condition is a condition with selectivity. For example, there are conditions for projecting on any part of the entire side surface of the train vehicle, conditions for displaying on the side surface of the train vehicle, or the platform floor surface.
A marginal area may be provided around the range of the human 512 to set a projection prohibition range to ensure safety. Since the direction and speed in which the human 512 is moving can also be recognized, the projection prohibition range may be set with a relatively large margin area width in the moving direction.
As described above, in any case, the human 512 is not irradiated with the image light, so that the safety of the human eye is maintained.

また、中央制御部10は、ホーム床面511上の人間512を認識したので、これに基づく次の実投影画像データの生成を投影データ演算処理部42に指令する。
投影データ演算処理部42は、認識部により認識された人間512に観察点を設定して、当該観察点から投影画像を観察した際の観察画像が所望の画像となるように、原画像データを実際に投影する実投影画像データに変形演算する。
例えば、投影範囲509の中心の正面に観察者である人間512がいて、投影範囲509に目的の正射影画像が投影されていれる状況から、列車車両504の移動(又は/及び人間512の移動)があれば、観察点が投影範囲509の中心の正面からずれて、観察点から見た投影範囲509の投影面の傾斜が変化するために、画像が人間512にとって見づらく歪む。これを本投影装置から見た投影面の傾斜の変化の場合と同様にリアルタイムに変形演算して、人間512に対して意図した画像を表示する。
Further, since the central control unit 10 recognizes the person 512 on the home floor surface 511, the central control unit 10 instructs the projection data calculation processing unit 42 to generate the next actual projection image data based thereon.
The projection data calculation processing unit 42 sets the observation point on the person 512 recognized by the recognition unit, and converts the original image data into a desired image so that the observation image when the projection image is observed from the observation point becomes a desired image. Deformation calculation is performed on actual projection image data to be actually projected.
For example, the movement of the train vehicle 504 (or / and the movement of the human 512) from a situation in which a human 512 as an observer is present in front of the center of the projection range 509 and a target orthographic image is projected on the projection range 509. If there is, the observation point shifts from the front of the center of the projection range 509, and the inclination of the projection plane of the projection range 509 viewed from the observation point changes, so that the image is distorted so that it is difficult for the human 512 to see. This is deformed and calculated in real time in the same manner as in the case of the change in the tilt of the projection plane viewed from the projection apparatus, and the intended image is displayed on the human 512.

〔適用例2〕
図9に示す構成例に沿って説明する。
図9に示すように本例は、上記適用例1と同様に走査光学系をデュアロポリゴン501とした装置構成例である。異なる点は、上記適用例1(図5)では、測定光505の光軸と画像光507の光軸とが平行とされているのに対し、本例(図9)では測定光505の光軸と画像光507A(507B)の光軸とが平行でなく、傾斜した角度を有する点である。
[Application Example 2]
Description will be made along the configuration example shown in FIG.
As shown in FIG. 9, this example is an example of an apparatus configuration in which the scanning optical system is a dual polygon 501 as in the first application example. The difference is that in the application example 1 (FIG. 5), the optical axis of the measurement light 505 and the optical axis of the image light 507 are parallel, whereas in this example (FIG. 9), the light of the measurement light 505 is different. The axis and the optical axis of the image light 507A (507B) are not parallel but have an inclined angle.

画像光507Aの走査範囲が測定光505の走査範囲に含まれる。この場合、測定光505の走査と画像光507Aの走査とは、同じ主走査期間に同一の反射面501a1,反射面501b1によって行われる。両者の光軸の相対角θAは既知で固定であるため、測定光505の座標系に変換して画像光507Aによる画像を投影可能である。例えば、図9中に矢印で示す回転方向901にデュアロポリゴン501を回転させて測定光505及び画像光507Aを走査することで、先行して測定光505により得られた周辺対象物の3次元距離情報に基づき変形演算した画像を、後追いする画像光507Aによって(周回遅れすることなく)描画することで、検出と投影のリアルタイム性を持たせることができる。   The scanning range of the image light 507A is included in the scanning range of the measurement light 505. In this case, the scanning of the measurement light 505 and the scanning of the image light 507A are performed by the same reflection surface 501a1 and reflection surface 501b1 in the same main scanning period. Since the relative angle θA between the two optical axes is known and fixed, it can be converted into the coordinate system of the measuring light 505 and an image of the image light 507A can be projected. For example, by rotating the dual polygon 501 in the rotation direction 901 indicated by the arrow in FIG. 9 and scanning the measurement light 505 and the image light 507A, the three-dimensional of the peripheral object obtained in advance by the measurement light 505 is obtained. By drawing an image obtained by deformation calculation based on the distance information by the image light 507A to be followed (without delaying the circulation), it is possible to provide real-time detection and projection.

一方、画像光507Bの走査範囲と測定光505の走査範囲とが共有範囲を有さない。この場合、測定光505の走査と画像光507Bの走査とは、同じ主走査期間に異なる反射面501a1,反射面501a2によって行われる。両者の光軸の相対角θBは既知で固定であるため、測定光505の座標系に変換して画像光507Bによる画像を投影可能である。
測定光505の走査範囲に画像光507Bによる画像を投影することは、レーザー光源装置503、受光装置506、画像光出力装置508B、及びデュアロポリゴン501を含めた装置構成を、デュアロポリゴン501と同じ回転軸901回りに回動させることで可能である。また、本例の装置構成のユニットを、測定光505の走査範囲同士が異なるように複数台設置して、ある周辺領域に関し一のユニットから得られた3次元距離情報に基づきに変形演算した画像を、その周辺領域を投影可能範囲として設置された他のユニットの投影機能により投影して実施することができる。
かかる構成によると、画像光507Bが受光装置506に回りこみにくくなるため、測定上有利である(測定と投影とを同時に行っても問題が少ない)。
On the other hand, the scanning range of the image light 507B and the scanning range of the measurement light 505 do not have a shared range. In this case, the scanning of the measurement light 505 and the scanning of the image light 507B are performed by different reflective surfaces 501a1 and 501a2 in the same main scanning period. Since the relative angle θB of both optical axes is known and fixed, it is possible to project the image by the image light 507B by converting into the coordinate system of the measurement light 505.
Projecting an image of the image light 507B on the scanning range of the measurement light 505 is based on the apparatus configuration including the laser light source device 503, the light receiving device 506, the image light output device 508B, and the dual polygon 501. This is possible by rotating the same around the same rotation axis 901. Further, an image obtained by performing a deformation operation based on the three-dimensional distance information obtained from one unit with respect to a certain peripheral area by installing a plurality of units having the apparatus configuration of the present example so that the scanning ranges of the measuring light 505 are different from each other. Can be carried out by projecting by the projection function of another unit installed in the peripheral area as a projectable range.
According to such a configuration, the image light 507B is less likely to enter the light receiving device 506, which is advantageous in measurement (there is little problem even if measurement and projection are performed simultaneously).

〔適用例3〕
図10に示す利用例に沿って説明する。
図10は、ドローン1001のモジュール1002に、以上説明したレーダーレーザー機能付きの投影装置を搭載したものであり、投影装置を飛行移動させて周囲をレーダーレーザーでスキャンし所望の画像を所望の位置に投影するものである。例として、壁面1003に画像1004を投影した場面を示す。ドローン1001の回転、移動に伴って変化する周辺対象物の3次元距離情報に基づき変形演算した画像(1004)を投影する。
例えば図5又は図9に示した装置構成のレーダーレーザー機能付きの投影装置がモジュール1002に搭載される。上述したレーザー光源装置503、受光装置506、画像光出力装置508B、及びデュアロポリゴン501を含めた装置構成を、デュアロポリゴン501と同じ回転軸901回りに回動させることは、ドローン1001の回転によって実現することもできる。ドローン1001本体に対してモジュール1002を回転させてもよい。
[Application Example 3]
Description will be made along the usage example shown in FIG.
FIG. 10 shows the module 1002 of the drone 1001 equipped with the above-described projection device with a radar laser function. The projection device is moved by flight and the surroundings are scanned with a radar laser to bring a desired image to a desired position. To project. As an example, a scene in which an image 1004 is projected on a wall surface 1003 is shown. An image (1004) obtained by performing a deformation operation based on the three-dimensional distance information of the peripheral object that changes as the drone 1001 rotates and moves is projected.
For example, a projection apparatus with a radar laser function having the apparatus configuration shown in FIG. Turning the device configuration including the laser light source device 503, the light receiving device 506, the image light output device 508 B, and the dual polygon 501 around the same rotational axis 901 as the dual polygon 501 is a rotation of the drone 1001. Can also be realized. The module 1002 may be rotated with respect to the drone 1001 main body.

〔その他〕
(1)以上の装置構成に対し、測定光の光源(22)及び画像光の光源(43)を冷却する冷却装置を搭載してもよい。すなわち、光源部分が発熱するため、例えば、ヒートパイプやペルチェクーラー、スターリングクーラーなどによって冷却する構成をとることが好ましい。冷却装置は、他の部分(例えば、測定光受光部32の受光素子や、駆動手段12bなどの光学系を駆動させるアクチュエイタ)を冷却するものと兼用であっても良い。
[Others]
(1) You may mount the cooling device which cools the light source (22) of measurement light, and the light source (43) of image light with respect to the above apparatus structure. That is, since the light source part generates heat, it is preferable to employ a configuration in which it is cooled by, for example, a heat pipe, a Peltier cooler, a Stirling cooler, or the like. The cooling device may be combined with a device that cools other parts (for example, an actuator that drives the light receiving element of the measurement light receiving unit 32 or an optical system such as the driving unit 12b).

(2)人間の動態認識能力上、通常、1/30秒以下の時間で表示された画像が連続的な内容であれば、滑らかな動画として認識される。この単位時間は、1/8秒程度であっても、おおむね動画として認識可能である。そこで、上述したデュアロポリゴン501における反射面501aと反射面501bのようなポリゴンの反射面の対の数をnとした場合を想定すると、1つの対がスキャンする時間を、1/(30*n)秒とすると、n対が一枚の絵を描画する時間が1/30秒となり、なめらかな動画を投影できる。同様に、1/(8*n)秒でも、おおむね動画として認識可能な映像を投影できる。 (2) In terms of human dynamic recognition ability, normally, if an image displayed in a time of 1/30 second or less is continuous content, it is recognized as a smooth moving image. Even if this unit time is about 1/8 second, it can be generally recognized as a moving image. Therefore, assuming that the number of pairs of reflecting surfaces of polygons such as the reflecting surfaces 501a and 501b in the above-described dual polygon 501 is n, the time for one pair to scan is 1 / (30 * Assuming n) seconds, the time required for n pairs to draw one picture is 1/30 second, and a smooth moving image can be projected. Similarly, even in 1 / (8 * n) seconds, a video that can be recognized as a moving image can be projected.

(3)本装置により広告を表示できる。走行中の電車や自動車のボディに、広告などを投影することができる。
(4)本装置により危険を警告できる。例えば、固定的に配置した本装置が自動車等を検知して、「トマレ」などの歩行者に注意を促す表示を路面に投影することができる。
(3) An advertisement can be displayed by this apparatus. Advertisements can be projected on the body of a running train or car.
(4) The device can warn of danger. For example, this device, which is fixedly arranged, can detect a car or the like and project a display such as “Tomare” to alert a pedestrian to the road surface.

(5)本装置の搭載・設置の方法は、据え置きのほか、可動でもよい。建物、電柱、壁などの固定的な構造物上に設置されることができる(この場合の主な利用例は交通整理対策〜危険警告)。
コンサート会場などの場合は、一時的な設置であるが、固定されるため、先の例と実質同じである。
また、本装置が設置される移動体としては、航空機・飛翔体(大型のものから、ドローン、マルチコプターでもよい)や自動車なども可能である。たとえばドローンであれば、災害誘導などが利用例である。ドローンが災害地や事故現場に入り、周囲の環境を把握しつつ、「コチラ」等の表示を投影して被災者に避難経路を案内する。
(5) The method of mounting / installing the apparatus may be stationary or movable. It can be installed on a fixed structure such as a building, utility pole, wall, etc. (in this case, the main use case is traffic control measures-danger warning).
In the case of a concert hall or the like, it is temporarily installed, but it is fixed and is substantially the same as the previous example.
In addition, as a moving body in which the present apparatus is installed, an aircraft / flying body (from a large one, a drone or a multicopter may be used), an automobile, and the like are also possible. For example, for drones, disaster guidance is an example of use. The drone enters the disaster area and accident scene, and while displaying the surrounding environment, displays a message such as “Click here” to guide the evacuation route to the victims.

(6)複数の装置の連携も可能である。すなわち、以上説明したレーザーレーダー機能付き投影装置を複数備え、そのうち一の投影装置のレーザーレーダーの機能により検出した周辺対象物の表面の投影範囲の3次元距離情報に基づき、当該投影範囲に投影する投影用の原画像データを実際に投影する実投影画像データに変形演算する投影データ演算処理部を備え、他の投影装置が前記実投影画像データに基づき自己の画像光の光源を駆動して前記投影範囲に画像を投影する投影システムの形態を実施することができる。例えば、第1投影装置と第2投影装置とについて、あらかじめ位置を設定しておき(あるいは少なくとも片方が他方の測定走査範囲に入るようにして、位置を把握しておき)、その上で2つの投影装置の測定結果を総合した上で、実投影画像データを作成したり、実際に投影するといったことが可能である。もちろん、片方が固定設置、他方がドローンなどの移動体に搭載する形態であってもよい。投影データ演算処理部を、各投影装置に設ける場合、一部の投影装置に設ける場合、いずれの投影装置にも設けず各投影装置と情報通信する管制局などに設ける場合のいずれの形態でも実施できる。 (6) A plurality of devices can be linked. That is, a plurality of projection devices with the laser radar function described above are provided, and projection is performed on the projection range based on the three-dimensional distance information of the projection range of the surface of the peripheral object detected by the laser radar function of one of the projection devices. A projection data calculation processing unit configured to perform transformation calculation on actual projection image data to be actually projected on the original image data for projection, and another projection device drives a light source of its own image light based on the actual projection image data; A form of a projection system that projects an image onto a projection range can be implemented. For example, the positions of the first projection apparatus and the second projection apparatus are set in advance (or at least one of them is in the other measurement scanning range so as to grasp the position), and then two positions are set. It is possible to create actual projection image data or actually project after integrating the measurement results of the projection apparatus. Of course, a configuration in which one is fixedly installed and the other is mounted on a moving body such as a drone may be employed. Implemented in any form when the projection data calculation processing unit is provided in each projection device, in some projection devices, or in a control station that communicates with each projection device without being provided in any projection device it can.

(7)本装置によるレーザーレーダーの走査範囲に、走査範囲を示す画像(例えば、線や枠)を本装置の投影機能により投影して、レーザーレーダーの走査範囲を示すことができる。これを、レーザーレーダーの走査範囲の位置決めに有効利用できる。 (7) An image indicating the scanning range (for example, a line or a frame) can be projected onto the scanning range of the laser radar by the present apparatus by the projection function of the present apparatus to indicate the scanning range of the laser radar. This can be effectively used for positioning the scanning range of the laser radar.

8 データ入出力部
9 操作部
10 中央制御部
11 駆動手段制御部
12 走査光学系
12a 走査面
12b 駆動手段
21 測定光制御部
22 測定光光源
23 出射光学系
31 受光光学系
32 測定光受光部
33 測定光演算処理部
41 原画像データ・投影条件記憶部
42 投影データ演算処理部
43 画像光光源
44 投影光学系
201 ミラー
202 測定光
203 レーザー光源装置
204 測定光
205 受光装置
206 画像光
207 画像光出力装置
208 集光レンズ
209 可視光カットフィルター
301 画像光出力装置
401 受光検出期間
402 画像投光期間
501 デュアロポリゴン
502 測定光
503 レーザー光源装置
504 列車車両
505 測定光
506 受光装置
507 画像光
507A 画像光
507B 画像光
508 画像光出力装置
508A 画像光出力装置
508B 画像光出力装置
509 投影範囲
510 測定光の水平画角
511 ホーム床面
512 人間
513 画像
514 投影範囲
1001 ドローン
1002 モジュール
1003 壁面
1004 画像
8 Data Input / Output Unit 9 Operation Unit 10 Central Control Unit 11 Driving Unit Control Unit 12 Scanning Optical System 12a Scanning Surface 12b Driving Unit 21 Measuring Light Control Unit 22 Measuring Light Light Source 23 Emitting Optical System 31 Receiving Optical System 32 Measuring Light Receiving Unit 33 Measurement light calculation processing unit 41 Original image data / projection condition storage unit 42 Projection data calculation processing unit 43 Image light source 44 Projection optical system 201 Mirror 202 Measurement light 203 Laser light source device 204 Measurement light 205 Light receiving device 206 Image light 207 Image light output Device 208 Condensing lens 209 Visible light cut filter 301 Image light output device 401 Light reception detection period 402 Image projection period 501 Dual polygon 502 Measurement light 503 Laser light source device 504 Train vehicle 505 Measurement light 506 Light reception device 507 Image light 507A Image light 507B Image light 508 Image light output device 508 Image light outputting apparatus 508B image light outputting apparatus horizontal angle 511 of 509 projection range 510 measurement light home floor 512 human 513 image 514 projected range 1001 drones 1002 module 1003 wall 1004 image

Claims (17)

レーザーレーダーの機能及び映像投影の機能を備えた投影装置であって、レーザーレーダーの測定光を走査する走査光学系と、投影画像の画像光を走査する走査光学系とが共有されてなる投影装置。 A projection apparatus having a laser radar function and a video projection function, wherein a scanning optical system that scans laser beam measurement light and a scanning optical system that scans image light of a projected image are shared . 前記画像光の光源は、前記走査光学系による主走査方向に交わる副走査方向の画素列となる複数の画素光を配光可能である請求項1に記載の投影装置。 The projection apparatus according to claim 1, wherein the light source of the image light is capable of distributing a plurality of pixel lights forming a pixel row in a sub-scanning direction intersecting with a main scanning direction by the scanning optical system. 前記画像光の光源は、前記走査光学系による主走査方向に交わる副走査方向の画素列となる複数の画素光を配光可能とするための、光出射方向を音響光学効果により変化させる音響光学素子を備えて構成されている請求項1に記載の投影装置。 The light source of the image light is an acoustooptic that changes a light emission direction by an acoustooptic effect so as to be able to distribute a plurality of pixel lights that form a pixel row in a sub-scanning direction intersecting with a main scanning direction by the scanning optical system. The projection apparatus according to claim 1, comprising an element. 前記走査光学系は、反射面を変角駆動させる機構を有し、当該反射面により前記測定光及び前記画像光を反射して走査することを特徴とする請求項1から請求項3のうちいずれか一に記載の投影装置。 The scanning optical system has a mechanism that drives the reflection surface to change the angle, and the measurement light and the image light are reflected and scanned by the reflection surface. A projection device according to claim 1. 前記走査光学系は、前記測定光の出射時及び受光時並びに前記画像光の出射時に2回反射する1対の反射面を有する請求項4に記載の投影装置。 The projection apparatus according to claim 4, wherein the scanning optical system has a pair of reflecting surfaces that are reflected twice when the measurement light is emitted and received and when the image light is emitted. レーザーレーダーの機能により検出した周辺対象物の表面の投影範囲の3次元距離情報に基づき、当該投影範囲に投影する投影用の原画像データを実際に投影する実投影画像データに変形演算する投影データ演算処理部を備え、
前記実投影画像データに基づき前記画像光の光源を駆動して前記投影範囲に画像を投影する請求項1から請求項5のうちいずれか一に記載の投影装置。
Projection data that transforms the original image data for projection onto the projection range into actual projection image data that is actually projected based on the three-dimensional distance information of the projection range on the surface of the peripheral object detected by the function of the laser radar With an arithmetic processing unit,
The projection apparatus according to claim 1, wherein an image is projected onto the projection range by driving a light source of the image light based on the actual projection image data.
前記投影データ演算処理部は、前記投影範囲の3次元距離の変化による射影変化が縮小するように前記変形演算を行う請求項6に記載の投影装置。 The projection apparatus according to claim 6, wherein the projection data calculation processing unit performs the deformation calculation so that a change in projection due to a change in a three-dimensional distance of the projection range is reduced. レーザーレーダーの機能により検出した3次元距離情報に基づき人間を認識する認識部と、
前記認識部により認識された人間の範囲と前記投影範囲との重なる範囲に、投影禁止範囲を設けて前記投影データ演算処理部に指令する制御部とを備え、
前記投影データ演算処理部は、前記投影禁止範囲にある画素を非発光画素とする請求項6又は請求項7に記載の投影装置。
A recognition unit for recognizing a person based on three-dimensional distance information detected by the function of the laser radar;
A control unit for instructing the projection data calculation processing unit by providing a projection prohibition range in a range where the human range recognized by the recognition unit overlaps the projection range;
The projection device according to claim 6, wherein the projection data calculation processing unit sets pixels in the projection prohibited range as non-light emitting pixels.
レーザーレーダーの機能により検出した3次元距離情報に基づき人間を認識する認識部を備え、
前記投影データ演算処理部は、前記認識部により認識された人間に観察点を設定して、当該観察点から投影画像を観察した際の観察画像が所望の画像となるように、原画像データを実際に投影する実投影画像データに変形演算する請求項6から請求項8のうちいずれか一に記載の投影装置。
It has a recognition unit that recognizes humans based on the three-dimensional distance information detected by the laser radar function.
The projection data calculation processing unit sets the observation point for the person recognized by the recognition unit, and converts the original image data so that the observation image when the projection image is observed from the observation point becomes a desired image. The projection apparatus according to any one of claims 6 to 8, wherein a deformation calculation is performed on actual projection image data to be actually projected.
前記画像光の光源を可視光光源とする請求項1から請求項9のうちいずれか一に記載の投影装置。 The projection device according to claim 1, wherein the light source of the image light is a visible light source. 前記レーザーレーダーの機能を実現する受光素子の前に可視光カットフィルターが配置されている請求項1から請求項10のうちいずれか一に記載の投影装置。 The projection device according to any one of claims 1 to 10, wherein a visible light cut filter is disposed in front of a light receiving element that realizes the function of the laser radar. 前記測定光の光軸と前記画像光の光軸とが平行でない角度を有する請求項1から請求項1
1のうちいずれか一に記載の投影装置。
The optical axis of the measurement light and the optical axis of the image light have an angle that is not parallel.
1. The projection apparatus according to claim 1.
前記画像光の走査範囲が前記測定光の走査範囲に含まれる請求項12に記載の投影装置。 The projection apparatus according to claim 12, wherein the scanning range of the image light is included in the scanning range of the measurement light. 前記画像光の走査範囲と前記測定光の走査範囲とが共有範囲を有さない請求項12に記載の投影装置。 The projection apparatus according to claim 12, wherein the scanning range of the image light and the scanning range of the measurement light do not have a shared range. 前記測定光の受光検出期間と前記画像光の投光期間とが互いに時間的に重ならないように1フレーム中に時分割して前記測定光の受光検出及び前記画像光の投光を制御する請求項1から請求項14のうちいずれか一に記載の投影装置。 The light reception detection period of the measurement light and the light projection of the image light are controlled by time division in one frame so that the light reception detection period of the measurement light and the light projection period of the image light do not overlap with each other in time. The projection device according to any one of claims 1 to 14. 前記測定光の光源及び前記画像光の光源を冷却する冷却装置を備えた請求項1から請求項15のうちいずれか一に記載の投影装置。 The projection apparatus according to claim 1, further comprising a cooling device that cools the light source of the measurement light and the light source of the image light. 請求項1から請求項5のうちいずれか一に記載の投影装置を複数備えるとともに、そのうち一の投影装置のレーザーレーダーの機能により検出した周辺対象物の表面の投影範囲の3次元距離情報に基づき、当該投影範囲に投影する投影用の原画像データを実際に投影する実投影画像データに変形演算する投影データ演算処理部を備え、他の投影装置が前記実投影画像データに基づき自己の前記画像光の光源を駆動して前記投影範囲に画像を投影する投影システム。 A plurality of the projection devices according to any one of claims 1 to 5 are provided, and based on the three-dimensional distance information of the projection range of the surface of the peripheral object detected by the laser radar function of one of the projection devices. A projection data calculation processing unit that performs a transformation calculation on the original image data for projection to be projected onto the projection range into actual projection image data to be actually projected, and the other projection device uses the actual projection image data as its own image. A projection system that drives a light source of light to project an image onto the projection range.
JP2016039578A 2016-03-02 2016-03-02 Projection device and projection system Pending JP2017158037A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016039578A JP2017158037A (en) 2016-03-02 2016-03-02 Projection device and projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016039578A JP2017158037A (en) 2016-03-02 2016-03-02 Projection device and projection system

Publications (1)

Publication Number Publication Date
JP2017158037A true JP2017158037A (en) 2017-09-07

Family

ID=59810289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016039578A Pending JP2017158037A (en) 2016-03-02 2016-03-02 Projection device and projection system

Country Status (1)

Country Link
JP (1) JP2017158037A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021097294A (en) * 2019-12-16 2021-06-24 日亜化学工業株式会社 Remote-controlled mobile and method for cooling projection device mounted on remote-controlled mobile
JP7476725B2 (en) 2020-08-25 2024-05-01 株式会社Jvcケンウッド Turn signal devices and turn signal systems

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021097294A (en) * 2019-12-16 2021-06-24 日亜化学工業株式会社 Remote-controlled mobile and method for cooling projection device mounted on remote-controlled mobile
JP7406082B2 (en) 2019-12-16 2023-12-27 日亜化学工業株式会社 A method for cooling a remote-controlled moving object and a projection device mounted on the remote-controlled moving object
JP7476725B2 (en) 2020-08-25 2024-05-01 株式会社Jvcケンウッド Turn signal devices and turn signal systems

Similar Documents

Publication Publication Date Title
KR102124894B1 (en) Information display
KR102089036B1 (en) Information display apparatus, information providing system, mobile device, information display method and recording medium
JP7065383B2 (en) Display systems, information presentation systems, display system control methods, programs, and moving objects
JP5772841B2 (en) Vehicle display device
US10621776B2 (en) Information display apparatus that changes a virtual image differently from a degree of the change depth
WO2017094427A1 (en) Head-up display
US10668857B2 (en) Reflector, information display apparatus, and movable body
KR20190015552A (en) DISPLAY DEVICE, MOBILE DEVICE, AND METHOD OF MANUFACTURING DISPLAY DEVICE
WO2019004244A1 (en) Display system, information presentation system, method for controlling display system, program, and mobile body
JP4605509B2 (en) Three-dimensional stereoscopic image display device
WO2020237923A1 (en) Display panel, display method, and display system
JP2017158037A (en) Projection device and projection system
JP6121097B2 (en) Information presentation device
KR102650332B1 (en) Apparatus and method for displaying three dimensional image
JP2017194548A (en) Display device
JP2018167669A (en) Head-up display device
JP7266257B2 (en) DISPLAY SYSTEM AND METHOD OF CONTROLLING DISPLAY SYSTEM
JP2023001957A (en) Aerial image displaying device
CN116684565A (en) Display method, device, vehicle and storage medium
JP2020194122A (en) Optical scanner, display system, and movable body