JP6467516B2 - Projector device with distance image acquisition device and projection method - Google Patents

Projector device with distance image acquisition device and projection method Download PDF

Info

Publication number
JP6467516B2
JP6467516B2 JP2017543009A JP2017543009A JP6467516B2 JP 6467516 B2 JP6467516 B2 JP 6467516B2 JP 2017543009 A JP2017543009 A JP 2017543009A JP 2017543009 A JP2017543009 A JP 2017543009A JP 6467516 B2 JP6467516 B2 JP 6467516B2
Authority
JP
Japan
Prior art keywords
projection
image
distance
distance image
difference value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017543009A
Other languages
Japanese (ja)
Other versions
JPWO2017056776A1 (en
Inventor
潤也 北川
潤也 北川
智行 河合
智行 河合
新貝 安浩
安浩 新貝
智紀 増田
智紀 増田
善工 古田
善工 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2017056776A1 publication Critical patent/JPWO2017056776A1/en
Application granted granted Critical
Publication of JP6467516B2 publication Critical patent/JP6467516B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/142Adjusting of projection optics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/53Means for automatic focusing, e.g. to compensate thermal effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/317Convergence or focusing systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/005Projectors using an electronic spatial light modulator but not peculiar thereto
    • G03B21/006Projectors using an electronic spatial light modulator but not peculiar thereto using LCD's
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/2053Intensity control of illuminating light

Description

本発明は、距離画像取得装置付きプロジェクタ装置及びプロジェクション方法に関し、特に移動及び静止する被投影体の動きに合わせて画像を投影する技術に関する。   The present invention relates to a projector apparatus with a distance image acquisition apparatus and a projection method, and more particularly to a technique for projecting an image in accordance with the movement of a moving and stationary projection object.

距離情報を取得しながら画像を取得するカメラとして、TOF(Time Of Flight)カメラが知られている。TOFカメラは、被写体に光を照射し、その反射光をイメージセンサで受光するまでの時間(飛翔時間)を測定することにより被写体までの距離を示す距離画像(深度データ)を求めるものである。   A TOF (Time Of Flight) camera is known as a camera that acquires an image while acquiring distance information. The TOF camera obtains a distance image (depth data) indicating the distance to the subject by irradiating the subject with light and measuring the time (flight time) until the reflected light is received by the image sensor.

また、プロジェクタ装置から被投影体の立体形状に合わせて画像を投影する技術も知られており、プロジェクションマッピング、ビデオマッピングなどと呼ばれている。   In addition, a technique for projecting an image from a projector device according to the three-dimensional shape of a projection target is also known, and is called projection mapping, video mapping, or the like.

特許文献1では、被投影体の撮像画像を電子カメラの座標系から表示画面の座標系に座標変換し、変換後の画像の被投影体に対してエッジ処理を行うことで閉領域の輪郭形状を抽出し、その輪郭形状に対してプロジェクションマッピングを行うことが記載されている。   In Patent Document 1, a contour image of a closed region is obtained by performing coordinate conversion of a captured image of a projection object from a coordinate system of an electronic camera to a coordinate system of a display screen and performing edge processing on the projection object of the converted image. Is extracted and projection mapping is performed on the contour shape.

また特許文献2では、被投影体の距離画像をリアルタイムに取得する装置としてTOFカメラを利用し、プロジェクタ装置と一体化することで、プロジェクションマッピング用の装置を小型化する技術が提案されている。   Further, Patent Document 2 proposes a technique for using a TOF camera as a device that acquires a distance image of a projection object in real time and integrating the projector device with a projector device, thereby miniaturizing a projection mapping device.

特に特許文献2に記載のプロジェクタ装置は、投影用の画像をパルス光として照射し、これによりプロジェクタ装置の光源及び投影レンズを、TOFカメラの光源及び投影レンズとして兼用することを特徴としている。   In particular, the projector device described in Patent Document 2 is characterized in that a projection image is irradiated as pulsed light, whereby the light source and projection lens of the projector device are also used as the light source and projection lens of the TOF camera.

特開2013−192189号公報JP 2013-192189 A 特表2013−546222号公報Special table 2013-546222 gazette

ここでプロジェクションマッピングでは、被投影体の形状に合わせて生成された画像を投影するので、被投影体が動いているか又は静止しているかの検出が重要となる。すなわち、移動している被投影体に対してプロジェクションマッピングを行う場合、被投影体と投影画像とのずれが発生し上手くプロジェクションマッピングが行えない場合が発生する。   Here, in the projection mapping, an image generated in accordance with the shape of the projection object is projected, so it is important to detect whether the projection object is moving or stationary. That is, when projection mapping is performed on a moving projection object, there may be a case where the projection mapping and the projection image are misaligned and the projection mapping cannot be performed well.

一方で被投影体の動きを検出するためには、被投影体の動きを検出するための検出装置の機能をプロジェクタ装置にさらに追加しなければならず、プロジェクタ装置が大型化又は複雑化する要因となる。   On the other hand, in order to detect the movement of the projection object, a function of a detection device for detecting the movement of the projection object has to be added to the projector apparatus, which causes the projector apparatus to become larger or complicated. It becomes.

上述した特許文献1及び2には、プロジェクションマッピングを行う場合にプロジェクタ装置の大型化又は複雑化を抑制し且つ被投影体の動きを検出することに関しては言及されていない。   Patent Documents 1 and 2 described above do not refer to detecting the movement of the projection target while suppressing the enlargement or complication of the projector apparatus when performing projection mapping.

本発明はこのような事情に鑑みてなされたもので、その目的は、プロジェクタ装置の大型化又は複雑化を抑制し且つ被投影体の動きを検出し、被投影体に対して精度よく画像を投影する距離画像取得装置付きプロジェクタ装置及びプロジェクション方法を提供することである。   The present invention has been made in view of such circumstances, and an object of the present invention is to suppress the enlargement or complexity of the projector device, detect the movement of the projection object, and accurately display the image on the projection object. To provide a projector device with a distance image acquisition device and a projection method for projection.

上記目的を達成するための本発明の一の態様である距離画像取得装置付きプロジェクタ装置は、投影画像を表示する表示用光学素子と、表示用光学素子に表示された投影画像を被投影体に投影する投影光源及び投影レンズと、を備えたプロジェクタ装置と、複数の受光素子が2次元状に配列された距離画像センサと、測定用光源と、測定用光源から出射され、被投影体にて反射する測定光を距離画像センサに結像させる結像レンズと、測定用光源から出射され、被投影体にて反射して距離画像センサに入射する測定光の飛翔時間に対応する距離情報を距離画像センサから取得し、取得した距離情報に基づいて距離画像を生成する距離画像生成部と、を備えた距離画像取得装置と、からなり、プロジェクタ装置は、距離画像取得装置により取得した距離画像に基づいて被投影体の形状を検出し、検出した形状に対応する投影画像を生成する投影画像生成部と、距離画像取得装置により第1のタイミングで取得された第1の距離画像が有する距離情報と第2のタイミングで取得された第2の距離画像が有する距離情報との差分値を取得する差分値取得部と、差分値取得部で取得された差分値に基づいて被投影体が静止しているか否かの判定を行う判定部と、判定部の判定結果に基づいて、被投影体に対して投影画像生成部で生成された画像の投影を行う指示を出力する投影指示部と、投影指示部から出力された投影を行う指示に基づいてプロジェクタ装置の投影を制御する投影制御部と、を備える。   In order to achieve the above object, a projector with a distance image acquisition device according to one aspect of the present invention includes a display optical element for displaying a projection image, and a projection image displayed on the display optical element as a projection object. A projection apparatus including a projection light source and a projection lens to project, a distance image sensor in which a plurality of light receiving elements are arranged in a two-dimensional manner, a measurement light source, and a measurement light source. An imaging lens that forms an image of the reflected measurement light on the distance image sensor, and distance information corresponding to the flight time of the measurement light emitted from the measurement light source, reflected by the projection object, and incident on the distance image sensor. A distance image acquisition device including a distance image generation unit that acquires from the image sensor and generates a distance image based on the acquired distance information. The projector device is acquired by the distance image acquisition device. A projection image generation unit that detects the shape of the projection object based on the measured distance image and generates a projection image corresponding to the detected shape; and a first distance image acquired at a first timing by the distance image acquisition device A difference value acquisition unit that acquires a difference value between the distance information included in the image and the distance information included in the second distance image acquired at the second timing, and the projection based on the difference value acquired by the difference value acquisition unit A determination unit that determines whether or not the body is stationary, and a projection instruction that outputs an instruction to project the image generated by the projection image generation unit to the projection target based on the determination result of the determination unit And a projection control unit that controls projection of the projector device based on an instruction to perform projection output from the projection instruction unit.

本態様によれば、距離画像取得装置の距離画像生成部で生成された距離画像に基づいて、投影体の形状を検出して投影画像が生成される。さらに本態様によれば、第1のタイミングで取得された距離画像及び第2のタイミングで取得された距離画像の差分値から被投影体が静止しているか否かの判定がされ、その判定に基づいて投影がおこなわれる。これにより、本態様は、距離画像を投影画像の生成及び被投影体が静止しているか否かの判定に使用するので、装置の大型化又は複雑化を抑制し且つ被投影体の動きを検出することができ、被投影体に対して精度良く投影画像を投影することができる。   According to this aspect, the projection image is generated by detecting the shape of the projection body based on the distance image generated by the distance image generation unit of the distance image acquisition device. Furthermore, according to this aspect, it is determined whether or not the projection target is stationary from the difference value between the distance image acquired at the first timing and the distance image acquired at the second timing. Based on the projection. As a result, in this aspect, the distance image is used for generating a projection image and determining whether or not the projection object is stationary, so that the apparatus is prevented from being enlarged or complicated and the movement of the projection object is detected. Therefore, it is possible to accurately project a projection image onto the projection target.

好ましくは、差分値取得部は、第1の距離画像が有する距離情報の平均値と第2の距離画像が有する距離情報の平均値との差分値を取得し、判定部は、差分値が第1の閾値以下である場合に被投影体が静止していると判定する。   Preferably, the difference value acquisition unit acquires a difference value between the average value of the distance information included in the first distance image and the average value of the distance information included in the second distance image, and the determination unit includes the difference value of the first value. When the threshold is 1 or less, it is determined that the projection object is stationary.

本態様によれば、差分値は第1の距離画像が有する距離情報の平均値と第2の距離画像が有する距離情報の平均値とに基づいて算出され、判定部は第1の閾値に基づいて被投影体が静止しているか否かを判定する。これにより、本態様は、距離画像が有する距離情報の平均値に基づいて、より精度良く被投影体が静止しているかの判定を行うことができる。   According to this aspect, the difference value is calculated based on the average value of the distance information included in the first distance image and the average value of the distance information included in the second distance image, and the determination unit is based on the first threshold value. To determine whether the projection object is stationary. Thereby, this aspect can determine more accurately whether the to-be-projected object is still based on the average value of the distance information which a distance image has.

好ましくは、差分値取得部は、第1の距離画像が有する距離情報と第2の距離画像が有する距離情報との最大の差分値を取得し、判定部は、最大の差分値が第2の閾値以下である場合に被投影体が静止していると判定する。   Preferably, the difference value acquisition unit acquires the maximum difference value between the distance information included in the first distance image and the distance information included in the second distance image, and the determination unit determines that the maximum difference value is the second difference value. When it is below the threshold, it is determined that the projection object is stationary.

本態様によれば、差分値は第1の距離画像が有する距離情報と第2の距離画像が有する距離情報との差分値の最大値であり、判定部は第2の閾値に基づいて被投影体が静止しているか否かを判定する。これにより、本態様は、差分値の最大値に基づいて、より精度良く被投影体が静止しているかの判定を行うことができる。   According to this aspect, the difference value is the maximum value of the difference value between the distance information included in the first distance image and the distance information included in the second distance image, and the determination unit is projected based on the second threshold value. Determine if the body is stationary. Thereby, this aspect can determine whether the to-be-projected object is still more accurately based on the maximum value of the difference value.

好ましくは、距離画像取得装置付きプロジェクタ装置は、差分値取得部が取得する差分値に基づいて生成された差分画像を生成する差分画像生成部と、を備える。   Preferably, the projector device with a distance image acquisition device includes a difference image generation unit that generates a difference image generated based on the difference value acquired by the difference value acquisition unit.

本態様によれば、差分値に基づいて差分画像が生成されるので、差分画像を利用することができる。   According to this aspect, since the difference image is generated based on the difference value, the difference image can be used.

好ましくは、差分画像生成部は、差分画像の複数のフレームにおける平均差分値を取得し、判定部は、差分画像の複数のフレームにおける平均差分値が第3の閾値以下である場合に被投影体が静止していると判定する。   Preferably, the difference image generation unit acquires an average difference value in a plurality of frames of the difference image, and the determination unit determines that the average difference value in the plurality of frames of the difference image is equal to or less than a third threshold value. Is determined to be stationary.

本態様によれば、差分画像の複数のフレームにおける平均差分値が第3の閾値以下である場合に被投影体が静止していると判定されるので、より精度良く被投影体が静止しているか否かの判定を行うことができる。   According to this aspect, since the projection object is determined to be stationary when the average difference value in the plurality of frames of the difference image is equal to or less than the third threshold value, the projection object is more accurately stationary. It can be determined whether or not.

好ましくは、差分画像生成部は、差分画像の複数のフレームにおける最大の差分値を取得し、判定部は、差分画像の複数のフレームにおける最大の差分値が第4の閾値以下である場合に被投影体が静止していると判定する。   Preferably, the difference image generation unit obtains the maximum difference value in the plurality of frames of the difference image, and the determination unit receives the difference when the maximum difference value in the plurality of frames of the difference image is equal to or less than a fourth threshold value. It is determined that the projection body is stationary.

本態様によれば、差分画像の複数のフレームにおける最大の差分値が第4の閾値以下である場合に被投影体が静止していると判定されるので、複数フレームにおいて最大の差分値に基づいて被投影体が静止しているか否かの判定を行うことができる。   According to this aspect, since the projection target is determined to be stationary when the maximum difference value in the plurality of frames of the difference image is equal to or less than the fourth threshold value, based on the maximum difference value in the plurality of frames. Thus, it can be determined whether or not the projection object is stationary.

好ましくは、差分画像生成部は、差分画像の領域毎の差分値を取得し、判定部は、差分画像において差分値が第5の閾値以下である領域の大きさに基づいて被投影体が静止しているか否かの判定を行う。   Preferably, the difference image generation unit obtains a difference value for each region of the difference image, and the determination unit determines that the projection object is stationary based on the size of the region where the difference value is equal to or smaller than a fifth threshold in the difference image. It is determined whether or not.

本態様によれば、差分画像において差分値が第5の閾値以下である領域の大きさに基づいて被投影体が静止しているか否かの判定が行われるので、より精度良く被投影体が静止しているか否かの判定を行うことができる。   According to this aspect, since it is determined whether or not the projection object is stationary based on the size of the area where the difference value is equal to or smaller than the fifth threshold in the difference image, the projection object is more accurately detected. It can be determined whether or not it is stationary.

好ましくは、差分画像生成部は、差分画像の領域毎の差分値を複数フレームにおいて取得し、判定部は、複数フレームの差分画像において差分値が第6の閾値以下である領域の大きさに基づいて被投影体が静止しているか否かの判定を行う。   Preferably, the difference image generation unit acquires a difference value for each region of the difference image in a plurality of frames, and the determination unit is based on a size of a region in which the difference value is equal to or smaller than a sixth threshold in the difference image of the plurality of frames. To determine whether or not the projection object is stationary.

本態様によれば、複数フレームの差分画像において差分値が第6の閾値以下である領域の大きさに基づいて被投影体が静止しているか否かの判定が行われるので、複数フレームにおいての被投影体の静止を精度良く判定することができる。   According to this aspect, since it is determined whether or not the projection object is stationary based on the size of the area whose difference value is equal to or smaller than the sixth threshold in the difference image of the plurality of frames, The stationary state of the projection object can be accurately determined.

好ましくは、差分画像生成部は、差分画像の領域に応じて設定された重み付け係数に差分値を乗じた値を取得し、判定部は、重み付け係数に差分値を乗じた値が第7の閾値以下である場合に被投影体が静止しているとの判定を行う。   Preferably, the difference image generation unit obtains a value obtained by multiplying the weighting coefficient set in accordance with the area of the difference image by the difference value, and the determination unit obtains a value obtained by multiplying the weighting coefficient by the difference value as a seventh threshold value. When the following is true, it is determined that the projection target is stationary.

本態様によれば、差分値は差分画像の領域に応じて設定された重み付けに基づいて取得され、その差分値に基づいて被投影体が静止しているか否かの判定が行われるので、より正確な被投影体の動きの判定を行うことができる。   According to this aspect, the difference value is acquired based on the weighting set according to the area of the difference image, and it is determined whether or not the projection object is stationary based on the difference value. It is possible to accurately determine the movement of the projection object.

好ましくは、距離画像取得装置付きプロジェクタ装置は、判定部の判定結果に基づいて、被投影体に対して投影画像生成部で生成された画像の投影の停止指示を出力する投影停止指示部と、を備え、投影制御部は、投影停止指示部からの投影の停止指示に基づいてプロジェクタ装置の投影を制御する。   Preferably, the projector device with a distance image acquisition device outputs a projection stop instruction unit that outputs a projection stop instruction of the image generated by the projection image generation unit to the projection target based on the determination result of the determination unit; The projection control unit controls the projection of the projector device based on the projection stop instruction from the projection stop instruction unit.

本態様によれば、判定結果に基づいて画像投影の停止指示が出力され、その停止指示に基づいてプロジェクタ装置の投影が制御されるので、被投影体が静止した後に再び動き始めた場合に投影を停止する。これにより、移動している被投影体への投影を防ぎより精度の良い投影を行うことができる。   According to this aspect, since an instruction to stop image projection is output based on the determination result, and projection of the projector device is controlled based on the stop instruction, the projection is performed when the projection object starts moving again after being stationary. To stop. As a result, it is possible to perform projection with higher accuracy by preventing projection onto the moving projection object.

本発明の他の態様であるプロジェクション方法は、投影画像を表示する表示用光学素子と、表示用光学素子に表示された投影画像を被投影体に投影する投影光源及び投影レンズと、を備えたプロジェクタ装置と、複数の受光素子が2次元状に配列された距離画像センサと、測定用光源と、測定用光源から出射され、被投影体にて反射する測定光を距離画像センサに結像させる結像レンズと、測定用光源から出射され、被投影体にて反射して距離画像センサに入射する測定光の飛翔時間に対応する距離情報を距離画像センサから取得し、取得した距離情報に基づいて距離画像を生成する距離画像生成部と、を備えた距離画像取得装置と、からなる距離画像取得装置付きプロジェクタ装置を使用するプロジェクション方法であり、距離画像取得装置により取得した距離画像に基づいて被投影体の形状を検出し、検出した形状に対応する投影画像を生成する投影画像生成ステップと、距離画像取得装置により第1のタイミングで取得された第1の距離画像が有する距離情報と第2のタイミングで取得された第2の距離画像が有する距離情報との差分値を取得する差分値取得ステップと、差分値取得ステップで取得された差分値に基づいて被投影体が静止しているか否かの判定を行う判定ステップと、判定ステップの判定結果に基づいて、被投影体に対して投影画像生成ステップで生成された画像の投影を行う指示を出力する投影指示ステップと、投影指示ステップから出力された投影を行う指示に基づいてプロジェクタ装置の投影を制御する投影制御ステップと、を含む。   A projection method according to another aspect of the present invention includes a display optical element that displays a projection image, and a projection light source and a projection lens that project the projection image displayed on the display optical element onto a projection target. A projector apparatus, a distance image sensor in which a plurality of light receiving elements are arranged in a two-dimensional manner, a measurement light source, and measurement light emitted from the measurement light source and reflected by the projection object is imaged on the distance image sensor. The distance information corresponding to the flight time of the measurement light emitted from the imaging lens and the measurement light source, reflected by the projection object and incident on the distance image sensor is acquired from the distance image sensor, and based on the acquired distance information A distance image generation unit including a distance image generation unit configured to generate a distance image, and a projection method using a projector device with a distance image acquisition device. A projection image generating step for detecting the shape of the projection object based on the distance image acquired by the step S1 and generating a projection image corresponding to the detected shape; and the first acquired by the distance image acquisition device at the first timing. Based on the difference value acquisition step for acquiring the difference value between the distance information included in the distance image and the distance information included in the second distance image acquired at the second timing, and the difference value acquired in the difference value acquisition step A determination step for determining whether or not the projection target is stationary, and an instruction for projecting the image generated in the projection image generation step to the projection target based on the determination result of the determination step A projection instruction step; and a projection control step of controlling the projection of the projector device based on the instruction to perform the projection output from the projection instruction step.

本発明によれば、距離画像取得装置の距離画像生成部で生成された距離画像に基づいて、投影体の形状を検出して投影画像が生成され、第1のタイミングで取得された距離画像及び第2のタイミングで取得された距離画像の差分値から被投影体が静止しているか否かの判定がされ、その判定に基づいて投影がおこなわれる。これにより、本発明は、距離画像を投影画像の生成及び被投影体が静止しているか否かの判定に使用するので、装置の大型化又は複雑化を抑制し且つ被投影体の動きを検出することができ、被投影体に対して精度良く投影画像を投影することができる。   According to the present invention, based on the distance image generated by the distance image generation unit of the distance image acquisition device, the projection image is generated by detecting the shape of the projection body, and the distance image acquired at the first timing and It is determined whether or not the projection target is stationary from the difference value of the distance image acquired at the second timing, and projection is performed based on the determination. As a result, the present invention uses the distance image to generate a projection image and determine whether or not the projection object is stationary, thereby suppressing the enlargement or complication of the apparatus and detecting the movement of the projection object. Therefore, it is possible to accurately project a projection image onto the projection target.

図1は距離画像取得装置付きプロジェクタ装置が使用される場合を示す概念図である。FIG. 1 is a conceptual diagram showing a case where a projector device with a distance image acquisition device is used. 図2は図1で説明した被投影体を正面から見た図である。FIG. 2 is a front view of the projection object described in FIG. 図3は図2で説明した被投影体に対してプロジェクションマッピングが行われている態様を概念的に示す図である。FIG. 3 is a diagram conceptually showing an aspect in which projection mapping is performed on the projection object described in FIG. 図4はプロジェクタ装置の構成を示すブロック図である。FIG. 4 is a block diagram showing the configuration of the projector apparatus. 図5は被投影体の距離の演算処理を説明する図である。FIG. 5 is a diagram for explaining the calculation processing of the distance of the projection target. 図6は制御部の構成を示すブロック図である。FIG. 6 is a block diagram showing the configuration of the control unit. 図7は差分値取得部が行う差分値の取得に関して説明する図である。FIG. 7 is a diagram illustrating the difference value acquisition performed by the difference value acquisition unit. 図8は差分値取得部が行う差分値の取得に関して説明する図である。FIG. 8 is a diagram for explaining the difference value acquisition performed by the difference value acquisition unit. 図9はプロジェクタ装置の動作を示すフロー図である。FIG. 9 is a flowchart showing the operation of the projector apparatus. 図10は制御部の構成を示すブロック図である。FIG. 10 is a block diagram showing the configuration of the control unit. 図11は差分画像を示す概念図である。FIG. 11 is a conceptual diagram showing a difference image. 図12は差分画像を示した概念図である。FIG. 12 is a conceptual diagram showing a difference image. 図13は距離画像と差分画像とが概念的に示された図である。FIG. 13 is a diagram conceptually showing a distance image and a difference image. 図14は距離画像と差分画像とが概念的に示された図である。FIG. 14 is a diagram conceptually showing a distance image and a difference image.

以下、添付図面に従って本発明に係る距離画像取得装置付きプロジェクタ装置及びプロジェクション方法の好ましい実施の形態について説明する。   Preferred embodiments of a projector apparatus with a distance image acquisition apparatus and a projection method according to the present invention will be described below with reference to the accompanying drawings.

図1は、本発明に係る距離画像取得装置付きプロジェクタ装置が使用される場合を示す概念図である。被投影体2である人物が距離画像取得装置付きプロジェクタ装置20(以下、プロジェクタ装置20という)に直進してくる場合が示されている。図1に示す場合の具体例としてはファッションショー等が想定される。プロジェクタ装置20は、距離画像取得部(距離画像取得装置)20Aとプロジェクタ部(プロジェクタ装置)20Bとを備えている。プロジェクタ装置20は、被投影体2である人物が着ている服を投影領域3とし、被投影体2が静止している場合に被投影体2の投影領域3に対してプロジェクションマッピング(Projection Mapping)を行う。   FIG. 1 is a conceptual diagram showing a case where a projector device with a distance image acquisition device according to the present invention is used. The case where the person who is the to-be-projected body 2 goes straight to the projector device 20 with a distance image acquisition device (hereinafter referred to as the projector device 20) is shown. As a specific example shown in FIG. 1, a fashion show or the like is assumed. The projector device 20 includes a distance image acquisition unit (distance image acquisition device) 20A and a projector unit (projector device) 20B. The projector device 20 sets the clothes worn by the person as the projection object 2 as the projection area 3, and the projection mapping (Projection Mapping) with respect to the projection area 3 of the projection object 2 when the projection object 2 is stationary. )I do.

図2は、図1で説明した被投影体2を正面から見た図である。図2(A)は時刻T1での被投影体2の正面図であり、図2(B)は時刻T2での被投影体2を正面図であり、図2(C)は時刻T3での被投影体2を正面図である。図2(A)〜(C)に示すように被投影体2が移動している場合、プロジェクタ装置20と被投影体2との距離が変化するので投影領域3の範囲が変化する。投影領域3の範囲が変化すると、投影領域3に合わせて生成された投影画像と投影領域3とが一致しなくなる。よって、本発明では投影画像と投影領域3との上述したような不一致を防ぐため、被投影体2の動きを検知して、被投影体2が静止している場合にプロジェクションマッピングを行う。   FIG. 2 is a front view of the projection object 2 described with reference to FIG. 2A is a front view of the projection target 2 at time T1, FIG. 2B is a front view of the projection target 2 at time T2, and FIG. It is a front view of the to-be-projected body 2. FIG. As shown in FIGS. 2A to 2C, when the projection object 2 is moving, the distance between the projector device 20 and the projection object 2 changes, so the range of the projection region 3 changes. When the range of the projection area 3 changes, the projection image generated in accordance with the projection area 3 and the projection area 3 do not match. Therefore, in the present invention, in order to prevent the above-described mismatch between the projection image and the projection region 3, the movement of the projection object 2 is detected, and projection mapping is performed when the projection object 2 is stationary.

図3は、図2(C)で説明した被投影体2に対してプロジェクションマッピングが行われている態様を概念的に示す図である。プロジェクタ装置20は、被投影体2である人物が着ている服に対して投影画像5を投影している。プロジェクタ装置20により投影される投影画像5は、被投影体2である人物が着ている服が構成する閉領域の形状を投影領域3に合わせて形成されている。このように、投影領域3の形状に合わせた投影画像5を投影することは一般にプロジェクションマッピングと呼ばれている。   FIG. 3 is a diagram conceptually showing an aspect in which projection mapping is performed on the projection object 2 described in FIG. The projector device 20 projects the projection image 5 on clothes worn by a person who is the projection object 2. The projection image 5 projected by the projector device 20 is formed by matching the shape of the closed region formed by the clothes worn by the person who is the projection object 2 with the projection region 3. In this way, projecting the projection image 5 in accordance with the shape of the projection region 3 is generally called projection mapping.

図4は、プロジェクタ装置20の構成を示すブロック図である。このプロジェクタ装置20は、距離画像の取得を行う距離画像取得部20Aと、投影画像5の投影を行うプロジェクタ部20Bと、制御部26と、メモリ27と、投影画像生成部28と、入力I/F(interface)29と、を備えている。なお制御部26、メモリ27、及び入力I/F29は、距離画像取得部20A及びプロジェクタ部20Bにおいて共通に機能する。   FIG. 4 is a block diagram showing the configuration of the projector device 20. The projector device 20 includes a distance image acquisition unit 20A that acquires a distance image, a projector unit 20B that projects a projection image 5, a control unit 26, a memory 27, a projection image generation unit 28, and an input I / O. F (interface) 29. The control unit 26, the memory 27, and the input I / F 29 function in common in the distance image acquisition unit 20A and the projector unit 20B.

距離画像取得部20Aは、パルス光検出方式の距離画像の取得を行うものであり、タイミングジェネレータ31と、LED(Light Emitting Diode)光源(測定用光源)32と、光源ドライバ33と、投影レンズ35と、結像レンズ36と、レンズドライバ37と、距離画像センサ38と、図中「A/D」と表示しているAD(Analog-to-Digital)変換器39と、図中「I/F」と表示しているインターフェース(interface)回路40と、を含む。距離画像取得部20Aは所謂TOF(Time Of Flight)カメラの機能を有する。TOF(Time Of Flight)カメラの原理に関しては後述する。なお距離画像とは、TOFなどの距離計測方法によって得られる距離値(距離情報)の2次元分布画像のことである。距離画像の各画素は距離値(距離情報)を有する。   The distance image acquisition unit 20A acquires a distance image of a pulsed light detection method, and includes a timing generator 31, an LED (Light Emitting Diode) light source (measurement light source) 32, a light source driver 33, and a projection lens 35. An imaging lens 36, a lens driver 37, a distance image sensor 38, an AD (Analog-to-Digital) converter 39 labeled "A / D" in the figure, and an "I / F" in the figure. And an interface circuit 40 labeled "". The distance image acquisition unit 20A has a function of a so-called TOF (Time Of Flight) camera. The principle of the TOF (Time Of Flight) camera will be described later. The distance image is a two-dimensional distribution image of distance values (distance information) obtained by a distance measurement method such as TOF. Each pixel of the distance image has a distance value (distance information).

タイミングジェネレータ31は、制御部26の制御の下、LED光源32と距離画像センサ38とにそれぞれタイミング信号を出力する。   The timing generator 31 outputs timing signals to the LED light source 32 and the distance image sensor 38 under the control of the control unit 26.

LED光源32は、タイミングジェネレータ31から入力されるタイミング信号に同期して一定のパルス幅のパルス光を発光する。光源ドライバ33は、制御部26の制御の下、LED光源32の駆動を制御する。   The LED light source 32 emits pulsed light having a constant pulse width in synchronization with the timing signal input from the timing generator 31. The light source driver 33 controls the driving of the LED light source 32 under the control of the control unit 26.

投影レンズ35は、LED光源32から出射したパルス光を、被投影体2に向けて照射する。結像レンズ36は、LED光源32から投影レンズ35を通して被投影体2にパルス光が照射された場合、この被投影体2にて反射されたパルス光を距離画像センサ38に結像させる。レンズドライバ37は、図示しないレンズ駆動部を介して、結像レンズ36のフォーカス制御等を行う。   The projection lens 35 irradiates the projection object 2 with the pulsed light emitted from the LED light source 32. The imaging lens 36 forms an image on the distance image sensor 38 of the pulsed light reflected by the projection target 2 when the projection target 2 is irradiated with pulsed light from the LED light source 32 through the projection lens 35. The lens driver 37 performs focus control and the like of the imaging lens 36 via a lens driving unit (not shown).

距離画像センサ38は、複数の受光素子が2次元状に配列されており、垂直ドライバ及び水平ドライバ等を有するCMOS(Complementary Metal-Oxide Semiconductor)ドライバ、及びタイミングジェネレータ31により駆動されるCMOS型のイメージセンサにより構成されている。尚、距離画像センサ38は、CMOS型に限らず、XYアドレス型、又はCCD(Charge Coupled Device)型のイメージセンサでもよい。   The distance image sensor 38 has a plurality of light receiving elements arranged in a two-dimensional form, a CMOS (Complementary Metal-Oxide Semiconductor) driver having a vertical driver and a horizontal driver, and a CMOS type image driven by a timing generator 31. It is composed of sensors. The distance image sensor 38 is not limited to the CMOS type, but may be an XY address type or a CCD (Charge Coupled Device) type image sensor.

距離画像センサ38は、2次元状に複数の受光素子(フォトダイオード)が配列され、複数の受光素子の入射面側には、LED光源32から発光されるパルス光の波長帯域のみを通過させるバンドパスフィルタ、又は可視光を除去する可視光カットフィルタを設けてもよい。これにより、距離画像センサ38の複数の受光素子は、パルス光に対して感度をもった画素として機能する。   The distance image sensor 38 has a plurality of light receiving elements (photodiodes) arranged two-dimensionally, and a band that allows only the wavelength band of the pulsed light emitted from the LED light source 32 to pass through the incident surface side of the plurality of light receiving elements. A pass filter or a visible light cut filter for removing visible light may be provided. Thereby, the plurality of light receiving elements of the distance image sensor 38 function as pixels having sensitivity to pulsed light.

距離画像センサ38は、タイミングジェネレータ31から入力されるタイミング信号により、LED光源32のパルス光の発光と同期して露光期間(露光時間及び露光タイミング)が制御される。距離画像センサ38の各受光素子には、露光期間に入射するパルス光の光量に対応する電荷が蓄積される。このようにパルス光検出方式では、被投影体2までの距離が短いほど露光量が多くなり、逆に被投影体2までの距離が遠いほど露光量が少なくなるので、露光量の大きさに応じて被投影体2までの距離を測定することができる。そして、距離画像センサ38からは、被投影体2にて反射されたパルス光の入射光量に応じた画素信号(画素毎に蓄積された電荷に対応するアナログ信号)が読み出される。   The distance image sensor 38 controls the exposure period (exposure time and exposure timing) in synchronization with the emission of pulsed light from the LED light source 32 by the timing signal input from the timing generator 31. Electric charges corresponding to the amount of pulsed light incident during the exposure period are accumulated in each light receiving element of the distance image sensor 38. Thus, in the pulsed light detection method, the exposure amount increases as the distance to the projection object 2 decreases, and conversely, the exposure amount decreases as the distance to the projection object 2 increases. Accordingly, the distance to the projection object 2 can be measured. Then, from the distance image sensor 38, a pixel signal (analog signal corresponding to the charge accumulated for each pixel) corresponding to the incident light amount of the pulsed light reflected by the projection object 2 is read out.

AD変換器39は、距離画像センサ38から読み出された画素信号をデジタル信号に変換してインターフェース回路40へ出力する。なお、CMOS型のイメージセンサには、AD変換器39を含むものがあり、この場合にはAD変換器39は省略することができる。インターフェース回路40は、画像入力コントローラとして機能するものであり、AD変換器39から入力されたデジタル信号を制御部26へ出力する。これにより、詳しくは後述するが、制御部26の距離画像生成部113(図6)で距離画像が生成され、さらに投影画像生成部28により投影画像5が生成される。   The AD converter 39 converts the pixel signal read from the distance image sensor 38 into a digital signal and outputs the digital signal to the interface circuit 40. Some CMOS image sensors include an AD converter 39. In this case, the AD converter 39 can be omitted. The interface circuit 40 functions as an image input controller, and outputs the digital signal input from the AD converter 39 to the control unit 26. Thereby, as will be described in detail later, a distance image is generated by the distance image generation unit 113 (FIG. 6) of the control unit 26, and a projection image 5 is further generated by the projection image generation unit 28.

プロジェクタ部20Bは、所謂単板式の液晶プロジェクタであり、表示用光学素子(光変調素子ともいう)42と、素子ドライバ43と、LED光源(投影光源)44と、光源ドライバ45と、投影レンズ46と、レンズドライバ47と、を含む。   The projector unit 20B is a so-called single-plate liquid crystal projector, and includes a display optical element (also referred to as a light modulation element) 42, an element driver 43, an LED light source (projection light source) 44, a light source driver 45, and a projection lens 46. And a lens driver 47.

表示用光学素子42は、複数色のカラーフィルタを備えた透過型の液晶パネル、又はダイクロイックミラーとマイクロレンズアレイとモノクロの透過型の液晶パネルとを組み合わせたカラーフィルタレス構造の素子等が用いられる。カラーフィルタレス構造の素子は、例えば、R(Red)光、G(Green)光、B(Blue)光をそれぞれ反射する3種類のダイクロイックミラーにより白色光をRGBの3色の光に分光し、3色の光を互いに異なった角度で液晶パネル上のマイクロレンズアレイに入射させる。そして、3色の光をマイクロレンズアレイにより液晶パネルのR用画素、G用画素、B用画素にそれぞれ入射させることによりカラー画像の表示が可能となる。   As the display optical element 42, a transmissive liquid crystal panel including a plurality of color filters, or an element having a color filterless structure in which a dichroic mirror, a microlens array, and a monochrome transmissive liquid crystal panel are combined is used. . The element of the color filterless structure, for example, separates white light into RGB three-color light by three types of dichroic mirrors that reflect R (Red) light, G (Green) light, and B (Blue) light, respectively. The three colors of light are incident on the microlens array on the liquid crystal panel at different angles. A color image can be displayed by causing light of three colors to enter the R pixel, G pixel, and B pixel of the liquid crystal panel by the microlens array.

なお、プロジェクタ部20Bは、単板式の液晶プロジェクタに限定されるものでなく、色分離光学及び複数の液晶パネルを備える公知の3板式の液晶プロジェクタであってもよい。また、プロジェクタ部20Bは、透過型液晶方式に限定されるものではなく、反射型液晶表示方式やマイクロミラーデバイス方式(ライトスイッチ表示方式)等の他の方式を採用してもよい。   The projector unit 20B is not limited to a single-plate liquid crystal projector, and may be a known three-plate liquid crystal projector including color separation optics and a plurality of liquid crystal panels. Further, the projector unit 20B is not limited to the transmissive liquid crystal method, and may adopt other methods such as a reflective liquid crystal display method and a micromirror device method (light switch display method).

素子ドライバ43は、制御部26の制御の下、表示用光学素子42を制御して、後述する投影画像生成部28が生成した投影画像5を表示させる。   The element driver 43 controls the display optical element 42 under the control of the control unit 26 to display the projection image 5 generated by the projection image generation unit 28 described later.

LED光源44は、表示用光学素子42の背面側(投影レンズ46に対向する面とは反対面側)から表示用光学素子42に対して白色光を入射させる。これにより、表示用光学素子42から投影画像5の像光が出射される。光源ドライバ45は、制御部26の制御の下、LED光源44の駆動を制御する。   The LED light source 44 causes white light to enter the display optical element 42 from the back side of the display optical element 42 (the side opposite to the surface facing the projection lens 46). Thereby, the image light of the projected image 5 is emitted from the display optical element 42. The light source driver 45 controls the driving of the LED light source 44 under the control of the control unit 26.

投影レンズ46は、表示用光学素子42から出射される投影画像5の像光を被投影体2に投影する。レンズドライバ47は、図示しないレンズ駆動部を介して、投影レンズ46のフォーカス制御等を行う。   The projection lens 46 projects the image light of the projection image 5 emitted from the display optical element 42 onto the projection target 2. The lens driver 47 performs focus control and the like of the projection lens 46 via a lens driving unit (not shown).

制御部26は、データバス49を介して、タイミングジェネレータ31、光源ドライバ33、レンズドライバ37、距離画像センサ38、インターフェース回路40、素子ドライバ43、光源ドライバ45、及びレンズドライバ47等に接続している。この制御部26は、例えばCPU(Central Processing Unit)を含む各種の演算部及び処理部及び記憶部により構成されたものであり、メモリ27から読み出した制御用のプログラムやデータを実行することで、プロジェクタ装置20の全体の動作や処理を統括制御する。   The control unit 26 is connected to the timing generator 31, the light source driver 33, the lens driver 37, the distance image sensor 38, the interface circuit 40, the element driver 43, the light source driver 45, the lens driver 47, and the like via the data bus 49. Yes. The control unit 26 includes various arithmetic units, a processing unit, and a storage unit including, for example, a CPU (Central Processing Unit), and by executing a control program and data read from the memory 27, Overall operation and processing of the projector device 20 are controlled.

メモリ27は、制御部26が処理を実行するための制御用のプログラム等を格納している。   The memory 27 stores a control program for the control unit 26 to execute processing.

投影画像生成部28は、制御部26の制御の下、制御部26から入力されたデータや情報に基づいて投影画像5の生成を行う。すなわち投影画像生成部28は、距離画像取得装置により取得した距離画像に基づいて被投影体2の形状を検出し、検出した形状に対応する投影画像5を生成する。なお投影画像生成部28が行う投影画像5の生成に関しては後述する。   The projection image generation unit 28 generates the projection image 5 based on data and information input from the control unit 26 under the control of the control unit 26. That is, the projection image generation unit 28 detects the shape of the projection object 2 based on the distance image acquired by the distance image acquisition device, and generates the projection image 5 corresponding to the detected shape. The generation of the projection image 5 performed by the projection image generation unit 28 will be described later.

<TOF法の基本原理>
次に、TOFカメラにより距離画像を取得する基本原理について説明する。以下、TOFカメラ(距離画像取得部20A)により被投影体2の距離画像を取得する場合について説明する。
<Basic principle of TOF method>
Next, the basic principle of acquiring a distance image with a TOF camera will be described. Hereinafter, a case where a distance image of the projection target 2 is acquired by the TOF camera (distance image acquisition unit 20A) will be described.

距離画像取得部20AのLED光源32は、近赤外光を発行するのでタイミングジェネレータ31によりパルス駆動され、その結果、LED光源32からは、パルス幅のパルス光が発光される。このパルス光は、被投影体2の表面で反射し、その反射したパルス光は、距離画像取得部20Aの結像レンズ36を介して距離画像センサ38により結像(受光)される。なお、距離画像センサ38には可視光カットフィルタが設けられており、距離画像センサ38は近赤外のパルス光のみを受光する。   The LED light source 32 of the distance image acquisition unit 20 </ b> A emits near-infrared light, and is therefore pulse-driven by the timing generator 31. As a result, the LED light source 32 emits pulsed light with a pulse width. This pulsed light is reflected by the surface of the projection object 2, and the reflected pulsed light is imaged (received) by the distance image sensor 38 via the imaging lens 36 of the distance image acquisition unit 20A. The distance image sensor 38 is provided with a visible light cut filter, and the distance image sensor 38 receives only near-infrared pulse light.

図5は、被投影体2の距離の演算処理を説明する図である。   FIG. 5 is a diagram for explaining the calculation processing of the distance of the projection target 2.

距離画像取得部20AのLED光源32は、タイミングジェネレータ31によりパルス駆動されるが、LED光源32のパルス駆動に同期して、図5(A)及び(B)に示すように、距離画像センサ38は、タイミングジェネレータ31により第1の露光制御及び第2の露光制御の2回の露光制御が順次行われる。   The LED light source 32 of the distance image acquisition unit 20A is pulse-driven by the timing generator 31. As shown in FIGS. 5A and 5B, the distance image sensor 38 is synchronized with the pulse driving of the LED light source 32. The timing generator 31 sequentially performs the two exposure controls of the first exposure control and the second exposure control.

図5(A)に示す第1の露光制御は、LED光源32からパルス光を発光させ、少なくとも被投影体2の距離に応じて距離画像センサ38の対応する受光素子での露光量に差が生じるように露光期間を制御する露光制御であり、LED光源32からパルス光を発光させた後、一定時間(測距可能な最も遠い被写体からパルス光が戻ってくるまでの時間)経過後に露光を開始し、少なくとも最も遠い被写体にて反射したパルス光の全てが戻ってくる時間(所定の露光時間)経過後に露光を終了させる。   In the first exposure control shown in FIG. 5A, pulse light is emitted from the LED light source 32, and at least according to the distance of the projection object 2, there is a difference in the exposure amount at the corresponding light receiving element of the distance image sensor 38. This is exposure control for controlling the exposure period so as to occur. After the pulse light is emitted from the LED light source 32, the exposure is performed after the elapse of a certain time (the time until the pulse light returns from the farthest object that can be measured). The exposure is terminated after a lapse of time (predetermined exposure time) in which all of the pulsed light reflected from at least the farthest object returns.

図5(B)に示す第2の露光制御は、LED光源32からパルス光を発光させ、パルス光に対する露光開始の位相が第1の露光制御のパルス光に対する露光開始の位相と異なる露光制御であり、被写体の反射率の相違及び全画面一様光量でないパルス光による距離画像センサ38での露光量の変化を除去するための露光制御である。本例では、距離画像センサ38の全ての受光素子が被写体にて反射したパルス光を全て露光する露光制御である。具体的には、LED光源32から発光するパルス光の発光タイミングに同期して露光を開始し、一定時間(少なくとも測距可能な最も遠い被写体からパルス光が全て戻ってくるまでの所定の露光時間)経過後に露光を終了させる。尚、第1の露光制御における「所定の露光時間」と、第2の露光制御における「所定の露光時間」とは同じ時間であるが、上記のようにパルス光に対する露光開始の位相が異なる。   The second exposure control shown in FIG. 5B is an exposure control in which pulse light is emitted from the LED light source 32, and the phase of exposure start with respect to the pulse light is different from the phase of exposure start with respect to the pulse light of the first exposure control. There is exposure control for removing the difference in the reflectance of the subject and the change in the exposure amount at the distance image sensor 38 due to the pulse light that is not a uniform light amount on the entire screen. In this example, exposure control is performed to expose all pulsed light reflected by the subject from all light receiving elements of the distance image sensor 38. Specifically, exposure is started in synchronization with the light emission timing of the pulsed light emitted from the LED light source 32, and a predetermined time (a predetermined exposure time until all the pulsed light returns from at least the farthest subject that can be measured). ) After the elapse of time, the exposure is terminated. The “predetermined exposure time” in the first exposure control and the “predetermined exposure time” in the second exposure control are the same time, but the phase of the exposure start with respect to the pulsed light is different as described above.

次に、制御部26の距離画像生成部113は、図5(C)に示すように第1の露光制御及び第2の露光制御により距離画像センサ38から取得される各露光量に対応するセンサ出力(ある画素の出力データ)を、それぞれ第1のデータL及び第2のデータLとすると、被写体の距離に対応する距離情報Dを、次式により算出する。
[数1]
D=L÷L
即ち、[数1]式によれば、第1のデータLを第2のデータLで除算した除算データを算出する。この除算データは、被写体の反射率の影響が除去され、かつ全画面一様光量でないパルス光の光量の影響が除去された相対距離に対応するデータ(距離情報D)となる。尚、第1のデータLと第2のデータLとに基づいて被写体の絶対距離を求めることも可能である。
Next, the distance image generation unit 113 of the control unit 26 is a sensor corresponding to each exposure amount acquired from the distance image sensor 38 by the first exposure control and the second exposure control as shown in FIG. output (output data of a pixel), the first when the data L 1 and second data L 2, respectively, the distance information D corresponding to the distance to the subject is calculated by the following equation.
[Equation 1]
D = L 1 ÷ L 2
That is, to calculate the division data obtained by dividing the [number 1] According to formula, the first data L 1 second data L 2. This division data is data (distance information D) corresponding to the relative distance from which the influence of the reflectance of the subject is removed and the influence of the light quantity of the pulsed light that is not a uniform light quantity on the entire screen is removed. It is also possible to determine the absolute distance of an object based on the first data L 1 and the second data L 2.

そして、距離画像センサ38の全ての画素毎に距離情報Dを取得することにより、距離画像を生成することができる。   A distance image can be generated by acquiring the distance information D for every pixel of the distance image sensor 38.

<投影画像の生成>
次に投影画像生成部28が行う投影画像5の生成に関して説明する。
<Generation of projection image>
Next, generation of the projection image 5 performed by the projection image generation unit 28 will be described.

投影画像生成部28は、メモリ27に記録されている投影用の画像(動画又は静止画)を、距離画像生成部113(図6)により生成された第1の距離画像及び第2の距離画像(即ち、被投影体2の投影領域3の形状、大きさ及び凹凸といった情報)を利用して、メモリ27に記録されている投影用の画像(動画又は静止画)をトリミング、座標変換、拡縮等の処理を行い、被投影体2の表面に合った投影画像5を生成する。なお、投影画像生成部28が投影画像5の生成のために使用する距離画像として、差分値取得部101で使用された距離画像を使用することによりデータが有効利用されるので好ましい。   The projection image generation unit 28 uses the first distance image and the second distance image generated by the distance image generation unit 113 (FIG. 6) as projection images (moving images or still images) recorded in the memory 27. Using the information (that is, information such as the shape, size, and unevenness of the projection area 3 of the projection object 2), the projection image (moving image or still image) recorded in the memory 27 is trimmed, coordinate-converted, and scaled. The projection image 5 suitable for the surface of the projection object 2 is generated. It is preferable that the distance image used by the difference value acquisition unit 101 is used effectively as the distance image used by the projection image generation unit 28 for generating the projection image 5 because the data is effectively used.

図4に示したプロジェクタ部20Bの表示用光学素子42は、投影画像生成部28により生成された投影画像5に基づいて各光学素子の透過率が制御される。   In the display optical element 42 of the projector unit 20 </ b> B shown in FIG. 4, the transmittance of each optical element is controlled based on the projection image 5 generated by the projection image generation unit 28.

[第1実施形態]
次に本発明の第1実施形態における制御部26に関して説明をする。
[First Embodiment]
Next, the control unit 26 in the first embodiment of the present invention will be described.

図6は、制御部26の構成を示すブロック図である。制御部26は、主に距離画像生成部113、差分値取得部101、判定部103、投影指示部105、投影制御部107、及び投影停止指示部109を備えている。   FIG. 6 is a block diagram illustrating a configuration of the control unit 26. The control unit 26 mainly includes a distance image generation unit 113, a difference value acquisition unit 101, a determination unit 103, a projection instruction unit 105, a projection control unit 107, and a projection stop instruction unit 109.

距離画像生成部113は、距離画像センサ38から距離情報を取得し、取得した距離情報に基づいて距離画像を生成する。ここで距離情報とは、LED光源32から発光されるパルス光(測定光)が被投影体2にて反射して距離画像センサ38に入射する測定光の飛翔時間に対応する情報のことであり、被投影体2の距離に対応する。距離画像生成部113の具体的な距離画像の生成方法は上述したとおりである。距離画像生成部113で生成された距離画像は、2次元的に分布された距離情報により構成されている。   The distance image generation unit 113 acquires distance information from the distance image sensor 38 and generates a distance image based on the acquired distance information. Here, the distance information is information corresponding to the flight time of the measurement light that is incident on the distance image sensor 38 after the pulsed light (measurement light) emitted from the LED light source 32 is reflected by the projection object 2. , Corresponding to the distance of the projection object 2. The specific distance image generation method of the distance image generation unit 113 is as described above. The distance image generated by the distance image generation unit 113 is composed of two-dimensionally distributed distance information.

差分値取得部101は、距離画像取得部20Aにより第1のタイミングで取得された第1の距離画像が有する距離情報と第2のタイミングで取得された第2の距離画像が有する距離情報との差分値を取得する。   The difference value acquisition unit 101 includes the distance information included in the first distance image acquired at the first timing by the distance image acquisition unit 20A and the distance information included in the second distance image acquired at the second timing. Get the difference value.

図7及び図8は、差分値取得部101が行う差分値の取得に関して説明する図である。図7(A)は、図2(A)(時刻T1)の場合に距離画像取得部20Aで取得された距離画像Sを示している。図7(B)は、図2(B)(時刻T2)の場合に距離画像取得部20Aで取得された距離画像Tを示している。また、説明のために距離情報を近距離11、中距離13、及び遠距離15として図中では濃淡で示している。なお、図7では被投影体2は楕円で描き簡略化されており、画像中のステージ7及び被投影体2以外の背景は省略されている。   FIG. 7 and FIG. 8 are diagrams for explaining the difference value acquisition performed by the difference value acquisition unit 101. FIG. 7A shows the distance image S acquired by the distance image acquisition unit 20A in the case of FIG. 2A (time T1). FIG. 7B shows the distance image T acquired by the distance image acquisition unit 20A in the case of FIG. 2B (time T2). For the sake of explanation, the distance information is shown as shading in the drawing as a short distance 11, a middle distance 13, and a long distance 15. In FIG. 7, the projection object 2 is drawn with an ellipse and simplified, and backgrounds other than the stage 7 and the projection object 2 in the image are omitted.

図7(A)で示された距離画像Sは、ステージ7において近距離11、中距離13、及び遠距離15の距離情報を有し、被投影体2において遠距離15の距離情報を有する。そして、距離画像Sでは、ステージ7の遠距離15の距離情報を有する領域の濃淡と被投影体2の濃淡とが等しく表されている。図7(B)で示された距離画像Tは、ステージ7において近距離11、中距離13、及び遠距離15の距離情報を有し、被投影体2において中距離13の距離情報を有する。そして、距離画像Tでは、ステージ7の中距離13の距離情報を有する領域の濃淡と被投影体2の濃淡とが等しく表されている。   The distance image S shown in FIG. 7A has the distance information of the short distance 11, the medium distance 13, and the long distance 15 in the stage 7, and the distance information of the long distance 15 in the projection target 2. In the distance image S, the shade of the area having the distance information of the far distance 15 of the stage 7 and the shade of the projection object 2 are equally represented. The distance image T shown in FIG. 7B has the distance information of the short distance 11, the medium distance 13, and the long distance 15 in the stage 7, and the distance information of the medium distance 13 in the projection target 2. In the distance image T, the density of the area having the distance information of the middle distance 13 of the stage 7 and the density of the projection object 2 are equally represented.

図7(C)では、距離画像Sが有する距離情報と距離画像Tが有する距離情報との差分値を示す。ステージ7に関する距離情報は、距離画像Sと距離画像Tとで変わらないので差分値は0となる。一方、被投影体2に関する距離情報は、距離画像Sと距離画像Tとで変わるので差分値は0ではない。すなわち、距離画像Sでの被投影体2の距離情報は遠距離15であるのに対して、距離画像Tでの被投影体2の距離情報は中距離13である。したがって、被投影体2には差分値が発生する。   FIG. 7C illustrates a difference value between the distance information included in the distance image S and the distance information included in the distance image T. Since the distance information regarding the stage 7 does not change between the distance image S and the distance image T, the difference value is zero. On the other hand, since the distance information regarding the projection object 2 changes between the distance image S and the distance image T, the difference value is not zero. That is, the distance information of the projection object 2 in the distance image S is the far distance 15, while the distance information of the projection object 2 in the distance image T is the medium distance 13. Therefore, a difference value is generated in the projection target 2.

一方図8の場合には、被投影体2が静止している場合に取得された距離画像U及びVが示されている。すなわち、図8(A)では時刻T3で距離画像取得部20Aで取得された距離画像Uが示されており、図8(B)では時刻T4で距離画像取得部20Aで取得された距離画像Vが示されている。距離画像U及びVにおいて、被投影体2の距離情報は中距離13で同じである。したがって、図8(C)で示すように、距離画像Uの距離情報と距離画像Vの距離情報との差分値は0となる。また、ステージ7の差分値に関しても図7と同様に0となる。なお、時刻T3とT4との時間差は非常に短いので、距離画像UとVとの差分値が0に近いと被投影体2が静止していると予測することができる。また距離画像取得部20Aは連続して距離画像を取得することができる。その場合距離画像取得部20Aは、30fps(frame per second)や60fpsで距離画像を取得することができる。   On the other hand, in the case of FIG. 8, distance images U and V acquired when the projection object 2 is stationary are shown. That is, FIG. 8A shows the distance image U acquired by the distance image acquisition unit 20A at time T3, and FIG. 8B shows the distance image V acquired by the distance image acquisition unit 20A at time T4. It is shown. In the distance images U and V, the distance information of the projection object 2 is the same at the intermediate distance 13. Therefore, as shown in FIG. 8C, the difference value between the distance information of the distance image U and the distance information of the distance image V is zero. Further, the difference value of the stage 7 is also 0 as in FIG. Since the time difference between times T3 and T4 is very short, it can be predicted that the projection object 2 is stationary when the difference value between the distance images U and V is close to zero. The distance image acquisition unit 20A can acquire distance images continuously. In this case, the distance image acquisition unit 20A can acquire a distance image at 30 fps (frame per second) or 60 fps.

このように差分値取得部101では、第1のタイミングで取得された距離画像が有する距離情報と第2のタイミングで取得された距離画像が有する距離情報とを引き算することによって差分値が取得される。   As described above, the difference value acquisition unit 101 acquires the difference value by subtracting the distance information included in the distance image acquired at the first timing and the distance information included in the distance image acquired at the second timing. The

また差分値取得部101は、距離画像Sが有する距離情報の平均値を取得し、距離画像Tが有する距離情報の平均値を取得し、その後平均値同士を減算した値を差分値としてもよい。すなわち差分値取得部101は、第1のタイミングで取得された距離画像が有する距離情報の平均値と、第2の距離画像が有する距離情報の平均値とを減算した値を差分値として取得してもよい。   Further, the difference value acquisition unit 101 acquires the average value of the distance information included in the distance image S, acquires the average value of the distance information included in the distance image T, and thereafter may use a value obtained by subtracting the average values as the difference value. . That is, the difference value acquisition unit 101 acquires, as a difference value, a value obtained by subtracting the average value of the distance information included in the distance image acquired at the first timing and the average value of the distance information included in the second distance image. May be.

また例えば差分値取得部101は、第1のタイミングで取得された距離画像が有する距離情報と第2のタイミングで取得された距離画像が有する距離情報との最大の差分を、差分値として取得してもよい。すなわち、第1のタイミングで取得された距離画像が有する距離情報と第2のタイミングで取得された距離画像が有する距離情報とを減算し、最大の値を差分値として採用してもよい。   Also, for example, the difference value acquisition unit 101 acquires, as a difference value, the maximum difference between the distance information included in the distance image acquired at the first timing and the distance information included in the distance image acquired at the second timing. May be. That is, the distance information included in the distance image acquired at the first timing may be subtracted from the distance information included in the distance image acquired at the second timing, and the maximum value may be employed as the difference value.

また例えば差分値取得部101は、第1のタイミングで取得された距離画像が有する距離情報の総和と第2のタイミングで取得された距離画像が有する距離情報の総和とを減算した値を差分値として取得してもよい。   Further, for example, the difference value acquisition unit 101 subtracts the value obtained by subtracting the sum of the distance information included in the distance image acquired at the first timing from the sum of the distance information included in the distance image acquired at the second timing. You may get as

図6に戻って、判定部103は、差分値取得部101で取得された差分値に基づいて被投影体2が静止しているか否かの判定を行う。すなわち判定部103は、差分値を取得し、その差分値に基づいて被投影体2の状態(移動している又は静止している)を判定する。判定部103は、差分値を用いて様々な方法により被投影体2の状態を判定することができる。例えば判定部103は閾値に基づいて被投影体2の状態を判定することができる。具体的には判定部103は、取得した差分値が閾値以下の場合には被投影体2が静止していると判定し、取得した差分値が閾値より大きい場合には被投影体2が動いていると判定してもよい。閾値は、判定部103が第1の距離画像が有する距離情報の平均値と第2の距離画像が有する距離情報の平均値との差分値により判別する場合の閾値(第1の閾値)と、判定部103が第1の距離画像が有する距離情報と第2の距離画像が有する距離情報との最大の差分値により判別する場合の閾値(第2の閾値)とで使い分けられる。   Returning to FIG. 6, the determination unit 103 determines whether the projection object 2 is stationary based on the difference value acquired by the difference value acquisition unit 101. That is, the determination unit 103 acquires the difference value, and determines the state (moving or stationary) of the projection target 2 based on the difference value. The determination unit 103 can determine the state of the projection object 2 by various methods using the difference value. For example, the determination unit 103 can determine the state of the projection target 2 based on the threshold value. Specifically, the determination unit 103 determines that the projection object 2 is stationary when the acquired difference value is equal to or smaller than the threshold value, and moves the projection object 2 when the acquired difference value is larger than the threshold value. It may be determined that The threshold value is a threshold value (first threshold value) when the determination unit 103 determines the difference value between the average value of the distance information included in the first distance image and the average value of the distance information included in the second distance image. The threshold value (second threshold value) when the determination unit 103 determines based on the maximum difference value between the distance information included in the first distance image and the distance information included in the second distance image is properly used.

投影指示部105は、判定部103の判定結果に基づいて、被投影体2に対して投影画像生成部28で生成された画像の投影を行う指示を出力する。すなわち、投影指示部105は、判定部103により被投影体2が静止していると判定された場合には、プロジェクタ部20Bによる投影の指示を出力する。   The projection instruction unit 105 outputs an instruction to project the image generated by the projection image generation unit 28 on the projection target 2 based on the determination result of the determination unit 103. That is, when the determination unit 103 determines that the projection target 2 is stationary, the projection instruction unit 105 outputs a projection instruction by the projector unit 20B.

投影制御部107は、投影指示部105から出力された投影を行う指示に基づいてプロジェクタ部20Bの投影を制御する。投影制御部107は、投影画像生成部28で生成された投影画像5を表示用光学素子42に表示させ、光源ドライバ45によりLED光源44を発光させ、投影画像5を被投影体2に表示させる。   The projection control unit 107 controls the projection of the projector unit 20B based on the instruction to perform projection output from the projection instruction unit 105. The projection control unit 107 causes the display optical element 42 to display the projection image 5 generated by the projection image generation unit 28, causes the light source driver 45 to emit the LED light source 44, and causes the projection image 5 to be displayed on the projection object 2. .

投影停止指示部109は、一旦被投影体2が静止していると判定されプロジェクタ部20Bにより投影が始まった後に、判定部103により被投影体2が動き出したと判定された場合には、被投影体2に対して投影画像生成部28で生成された画像の投影の停止指示を出力する。すなわち、投影停止指示部109は、再び被投影体2が動き出した場合に、プロジェクタ部20Bによる投影の停止の指示を出力する。なお、プロジェクタ部20Bにより投影が行われている間でも、距離画像取得部20Aにより距離画像が随時取得され、判定部103により随時被投影体2の状態が判定されている。   The projection stop instructing unit 109 determines that the projection target 2 has stopped once, and when the projection unit 20B determines that the projection target 2 has started movement after the projection unit 20B determines that the projection target 2 has started to move. An instruction to stop projecting the image generated by the projection image generation unit 28 is output to the body 2. That is, the projection stop instruction unit 109 outputs an instruction to stop the projection by the projector unit 20B when the projection target 2 starts moving again. Even during projection by the projector unit 20B, a distance image is acquired by the distance image acquisition unit 20A as needed, and the state of the projection target 2 is determined by the determination unit 103 as needed.

次に、プロジェクタ装置20を使用したプロジェクション方法に関して説明する。図9は、プロジェクタ装置20の動作を示すフロー図である。   Next, a projection method using the projector device 20 will be described. FIG. 9 is a flowchart showing the operation of the projector device 20.

先ずプロジェクタ装置20の距離画像取得部20Aにより、第1のタイミングで距離画像が取得される(ステップS10)。その後、距離画像取得部20Aにより、第2のタイミングで距離画像が取得される(ステップS11)。そして差分値取得部101により、第1のタイミングの距離画像が有する距離情報と第2のタイミングでの距離画像が有する距離情報との差分値が取得される(ステップS12)。なお、図示は省略するが、距離画像取得部20Aによる距離画像の取得、及び差分値取得部101による差分値の取得は随時行われている。   First, the distance image is acquired at the first timing by the distance image acquisition unit 20A of the projector device 20 (step S10). Thereafter, the distance image acquisition unit 20A acquires the distance image at the second timing (step S11). Then, the difference value acquisition unit 101 acquires a difference value between the distance information included in the distance image at the first timing and the distance information included in the distance image at the second timing (step S12). In addition, although illustration is abbreviate | omitted, acquisition of the distance image by 20 A of distance image acquisition parts, and acquisition of the difference value by the difference value acquisition part 101 are performed at any time.

そして、判定部103は差分値により被投影体2が静止しているか否かについて判定を行う(ステップS13)。判定部103により、被投影体2が静止していない(動いている)と判定した場合(ステップS13のNoの場合)には、再び距離画像取得部20Aで距離画像が取得される。一方判定部103により被投影体2が静止していると判定された場合には、投影画像生成部28で投影画像5が生成される(ステップS14)。投影画像生成部28は、第1のタイミングで取得された距離画像及び/又は第2のタイミングで取得された距離画像に基づいて投影画像5を生成する。その後、投影指示部105により投影画像5を投影する指示が出力される(ステップS15)。そして投影制御部107によりプロジェクタ部20Bが制御されて被投影体2に対して投影が行われる(ステップS16)。   Then, the determination unit 103 determines whether or not the projection object 2 is stationary based on the difference value (step S13). When the determination unit 103 determines that the projection object 2 is not stationary (moving) (No in step S13), the distance image acquisition unit 20A acquires the distance image again. On the other hand, when the determination unit 103 determines that the projection object 2 is stationary, the projection image generation unit 28 generates the projection image 5 (step S14). The projection image generation unit 28 generates the projection image 5 based on the distance image acquired at the first timing and / or the distance image acquired at the second timing. Thereafter, the projection instruction unit 105 outputs an instruction to project the projection image 5 (step S15). Then, the projection control unit 107 controls the projector unit 20B to perform projection on the projection target 2 (step S16).

上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。   Each of the above-described configurations and functions can be appropriately realized by arbitrary hardware, software, or a combination of both. For example, for a program that causes a computer to execute the above-described processing steps (processing procedure), a computer-readable recording medium (non-transitory recording medium) that records such a program, or a computer that can install such a program However, the present invention can be applied.

以上で説明をしたように、本発明によれば、距離画像取得部20Aの距離画像生成部113で生成された距離画像に基づいて、被投影体2の形状を検出して投影画像5が生成される。さらに本発明によれば、第1のタイミングで取得された距離画像及び第2のタイミングで取得された距離画像の差分値から被投影体2が静止しているか否かの判定がされ、その判定に基づいて投影が行われる。これにより、本発明は、距離画像を投影画像5の生成及び被写体が静止しているか否かの判定に使用するので、装置の大型化又は複雑化を抑制しつつ被投影体2の動きを検出し、被投影体2に対して精度良く投影画像5を投影することができる。   As described above, according to the present invention, the projection image 5 is generated by detecting the shape of the projection object 2 based on the distance image generated by the distance image generation unit 113 of the distance image acquisition unit 20A. Is done. Further, according to the present invention, it is determined whether or not the projection object 2 is stationary from the difference value between the distance image acquired at the first timing and the distance image acquired at the second timing. Projection is performed based on. Thus, the present invention uses the distance image to generate the projection image 5 and determine whether or not the subject is stationary, so that the movement of the projection object 2 can be detected while suppressing the enlargement or complication of the apparatus. In addition, the projection image 5 can be accurately projected onto the projection target 2.

[第2実施形態]
次に、本発明の第2実施形態に関して説明する。本実施形態では差分値に基づいて差分画像を生成し、被投影体2の動きを精度良く検出する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the present embodiment, a difference image is generated based on the difference value, and the movement of the projection object 2 is detected with high accuracy.

図10は、本実施形態の制御部26の構成を示すブロック図である。なお、図6で説明を行った箇所は同じ符号を付し説明は省略する。制御部26は、主に距離画像生成部113、差分値取得部101、判定部103、差分画像生成部111、投影指示部105、投影制御部107、及び投影停止指示部109を備えている。   FIG. 10 is a block diagram illustrating a configuration of the control unit 26 of the present embodiment. In addition, the part demonstrated in FIG. 6 attaches | subjects the same code | symbol, and abbreviate | omits description. The control unit 26 mainly includes a distance image generation unit 113, a difference value acquisition unit 101, a determination unit 103, a difference image generation unit 111, a projection instruction unit 105, a projection control unit 107, and a projection stop instruction unit 109.

図10で示した本実施形態の制御部26と、図6で示した第1実施形態の制御部26を比較すると、本実施形態の制御部26は差分画像生成部111を有する点で異なる。   When the control unit 26 of the present embodiment illustrated in FIG. 10 is compared with the control unit 26 of the first embodiment illustrated in FIG. 6, the control unit 26 of the present embodiment is different in that it includes a difference image generation unit 111.

差分画像生成部111は、差分値取得部101が取得する差分値に基づいて生成された差分画像を生成する。すなわち差分画像生成部111は、差分値取得部101から取得した差分値に基づいて、差分値の2次元分布図を作成する。なお、ここで差分画像とは、差分値の2次元の分布図のことである。   The difference image generation unit 111 generates a difference image generated based on the difference value acquired by the difference value acquisition unit 101. That is, the difference image generation unit 111 creates a two-dimensional distribution map of difference values based on the difference values acquired from the difference value acquisition unit 101. Here, the difference image is a two-dimensional distribution diagram of difference values.

図11は、差分画像を示す概念図である。図11に示された差分画像Wは、図7及び図8で説明を行った距離画像及び差分値に基づいて作成されている。また、差分画像において、差分画像を構成する差分値に応じて濃淡又は色を変えて表示させてもよい。このようにすることで、差分画像が表示画面(図示せず)に表示された場合にユーザは、差分値の違いを把握し易くなる。図11に示した差分画像の場合には差分値の違いが表現されている。なお、被投影体2及びステージ7以外の背景は省略されている。   FIG. 11 is a conceptual diagram showing a difference image. The difference image W shown in FIG. 11 is created based on the distance image and the difference value described with reference to FIGS. 7 and 8. Further, the difference image may be displayed in different shades or colors depending on the difference values constituting the difference image. By doing in this way, when a difference image is displayed on a display screen (not shown), it becomes easy for a user to grasp the difference of a difference value. In the case of the difference image shown in FIG. 11, the difference value is expressed. The background other than the projection object 2 and the stage 7 is omitted.

図11(A)は、図7(A)及び(B)で示された距離画像S及びTから取得された差分値により作成される差分画像Wであり、取得された差分値の2次元分布が示されている。ステージ7は、距離画像S及びTの間で差分値が0であるので、黒で表現されている。一方被投影体2は、距離画像S及びTの間で差分値が異なる2つの領域(領域O、P、及びQ)で構成されている。   FIG. 11A is a difference image W created from the difference values acquired from the distance images S and T shown in FIGS. 7A and 7B, and the two-dimensional distribution of the acquired difference values. It is shown. Since the difference value between the distance images S and T is 0, the stage 7 is expressed in black. On the other hand, the projection object 2 is composed of two regions (regions O, P, and Q) having different difference values between the distance images S and T.

領域Oは、距離画像S及びTとの間で差分値0であるのでステージ7と同じように黒で示されている。領域Qでの差分値は中距離13(図7)と遠距離15(図7)との差分値であり、領域Pでの差分値は中距離13(図7)と背景との差分値である。なお、背景は無限遠方と仮定をしている。   Since the area O has a difference value of 0 between the distance images S and T, it is shown in black as in the stage 7. The difference value in the region Q is the difference value between the medium distance 13 (FIG. 7) and the long distance 15 (FIG. 7), and the difference value in the region P is the difference value between the medium distance 13 (FIG. 7) and the background. is there. The background is assumed to be at infinity.

図11(B)は、図8(A)及び(B)で示された距離画像U及びVから取得された差分値により作成される差分画像Wであり、取得された差分値の2次元分布が示されている。図11(B)に示した場合では、被投影体2及びステージ7において差分値は0であるので、被投影体2及びステージ7は黒で表現されている。このように、差分画像は距離画像が有する距離情報の差分値の2次元分布により構成されている。   FIG. 11B is a difference image W created from the difference values acquired from the distance images U and V shown in FIGS. 8A and 8B, and a two-dimensional distribution of the acquired difference values. It is shown. In the case shown in FIG. 11B, since the difference value is 0 between the projection object 2 and the stage 7, the projection object 2 and the stage 7 are expressed in black. Thus, the difference image is configured by a two-dimensional distribution of difference values of distance information included in the distance image.

図10に戻って本実施形態の判定部103は、差分画像Wに基づいて様々な態様により被投影体2の動きを判定することができる。例えば判定部103は、差分画像の領域に応じて設定された重み付け係数に差分値を乗じた値に基づいて被投影体2が静止しているか否かの判定を、閾値(第7の閾値)を使用して行うことができる。この場合、差分画像生成部111は、差分画像の領域に応じて設定された重み付け係数に差分値を乗じた値を取得する。   Returning to FIG. 10, the determination unit 103 according to the present embodiment can determine the movement of the projection object 2 in various ways based on the difference image W. For example, the determination unit 103 determines whether or not the projection object 2 is stationary based on a value obtained by multiplying the weighting coefficient set according to the area of the difference image by the difference value as a threshold (seventh threshold). Can be done using. In this case, the difference image generation unit 111 acquires a value obtained by multiplying the weighting coefficient set according to the area of the difference image by the difference value.

図12は、差分画像Wを示した概念図である。図12に示された差分画像Wは領域Fと領域Eとで異なる重み付け係数が設定されており、その重み付け係数に差分値を乗じた値を差分画像生成部111は取得する。例えば、領域Fに対しては係数1.5の重み付けがされ、領域Eに対しては係数0.5の重み付けがされる。そして差分画像生成部111は、領域Fの重み付け係数と領域Fの差分値を掛け合わせ、領域Eの重み付け係数と領域Eの差分値を掛け合わせる。これにより、画像の中央にはメインの被写体が存在している場合が多いので、メインの被写体(被投影体2)の動きをより正確に検出することができる。なお、図12では中央付近の領域及びその周辺の領域とで領域分けを行ったが、領域の設定は様々な態様を採用することができる。例えば、差分画像WをN×M(N及びMは整数)の格子状の領域に分割したり、被投影体2の形状に沿って領域を分割することもできる。   FIG. 12 is a conceptual diagram showing the difference image W. In the difference image W shown in FIG. 12, different weighting coefficients are set in the area F and the area E, and the difference image generation unit 111 acquires a value obtained by multiplying the weighting coefficient by the difference value. For example, the area F is weighted with a coefficient of 1.5, and the area E is weighted with a coefficient of 0.5. Then, the difference image generation unit 111 multiplies the weighting coefficient of the region F and the difference value of the region F, and multiplies the weighting coefficient of the region E and the difference value of the region E. Thereby, since the main subject often exists in the center of the image, the movement of the main subject (projected body 2) can be detected more accurately. In FIG. 12, the region is divided into the region near the center and the region around it, but various modes can be adopted for setting the region. For example, the difference image W can be divided into N × M (N and M are integers) grid-like regions, or the regions can be divided along the shape of the projection object 2.

図13及び14は、距離画像S及びTと差分画像Wとが概念的に示された図である。図13(A)では、被投影体2が中央付近に移っている距離画像S及び距離画像Tが示されている。距離画像Sは時刻T1で撮像され、距離画像Tは時刻T2で撮像されており、被投影体2は時刻T1からT2の間に図13に向かって右に移動をしている。なお図13(A)では、距離に関して被投影体2と背景とで2値化されており、プロジェクタ装置20から距離が近い被投影体2は背景に比べて白く表現されている。   13 and 14 are diagrams conceptually showing the distance images S and T and the difference image W. FIG. FIG. 13A shows a distance image S and a distance image T in which the projection object 2 has moved to the vicinity of the center. The distance image S is imaged at time T1, the distance image T is imaged at time T2, and the projection object 2 moves to the right in FIG. 13 from time T1 to T2. In FIG. 13A, the distance between the projection object 2 and the background is binarized with respect to the distance, and the projection object 2 that is closer to the projector device 20 is expressed in white than the background.

図13(B)は、図13(A)に示された距離画像Sと距離画像Tとの差分画像(W1及びW2)である。なお図13(B)では、差分値が0の領域を黒で表現され、差分値が0でない領域117を白で表現されている。例えば差分画像(W1及びW2)の領域117の差分値を100とする。差分画像W2では図12で説明をしたように領域E及びFにおいて重み付けが設定されており、差分画像W1では重み付けは設定されていない。差分画像W2では領域Fでの差分値に対して係数1.5の重み付けがされるので、差分画像生成部111は領域117の差分値(100)と重み付け係数(1.5)が乗算され150という値を得る(100×1.5=150)。一方で、差分画像W1では重み付けは設定されていないので、W1の差分値は100となる。   FIG. 13B is a difference image (W1 and W2) between the distance image S and the distance image T shown in FIG. In FIG. 13B, a region having a difference value of 0 is expressed in black, and a region 117 where the difference value is not 0 is expressed in white. For example, the difference value of the area 117 of the difference image (W1 and W2) is set to 100. In the difference image W2, as described with reference to FIG. 12, weights are set in the areas E and F, and no weight is set in the difference image W1. In the difference image W2, the difference value in the region F is weighted by the coefficient 1.5, so that the difference image generation unit 111 is multiplied by the difference value (100) of the region 117 and the weighting coefficient (1.5). (100 × 1.5 = 150) is obtained. On the other hand, since no weighting is set in the difference image W1, the difference value of W1 is 100.

図14(A)では、被投影体2ではない人物114が写っている距離画像S及び人物114が写っていない距離画像Tが示されている。距離画像Sは時刻T1で撮像され、距離画像Tは時刻T2で撮像されている。また図14(A)では、距離に関して人物114と背景との2値化されており、プロジェクタ装置20から距離が近い人物114は背景に比べて白く表現されている。   In FIG. 14A, a distance image S in which a person 114 that is not the projection target 2 is shown and a distance image T in which the person 114 is not shown are shown. The distance image S is captured at time T1, and the distance image T is captured at time T2. In FIG. 14A, the distance between the person 114 and the background is binarized, and the person 114 close to the projector apparatus 20 is expressed in white compared to the background.

図14(B)は、図14(A)に示された距離画像Sと距離画像Tとの差分画像(W1及びW2)であり、人物114に応じた差分値が0でない領域119が白で表現されている。例えば差分画像(W1及びW2)での差分値を50とする。図14(B)は、図13(B)と同様に重み付けが設定されている。差分画像W2では領域Eでの差分値に対して係数0.5の重み付けがされるので、差分画像生成部111は領域119の差分値(50)と重み付け係数(0.5)が乗算され25という値を得る(50×0.5=25)。一方で、差分画像W1では重み付けは設定されていないので、W1の差分値は50となる。   FIG. 14B is a difference image (W1 and W2) between the distance image S and the distance image T shown in FIG. 14A, and a region 119 whose difference value corresponding to the person 114 is not 0 is white. It is expressed. For example, the difference value in the difference image (W1 and W2) is set to 50. In FIG. 14B, weighting is set as in FIG. 13B. In the difference image W2, the difference value in the region E is weighted by the coefficient 0.5, so that the difference image generation unit 111 multiplies the difference value (50) in the region 119 by the weighting coefficient (0.5). Is obtained (50 × 0.5 = 25). On the other hand, since no weighting is set in the difference image W1, the difference value of W1 is 50.

このように図13(B)及び図14(B)の場合(領域に応じて重み付けが設定されている場合)では、領域Fの差分値が大きく評価され、領域Eの差分値が小さく評価される。   In this way, in the case of FIG. 13B and FIG. 14B (when weighting is set according to the region), the difference value of region F is highly evaluated, and the difference value of region E is evaluated small. The

このように、差分画像の領域に応じて重み付けを行い、その重み付け係数に差分値を乗算することにより得た値に基づいて被投影体2の動きが判定されることにより、被投影体2の動きをより正確に判定することができる。   In this way, weighting is performed according to the area of the difference image, and the movement of the projection object 2 is determined based on the value obtained by multiplying the weighting coefficient by the difference value. The movement can be determined more accurately.

さらに判定部103は、差分画像生成部111が生成する差分画像の複数のフレームにおける平均差分値が閾値(第3の閾値)以下である場合に被投影体2が静止していると判定してもよい。すなわち、差分画像生成部111は一つの差分画像において平均差分値を取得しその平均値を複数フレーム分生成し、判定部103は得られた複数フレーム分の差分画像における平均差分値に基づいて被投影体2が静止していると判定する。これにより、複数フレームの差分画像の平均値に基づいて被投影体2が静止しているか否かが判定されるので、より正解な被投影体2の動きを判定することが可能となる。   Further, the determination unit 103 determines that the projection object 2 is stationary when the average difference value in a plurality of frames of the difference image generated by the difference image generation unit 111 is equal to or less than a threshold value (third threshold value). Also good. That is, the difference image generation unit 111 acquires an average difference value in one difference image and generates the average value for a plurality of frames, and the determination unit 103 receives the average difference value based on the obtained average difference values in the difference images for the plurality of frames. It is determined that the projection body 2 is stationary. Thus, since it is determined whether or not the projection object 2 is stationary based on the average value of the difference images of a plurality of frames, it is possible to determine a more correct movement of the projection object 2.

また判定部103は、差分画像の複数のフレームにおける最大の差分値が閾値(第4の閾値)以下である場合に被投影体2が静止していると判定することができる。すなわち、差分画像生成部111は複数フレームの差分画像における最大の差分値を取得し、判定部103はその最大の差分値に基づいて被投影体2が静止しているか否かを判定する。これにより、最大の差分値に基づいて被投影体2が静止しているか否かが判定されるので、より正解な被投影体2の動きを判定することが可能となる。   Further, the determination unit 103 can determine that the projection object 2 is stationary when the maximum difference value in a plurality of frames of the difference image is equal to or less than a threshold value (fourth threshold value). That is, the difference image generation unit 111 acquires the maximum difference value in the difference images of a plurality of frames, and the determination unit 103 determines whether or not the projection target 2 is stationary based on the maximum difference value. Thus, since it is determined whether or not the projection object 2 is stationary based on the maximum difference value, it is possible to determine a more correct movement of the projection object 2.

また判定部103は、差分画像において差分値が閾値(第5の閾値)以下である領域の大きさに基づいて被投影体2が静止しているか否かの判定を行う。すなわち、差分画像生成部111は差分画像において閾値以下の領域を算出し、その領域の大きさが一定の大きさよりも大きい場合には被投影体2は静止していると判定部103は判定する。また、差分画像生成部111は複数フレームの差分画像において閾値(第6の閾値)以下の領域を算出し、その領域の大きさが一定の大きさよりも大きい場合には被投影体2は静止していると判定部103は判定してもよい。   In addition, the determination unit 103 determines whether or not the projection object 2 is stationary based on the size of an area where the difference value is equal to or less than a threshold value (fifth threshold value) in the difference image. That is, the difference image generation unit 111 calculates an area below the threshold in the difference image, and the determination unit 103 determines that the projection object 2 is stationary when the size of the area is larger than a certain size. . Further, the difference image generation unit 111 calculates an area equal to or smaller than a threshold value (sixth threshold value) in the difference image of a plurality of frames, and the projection object 2 is stationary when the size of the area is larger than a certain size. The determination unit 103 may determine that the

また差分値取得部101は、差分画像に関連する様々な値を判定部103が被投影体2の動き判定する値(以下評価値という)として取得又は算出することができる。例えば差分画像生成部111は、距離画像Sと距離画像Tとの間で差分値が0でない画素の数を評価値としてもよい。また差分画像生成部111は、差分画像の差分値の分散値又は標準偏差を評価値としてもよい。   Further, the difference value acquisition unit 101 can acquire or calculate various values related to the difference image as values (hereinafter referred to as evaluation values) by which the determination unit 103 determines the movement of the projection target 2. For example, the difference image generation unit 111 may use the number of pixels whose difference value is not 0 between the distance image S and the distance image T as the evaluation value. Moreover, the difference image generation part 111 is good also considering the variance value or standard deviation of the difference value of a difference image as an evaluation value.

以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。   The example of the present invention has been described above, but the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made without departing from the spirit of the present invention.

2…被投影体、7…ステージ、20…距離画像取得装置付きプロジェクタ装置、20A…距離画像取得部、20B…プロジェクタ部、26…制御部、27…メモリ、28…投影画像生成部、29…入力I/F、31…タイミングジェネレータ、32…測定用光源、33…光源ドライバ、35…投影レンズ、36…結像レンズ、37…レンズドライバ、38…距離画像センサ、39…AD変換器、39…変換器、40…インターフェース回路、40…回路、42…表示用光学素子、43…素子ドライバ、44…投影光源、45…光源ドライバ、46…投影レンズ、47…レンズドライバ、49…データバス、101…差分値取得部、103…判定部、105…投影指示部、107…投影制御部、109…投影停止指示部、111…差分画像生成部、113…距離画像生成部   DESCRIPTION OF SYMBOLS 2 ... Projection object, 7 ... Stage, 20 ... Projector apparatus with distance image acquisition apparatus, 20A ... Distance image acquisition part, 20B ... Projector part, 26 ... Control part, 27 ... Memory, 28 ... Projection image generation part, 29 ... Input I / F, 31 ... Timing generator, 32 ... Light source for measurement, 33 ... Light source driver, 35 ... Projection lens, 36 ... Imaging lens, 37 ... Lens driver, 38 ... Distance image sensor, 39 ... AD converter, 39 DESCRIPTION OF SYMBOLS ... Converter, 40 ... Interface circuit, 40 ... Circuit, 42 ... Display optical element, 43 ... Element driver, 44 ... Projection light source, 45 ... Light source driver, 46 ... Projection lens, 47 ... Lens driver, 49 ... Data bus, DESCRIPTION OF SYMBOLS 101 ... Difference value acquisition part, 103 ... Determination part, 105 ... Projection instruction part, 107 ... Projection control part, 109 ... Projection stop instruction part, 111 ... Difference image generation , 113 ... distance image generation unit

Claims (12)

投影画像を表示する表示用光学素子と、前記表示用光学素子に表示された投影画像を被投影体に投影する投影光源及び投影レンズと、を備えたプロジェクタ装置と、
複数の受光素子が2次元状に配列された距離画像センサと、測定用光源と、前記測定用光源から出射され、前記被投影体にて反射する測定光を前記距離画像センサに結像させる結像レンズと、前記測定用光源から出射され、前記被投影体にて反射して前記距離画像センサに入射する前記測定光の飛翔時間に対応する距離情報を前記距離画像センサから取得し、前記取得した距離情報に基づいて距離画像を生成する距離画像生成部と、を備えた距離画像取得装置と、からなり、
前記プロジェクタ装置は、
前記距離画像取得装置により取得した前記距離画像に基づいて前記被投影体の形状を検出し、前記検出した形状に対応する投影画像を生成する投影画像生成部と、
前記距離画像取得装置により第1のタイミングで取得された第1の距離画像が有する距離情報と第2のタイミングで取得された第2の距離画像が有する距離情報との差分値を取得する差分値取得部と、
前記差分値取得部で取得された前記差分値に基づいて前記被投影体が静止しているか否かの判定を行う判定部と、
前記判定部の判定結果に基づいて、前記被投影体に対して前記投影画像生成部で生成された画像の投影を行う指示を出力する投影指示部と、
前記投影指示部から出力された前記投影を行う指示に基づいて前記プロジェクタ装置の投影を制御する投影制御部と、
を備え
前記差分値取得部は、前記第1の距離画像が有する距離情報の平均値と前記第2の距離画像が有する距離情報の平均値との差分値を取得し、
前記判定部は、前記差分値が第1の閾値以下である場合に前記被投影体が静止していると判定する距離画像取得装置付きプロジェクタ装置。
A projector apparatus comprising: a display optical element that displays a projection image; and a projection light source and a projection lens that project the projection image displayed on the display optical element onto a projection target;
A distance image sensor in which a plurality of light receiving elements are two-dimensionally arranged, a measurement light source, and a measurement light emitted from the measurement light source and reflected by the projection object is imaged on the distance image sensor. The distance information corresponding to the flight time of the measurement light emitted from the image lens and the measurement light source, reflected by the projection object and incident on the distance image sensor is acquired from the distance image sensor, and the acquisition is performed. A distance image generation device including a distance image generation unit that generates a distance image based on the distance information
The projector device includes:
A projection image generation unit that detects a shape of the projection object based on the distance image acquired by the distance image acquisition device, and generates a projection image corresponding to the detected shape;
A difference value for acquiring a difference value between the distance information included in the first distance image acquired at the first timing by the distance image acquisition device and the distance information included in the second distance image acquired at the second timing. An acquisition unit;
A determination unit that determines whether or not the projection object is stationary based on the difference value acquired by the difference value acquisition unit;
A projection instruction unit that outputs an instruction to project the image generated by the projection image generation unit on the projection object based on the determination result of the determination unit;
A projection control unit that controls projection of the projector device based on an instruction to perform the projection output from the projection instruction unit;
Equipped with a,
The difference value acquisition unit acquires a difference value between an average value of distance information included in the first distance image and an average value of distance information included in the second distance image;
The determination unit is a projector with a distance image acquisition device that determines that the projection target is stationary when the difference value is equal to or less than a first threshold value .
投影画像を表示する表示用光学素子と、前記表示用光学素子に表示された投影画像を被投影体に投影する投影光源及び投影レンズと、を備えたプロジェクタ装置と、
複数の受光素子が2次元状に配列された距離画像センサと、測定用光源と、前記測定用光源から出射され、前記被投影体にて反射する測定光を前記距離画像センサに結像させる結像レンズと、前記測定用光源から出射され、前記被投影体にて反射して前記距離画像センサに入射する前記測定光の飛翔時間に対応する距離情報を前記距離画像センサから取得し、前記取得した距離情報に基づいて距離画像を生成する距離画像生成部と、を備えた距離画像取得装置と、からなり、
前記プロジェクタ装置は、
前記距離画像取得装置により取得した前記距離画像に基づいて前記被投影体の形状を検出し、前記検出した形状に対応する投影画像を生成する投影画像生成部と、
前記距離画像取得装置により第1のタイミングで取得された第1の距離画像が有する距離情報と第2のタイミングで取得された第2の距離画像が有する距離情報との差分値を取得する差分値取得部と、
前記差分値取得部で取得された前記差分値に基づいて前記被投影体が静止しているか否かの判定を行う判定部と、
前記判定部の判定結果に基づいて、前記被投影体に対して前記投影画像生成部で生成された画像の投影を行う指示を出力する投影指示部と、
前記投影指示部から出力された前記投影を行う指示に基づいて前記プロジェクタ装置の投影を制御する投影制御部と、
を備え、
前記差分値取得部は、前記第1の距離画像が有する距離情報と前記第2の距離画像が有する距離情報との最大の差分値を取得し、
前記判定部は、前記最大の差分値が第2の閾値以下である場合に前記被投影体が静止していると判定する請求項1に記載の距離画像取得装置付きプロジェクタ装置。
A projector apparatus comprising: a display optical element that displays a projection image; and a projection light source and a projection lens that project the projection image displayed on the display optical element onto a projection target;
A distance image sensor in which a plurality of light receiving elements are two-dimensionally arranged, a measurement light source, and a measurement light emitted from the measurement light source and reflected by the projection object is imaged on the distance image sensor. The distance information corresponding to the flight time of the measurement light emitted from the image lens and the measurement light source, reflected by the projection object and incident on the distance image sensor is acquired from the distance image sensor, and the acquisition is performed. A distance image generation device including a distance image generation unit that generates a distance image based on the distance information
The projector device includes:
A projection image generation unit that detects a shape of the projection object based on the distance image acquired by the distance image acquisition device, and generates a projection image corresponding to the detected shape;
A difference value for acquiring a difference value between the distance information included in the first distance image acquired at the first timing by the distance image acquisition device and the distance information included in the second distance image acquired at the second timing. An acquisition unit;
A determination unit that determines whether or not the projection object is stationary based on the difference value acquired by the difference value acquisition unit;
A projection instruction unit that outputs an instruction to project the image generated by the projection image generation unit on the projection object based on the determination result of the determination unit;
A projection control unit that controls projection of the projector device based on an instruction to perform the projection output from the projection instruction unit;
With
The difference value acquisition unit acquires a maximum difference value between distance information included in the first distance image and distance information included in the second distance image;
The projector according to claim 1, wherein the determination unit determines that the projection target is stationary when the maximum difference value is equal to or less than a second threshold value.
投影画像を表示する表示用光学素子と、前記表示用光学素子に表示された投影画像を被投影体に投影する投影光源及び投影レンズと、を備えたプロジェクタ装置と、
複数の受光素子が2次元状に配列された距離画像センサと、測定用光源と、前記測定用光源から出射され、前記被投影体にて反射する測定光を前記距離画像センサに結像させる結像レンズと、前記測定用光源から出射され、前記被投影体にて反射して前記距離画像センサに入射する前記測定光の飛翔時間に対応する距離情報を前記距離画像センサから取得し、前記取得した距離情報に基づいて距離画像を生成する距離画像生成部と、を備えた距離画像取得装置と、からなり、
前記プロジェクタ装置は、
前記距離画像取得装置により取得した前記距離画像に基づいて前記被投影体の形状を検出し、前記検出した形状に対応する投影画像を生成する投影画像生成部と、
前記距離画像取得装置により第1のタイミングで取得された第1の距離画像が有する距離情報と第2のタイミングで取得された第2の距離画像が有する距離情報との差分値を取得する差分値取得部と、
前記差分値取得部で取得された前記差分値に基づいて前記被投影体が静止しているか否かの判定を行う判定部と、
前記判定部の判定結果に基づいて、前記被投影体に対して前記投影画像生成部で生成された画像の投影を行う指示を出力する投影指示部と、
前記投影指示部から出力された前記投影を行う指示に基づいて前記プロジェクタ装置の投影を制御する投影制御部と、
前記差分値取得部が取得する前記差分値に基づいて生成された差分画像を生成する差分画像生成部と、を備える距離画像取得装置付きプロジェクタ装置。
A projector apparatus comprising: a display optical element that displays a projection image; and a projection light source and a projection lens that project the projection image displayed on the display optical element onto a projection target;
A distance image sensor in which a plurality of light receiving elements are two-dimensionally arranged, a measurement light source, and a measurement light emitted from the measurement light source and reflected by the projection object is imaged on the distance image sensor. The distance information corresponding to the flight time of the measurement light emitted from the image lens and the measurement light source, reflected by the projection object and incident on the distance image sensor is acquired from the distance image sensor, and the acquisition is performed. A distance image generation device including a distance image generation unit that generates a distance image based on the distance information
The projector device includes:
A projection image generation unit that detects a shape of the projection object based on the distance image acquired by the distance image acquisition device, and generates a projection image corresponding to the detected shape;
A difference value for acquiring a difference value between the distance information included in the first distance image acquired at the first timing by the distance image acquisition device and the distance information included in the second distance image acquired at the second timing. An acquisition unit;
A determination unit that determines whether or not the projection object is stationary based on the difference value acquired by the difference value acquisition unit;
A projection instruction unit that outputs an instruction to project the image generated by the projection image generation unit on the projection object based on the determination result of the determination unit;
A projection control unit that controls projection of the projector device based on an instruction to perform the projection output from the projection instruction unit;
A projector with a distance image acquisition device comprising: a difference image generation unit that generates a difference image generated based on the difference value acquired by the difference value acquisition unit.
前記差分画像生成部は、前記差分画像の複数のフレームにおける平均差分値を取得し、
前記判定部は、前記差分画像の前記複数のフレームにおける前記平均差分値が第3の閾値以下である場合に前記被投影体が静止していると判定する請求項に記載の距離画像取得装置付きプロジェクタ装置。
The difference image generation unit acquires an average difference value in a plurality of frames of the difference image,
The distance image acquisition device according to claim 3 , wherein the determination unit determines that the projection target is stationary when the average difference value in the plurality of frames of the difference image is equal to or less than a third threshold value. Projector device.
前記差分画像生成部は、前記差分画像の複数のフレームにおける最大の差分値を取得し、
前記判定部は、前記差分画像の前記複数のフレームにおける前記最大の差分値が第4の閾値以下である場合に前記被投影体が静止していると判定する請求項に記載の距離画像取得装置付きプロジェクタ装置。
The difference image generation unit acquires a maximum difference value in a plurality of frames of the difference image,
The distance image acquisition according to claim 3 , wherein the determination unit determines that the projection target is stationary when the maximum difference value in the plurality of frames of the difference image is equal to or less than a fourth threshold value. Projector device with device.
前記差分画像生成部は、前記差分画像の領域毎の差分値を取得し、
前記判定部は、前記差分画像において前記差分値が第5の閾値以下である前記領域の大きさに基づいて前記被投影体が静止しているか否かの判定を行う請求項に記載の距離画像取得装置付きプロジェクタ装置。
The difference image generation unit acquires a difference value for each area of the difference image,
The distance according to claim 3 , wherein the determination unit determines whether or not the projection target is stationary based on a size of the region in which the difference value is equal to or less than a fifth threshold in the difference image. Projector device with image acquisition device.
前記差分画像生成部は、前記差分画像の領域毎の差分値を複数フレームにおいて取得し、
前記判定部は、前記複数フレームの前記差分画像において前記差分値が第6の閾値以下である領域の大きさに基づいて前記被投影体が静止しているか否かの判定を行う請求項に記載の距離画像取得装置付きプロジェクタ装置。
The difference image generation unit acquires a difference value for each area of the difference image in a plurality of frames,
The determination unit, to claim 3 for the whether the projection target body the difference value in the difference image based on the size of the region is less than the sixth threshold is static determination of the plurality of frames The projector apparatus with a range image acquisition apparatus as described.
前記差分画像生成部は、前記差分画像の領域に応じて設定された重み付け係数に差分値を乗じた値を取得し、
前記判定部は、前記重み付け係数に差分値を乗じた値が第7の閾値以下である場合に前記被投影体が静止しているとの判定を行う請求項に記載の距離画像取得装置付きプロジェクタ装置。
The difference image generation unit obtains a value obtained by multiplying a weighting coefficient set according to a region of the difference image by a difference value;
4. The distance image acquisition device according to claim 3 , wherein the determination unit determines that the projection object is stationary when a value obtained by multiplying the weighting coefficient by a difference value is equal to or less than a seventh threshold value. Projector device.
前記判定部の判定結果に基づいて、前記被投影体に対して前記投影画像生成部で生成された画像の投影の停止指示を出力する投影停止指示部と、を備え、
前記投影制御部は、前記投影停止指示部からの前記投影の停止指示に基づいて前記プロジェクタ装置の投影を制御する請求項1からのいずれか1項に記載の距離画像取得装置付きプロジェクタ装置。
A projection stop instruction unit that outputs a projection stop instruction for the image generated by the projection image generation unit to the projection object based on the determination result of the determination unit;
The projection control unit, a distance image acquiring device with incorporated projector apparatus according to any one of claims 1 to 8 for controlling the projection of the projector device, based on the projection of the stop instruction from the projection stop instruction section.
投影画像を表示する表示用光学素子と、前記表示用光学素子に表示された投影画像を被投影体に投影する投影光源及び投影レンズと、を備えたプロジェクタ装置と、
複数の受光素子が2次元状に配列された距離画像センサと、測定用光源と、前記測定用光源から出射され、前記被投影体にて反射する測定光を前記距離画像センサに結像させる結像レンズと、前記測定用光源から出射され、前記被投影体にて反射して前記距離画像センサに入射する前記測定光の飛翔時間に対応する距離情報を前記距離画像センサから取得し、前記取得した距離情報に基づいて距離画像を生成する距離画像生成部と、を備えた距離画像取得装置と、からなる距離画像取得装置付きプロジェクタ装置を使用するプロジェクション方法であり、
前記距離画像取得装置により取得した前記距離画像に基づいて前記被投影体の形状を検出し、前記検出した形状に対応する投影画像を生成する投影画像生成ステップと、
前記距離画像取得装置により第1のタイミングで取得された第1の距離画像が有する距離情報と第2のタイミングで取得された第2の距離画像が有する距離情報との差分値を取得する差分値取得ステップと、
前記差分値取得ステップで取得された前記差分値に基づいて前記被投影体が静止しているか否かの判定を行う判定ステップと、
前記判定ステップの判定結果に基づいて、前記被投影体に対して前記投影画像生成ステップで生成された画像の投影を行う指示を出力する投影指示ステップと、
前記投影指示ステップから出力された前記投影を行う指示に基づいて前記プロジェクタ装置の投影を制御する投影制御ステップと、
前記第1の距離画像が有する距離情報の平均値と前記第2の距離画像が有する距離情報の平均値との差分値を取得するステップと、
前記差分値が第1の閾値以下である場合に前記被投影体が静止していると判定するするステップと、
を含むプロジェクション方法。
A projector apparatus comprising: a display optical element that displays a projection image; and a projection light source and a projection lens that project the projection image displayed on the display optical element onto a projection target;
A distance image sensor in which a plurality of light receiving elements are two-dimensionally arranged, a measurement light source, and a measurement light emitted from the measurement light source and reflected by the projection object is formed on the distance image sensor The distance information corresponding to the flight time of the measurement light emitted from the image lens and the measurement light source, reflected by the projection object and incident on the distance image sensor is acquired from the distance image sensor, and acquired. A distance image generating unit that generates a distance image based on the distance information, and a projection method using a projector with a distance image acquiring device, comprising:
A projection image generation step of detecting a shape of the projection object based on the distance image acquired by the distance image acquisition device and generating a projection image corresponding to the detected shape;
A difference value for acquiring a difference value between the distance information included in the first distance image acquired at the first timing by the distance image acquisition device and the distance information included in the second distance image acquired at the second timing. An acquisition step;
A determination step of determining whether or not the projection object is stationary based on the difference value acquired in the difference value acquisition step;
A projection instruction step for outputting an instruction to project the image generated in the projection image generation step to the projection object based on the determination result of the determination step;
A projection control step of controlling projection of the projector device based on an instruction to perform the projection output from the projection instruction step;
Obtaining a difference value between an average value of distance information included in the first distance image and an average value of distance information included in the second distance image;
Determining that the projection object is stationary when the difference value is equal to or less than a first threshold;
A projection method including:
投影画像を表示する表示用光学素子と、前記表示用光学素子に表示された投影画像を被投影体に投影する投影光源及び投影レンズと、を備えたプロジェクタ装置と、  A projector apparatus comprising: a display optical element that displays a projection image; and a projection light source and a projection lens that project the projection image displayed on the display optical element onto a projection target;
複数の受光素子が2次元状に配列された距離画像センサと、測定用光源と、前記測定用光源から出射され、前記被投影体にて反射する測定光を前記距離画像センサに結像させる結像レンズと、前記測定用光源から出射され、前記被投影体にて反射して前記距離画像センサに入射する前記測定光の飛翔時間に対応する距離情報を前記距離画像センサから取得し、前記取得した距離情報に基づいて距離画像を生成する距離画像生成部と、を備えた距離画像取得装置と、からなる距離画像取得装置付きプロジェクタ装置を使用するプロジェクション方法であり、  A distance image sensor in which a plurality of light receiving elements are two-dimensionally arranged, a measurement light source, and a measurement light emitted from the measurement light source and reflected by the projection object is imaged on the distance image sensor. The distance information corresponding to the flight time of the measurement light emitted from the image lens and the measurement light source, reflected by the projection object and incident on the distance image sensor is acquired from the distance image sensor, and the acquisition is performed. A distance image generating unit that generates a distance image based on the distance information, and a projection method using a projector with a distance image acquiring device, comprising:
前記距離画像取得装置により取得した前記距離画像に基づいて前記被投影体の形状を検出し、前記検出した形状に対応する投影画像を生成する投影画像生成ステップと、  A projection image generation step of detecting a shape of the projection object based on the distance image acquired by the distance image acquisition device and generating a projection image corresponding to the detected shape;
前記距離画像取得装置により第1のタイミングで取得された第1の距離画像が有する距離情報と第2のタイミングで取得された第2の距離画像が有する距離情報との差分値を取得する差分値取得ステップと、  A difference value for acquiring a difference value between the distance information included in the first distance image acquired at the first timing by the distance image acquisition device and the distance information included in the second distance image acquired at the second timing. An acquisition step;
前記差分値取得ステップで取得された前記差分値に基づいて前記被投影体が静止しているか否かの判定を行う判定ステップと、  A determination step of determining whether or not the projection object is stationary based on the difference value acquired in the difference value acquisition step;
前記判定ステップの判定結果に基づいて、前記被投影体に対して前記投影画像生成ステップで生成された画像の投影を行う指示を出力する投影指示ステップと、  A projection instruction step for outputting an instruction to project the image generated in the projection image generation step to the projection object based on the determination result of the determination step;
前記投影指示ステップから出力された前記投影を行う指示に基づいて前記プロジェクタ装置の投影を制御する投影制御ステップと、  A projection control step of controlling projection of the projector device based on an instruction to perform the projection output from the projection instruction step;
前記第1の距離画像が有する距離情報と前記第2の距離画像が有する距離情報との最大の差分値を取得するステップと、Obtaining a maximum difference value between the distance information of the first distance image and the distance information of the second distance image;
前記最大の差分値が第2の閾値以下である場合に前記被投影体が静止していると判定するステップと、  Determining that the projection object is stationary when the maximum difference value is equal to or less than a second threshold;
を含むプロジェクション方法。  A projection method including:
投影画像を表示する表示用光学素子と、前記表示用光学素子に表示された投影画像を被投影体に投影する投影光源及び投影レンズと、を備えたプロジェクタ装置と、  A projector apparatus comprising: a display optical element that displays a projection image; and a projection light source and a projection lens that project the projection image displayed on the display optical element onto a projection target;
複数の受光素子が2次元状に配列された距離画像センサと、測定用光源と、前記測定用光源から出射され、前記被投影体にて反射する測定光を前記距離画像センサに結像させる結像レンズと、前記測定用光源から出射され、前記被投影体にて反射して前記距離画像センサに入射する前記測定光の飛翔時間に対応する距離情報を前記距離画像センサから取得し、前記取得した距離情報に基づいて距離画像を生成する距離画像生成部と、を備えた距離画像取得装置と、からなる距離画像取得装置付きプロジェクタ装置を使用するプロジェクション方法であり、  A distance image sensor in which a plurality of light receiving elements are two-dimensionally arranged, a measurement light source, and a measurement light emitted from the measurement light source and reflected by the projection object is imaged on the distance image sensor. The distance information corresponding to the flight time of the measurement light emitted from the image lens and the measurement light source, reflected by the projection object and incident on the distance image sensor is acquired from the distance image sensor, and the acquisition is performed. A distance image generating unit that generates a distance image based on the distance information, and a projection method using a projector with a distance image acquiring device, comprising:
前記距離画像取得装置により取得した前記距離画像に基づいて前記被投影体の形状を検出し、前記検出した形状に対応する投影画像を生成する投影画像生成ステップと、  A projection image generation step of detecting a shape of the projection object based on the distance image acquired by the distance image acquisition device and generating a projection image corresponding to the detected shape;
前記距離画像取得装置により第1のタイミングで取得された第1の距離画像が有する距離情報と第2のタイミングで取得された第2の距離画像が有する距離情報との差分値を取得する差分値取得ステップと、  A difference value for acquiring a difference value between the distance information included in the first distance image acquired at the first timing by the distance image acquisition device and the distance information included in the second distance image acquired at the second timing. An acquisition step;
前記差分値取得ステップで取得された前記差分値に基づいて前記被投影体が静止しているか否かの判定を行う判定ステップと、  A determination step of determining whether or not the projection object is stationary based on the difference value acquired in the difference value acquisition step;
前記判定ステップの判定結果に基づいて、前記被投影体に対して前記投影画像生成ステップで生成された画像の投影を行う指示を出力する投影指示ステップと、  A projection instruction step for outputting an instruction to project the image generated in the projection image generation step to the projection object based on the determination result of the determination step;
前記投影指示ステップから出力された前記投影を行う指示に基づいて前記プロジェクタ装置の投影を制御する投影制御ステップと、  A projection control step of controlling projection of the projector device based on an instruction to perform the projection output from the projection instruction step;
前記差分値に基づいて生成された差分画像を生成するステップと、  Generating a difference image generated based on the difference value;
を含むプロジェクション方法。  A projection method including:
JP2017543009A 2015-09-29 2016-08-19 Projector device with distance image acquisition device and projection method Active JP6467516B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015191761 2015-09-29
JP2015191761 2015-09-29
PCT/JP2016/074251 WO2017056776A1 (en) 2015-09-29 2016-08-19 Projector device equipped with distance image acquisition device and projection method

Publications (2)

Publication Number Publication Date
JPWO2017056776A1 JPWO2017056776A1 (en) 2018-08-09
JP6467516B2 true JP6467516B2 (en) 2019-02-13

Family

ID=58423434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017543009A Active JP6467516B2 (en) 2015-09-29 2016-08-19 Projector device with distance image acquisition device and projection method

Country Status (4)

Country Link
US (1) US10663593B2 (en)
JP (1) JP6467516B2 (en)
CN (1) CN108140358A (en)
WO (1) WO2017056776A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6822234B2 (en) * 2017-03-15 2021-01-27 セイコーエプソン株式会社 Projector system
US11051571B2 (en) 2018-02-27 2021-07-06 Levi Strauss & Co. Apparel design system including garment features with allocation insights
DE102018105621A1 (en) * 2018-03-12 2019-09-12 Salzbrenner STW-Inside GmbH Video projection device
WO2020145097A1 (en) * 2019-01-10 2020-07-16 株式会社小糸製作所 LiDAR SENSOR UNIT AND VEHICLE SECURITY SYSTEM
CN111757075A (en) * 2019-03-29 2020-10-09 福建天泉教育科技有限公司 Dynamic projection method and system
US11562423B2 (en) 2019-08-29 2023-01-24 Levi Strauss & Co. Systems for a digital showroom with virtual reality and augmented reality

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3407952B2 (en) * 1993-10-19 2003-05-19 東日本旅客鉄道株式会社 Train door detection device
JP3795647B2 (en) * 1997-10-29 2006-07-12 株式会社竹中工務店 Hand pointing device
US20020063807A1 (en) * 1999-04-19 2002-05-30 Neal Margulis Method for Performing Image Transforms in a Digital Display System
JP2003255219A (en) * 2002-03-04 2003-09-10 Nisca Corp Automatic framing camera
JP3495355B2 (en) * 2001-11-05 2004-02-09 三菱電機株式会社 Pulse radar equipment
JP3772870B2 (en) * 2003-08-25 2006-05-10 カシオ計算機株式会社 Projection apparatus, projection method, and program
JP2005223393A (en) * 2004-02-03 2005-08-18 Casio Comput Co Ltd Projector, projecting method, and projection program
JP4670303B2 (en) * 2004-10-06 2011-04-13 ソニー株式会社 Image processing method and image processing apparatus
JP2008242658A (en) * 2007-03-26 2008-10-09 Funai Electric Co Ltd Three-dimensional object imaging apparatus
CN101726978B (en) * 2008-10-29 2012-09-12 精工爱普生株式会社 Projector and projector control method
US10410500B2 (en) * 2010-09-23 2019-09-10 Stryker Corporation Person support apparatuses with virtual control panels
US8681255B2 (en) * 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
KR20120055991A (en) * 2010-11-24 2012-06-01 삼성전자주식회사 Image processing apparatus and control method thereof
JP2012208439A (en) * 2011-03-30 2012-10-25 Sony Corp Projection device, projection method and projection program
JP2013033206A (en) * 2011-07-06 2013-02-14 Ricoh Co Ltd Projection display device, information processing device, projection display system, and program
JP2013061552A (en) * 2011-09-14 2013-04-04 Ricoh Co Ltd Projector device and operation detection method
EP2635022A1 (en) * 2012-02-29 2013-09-04 Flir Systems AB A method and system for performing alignment of a projection image to detected infrared (IR) radiation information
EP2634747A1 (en) * 2012-02-29 2013-09-04 Flir Systems AB A method and system for projecting a visible representation of infrared radiation
JP2013192189A (en) 2012-03-15 2013-09-26 Casio Comput Co Ltd Image processing device, projection system, program and image processing method
JP5842694B2 (en) * 2012-03-21 2016-01-13 セイコーエプソン株式会社 Image processing apparatus, projector, and projector control method
KR101793628B1 (en) * 2012-04-08 2017-11-06 삼성전자주식회사 Transparent display apparatus and method thereof
JP2014041225A (en) * 2012-08-22 2014-03-06 Canon Inc Liquid crystal projector and projection method of liquid crystal projector
JP5791812B2 (en) * 2012-08-30 2015-10-07 楽天株式会社 Clothes image processing device, clothes image display method, and program
WO2014077065A1 (en) * 2012-11-14 2014-05-22 富士フイルム株式会社 Image processor, image-capturing device, and image processing method and program
JP2014137762A (en) * 2013-01-18 2014-07-28 Sanyo Electric Co Ltd Object detector
US9405124B2 (en) * 2013-04-09 2016-08-02 Massachusetts Institute Of Technology Methods and apparatus for light field projection
JP2015038595A (en) * 2013-07-19 2015-02-26 キヤノン株式会社 Video generation device, and video generation method
JP5842110B2 (en) * 2013-10-10 2016-01-13 パナソニックIpマネジメント株式会社 Display control device, display control program, and recording medium
JP6101944B2 (en) * 2014-12-25 2017-03-29 パナソニックIpマネジメント株式会社 Projection device
US10122976B2 (en) * 2014-12-25 2018-11-06 Panasonic Intellectual Property Management Co., Ltd. Projection device for controlling a position of an image projected on a projection surface

Also Published As

Publication number Publication date
US10663593B2 (en) 2020-05-26
CN108140358A (en) 2018-06-08
WO2017056776A1 (en) 2017-04-06
JPWO2017056776A1 (en) 2018-08-09
US20180224553A1 (en) 2018-08-09

Similar Documents

Publication Publication Date Title
JP6467516B2 (en) Projector device with distance image acquisition device and projection method
US10412352B2 (en) Projector apparatus with distance image acquisition device and projection mapping method
US11381753B2 (en) Adjusting camera exposure for three-dimensional depth sensing and two-dimensional imaging
JP5834615B2 (en) PROJECTOR, ITS CONTROL METHOD, ITS PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
KR102611080B1 (en) Imaging devices with autofocus control
KR20170050058A (en) Apparatus and method of sensing depth information
KR102194237B1 (en) Method and apparatus for generating depth image
US9875423B2 (en) Image pickup apparatus that calculates light amount change characteristic, electronic apparatus, and method of calculating light amount change characteristic
US9979876B2 (en) Imaging apparatus, imaging method, and storage medium
US20160266347A1 (en) Imaging apparatus and method, and program
JP2012113171A (en) Imaging device and control method therefor
JP7310606B2 (en) Two-dimensional flicker measuring device and two-dimensional flicker measuring method
JP6700818B2 (en) Image processing device, imaging device, and image processing method
CN110235442B (en) Projection type image display device
US9843715B2 (en) Photographic apparatus, stroboscopic image prediction method, and a non-transitory computer readable storage medium storing stroboscopic image prediction program
WO2020021914A1 (en) Distance measurement device and reliability determination method
US20220294990A1 (en) Information processing device, imaging device, information processing method, and program
JP2013186293A (en) Image generation device and image display method
US9906705B2 (en) Image pickup apparatus
JP2017191082A (en) Bright-spot image acquisition apparatus and bright-spot image acquisition method
JP4640108B2 (en) camera
WO2019181125A1 (en) Image processing apparatus and image processing method
JP5981898B2 (en) Imaging apparatus and control method thereof
JP2012058434A (en) Image projection apparatus
JP2015159432A (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180320

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190111

R150 Certificate of patent or registration of utility model

Ref document number: 6467516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250