JP2022120607A - Projection apparatus and projection method - Google Patents

Projection apparatus and projection method Download PDF

Info

Publication number
JP2022120607A
JP2022120607A JP2021017602A JP2021017602A JP2022120607A JP 2022120607 A JP2022120607 A JP 2022120607A JP 2021017602 A JP2021017602 A JP 2021017602A JP 2021017602 A JP2021017602 A JP 2021017602A JP 2022120607 A JP2022120607 A JP 2022120607A
Authority
JP
Japan
Prior art keywords
projection
image data
area
image
projection area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021017602A
Other languages
Japanese (ja)
Inventor
敏秀 小林
Toshihide Kobayashi
浩 吉川
Hiroshi Yoshikawa
聡隆 村田
Satotaka Murata
領平 須永
Ryohei Sunaga
真哉 三原
Shinya Mihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2021017602A priority Critical patent/JP2022120607A/en
Publication of JP2022120607A publication Critical patent/JP2022120607A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a projection apparatus and a projection method capable of more accurately expressing the color of a projection image.SOLUTION: A projection apparatus 1 comprises a projection image generation unit 33 and a projection unit. The projection image generation unit, on the basis of image data of a projection area including an object and its peripheral area photographed while first light is applied to the projection area and the peripheral area, determines the pixel color of the center of the projection area when assuming a state in which the object does not exist in the projection area in the image data, and on the basis of the pixel color of the center and the pixel color of the peripheral area, determines a pixel color other than the pixel of the center of the projection area when assuming the state in which the object does not exist in the projection area. The projection image generation unit thereby generates virtual image data being image data of the projection area when assuming the state in which the object does not exist in the projection area, and generates image data of the projection image projected on the projection area on the basis of the virtual image data. The projection unit projects the projection image on the projection area.SELECTED DRAWING: Figure 3

Description

本発明は投影装置及び投影方法に関する。 The present invention relates to a projection apparatus and projection method.

建物の壁や立体構造物等に画像を投影するプロジェクションマッピングがなされている。例えば、特許文献1に記載のプロジェクションマッピングでは、ある物体の画像を作成し、別の物体(対象物体)に対して投影することがなされている。 Projection mapping is used to project images onto the walls of buildings, three-dimensional structures, and the like. For example, in projection mapping described in Patent Document 1, an image of a certain object is created and projected onto another object (target object).

特開2017-192040号公報JP 2017-192040 A

上述の方法を用いて、投影画像を作成して対象物体に投影した場合、対象物体が有する色により、本来表示されるべき投影画像の色が正確に表現されない可能性がある。特に、対象物体に対して、異なる形状の物体の画像を投影する場合に、本来表示されるべき投影画像の色が正確に表現できず、ユーザが違和感を覚えることが考えられる。 When a projection image is created and projected onto a target object using the above-described method, the colors of the target object may not accurately represent the colors of the projection image that should be displayed. In particular, when an image of an object having a different shape is projected onto the target object, the color of the projected image that should be displayed cannot be represented accurately, and the user may feel uncomfortable.

本発明の目的は、上述の課題に鑑みてなされたものであり、投影画像の色をより正確に表現することが可能な投影装置及び投影方法を提供することである。 SUMMARY OF THE INVENTION An object of the present invention is to provide a projection apparatus and a projection method capable of expressing the colors of a projected image more accurately.

本発明の第1の態様に係る投影装置は、物体が存在する投影領域及びその周辺領域に対して第1の光が照射された状態で撮影された前記投影領域及び前記周辺領域の画像データに基づいて、前記画像データにおいて前記投影領域に前記物体が存在しない状態を仮定した場合の前記投影領域の中心のピクセル色を決定し、前記中心のピクセル色と前記周辺領域のピクセル色とに基づいて、前記投影領域に前記物体が存在しない状態を仮定した場合の前記投影領域の前記中心のピクセル以外のピクセル色を決定することにより、前記投影領域に前記物体が存在しない状態を仮定した場合の前記投影領域の画像データである仮想画像データを生成し、前記仮想画像データに基づいて前記投影領域に投影する投影画像の画像データを生成する投影画像生成部と、前記投影画像を前記投影領域に対して投影する投影部を備える。 A projection apparatus according to a first aspect of the present invention provides image data of a projection area in which an object exists and the surrounding area photographed in a state in which the projection area and the surrounding area are irradiated with a first light. determining a pixel color at the center of the projection area when it is assumed that the object does not exist in the projection area in the image data, and based on the pixel color at the center and the pixel colors of the peripheral area and determining a pixel color of pixels other than the central pixel in the projection area assuming that the object does not exist in the projection area, thereby performing the above a projection image generation unit that generates virtual image data that is image data of a projection area, generates image data of a projection image that is projected onto the projection area based on the virtual image data, and projects the projection image onto the projection area. and a projection unit for projecting on.

本発明の第2の態様に係る投影装置は、物体が存在する投影領域及びその周辺領域に対して第1の光が照射された状態で撮影された前記投影領域及び前記周辺領域の画像データに基づいて、前記投影領域に前記物体が存在しない状態を仮定した前記投影領域の画像データである第1の画像データを生成し、前記第1の画像データから、第2の光が照射された状態で撮影された前記投影領域における前記物体の画像データである第2の画像データを減算した画像データを、投影画像の画像データとして生成する投影画像生成部と、前記投影画像を前記投影領域に対して投影する投影部を備える。 A projection device according to a second aspect of the present invention provides image data of a projection region and a peripheral region photographed in a state in which a projection region in which an object exists and the peripheral region are irradiated with a first light. Based on this, first image data is generated as image data of the projection area assuming that the object does not exist in the projection area, and a state in which the second light is irradiated from the first image data. a projection image generation unit that generates image data obtained by subtracting second image data, which is image data of the object in the projection area photographed in the projection area, as image data of the projection image; and a projection unit for projecting on.

本発明の第3の態様に係る投影装置が実行する投影方法は、物体が存在する投影領域及びその周辺領域に対して第1の光が照射された状態で撮影された前記投影領域及び前記周辺領域の画像データに基づいて、前記画像データにおいて前記投影領域に前記物体が存在しない状態を仮定した場合の前記投影領域の中心のピクセル色を決定し、前記中心のピクセル色と前記周辺領域のピクセル色とに基づいて、前記投影領域に前記物体が存在しない状態を仮定した場合の前記投影領域の前記中心のピクセル以外のピクセル色を決定することにより、前記投影領域に前記物体が存在しない状態を仮定した場合の前記投影領域の画像データである仮想画像データを生成し、前記仮想画像データに基づいて前記投影領域に投影する投影画像の画像データを生成し、前記投影画像を前記投影領域に対して投影するものである。 A projection method executed by a projection apparatus according to a third aspect of the present invention is a projection area in which an object exists and the surrounding area photographed in a state where the first light is applied to the projection area and the surrounding area. determining a pixel color at the center of the projection area when it is assumed that the object does not exist in the projection area in the image data, based on the image data of the area; The state in which the object does not exist in the projection area is determined by determining the color of pixels other than the central pixel in the projection area, assuming the state in which the object does not exist in the projection area, based on the color and the color. generating virtual image data that is image data of the projection area in the hypothetical case, generating image data of a projection image to be projected onto the projection area based on the virtual image data, and projecting the projection image onto the projection area It is projected by

本発明の第4の態様に係る投影装置が実行する投影方法は、物体が存在する投影領域及びその周辺領域に対して第1の光が照射された状態で撮影された前記投影領域及び前記周辺領域の画像データに基づいて、前記投影領域に前記物体が存在しない状態を仮定した前記投影領域の画像データである第1の画像データを生成し、前記第1の画像データから、第2の光が照射された状態で撮影された前記投影領域における前記物体の画像データである第2の画像データを減算した画像データを、投影画像の画像データとして生成し、前記投影画像を前記投影領域に対して投影するものである。 A projection method executed by a projection apparatus according to a fourth aspect of the present invention is a projection area in which an object exists and the surrounding area photographed in a state where the first light is applied to the projection area and the surrounding area. generating first image data, which is image data of the projection region assuming that the object does not exist in the projection region, based on the image data of the region; image data obtained by subtracting the second image data, which is the image data of the object in the projection area photographed in the state where the is irradiated, is generated as the image data of the projection image, and It is projected by

本発明により、投影画像の色をより正確に表現することが可能な投影装置及び投影方法を提供することができる。 According to the present invention, it is possible to provide a projection apparatus and a projection method capable of expressing the colors of a projected image more accurately.

実施の形態1にかかる投影システムの構成を示す概略図である。1 is a schematic diagram showing the configuration of a projection system according to a first embodiment; FIG. 実施の形態1にかかる投影システムの正面図である。1 is a front view of a projection system according to Embodiment 1; FIG. 実施の形態1にかかる装置本体のブロック図である。1 is a block diagram of an apparatus main body according to a first embodiment; FIG. 実施の形態1にかかる投影画像を投影する部屋を示す図である。2 is a diagram showing a room in which projection images are projected according to the first embodiment; FIG. 実施の形態1にかかる部屋の家具を側面から見た図である。1 is a side view of furniture in a room according to Embodiment 1. FIG. 実施の形態1にかかる投影システムの処理の一例を示すフローチャートである。4 is a flow chart showing an example of processing of the projection system according to the first embodiment; 実施の形態1にかかる投影システムの処理の一例を示すフローチャートである。4 is a flow chart showing an example of processing of the projection system according to the first embodiment; 実施の形態1にかかる投影システムの処理の一例を示すフローチャートである。4 is a flow chart showing an example of processing of the projection system according to the first embodiment; 実施の形態1における、100%の白色光で撮影された画像を示す図である。FIG. 4 is a diagram showing an image captured with 100% white light in Embodiment 1; 実施の形態1における、50%のグレー色光で撮影された画像を示す図である。FIG. 4 is a diagram showing an image captured with 50% gray light in Embodiment 1; 実施の形態1における、物体の移動先の領域を示す図である。4 is a diagram showing a destination area of an object in Embodiment 1. FIG. 実施の形態1における、物体の移動先の領域を示す図である。4 is a diagram showing a destination area of an object in Embodiment 1. FIG. 実施の形態1における、物体領域への投影画像の色設定を示す図である。4 is a diagram showing color setting of an image projected onto an object region in Embodiment 1. FIG.

[実施の形態1]
以下、図面を参照して本発明の実施の形態について説明する。実施の形態1では、投影システム(投影装置)の動作例について説明する。本発明に係る投影システムは、プロジェクタ機構とカメラ機構とが一体となった装置であって、投影装置を適用した一例である。本発明の画像の投影方法は、投影システムが実行する方法として記載しているが、投影装置が実行すると言い換えることも可能である。また、本発明の投影方法をプログラムとして実行する場合、投影システムにおけるコンピュータがプログラムを実行するが、投影装置におけるコンピュータが実行すると言い換えることも可能である。
[Embodiment 1]
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In Embodiment 1, an operation example of a projection system (projection device) will be described. A projection system according to the present invention is an apparatus in which a projector mechanism and a camera mechanism are integrated, and is an example of applying a projection device. Although the image projection method of the present invention is described as a method executed by a projection system, it can also be said that it is executed by a projection apparatus. Also, when the projection method of the present invention is executed as a program, the computer in the projection system executes the program, but it can also be said that the computer in the projection apparatus executes the program.

以下に示す投影システムは、プロジェクタ、デジタルカメラ、ビデオカメラ等の装置として実現可能であるが、適用対象となる装置はこれに限られない。 The projection system described below can be realized as a device such as a projector, a digital camera, a video camera, etc., but the applicable device is not limited to this.

図1は、投影システム1の概念的な構成を示す概略図である。投影システム1は、撮影部としてのカメラ10、TOF(Time of Flight)センサ11、投影部12及び装置本体13を備える。また、投影システム1は、別のコンピュータPと接続されている。コンピュータPは、例えばPC(Personal Computer)であり、ディスプレイ等の表示部や、ボタン、マウス、キーボード、タッチパネル等の入力部を備える。また、コンピュータPには、投影システム1にユーザが指示を入力するためのデバイスドライバ(画像処理ソフトウェア)が搭載されている。ユーザは、コンピュータPの表示部を視認しながら入力部を操作することによって、コンピュータPを介して、投影システム1を操作する。 FIG. 1 is a schematic diagram showing a conceptual configuration of a projection system 1. As shown in FIG. The projection system 1 includes a camera 10 as an imaging unit, a TOF (Time of Flight) sensor 11 , a projection unit 12 and an apparatus body 13 . The projection system 1 is also connected to another computer P. The computer P is, for example, a PC (Personal Computer), and includes a display unit such as a display, and input units such as buttons, a mouse, a keyboard, and a touch panel. Further, the computer P is equipped with a device driver (image processing software) for the user to input instructions to the projection system 1 . The user operates the projection system 1 via the computer P by operating the input section while viewing the display section of the computer P. FIG.

以下、投影システム1の各構成要素について説明する。カメラ10は、投影システム1に取り付けられ、投影システム1の周辺領域(特に、投影部12が投影する領域)を撮影する。カメラ10は、可視光カメラであり、投影部12から光が照射された物体を撮影することができる。 Each component of the projection system 1 will be described below. The camera 10 is attached to the projection system 1 and captures images of the peripheral area of the projection system 1 (in particular, the area projected by the projection unit 12). The camera 10 is a visible light camera and can photograph an object irradiated with light from the projection unit 12 .

TOFセンサ11は、検出領域内に存在する物体に対して赤外光を照射するとともに、物体からの赤外光の反射光を受光する3D-TOFセンサである。TOFセンサ11の検出領域は、カメラ10が撮影する撮影領域と同じである。TOFセンサ11は、照射光を出力したタイミングから反射光がTOFセンサ11に戻るまでの時間を計測することにより、投影システム1と、検出領域(撮影領域)内に存在する物体との距離を計測する。以下、投影システム1と、検出領域(撮影領域)内に存在する物体との距離を、単に「物体の距離」と表記する。 The TOF sensor 11 is a 3D-TOF sensor that irradiates an object existing within a detection area with infrared light and receives reflected infrared light from the object. The detection area of the TOF sensor 11 is the same as the photographing area photographed by the camera 10 . The TOF sensor 11 measures the distance between the projection system 1 and an object existing within the detection area (imaging area) by measuring the time from the timing when the irradiation light is output until the reflected light returns to the TOF sensor 11. do. Hereinafter, the distance between the projection system 1 and an object existing within the detection area (imaging area) is simply referred to as "object distance".

投影部12は、LED(Light Emitting Diode)等の発光光源、レンズ等を有するプロジェクタとして機能し、後述の投影画像生成部33が生成した投影画像を、投影領域に投影(照射)する。この投影領域は、カメラ10の撮影領域と同じである。このとき、投影部12から照射される光の色温度及び輝度は、投影画像に応じたものとなるように制御される。具体的には、光源のRGBのパラメータを調整することにより、照射される光の色温度を変えることができる。 The projection unit 12 functions as a projector having a light emitting light source such as an LED (Light Emitting Diode), a lens, and the like, and projects (irradiates) a projection image generated by a projection image generation unit 33, which will be described later, onto a projection area. This projection area is the same as the imaging area of the camera 10 . At this time, the color temperature and brightness of the light emitted from the projection unit 12 are controlled so as to correspond to the projected image. Specifically, the color temperature of the emitted light can be changed by adjusting the RGB parameters of the light source.

さらに、投影部12は、カメラ10の撮影時に投影領域に対して光を照射することで、投影システム1が所望の光で撮影された画像データを得られるようにする。このときも、投影部12から照射される光の色温度及び輝度は、取得すべき画像データの性質に応じたものとなるように制御される。 Further, the projection unit 12 irradiates the projection area with light when the camera 10 captures an image, so that the projection system 1 can obtain image data captured with desired light. Also at this time, the color temperature and brightness of the light emitted from the projection unit 12 are controlled so as to correspond to the properties of the image data to be obtained.

図2は、投影システム1の正面図である。投影システム1の正面のカメラ10が画像データを撮影し、TOFセンサ11は、カメラ10が撮影した物体の距離を測定する。そして、投影部12は、カメラ10が撮影した任意の領域に対して、投影画像を投影することができる。 FIG. 2 is a front view of the projection system 1. FIG. A camera 10 in front of the projection system 1 captures image data and a TOF sensor 11 measures the distance of the object captured by the camera 10 . Then, the projection unit 12 can project the projection image onto an arbitrary area captured by the camera 10 .

図3は、装置本体13のブロック図である。装置本体13は、投影システム1のコンピュータを構成する部分であり、メモリ20、I/O部21及び情報処理部30を有する。 FIG. 3 is a block diagram of the device body 13. As shown in FIG. The apparatus main body 13 is a part that constitutes the computer of the projection system 1 and has a memory 20 , an I/O section 21 and an information processing section 30 .

メモリ20は、揮発性メモリや不揮発性メモリ、またはそれらの組み合わせで構成される。メモリ20は、1個に限られず、複数設けられてもよい。なお、揮発性メモリは、例えば、DRAM (Dynamic Random Access Memory)、SRAM (Static Random Access Memory)等のRAM (Random Access Memory)であってもよい。不揮発性メモリは、例えば、PROM (Programmable ROM)、EPROM (Erasable Programmable Read Only Memory)、Flash Memory であってもよい。 Memory 20 is comprised of volatile memory, non-volatile memory, or a combination thereof. The number of memories 20 is not limited to one, and a plurality of memories may be provided. The volatile memory may be, for example, RAM (Random Access Memory) such as DRAM (Dynamic Random Access Memory) and SRAM (Static Random Access Memory). The non-volatile memory may be, for example, PROM (Programmable ROM), EPROM (Erasable Programmable Read Only Memory), Flash Memory.

メモリ20は、1以上の命令を格納するために使用される。ここで、1以上の命令は、ソフトウェアモジュール群としてメモリ20に格納される。情報処理部30は、1以上の命令をメモリ20から読み出して実行することで、以下の処理を行うことができる。さらに、メモリ20は、撮影によって得られた画像データや、後述の処理によって得られた投影画像の画像データを記憶する。 Memory 20 is used to store one or more instructions. Here, one or more instructions are stored in memory 20 as software modules. The information processing unit 30 can perform the following processes by reading one or more instructions from the memory 20 and executing them. Further, the memory 20 stores image data obtained by photographing and image data of a projection image obtained by processing described later.

I/O(Input / Output)部21は、投影システム1の外部装置と情報の入出力を実行するハードウェアインタフェースである。この実施形態では、I/O部21はコンピュータPに接続されており、情報処理部30とコンピュータPとの情報の送受信に用いられる。 An I/O (Input/Output) unit 21 is a hardware interface that inputs and outputs information to and from an external device of the projection system 1 . In this embodiment, the I/O section 21 is connected to the computer P and used for information transmission/reception between the information processing section 30 and the computer P. FIG.

情報処理部30は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、FPGA(Field-Programmable Gate Array)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)など任意のプロセッサ等で構成される。 The information processing unit 30 is composed of arbitrary processors such as a CPU (Central Processing Unit), MPU (Micro Processing Unit), FPGA (Field-Programmable Gate Array), DSP (Digital Signal Processor), and ASIC (Application Specific Integrated Circuit). be done.

なお、メモリ20は、情報処理部30の外部に設けられるものに加えて、情報処理部30に内蔵されているものを含んでもよい。また、メモリ20は、情報処理部30を構成するプロセッサから離れて配置されたストレージを含んでもよい。この場合、プロセッサは、I/O(Input / Output)21を介してメモリ20にアクセスすることができる。 Note that the memory 20 may be provided outside the information processing section 30 and may include a memory built into the information processing section 30 . Moreover, the memory 20 may include a storage that is located away from the processors that make up the information processing section 30 . In this case, the processor can access the memory 20 via an I/O (Input/Output) 21 .

情報処理部30は、メモリ20からソフトウェア(コンピュータプログラム)を読み出して実行することで、撮影制御部31、距離特定部32、投影画像生成部33及び投影制御部34等の機能を実現する。以下、各構成要素について説明する。 The information processing unit 30 reads out software (computer program) from the memory 20 and executes the software (computer program) to realize the functions of the shooting control unit 31, the distance specifying unit 32, the projection image generation unit 33, the projection control unit 34, and the like. Each component will be described below.

撮影制御部31は、カメラ10の撮影を制御する。具体的には、撮影制御部31は、撮影動作の実行を制御することや、撮影時のホワイトバランス、露光、コントラスト等を調整する機能を有する。さらに、撮影制御部31は、撮影時に投影部12を制御することで、所望の色温度及び輝度を有する光が、撮影対象に照射されるように制御する。例えば、撮影制御部31は、投影部12の光源のRGBのパラメータを調整する。 The shooting control unit 31 controls shooting of the camera 10 . Specifically, the photographing control unit 31 has a function of controlling execution of photographing operations and adjusting white balance, exposure, contrast, etc. during photographing. Further, the imaging control unit 31 controls the projection unit 12 at the time of imaging so that light having a desired color temperature and luminance is applied to the imaging target. For example, the imaging control unit 31 adjusts the RGB parameters of the light source of the projection unit 12 .

また、撮影制御部31は、カメラ10が撮影した画像データを取得し、メモリ20に格納させる。さらに、撮影制御部31は、撮影時にTOFセンサ11を制御して距離測定を実行させることにより、検出領域(撮影領域)内に存在する物体の距離を計測する。 Further, the imaging control unit 31 acquires image data shot by the camera 10 and stores it in the memory 20 . Further, the photographing control unit 31 controls the TOF sensor 11 at the time of photographing to measure the distance of an object existing within the detection area (imaging area).

距離特定部32は、TOFセンサ11が検出した検出領域内の物体の距離と、カメラ10が撮影した画像データを比較して、画像データ中にある物体の距離を特定する。距離特定部32は、画像データ中において、周囲の物体と所定の閾値以上距離の差がある物体を特定し、特定した物体の情報を画像データとともにコンピュータPの表示部に表示させる。 The distance specifying unit 32 compares the distance of the object within the detection area detected by the TOF sensor 11 with the image data captured by the camera 10 to specify the distance of the object in the image data. The distance specifying unit 32 specifies an object having a distance difference of a predetermined threshold or more from surrounding objects in the image data, and causes the display unit of the computer P to display information on the specified object together with the image data.

投影画像生成部33は、投影部12の投影領域に投影する投影画像を生成する。例えば、投影画像生成部33は、カメラ10が撮影した複数の画像データを加工処理して、投影画像の画像データとして生成することができる。この処理の詳細は後述する。 The projection image generator 33 generates a projection image to be projected onto the projection area of the projection unit 12 . For example, the projection image generation unit 33 can process a plurality of image data captured by the camera 10 to generate image data of a projection image. The details of this processing will be described later.

投影制御部34は、投影部12の投影を制御する。具体的に、投影制御部34は、投影画像生成部33が生成した投影画像を投影部12に表示させるよう、投影部12の発光光源の色温度、輝度や、投影部12の絞りを調整する。また、投影制御部34は、投影画像生成部33が生成した投影画像ではなく、メモリ20に予め記憶された画像を、投影部12を制御して投影してもよい。 The projection control unit 34 controls projection by the projection unit 12 . Specifically, the projection control unit 34 adjusts the color temperature and brightness of the light source of the projection unit 12 and the aperture of the projection unit 12 so that the projection image generated by the projection image generation unit 33 is displayed on the projection unit 12. . Further, the projection control unit 34 may control the projection unit 12 to project an image pre-stored in the memory 20 instead of the projection image generated by the projection image generation unit 33 .

図4Aは、投影システム1が画像データを撮影し、その画像データを用いて投影画像を投影する対象を示す。図4Aは、住宅の部屋Rにおいて、壁Wを背にして、家具(立体物)であるテレビT、テレビ台S及び書棚Bが配置されていることを示す。なお、部屋Rは、カメラ10の撮影領域、TOFセンサ11の検出領域、投影部12の投影領域のいずれにも含まれる。 FIG. 4A shows an object on which the projection system 1 captures image data and uses the image data to project a projection image. FIG. 4A shows that in a room R of a house, a television T, a television stand S, and a bookshelf B, which are pieces of furniture (three-dimensional objects), are arranged with a wall W at the back. The room R is included in all of the imaging area of the camera 10, the detection area of the TOF sensor 11, and the projection area of the projection unit 12. FIG.

図4Bは、部屋R及び投影システム1を側面から見た図である。投影システム1は、壁W及び各家具の撮影及び画像の投影が可能なように、その正面が壁W及び各家具を向いた状態となっている。投影システム1と壁Wとの距離はd1、投影システム1と書棚Bとの距離はd2、投影システム1とテレビTとの距離はd3、投影システム1とテレビ台Sとの距離はd4であり、d1>d2>d3>d4の大小関係が成り立つ。 4B is a side view of room R and projection system 1. FIG. The front of the projection system 1 faces the wall W and each piece of furniture so that the wall W and each piece of furniture can be photographed and an image can be projected. The distance between the projection system 1 and the wall W is d1, the distance between the projection system 1 and the bookshelf B is d2, the distance between the projection system 1 and the television T is d3, and the distance between the projection system 1 and the television stand S is d4. , d1>d2>d3>d4.

この例では、部屋の住人である投影システム1のユーザは、テレビT、テレビ台Sを書棚Bの位置に移動する模様変えを計画している。ここで、ユーザは、テレビT、テレビ台Sを動かすことなく、投影システム1を用いて、テレビT、テレビ台Sの画像を書棚Bの場所に投影させる。これによって模様変えのシミュレーションをすることで、自分の意図する模様替えが問題ないか否か、ユーザは事前に確認することができる。 In this example, the user of the projection system 1, who is a resident of the room, plans to change the layout by moving the television T and the television stand S to the position of the bookshelf B. FIG. Here, the user uses the projection system 1 to project the images of the television T and the television stand S onto the bookshelf B without moving the television T and the television stand S. By simulating the redecoration, the user can confirm in advance whether the redecoration intended by the user is satisfactory.

図5A~5Cは、上述の状況において、投影システム1が実行する処理の一例を示したフローチャートである。以下、図5A~5Cを参照して、投影システム1の処理を説明する。 5A-5C are flow charts showing an example of the processing performed by the projection system 1 in the situation described above. The processing of the projection system 1 will now be described with reference to FIGS. 5A-5C.

まず、ユーザは、コンピュータPを操作して、100%の白色光(第1の光)を部屋Rに照射してホワイトバランス用の画像を撮影する指示を、I/O部21を介して投影システム1に出力する。撮影制御部31は、その指示に応じて、投影部12を制御して100%の白色光を照射させている間にカメラ10を制御して、部屋Rを撮影させる(ステップS11)。このとき、部屋R内にはユーザが予め用意したホワイトバランス調整用の白い紙が配置されており、カメラ10は部屋Rの内装とともにその白い紙を撮影する。なお、100%の白色光とは、RGBの成分がそれぞれ100%あることを示す。 First, the user operates the computer P to irradiate the room R with 100% white light (first light) and project an instruction through the I/O unit 21 to capture an image for white balance. Output to system 1. In response to the instruction, the photographing control unit 31 controls the camera 10 to photograph the room R while controlling the projection unit 12 to irradiate 100% white light (step S11). At this time, a white sheet of paper prepared in advance by the user for adjusting the white balance is arranged in the room R, and the camera 10 photographs the white sheet together with the interior of the room R. Note that 100% white light means that each of the RGB components is 100%.

撮影制御部31は、撮影で取得した画像データを用いて、画像データ中の白い紙が白く表されるように、撮影時のホワイトバランスを調整する。このように、投影システム1から照射した100%の白色光でカメラのホワイトバランスを調整するモードを、第1のモードと記載する。 The photography control unit 31 uses the image data obtained by photography to adjust the white balance at the time of photography so that the white paper in the image data appears white. A mode in which the white balance of the camera is adjusted with 100% white light emitted from the projection system 1 in this manner is referred to as a first mode.

次に、ユーザは白い紙を撮影領域の外に片付けた後、投影システム1に対して、投影画像を生成するよう、コンピュータPを操作して指示する。撮影制御部31は、I/O部21からのその指示に応じて、投影部12を制御して100%の白色光を照射させている間にカメラ10を制御して、部屋Rを撮影させる(ステップS12)。この撮影により、壁W、テレビT、テレビ台S及び書棚Bが静止画として撮影される。なお、ステップS12の撮影時のホワイトバランスは、ステップS11で設定されたものが用いられる。この撮影モードを第2のモードとする。 Next, the user puts away the white paper outside the imaging area, and then instructs the projection system 1 to generate a projection image by operating the computer P. FIG. In response to the instruction from the I/O unit 21, the photographing control unit 31 controls the camera 10 to photograph the room R while controlling the projection unit 12 to irradiate 100% white light. (Step S12). By this photographing, the wall W, the television T, the television stand S, and the bookshelf B are photographed as still images. Note that the white balance set in step S11 is used as the white balance at the time of photographing in step S12. This photographing mode is referred to as a second mode.

図6Aは、第2のモードにおいて撮影された画像を示す。この撮影された画像を、以下、PIC1と表記する。撮影制御部31は、PIC1を、RGB信号を有するカラーの画像データとして、メモリ20に格納する。 FIG. 6A shows an image taken in the second mode. This photographed image is hereinafter referred to as PIC1. The imaging control unit 31 stores PIC1 in the memory 20 as color image data having RGB signals.

また、ステップS12において、撮影制御部31は、カメラ10の撮影時にTOFセンサ11を制御して、検出領域内にある物体の距離を測定させる。また、距離特定部32は、TOFセンサ11が検出した検出領域内の物体の距離と、カメラ10が撮影したPIC1を比較して、PIC1中にある壁W、書棚B、テレビT、テレビ台Sのそれぞれの距離d1~d4を特定する。 Further, in step S12, the photographing control unit 31 controls the TOF sensor 11 during photographing by the camera 10 to measure the distance of the object within the detection area. Further, the distance specifying unit 32 compares the distance of the object in the detection area detected by the TOF sensor 11 with the PIC1 photographed by the camera 10, and determines the wall W, the bookshelf B, the television T, and the television stand S in the PIC1. specify the distances d1 to d4, respectively.

ステップS12の後、撮影制御部31は、投影部12を制御して50%のグレー色光(第2の光)を照射させている間にカメラ10を制御して、部屋Rを撮影させる(ステップS13)。なお、50%のグレー色光とは、RGBの成分がそれぞれ50%あることを示す。この撮影により、壁W、テレビT、テレビ台S及び書棚Bが静止画として撮影される。なお、ステップS13の撮影時のホワイトバランスは、ステップS11で設定されたものが用いられる。この撮影モードを第3のモードとする。 After step S12, the photographing control unit 31 controls the camera 10 to photograph the room R while controlling the projection unit 12 to emit 50% gray light (second light) (step S13). Note that 50% gray light means that the RGB components are each 50%. By this photographing, the wall W, the television T, the television stand S, and the bookshelf B are photographed as still images. Note that the white balance set in step S11 is used as the white balance at the time of photographing in step S13. This photographing mode is referred to as a third mode.

図6Bは、第3のモードにおいて撮影された画像を示す。この撮影された画像は、投影画像を生成する際の基準データとなるものであり、以下、PIC2と表記する。撮影制御部31は、PIC2を、RGB信号を有するカラーの画像データとして、メモリ20に格納する。 FIG. 6B shows an image taken in the third mode. This photographed image serves as reference data when generating a projection image, and is hereinafter referred to as PIC2. The imaging control unit 31 stores the PIC2 in the memory 20 as color image data having RGB signals.

なお、以上に示した各ステップS11~S13の撮影時において、撮影制御部31は、カメラ10の露光を、画像データの性質に応じた適正な状態に設定している。また、各ステップにおける照射光は、ムラがほとんどない均一な光である。さらに、ステップS11~S13の撮影では、照射光以外の光が部屋R内に入光しないよう、部屋Rを暗室にしておくことが好ましい。 It should be noted that at the time of photographing in steps S11 to S13 shown above, the photographing control unit 31 sets the exposure of the camera 10 to an appropriate state according to the properties of the image data. Further, the irradiation light in each step is uniform light with almost no unevenness. Furthermore, in the photographing in steps S11 to S13, it is preferable to keep the room R as a dark room so that light other than the irradiation light does not enter the room R.

次に、投影画像生成部33は、メモリ20に格納されたPIC1の画像を、I/O部21を介してコンピュータPに出力する。コンピュータPは、デバイスドライバを動作させて、表示部にPIC1の画像を表示する。ユーザは、コンピュータPの入力部を操作して、PIC1の画像から、移動を予定する物体(被写体)としてテレビT、テレビ台Sを選択する。選択されたテレビT、テレビ台Sの画像データは、x、y軸で位置が表現される2次元配列のデータ列であって、RGBそれぞれの色成分に関して2次元データを有するデータ列である。このデータ列を、RealDataObj1[x,y]と表記する。コンピュータPの入力部の操作に応じて、コンピュータPは、RealDataObj1[x,y]の情報を、I/O部21を介して投影画像生成部33に出力する。 Next, the projection image generation section 33 outputs the image of the PIC1 stored in the memory 20 to the computer P via the I/O section 21 . The computer P operates the device driver to display the image of PIC1 on the display unit. The user operates the input unit of the computer P to select the television T and the television stand S as objects (subjects) to be moved from the image of the PIC1. The selected image data of the television T and the television stand S is a two-dimensional array data string whose position is represented by the x and y axes, and is a data string having two-dimensional data for each of the RGB color components. This data string is expressed as RealDataObj1[x, y]. The computer P outputs the information of RealDataObj1[x, y] to the projection image generation section 33 via the I/O section 21 according to the operation of the input section of the computer P. FIG.

なお、投影画像生成部33は、距離特定部32で特定された、PIC1中にある壁W、テレビT、テレビ台S及び書棚Bの距離の情報に基づいて、PIC1の画像において投影システム1までの距離が同じ領域を、物体の候補領域として認定しても良い。この場合、各物体の距離に差がある(距離が異なる)ため、投影画像生成部33は、壁W、テレビT、テレビ台S及び書棚Bを、異なる物体の候補領域として認定することができる。 Note that the projection image generation unit 33, based on information on the distances of the wall W, the television T, the television stand S, and the bookshelf B in the PIC1 specified by the distance specifying unit 32, , may be identified as object candidate regions. In this case, since there is a difference in the distance of each object (distances are different), the projected image generation unit 33 can recognize the wall W, the television T, the television stand S, and the bookshelf B as candidate regions for different objects. .

投影画像生成部33は、認定した物体の候補領域を示す情報を、PIC1の画像とともにコンピュータPに出力する。投影画像生成部33は、例えば画像処理によって、認識された物体の外枠を、物体の候補領域を示す情報と設定し、その外枠の情報をPIC1の画像に重畳してもよい。ユーザは、コンピュータPの入力部を操作して、物体の候補領域から、移動を予定する物体(被写体)としてテレビT、テレビ台Sを選択する。コンピュータPは、選択されたRealDataObj1[x,y]の情報を、投影画像生成部33に出力する。 The projection image generation unit 33 outputs information indicating the identified object candidate regions to the computer P together with the image of the PIC1. The projection image generation unit 33 may set the outer frame of the recognized object as information indicating the candidate area of the object by image processing, for example, and superimpose the information of the outer frame on the image of the PIC1. The user operates the input unit of the computer P to select the television T and the television stand S as objects (subjects) to be moved from the object candidate areas. The computer P outputs the information of the selected RealDataObj1[x, y] to the projection image generator 33 .

または、投影画像生成部33は、PIC1の画像とともに、距離特定部32で特定された各物体の距離の情報を、コンピュータPに出力してもよい。コンピュータPは、PIC1の画像とともに、表示部に各物体の距離情報を表示する。ユーザは、この距離情報を参考にすることで、移動を予定する物体としてテレビT、テレビ台Sを選択する。投影画像生成部33は、以上のような処理を実行することで、移動を予定する物体を、PIC1中から正確に選択しやすくなる。 Alternatively, the projection image generation unit 33 may output to the computer P information on the distance of each object identified by the distance identification unit 32 together with the image of the PIC1. The computer P displays distance information of each object on the display together with the image of the PIC1. By referring to this distance information, the user selects the television T and the television stand S as objects to be moved. By executing the above-described processing, the projection image generation unit 33 can easily select an object scheduled to move from the PIC1 accurately.

次に、投影画像生成部33は、RealDataObj1[x,y]の情報に基づいて、メモリ20に格納されたPIC2の画像データから、テレビT、テレビ台Sの領域の画像データであるGrayDataObj2[x,y](第2の画像データ)を選択する。通常、PIC1とPIC2の撮影時において、部屋R内の物体の位置が変化することは考えにくい。そのため、投影画像生成部33は、PIC2において、RealDataObj1[x,y]の2次元の位置情報と同じ位置情報を有する領域の画像データを、GrayDataObj2[x,y]として選択する。つまり、RealDataObj1[x,y]とGrayDataObj2[x,y]は、PIC1、PIC2において、同じテレビT、テレビ台Sの領域を示す情報である。 Next, based on the information of RealDataObj1[x, y], the projected image generation unit 33 extracts GrayDataObj2[x, which is the image data of the area of the television T and the television stand S, from the image data of the PIC2 stored in the memory 20. , y] (second image data). Normally, it is difficult to imagine that the position of an object in the room R will change during the imaging of PIC1 and PIC2. Therefore, in PIC2, the projection image generation unit 33 selects the image data of the area having the same position information as the two-dimensional position information of RealDataObj1[x,y] as GrayDataObj2[x,y]. That is, RealDataObj1[x, y] and GrayDataObj2[x, y] are information indicating the areas of the same television T and television stand S in PIC1 and PIC2.

ただし、投影画像生成部33は、PIC2の画像をコンピュータPに出力し、ユーザにGrayDataObj2[x,y]を選択させてもよい。投影画像生成部33は、コンピュータPから、ユーザが選択したGrayDataObj2[x,y]の情報を、I/O部21を介して取得する。この処理の詳細は、上述のPIC1の画像に関する処理と同様であるため、説明を省略する。 However, the projection image generator 33 may output the image of PIC2 to the computer P and allow the user to select GrayDataObj2[x, y]. The projection image generation unit 33 acquires information of GrayDataObj2[x, y] selected by the user from the computer P via the I/O unit 21 . The details of this process are the same as the process related to the image of the PIC1 described above, so description thereof will be omitted.

以上のようにして、投影画像生成部33は、ユーザの操作に基づいて、PIC1の画像データから、テレビT及びテレビ台Sの画像データであるRealDataObj1[x,y](画像データ1)を選択する。同様に、投影画像生成部33は、PIC2の画像データから、テレビT及びテレビ台Sの画像データであるGrayDataObj2[x,y](画像データ2)を選択する(ステップS14)。 As described above, the projected image generation unit 33 selects RealDataObj1[x, y] (image data 1), which is the image data of the television T and the television stand S, from the image data of the PIC1 based on the user's operation. do. Similarly, the projection image generator 33 selects GrayDataObj2[x, y] (image data 2), which is the image data of the television T and the television stand S, from the image data of the PIC2 (step S14).

以下、投影画像生成部33は、(A)テレビT、テレビ台Sの移動予定位置に投影される投影画像と、(B)テレビT、テレビ台Sが現在位置する領域に投影される投影画像をそれぞれ生成する。そして、投影制御部34は、投影部12を制御して、(A)及び(B)で生成された投影画像を投影させる。 Below, the projection image generation unit 33 generates (A) a projection image projected at the planned movement position of the television T and the television stand S, and (B) a projection image projected onto the area where the television T and the television stand S are currently located. respectively. Then, the projection control unit 34 controls the projection unit 12 to project the projection images generated in (A) and (B).

ここでは、上述の(A)に係る投影画像を生成する処理を処理Aと記載し、(B)に係る投影画像を生成する処理を処理Bと記載する。処理A、Bについて、それぞれ図5B、5Cを用いて説明する。 Here, the process of generating the projection image related to (A) described above is described as process A, and the process of generating the projection image related to (B) is described as process B. Processing A and B will be described with reference to FIGS. 5B and 5C, respectively.

<処理A>
まず、図5Bを用いて、処理Aについて説明する。ステップS14において、コンピュータPの表示部にPIC1が表示されているときに、ユーザは、入力部を用いて、選択したテレビT、テレビ台Sの移動先を指定する。例えば、ユーザは、コンピュータPのマウスを用いて、選択したテレビT、テレビ台Sを表示部上でドラッグ・アンド・ドロップすることによって、ドロップ先のPIC1の領域を、テレビT、テレビ台Sの移動先に指定することができる。
<Process A>
First, processing A will be described with reference to FIG. 5B. In step S14, when PIC1 is displayed on the display section of the computer P, the user uses the input section to specify the destination of the selected television T and television stand S. FIG. For example, the user uses the mouse of the computer P to drag and drop the selected TV T and TV stand S on the display unit, thereby moving the area of the PIC1 to the TV T and TV stand S. You can specify the destination.

図6Cは、PIC1においてテレビT及びテレビ台Sをドラッグ・アンド・ドロップすることにより指定された移動先の領域を示す。図6Cにおいて破線で示された領域T1、S1は、ユーザによって指定された、テレビT、テレビ台Sの移動先であり、一部が書棚Bと重複している。コンピュータPは、指定されたPIC1の領域T1、S1の位置情報を、投影画像生成部33に出力する。投影画像生成部33は、PIC1の領域T1、S1の位置情報に基づいて、PIC2におけるテレビT、テレビ台Sの移動先の領域を指定する。 FIG. 6C shows a destination area specified by dragging and dropping the television T and the television stand S on PIC1. Regions T1 and S1 indicated by dashed lines in FIG. 6C are destinations of the television T and television stand S designated by the user, and partially overlap with the bookshelf B. FIG. The computer P outputs the positional information of the designated areas T1 and S1 of the PIC1 to the projection image generator 33 . The projected image generation unit 33 designates the destination area of the television T and the television stand S in PIC2 based on the position information of the areas T1 and S1 in PIC1.

図6Dは、PIC2における移動先の領域T2、S2を示す。上述のとおり、PIC1とPIC2の撮影時において、部屋R内の物体の位置が変化することは考えにくい。そのため、投影画像生成部33は、PIC2において、PIC1の領域T1、S1の位置情報と同じ位置情報を有する領域T2、S2の画像データを選択する(ステップS21)。選択された画像データを、GrayDataObj3[x,y](画像データ3)と表記する。GrayDataObj3[x,y]は、x、y軸で位置が表現される2次元配列のデータ列であって、RGBそれぞれの色成分に関して2次元データを有するデータ列である。 FIG. 6D shows destination areas T2 and S2 in PIC2. As described above, it is unlikely that the position of the object in the room R will change during the imaging of PIC1 and PIC2. Therefore, the projection image generator 33 selects the image data of the regions T2 and S2 having the same position information as the position information of the regions T1 and S1 of PIC1 (step S21). The selected image data is expressed as GrayDataObj3[x,y] (image data 3). GrayDataObj3[x, y] is a data string of a two-dimensional array whose positions are represented by the x and y axes, and is a data string having two-dimensional data for each of RGB color components.

図5Bに戻り、説明を続ける。次に、投影画像生成部33は、RealDataObj1[x,y]、GrayDataObj2[x,y]及びGrayDataObj3[x,y]を用いて、テレビT、テレビ台Sの移動先の投影画像を生成する(ステップS22)。具体的に、投影画像生成部33は、次の計算を実行する。 Returning to FIG. 5B, the description continues. Next, the projection image generation unit 33 uses RealDataObj1 [x, y], GrayDataObj2 [x, y], and GrayDataObj3 [x, y] to generate a projection image of the destination of the television T and the television stand S ( step S22). Specifically, the projected image generator 33 performs the following calculations.

まず、投影画像生成部33は、GrayDataObj3[x,y]から、第3のモードでの撮影に用いられる50%のグレー色光のデータを減算する。なお、2つの画像データにおける「減算」又は「加算」とは、ある画像データのピクセルの色に対して、別の画像データの同じ位置にあるピクセルの色を減算又は加算することを、各ピクセルに対して実行することをいう。50%のグレー色光のデータは、上述の通り、RGBの各成分が、R=50%、G=50%、B=50%のデータである。50%のグレー色光のデータを、Gray50と表記すると、減算の結果は次の通りになる。
GrayDataObj3[x,y]- Gray50・・・(1)
(1)は、50%のグレー色光を照射しても、移動先の領域においてグレーにならなかった色を示す差分データである。換言すれば、(1)は、移動先の領域における、グレー以外の色の成分を示す。(1)は、書棚Bや、壁Wの色の影響で生じる差分データである。
First, the projection image generation unit 33 subtracts 50% gray light data used for photographing in the third mode from GrayDataObj3[x, y]. Note that "subtraction" or "addition" in two image data means subtracting or adding the color of a pixel at the same position of another image data to the color of a pixel of one image data. It means to execute against As described above, the 50% gray light data is data in which the RGB components are R=50%, G=50%, and B=50%. Denoting the 50% gray light data as Gray50, the result of the subtraction is:
GrayDataObj3[x,y]-Gray50 (1)
(1) is difference data indicating colors that did not become gray in the destination area even when 50% gray light was irradiated. In other words, (1) indicates a color component other than gray in the destination area. (1) is difference data caused by the influence of the color of the bookshelf B and the wall W. FIG.

この計算の結果、投影画像の色を調整して、移動先の領域の色を50%のグレー色とするためには、計算上、以下の投影画像の画像データを、補色として移動先の領域に投影すればよいことが分かる。
-1*(GrayDataObj3[x,y]- Gray50)・・・(2)
As a result of this calculation, in order to adjust the color of the projected image so that the color of the destination area is 50% gray, the following image data of the projected image is used as the complementary color for the destination area. It turns out that it should be projected to .
-1*(GrayDataObj3[x,y]-Gray50) (2)

また、投影画像生成部33は、GrayDataObj2[x,y]から、50%のグレー色光のデータを減算する。この減算の結果は次の通りになる。
GrayDataObj2[x,y]- Gray50・・・(3)
(3)は、50%のグレー色光を照射しても、テレビT、テレビ台Sの領域(移動元の領域)においてグレーにならなかった色を示す差分データである。換言すれば、(3)は、移動元の領域における、グレー以外の色の成分を示す。(3)は、テレビT、テレビ台Sの色の影響で生じる差分データである。
Further, the projection image generation unit 33 subtracts 50% of the gray color light data from GrayDataObj2[x, y]. The result of this subtraction is:
GrayDataObj2[x,y]-Gray50 (3)
(3) is difference data indicating colors that did not become gray in the area of the television T and the television stand S (the movement source area) even when 50% of the gray light was irradiated. In other words, (3) indicates the color components other than gray in the movement source area. (3) is difference data caused by the influence of the colors of the television T and the television stand S. FIG.

この計算の結果、投影画像の色を調整して、移動元の領域の色を50%のグレー色とするためには、計算上、以下の投影画像の画像データを、補色として移動元の領域に投影すればよいことが分かる。
-1*(GrayDataObj2[x,y]- Gray50)・・・(4)
通常、(2)、(4)は、50%のグレー色光に対する補色成分であって、以下に示す通り、近い値となるファクターであるが、同一値ではない。
-1*(GrayDataObj2[x,y]- Gray50)
≒-1*(GrayDataObj3[x,y]- Gray50)・・・(5)
As a result of this calculation, in order to adjust the color of the projected image so that the color of the source area is 50% gray, the following image data of the projected image is used as a complementary color for the source area. It turns out that it should be projected to .
−1*(GrayDataObj2[x,y]-Gray50) (4)
Normally, (2) and (4) are complementary color components to 50% gray light, and as shown below, they are factors with close values, but not the same values.
-1*(GrayDataObj2[x,y]-Gray50)
≈-1*(GrayDataObj3[x,y]-Gray50) (5)

投影画像生成部33は、以上の計算結果を用いて、移動先の領域への投影画像である画像データを生成する。すなわち、投影画像生成部33は、実際のテレビTとテレビ台Sの色の情報を有するRealDataObj1[x,y]の画像データから、移動元の領域における補色データ(4)を減算し、移動先の領域における補色データ(3)を加算して、投影画像の画像データを生成する。投影画像の画像データをMoveDataObj[x,y]とすると、MoveDataObj[x,y]は次の通りになる。
MoveDataObj[x,y]
=RealDataObj1[x,y]-(-1*(GrayDataObj2[x,y]- Gray50))+(-1*(GrayDataObj3[x,y]- Gray50))
=RealDataObj1[x,y]+GrayDataObj2[x,y]-GrayDataObj3[x,y]・・・(6)
The projection image generation unit 33 generates image data, which is a projection image onto the destination area, using the above calculation results. That is, the projection image generation unit 33 subtracts the complementary color data (4) in the movement source area from the image data of RealDataObj1[x, y] having the color information of the actual television T and the television stand S, By adding the complementary color data (3) in the area of , the image data of the projection image is generated. Assuming that the image data of the projection image is MoveDataObj[x, y], MoveDataObj[x, y] is as follows.
MoveDataObj[x,y]
=RealDataObj1[x,y]-(-1*(GrayDataObj2[x,y]-Gray50))+(-1*(GrayDataObj3[x,y]-Gray50))
=RealDataObj1[x,y]+GrayDataObj2[x,y]-GrayDataObj3[x,y] (6)

(5)に示した事項に基づくと、(6)で計算されるMoveDataObj[x,y]は、RealDataObj1[x,y]と近い値となるが、同一値ではない。MoveDataObj[x,y]は、移動先の物体(被写体)の色の影響を抑え、テレビT及びテレビ台Sの色がより反映された投影画像の画像データである。投影制御部34は、投影部12を制御して、このMoveDataObj[x,y]に係る投影画像を、移動先の領域である書棚B付近の領域に投影させる(ステップS23)。 Based on the matter shown in (5), MoveDataObj[x, y] calculated in (6) has a value close to RealDataObj1[x, y], but they are not the same value. MoveDataObj[x,y] is image data of a projected image in which the color of the object (subject) at the destination is suppressed and the color of the television T and the television stand S is more reflected. The projection control unit 34 controls the projection unit 12 to project the projection image related to this MoveDataObj[x, y] onto the area near the bookshelf B, which is the movement destination area (step S23).

投影画像の生成及び投影の方法として、ステップS22において、RealDataObj1[x,y](PIC1におけるテレビT、テレビ台Sの画像データ)を、領域T2、S2に対して、そのまま投影部12で投影することも考えられる。しかしながら、この方法では、投影された画像データの色が、部屋Rに元々あった書棚Bの色や、その付近の壁Wの色に影響を受けてしまうため、テレビT、テレビ台Sの本来の色が正しく再現されない可能性がある。そのため、本発明では、投影画像生成部33は、ステップS22の処理をすることで、移動先の書棚Bの色やその付近の壁Wの色をグレーに近づけるように補正する。 As a method of generating and projecting a projection image, in step S22, RealDataObj1[x, y] (image data of the television T and the television stand S in PIC1) is projected as it is by the projection unit 12 onto the regions T2 and S2. It is also possible. However, in this method, the color of the projected image data is affected by the color of the bookshelf B that originally existed in the room R and the color of the wall W nearby. color may not be reproduced correctly. Therefore, in the present invention, the projection image generation unit 33 corrects the color of the bookshelf B at the movement destination and the color of the wall W in the vicinity thereof so as to approach gray by performing the process of step S22.

特に、投影画像生成部33が(6)に示した投影画像の画像データを生成することにより、投影画像の色に対して、書棚Bの色やその付近の壁Wの色が与える影響を抑制しつつ、テレビT、テレビ台Sの本来の色がより反映されるようにしている。そのため、投影システム1は、投影画像の色をより正確に表現することが可能となる。 In particular, the projection image generation unit 33 generates the image data of the projection image shown in (6), thereby suppressing the influence of the color of the bookshelf B and the color of the wall W near it on the color of the projection image. At the same time, the original colors of the television T and the television stand S are more reflected. Therefore, the projection system 1 can more accurately express the colors of the projected image.

また、投影システム1の投影部12は、RealDataObj1[x,y]の撮影時に、100%の白色光(第1の光)をテレビT、テレビ台Sに照射する。一方で、投影部12は、GrayDataObj2[x,y]及びGrayDataObj3[x,y]の撮影時に、50%のグレー光(第2の光)を、テレビT、テレビ台S及び投影先の領域に照射する。つまり、投影システム1は、投影画像を照射する投影部12の光を用いて、投影画像を生成しているため、他の光源からの光で撮影がなされる場合と比較して、投影画像の色の精度を向上させることができる。 Further, the projection unit 12 of the projection system 1 irradiates the television T and the television stand S with 100% white light (first light) when capturing RealDataObj1[x,y]. On the other hand, when capturing GrayDataObj2[x, y] and GrayDataObj3[x, y], the projection unit 12 projects 50% gray light (second light) onto the areas of the television T, the television stand S, and the projection destination. Irradiate. In other words, since the projection system 1 generates the projection image using the light from the projection unit 12 that irradiates the projection image, the projection image is more difficult to reproduce than when photographing is performed using light from another light source. Color accuracy can be improved.

また、投影システム1は、RealDataObj1[x,y]の撮影時に用いられたホワイトバランスが設定された撮影時に使用された100%の白色光を、RealDataObj1[x,y]の撮影時に照射する。投影システム1は、ホワイトバランスが調整された光で、テレビT、テレビ台Sを含む部屋Rを撮影することにより、RealDataObj1[x,y]に、テレビT、テレビ台Sの色味を正確に反映させることができる。そのため、投影画像の色の精度をさらに向上させることができる。 Also, the projection system 1 irradiates the 100% white light that was used when capturing the RealDataObj1[x,y] with the white balance used when capturing the RealDataObj1[x,y] when capturing the RealDataObj1[x,y]. The projection system 1 captures the room R including the television T and the television stand S with light whose white balance has been adjusted, so that RealDataObj1[x, y] accurately captures the colors of the television T and the TV stand S. can be reflected. Therefore, it is possible to further improve the color accuracy of the projected image.

また、一般に、カメラ10と投影部12の分光感度は異なる。そのため、何も事前設定がない場合、カメラ10で設定されるホワイトバランスが、投影部12で設定される色温度と対応していない可能性がある。このため、上述の処理において、投影システム1は、第1のモードにおいて、投影部12が照射する100%の白色光を用いて、カメラのホワイトバランスを設定する。そのため、投影システム1は、カメラ10で設定されるホワイトバランスを、投影部12で設定される色温度と対応させることで、カメラ10で撮影された色を、より正確に投影部12で投影させることができる。 Also, in general, the spectral sensitivities of the camera 10 and the projection unit 12 are different. Therefore, if there is no presetting, the white balance set by the camera 10 may not correspond to the color temperature set by the projection unit 12 . Therefore, in the process described above, the projection system 1 uses 100% white light emitted by the projection unit 12 in the first mode to set the white balance of the camera. Therefore, the projection system 1 makes the white balance set by the camera 10 correspond to the color temperature set by the projection unit 12, so that the colors captured by the camera 10 are more accurately projected by the projection unit 12. be able to.

また、投影システム1は、GrayDataObj2[x,y]及びGrayDataObj3[x,y]の撮影時に、基準光として、グレー50%の光を照射する。グレー50%の光は、RGB3成分が50%ずつ含まれる無彩色であって、彩度を有しない。そのため、GrayDataObj2[x,y]及びGrayDataObj3[x,y]には、テレビT、テレビ台Sの色の特徴や、棚B、壁Wの色の特徴が反映されやすい。したがって、投影画像の色に対して、書棚Bの色やその付近の壁Wの色が与える影響を抑制し易く、かつ、テレビT、テレビ台Sの本来の色がより反映され易くなる。 Also, the projection system 1 emits 50% gray light as reference light when capturing GrayDataObj2[x, y] and GrayDataObj3[x, y]. A 50% gray light is an achromatic color containing 50% each of three RGB components and has no saturation. Therefore, GrayDataObj2[x, y] and GrayDataObj3[x, y] tend to reflect the color characteristics of the TV T and the TV stand S, and the color characteristics of the shelf B and the wall W. Therefore, it is easy to suppress the influence of the color of the bookshelf B and the color of the nearby wall W on the color of the projected image, and the original colors of the television T and the television stand S are more likely to be reflected.

<処理B>
次に、図5Cを用いて、処理Bについて説明する。上述の通り、ステップS14において、コンピュータPの表示部にPIC1が表示されているときに、ユーザは、入力部を用いて、テレビT、テレビ台Sを移動対象として指定する。この場合、投影システム1は、テレビT、テレビ台Sが実際に存在する領域に、専用の投影画像を投影することで、テレビT、テレビ台Sをユーザから見えにくく(目立ちにくく)する。これにより、投影システム1は、テレビT、テレビ台Sが仮想的に移動したことを表示する。専用の投影画像が、テレビT、テレビ台Sの周囲の色に基づいて生成されることで、ユーザにとって、違和感のない表示が可能となる。
<Process B>
Next, processing B will be described with reference to FIG. 5C. As described above, in step S14, when PIC1 is displayed on the display section of the computer P, the user uses the input section to designate the television T and the television stand S as objects to be moved. In this case, the projection system 1 projects a dedicated projection image onto the area where the television T and the television stand S actually exist, thereby making the television T and the television stand S less visible (inconspicuous) to the user. Thereby, the projection system 1 displays that the television T and the television stand S have virtually moved. By generating a dedicated projection image based on the surrounding colors of the television T and the television stand S, it is possible to provide a display that does not give the user a sense of discomfort.

まず、ユーザは、コンピュータPの表示部におけるPIC1の表示に基づいて、テレビT及びテレビ台S(移動物体)の領域の中心点を、コンピュータPの入力部を用いて指定する。例えば、ユーザは、マウスを操作して、ポインタで領域の中心点を指定することができる。コンピュータPは、指定された領域の中心点の情報を、投影システム1の投影画像生成部33に送信する。 First, the user uses the input section of the computer P to specify the center point of the area of the television T and the television stand S (moving object) based on the display of PIC1 on the display section of the computer P. FIG. For example, the user can operate the mouse to specify the center point of the area with the pointer. The computer P transmits the information of the central point of the designated area to the projected image generator 33 of the projection system 1 .

ただし、投影画像生成部33が、コンピュータPから出力されたRealDataObj1[x,y]の情報に基づいて、テレビT及びテレビ台Sの領域の中心点を指定しても良い。例えば、投影画像生成部33は、テレビTの領域の中心点(幾何中心又は重心)及びテレビ台Sの領域の中心点を求め、2つの中心点を結ぶ線を等分する点を、テレビT及びテレビ台Sの領域の中心点と設定しても良い。なお、ユーザが選択した物体が1個である場合には、投影画像生成部33は、その領域の幾何中心又は重心を、そのまま中心点と指定することができる。さらに、ユーザが選択した物体が3個以上である場合には、各領域において求めた中心点の重心を、選択された物体に係る領域の中心点として指定することができる。 However, the projection image generator 33 may specify the center point of the area of the television T and the television stand S based on the information of RealDataObj1[x, y] output from the computer P. FIG. For example, the projection image generation unit 33 obtains the center point (geometric center or center of gravity) of the area of the television T and the center point of the area of the television stand S, and divides the line connecting the two center points equally. and the center point of the area of the TV stand S may be set. Note that when the user selects one object, the projection image generation unit 33 can designate the geometric center or the center of gravity of the area as the center point. Furthermore, when the user selects three or more objects, the center of gravity of the center point obtained in each area can be specified as the center point of the area related to the selected object.

次に、投影画像生成部33は、テレビT及びテレビ台Sの領域の中心点の色を決定する(ステップS31)。この詳細について、図6Eを用いて説明する。 Next, the projected image generator 33 determines the color of the central point of the areas of the television T and the television stand S (step S31). Details of this will be described with reference to FIG. 6E.

図6Eは、図6Cにおける、テレビT及びテレビ台Sの領域が抜粋されて示されている。各物体の上下方向は、図6Eにおいてy軸方向及び-y軸方向で表され、左右方向は、図6Eにおいてx軸方向及び-x軸方向で表される。投影画像生成部33は、テレビT及びテレビ台Sの領域の中心点Cのピクセルから見て、y軸方向及び-y軸方向にあるピクセルと、x軸方向及び-x軸方向にあるピクセルのうち、テレビT及びテレビ台Sの境界線から1ピクセル外にあるピクセルを特定する。図6Eは、これらのピクセルを、それぞれ点Pu、点Pd、点Pr及び点Plで示している。つまり、これらの4点Pu~Plは、テレビT及びテレビ台Sの領域のすぐ外側に位置する領域である。投影画像生成部33は、これらの画素4点Pu~PlのRGBで表される各色を特定し、その4点の平均色ObjRoundAveを算出する。投影画像生成部33は、このObjRoundAveを、中心点Cの色(ピクセル色)と決定する。 FIG. 6E shows an excerpt of the areas of the television T and the television stand S in FIG. 6C. The vertical direction of each object is represented by the y-axis direction and the −y-axis direction in FIG. 6E, and the horizontal direction is represented by the x-axis direction and the −x-axis direction in FIG. 6E. The projection image generation unit 33 generates pixels in the y-axis direction and -y-axis direction and pixels in the x-axis direction and -x-axis direction when viewed from the pixel at the center point C of the area of the television T and the television stand S. Among them, the pixels that are one pixel outside the boundary line between the television T and the television stand S are specified. FIG. 6E shows these pixels as points Pu, Pd, Pr and Pl, respectively. In other words, these four points Pu to Pl are areas located just outside the areas of the television T and the television stand S. FIG. The projection image generation unit 33 specifies each color represented by RGB of these four pixel points Pu to Pl, and calculates the average color ObjRoundAve of the four points. The projection image generator 33 determines this ObjRoundAve as the color of the center point C (pixel color).

次に、投影画像生成部33は、テレビT及びテレビ台Sの領域において、中心点C以外のピクセルの色を決定する(ステップS32)。この詳細について、再び図6Eを用いて説明する。 Next, the projection image generator 33 determines the color of pixels other than the center point C in the areas of the television T and the television stand S (step S32). Details of this will be described again with reference to FIG. 6E.

図6Eの点Inは、テレビT及びテレビ台Sの領域内に位置するピクセルの一例である。投影画像生成部33は、点Inの色を算出する際に、まず、点Inと中心点Cを結んだ線Lを仮定し、線Lの延長線上であって、テレビT及びテレビ台Sの境界線から1ピクセル外にあるピクセルを、1個選択する。なお、線Lの延長線上であって、テレビT及びテレビ台Sの境界線から1ピクセル外にあるピクセルは、点Inに近い方のピクセル(点Pn)及び点Inから遠い方のピクセル(点Pf)の少なくとも2個存在する。図6Eの場合、投影画像生成部33は、線Lの延長線上において中心点Cから点Inに向かった方向に存在する境界線から1ピクセル外にあるピクセル(点Pn)を選択する。このようにピクセルを選択することは、投影画像として、テレビT及びテレビ台Sの背景に応じた自然な色を決定できるという点で、好ましい。 Point In in FIG. 6E is an example of a pixel located within the area of television T and television stand S. FIG. When calculating the color of the point In, the projected image generation unit 33 first assumes a line L connecting the point In and the center point C, and on the extension of the line L, the television T and the television stand S Select one pixel that is one pixel outside the border. Note that the pixels that are on the extension line of line L and are one pixel outside the boundary line between the television T and the television stand S are the pixels closer to the point In (point Pn) and the pixels farther from the point In (point Pf) are present. In the case of FIG. 6E, the projection image generation unit 33 selects a pixel (point Pn) that is one pixel outside the boundary line that exists on the extension line of the line L in the direction from the center point C toward the point In. Selecting pixels in this way is preferable in that natural colors can be determined according to the background of the television T and the television stand S as the projected image.

投影画像生成部33は、以上に示した処理で、線Lの延長線上であって、テレビT及びテレビ台Sの境界線から1ピクセル外にあるピクセルとして点Pnを選択する。そして、投影画像生成部33は、中心点C及び点Pnのそれぞれの色と、中心点Cから点Inまでの距離及び点Inから点Pnまでの距離に基づいて、点Inの色を算出する。例えば、点Pnの色がColorPnとして表され、中心点Cから点Inまでの距離と、点Inから点Pnまでの距離の比がX:Yである場合、点Inの色をColorInとすると、投影画像生成部33は、ColorInを次のように求めることができる。
ColorIn=(ObjRoundAve*Y+ColorPn*X)/(X+Y)・・・(7)
ColorInは、RGBの各値によって表示される色である。以上に示した線形補間の方法は一例であり、投影画像生成部33は、他の方法に基づいてColorInを算出しても良い。
The projection image generation unit 33 selects a point Pn as a pixel located on the extension of the line L and outside the boundary line between the television T and the television stand S by one pixel in the process described above. Then, the projection image generation unit 33 calculates the color of the point In based on the colors of the center point C and the point Pn, the distance from the center point C to the point In, and the distance from the point In to the point Pn. . For example, if the color of point Pn is expressed as ColorPn, and the ratio of the distance from center point C to point In to the distance from point In to point Pn is X:Y, let the color of point In be ColorIn: The projection image generator 33 can obtain ColorIn as follows.
ColorIn=(ObjRoundAve*Y+ColorPn*X)/(X+Y) (7)
ColorIn is the color displayed by each value of RGB. The linear interpolation method described above is an example, and the projection image generation unit 33 may calculate ColorIn based on another method.

投影画像生成部33は、ColorInを算出した方法と同じ方法を、テレビT及びテレビ台Sの領域内にある、中心点C以外の全てのピクセルに適用して、各ピクセルの色を算出する。算出された各ピクセルの色のデータ(二次元配列のRGBデータ)を、以下、ObjRoundPaint[x,y](第1の画像データ)と記載する。このObjRoundPaint[x,y]は、テレビT及びテレビ台Sの領域の色を、その領域周辺の色に近づけるための色データ(仮想画像データ)である。 The projection image generation unit 33 applies the same method as that for calculating ColorIn to all pixels other than the center point C within the areas of the television T and the television stand S to calculate the color of each pixel. The calculated color data of each pixel (RGB data in two-dimensional array) is hereinafter referred to as ObjRoundPaint[x,y] (first image data). This ObjRoundPaint[x, y] is color data (virtual image data) for bringing the color of the area of the television T and the television stand S closer to the color of the surrounding area.

次に、投影画像生成部33は、ステップS14で選択した、移動対象となるテレビT及びテレビ台Sを50%のグレー光で撮影して得られるGrayDataObj2[x,y](画像データ2)を用いて、テレビT及びテレビ台Sへの投影画像データを生成する(ステップS33)。この詳細は次の通りである。 Next, the projection image generation unit 33 generates GrayDataObj2[x,y] (image data 2) obtained by photographing the television T and the television stand S to be moved, selected in step S14, with 50% gray light. are used to generate projection image data for the television T and the television stand S (step S33). The details are as follows.

まず、投影画像生成部33は、ObjRoundPaint[x,y]から、50%のグレー色光のデータを減算し、ObjRoundPaint[x,y]の基準色からの差分となる色であるObjRoundPaintDiff[x,y]を次のように求める。
ObjRoundPaintDiff[x,y]=ObjRoundPaint[x,y]-Gray50・・・(8)
First, the projected image generation unit 33 subtracts 50% of the gray color light data from ObjRoundPaint[x,y], and obtains ObjRoundPaintDiff[x,y], which is the color that is the difference from the reference color of ObjRoundPaint[x,y]. ] is obtained as follows.
ObjRoundPaintDiff[x,y]=ObjRoundPaint[x,y]-Gray50 (8)

また、投影画像生成部33は、GrayDataObj2[x,y]から、50%のグレー色光のデータを減算し、ObjRoundPaint[x,y]の基準色からの差分となる色であるGrayDataObj2Diff[x,y]を次のように求める。
GrayDataObj2Diff[x,y]=GrayDataObj2[x,y]- Gray50・・・(9)
Further, the projection image generation unit 33 subtracts 50% of the gray light data from GrayDataObj2[x,y], and obtains GrayDataObj2Diff[x,y], which is the color that is the difference from the reference color of ObjRoundPaint[x,y]. ] is obtained as follows.
GrayDataObj2Diff[x,y]=GrayDataObj2[x,y]-Gray50 (9)

このGrayDataObj2Diff[x,y]に(-1)を乗算すると、テレビT及びテレビ台Sの領域の色を50%のグレー色となるための補正値が得られる。投影画像生成部33は、以下の通り、ObjRoundPaintDiff[x,y]にこの補正値を加算したObjRoundPaintCari[x,y]を算出する。
ObjRoundPaintCari[x,y]
=ObjRoundPaint[x,y]-Gray50-(GrayDataObj2[x,y]-Gray50)
=ObjRoundPaint[x,y]-GrayDataObj2[x,y]・・・(10)
By multiplying this GrayDataObj2Diff[x, y] by (-1), a correction value for changing the color of the area of the television T and the television stand S to 50% gray is obtained. The projection image generation unit 33 calculates ObjRoundPaintCari[x, y] by adding this correction value to ObjRoundPaintDiff[x, y] as follows.
ObjRoundPaintCar[x, y]
=ObjRoundPaint[x,y]-Gray50-(GrayDataObj2[x,y]-Gray50)
=ObjRoundPaint[x,y]-GrayDataObj2[x,y] (10)

ObjRoundPaintCari[x,y]は、元々存在する物体(被写体)の色の影響を抑えるための投影画像の画像データである。投影制御部34は、投影部12を制御して、このObjRoundPaintCari[x,y]に係る投影画像を、テレビT及びテレビ台Sの領域に投影させる(ステップS34)。 ObjRoundPaintCari[x, y] is image data of a projection image for suppressing the influence of the color of an originally existing object (subject). The projection control unit 34 controls the projection unit 12 to project the projection image related to this ObjRoundPaintCari[x, y] onto the areas of the television T and the television stand S (step S34).

なお、投影システム1は、ステップS23の投影処理と、ステップS35の投影処理を同時に行うことにより、部屋Rにおいて、テレビT及びテレビ台Sが書棚Bの周辺に移動した仮想的な状態を、ユーザに視認させることができる。 Note that the projection system 1 performs the projection processing in step S23 and the projection processing in step S35 at the same time, so that a virtual state in which the television T and the television stand S have moved to the vicinity of the bookshelf B in the room R can be displayed by the user. can be visually recognized.

投影画像の投影及び生成方法として、ステップS32で算出したObjRoundPaint[x,y]を、領域T、Sに対して、そのまま投影部12で投影することも考えられる。しかしながら、この方法では、テレビT及びテレビ台Sの領域の色を、その領域周辺の色に近づけることはできるものの、テレビT及びテレビ台Sの元々の色が領域の色として現れてしまう。そのため、テレビT及びテレビ台Sの領域の色を、その領域周辺の色に同化させる効果に限界がある。 As a method of projecting and generating a projection image, it is conceivable that ObjRoundPaint[x, y] calculated in step S32 is projected onto the regions T and S as it is by the projection unit 12 . However, in this method, although the color of the area of the television T and the television stand S can be approximated to the color of the surrounding area, the original color of the television T and the television stand S appears as the color of the area. Therefore, there is a limit to the effect of assimilating the color of the area of the television T and the television stand S with the color of the surrounding area.

したがって、本発明において、投影画像生成部33は、100%の白色光(第1の光)が照射された状態で撮影されたPIC1に基づいて、テレビT及びテレビ台S(投影領域)にテレビT及びテレビ台Sが存在しない状態を仮定した場合のObjRoundPaint[x,y](第1の画像データ)を生成する。そして、50%のグレー光が照射された状態で撮影されたテレビT及びテレビ台Sの画像データであるGrayDataObj2[x,y](第2の画像データ)の各ピクセル色を、ObjRoundPaint[x,y]の各ピクセル色からそれぞれ減算した画像データObjRoundPaintCari[x,y]を算出する。投影システム1は、このObjRoundPaintCari[x,y]をテレビT及びテレビ台Sの領域に投影することで、テレビT及びテレビ台Sの領域の色を、その領域周辺の色により同化させる。これにより、テレビT及びテレビ台Sが仮想的に移動したことを、より自然に表現することができる。 Therefore, in the present invention, the projection image generation unit 33 projects the television T and the television stand S (projection area) based on the PIC1 photographed with 100% white light (first light). ObjRoundPaint[x, y] (first image data) is generated assuming that T and TV stand S do not exist. Then, each pixel color of GrayDataObj2[x, y] (second image data), which is the image data of the television T and the television stand S photographed with 50% gray light, is converted to ObjRoundPaint[x, Image data ObjRoundPaintCari[x, y] is calculated by subtracting each pixel color from [x, y]. The projection system 1 projects this ObjRoundPaintCari[x, y] onto the area of the television T and the television stand S, so that the color of the area of the television T and the television stand S is assimilated with the colors around the area. Thereby, it is possible to more naturally express that the television T and the television stand S have virtually moved.

また、投影画像生成部33は、テレビT及びテレビ台Sが存在する投影領域及びその周辺領域に対して100%の白色光が照射された状態で撮影されたPIC1に基づいて、PIC1の投影領域にテレビT及びテレビ台Sが存在しない状態を仮定した場合の投影領域の中心点Cの色(ピクセル色)を決定する。そして、中心点Cの色と、PIC1におけるテレビT及びテレビ台Sの周辺領域のピクセル色に基づいて、投影領域にテレビT及びテレビ台Sが存在しない状態を仮定した場合の、投影領域の中心点C以外のピクセル色を決定する。これにより、投影システム1は、テレビT及びテレビ台Sの領域の色を、その周辺の色を用いて、自然に表現することができる。 In addition, the projection image generation unit 33 calculates the projection area of PIC1 based on PIC1 photographed in a state where the projection area where the television T and the television stand S are present and the surrounding area thereof is illuminated with 100% white light. Determine the color (pixel color) of the center point C of the projection area assuming that the television T and the television stand S do not exist in . Then, based on the color of the center point C and the pixel color of the surrounding area of the television T and the television stand S in PIC1, the center of the projection area assuming that the television T and the television stand S do not exist in the projection area Determine pixel colors other than point C. Thereby, the projection system 1 can naturally express the color of the area of the television T and the television stand S using the surrounding colors.

以上のようにして、図5A~5Cに示した処理をすることで、部屋の模様替えをする際に、ユーザは、実際に家具を動かす前に、投影システム1で家具の画像を投影することによってシミュレーションをすることができる。特に、本発明では、投影画像の色を補正することにより、元々あった物体に対して、異なる形状の物体の投影画像を投影する場合であっても、ユーザの違和感を軽減させることができる。 By performing the processing shown in FIGS. 5A to 5C as described above, when rearranging a room, the user can project an image of the furniture using the projection system 1 before actually moving the furniture. can be simulated. In particular, according to the present invention, by correcting the color of the projected image, it is possible to reduce the discomfort felt by the user even when projecting a projected image of an object having a different shape from the original object.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、投影システム1は、第1のモード及び第2のモードにおいて、100%の白色光ではない光を、照射に用いても良い。例えば、投影システム1が、HDR(High Dynamic Range)の信号規格HLG(Hybrid Log Gamma)を照射光の基準として扱う場合、75%の白色光を、第1のモード及び第2のモードにおいて照射に用いても良い。この75%の白色光は、上述の100%の白色光と同じ色である。この場合、信号レベルのヘッドルームに余裕が生ずることになり、上述の(6)、(10)において計算された信号レベルの上限のクリップが緩和される。実施の形態1では、計算結果が100%を超えてしまい、実際に投影部12で照射される光が100%の信号レベルとなってしまう(クリップが発生、すなわち、計算結果が十分に反映できない)場合でも、投影システム1は、計算結果をそのまま反映した投影画像を照射することができる。 It should be noted that the present invention is not limited to the above embodiments, and can be modified as appropriate without departing from the scope of the invention. For example, the projection system 1 may use light that is not 100% white light for illumination in the first and second modes. For example, when the projection system 1 treats the HDR (High Dynamic Range) signal standard HLG (Hybrid Log Gamma) as a reference for the illumination light, 75% white light is used for illumination in the first mode and the second mode. You can use it. This 75% white light is the same color as the 100% white light described above. In this case, the headroom of the signal level is increased, and the clipping of the upper limit of the signal level calculated in (6) and (10) above is alleviated. In the first embodiment, the calculation result exceeds 100%, and the signal level of the light actually irradiated by the projection unit 12 becomes 100% (clip occurs, that is, the calculation result cannot be fully reflected). ), the projection system 1 can emit a projection image that directly reflects the calculation result.

また、投影システム1は、第3のモードにおいて、50%のグレー光ではない光を、照射に用いても良い。例えば、投影システム1は、グレー光に含まれるRGBのそれぞれの成分を、所定の範囲内(例えば30%~70%)から選択可能なようにしても良い。投影システム1が、あるRGBの成分(%)を有するグレー光で部屋Rを撮影し、そのグレー光で(6)、(10)の計算結果を算出して得た投影画像を表示した場合に、ユーザが投影画像の質に満足しない場合も考えられる。部屋R内の家具の色によって、このような場合が生ずることがあり得る。このような場合に、グレー光を変更してPIC2を再度撮影し直し、投影システム1に対して、(6)、(10)の計算結果を再度算出させて投影画像を投影させることが可能となる。 The projection system 1 may also use non-50% gray light for illumination in the third mode. For example, the projection system 1 may select each component of RGB included in the gray light within a predetermined range (eg, 30% to 70%). When the projection system 1 shoots the room R with gray light having certain RGB components (%) and displays the projection image obtained by calculating the calculation results of (6) and (10) with the gray light. , the user may not be satisfied with the quality of the projected image. Such a case may occur depending on the color of the furniture in the room R. In such a case, it is possible to change the gray light, re-capture the PIC 2, and cause the projection system 1 to calculate the calculation results of (6) and (10) again and project a projection image. Become.

投影制御部34は、投影部12を制御して、処理A、Bで生成された投影画像以外の投影画像を、テレビT、テレビ台Sの領域及びそれらの物体の移動先の領域以外の領域に投影させても良い。 The projection control unit 34 controls the projection unit 12 to project projected images other than the projected images generated in the processes A and B to areas other than the area of the television T, the television stand S, and the movement destination areas of these objects. can be projected onto

投影システム1におけるTOFセンサ11は、赤外光ではなく、電波、超音波等を用いて、物体の距離を測定してもよい。また、投影システム1は、TOFでなく、三角測距方式等、他の機構を用いて物体の距離を測定してもよい。 The TOF sensor 11 in the projection system 1 may measure the distance to an object using radio waves, ultrasonic waves, etc. instead of infrared light. Also, the projection system 1 may measure the distance to the object using other mechanisms such as triangulation instead of TOF.

コンピュータPではなく、投影システム1において、ユーザが動かしたい物体を選択する処理が可能であってもよい。この場合、投影システム1は、ディスプレイ等の表示部や、ボタン、タッチパネル等の入力部を備える。ユーザが表示部で撮影された画像を確認し、入力部を入力することで、例えばテレビT、テレビ台Sを特定することができる。 Instead of the computer P, the projection system 1 may be capable of processing for selecting an object that the user wants to move. In this case, the projection system 1 includes a display unit such as a display and an input unit such as buttons and a touch panel. For example, the television T and the television stand S can be specified by the user confirming the captured image on the display section and inputting the input section.

実施の形態1では、テレビT、テレビ台Sといった部屋の家具の仮想的な移動を例示して説明したが、適用可能なプロジェクションマッピングの例はこれに限られないことは言うまでもない。 In Embodiment 1, the virtual movement of room furniture such as the television T and the television stand S has been exemplified and explained, but it is needless to say that the applicable example of projection mapping is not limited to this.

以上に説明したように、上述の実施形態における投影装置が有する1又は複数のプロセッサは、図面を用いて説明されたアルゴリズムをコンピュータに行わせるための命令群を含む1又は複数のプログラムを実行する。この処理により、実施の形態に記載された処理が実現できる。 As described above, the one or more processors included in the projection apparatus of the above-described embodiments execute one or more programs containing instructions for causing a computer to execute the algorithms described with reference to the drawings. . By this processing, the processing described in the embodiment can be realized.

プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばハードディスクドライブ)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM、EPROM、フラッシュROM、RAM)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 The program can be stored and delivered to the computer using various types of non-transitory computer readable media. Non-transitory computer-readable media include various types of tangible storage media. Examples of non-transitory computer readable media include magnetic recording media (e.g. hard disk drives), CD-ROMs (Read Only Memory), CD-Rs, CD-R/Ws, semiconductor memories (e.g. mask ROMs, PROMs, EPROMs). , flash ROM, RAM). The program may also be delivered to the computer on various types of transitory computer readable medium. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. Transitory computer-readable media can deliver the program to the computer via wired channels, such as wires and optical fibers, or wireless channels.

以上、実施の形態を参照して本発明を説明したが、本発明は上記によって限定されるものではない。本発明の構成は、当業者が想定しうる実質的に同一の構成が含まれ、理解し得る様々な変更をすることができる。 Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above. The configuration of the present invention includes substantially the same configuration that can be assumed by those skilled in the art, and various changes that can be understood can be made.

1 投影システム
10 カメラ
11 TOFセンサ
12 投影部
13 装置本体
20 メモリ
21 I/O部
30 情報処理部
31 撮影制御部
32 距離特定部
33 投影画像生成部
34 投影制御部
1 Projection System 10 Camera 11 TOF Sensor 12 Projection Unit 13 Apparatus Main Body 20 Memory 21 I/O Unit 30 Information Processing Unit 31 Shooting Control Unit 32 Distance Identification Unit 33 Projection Image Generation Unit 34 Projection Control Unit

Claims (5)

物体が存在する投影領域及びその周辺領域に対して第1の光が照射された状態で撮影された前記投影領域及び前記周辺領域の画像データに基づいて、前記画像データにおいて前記投影領域に前記物体が存在しない状態を仮定した場合の前記投影領域の中心のピクセル色を決定し、前記中心のピクセル色と前記周辺領域のピクセル色とに基づいて、前記投影領域に前記物体が存在しない状態を仮定した場合の前記投影領域の前記中心のピクセル以外のピクセル色を決定することにより、前記投影領域に前記物体が存在しない状態を仮定した場合の前記投影領域の画像データである仮想画像データを生成し、前記仮想画像データに基づいて前記投影領域に投影する投影画像の画像データを生成する投影画像生成部と、
前記投影画像を前記投影領域に対して投影する投影部と、
を備える投影装置。
Based on the image data of the projection area in which the object exists and the surrounding area photographed in a state where the first light is applied to the projection area and the surrounding area, the object is projected onto the projection area in the image data. determining a pixel color at the center of the projection area assuming that no object exists in the projection area, and assuming that the object does not exist in the projection area based on the center pixel color and the pixel color of the peripheral area. Virtual image data, which is image data of the projection area assuming that the object does not exist in the projection area, is generated by determining the color of pixels other than the center pixel of the projection area in the case of a projection image generation unit that generates image data of a projection image projected onto the projection area based on the virtual image data;
a projection unit that projects the projection image onto the projection area;
A projection device comprising:
前記投影画像生成部は、前記仮想画像データの各ピクセル色から、第2の光が照射された状態で撮影された前記投影領域の画像データである第2の画像データの各ピクセル色をそれぞれ減算することにより、前記投影画像の画像データを生成する、
請求項1に記載の投影装置。
The projection image generation unit subtracts each pixel color of second image data, which is image data of the projection area photographed under irradiation with the second light, from each pixel color of the virtual image data. generating image data for the projection image by
A projection device according to claim 1 .
物体が存在する投影領域及びその周辺領域に対して第1の光が照射された状態で撮影された前記投影領域及び前記周辺領域の画像データに基づいて、前記投影領域に前記物体が存在しない状態を仮定した前記投影領域の画像データである第1の画像データを生成し、前記第1の画像データから、第2の光が照射された状態で撮影された前記投影領域における前記物体の画像データである第2の画像データを減算した画像データを、投影画像の画像データとして生成する投影画像生成部と、
前記投影画像を前記投影領域に対して投影する投影部と、
を備える投影装置。
A state in which the object does not exist in the projection area based on image data of the projection area in which the object exists and the surrounding area and the image data of the projection area and the surrounding area photographed in a state in which the first light is applied to the projection area and the surrounding area. generating first image data, which is image data of the projection area assuming the above, and from the first image data, image data of the object in the projection area photographed under irradiation with the second light a projection image generation unit that generates image data obtained by subtracting the second image data as image data of a projection image;
a projection unit that projects the projection image onto the projection area;
A projection device comprising:
物体が存在する投影領域及びその周辺領域に対して第1の光が照射された状態で撮影された前記投影領域及び前記周辺領域の画像データに基づいて、前記画像データにおいて前記投影領域に前記物体が存在しない状態を仮定した場合の前記投影領域の中心のピクセル色を決定し、
前記中心のピクセル色と前記周辺領域のピクセル色とに基づいて、前記投影領域に前記物体が存在しない状態を仮定した場合の前記投影領域の前記中心のピクセル以外のピクセル色を決定することにより、前記投影領域に前記物体が存在しない状態を仮定した場合の前記投影領域の画像データである仮想画像データを生成し、
前記仮想画像データに基づいて前記投影領域に投影する投影画像の画像データを生成し、
前記投影画像を前記投影領域に対して投影する、
投影装置が実行する投影方法。
Based on the image data of the projection area in which the object exists and the surrounding area photographed in a state where the first light is applied to the projection area and the surrounding area, the object is projected onto the projection area in the image data. determine the pixel color at the center of the projection area assuming the absence of
Determining a pixel color other than the central pixel in the projection area assuming that the object does not exist in the projection area, based on the central pixel color and the peripheral area pixel color; generating virtual image data that is image data of the projection area assuming that the object does not exist in the projection area;
generating image data of a projection image to be projected onto the projection area based on the virtual image data;
projecting the projection image onto the projection area;
A projection method performed by a projection device.
物体が存在する投影領域及びその周辺領域に対して第1の光が照射された状態で撮影された前記投影領域及び前記周辺領域の画像データに基づいて、前記投影領域に前記物体が存在しない状態を仮定した前記投影領域の画像データである第1の画像データを生成し、
前記第1の画像データから、第2の光が照射された状態で撮影された前記投影領域における前記物体の画像データである第2の画像データを減算した画像データを、投影画像の画像データとして生成し、
前記投影画像を前記投影領域に対して投影する、
投影装置が実行する投影方法。
A state in which the object does not exist in the projection area based on image data of the projection area in which the object exists and the surrounding area and the image data of the projection area and the surrounding area photographed in a state in which the first light is applied to the projection area and the surrounding area. generating first image data that is image data of the projection area assuming
Image data obtained by subtracting, from the first image data, second image data, which is image data of the object in the projection area photographed under irradiation with the second light, is used as image data of the projected image. generate and
projecting the projection image onto the projection area;
A projection method performed by a projection device.
JP2021017602A 2021-02-05 2021-02-05 Projection apparatus and projection method Pending JP2022120607A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021017602A JP2022120607A (en) 2021-02-05 2021-02-05 Projection apparatus and projection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021017602A JP2022120607A (en) 2021-02-05 2021-02-05 Projection apparatus and projection method

Publications (1)

Publication Number Publication Date
JP2022120607A true JP2022120607A (en) 2022-08-18

Family

ID=82849144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021017602A Pending JP2022120607A (en) 2021-02-05 2021-02-05 Projection apparatus and projection method

Country Status (1)

Country Link
JP (1) JP2022120607A (en)

Similar Documents

Publication Publication Date Title
US11729518B2 (en) Systems and methods for digital photography
US9406147B2 (en) Color balance in digital photography
US10694111B2 (en) Image processing apparatus, image capture apparatus, and control method for adding an effect of a virtual light source to a subject
JP6445844B2 (en) Imaging device and method performed in imaging device
JP5108093B2 (en) Imaging apparatus and imaging method
JP6798491B2 (en) Information processing equipment and methods, and programs
JP2017059235A (en) Apparatus and method for adjusting brightness of image
JP2007228201A (en) Imaging apparatus and method of controlling same
JP6381404B2 (en) Image processing apparatus and method, and imaging apparatus
JP6412386B2 (en) Image processing apparatus, control method therefor, program, and recording medium
US20160227182A1 (en) Image processing apparatus, image processing method and program
JP6917796B2 (en) Image processing equipment, imaging equipment, image processing methods, and programs
JP2022120607A (en) Projection apparatus and projection method
JP2022120606A (en) Projection apparatus and projection method
JP2019120884A (en) Projected image controller, projected image control system, and method for controlling projected image
US20180292867A1 (en) Method for recording an image using a mobile device
JP2017138927A (en) Image processing device, imaging apparatus, control method and program thereof
JP2019129469A (en) Image processing device
US20240107177A1 (en) Techniques for Correcting Images in Flash Photography
JP7011694B2 (en) Image processing equipment and its control method, program
JP6995554B2 (en) Imaging device and imaging method
JP2020024581A (en) Image processing apparatus, image processing method, and program
JP2024030668A (en) Lighting and photography systems