JP6460510B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6460510B2
JP6460510B2 JP2012178516A JP2012178516A JP6460510B2 JP 6460510 B2 JP6460510 B2 JP 6460510B2 JP 2012178516 A JP2012178516 A JP 2012178516A JP 2012178516 A JP2012178516 A JP 2012178516A JP 6460510 B2 JP6460510 B2 JP 6460510B2
Authority
JP
Japan
Prior art keywords
image
projection
subject
unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012178516A
Other languages
Japanese (ja)
Other versions
JP2014035756A (en
Inventor
孝一 斉藤
孝一 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012178516A priority Critical patent/JP6460510B2/en
Publication of JP2014035756A publication Critical patent/JP2014035756A/en
Application granted granted Critical
Publication of JP6460510B2 publication Critical patent/JP6460510B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Projection Apparatus (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来から、壁やスクリーン等の投影対象に向けて投影画像を投影するいわゆるプロジェクタの機能が搭載されたデジタルカメラが知られている(例えば、特許文献1参照)。このような機能が搭載されたデジタルカメラは、投影画像を投影対象に対し投影すると同時に、当該投影画像が投影されている投影対象を背景として、デジタルカメラと投影対象との間に存在する人物等を被写体として動画像や静止画像を撮像することができる。   2. Description of the Related Art Conventionally, there is known a digital camera equipped with a so-called projector function that projects a projection image toward a projection target such as a wall or a screen (for example, see Patent Document 1). A digital camera equipped with such a function projects a projection image onto a projection target, and at the same time, a person or the like existing between the digital camera and the projection target with the projection target on which the projection image is projected as a background. A moving image or a still image can be captured using the subject as a subject.

特開2011−10098号公報JP 2011-10098 A

しかしながら、特許文献1を含め従来のデジタルカメラがこのような撮像を行うと、被写体に対して投影画像の少なくとも一部が重畳して投影される。したがって、被写体の形状如何によっては、投影画像が歪んでしまう等、所望の状態で投影画像を投影できないため、投影画像の鮮明さが損なわれてしまう。   However, when conventional digital cameras including Patent Document 1 perform such imaging, at least a part of the projected image is projected onto the subject in a superimposed manner. Therefore, depending on the shape of the subject, the projected image cannot be projected in a desired state, for example, the projected image is distorted, so that the clarity of the projected image is impaired.

本発明は、このような状況に鑑みてなされたものであり、投影対象の手前に位置する被写体の存在に関わらず所望の投影画像を投影することを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to project a desired projection image regardless of the presence of a subject located in front of a projection target.

上記目的を達成するため、本発明の一態様の画像処理装置は、
入力される画像信号に応じた投影画像を投影手段により投影対象に向けて投影させる制御を実行する投影制御手段と、
撮像手段により撮像された撮像画像であって、前記投影手段により投影画像が投影されている前記投影対象と、前記投影手段からみて前記投影対象より手前に位置する被写体とが含まれる撮像画像から、前記被写体領域を検出する被写体検出手段と、
被写体の顔を判別するための画像を記憶する記憶手段と、
前記被写体検出手段により検出された被写体の顔領域に含まれるデータと、前記記憶手段に記憶されている画像に含まれるデータと、が略一致するか否かを判別する判別手段と、
前記判別手段により略一致すると判別された場合にのみ、前記検出された被写体領域に対して所定の画像処理を、前記投影手段により投影される投影画像を対象に行う投影画像処理手段と、
を備えることを特徴とする。
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention includes:
Projection control means for executing control for projecting a projection image according to an input image signal onto a projection target by the projection means;
From the captured image captured by the imaging unit, including the projection target on which the projection image is projected by the projection unit, and a subject positioned in front of the projection target as viewed from the projection unit, a subject detecting means for detecting a face area of the subject,
Storage means for storing an image for determining the face of the subject;
A discriminating unit for discriminating whether or not the data included in the face area of the subject detected by the subject detecting unit and the data included in the image stored in the storage unit substantially match ;
Only when it is determined that substantially coincides with the discriminating means, the projection image before dangerous out the image processing of the Jo Tokoro with respect face area of the object, performs the subject projected image projected by the projection means Processing means;
It is characterized by providing.

本発明によれば、投影対象の手前に位置する被写体の存在に関わらず所望の投影画像を投影することができる。   According to the present invention, a desired projection image can be projected regardless of the presence of a subject positioned in front of the projection target.

本発明の実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the image processing apparatus which concerns on embodiment of this invention. 投影対象の一例であるスクリーンの手前に被写体が存在する状態で、図1の画像処理装置が投影画像をスクリーンに投影した状態を示す図である。It is a figure which shows the state which the image processing apparatus of FIG. 1 projected the projection image on the screen in the state where the to-be-photographed object exists in front of the screen which is an example of a projection object. 図1の画像処理装置が実行する透明化の画像処理の概要について説明する図である。It is a figure explaining the outline | summary of the image processing of transparency which the image processing apparatus of FIG. 1 performs. 図2と対比する図であって、投影対象の一例であるスクリーンの手前に被写体が存在する状態で、画像処理装置が、顔領域が透明化された投影画像をスクリーンに投影した状態を示す図である。FIG. 3 is a diagram for comparison with FIG. 2, and shows a state in which the image processing apparatus projects a projection image with a transparent face area onto the screen in a state where a subject is present in front of the screen, which is an example of a projection target. It is. 図1の画像処理装置の機能的構成のうち、このような投影制御処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing such a projection control process among the functional structures of the image processing apparatus of FIG. 記憶部に記憶されている判別画像テーブルの表示例を示している。The example of a display of the discrimination | determination image table memorize | stored in the memory | storage part is shown. 図5の機能的構成を有する図の画像処理装置が実行する投影制御処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the projection control process which the image processing apparatus of a figure which has a functional structure of FIG. 5 performs.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。
画像処理装置1は、例えばデジタルカメラとして構成される。
FIG. 1 is a block diagram showing a hardware configuration of an image processing apparatus according to an embodiment of the present invention.
The image processing apparatus 1 is configured as a digital camera, for example.

画像処理装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、出力部16と、入力部17と、撮像部18と、投影部19と、記憶部20と、通信部21と、ドライブ22と、を備えている。   The image processing apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, an output unit 16, and an input unit. 17, an imaging unit 18, a projection unit 19, a storage unit 20, a communication unit 21, and a drive 22.

CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 20 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、出力部16、入力部17、撮像部18、投影部19、記憶部20、通信部21及びドライブ22が接続されている。   The CPU 11, ROM 12, and RAM 13 are connected to each other via a bus 14. An input / output interface 15 is also connected to the bus 14. An output unit 16, an input unit 17, an imaging unit 18, a projection unit 19, a storage unit 20, a communication unit 21, and a drive 22 are connected to the input / output interface 15.

出力部16は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
入力部17は、電源ボタン、シャッタボタン等各種ボタン等で構成され、ユーザの指示操作に応じて各種情報を入力する。なお、ここでいう各種ボタン等には、ハードウェアボタンのみならず、出力部16の画面に表示されるソフトウェアボタンも含まれる。即ち、入力部17は、出力部16のディスプレイに積層されるタッチパネルも含むように構成されている。
The output unit 16 includes a display, a speaker, and the like, and outputs images and sounds.
The input unit 17 includes various buttons such as a power button and a shutter button, and inputs various types of information according to user instruction operations. The various buttons here include not only hardware buttons but also software buttons displayed on the screen of the output unit 16. In other words, the input unit 17 is configured to include a touch panel stacked on the display of the output unit 16.

撮像部18は、被写体を撮像し、当該被写体の像を含む画像(以下、「撮像画像」と称する)のデジタル信号(画像信号)をCPU11に供給する。ここで、撮像画像のデジタル信号(画像信号)を、「撮像画像のデータ」と適宜呼ぶ。   The imaging unit 18 images a subject and supplies a digital signal (image signal) of an image including the image of the subject (hereinafter referred to as “captured image”) to the CPU 11. Here, the digital signal (image signal) of the captured image is appropriately referred to as “captured image data”.

投影部19は、各種画像のデータを投影画像のデータと取得して、当該投影画像を壁やスクリーン等の投影対象に投影する。
投影画像のデータは、特に限定されず、撮像部18により撮像されているリアルタイムの撮像画像のデータであってもよいし、記憶部20に記憶された画像のデータ(過去に撮像済みの撮像画像のデータや、他装置から送信されて通信部21に受信された画像のデータ等)であってもよい。
本実施形態では、投影部19は、DMD(Digital Micromirror Device)素子を用いた公知のDLP(登録商標)方式で構成されたいわゆるプロジェクタにより構成される。
The projection unit 19 acquires various image data as projection image data, and projects the projection image onto a projection target such as a wall or a screen.
The data of the projection image is not particularly limited, and may be data of a real-time captured image captured by the imaging unit 18, or image data stored in the storage unit 20 (captured image captured in the past). Or image data transmitted from another device and received by the communication unit 21).
In the present embodiment, the projection unit 19 is configured by a so-called projector configured by a known DLP (registered trademark) system using a DMD (Digital Micromirror Device) element.

記憶部20は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、撮像画像等の各種画像のデータを記憶する。
記憶部20はまた、複数の被写体を判別するための判別画像テーブルを記憶している。判別画像テーブルの詳細については、後述の図3を参照して説明する。
The storage unit 20 is configured by a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores data of various images such as captured images.
The storage unit 20 also stores a discrimination image table for discriminating a plurality of subjects. Details of the discrimination image table will be described with reference to FIG.

通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。   The communication unit 21 controls communication with other devices (not shown) via a network including the Internet.

ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ22によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。   A removable medium 31 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 22. The program read from the removable medium 31 by the drive 22 is installed in the storage unit 20 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 20 in the same manner as the storage unit 20.

図2は、投影対象の一例であるスクリーン110の手前、即ち、スクリーン110と画像処理装置1との間に被写体120が存在する状態で、画像処理装置1が投影画像130をスクリーン110に投影した状態を示す図である。以下、説明の便宜上、スクリーン110から見て、画像処理装置1側を「手前」と呼ぶ。   FIG. 2 shows the projection image 130 projected onto the screen 110 in front of the screen 110, which is an example of a projection target, that is, in a state where the subject 120 exists between the screen 110 and the image processing device 1. It is a figure which shows a state. Hereinafter, for convenience of explanation, the image processing apparatus 1 side is referred to as “front” when viewed from the screen 110.

図2(1)に示すように、スクリーン110の手前に被写体120が存在する環境で、画像処理装置1の投影部19により投影画像が投影されたスクリーン110が、画像処理装置1の撮像部18により撮像される場合がある。
この場合、図2(2)に示すように、スクリーン110に単に投影されようとした投影画像130のうち、被写体120及びその周囲に投影された部分(特に顔140に投影された部分)が、当該被写体120(特に顔)の形状に応じて歪んで表示され、その結果、投影画像全体の鮮明さが損なわれてしまう。即ち、鮮明さが損なわれた投影画像130が投影されたスクリーン110と、その手前に存在する被写体120とが写る撮像画像となってしまう。
そこで、本実施形態の画像処理装置1は、投影画像130のうち、被写体120及びその周囲に投影された部分のデータ(画像信号)に対して、所定の画像処理を施すことで、当該被写体120の存在に関わらず鮮明な投影画像130の投影を可能にする。
この場合の所定の画像処理の種類は、特に限定されないが、本実施形態では、投影画像のうち被写体120の顔140に投影される部分を透明化する画像処理が採用されている。
以下、このような。透明化の画像処理の概要について、上述した図2に加えて図3を参照して説明する。
As illustrated in FIG. 2A, the screen 110 on which the projection image is projected by the projection unit 19 of the image processing apparatus 1 in the environment where the subject 120 exists in front of the screen 110 is the imaging unit 18 of the image processing apparatus 1. May be captured.
In this case, as shown in FIG. 2 (2), among the projected image 130 that was simply projected onto the screen 110, the subject 120 and the portion projected around it (particularly the portion projected onto the face 140) The display is distorted in accordance with the shape of the subject 120 (particularly the face), and as a result, the clearness of the entire projection image is impaired. That is, a captured image is obtained in which the screen 110 on which the projected image 130 with a reduced sharpness is projected and the subject 120 existing in front of the screen 110 are captured.
Therefore, the image processing apparatus 1 according to the present embodiment performs predetermined image processing on the data (image signal) of the portion projected onto the subject 120 and the periphery of the subject 120 in the projection image 130, thereby the subject 120. This makes it possible to project a clear projected image 130 regardless of the presence of.
The type of the predetermined image processing in this case is not particularly limited, but in the present embodiment, image processing for making the portion projected on the face 140 of the subject 120 in the projected image transparent is employed.
Below, like this. An overview of the image processing for transparency will be described with reference to FIG. 3 in addition to FIG. 2 described above.

図3は、図1の画像処理装置1が実行する透明化の画像処理の概要について説明する図である。
画像処理装置1のCPU11は、ユーザにより入力部17の投影開始ボタンが押下されると、投影部19がスクリーン110に対し投影画像130を通常に投影するように制御する。この場合、上述したように、スクリーン110の手前に人物たる被写体120が存在すると(図2(1)参照)、スクリーン110に投影された投影画像130のうち、被写体120及びその周囲に投影された部分(特に顔140部分)が、当該被写体120の顔140の形状に合わせて歪んでしまう(図2(2)参照)。
そこで、画像処理装置1のCPU11は、投影画像130内の歪んでいる部分(即ち、被写体120の顔140に投影されている部分)を特定すべく、図2(1)に示す状態で、図2(2)の様子を撮像部18に撮像させる。即ち、画像処理装置1のCPU11は、撮影が指示されると、投影画像130が通常に投影されているスクリーン110の手前に被写体120が存在する状態で、スクリーン110の投影面全体(即ち、スクリーン110に投影された投影画像130全体)が画角に入るように撮像部18に撮像させる。
このような撮像部18による撮像の結果、図3(1)に示す撮像画像g1(静止画g1)が得られる。この図3(1)に示す撮像画像g1には、投影画像130が投影された被写体120の像120g(以下、「被写体像120g」と呼ぶ)と、投影画像130が投影されたスクリーン110の像130g(以下、「スクリーン像130g」と呼ぶ)とが含まれている。被写体像120gの顔領域においては、投影画像130が被写体120の形状に合わせて歪んでいる様子が写し出される。従って、この時点で撮像された撮像画像g1は、特に被写体像120gの顔領域が不鮮明な状態で撮像されている。
FIG. 3 is a diagram for explaining an overview of the transparent image processing executed by the image processing apparatus 1 of FIG.
When the projection start button of the input unit 17 is pressed by the user, the CPU 11 of the image processing apparatus 1 controls the projection unit 19 to project the projection image 130 on the screen 110 normally. In this case, as described above, when the subject 120 as a person is present in front of the screen 110 (see FIG. 2 (1)), the projected image 130 projected onto the screen 110 is projected onto the subject 120 and its surroundings. The part (particularly the face 140 part) is distorted in accordance with the shape of the face 140 of the subject 120 (see FIG. 2B).
Therefore, the CPU 11 of the image processing apparatus 1 is in the state shown in FIG. 2A in order to identify a distorted portion in the projection image 130 (that is, a portion projected onto the face 140 of the subject 120). 2 (2) is imaged by the imaging unit 18. That is, when the CPU 11 of the image processing apparatus 1 is instructed to shoot, the entire projection surface of the screen 110 (that is, the screen) is displayed with the subject 120 in front of the screen 110 on which the projection image 130 is normally projected. The imaging unit 18 is caused to capture an image so that the entire projection image 130 projected onto 110 falls within the angle of view.
As a result of such imaging by the imaging unit 18, a captured image g1 (still image g1) shown in FIG. 3A is obtained. The captured image g1 shown in FIG. 3A includes an image 120g of the subject 120 onto which the projection image 130 is projected (hereinafter referred to as “subject image 120g”) and an image of the screen 110 onto which the projection image 130 is projected. 130 g (hereinafter referred to as “screen image 130 g”). In the face area of the subject image 120g, a state in which the projected image 130 is distorted in accordance with the shape of the subject 120 is displayed. Therefore, the picked-up image g1 picked up at this time is picked up particularly in a state where the face area of the subject image 120g is unclear.

そこで、画像処理装置1のCPU11は、図3(2)に示すように、撮像画像g1のデータに対し顔特徴点解析を施すことにより、被写体像120gの顔領域140gを検出する。
次に、画像処理装置1のCPU11は、図3(3)に示すように、検出した顔領域140gのみが透明(例えば画素値0)となり、それ以外が黒等の一定色となる画像g2(以下、「顔検出画像g2」と呼ぶ)のデータを生成する。
そして、画像処理装置1のCPU11は、顔検出画像g2のデータと、投影画像g3(これまでの投影画像130(図2参照)と同一の画像g3)のデータとを合成することによって、図3(4)に示す合成画像g4のデータを生成する。即ち、合成画像g4とは、投影画像130のうち、顔領域140gのみが透明化されたものである。
このようにして、投影画像g3(投影画像130と同一の画像g3)に対して、検出した顔領域140gを透明化する画像処理が実行される。
Therefore, the CPU 11 of the image processing apparatus 1 detects a face area 140g of the subject image 120g by performing face feature point analysis on the data of the captured image g1, as shown in FIG.
Next, as shown in FIG. 3C, the CPU 11 of the image processing apparatus 1 has an image g2 (only the detected face area 140g is transparent (for example, pixel value 0) and the other is a constant color such as black). Hereinafter, the data of “face detection image g2”) is generated.
Then, the CPU 11 of the image processing apparatus 1 combines the data of the face detection image g2 and the data of the projection image g3 (the same image g3 as the projection image 130 so far (see FIG. 2)). Data of the composite image g4 shown in (4) is generated. In other words, the composite image g4 is an image obtained by making only the face area 140g of the projection image 130 transparent.
In this way, image processing for making the detected face area 140g transparent is performed on the projection image g3 (the same image g3 as the projection image 130).

図4は、図2と対比する図であって、投影対象の一例であるスクリーン110の手前、即ち、スクリーン110と画像処理装置1との間に被写体120が存在する状態で、画像処理装置1が、顔領域140gが透明化された投影画像g4をスクリーン110に投影した状態を示す図である。   FIG. 4 is a diagram contrasting with FIG. 2, in which the image processing apparatus 1 is in front of the screen 110, which is an example of a projection target, that is, in a state where the subject 120 exists between the screen 110 and the image processing apparatus 1. FIG. 8 is a diagram showing a state in which a projected image g4 with a face area 140g made transparent is projected onto the screen 110.

図4(1)は、図2(1)と同一の図であって、スクリーン110の手前に被写体120が存在する環境で、画像処理装置1の投影部19により、顔領域140gが透明化された投影画像g4(図3(4)参照)が投影されたスクリーン110が、画像処理装置1の撮像部18により撮像される様子を示している。
この場合、図4(2)に示すように、スクリーン110に対して投影画像g4が投影されると、被写体120の顔140には透明な部分が投影される(単に投影部19の光源の光が照射される)ので、図2(2)のような歪みは生ぜず、その結果、このような状態で撮像部18により撮像が行われると、鮮明さが際立った投影画像130が投影されたスクリーン110と、その手前に存在する被写体120とが写る撮像画像が得られる。
FIG. 4A is the same diagram as FIG. 2A, and the face area 140 g is made transparent by the projection unit 19 of the image processing apparatus 1 in an environment where the subject 120 exists in front of the screen 110. The screen 110 on which the projected image g4 (see FIG. 3D) is projected is shown captured by the imaging unit 18 of the image processing apparatus 1.
In this case, as shown in FIG. 4B, when the projection image g4 is projected onto the screen 110, a transparent portion is projected onto the face 140 of the subject 120 (simply the light from the light source of the projection unit 19). 2), the distortion as shown in FIG. 2 (2) does not occur. As a result, when the imaging unit 18 performs imaging in such a state, a projected image 130 with outstanding sharpness is projected. A captured image in which the screen 110 and the subject 120 existing in front of the screen 110 are captured is obtained.

以上図2乃至図4を参照して説明した、画像処理装置1により実行される一連の処理を、「投影制御処理」と呼ぶ。
即ち、投影制御処理とは、ユーザにより入力部17の投影開始ボタンが押下されたことにより画像処理装置1の動作モードが投影状態に変更されたことを契機として開始される、次のような一連の処理をいう。
即ち、画像処理装置1は、先ず、投影画像を投影対象に投影する。この場合、投影対象の手前には被写体が存在することを前提とする。画像処理装置1は、被写体及び投影対象を撮像することによって、前処理用の撮像画像(静止画像)のデータを得る。次に、画像処理装置1は、前処理用の撮像画像のデータに対して、被写体の顔領域の検出処理を施す。そして、画像処理装置1は、検出された顔領域の情報に基づいて、投影画像のうち被写体の顔に投射される領域(以下、「投影画像の顔領域」と呼ぶ)を透明化する画像処理を実行する。画像処理装置1は、画像処理実行後の投影画像、即ち顔領域が透明化された投影画像を、投影対象に投影する。画像処理装置1は、被写体及び投影対象を撮像し、その結果得られる記録用の撮像画像(静止画像)のデータをリムーバブルメディア31等に記録させる。このような一連の処理が、投影制御処理である。
ここで、顔領域の検出処理の手法は、特に限定されないが、例えば、各学習テンプレートに基づいて、ニューラルネットワーク(NN)、アダブースト(AdaBoost)、サポートベクターマシン(SVM)と呼ばれるアルゴリズムに従って顔領域を推定して検出する手法を採用することができる。
ニューラルネットワーク(NN:Neural network)、アダブースト(AdaBoost)、サポートベクターマシン(SVM:Support vector machine)、による顔検出処理は、公知の技術であるため、本実施形態では、詳細な説明については省略する。
The series of processes executed by the image processing apparatus 1 described above with reference to FIGS. 2 to 4 is referred to as “projection control process”.
That is, the projection control process is started when the operation mode of the image processing apparatus 1 is changed to the projection state when the user presses the projection start button of the input unit 17 as follows. This process.
That is, the image processing apparatus 1 first projects a projection image onto a projection target. In this case, it is assumed that a subject is present in front of the projection target. The image processing apparatus 1 obtains data of a pre-processed captured image (still image) by capturing an image of a subject and a projection target. Next, the image processing apparatus 1 performs subject face area detection processing on pre-processed captured image data. Then, the image processing apparatus 1 performs image processing for transparentizing a region projected on the face of the subject in the projection image (hereinafter referred to as “face region of the projection image”) based on the detected face region information. Execute. The image processing apparatus 1 projects a projection image after execution of image processing, that is, a projection image with a transparent face area, onto a projection target. The image processing apparatus 1 images a subject and a projection target, and records data of a captured image (still image) obtained as a result on the removable medium 31 or the like. Such a series of processes is a projection control process.
Here, the method of face area detection processing is not particularly limited. For example, based on each learning template, the face area is determined according to algorithms called neural network (NN), Adaboost (AdaBoost), and support vector machine (SVM). An estimation and detection method can be employed.
Since face detection processing by a neural network (NN), Adaboost (AdaBoost), and support vector machine (SVM) is a well-known technique, detailed description is omitted in this embodiment. .

図5は、図1の画像処理装置1の機能的構成のうち、このような投影制御処理を実行するための機能的構成を示す機能ブロック図である。
CPU11においては、投影制御処理の実行が制御される場合、投影制御部41と、撮像制御部42と、画像取得部43と、被写体検出部44と、判別部45と、投影画像処理部46と、が機能する。
なお、図5は例示であり、画像処理装置1にGA(Graphics Accelerator)等の画像処理専用のハードウェアを備えて、CPU11の機能の少なくとも一部を当該ハードウェアに委譲してもよい。
また、記憶部20は、上述したように、複数の被写体を判別するための複数の判別画像を含む判別画像テーブルを記憶している。
FIG. 5 is a functional block diagram showing a functional configuration for executing such projection control processing among the functional configurations of the image processing apparatus 1 of FIG.
In the CPU 11, when the execution of the projection control process is controlled, the projection control unit 41, the imaging control unit 42, the image acquisition unit 43, the subject detection unit 44, the determination unit 45, and the projection image processing unit 46 , Works.
FIG. 5 is an example, and the image processing apparatus 1 may be provided with hardware dedicated to image processing such as GA (Graphics Accelerator), and at least part of the functions of the CPU 11 may be delegated to the hardware.
Further, as described above, the storage unit 20 stores a discrimination image table including a plurality of discrimination images for discriminating a plurality of subjects.

ここで、図6を参照して、記憶部20に記憶されている判別画像テーブルについて説明する。図6は、記憶部20に記憶されている判別画像テーブルの表示例を示している。
判別画像テーブルには、判別の対象となるn個の判別画像201−1、201−2、201−3、201−4、201−5、・・・201−nの各データと、これらの判別画像に付された優先度と、これらの判別画像に対する画像処理のON(発揮状態)又はOFF(非発揮状態)を示す判別設定フラグと、が対応付けられて記憶されている。以下、複数の判別画像201−1、201−2、201−3、201−4、201−5、・・・201―nを個々に区別する必要がない場合、これらをまとめて、「判別画像201」と単に称する。
「判別画像201」とは、撮像部18により撮像された撮像画像(前処理用の撮像画像)に含まれる被写体の顔を判別するために用いられる、予め既知の人物の顔を含む画像をいう。
「優先度」とは、撮像部18により撮像された撮像画像から複数の被写体の形状(顔領域)が検出された場合、複数の被写体のうち何れの被写体を透明化の画像処理の対象とするのかについてか、又は、何れの被写体から透明化の画像処理の対象に設定するのかについて決定するための順位である。優先度は、1〜5まで設定され、優先度「5」が最高位であり、優先度が下がっていく(「1」に近づいていく)に従って、画像処理の対象になる順位が低くなる。例えば、撮像画像に優先度「3」の判別画像201−1に含まれる顔領域と類似する顔領域を有する被写体Aが存在したとする。なお、以下、判別画像に含まれる顔領域と類似する顔領域を有する被写体を、単に「判別画像に類似する被写体」と表現する。また、撮像画像に、優先度「5」の判別画像201−4に類似する被写体Bが存在したとする。この場合について、各々の判別画像201−1,201−4に対応する判別フラグがONである場合について考える。この場合、CPU11は、撮像画像に含まれる2つの被写体のうち、優先度「5」の被写体Bを、透明化の画像処理の対象に設定する。
ユーザは、入力部17を操作して、画像処理装置1の処理モードを切り替えることによって、各優先度の情報及び判別設定フラグの情報を任意に変更することができる。
Here, the discrimination image table stored in the storage unit 20 will be described with reference to FIG. FIG. 6 shows a display example of the discrimination image table stored in the storage unit 20.
The discrimination image table includes n pieces of discrimination images 201-1, 201-2, 201-3, 201-4, 201-5,... The priority assigned to the image and the determination setting flag indicating ON (presentation state) or OFF (non-execution state) of image processing for these determination images are stored in association with each other. Hereinafter, when it is not necessary to individually distinguish the plurality of discrimination images 201-1, 201-2, 201-3, 201-4, 201-5,... 201-n, these are collectively referred to as “discrimination images”. 201 ".
The “discrimination image 201” refers to an image including a face of a known person that is used in advance to discriminate the face of the subject included in the captured image (pre-processed captured image) captured by the imaging unit 18. .
The “priority” means that when a plurality of subject shapes (face areas) are detected from the captured image captured by the imaging unit 18, any one of the plurality of subjects is set as a target for image processing for transparency. Or a subject to be determined as a target for transparent image processing. The priority is set from 1 to 5, the priority “5” is the highest, and as the priority decreases (approaches “1”), the order of image processing becomes lower. For example, it is assumed that there is a subject A having a face area similar to the face area included in the discrimination image 201-1 having the priority “3” in the captured image. Hereinafter, a subject having a face area similar to the face area included in the discrimination image is simply expressed as “subject similar to the discrimination image”. Further, it is assumed that a subject B similar to the discrimination image 201-4 with the priority “5” exists in the captured image. In this case, consider a case where the determination flags corresponding to the respective determination images 201-1 and 201-4 are ON. In this case, the CPU 11 sets the subject B having the priority “5” among the two subjects included in the captured image as a target of the image processing for transparency.
The user can arbitrarily change the information on each priority and the information on the discrimination setting flag by operating the input unit 17 and switching the processing mode of the image processing apparatus 1.

図5に戻り、投影制御部41は、入力される画像信号(投影対象の画像のデータ)に応じた投影画像を、投影部19からスクリーン110等の投影対象に投影させる制御を実行する。また、投影制御部41は、後述の投影画像処理部46により画像処理が行われた後においては、投影画像処理部46により画像処理が行われた投影画像を、投影部19から投影対象に投影させる制御を実行する。   Returning to FIG. 5, the projection control unit 41 performs control to project a projection image corresponding to the input image signal (data of the projection target image) from the projection unit 19 onto the projection target such as the screen 110. In addition, after the image processing is performed by the projection image processing unit 46 described later, the projection control unit 41 projects the projection image subjected to the image processing by the projection image processing unit 46 from the projection unit 19 onto the projection target. The control to be executed is executed.

撮像制御部42は、投影制御部41の制御により投影画像130が投影された投影対象(及びその手前に存在する被写体)を撮像部18に撮像させる制御を実行する。
画像取得部43は、撮像制御部42の制御により撮像部18により撮像された撮像画像であって、投影部19により投影画像が投影されているスクリーン110等の投影対象及びその手前に位置する被写体とが含まれる撮像画像を取得する。画像取得部43は、取得した撮像画像のデータを被写体検出部44へ供給する。
The imaging control unit 42 executes control for causing the imaging unit 18 to image the projection target (and the subject existing in front of it) onto which the projection image 130 is projected under the control of the projection control unit 41.
The image acquisition unit 43 is a captured image captured by the imaging unit 18 under the control of the imaging control unit 42, and is a projection target such as the screen 110 on which the projection image is projected by the projection unit 19 and a subject positioned in front of the projection target. A captured image including “and” is acquired. The image acquisition unit 43 supplies the acquired captured image data to the subject detection unit 44.

被写体検出部44は、撮像制御部42の制御により撮像された撮像画像のデータから、スクリーン110の手前に位置する被写体の形状を検出する。具体的には、被写体検出部44は、撮像画像のデータに対して顔特徴点解析を施すことにより、被写体の顔領域を検出する。
この場合、被写体検出部44は、投影制御部41により投影された投影画像と、撮像制御部42により撮像された撮像画像とで画像が異なる領域を被写体120(図4参照)の形状として検出する。具体的には、被写体検出部44は、投影画像と撮影画像とを、ブロック(小領域)単位でパターンマッチングして、マッチしないブロックの集合体の形状を、撮像画像の被写体の形状として検出する。これにより、被写体検出部44は、投影画像と撮像画像とを区別して、撮像画像のデータの被写体に対して顔特徴点解析を施すことができる。
The subject detection unit 44 detects the shape of the subject located in front of the screen 110 from the data of the captured image captured by the control of the imaging control unit 42. Specifically, the subject detection unit 44 detects the face area of the subject by performing face feature point analysis on the captured image data.
In this case, the subject detection unit 44 detects, as the shape of the subject 120 (see FIG. 4), an area where the projected image projected by the projection control unit 41 and the captured image captured by the imaging control unit 42 are different. . Specifically, the subject detection unit 44 pattern-matches the projected image and the captured image in units of blocks (small areas), and detects the shape of the aggregate of blocks that do not match as the shape of the subject in the captured image. . Thereby, the subject detection unit 44 can perform the facial feature point analysis on the subject of the data of the captured image by distinguishing the projected image and the captured image.

また、被写体検出部44は、投影部19からの1のオブジェクト(例えば、スクリーン110や、被写体120等)までの距離の情報に基づいて、投影部19からスクリーン110までの距離が短い対象を被写体120の形状として検出する。被写体検出部44は、1のオブジェクト(例えば、スクリーン110や、被写体120等)に対する各焦点距離を用いて、各オブジェクトまでの距離の情報として予測演算する。これにより、被写体検出部44は、投影画像と撮像画像とを区別して、撮像画像のデータの被写体に対して顔特徴点解析を施すことができる。被写体検出部44は、検出した被写体120(図3参照)の顔領域140g(図3参照)の情報を判別部45及び投影画像処理部46へ供給する。   In addition, the subject detection unit 44 selects an object having a short distance from the projection unit 19 to the screen 110 based on information on the distance from the projection unit 19 to one object (for example, the screen 110 or the subject 120). 120 shapes are detected. The subject detection unit 44 uses the focal lengths for one object (for example, the screen 110, the subject 120, etc.) to perform prediction calculation as information on the distance to each object. Thereby, the subject detection unit 44 can perform the facial feature point analysis on the subject of the data of the captured image by distinguishing the projected image and the captured image. The subject detection unit 44 supplies information of the detected face area 140g (see FIG. 3) of the subject 120 (see FIG. 3) to the determination unit 45 and the projection image processing unit 46.

判別部45は、撮像制御部42の制御により撮像された撮像画像のデータを比較対象として設定すると共に、記憶部20の判別画像テーブルに記憶されている判別画像のデータを比較相手として設定して、比較対象と比較相手との各被写体が略一致するか否かを判別する。判別部45は、判別結果を投影画像処理部46へ通知する。   The determination unit 45 sets captured image data captured by the control of the imaging control unit 42 as a comparison target, and sets determination image data stored in the determination image table of the storage unit 20 as a comparison partner. Then, it is determined whether or not the subjects of the comparison target and the comparison partner substantially match. The determination unit 45 notifies the projection image processing unit 46 of the determination result.

投影画像処理部46は、判別部45により比較対象と比較相手との各被写体が略一致すると判別された場合に、投影画像の被写体の顔領域を透明化させる画像処理を、当該投影画像のデータに対して施す。そして、投影画像処理部46により顔領域が透明化された投影画像が、スクリーン等の投影対象に投影される。   The projection image processing unit 46 performs image processing for making the face area of the subject of the projection image transparent when the determination unit 45 determines that the subjects of the comparison target and the comparison partner substantially match. To apply. Then, the projection image whose face area is made transparent by the projection image processing unit 46 is projected onto a projection target such as a screen.

次に、図7を参照して、このような図5の機能的構成の画像処理装置1が実行する投影制御処理について説明する。
図7は、図5の機能的構成を有する図1の画像処理装置1が実行する投影制御処理の流れを説明するフローチャートである。
Next, a projection control process executed by the image processing apparatus 1 having the functional configuration shown in FIG. 5 will be described with reference to FIG.
FIG. 7 is a flowchart for explaining the flow of the projection control process executed by the image processing apparatus 1 of FIG. 1 having the functional configuration of FIG.

投影制御処理は、ユーザにより入力部17の投影開始ボタンが押下されたことにより画像処理装置1の動作モードが投影状態に変更されたことを契機として開始され、次のような処理が繰り返し実行される。   The projection control process is started when the operation mode of the image processing apparatus 1 is changed to the projection state when the projection start button of the input unit 17 is pressed by the user, and the following process is repeatedly executed. The

ステップS11において、投影制御部41は、スクリーン110に投影画像を投影させる制御を実行する。この処理において投影される投影画像130は、まだ透明化されていないため、図2(2)に示すように、被写体120及びその周囲に投影された部分(特に顔140)が歪んで表示されている。   In step S <b> 11, the projection control unit 41 executes control for projecting a projection image on the screen 110. Since the projection image 130 projected in this process has not yet been made transparent, as shown in FIG. 2 (2), the subject 120 and the portion projected around it (particularly the face 140) are distorted and displayed. Yes.

ステップS12において、撮像制御部42は、入力部17のシャッタボタンが押下されたか否かを判定する。この処理では、撮像制御部42は、シャッタボタンが押下されたか否かを判定することで、ユーザが撮像画像(静止画)を撮像したいと所望しているか否かを判定する。シャッタボタンが押下されていない場合には、ステップS12においてNOであると判定されて、処理はステップS12に戻る。即ち、シャッタボタンが押下されるまでの間、ステップS12の処理が繰り返し実行され、投影制御処理は待機状態となる。シャッタボタンが押下された場合には、ステップS12においてYESであると判定されて、処理はステップS13に進む。   In step S12, the imaging control unit 42 determines whether the shutter button of the input unit 17 has been pressed. In this process, the imaging control unit 42 determines whether or not the user desires to capture a captured image (still image) by determining whether or not the shutter button has been pressed. If the shutter button is not pressed, it is determined as NO in Step S12, and the process returns to Step S12. That is, until the shutter button is pressed, the process of step S12 is repeatedly executed, and the projection control process enters a standby state. When the shutter button is pressed, it is determined as YES in Step S12, and the process proceeds to Step S13.

ステップS13において、撮像制御部42は、投影制御部41により投影された投影画像130(静止画)を撮像する制御を実行する。この処理において撮像される撮像画像は、前処理用の撮像画像のデータとして取得される。   In step S <b> 13, the imaging control unit 42 executes control for imaging the projection image 130 (still image) projected by the projection control unit 41. The captured image captured in this process is acquired as captured image data for preprocessing.

ステップS14において、被写体検出部44は、ステップS13において撮像された前処理用の撮像画像のデータに対する顔特徴点解析に基づいて被写体の顔領域を検出する。   In step S14, the subject detection unit 44 detects the face area of the subject based on the facial feature point analysis on the preprocessed captured image data imaged in step S13.

ステップS15において、判別部45は、ステップS13において撮像した撮像画像に含まれる被写体が、記憶部20に記憶されている被写体と略一致するか否かを判定する。この処理では、判別部45は、撮像部18により撮像された投影画像に含まれる被写体が、記憶部20に記憶されている判別画像テーブルの各判別画像201に含まれる被写体と略一致するか否かを判定する。撮像画像に含まれる被写体が、記憶部20に記憶されている被写体と略一致していないと判定した場合には、ステップS15においてNOであると判定されて、処理はステップS17に進む。これに対し、撮像画像に含まれる被写体が、記憶部20に記憶されている被写体と略一致していると判定した場合には、ステップS15においてYESであると判定されて、処理はステップS16に進む。   In step S15, the determination unit 45 determines whether or not the subject included in the captured image captured in step S13 substantially matches the subject stored in the storage unit 20. In this processing, the determination unit 45 determines whether or not the subject included in the projection image captured by the imaging unit 18 substantially matches the subject included in each determination image 201 of the determination image table stored in the storage unit 20. Determine whether. If it is determined that the subject included in the captured image does not substantially match the subject stored in the storage unit 20, it is determined as NO in step S15, and the process proceeds to step S17. On the other hand, when it is determined that the subject included in the captured image substantially matches the subject stored in the storage unit 20, it is determined as YES in step S15, and the process proceeds to step S16. move on.

ステップS16において、投影画像処理部46は、投影画像の顔領域を透明化する画像処理を行う。
この処理では、投影画像処理部46は、投影画像のうち、ステップS15において略一致したと判定された被写体の顔領域140gを透明化させる画像処理を、当該投影画像のデータに対して施す。そして、投影制御部41は、投影画像処理部46により顔領域140gが透明化された投影画像が、スクリーン110等の投影対象に投影される。
In step S <b> 16, the projection image processing unit 46 performs image processing for making the face area of the projection image transparent.
In this process, the projection image processing unit 46 performs image processing on the projection image data to make the face area 140g of the subject determined to be substantially matched in step S15 out of the projection images. Then, the projection control unit 41 projects the projection image in which the face area 140g is made transparent by the projection image processing unit 46 onto a projection target such as the screen 110.

ステップS17において、撮像制御部42は、ステップS16において透明化され、投影制御部41により投影された投影画像130(静止画)を撮像する制御を実行する。この処理では、撮像制御部42は、ステップS16において透明化された投影画像130(静止画)が撮像される。   In step S <b> 17, the imaging control unit 42 executes control for imaging the projection image 130 (still image) that has been made transparent in step S <b> 16 and projected by the projection control unit 41. In this process, the imaging control unit 42 captures the projection image 130 (still image) that has been made transparent in step S16.

ステップS18において、撮像制御部42は、ステップS17において撮像された撮像画像のデータをリムーバブルメディア31に記録する。
ステップS19において、投影制御部41は、投影制御処理の終了指示を受け付けたか否かを判定する。終了指示を受け付けていない場合には、ステップS19においてNOであると判定されて、処理はステップS12に戻る。即ち、終了指示を受け付けるまでの間ステップS12乃至S19の処理が繰り返し行われる。これに対し、終了指示を受け付けた場合には、ステップS19においてYESであると判定されて、投影制御処理は終了となる。
In step S <b> 18, the imaging control unit 42 records data of the captured image captured in step S <b> 17 on the removable medium 31.
In step S19, the projection control unit 41 determines whether an instruction to end the projection control process has been received. If an end instruction has not been received, it is determined as NO in Step S19, and the process returns to Step S12. That is, the processes in steps S12 to S19 are repeated until an end instruction is received. On the other hand, if an end instruction is received, it is determined as YES in step S19, and the projection control process ends.

以上説明したように、本実施形態の画像処理装置1は、投影制御部41と、画像取得部43と、被写体検出部44と、判別部45と、投影画像処理部46と、を備える。投影制御部41は、入力される画像信号に応じた投影画像を投影部19によりスクリーン110等の投影対象に向けて投影させる制御を実行する。画像取得部43は、撮像部18により撮像された画像であって、投影部19により投影画像130が投影されているスクリーン110等の投影対象と、撮像部18からみてスクリーン110等の投影対象より手前に位置する被写体120とが含まれる画像を取得する。被写体検出部44は、撮像部18により撮像された撮像画像から、被写体120の領域を検出する。投影画像処理部46は、被写体検出部44により検出された被写体120の領域に対して所定の画像処理を、投影部19により投影される投影画像130を対象に行う。
これにより、被写体120(特に顔領域140g)に対し投影される投影画像130に対し画像処理が行われることから、スクリーン110等の投影対象の手前に位置する被写体120の存在に関わらず鮮明な投影画像130を投影することができる。
As described above, the image processing apparatus 1 according to the present embodiment includes the projection control unit 41, the image acquisition unit 43, the subject detection unit 44, the determination unit 45, and the projection image processing unit 46. The projection control unit 41 executes control for causing the projection unit 19 to project a projection image corresponding to the input image signal onto a projection target such as the screen 110. The image acquisition unit 43 is an image picked up by the image pickup unit 18 and includes a projection target such as the screen 110 on which the projection image 130 is projected by the projection unit 19 and a projection target such as the screen 110 viewed from the image pickup unit 18. An image including the subject 120 located in front is acquired. The subject detection unit 44 detects the region of the subject 120 from the captured image captured by the imaging unit 18. The projection image processing unit 46 performs predetermined image processing on the area of the subject 120 detected by the subject detection unit 44 for the projection image 130 projected by the projection unit 19.
As a result, image processing is performed on the projection image 130 projected onto the subject 120 (particularly the face region 140g), so that clear projection is possible regardless of the presence of the subject 120 located in front of the projection target such as the screen 110. An image 130 can be projected.

さらに、画像処理装置1の投影画像処理部46は、投影画像中の被写体の領域に対する所定領域(顔領域140g)については、前記入力される画像信号に応じた画像を投影しない透明化の画像処理を行う。
これにより、被写体120(特に顔140)に対し投影される投影画像130に対し透明化の画像処理が行われることから、スクリーン110等の投影対象の手前に位置する被写体120の存在に関わらず鮮明な投影画像130を投影することができる。
Further, the projection image processing unit 46 of the image processing apparatus 1 performs transparent image processing that does not project an image corresponding to the input image signal for a predetermined region (face region 140g) with respect to the region of the subject in the projection image. I do.
Thereby, since the transparent image processing is performed on the projection image 130 projected onto the subject 120 (particularly the face 140), it is clear regardless of the existence of the subject 120 located in front of the projection target such as the screen 110. A projected image 130 can be projected.

さらに、画像処理装置1の被写体検出部44は、投影部19からスクリーン110等の投影対象までの距離が短い対象を被写体120の形状として検出する。
これにより、投影画像処理部46は、スクリーン110等の投影対象の手前に被写体120が存在している場合であっても、投影画像130に含まれるオブジェクトと、スクリーン110の手前に存在する被写体120と、を区別して画像処理を行うことができる。したがって、スクリーン110等の投影対象の手前に位置する被写体120の存在に関わらず鮮明な投影画像130を投影することができる。
Further, the subject detection unit 44 of the image processing apparatus 1 detects an object having a short distance from the projection unit 19 to the projection target such as the screen 110 as the shape of the subject 120.
Thereby, even if the subject 120 is present in front of the projection target such as the screen 110, the projection image processing unit 46 and the object 120 present in front of the screen 110 and the object included in the projection image 130 are displayed. And the image processing can be performed. Therefore, a clear projection image 130 can be projected regardless of the presence of the subject 120 located in front of the projection target such as the screen 110.

さらに、画像処理装置1の被写体検出部44は、投影制御部41により投影される投影画像130と撮像画像とで画像が異なる領域を被写体の形状として検出する。
これにより、投影画像処理部46は、スクリーン110等の投影対象の手前に被写体120が存在している場合であっても、投影画像130に含まれるオブジェクトと、撮像画像に含まれるスクリーン110の手前に存在する被写体120と、を区別して画像処理を行うことができる。したがって、スクリーン110等の投影対象の手前に位置する被写体120の存在に関わらず鮮明な投影画像130を投影することができる。
Furthermore, the subject detection unit 44 of the image processing apparatus 1 detects a region where the projected image 130 projected by the projection control unit 41 and the captured image are different from each other as the shape of the subject.
Thereby, even if the subject 120 exists in front of the projection target such as the screen 110 or the like, the projection image processing unit 46 detects the object included in the projection image 130 and the screen 110 included in the captured image. The image processing can be performed by distinguishing the subject 120 existing in the. Therefore, a clear projection image 130 can be projected regardless of the presence of the subject 120 located in front of the projection target such as the screen 110.

さらに、画像処理装置1は、記憶部20と、判別部45と、をさらに備えることができる。この場合、記憶部20は、被写体120を特定する判別画像201を含む判別画像テーブルを記憶する。判別部45は、撮像部18により撮像される撮像画像に含まれる被写体120と、記憶部20に記憶されている被写体120を特定する判別画像201に含まれる被写体とが略一致するか否かを判別する。
そして、投影画像処理部46は、判別部45により略一致すると判別された場合に、投影画像130中の該当領域(顔領域140g)の画像を透明化する画像処理を行う。
これにより、ユーザは、スクリーン110等の投影対象の手前に存在する被写体120の種別に応じて画像処理を行うか否かを決定することができる。したがって、スクリーン110等の投影対象の手前に位置する被写体120のうち、所望する被写体120の存在に関わらず鮮明な投影画像130を投影することができる。
Furthermore, the image processing apparatus 1 can further include a storage unit 20 and a determination unit 45. In this case, the storage unit 20 stores a discrimination image table including a discrimination image 201 that identifies the subject 120. The determination unit 45 determines whether or not the subject 120 included in the captured image captured by the imaging unit 18 and the subject included in the determination image 201 that identifies the subject 120 stored in the storage unit 20 substantially match. Determine.
Then, the projection image processing unit 46 performs image processing for making the image of the corresponding region (face region 140g) in the projection image 130 transparent when it is determined by the determination unit 45 that they substantially match.
Thus, the user can determine whether or not to perform image processing according to the type of the subject 120 existing in front of the projection target such as the screen 110. Therefore, a clear projection image 130 can be projected regardless of the presence of the desired subject 120 among the subjects 120 positioned in front of the projection target such as the screen 110.

さらに、画像処理装置1の記憶部20に含まれる判別画像テーブルは、被写体120を特定する判別画像に関連付けて優先度を記憶する。そして、投影画像処理部46は、被写体検出部44により該被写体の形状が複数検出された場合に、優先度に応じて各該当領域(顔領域140g)の投影画像の透明度を可変する画像処理を実行する。
これにより、ユーザは、スクリーン110等の投影対象の手前に存在する被写体120の優先度を予め設定することにより、画像処理を行うか否かを予め決定することができる。したがって、スクリーン110等の投影対象の手前に位置する被写体120のうち、所望する被写体120の存在に関わらず鮮明な投影画像130を投影することができる。
Furthermore, the discrimination image table included in the storage unit 20 of the image processing apparatus 1 stores the priority in association with the discrimination image that identifies the subject 120. The projection image processing unit 46 performs image processing for changing the transparency of the projection image of each corresponding region (face region 140g) according to the priority when the subject detection unit 44 detects a plurality of shapes of the subject. Run.
Thus, the user can determine in advance whether or not to perform image processing by setting in advance the priority of the subject 120 existing in front of the projection target such as the screen 110. Therefore, a clear projection image 130 can be projected regardless of the presence of the desired subject 120 among the subjects 120 positioned in front of the projection target such as the screen 110.

さらに、画像処理装置1は、判別部45をさらに備える。判別部45は、撮像画像の被写体120が投影画像の一部と略一致するか否かを判別する。そして、被写体検出部44は、判別部45により被写体120が投影画像130の一部と略一致すると判別された場合に、撮像画像から該被写体120の形状(特に、顔領域140g)を検出する。
これにより、ユーザは、スクリーン110等の投影対象の手前に存在する被写体120の画像を予め設定することにより、画像処理を行うか否かを予め決定することができる。したがって、スクリーン110等の投影対象の手前に位置する被写体120のうち、所望する被写体120の存在に関わらず鮮明な投影画像130を投影することができる。
Further, the image processing apparatus 1 further includes a determination unit 45. The determination unit 45 determines whether or not the subject 120 of the captured image substantially matches a part of the projection image. The subject detection unit 44 detects the shape of the subject 120 (particularly, the face region 140g) from the captured image when the determination unit 45 determines that the subject 120 substantially matches a part of the projection image 130.
Accordingly, the user can determine in advance whether or not to perform image processing by setting in advance an image of the subject 120 existing in front of the projection target such as the screen 110. Therefore, a clear projection image 130 can be projected regardless of the presence of the desired subject 120 among the subjects 120 positioned in front of the projection target such as the screen 110.

さらに、画像処理装置1の画像取得部43は、投影画像処理部46により画像処理が行われた投影画像が投影されたスクリーン110等の投影対象を被写体が撮像された画像と共に取得する。
これにより、被写体120に対し投影される画像処理が行われた投影画像130を取得することから、スクリーン110等の投影対象の手前に位置する被写体120の存在に関わらず鮮明な投影画像130を取得することができる。
Further, the image acquisition unit 43 of the image processing apparatus 1 acquires the projection target such as the screen 110 on which the projection image subjected to the image processing by the projection image processing unit 46 is projected, together with the image of the subject.
As a result, since the projection image 130 on which the image processing to be projected onto the subject 120 is performed is obtained, a clear projection image 130 is obtained regardless of the presence of the subject 120 located in front of the projection target such as the screen 110. can do.

さらに、画像処理装置1は、撮像制御部42と、投影部19と、撮像部18と、をさらに備える。撮像制御部42は、投影部19により投影画像が投影されている投影対象と、被写体と、を撮像部18により撮像させる制御を実行する。投影部19は、投影制御部41により制御されてスクリーン110等の投影対象に投影画像を投影する。撮像部18は、撮像制御部42により制御されて投影対象及び被写体を撮像する。
これにより、スクリーン110等の投影対象の手前に位置する被写体120の存在に関わらず投影された投影画像130を撮像することができる。
Furthermore, the image processing apparatus 1 further includes an imaging control unit 42, a projection unit 19, and an imaging unit 18. The imaging control unit 42 executes control for causing the imaging unit 18 to image the projection target on which the projection image is projected by the projection unit 19 and the subject. The projection unit 19 projects a projection image onto a projection target such as the screen 110 under the control of the projection control unit 41. The imaging unit 18 is controlled by the imaging control unit 42 to image the projection target and the subject.
Thereby, it is possible to capture the projected image 130 regardless of the presence of the subject 120 located in front of the projection target such as the screen 110.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

上述の実施形態では、被写体検出部44は、撮像制御部42により撮像された撮像画像に対し顔特徴点解析を行うことにより被写体120の顔領域140gの検出を行っているがこれに限られるものではない。例えば、被写体検出部44は、撮像制御部42による撮像画像が動画像である場合に、被写体を追尾することで該被写体の形状を検出することができる。これにより、静止画だけではなく、動画に対しても不鮮明な動画を綺麗な動画として撮像することができる。   In the above-described embodiment, the subject detection unit 44 detects the face region 140g of the subject 120 by performing facial feature point analysis on the captured image captured by the imaging control unit 42. However, the present invention is not limited to this. is not. For example, the subject detection unit 44 can detect the shape of the subject by tracking the subject when the image captured by the imaging control unit 42 is a moving image. As a result, not only a still image but also a moving image that is unclear for moving images can be captured as a beautiful moving image.

上述の実施形態では、被写体検出部44は、各オブジェクトに対する各焦点距離に基づいて各オブジェクトまでの距離の情報を予測演算しているがこれに限られるものではない。例えば、被写体検出部44は、超音波やレーザ等を用いた測距センサを用いて、各オブジェクトまでの距離の情報に基づいて各オブジェクトまでの距離の情報として演算予測することができる。これにより、焦点距離では測定できない環境下においても適切に各オブジェクトまでの焦点距離を測定することができる。   In the above-described embodiment, the subject detection unit 44 predicts and calculates information on the distance to each object based on each focal length for each object, but the present invention is not limited to this. For example, the subject detection unit 44 can calculate and predict the distance information to each object based on the distance information to each object by using a distance measuring sensor using an ultrasonic wave or a laser. As a result, the focal distance to each object can be appropriately measured even in an environment that cannot be measured by the focal distance.

上述の実施形態では、投影画像処理部46は、投影制御部41により投影される投影画像中の被写体を透明化する画像処理を行っているがこれに限られるものではない。例えば、投影画像処理部46は、投影制御部41により投影される画像中の所定領域(特に顔領域140g)の画像を色つきの半透明化する画像処理を行うことができる。これにより、画像処理が行われている対象を明確に把握することができる。   In the above-described embodiment, the projection image processing unit 46 performs image processing for making the subject in the projection image projected by the projection control unit 41 transparent, but the present invention is not limited to this. For example, the projection image processing unit 46 can perform image processing for translucent the image of a predetermined region (particularly the face region 140g) in the image projected by the projection control unit 41. Thereby, it is possible to clearly grasp the target on which image processing is performed.

上述の実施形態では、投影画像処理部46は、投影制御部41により投影される画像中の被写体の顔領域の画像を透明化する画像処理を行っているがこれに限られるものではない。例えば、投影画像処理部46は、投影制御部41により投影される画像中の被写体の全部の領域を透明化する画像処理を行うことができる。   In the above-described embodiment, the projection image processing unit 46 performs image processing to make the image of the face area of the subject in the image projected by the projection control unit 41 transparent, but the present invention is not limited to this. For example, the projection image processing unit 46 can perform image processing for making the entire region of the subject in the image projected by the projection control unit 41 transparent.

また、上述の実施形態では、投影画像処理部46は、投影画像の顔領域を透明化する画像処理を行っているがこれに限られるものではない。
例えば、投影画像処理部46は、被写体検出部44により該被写体の形状が検出された場合に、投影制御部41により投影される投影画像中の顔や体等の該当領域の画像を記憶部20に記憶されている被写体の画像に置き換える画像処理を行うことができる。
この場合、記憶部20には、被写体を特定する画像に該被写体の画像と置き換えるための複数の置換画像を含む置換画像テーブルを判別画像テーブルとは別にさらに記憶する。置換画像テーブルには、置換の対象となるm個の置換画像(図示せず)が記憶されている。
この場合、投影画像処理部46は、撮像画像のうち略一致したと判定された被写体の顔領域140gを認識する。次に、投影画像処理部46は、投影画像のうち、認識した顔領域140gに相当する領域の画像を、置換画像テーブルに記憶されている置換画像に置き換えた画像のデータを生成する。これにより、投影画像処理部46は、投影画像の顔領域を置換画像に置き換える処理を行うことができる。そして、投影制御部41は、投影画像処理部46により顔領域140gに相当する領域の画像を置換画像に置き換えた画像を投影画像としてスクリーン110に投影する。これにより、投影画像130が不鮮明である場合であっても、予め記憶部20に記憶された置換画像に置き換えられるため、鮮明な投影画像130を投影することができる。
In the above-described embodiment, the projection image processing unit 46 performs image processing for making the face area of the projection image transparent. However, the present invention is not limited to this.
For example, when the subject detection unit 44 detects the shape of the subject, the projection image processing unit 46 stores an image of a corresponding region such as a face or body in the projection image projected by the projection control unit 41. It is possible to perform image processing to replace the image of the subject stored in.
In this case, the storage unit 20 further stores a replacement image table including a plurality of replacement images for replacing the image of the subject with an image for specifying the subject separately from the discrimination image table. The replacement image table stores m replacement images (not shown) to be replaced.
In this case, the projected image processing unit 46 recognizes the face area 140g of the subject that is determined to be substantially the same among the captured images. Next, the projection image processing unit 46 generates image data obtained by replacing the image of the area corresponding to the recognized face area 140g in the projection image with the replacement image stored in the replacement image table. Thereby, the projection image processing unit 46 can perform processing for replacing the face area of the projection image with the replacement image. Then, the projection control unit 41 projects an image obtained by replacing the image of the region corresponding to the face region 140g with the replacement image by the projection image processing unit 46 on the screen 110 as a projection image. Thereby, even when the projection image 130 is unclear, the projection image 130 is replaced with a replacement image stored in the storage unit 20 in advance, so that a clear projection image 130 can be projected.

また、上述の実施形態では、撮像制御部42は、シャッタボタンが押下されたこと(ステップS12)を契機として、投影画像130(静止画)を前処理用の撮像画像のデータとして撮像する制御を実行している(ステップS13)がこれに限られるものではない。例えば、撮像制御部42は、ステップS13において、ユーザの入力部17の操作に基づき前処理用の撮像指示が行われたことを契機として、投影画像130(静止画)を前処理用の撮像画像のデータとして撮像する制御を実行することができる。この場合、撮像制御部42は、ステップS17において、入力部17のシャッタボタンが押下されたことを契機として、透明化された投影画像130(静止画)を撮像する制御を実行することができる。   In the above-described embodiment, the imaging control unit 42 performs control to capture the projected image 130 (still image) as pre-processed captured image data when the shutter button is pressed (step S12). The execution (step S13) is not limited to this. For example, in step S <b> 13, the imaging control unit 42 uses the projection image 130 (still image) as a pre-processed captured image in response to a pre-processing imaging instruction based on a user operation of the input unit 17. It is possible to execute control for imaging as the data. In this case, in step S17, the imaging control unit 42 can execute control to capture the transparent projection image 130 (still image) when the shutter button of the input unit 17 is pressed.

また、上述の実施形態では、本発明が適用される画像処理装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、撮像機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the image processing apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having an imaging function. Specifically, for example, the present invention can be applied to a notebook personal computer, a television receiver, a video camera, a portable navigation device, a mobile phone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図5の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像処理装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 5 is merely an example, and is not particularly limited. That is, it is sufficient that the image processing apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG. .
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. The recording medium etc. provided in The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which a program is recorded, the hard disk included in the storage unit 20 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
入力される画像信号に応じた投影画像を投影手段により投影対象に向けて投影させる制御を実行する投影制御手段と、
撮像手段により撮像された画像であって、前記投影手段により投影画像が投影されている前記投影対象と、前記投影手段からみて前記投影対象より手前に位置する被写体とが含まれる画像を取得する画像取得手段と、
前記撮像手段により撮像された撮像画像から、前記被写体の領域を検出する被写体検出手段と、
前記被写体検出手段により検出された被写体の領域に対して所定の画像処理を、前記投影手段により投影される投影画像を対象に行う投影画像処理手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記投影画像処理手段は、前記投影画像中の前記被写体の領域に対する所定領域については、前記入力される画像信号に応じた画像を投影しない透明化の画像処理を行う
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記投影画像処理手段は、前記投影画像中の前記所定領域の画像を色つき半透明化とする画像処理を行う
ことを特徴とする付記2に記載の画像処理装置。
[付記4]
前記被写体検出手段は、前記投影手段から前記投影対象までの距離が短い対象を被写体の形状として検出する
ことを特徴とする付記1に記載の画像処理装置。
[付記5]
前記被写体検出手段は、前記投影画像と前記撮像画像とで画像が異なる領域を被写体の形状として検出する
ことを特徴とする付記1に記載の画像処理装置。
[付記6]
被写体を特定する画像を記憶する記憶手段と、
前記撮像画像に含まれる被写体と、前記記憶手段に記憶されている前記画像に含まれる被写体とが略一致するか否かを判別する判別手段と、
をさらに備え、
前記投影画像処理手段は、前記判別手段により略一致すると判別された場合に、前記投影画像中の前記該当領域の画像を透明化する画像処理を行う
ことを特徴とする付記1、4又は5のうち何れか1つに記載の画像処理装置。
[付記7]
前記記憶手段は、前記被写体を特定する画像に関連する該被写体の画像をさらに記憶し、
前記投影画像処理手段は、前記被写体検出手段により該被写体の形状が検出された場合に、前記投影制御手段により投影される画像中の該当領域の画像を、前記記憶手段に記憶されている前記被写体の画像に置き換える
ことを特徴とする付記6に記載の画像処理装置。
[付記8]
前記記憶手段は、前記被写体を特定する画像に関連付けて優先度をさらに記憶し、
前記投影画像処理手段は、前記被写体検出手段により該被写体の形状が複数検出された場合に、前記優先度に応じて各該当領域の画像の透明度を可変する画像処理を実行する
ことを特徴とする付記6に記載の画像処理装置。
[付記9]
前記撮像画像の前記被写体が前記投影画像の一部と略一致するか否かを判別する判別手段をさらに備え、
前記被写体検出手段は、前記判別手段により前記被写体が前記投影画像の一部と略一致すると判別された場合に、前記撮像画像から該被写体の形状を検出する
ことを特徴とする付記1、2、3又は5のうち何れか1つに記載の画像処理装置。
[付記10]
前記画像取得手段は、前記投影画像処理手段により画像処理が行われた投影画像が投影された前記投影対象を前記被写体が撮像された画像と共に取得する
ことを特徴とする付記1乃至9のうち何れか1つに記載の画像処理装置。
[付記11]
前記被写体検出手段は、前記撮像画像が動画像である場合に、前記被写体を追尾することで該被写体の形状を検出する
ことを特徴とする付記10に記載の画像処理装置。
[付記12]
前記投影手段により投影画像が投影されている前記投影対象と、前記被写体と、を前記撮像手段により撮像させる制御を実行する撮像制御手段と、
前記投影制御手段により制御されて前記投影対象に前記投影画像を投影する投影手段と、
前記撮像制御手段により制御されて前記投影対象及び前記被写体を撮像する撮像手段と、
を備えることを特徴とする付記1乃至11のうち何れか1つに記載の画像処理装置。
[付記13]
所定の画像処理を行う投影画像処理手段が実行する画像処理方法であって、
入力される画像信号に応じた投影画像を投影手段により投影対象に向けて投影させる制御を実行する投影制御ステップと、
撮像手段により撮像された画像であって、前記投影手段により投影画像が投影されている前記投影対象と、前記投影手段からみて前記投影対象より手前に位置する被写体とが含まれる画像を取得する画像取得ステップと、
前記撮像手段により撮像された撮像画像から、前記被写体の領域を検出する被写体検出ステップと、
前記被写体検出ステップにより検出された被写体の領域に対して所定の画像処理を、前記投影手段により投影される投影画像を対象に行う投影画像処理ステップと、
を含むことを特徴とする画像処理方法。
[付記14]
所定の画像処理を行う投影画像処理手段が実行するコンピュータに、
入力される画像信号に応じた投影画像を投影手段により投影対象に向けて投影させる制御を実行する投影制御手段と、
撮像手段により撮像された画像であって、前記投影手段により投影画像が投影されている前記投影対象と、前記投影手段からみて前記投影対象より手前に位置する被写体とが含まれる画像を取得する画像取得手段と、
前記撮像手段により撮像された撮像画像から、前記被写体の領域を検出する被写体検出手段と、
前記被写体検出手段により検出された被写体の領域に対して所定の画像処理を、前記投影手段により投影される投影画像を対象に行う投影画像処理手段と、
を実行させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Projection control means for executing control for projecting a projection image according to an input image signal onto a projection target by the projection means;
An image acquired by an imaging unit, which acquires an image including the projection target onto which a projection image is projected by the projection unit and a subject positioned in front of the projection target as viewed from the projection unit Acquisition means;
Subject detection means for detecting a region of the subject from a captured image captured by the imaging means;
A projection image processing unit that performs predetermined image processing on a region of the subject detected by the subject detection unit, and a projection image projected by the projection unit;
An image processing apparatus comprising:
[Appendix 2]
The supplementary image 1 is characterized in that the projection image processing means performs a transparent image processing that does not project an image according to the input image signal for a predetermined region with respect to the region of the subject in the projection image. The image processing apparatus described.
[Appendix 3]
The image processing apparatus according to appendix 2, wherein the projection image processing means performs image processing for rendering the image of the predetermined area in the projection image semi-transparent with color.
[Appendix 4]
The image processing apparatus according to appendix 1, wherein the subject detection unit detects an object having a short distance from the projection unit to the projection target as a shape of the subject.
[Appendix 5]
The image processing apparatus according to appendix 1, wherein the subject detection unit detects a region where the projected image and the captured image are different from each other as a shape of the subject.
[Appendix 6]
Storage means for storing an image for specifying a subject;
Determining means for determining whether or not a subject included in the captured image and a subject included in the image stored in the storage means substantially match;
Further comprising
The projection image processing means performs image processing for making the image of the corresponding area in the projection image transparent when it is determined that the projection means substantially matches. The image processing apparatus according to any one of the above.
[Appendix 7]
The storage means further stores an image of the subject related to an image specifying the subject,
The projection image processing means stores the image of the corresponding area in the image projected by the projection control means when the subject detection means detects the shape of the subject, and stores the subject in the storage means The image processing apparatus according to appendix 6, wherein the image processing apparatus replaces the image with the image.
[Appendix 8]
The storage means further stores a priority in association with an image specifying the subject,
The projection image processing means executes image processing for changing the transparency of the image of each corresponding area according to the priority when a plurality of shapes of the subject are detected by the subject detection means. The image processing apparatus according to appendix 6.
[Appendix 9]
A discriminator for discriminating whether or not the subject of the captured image substantially matches a part of the projection image;
The subject detection unit detects the shape of the subject from the captured image when the determination unit determines that the subject substantially matches a part of the projection image. The image processing apparatus according to any one of 3 and 5.
[Appendix 10]
Any one of Supplementary notes 1 to 9, wherein the image acquisition unit acquires the projection target onto which the projection image subjected to the image processing by the projection image processing unit is projected together with an image of the subject imaged. The image processing apparatus according to claim 1.
[Appendix 11]
The image processing apparatus according to appendix 10, wherein the subject detection unit detects the shape of the subject by tracking the subject when the captured image is a moving image.
[Appendix 12]
An imaging control unit that executes control to cause the imaging unit to image the projection target on which a projection image is projected by the projection unit and the subject;
Projection means controlled by the projection control means to project the projection image onto the projection target;
Imaging means controlled by the imaging control means to image the projection target and the subject;
The image processing apparatus according to any one of supplementary notes 1 to 11, further comprising:
[Appendix 13]
An image processing method executed by a projection image processing means for performing predetermined image processing,
A projection control step for executing control for projecting a projection image corresponding to the input image signal toward the projection target by the projection unit;
An image acquired by an imaging unit, which acquires an image including the projection target onto which a projection image is projected by the projection unit and a subject positioned in front of the projection target as viewed from the projection unit An acquisition step;
A subject detection step of detecting a region of the subject from a captured image captured by the imaging means;
A projection image processing step of performing predetermined image processing on a region of the subject detected by the subject detection step, on a projection image projected by the projection unit;
An image processing method comprising:
[Appendix 14]
In a computer executed by the projection image processing means for performing predetermined image processing,
Projection control means for executing control for projecting a projection image according to an input image signal onto a projection target by the projection means;
An image acquired by an imaging unit, which acquires an image including the projection target onto which a projection image is projected by the projection unit and a subject positioned in front of the projection target as viewed from the projection unit Acquisition means;
Subject detection means for detecting a region of the subject from a captured image captured by the imaging means;
A projection image processing unit that performs predetermined image processing on a region of the subject detected by the subject detection unit, and a projection image projected by the projection unit;
A program characterized by having executed.

1・・・画像処理装置11・・・CPU、12・・・ROM、13・・・RAM、14・・・バス、15・・・入出力インターフェース、16・・・出力部、17・・・入力部、18・・・撮像部、19・・・投影部、20・・・記憶部、21・・・通信部、22・・・ドライブ、31・・・リムーバブルメディア、41・・・投影制御部、42・・・撮像制御部、43・・・画像取得部、44・・・被写体検出部、45・・・判別部、46・・・投影画像処理部   DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... Input / output interface, 16 ... Output part, 17 ... Input unit, 18 ... imaging unit, 19 ... projection unit, 20 ... storage unit, 21 ... communication unit, 22 ... drive, 31 ... removable media, 41 ... projection control , 42... Imaging control unit, 43... Image acquisition unit, 44... Subject detection unit, 45.

Claims (9)

入力される画像信号に応じた投影画像を投影手段により投影対象に向けて投影させる制御を実行する投影制御手段と、
撮像手段により撮像された撮像画像であって、前記投影手段により投影画像が投影されている前記投影対象と、前記投影手段からみて前記投影対象より手前に位置する被写体とが含まれる撮像画像から、前記被写体領域を検出する被写体検出手段と、
被写体の顔を判別するための画像を記憶する記憶手段と、
前記被写体検出手段により検出された被写体の顔領域に含まれるデータと、前記記憶手段に記憶されている画像に含まれるデータと、が略一致するか否かを判別する判別手段と、
前記判別手段により略一致すると判別された場合にのみ、前記検出された被写体領域に対して所定の画像処理を、前記投影手段により投影される投影画像を対象に行う投影画像処理手段と、
を備えることを特徴とする画像処理装置。
Projection control means for executing control for projecting a projection image according to an input image signal onto a projection target by the projection means;
From the captured image captured by the imaging unit, including the projection target on which the projection image is projected by the projection unit, and a subject positioned in front of the projection target as viewed from the projection unit, a subject detecting means for detecting a face area of the subject,
Storage means for storing an image for determining the face of the subject;
A discriminating unit for discriminating whether or not the data included in the face area of the subject detected by the subject detecting unit and the data included in the image stored in the storage unit substantially match ;
Only when it is determined that substantially coincides with the discriminating means, the projection image before dangerous out the image processing of the Jo Tokoro with respect face area of the object, performs the subject projected image projected by the projection means Processing means;
An image processing apparatus comprising:
前記被写体検出手段は、前記投影画像と前記撮像画像とで画像が異なる領域を被写体形状として検出し、その検出した被写体の形状から更に被写体の顔領域を検出する
ことを特徴とする請求項1に記載の画像処理装置。
The object detection means according to claim 1 in which the image in said projection image and the captured image to detect the different areas as the shape of the object, and detects the face area of the further object from the shape of the detected object the image processing apparatus according to.
前記投影画像処理手段は、前記投影画像中の前記被写体領域に対する所定領域については、前記入力される画像信号に応じた画像を透明化する画像処理を行う
ことを特徴とする請求項1又は2に記載の画像処理装置。
The projection image processing means, for a predetermined region on the facial area of the subject in the projection image, claim 1, characterized in that performing the image processing of clearing the image corresponding to the image signal to be the input or 2. The image processing apparatus according to 2.
前記記憶手段は、被写体の顔判別するための画像に関連する被写体画像をに記憶し、
前記投影画像処理手段は、前記投影制御手段により投影される画像中の前記検出された被写体領域の画像を、前記記憶手段に記憶されている被写体画像に置き換える
ことを特徴とする請求項1又は2に記載の画像処理装置。
The storage means may further store a face image of an object associated with the image to determine the face of a subject,
The projection image processing means replaces an image of the detected face area of the subject in the image projected by the projection control means with a face image of the subject stored in the storage means. Item 3. The image processing apparatus according to Item 1 or 2 .
前記記憶手段は、被写体の顔判別するための画像に関連付けて優先度をに記憶し、
前記撮像画像に含まれる被写体が複数である場合に、前記被写体検出手段は、当該複数の被写体各々の領域を検出するとともに、前記判別手段は、前記検出された複数の被写体の顔領域に含まれるデータ各々と、前記記憶手段に記憶されている画像に含まれるデータと、が略一致するか否かを判別し、
前記投影画像処理手段は、前記判別手段により略一致すると判別された被写体が複数である場合に、当該略一致すると判別された被写体領域各々の透明度を、前記優先度に応じて可変する画像処理を行う
ことを特徴とする請求項に記載の画像処理装置。
The storage means may further store the priority in association with the image to determine the face of a subject,
When there are a plurality of subjects included in the captured image, the subject detection unit detects a face area of each of the plurality of subjects , and the determination unit includes the face region of the plurality of detected subjects. Each of the data to be recorded and whether or not the data included in the image stored in the storage means substantially match ,
When there are a plurality of subjects that are determined to be substantially the same by the determination unit, the projection image processing unit can change the transparency of each face area of the subject that is determined to be approximately the same according to the priority. The image processing apparatus according to claim 2 , wherein the image processing is performed.
前記被写体検出手段は、前記撮像画像が動画像である場合に、前記被写体を追尾することで被写体領域を検出する
ことを特徴とする請求項1乃至のうち何れか1項に記載の画像処理装置。
The subject detection unit, when the captured image is a moving image, in any one of claims 1 to 5, characterized in that to detect the face region of the person the subject by tracking the subject The image processing apparatus described.
記投影手段により投影画像が投影されている前記投影対象と、前記被写体と、を前記撮像手段により撮像させる制御を実行する撮像制御手段と、
前記投影制御手段により制御されて前記投影対象に前記投影画像を投影する投影手段と、
前記撮像制御手段により制御されて前記投影対象及び前記被写体を撮像する撮像手段と、
更に備え、
前記投影制御手段は、更に、前記投影画像処理手段により前記所定の画像処理が行われた投影画像を前記投影手段により投影対象に向けて投影させる制御を実行し、
前記撮像制御手段は、更に、前記投影画像処理手段により前記所定の画像処理が行われた投影画像が前記投影手段により投影されている前記投影対象と、前記被写体と、を記録用の撮像画像として、前記撮像手段により撮像させる制御を実行し、
前記撮像制御手段、前記投影制御手段、前記被写体検出手段、前記判別手段及び前記投影画像処理手段は、所定の指示操作に応じて処理を実行する
ことを特徴とする請求項1乃至6のうち何れか1項に記載の画像処理装置。
And imaging control means for performing control to imaging by the imaging means and the projection target that projection image is projected by the previous SL projection means, wherein the subject, and
Projection means controlled by the projection control means to project the projection image onto the projection target;
Imaging means controlled by the imaging control means to image the projection target and the subject;
Further comprising
The projection control unit further executes control for projecting the projection image on which the predetermined image processing has been performed by the projection image processing unit toward a projection target by the projection unit,
The imaging control unit may further use the projection target on which the projection image subjected to the predetermined image processing by the projection image processing unit is projected by the projection unit and the subject as a captured image for recording. , Execute control for imaging by the imaging means,
Said imaging control unit, said projection control means, the object detecting means, said discriminating means and the projection image processing section, any one of claims 1 to 6, characterized in that executes processing in response to a predetermined instruction operation The image processing apparatus according to claim 1.
入力される画像信号に応じた投影画像を投影手段により投影対象に向けて投影させる制御を実行する投影制御処理と、
撮像手段により撮像された撮像画像であって、前記投影手段により投影画像が投影されている前記投影対象と、前記投影手段からみて前記投影対象より手前に位置する被写体とが含まれる撮像画像から、前記被写体領域を検出する被写体検出処理と、
前記被写体検出処理で検出された被写体の顔領域に含まれるデータと、記憶手段に記憶されている被写体の顔を判別するための画像に含まれるデータと、が略一致するか否かを判別する判別処理と、
前記判別処理で略一致すると判別された場合にのみ、前記検出された被写体領域に対して所定の画像処理を、前記投影手段により投影される投影画像を対象に行う投影画像処理と、
を含むことを特徴とする画像処理方法。
A projection control process for executing a control for projecting a projection image according to an input image signal toward a projection target by a projection unit;
From the captured image captured by the imaging unit, including the projection target on which the projection image is projected by the projection unit, and a subject positioned in front of the projection target as viewed from the projection unit, and the subject detection processing for detecting a face area of the subject,
The determination and the subject detection processing Ru contained in the detected face area of the subject are in data, and data included in the image to determine the face of a subject stored in the storage means, but whether substantially coincides Discriminating process to perform,
Only when it is determined that substantially coincides with the determination process, projected images before dangerous out the image processing of the Jo Tokoro with respect face area of the object, performs the subject projected image projected by the projection means Processing,
An image processing method comprising:
コンピュータに、
入力される画像信号に応じた投影画像を投影手段により投影対象に向けて投影させる制御を実行する投影制御機能と、
撮像手段により撮像された撮像画像であって、前記投影手段により投影画像が投影されている前記投影対象と、前記投影手段からみて前記投影対象より手前に位置する被写体とが含まれる撮像画像から、前記被写体領域を検出する被写体検出機能と、
前記被写体検出機能により検出された被写体の顔領域に含まれるデータと、記憶手段に記憶されている被写体の顔を判別するための画像に含まれるデータと、が略一致するか否かを判別する判別機能と、
前記判別機能により略一致すると判別された場合にのみ、前記被写体検出機能により検出された被写体領域に対して所定の画像処理を、前記投影手段により投影される投影画像を対象に行う投影画像処理機能と、
を実現させることを特徴とするプログラム。
On the computer,
A projection control function for executing a control for projecting a projection image corresponding to an input image signal toward a projection target by a projection unit;
From the captured image captured by the imaging unit, including the projection target on which the projection image is projected by the projection unit, and a subject positioned in front of the projection target as viewed from the projection unit, and the object detecting function of detecting a face area of the subject,
Determination and data that are Ru included in the face region of the object detected, the data included in the image to determine the face of a subject stored in the storage means, but whether substantially coincides with the object detection function Discriminating function, and
The determination function by only if it is determined that substantially coincides, performs the constant image processing Tokoro with respect face area of the subject detected by the subject detection function, the target projection image projected by the projection means Projected image processing function,
A program characterized by realizing.
JP2012178516A 2012-08-10 2012-08-10 Image processing apparatus, image processing method, and program Active JP6460510B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012178516A JP6460510B2 (en) 2012-08-10 2012-08-10 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012178516A JP6460510B2 (en) 2012-08-10 2012-08-10 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2014035756A JP2014035756A (en) 2014-02-24
JP6460510B2 true JP6460510B2 (en) 2019-01-30

Family

ID=50284692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012178516A Active JP6460510B2 (en) 2012-08-10 2012-08-10 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6460510B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6428665B2 (en) * 2016-02-10 2018-11-28 三菱電機株式会社 Aerial video display
JP7452506B2 (en) * 2021-09-22 2024-03-19 カシオ計算機株式会社 Projection processing device, projection device, projection system, program and projection method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010034820A (en) * 2008-07-29 2010-02-12 Seiko Epson Corp Projector, control method of projector, and control program
JP5446035B2 (en) * 2009-04-16 2014-03-19 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
JP5484994B2 (en) * 2010-04-06 2014-05-07 オリンパスイメージング株式会社 Facial image synthesis device, facial image synthesis method, and program
JP2012027302A (en) * 2010-07-26 2012-02-09 Nikon Corp Imaging apparatus with projection function

Also Published As

Publication number Publication date
JP2014035756A (en) 2014-02-24

Similar Documents

Publication Publication Date Title
KR101679290B1 (en) Image processing method and apparatus
US9521310B2 (en) Method and apparatus for focusing on subject in digital image processing device
JP4852652B2 (en) Electronic zoom device, electronic zoom method, and program
KR102597518B1 (en) An electronic dievice applying bokeh effect to image and controlling method thereof
JP2010086336A (en) Image control apparatus, image control program, and image control method
JP2013070164A (en) Imaging device and imaging method
US10958825B2 (en) Electronic apparatus and method for controlling the same
KR20100075167A (en) Apparatus and method for capturing digital image using face recognition function
KR20110089655A (en) Apparatus and method for capturing digital image for guiding photo composition
JP5911227B2 (en) Determination apparatus, determination method, and program
JP2009223835A (en) Photographing device, image processor, and image processing method and program therefor
JP6460510B2 (en) Image processing apparatus, image processing method, and program
JP4807170B2 (en) Pattern detection method, pattern detection program, pattern detection apparatus, and imaging apparatus
JP2014021901A (en) Object detection device, object detection method and program
JP4702015B2 (en) Image display apparatus and program
JP2018007082A (en) Image reproduction device, control method therefor, and program
JP2008211534A (en) Face detecting device
JP2017037375A (en) Imaging apparatus and control method thereof
JP2011211757A (en) Electronic zoom apparatus, electronic zoom method, and program
JP5383207B2 (en) Information processing apparatus, control method, computer program, and storage medium
JP2010041629A (en) Imaging device and controlling method and program
JP6507747B2 (en) INFORMATION PROCESSING APPARATUS, CONTENT DETERMINING METHOD, AND PROGRAM
US20100166311A1 (en) Digital image processing apparatus and method of controlling the same
JP5896781B2 (en) Image processing apparatus and image processing method
JP2013157675A (en) Imaging device, method for controlling the same, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160629

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170215

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170223

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20170324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181221

R150 Certificate of patent or registration of utility model

Ref document number: 6460510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150