JP7056003B2 - Image processing equipment, image processing methods and programs - Google Patents

Image processing equipment, image processing methods and programs Download PDF

Info

Publication number
JP7056003B2
JP7056003B2 JP2017051196A JP2017051196A JP7056003B2 JP 7056003 B2 JP7056003 B2 JP 7056003B2 JP 2017051196 A JP2017051196 A JP 2017051196A JP 2017051196 A JP2017051196 A JP 2017051196A JP 7056003 B2 JP7056003 B2 JP 7056003B2
Authority
JP
Japan
Prior art keywords
unit
organ
face
region
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017051196A
Other languages
Japanese (ja)
Other versions
JP2018156246A (en
Inventor
荘介 下山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017051196A priority Critical patent/JP7056003B2/en
Publication of JP2018156246A publication Critical patent/JP2018156246A/en
Application granted granted Critical
Publication of JP7056003B2 publication Critical patent/JP7056003B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、人を撮影して得られた画像に画像処理を行う技術に関する。 The present invention relates to a technique for performing image processing on an image obtained by photographing a person.

人を撮影して得られた画像に各種の補正処理を行うことにより、被写体の人を美しく見せる画像を生成する技術が用いられている。特許文献1には、画像中の顔領域を検出し、検出した顔領域に対して美肌処理(補正処理)を行うことにより、被写体の人を美しく見せる画像を生成する装置が開示されている。 A technique is used to generate an image that makes a person look beautiful by performing various correction processes on an image obtained by photographing a person. Patent Document 1 discloses a device that detects a face region in an image and performs skin-beautifying treatment (correction treatment) on the detected face region to generate an image that makes the subject person look beautiful.

特開2012-3324号公報Japanese Unexamined Patent Publication No. 2012-3324

しかしながら、画像中の顔領域の特徴量に基づいて、この顔領域に対して美肌処理等の処理を行う構成では、画像全体又は顔領域の色味、輝度等が良好でない撮像画像に基づくと適切な処理を行うことができない虞がある。 However, in a configuration in which processing such as skin beautification is performed on the face region based on the feature amount of the face region in the image, it is appropriate to use the captured image in which the color, brightness, etc. of the entire image or the face region are not good. There is a risk that various processing cannot be performed.

本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、画像に基づく処理を適切に行うことができる撮像画像を生成することが可能な画像処理装置等を提供することにある。 The present invention has been made in view of such circumstances, and an object thereof is to provide an image processing apparatus capable of generating an captured image capable of appropriately performing image-based processing. To do.

本発明の一態様に係る画像処理装置は、人の撮像画像に画像処理を行う画像処理装置において、人の顔の所定器官における画像に係る目標値を記憶する記憶部と、撮像画像から人の顔領域を検出する顔検出部と、該顔検出部が検出した顔領域から前記所定器官の領域を検出する器官検出部と、該器官検出部が検出した所定器官の領域における特徴量を特定する特徴量特定部と、該特徴量特定部が特定した特徴量を、前記記憶部に記憶してある目標値に補正するための補正関数を生成する補正関数生成部と、前記補正関数生成部が生成した補正関数を用いて、前記撮像画像に含まれる人の衣類領域を補正する補正部と、前記補正部が補正した前記撮像画像に含まれる人の衣類領域に基づいて、前記撮像画像に含まれる人に出力する会話内容を特定するために前記人の印象を特定する印象特定部とを備えることを特徴とする。 The image processing apparatus according to one aspect of the present invention is an image processing apparatus that performs image processing on a captured image of a person, a storage unit that stores a target value related to an image in a predetermined organ of the human face, and a storage unit that stores the target value of the image in a predetermined organ of the human face, and a human image from the captured image. A face detection unit that detects a face region, an organ detection unit that detects a region of the predetermined organ from the face region detected by the face detection unit, and a feature amount in the region of the predetermined organ detected by the organ detection unit are specified. The feature amount specifying unit, the correction function generation unit that generates a correction function for correcting the feature amount specified by the feature amount specifying unit to the target value stored in the storage unit, and the correction function generation unit. It is included in the captured image based on the correction unit that corrects the clothing area of the person included in the captured image by using the generated correction function and the clothing area of the person included in the captured image corrected by the correction unit. It is characterized by including an impression specifying unit for specifying the impression of the person in order to specify the conversation content to be output to the person .

本発明の一態様に係る画像処理方法は、人の撮像画像に画像処理を行う画像処理装置による画像処理方法において、前記画像処理装置が、撮像画像から人の顔領域を検出し、検出した顔領域から顔の所定器官の領域を検出し、検出した所定器官の領域における特徴量を特定し、特定した特徴量を、記憶部に記憶してある人の顔の所定器官における画像に係る目標値に補正するための補正関数を生成し、生成した補正関数を用いて、前記撮像画像に含まれる人の衣類領域を補正し、補正した前記撮像画像に含まれる人の衣類領域に基づいて、前記撮像画像に含まれる人に出力する会話内容を特定するために前記人の印象を特定することを特徴とする。 The image processing method according to one aspect of the present invention is an image processing method using an image processing device that performs image processing on a captured image of a person, wherein the image processing device detects a human face region from the captured image and detects the face. The area of the predetermined organ of the face is detected from the area, the feature amount in the detected predetermined organ area is specified, and the specified feature amount is stored in the storage unit. A correction function for correcting the image is generated, and the generated correction function is used to correct the clothing area of the person included in the captured image, and the correction function is used to correct the clothing area of the person included in the captured image. It is characterized in that the impression of the person is specified in order to specify the conversation content to be output to the person included in the captured image .

本発明の一態様に係るプログラムは、人の顔の所定器官における画像に係る目標値を記憶する記憶部を有するコンピュータに、人の撮像画像を処理させるためのプログラムであって、前記コンピュータに、撮像画像から人の顔領域を検出し、検出した顔領域から前記所定器官の領域を検出し、検出した所定器官の領域における特徴量を特定し、特定した特徴量を、前記記憶部に記憶してある目標値に補正するための補正関数を生成し、生成した補正関数を用いて、前記撮像画像に含まれる人の衣類領域を補正し、補正した前記撮像画像に含まれる人の衣類領域に基づいて、前記撮像画像に含まれる人に出力する会話内容を特定するために前記人の印象を特定する処理を実行させることを特徴とする。 The program according to one aspect of the present invention is a program for causing a computer having a storage unit for storing a target value related to an image in a predetermined organ of a human face to process a captured image of a person. A human face region is detected from the captured image, a region of the predetermined organ is detected from the detected face region, a feature amount in the detected predetermined organ region is specified, and the specified feature amount is stored in the storage unit. A correction function for correcting to a certain target value is generated, and the generated correction function is used to correct the clothing area of the person included in the captured image, and to the clothing area of the person included in the corrected image. Based on this, it is characterized in that a process for specifying the impression of the person is executed in order to specify the conversation content to be output to the person included in the captured image .

本発明の一態様にあっては、画像に基づく処理を適切に行うことが可能な撮像画像を生成することができる。 In one aspect of the present invention, it is possible to generate a captured image capable of appropriately performing image-based processing.

実施形態1に係るコンピュータの構成例を示すブロック図である。It is a block diagram which shows the configuration example of the computer which concerns on Embodiment 1. FIG. 制御部によって実現される機能を示すブロック図である。It is a block diagram which shows the function realized by the control part. 制御部が行う処理の説明図である。It is explanatory drawing of the process performed by a control unit. コンピュータが行う処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a process performed by a computer. 実施形態2のコンピュータの制御部によって実現される機能を示すブロック図である。It is a block diagram which shows the function realized by the control part of the computer of Embodiment 2. 実施形態2のコンピュータの制御部が行う処理の説明図である。It is explanatory drawing of the process performed by the control unit of the computer of Embodiment 2. 実施形態2のコンピュータが行う処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process performed by the computer of Embodiment 2. 実施形態3に係るロボットの模式図である。It is a schematic diagram of the robot which concerns on Embodiment 3. 実施形態3に係るロボットの構成例を示すブロック図である。It is a block diagram which shows the structural example of the robot which concerns on Embodiment 3. 実施形態3のコンピュータの制御部によって実現される機能を示すブロック図である。It is a block diagram which shows the function realized by the control part of the computer of Embodiment 3. FIG. 実施形態3のコンピュータが行う処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which the computer of Embodiment 3 performs.

以下、図面を用いて、実施の形態を具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.

(実施形態1)
図1は、実施形態1に係るコンピュータの構成例を示すブロック図である。
コンピュータ1は、例えばパーソナルコンピュータ、スマートフォン、タブレット端末等である。コンピュータ1は、制御部10、記憶部11、操作部12、表示部13及びカメラ接続部14等を含み、これらの各部はバスを介して相互に接続されている。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration example of a computer according to the first embodiment.
The computer 1 is, for example, a personal computer, a smartphone, a tablet terminal, or the like. The computer 1 includes a control unit 10, a storage unit 11, an operation unit 12, a display unit 13, a camera connection unit 14, and the like, and each of these units is connected to each other via a bus.

制御部10は、CPU(Central Processing Unit)又はMPU(Micro-Processing Unit)等のプロセッサを含む。制御部10は、記憶部11に記憶してある制御プログラムを適宜実行することにより、コンピュータ1が行う種々の制御処理を行う。
記憶部11は、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部11は、制御部10が実行する制御プログラム(例えば、画像処理プログラム11a)及び各種のデータ(例えば、目標値データ11b)等を予め記憶している。また記憶部11は、制御部10が制御プログラムを実行する際に発生するデータ等を一時的に記憶する。
The control unit 10 includes a processor such as a CPU (Central Processing Unit) or an MPU (Micro-Processing Unit). The control unit 10 performs various control processes performed by the computer 1 by appropriately executing the control program stored in the storage unit 11.
The storage unit 11 includes a flash memory, a hard disk, an SSD (Solid State Drive), and the like. The storage unit 11 stores in advance a control program (for example, an image processing program 11a) executed by the control unit 10 and various data (for example, target value data 11b). Further, the storage unit 11 temporarily stores data and the like generated when the control unit 10 executes the control program.

操作部12は、例えばキーボード、マウス等を含み、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部10へ送出する。
表示部13は、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等を含み、制御部10からの指示に従って各種の情報を表示する。
操作部12及び表示部13は、一体として構成されたタッチパネルとすることもできる。
The operation unit 12 includes, for example, a keyboard, a mouse, and the like, receives an operation input by the user, and sends a control signal corresponding to the operation content to the control unit 10.
The display unit 13 includes, for example, a liquid crystal display, an organic EL (Electro Luminescence) display, and the like, and displays various information according to instructions from the control unit 10.
The operation unit 12 and the display unit 13 may be a touch panel configured as an integral body.

カメラ接続部14には、例えばケーブルを介してカメラ14aが接続される。カメラ14aは、静止画データ又は動画データ等の画像データを取得し、取得した画像データをコンピュータ1へ出力する。コンピュータ1の制御部10は、カメラ14aから出力された画像データ(以下では、撮像画像という)をカメラ接続部14を介して取得し、記憶部11に記憶させる。
なお、カメラ14aとコンピュータ1とは無線通信できるように構成されていてもよく、また、カメラ14aはコンピュータ1に内蔵された構成でもよい。
A camera 14a is connected to the camera connection portion 14 via, for example, a cable. The camera 14a acquires image data such as still image data or moving image data, and outputs the acquired image data to the computer 1. The control unit 10 of the computer 1 acquires the image data (hereinafter referred to as a captured image) output from the camera 14a via the camera connection unit 14 and stores it in the storage unit 11.
The camera 14a and the computer 1 may be configured to be capable of wireless communication, or the camera 14a may be configured to be built in the computer 1.

実施形態1のコンピュータ1は、上述した構成のほかに、インターネット等のネットワークに接続するための通信部を備えていてもよい。
実施形態1では、コンピュータ1に、本願のプログラムである画像処理プログラム11aをインストールし、制御部10が画像処理プログラム11aを実行することにより、コンピュータ1が本願の画像処理装置として動作する。
In addition to the above-described configuration, the computer 1 of the first embodiment may include a communication unit for connecting to a network such as the Internet.
In the first embodiment, the image processing program 11a, which is the program of the present application, is installed in the computer 1, and the control unit 10 executes the image processing program 11a, whereby the computer 1 operates as the image processing device of the present application.

次に、コンピュータ1の制御部10が画像処理プログラム11aを実行することによって実現される機能について説明する。図2は、制御部10によって実現される機能を示すブロック図、図3は、制御部10が行う処理の説明図である。コンピュータ1の制御部10は、記憶部11に記憶してある画像処理プログラム11aを実行した場合、顔検出部21、器官検出部22、特徴量特定部23、補正関数生成部24、補正部25の各機能を実現する。なお、本実施形態では、上述した各機能を制御部10が画像処理プログラム11aを実行することにより実現するが、上述した各機能の一部を専用のハードウェア回路で実現してもよい。 Next, the function realized by the control unit 10 of the computer 1 executing the image processing program 11a will be described. FIG. 2 is a block diagram showing a function realized by the control unit 10, and FIG. 3 is an explanatory diagram of processing performed by the control unit 10. When the image processing program 11a stored in the storage unit 11 is executed, the control unit 10 of the computer 1 has a face detection unit 21, an organ detection unit 22, a feature amount identification unit 23, a correction function generation unit 24, and a correction unit 25. Realize each function of. In the present embodiment, each of the above-mentioned functions is realized by the control unit 10 executing the image processing program 11a, but a part of each of the above-mentioned functions may be realized by a dedicated hardware circuit.

顔検出部21は、カメラ接続部14を介してカメラ14aから取得した撮像画像(画像データ)から人の顔領域を検出する。カメラ14aは、例えば被写体の人の全身又は上半身を撮影しており、顔検出部21は、撮像画像に含まれる被写体の人の顔領域を検出する。顔検出部21は、例えばテンプレートマッチング技術によって撮像画像中の顔領域を検出する。具体的には、一般的な人の顔の画像を示すテンプレートが予め記憶部11に記憶されており、顔検出部21は、撮像画像からテンプレートに一致する領域を検出した場合、検出した領域を顔領域として抽出する。
例えば、図3(A)に示す撮像画像では、破線で囲った領域Fが顔領域として検出されている。
The face detection unit 21 detects a human face region from the captured image (image data) acquired from the camera 14a via the camera connection unit 14. The camera 14a captures, for example, the whole body or the upper body of the subject person, and the face detection unit 21 detects the face region of the subject person included in the captured image. The face detection unit 21 detects a face region in a captured image by, for example, a template matching technique. Specifically, a template showing an image of a general human face is stored in the storage unit 11 in advance, and when the face detection unit 21 detects a region matching the template from the captured image, the detected region is stored. Extract as a face area.
For example, in the captured image shown in FIG. 3A, the region F surrounded by the broken line is detected as the face region.

器官検出部22は、顔検出部21が検出した顔領域から所定器官の領域を検出する。所定器官は、例えば白目、歯、鼻、頬であり、器官検出部22は、顔領域中の白目、歯、鼻及び頬の領域を検出する。器官検出部22は、例えばテンプレートマッチング技術によって各器官の領域を検出する。具体的には、一般的な人の各器官(白目、歯、鼻及び頬)の画像を示すテンプレートが予め記憶部11に記憶されており、器官検出部22は、顔領域からテンプレートに一致する領域を検出した場合、検出した領域を各器官の領域として抽出する。
例えば、図3(B)に示す顔領域では、実線で囲った領域A1が白目領域として検出され、領域A2が歯領域として検出され、領域A3が頬領域として検出され、領域A4が鼻領域として検出されている。
The organ detection unit 22 detects a region of a predetermined organ from the face region detected by the face detection unit 21. The predetermined organs are, for example, white eyes, teeth, nose, and cheeks, and the organ detection unit 22 detects white eyes, teeth, nose, and cheek areas in the facial area. The organ detection unit 22 detects the region of each organ by, for example, a template matching technique. Specifically, a template showing an image of each organ (white eyes, teeth, nose and cheeks) of a general person is stored in advance in the storage unit 11, and the organ detection unit 22 matches the template from the face area. When a region is detected, the detected region is extracted as the region of each organ.
For example, in the face region shown in FIG. 3B, the region A1 surrounded by a solid line is detected as a white eye region, the region A2 is detected as a tooth region, the region A3 is detected as a cheek region, and the region A4 is detected as a nose region. It has been detected.

なお、器官検出部22は、予めテンプレートが用意された全ての器官の領域を検出する必要はなく、少なくとも1つの器官の領域を検出すればよい。
また、一般的な人の顔領域に対する各器官の相対位置を示す情報を予め記憶部11に記憶しておき、器官検出部22は、顔検出部21が検出した顔領域に対して、記憶部11に記憶された情報に基づいて各器官の位置及び領域を検出してもよい。
The organ detection unit 22 does not need to detect the regions of all the organs for which the template is prepared in advance, but may detect the regions of at least one organ.
Further, information indicating the relative position of each organ with respect to the face region of a general person is stored in advance in the storage unit 11, and the organ detection unit 22 stores the face region detected by the face detection unit 21. The position and region of each organ may be detected based on the information stored in 11.

特徴量特定部23は、器官検出部22が検出した器官領域における画像の特徴量を特定する。特徴量は、例えば器官領域における代表色及び平均輝度であり、特徴量特定部23は、器官領域に含まれる画像データ(画素値)に基づいて、器官領域の代表色及び平均輝度を算出する。
器官検出部22が複数の器官領域を検出した場合、特徴量特定部23は、各器官領域の代表色及び平均輝度を特定する。そして、特徴量特定部23は、例えば器官毎に設定された重み係数を用いて重み付け加算を行い、複数の器官領域(1つの顔領域)における代表色及び輝度を算出(特定)する。
The feature amount specifying unit 23 specifies the feature amount of the image in the organ region detected by the organ detection unit 22. The feature amount is, for example, the representative color and the average luminance in the organ region, and the feature amount specifying unit 23 calculates the representative color and the average luminance in the organ region based on the image data (pixel value) included in the organ region.
When the organ detection unit 22 detects a plurality of organ regions, the feature amount specifying unit 23 specifies the representative color and the average luminance of each organ region. Then, the feature amount specifying unit 23 performs weighting addition using, for example, a weighting coefficient set for each organ, and calculates (specifies) the representative color and the brightness in a plurality of organ regions (one face region).

補正関数生成部24は、記憶部11から目標値データ11bを読み出し、特徴量特定部23が特定した代表色及び輝度(特徴量)を、記憶部11から読み出した目標値データ11bに補正するための補正関数を生成する。目標値データ11bは、器官検出部22が検出すべき器官領域における目標値のデータであり、器官領域の画像において目標とすべき色及び輝度である。補正関数生成部24は、例えばガンマ補正関数又は線形関数を生成し、ガンマ補正関数を生成する場合はガンマ値を算出し、線形補正関数を生成する場合は係数を算出する。 The correction function generation unit 24 reads the target value data 11b from the storage unit 11 and corrects the representative color and luminance (feature amount) specified by the feature amount specifying unit 23 to the target value data 11b read from the storage unit 11. Generate a correction function for. The target value data 11b is data of the target value in the organ region to be detected by the organ detection unit 22, and is the color and brightness to be targeted in the image of the organ region. The correction function generation unit 24 generates, for example, a gamma correction function or a linear function, calculates a gamma value when generating a gamma correction function, and calculates a coefficient when generating a linear correction function.

補正部25は、補正関数生成部24が生成した補正関数に基づく補正処理を撮像画像に対して行う。なお、補正部25は、補正処理を、撮像画像の全体に対して行う構成でもよいし、顔検出部21が検出(抽出)した顔領域に対してのみ行う構成でもよい。例えば、図3(C)には、補正処理が撮像画像全体に行われた場合の撮像画像を示す。実施形態1では、上述した各部によって、被写体の人の顔における器官の画像情報に基づいて導出された補正関数に基づく補正処理が行われるので、撮像画像全体を適切な色味及び輝度に補正することができる。よって、撮像画像が例えば図3(A)に示すように全体的に暗い場合であっても、上述した補正処理によって、図3(C)に示すような明るい画像に補正できる。
また、制御部10が、顔検出部21が検出した顔領域を含む被写体の人の領域を検出(抽出)する処理を更に行うようにした場合、補正部25は、被写体の人の領域全体に対して補正処理を行う構成とすることもできる。
The correction unit 25 performs correction processing based on the correction function generated by the correction function generation unit 24 on the captured image. The correction unit 25 may be configured to perform correction processing on the entire captured image, or may be configured to perform correction processing only on the face region detected (extracted) by the face detection unit 21. For example, FIG. 3C shows a captured image when the correction process is performed on the entire captured image. In the first embodiment, since the correction processing based on the correction function derived based on the image information of the organ in the human face of the subject is performed by each of the above-mentioned parts, the entire captured image is corrected to an appropriate color and brightness. be able to. Therefore, even if the captured image is dark as a whole as shown in FIG. 3 (A), it can be corrected to a bright image as shown in FIG. 3 (C) by the above-mentioned correction process.
Further, when the control unit 10 further performs a process of detecting (extracting) the area of the person of the subject including the face area detected by the face detection unit 21, the correction unit 25 covers the entire area of the person of the subject. On the other hand, it can be configured to perform correction processing.

次に、コンピュータ1が行う処理について説明する。図4は、コンピュータ1が行う処理の手順を示すフローチャートである。以下の処理は、コンピュータ1の記憶部11に記憶してある制御プログラムに従って制御部10によって実行される。
コンピュータ1が画像処理対象として人の撮像画像を取得した場合、制御部10(顔検出部21)は、取得した撮像画像から人の顔領域を検出する(S1)。撮像画像中に複数の人が含まれている場合、制御部10は、複数の人の顔領域をそれぞれ検出する。
Next, the processing performed by the computer 1 will be described. FIG. 4 is a flowchart showing a procedure of processing performed by the computer 1. The following processing is executed by the control unit 10 according to the control program stored in the storage unit 11 of the computer 1.
When the computer 1 acquires a captured image of a person as an image processing target, the control unit 10 (face detection unit 21) detects a human face region from the acquired captured image (S1). When a plurality of people are included in the captured image, the control unit 10 detects each of the face regions of the plurality of people.

制御部10は、検出した顔領域のうちの1つの顔領域を抽出する(S2)。具体的には、制御部10は、検出した顔領域に含まれる画像データ(画素値)を抽出する。
次に制御部10(器官検出部22)は、ステップS2で抽出された顔領域から所定器官の領域(器官領域)を検出する(S3)。制御部10は、検出した器官領域に含まれる画像データ(画素値)を抽出し(S4)、抽出した画像データに基づいて、抽出した器官領域の特徴量(代表色及び平均輝度)を特定(算出)する(S5)。なお、ステップS3で複数の器官領域を検出した場合、制御部10は、ステップS4で、それぞれの器官領域に含まれる画像データを抽出し、ステップS5で、それぞれの器官領域の特徴量を特定し、それぞれの器官領域の特徴量に基づいて、複数の器官領域(ステップS2で抽出した顔領域)における特徴量を特定(算出)する。
The control unit 10 extracts one of the detected face areas (S2). Specifically, the control unit 10 extracts image data (pixel values) included in the detected face region.
Next, the control unit 10 (organ detection unit 22) detects a region (organ region) of a predetermined organ from the face region extracted in step S2 (S3). The control unit 10 extracts the image data (pixel value) included in the detected organ region (S4), and specifies the feature amount (representative color and average brightness) of the extracted organ region based on the extracted image data (S4). Calculate) (S5). When a plurality of organ regions are detected in step S3, the control unit 10 extracts the image data included in each organ region in step S4, and specifies the feature amount of each organ region in step S5. , The feature amount in a plurality of organ regions (face region extracted in step S2) is specified (calculated) based on the feature amount of each organ region.

制御部10(補正関数生成部24)は、記憶部11から目標値データ11bを読み出し(S6)、ステップS5で特定した特徴量(代表色及び平均輝度)と、目標値データ11bとに基づいて補正関数を生成する(S7)。
そして制御部10(補正部25)は、ステップS7で生成した補正関数に基づいて撮像画像を補正する(S8)。ここでは、例えばステップS2で抽出した顔領域に対して補正処理を行ってもよい。
The control unit 10 (correction function generation unit 24) reads out the target value data 11b from the storage unit 11 (S6), and based on the feature amount (representative color and average luminance) specified in step S5 and the target value data 11b. Generate a correction function (S7).
Then, the control unit 10 (correction unit 25) corrects the captured image based on the correction function generated in step S7 (S8). Here, for example, the correction process may be performed on the face region extracted in step S2.

制御部10は、ステップS2で抽出した顔領域に対して上述した処理を行った場合、ステップS1で検出した顔領域のうちで、上述した処理を行っていない顔領域(未処理領域)が有るか否かを判断する(S9)。未処理領域が有ると判断した場合(S9:YES)、制御部10は、ステップS1で検出した顔領域のうちで未処理の顔領域を1つ抽出し(S2)、抽出した顔領域に対して、ステップS3~S8の処理を行う。
制御部10は、未処理領域が無いと判断した場合(S9:NO)、この撮像画像に対する処理を終了する。
When the control unit 10 performs the above-mentioned processing on the face area extracted in step S2, there is a face area (unprocessed area) in which the above-mentioned processing is not performed among the face areas detected in step S1. It is determined whether or not (S9). When it is determined that there is an unprocessed area (S9: YES), the control unit 10 extracts one unprocessed face area from the face areas detected in step S1 (S2), and with respect to the extracted face area. Then, the processes of steps S3 to S8 are performed.
When the control unit 10 determines that there is no unprocessed area (S9: NO), the control unit 10 ends the processing for this captured image.

上述した処理において、ステップS8の補正処理は、ステップS2で抽出した各顔領域に対してそれぞれ行われるほかに、撮像画像全体に行われてもよい。この場合、例えば、ステップS1で検出した顔領域のそれぞれについてステップS3で検出した器官領域のそれぞれの特徴量から、例えば器官毎に設定された重み係数を用いた重み付け加算によって、この撮像画像としての器官領域の特徴量(代表色及び輝度)を特定(算出)する。そして、特定された特徴量と、目標値データ11bとに基づいて補正関数を生成することにより、撮像画像全体を補正するための補正関数が得られる。 In the above-mentioned processing, the correction processing in step S8 may be performed on the entire captured image in addition to being performed on each face region extracted in step S2. In this case, for example, the feature amount of each of the organ regions detected in step S3 for each of the face regions detected in step S1 is weighted and added using, for example, a weighting coefficient set for each organ to obtain this captured image. Identify (calculate) the feature quantities (representative color and brightness) of the organ region. Then, by generating a correction function based on the specified feature amount and the target value data 11b, a correction function for correcting the entire captured image can be obtained.

上述した実施形態1では、被写体の人の顔における器官の画像情報に基づいて導かれた補正関数を用いて撮像画像が補正される。撮像画像において、人の顔における白目、歯、鼻、頬等の器官の色及び輝度は化粧又は人種等の影響を受けにくく、補正後の目標値(目標とすべき色及び輝度)を設定し易い。よって、撮像画像中の人の白目及び歯等の器官領域における特徴量と、予め設定された目標値とに基づいて補正関数を生成することにより、撮像画像中の器官領域を目標の色及び輝度に近づける補正が可能な補正関数を得ることができる。また、器官領域を目標値に近づける補正が可能な補正関数を用いて撮像画像全体を補正した場合には、撮像画像全体を適切な色及び輝度に補正することができる。即ち、器官領域以外の領域においても、適切な色及び輝度に補正することができる。
よって、適切な色及び輝度に補正された撮像画像を用いることにより、適切な処理を行うことが可能となる。
In the first embodiment described above, the captured image is corrected by using a correction function derived based on the image information of the organ in the human face of the subject. In the captured image, the color and brightness of organs such as white eyes, teeth, nose, and cheeks on the human face are not easily affected by makeup or race, and the corrected target value (color and brightness to be targeted) is set. Easy to do. Therefore, by generating a correction function based on the feature amount in the organ region such as a person's white eyes and teeth in the captured image and the preset target value, the organ region in the captured image is set to the target color and brightness. It is possible to obtain a correction function that can be corrected to approach. Further, when the entire captured image is corrected by using a correction function capable of correcting the organ region closer to the target value, the entire captured image can be corrected to an appropriate color and brightness. That is, it is possible to correct the color and brightness to an appropriate level even in a region other than the organ region.
Therefore, it is possible to perform appropriate processing by using the captured image corrected to an appropriate color and brightness.

(実施形態2)
上述した実施形態1のコンピュータ1の変形例について説明する。実施形態2のコンピュータ1は、上述した実施形態1のコンピュータ1と同様の構成により実現できる。よって、同一の構成については同一の符号を付して説明を省略する。
実施形態2のコンピュータ1において、画像処理プログラム11aが実施形態1と若干異なるので、制御部10が画像処理プログラム11aを実行することにより実現される機能が実施形態1と若干異なる。なお、実施形態1と同一の機能については同一の符号を付して説明を省略する。以下では、実施形態1と異なる機能について説明する。
(Embodiment 2)
A modification of the computer 1 of the first embodiment described above will be described. The computer 1 of the second embodiment can be realized by the same configuration as the computer 1 of the first embodiment described above. Therefore, the same components are designated by the same reference numerals and the description thereof will be omitted.
In the computer 1 of the second embodiment, the image processing program 11a is slightly different from the first embodiment, so that the function realized by the control unit 10 executing the image processing program 11a is slightly different from the first embodiment. The same functions as those in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted. Hereinafter, the functions different from those of the first embodiment will be described.

図5は、実施形態2のコンピュータ1の制御部10によって実現される機能を示すブロック図、図6は、実施形態2のコンピュータ1の制御部10が行う処理の説明図である。
実施形態2のコンピュータ1の制御部10は、記憶部11に記憶してある画像処理プログラム11aを実行した場合、顔検出部21、器官検出部22、特徴量特定部23、補正関数生成部24、補正部25のほかに、衣服領域抽出部26及び印象特定部27の各機能を実現する。顔検出部21、器官検出部22、特徴量特定部23及び補正関数生成部24は実施形態1と同様の処理を行う。実施形態2においても、制御部10が画像処理プログラム11aを実行することにより実現する各機能の一部を専用のハードウェア回路で実現してもよい。
FIG. 5 is a block diagram showing a function realized by the control unit 10 of the computer 1 of the second embodiment, and FIG. 6 is an explanatory diagram of a process performed by the control unit 10 of the computer 1 of the second embodiment.
When the image processing program 11a stored in the storage unit 11 is executed, the control unit 10 of the computer 1 of the second embodiment has a face detection unit 21, an organ detection unit 22, a feature amount identification unit 23, and a correction function generation unit 24. In addition to the correction unit 25, the functions of the clothing area extraction unit 26 and the impression identification unit 27 are realized. The face detection unit 21, the organ detection unit 22, the feature amount identification unit 23, and the correction function generation unit 24 perform the same processing as in the first embodiment. Also in the second embodiment, a part of each function realized by the control unit 10 executing the image processing program 11a may be realized by a dedicated hardware circuit.

衣服領域抽出部26は、撮像画像から被写体の人が着ている衣服(衣類)の領域を抽出する。衣服領域抽出部26は、例えば、撮像画像において、顔検出部21が検出した顔領域を基準として、顔領域の下側の所定領域を衣服領域として抽出する。例えば図6(A)に示す撮像画像では、2人の被写体が含まれており、顔検出部21がそれぞれの被写体の顔領域F1,F2を検出した場合、衣服領域抽出部26は、それぞれの顔領域F1,F2に対応して、それぞれの被写体の衣服領域C1,C2を抽出する。
実施形態2の補正部25は、衣服領域抽出部26が抽出した衣服領域に対して、補正関数生成部24が生成した補正関数に基づく補正処理を行う。これにより、図6(A)に示す撮像画像では、図6(B)に示すように、それぞれの被写体の衣服領域C1,C2のみが補正される。実施形態2では、被写体の顔(器官)の画像情報に基づいて導出された補正関数を用いて衣服領域が補正されるので、衣服領域を適切な色味及び輝度に補正することができる。
The clothing area extraction unit 26 extracts an area of clothing (clothing) worn by the subject person from the captured image. For example, in the captured image, the clothing area extraction unit 26 extracts a predetermined region below the face region as a clothing region with reference to the face region detected by the face detection unit 21. For example, in the captured image shown in FIG. 6A, two subjects are included, and when the face detection unit 21 detects the face areas F1 and F2 of the respective subjects, the clothing area extraction unit 26 has each. The clothing areas C1 and C2 of each subject are extracted corresponding to the face areas F1 and F2.
The correction unit 25 of the second embodiment performs correction processing on the clothes area extracted by the clothes area extraction unit 26 based on the correction function generated by the correction function generation unit 24. As a result, in the captured image shown in FIG. 6A, only the clothing areas C1 and C2 of the respective subjects are corrected as shown in FIG. 6B. In the second embodiment, the clothing area is corrected by using the correction function derived based on the image information of the face (organ) of the subject, so that the clothing area can be corrected to an appropriate color and brightness.

印象特定部27は、補正部25によって補正された衣服領域の画像に基づいて、この被写体の人の印象を特定する。即ち、被写体の人の服装に基づいて被写体の人の印象が特定される。印象特定部27は、予め記憶部11に記憶されている印象情報データベース(以下、印象情報DBという)11cに基づいて被写体の人の印象を特定する。
印象情報DB11cには、例えばフォーマル、カジュアル、シック、ビビット等の印象に対応付けて、それぞれの印象を受ける衣服の平均的な色及び輝度の情報(印象情報)が予め記憶されている。
The impression specifying unit 27 identifies the impression of the person of this subject based on the image of the clothing area corrected by the correction unit 25. That is, the impression of the subject person is specified based on the clothes of the subject person. The impression specifying unit 27 identifies the impression of the person as the subject based on the impression information database (hereinafter referred to as the impression information DB) 11c stored in the storage unit 11 in advance.
In the impression information DB 11c, information (impression information) of the average color and brightness of the clothes to be impressed is stored in advance in association with the impressions such as formal, casual, chic, and vivid.

印象特定部27は、まず、補正部25によって補正された衣服領域における画像の特徴量を特定する。ここでの特徴量は、例えば衣服領域における代表色及び平均輝度であり、印象特定部27は、衣服領域に含まれる画像データ(画素値)に基づいて、衣服領域の代表色及び平均輝度を算出する。そして、印象特定部27は、算出した衣服領域の代表色及び平均輝度と、印象情報DB11cに記憶してある印象情報とを比較し、衣服領域の代表色及び平均輝度に最も近い印象情報を特定する。印象特定部27は、特定した印象情報における印象を、この衣服領域を含む被写体の人の印象に特定する。 The impression specifying unit 27 first specifies the feature amount of the image in the clothing area corrected by the correction unit 25. The feature amount here is, for example, the representative color and the average luminance in the clothing region, and the impression specifying unit 27 calculates the representative color and the average luminance in the clothing region based on the image data (pixel value) included in the clothing region. do. Then, the impression specifying unit 27 compares the calculated representative color and average brightness of the clothing area with the impression information stored in the impression information DB 11c, and identifies the impression information closest to the representative color and average brightness of the clothing area. do. The impression specifying unit 27 identifies the impression in the specified impression information as the impression of the person of the subject including this clothing area.

次に、実施形態2のコンピュータ1が行う処理について説明する。図7は、実施形態2のコンピュータ1が行う処理の手順を示すフローチャートである。図7に示す各処理において、図4に示した実施形態1の処理と同一の処理については同一のステップ番号を付して説明を省略する。 Next, the processing performed by the computer 1 of the second embodiment will be described. FIG. 7 is a flowchart showing a procedure of processing performed by the computer 1 of the second embodiment. In each process shown in FIG. 7, the same process as the process of the first embodiment shown in FIG. 4 is assigned the same step number and the description thereof will be omitted.

実施形態2のコンピュータ1において、制御部10は、図4中のステップS1~S7と同様の処理を行う。
次に、制御部10(衣服領域抽出部26)は、処理対象の撮像画像から、ステップS2で抽出した顔領域を含む被写体の人の衣服領域を抽出する(S11)。具体的には、制御部10は、撮像画像において、ステップS2で抽出した顔領域の下側の所定領域を衣服領域とし、この衣服領域に含まれる画像データ(画素値)を抽出する。
In the computer 1 of the second embodiment, the control unit 10 performs the same processing as in steps S1 to S7 in FIG.
Next, the control unit 10 (clothing area extraction unit 26) extracts the clothing area of the subject including the face area extracted in step S2 from the captured image to be processed (S11). Specifically, the control unit 10 sets a predetermined region below the face region extracted in step S2 as a clothing region in the captured image, and extracts image data (pixel values) included in the clothing region.

そして制御部10(補正部25)は、ステップS11で抽出した衣服領域に対して、ステップS7で生成した補正関数に基づく補正処理を行う(S12)。
更に制御部10(印象特定部27)は、補正処理後の衣服領域に基づいて、ステップS2で抽出した顔領域を含む被写体の人の印象を特定する(S13)。
Then, the control unit 10 (correction unit 25) performs a correction process based on the correction function generated in step S7 on the clothing area extracted in step S11 (S12).
Further, the control unit 10 (impression specifying unit 27) identifies the impression of the person of the subject including the face area extracted in step S2 based on the clothing area after the correction process (S13).

制御部10は、ステップS2で抽出した顔領域に対して上述した処理を行った場合、ステップS1で検出した顔領域のうちで、上述した処理を行っていない顔領域(未処理領域)が有るか否かを判断する(S9)。未処理領域が有ると判断した場合(S9:YES)、制御部10は、ステップS1で検出した顔領域のうちで未処理の顔領域を1つ抽出し(S2)、抽出した顔領域に対して、ステップS3~S7及びS11~S13の処理を行う。
制御部10は、未処理領域が無いと判断した場合(S9:NO)、この撮像画像に対する処理を終了する。
When the control unit 10 performs the above-mentioned processing on the face area extracted in step S2, there is a face area (unprocessed area) in which the above-mentioned processing is not performed among the face areas detected in step S1. It is determined whether or not (S9). When it is determined that there is an unprocessed area (S9: YES), the control unit 10 extracts one unprocessed face area from the face areas detected in step S1 (S2), and with respect to the extracted face area. Then, the processes of steps S3 to S7 and S11 to S13 are performed.
When the control unit 10 determines that there is no unprocessed area (S9: NO), the control unit 10 ends the processing for this captured image.

実施形態2では、ステップS2で抽出した顔領域に対してステップS3~S7及びS11~S13の処理が行われる。即ち、撮像画像に複数人の被写体が含まれる場合に、それぞれの被写体毎に、補正関数の生成、補正処理の実行及び印象の特定が行われる。よって、例えば日なたにいる人と日陰にいる人とを含む撮像画像において、それぞれの被写体について各被写体の画像情報に基づく処理が実行される。従って、他の被写体の撮影状況の影響を受けることなく、それぞれの被写体に応じた補正関数に基づく補正処理が行われ、また、補正処理後の衣服領域に基づく印象特定が行われるので、それぞれの被写体の印象を精度良く特定することができる。 In the second embodiment, the processes of steps S3 to S7 and S11 to S13 are performed on the face region extracted in step S2. That is, when a plurality of subjects are included in the captured image, a correction function is generated, correction processing is executed, and an impression is specified for each subject. Therefore, for example, in a captured image including a person in the sun and a person in the shade, processing based on the image information of each subject is executed for each subject. Therefore, the correction process based on the correction function corresponding to each subject is performed without being affected by the shooting conditions of other subjects, and the impression is specified based on the clothing area after the correction process. The impression of the subject can be specified with high accuracy.

実施形態2では、上述の実施形態1と同様の効果が得られる。即ち、被写体の人の顔(器官)の画像情報に基づいて導かれた補正関数を用いて衣服領域が補正されるので、被写体の衣服領域を適切な色及び輝度に補正することができる。 In the second embodiment, the same effect as that of the first embodiment can be obtained. That is, since the clothing area is corrected by using the correction function derived based on the image information of the human face (organ) of the subject, the clothing area of the subject can be corrected to an appropriate color and brightness.

(実施形態3)
上述した実施形態2のコンピュータ1が搭載されたロボットの実施形態について説明する。図8は実施形態3に係るロボットの模式図、図9は実施形態3に係るロボットの構成例を示すブロック図である。
ロボット40は、土台となる胴体部分42の上に頭部分41が連結されており、モータ15aによって頭部分41が胴体部分42に対して、鉛直方向を軸として回転するように、また、水平面に対して上下方向に適宜角度回動するように構成されている。頭部分41にはカメラ14a及びスピーカ16aが設けられており、モータ15aによって頭部分41を回転させることにより、カメラ14a及びスピーカ16aを任意の方向に向けることができる。ロボット40は、近付いてきた人の顔を撮影できる位置にカメラ14aが配置されるように構成されている。
(Embodiment 3)
An embodiment of a robot equipped with the computer 1 of the above-described second embodiment will be described. FIG. 8 is a schematic diagram of the robot according to the third embodiment, and FIG. 9 is a block diagram showing a configuration example of the robot according to the third embodiment.
In the robot 40, the head portion 41 is connected on the body portion 42 which is the base, and the head portion 41 is rotated with respect to the body portion 42 with respect to the body portion 42 by the motor 15a, and is in a horizontal plane. On the other hand, it is configured to rotate at an appropriate angle in the vertical direction. The head portion 41 is provided with the camera 14a and the speaker 16a, and the camera 14a and the speaker 16a can be directed in any direction by rotating the head portion 41 by the motor 15a. The robot 40 is configured so that the camera 14a is arranged at a position where the face of an approaching person can be photographed.

実施形態3のコンピュータ1は、実施形態2のコンピュータ1が有する構成のほかに、モータ15aを駆動するためのモータ駆動部15と、スピーカ16aを接続するためのスピーカ接続部16とを含む。また、実施形態3のコンピュータ1では、記憶部11に会話処理プログラム11dが記憶されている。その他の構成は、上述した実施形態2と同様であり、同一の構成については同一の符号を付して説明を省略する。なお、実施形態3では、画像処理プログラム11a及び会話処理プログラム11dは異なるプログラムとして説明するが、1つのプログラムとして構成してもよい。 The computer 1 of the third embodiment includes a motor driving unit 15 for driving the motor 15a and a speaker connecting unit 16 for connecting the speaker 16a, in addition to the configuration of the computer 1 of the second embodiment. Further, in the computer 1 of the third embodiment, the conversation processing program 11d is stored in the storage unit 11. Other configurations are the same as those in the second embodiment described above, and the same configurations are designated by the same reference numerals and the description thereof will be omitted. In the third embodiment, the image processing program 11a and the conversation processing program 11d are described as different programs, but they may be configured as one program.

スピーカ接続部16は、例えばケーブルを介してスピーカ16aが接続され、制御部10から音声出力を指示された内容をスピーカ16aにて音声出力する。
モータ駆動部15は、制御部10から指示されたモータ駆動量に従ってモータ15aを駆動する。
In the speaker connection unit 16, for example, the speaker 16a is connected via a cable, and the content instructed by the control unit 10 to output audio is output by the speaker 16a.
The motor drive unit 15 drives the motor 15a according to the motor drive amount instructed by the control unit 10.

図10は、実施形態3のコンピュータ1の制御部10によって実現される機能を示すブロック図である。実施形態3のコンピュータ1において、記憶部11に記憶してある画像処理プログラム11aは実施形態2と同一である。よって、実施形態3のコンピュータ1の制御部10が画像処理プログラム11aを実行した場合、実施形態2と同様の機能を実現する。具体的には、実施形態3の制御部10は、顔検出部21、器官検出部22、特徴量特定部23、補正関数生成部24、補正部25、衣服領域抽出部26及び印象特定部27の各機能を実現する。なお、実施形態2と同一の機能については同一の符号を付して説明を省略する。 FIG. 10 is a block diagram showing a function realized by the control unit 10 of the computer 1 of the third embodiment. In the computer 1 of the third embodiment, the image processing program 11a stored in the storage unit 11 is the same as that of the second embodiment. Therefore, when the control unit 10 of the computer 1 of the third embodiment executes the image processing program 11a, the same functions as those of the second embodiment are realized. Specifically, the control unit 10 of the third embodiment includes a face detection unit 21, an organ detection unit 22, a feature amount identification unit 23, a correction function generation unit 24, a correction unit 25, a clothing area extraction unit 26, and an impression identification unit 27. Realize each function of. The same functions as those in the second embodiment are designated by the same reference numerals, and the description thereof will be omitted.

次に、実施形態3のコンピュータ1の制御部10が、記憶部11に記憶してある会話処理プログラム11dを実行することによって実現される機能について説明する。実施形態3のコンピュータ1の制御部10は、会話処理プログラム11dを実行した場合、会話特定部28、頭部駆動部29及び音声出力部30の各機能を実現する。 Next, the function realized by the control unit 10 of the computer 1 of the third embodiment by executing the conversation processing program 11d stored in the storage unit 11 will be described. When the conversation processing program 11d is executed, the control unit 10 of the computer 1 of the third embodiment realizes the functions of the conversation specifying unit 28, the head driving unit 29, and the voice output unit 30.

会話特定部28は、印象特定部27が特定した被写体の人の印象に基づいて、この人との会話内容を特定する。会話特定部28は、予め記憶部11に記憶されている印象情報DB11cに基づいて会話内容を特定する。実施形態3の印象情報DB11cには、フォーマル、カジュアル、シック、ビビット等の印象と、それぞれの印象を受ける衣服の平均的な色及び輝度の情報と、それぞれの印象の人に応じた会話内容とが対応付けて記憶されている。よって、会話特定部28は、印象特定部27が特定した印象に対応する会話内容を印象情報DB11cから読み出す。 The conversation specifying unit 28 specifies the content of the conversation with the person based on the impression of the person of the subject specified by the impression specifying unit 27. The conversation specifying unit 28 specifies the conversation content based on the impression information DB 11c stored in the storage unit 11 in advance. The impression information DB 11c of the third embodiment includes impressions of formal, casual, chic, vivid, etc., information on the average color and brightness of clothes to be impressed, and conversation contents according to the person of each impression. Are stored in association with each other. Therefore, the conversation specifying unit 28 reads out the conversation content corresponding to the impression specified by the impression specifying unit 27 from the impression information DB 11c.

頭部駆動部29は、例えば、撮像画像において、顔検出部21が検出した顔領域の位置に基づいて、カメラ14a及びスピーカ16aを、この顔領域を有する被写体の人に向けるために、頭部分41を回転させるべき現在の状態からの回転量(モータの駆動量)を特定する。具体的には、この被写体の人が撮像領域の中央に位置するために頭部分41を回転させるべき回転量(モータの駆動量)を特定する。そして、頭部駆動部29は、特定した駆動量に基づいてモータ駆動部15にモータ15aを駆動させることにより、特定した回転量だけ頭部分41を回転させる。
音声出力部30は、会話特定部28が特定した会話内容に基づく音声を、スピーカ接続部16を介してスピーカ16aから出力する。これにより、ロボット40は、被写体の人との会話を始めることができる。
For example, in the captured image, the head driving unit 29 directs the camera 14a and the speaker 16a to the person of the subject having this face area based on the position of the face area detected by the face detecting unit 21. The amount of rotation (drive amount of the motor) from the current state in which 41 should be rotated is specified. Specifically, the amount of rotation (motor drive amount) at which the head portion 41 should be rotated so that the person of the subject is located in the center of the imaging region is specified. Then, the head drive unit 29 rotates the head portion 41 by the specified rotation amount by driving the motor 15a to the motor drive unit 15 based on the specified drive amount.
The voice output unit 30 outputs voice based on the conversation content specified by the conversation identification unit 28 from the speaker 16a via the speaker connection unit 16. As a result, the robot 40 can start a conversation with the subject person.

次に、実施形態3のコンピュータ1が行う処理について説明する。図11は、実施形態3のコンピュータ1が行う処理の手順を示すフローチャートである。図11に示す各処理において、図7に示した実施形態2の処理と同一の処理については同一のステップ番号を付して説明を省略する。 Next, the processing performed by the computer 1 of the third embodiment will be described. FIG. 11 is a flowchart showing a procedure of processing performed by the computer 1 of the third embodiment. In each process shown in FIG. 11, the same process as the process of the second embodiment shown in FIG. 7 is assigned the same step number and the description thereof will be omitted.

実施形態3のコンピュータ1において、制御部10は、図7中のステップS1~S7,S11~S13と同様の処理を行う。
次に、制御部10(会話特定部28)は、ステップS13で特定された印象に対応する会話内容を特定する(S21)。具体的には、制御部10は、印象情報DB11cから会話内容を読み出す。
また、制御部10(頭部駆動部29)は、処理対象の撮像画像において、ステップS2で抽出した顔領域の位置に基づいて、カメラ14a及びスピーカ16aを被写体の人に向けるために頭部分41を回転すべき回転量(モータ15aの駆動量)を特定する(S22)。
In the computer 1 of the third embodiment, the control unit 10 performs the same processing as steps S1 to S7 and S11 to S13 in FIG. 7.
Next, the control unit 10 (conversation specifying unit 28) specifies the conversation content corresponding to the impression specified in step S13 (S21). Specifically, the control unit 10 reads out the conversation content from the impression information DB 11c.
Further, the control unit 10 (head drive unit 29) head portion 41 in order to point the camera 14a and the speaker 16a toward the subject person based on the position of the face region extracted in step S2 in the captured image to be processed. The amount of rotation (driving amount of the motor 15a) to be rotated is specified (S22).

制御部10は、ステップS22で特定した駆動量でモータ15aを駆動させ(S23)、頭部分41を回転させる。これにより、頭部分41のカメラ14a及びスピーカ16aを被写体の人に向けることができる。
また制御部10は、ステップS21で特定した会話内容に基づく音声を、スピーカ接続部16を介してスピーカ16aから出力する(S24)。
The control unit 10 drives the motor 15a (S23) with the drive amount specified in step S22, and rotates the head portion 41. As a result, the camera 14a and the speaker 16a of the head portion 41 can be aimed at the person as the subject.
Further, the control unit 10 outputs the voice based on the conversation content specified in step S21 from the speaker 16a via the speaker connection unit 16 (S24).

制御部10は、ステップS2で抽出した顔領域に対して上述した処理を行った場合、ステップS1で検出した顔領域のうちで、上述した処理を行っていない顔領域(未処理領域)が有るか否かを判断する(S9)。未処理領域が有ると判断した場合(S9:YES)、制御部10は、ステップS1で検出した顔領域のうちで未処理の顔領域を1つ抽出し(S2)、抽出した顔領域に対して、ステップS3~S7、S11~S13及びS21~S24の処理を行う。
制御部10は、未処理領域が無いと判断した場合(S9:NO)、この撮像画像に対する処理を終了する。
When the control unit 10 performs the above-mentioned processing on the face area extracted in step S2, there is a face area (unprocessed area) in which the above-mentioned processing is not performed among the face areas detected in step S1. It is determined whether or not (S9). When it is determined that there is an unprocessed area (S9: YES), the control unit 10 extracts one unprocessed face area from the face areas detected in step S1 (S2), and with respect to the extracted face area. Then, the processes of steps S3 to S7, S11 to S13, and S21 to S24 are performed.
When the control unit 10 determines that there is no unprocessed area (S9: NO), the control unit 10 ends the processing for this captured image.

実施形態3では、ステップS2で抽出した顔領域に対してステップS3~S7、S11~S13及びS21~S24の処理が行われる。即ち、撮像画像に複数人の被写体が含まれる場合に、それぞれの被写体毎に、補正関数の生成、補正処理の実行、印象の特定及び音声出力(会話)が行われる。よって、撮像画像に複数人の被写体が含まれる場合に、それぞれの被写体の印象を特定し、特定した印象に応じた音声出力(会話)を行うことができる。 In the third embodiment, the processes of steps S3 to S7, S11 to S13, and S21 to S24 are performed on the face region extracted in step S2. That is, when a plurality of subjects are included in the captured image, a correction function is generated, correction processing is executed, impression is specified, and voice output (conversation) is performed for each subject. Therefore, when a plurality of subjects are included in the captured image, the impression of each subject can be specified, and voice output (conversation) can be performed according to the specified impression.

実施形態3でも、上述の実施形態1,2と同様の効果が得られる。即ち、被写体の人の顔(器官)の画像情報に基づいて導かれた補正関数を用いて衣服領域が補正されるので、被写体の衣服領域を適切な色及び輝度に補正することができる。また、適切に補正された衣服領域に基づいて被写体の人の印象が特定されるので、それぞれの被写体の印象を精度良く特定することができ、それぞれの被写体の印象に応じた音声出力(会話)を行うことができる。 Also in the third embodiment, the same effects as those of the first and second embodiments described above can be obtained. That is, since the clothing area is corrected by using the correction function derived based on the image information of the human face (organ) of the subject, the clothing area of the subject can be corrected to an appropriate color and brightness. In addition, since the impression of the person of the subject is specified based on the appropriately corrected clothing area, the impression of each subject can be specified accurately, and the voice output (conversation) according to the impression of each subject. It can be performed.

人と対話するロボットは、カメラを搭載し、ロボットに近づく人を撮影して得られた画像(撮像画像)から被写体の人の印象を特定し、特定した印象から会話の取っ掛かりをつかむように構成されている場合がある。よって、このようなロボットにおいて、被写体の人の印象を精度良く特定できることは不可欠である。例えば、逆光状態での撮影のように被写体の領域が暗い撮像画像や、全体が暗い撮像画像に基づいて被写体の人の印象を特定すると、暗い印象に特定されてしまう場合がある。また、明るすぎる(輝度が高すぎる)撮像画像に基づいて被写体の人の印象を特定した場合にも、被写体の人の本来の印象よりも明るい印象に特定されてしまう可能性がある。これらの場合、被写体の人の印象を誤って特定してしまい、誤った印象に基づいて見当違いな会話を開始してしまう虞がある。よって、実施形態3のロボット40では、コンピュータ1による処理によって撮像画像を適切に補正することができ、補正後の撮像画像に基づいて被写体の人の印象を適切に特定することができる。従って、被写体の人に合った会話を行うことが可能となる。 A robot that interacts with a person is equipped with a camera so that the impression of the person being the subject can be identified from the image (captured image) obtained by taking a picture of the person approaching the robot, and the conversation can be started from the identified impression. May be configured. Therefore, in such a robot, it is indispensable to be able to accurately identify the impression of the person as the subject. For example, if the impression of a person on the subject is specified based on a captured image in which the area of the subject is dark, such as when shooting in a backlit state, or a captured image in which the entire subject is dark, the impression may be specified as a dark impression. Further, even when the impression of the subject person is specified based on the captured image that is too bright (the brightness is too high), the impression may be specified to be brighter than the original impression of the subject person. In these cases, the impression of the person as the subject may be erroneously specified, and a misguided conversation may be started based on the erroneous impression. Therefore, in the robot 40 of the third embodiment, the captured image can be appropriately corrected by the processing by the computer 1, and the impression of the person as the subject can be appropriately specified based on the corrected captured image. Therefore, it is possible to have a conversation suitable for the person of the subject.

実施形態2,3のコンピュータ1は、撮像画像中の被写体(人)の衣服領域(服装)から被写体の人の印象を特定するので、実施形態2,3の補正部25は、撮像画像中の衣服領域にのみ補正処理を行う構成であった。このほかに、被写体(人)の顔領域から被写体の印象を特定する構成とすることもできる。この場合、補正部25は、顔検出部21が検出した顔領域に補正処理を行い、印象特定部27は、補正処理後の顔領域に基づいて、被写体の人の印象特定を行えばよい。 Since the computer 1 of the second and third embodiments identifies the impression of the person of the subject from the clothing area (clothing) of the subject (person) in the captured image, the correction unit 25 of the second and third embodiments is in the captured image. The configuration was such that the correction process was performed only on the clothing area. In addition to this, it is also possible to specify the impression of the subject from the face area of the subject (person). In this case, the correction unit 25 may perform correction processing on the face area detected by the face detection unit 21, and the impression specifying unit 27 may specify the impression of the person as the subject based on the face area after the correction processing.

上述した実施形態1~3のコンピュータ1は、監視カメラシステムに適用できる。実施形態1~3のコンピュータ1を用いた場合、例えば夜間に屋外の暗闇で撮影して得られた画像であっても、被写体の人の顔(器官)の画像情報に基づいて撮像画像を適切な色及び輝度に補正できる。よって、撮像画像が全体的に暗い場合であっても、適切に補正された撮像画像に基づいて不審人物の有無を検出できる。
また、実施形態1~3のコンピュータ1をデジタルスチールカメラ又はデジタルビデオカメラ等のカメラに搭載し、カメラにて実行可能な補正処理の1つとして、実施形態1~3のコンピュータ1による補正処理を行うようにしてもよい。
The computer 1 of the above-described embodiments 1 to 3 can be applied to a surveillance camera system. When the computer 1 of the first to third embodiments is used, for example, even if the image is obtained by taking an image in the dark outdoors at night, the captured image is appropriately captured based on the image information of the human face (organ) of the subject. It can be corrected to various colors and brightness. Therefore, even when the captured image is dark as a whole, the presence or absence of a suspicious person can be detected based on the appropriately corrected captured image.
Further, the computer 1 of the first to third embodiments is mounted on a camera such as a digital still camera or a digital video camera, and the correction process by the computer 1 of the first to third embodiments is performed as one of the correction processes that can be executed by the camera. You may do it.

上述した実施形態1~3のコンピュータ1による補正処理は、全体が暗い撮像画像や、被写体の人の領域が暗い撮像画像に対して効果的である。よって、処理対象の撮像画像に対して、まず、この撮像画像の平均輝度が所定値(第1閾値)以下であるか否かを判断し、平均輝度が所定値以下である撮像画像に対して、上述したような補正関数の生成、補正処理の実行を行う構成としてもよい。また、処理対象の撮像画像に対して、平均輝度が所定値(第1閾値よりも高い第2閾値)以上であるか否かを判断し、平均輝度が所定値以上である撮像画像に対して、上述したような補正関数の生成、補正処理の実行を行う構成とすることもできる。 The correction process by the computer 1 of the above-described first to third embodiments is effective for a captured image in which the whole is dark or a captured image in which the area of the person of the subject is dark. Therefore, for the captured image to be processed, first, it is determined whether or not the average brightness of the captured image is equal to or less than a predetermined value (first threshold value), and for the captured image whose average brightness is equal to or less than the predetermined value. , The configuration may be such that the correction function is generated and the correction process is executed as described above. Further, it is determined whether or not the average brightness of the captured image to be processed is equal to or higher than a predetermined value (second threshold value higher than the first threshold value), and the captured image having an average brightness of equal to or higher than the predetermined value is determined. It is also possible to configure the configuration to generate the correction function and execute the correction process as described above.

本発明の一態様に係る画像処理装置は、人の撮像画像に画像処理を行う画像処理装置において、人の顔の所定器官における画像に係る目標値を記憶する記憶部と、撮像画像から人の顔領域を検出する顔検出部と、該顔検出部が検出した顔領域から前記所定器官の領域を検出する器官検出部と、該器官検出部が検出した所定器官の領域における特徴量を特定する特徴量特定部と、該特徴量特定部が特定した特徴量を、前記記憶部に記憶してある目標値に補正するための補正関数を生成する補正関数生成部とを備えることを特徴とする。 The image processing apparatus according to one aspect of the present invention is an image processing apparatus that performs image processing on a captured image of a person, a storage unit that stores a target value related to an image in a predetermined organ of the human face, and a storage unit that stores the target value of the image in a predetermined organ of the human face, and a human image from the captured image. A face detection unit that detects a face region, an organ detection unit that detects a region of the predetermined organ from the face region detected by the face detection unit, and a feature amount in the region of the predetermined organ detected by the organ detection unit are specified. It is characterized by including a feature amount specifying unit and a correction function generation unit that generates a correction function for correcting the feature amount specified by the feature amount specifying unit to a target value stored in the storage unit. ..

本発明の一態様によれば、撮像画像中の人の顔の所定器官の領域に基づいて、この所定器官の領域を適切に補正できる補正関数を生成する。撮影状況等の影響を受け難い器官の領域に基づいて補正関数を生成することにより、撮像画像を適切に補正するための補正関数を得ることができる。 According to one aspect of the present invention, based on the region of a predetermined organ of a person's face in a captured image, a correction function capable of appropriately correcting the region of the predetermined organ is generated. By generating the correction function based on the region of the organ that is not easily affected by the shooting condition or the like, it is possible to obtain the correction function for appropriately correcting the captured image.

本発明の一態様に係る画像処理装置は、前記補正関数生成部が生成した補正関数に基づいて、前記撮像画像の一部を補正する補正部を備えることを特徴とする。
本発明の一態様によれば、撮影状況等の影響を受け難い器官の領域に基づいて生成された補正関数を用いて撮像画像を補正することにより、適切に補正された撮像画像を得ることができる。
The image processing apparatus according to one aspect of the present invention is characterized by including a correction unit that corrects a part of the captured image based on the correction function generated by the correction function generation unit.
According to one aspect of the present invention, it is possible to obtain an appropriately corrected captured image by correcting the captured image using a correction function generated based on a region of an organ that is not easily affected by a shooting condition or the like. can.

本発明の一態様に係る画像処理装置は、前記補正部が補正する撮像画像の一部は、前記撮像画像に含まれる人の衣類領域であることを特徴とする。
本発明の一態様によれば、撮像画像中の被写体の人の衣類領域を適切に補正することができる。
The image processing apparatus according to one aspect of the present invention is characterized in that a part of the captured image corrected by the correction unit is a clothing region of a person included in the captured image.
According to one aspect of the present invention, it is possible to appropriately correct the clothing area of a person as a subject in a captured image.

本発明の一態様に係る画像処理装置は、前記補正部が補正した前記撮像画像の一部に基づいて、前記撮像画像に含まれる人の印象を特定する印象特定部を備えることを特徴とする。
本発明の一態様によれば、適切に補正された撮像画像を用いることにより、撮像画像中の被写体の人の印象を精度良く特定することができる。
The image processing apparatus according to one aspect of the present invention is characterized by including an impression specifying unit that specifies an impression of a person included in the captured image based on a part of the captured image corrected by the correction unit. ..
According to one aspect of the present invention, by using an appropriately corrected captured image, it is possible to accurately identify the impression of a person as a subject in the captured image.

本発明の一態様に係る画像処理装置は、前記所定器官は、複数の器官を含み、前記器官検出部が前記複数の器官の領域を検出した場合、前記特徴量特定部は、前記器官検出部が検出した前記複数の器官の領域のそれぞれにおける特徴量を特定し、特定した複数の特徴量に基づいて、前記複数の器官の領域における特徴量を特定することを特徴とする。
本発明の一態様によれば、撮像画像中の人の顔領域から複数の器官領域が検出された場合、それぞれの器官領域における特徴量に基づいて、複数の器官領域(1つの顔領域)における特徴量が特定される。よって、複数の器官領域が検出された場合には、検出された各器官領域の特徴量を考慮した補正関数を生成することができる。
In the image processing apparatus according to one aspect of the present invention, when the predetermined organ includes a plurality of organs and the organ detection unit detects a region of the plurality of organs, the feature amount specifying unit is the organ detection unit. It is characterized in that the feature amount in each of the regions of the plurality of organs detected by is specified, and the feature amount in the region of the plurality of organs is specified based on the identified plurality of feature quantities.
According to one aspect of the present invention, when a plurality of organ regions are detected from a human face region in a captured image, the plurality of organ regions (one face region) are based on the feature amount in each organ region. Features are specified. Therefore, when a plurality of organ regions are detected, it is possible to generate a correction function in consideration of the feature amount of each detected organ region.

本発明の一態様に係る画像処理装置は、前記顔検出部が複数人の顔領域を検出した場合、前記器官検出部は、前記顔検出部が検出した顔領域毎に、各顔領域から前記所定器官の領域を検出し、前記特徴量特定部は、前記顔検出部が検出した顔領域毎に、前記器官検出部が検出した所定器官の領域における特徴量を特定し、前記補正関数生成部は、前記顔検出部が検出した顔領域毎に、前記特徴量特定部が特定した特徴量を、前記記憶部に記憶してある目標値に補正するための補正関数を生成することを特徴とする。
本発明の一態様によれば、撮像画像から複数人の顔領域が検出された場合、それぞれの顔領域(被写体の人)毎に各処理が行われるので、被写体の人毎に補正関数を生成することができる。
In the image processing apparatus according to one aspect of the present invention, when the face detection unit detects a face region of a plurality of people, the organ detection unit may perform the above from each face region for each face region detected by the face detection unit. The region of the predetermined organ is detected, and the feature amount specifying unit specifies the feature amount in the region of the predetermined organ detected by the organ detection unit for each face region detected by the face detection unit, and the correction function generation unit. Is characterized in that, for each face region detected by the face detection unit, a correction function for correcting the feature amount specified by the feature amount specifying unit to a target value stored in the storage unit is generated. do.
According to one aspect of the present invention, when a plurality of face regions are detected from a captured image, each process is performed for each face region (subject person), so that a correction function is generated for each subject person. can do.

本発明の一態様に係る画像処理装置は、前記所定器官は、白目、歯、鼻及び頬のうちの少なくとも1つを含むことを特徴とする。
本発明の一態様によれば、撮像画像中の顔領域における白目、歯、鼻、頬の器官領域に基づいて補正関数が生成される。白目、歯、鼻、頬の各器官の領域は撮影状況等の影響を受け難いので、各器官領域に基づいて適切な補正関数を生成することができる。よって、これらの各器官の領域に基づいて生成された補正関数を用いることにより、撮像画像を適切に補正することができる。
The image processing apparatus according to one aspect of the present invention is characterized in that the predetermined organ includes at least one of white eyes, teeth, nose and cheeks.
According to one aspect of the present invention, a correction function is generated based on the organ regions of white eyes, teeth, nose, and cheeks in the facial region in the captured image. Since the regions of the white eyes, teeth, nose, and cheek organs are not easily affected by the imaging conditions and the like, an appropriate correction function can be generated based on each organ region. Therefore, the captured image can be appropriately corrected by using the correction function generated based on the region of each of these organs.

本発明の一態様に係る画像処理方法は、人の撮像画像に画像処理を行う画像処理装置による画像処理方法において、前記画像処理装置が、撮像画像から人の顔領域を検出し、検出した顔領域から顔の所定器官の領域を検出し、検出した所定器官の領域における特徴量を特定し、特定した特徴量を、記憶部に記憶してある人の顔の所定器官における画像に係る目標値に補正するための補正関数を生成することを特徴とする。
本発明の一態様によれば、撮像画像中の人の顔の所定器官の領域に基づいて、この所定器官の領域だけでなく、撮像画像全体を適切に補正できる補正関数を生成することができる。
The image processing method according to one aspect of the present invention is an image processing method using an image processing device that performs image processing on a captured image of a person, wherein the image processing device detects a human face region from the captured image and detects the face. The area of the predetermined organ of the face is detected from the area, the feature amount in the detected predetermined organ area is specified, and the specified feature amount is stored in the storage unit as the target value related to the image in the predetermined organ of the human face. It is characterized by generating a correction function for correction to.
According to one aspect of the present invention, it is possible to generate a correction function that can appropriately correct not only the region of the predetermined organ but also the entire captured image based on the region of the predetermined organ of the human face in the captured image. ..

本発明の一態様に係るプログラムは、人の顔の所定器官における画像に係る目標値を記憶する記憶部を有するコンピュータに、人の撮像画像を処理させるためのプログラムであって、前記コンピュータに、撮像画像から人の顔領域を検出し、検出した顔領域から前記所定器官の領域を検出し、検出した所定器官の領域における特徴量を特定し、特定した特徴量を、前記記憶部に記憶してある目標値に補正するための補正関数を生成する処理を実行させることを特徴とする。
本発明の一態様によれば、コンピュータにインストールして実行させることにより、上述した画像処理装置をコンピュータにて実現することができる。
The program according to one aspect of the present invention is a program for causing a computer having a storage unit for storing a target value related to an image in a predetermined organ of a human face to process a captured image of a person. A human face region is detected from the captured image, a region of the predetermined organ is detected from the detected face region, a feature amount in the detected predetermined organ region is specified, and the specified feature amount is stored in the storage unit. It is characterized in that a process of generating a correction function for correcting to a certain target value is executed.
According to one aspect of the present invention, the above-mentioned image processing apparatus can be realized by a computer by installing it in a computer and executing it.

今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered to be exemplary in all respects and not restrictive. The scope of the present invention is not shown above, but is indicated by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

1 コンピュータ(画像処理装置)
10 制御部
11 記憶部
21 顔検出部
22 器官検出部
23 特徴量特定部
24 補正関数生成部
25 補正部
27 印象特定部
14a カメラ
1 Computer (image processing device)
10 Control unit 11 Storage unit 21 Face detection unit 22 Organ detection unit 23 Feature quantity identification unit 24 Correction function generation unit 25 Correction unit 27 Impression identification unit 14a Camera

Claims (6)

人の撮像画像に画像処理を行う画像処理装置において、
人の顔の所定器官における画像に係る目標値を記憶する記憶部と、
撮像画像から人の顔領域を検出する顔検出部と、
該顔検出部が検出した顔領域から前記所定器官の領域を検出する器官検出部と、
該器官検出部が検出した所定器官の領域における特徴量を特定する特徴量特定部と、
該特徴量特定部が特定した特徴量を、前記記憶部に記憶してある目標値に補正するための補正関数を生成する補正関数生成部と、
前記補正関数生成部が生成した補正関数を用いて、前記撮像画像に含まれる人の衣類領域を補正する補正部と
前記補正部が補正した前記撮像画像に含まれる人の衣類領域に基づいて、前記撮像画像に含まれる人に出力する会話内容を特定するために前記人の印象を特定する印象特定部と
を備えることを特徴とする画像処理装置。
In an image processing device that processes images captured by humans,
A storage unit that stores target values related to images in a predetermined organ of a human face,
A face detector that detects the human face area from the captured image,
An organ detection unit that detects a region of the predetermined organ from the face region detected by the face detection unit, and an organ detection unit.
A feature amount specifying unit that specifies a feature amount in a predetermined organ region detected by the organ detection unit, and a feature amount specifying unit.
A correction function generation unit that generates a correction function for correcting the feature amount specified by the feature amount specification unit to a target value stored in the storage unit, and a correction function generation unit.
Using the correction function generated by the correction function generation unit, a correction unit that corrects a human clothing area included in the captured image, and a correction unit .
An impression specifying unit that specifies the impression of the person in order to specify the conversation content to be output to the person included in the captured image based on the clothing area of the person included in the captured image corrected by the correction unit.
An image processing device characterized by comprising.
前記所定器官は、複数の器官を含み、
前記器官検出部が前記複数の器官の領域を検出した場合、前記特徴量特定部は、前記器官検出部が検出した前記複数の器官の領域のそれぞれにおける特徴量を特定し、特定した複数の特徴量に基づいて、前記複数の器官の領域における特徴量を特定する
ことを特徴とする請求項1に記載の画像処理装置。
The predetermined organ includes a plurality of organs and includes a plurality of organs.
When the organ detection unit detects a region of the plurality of organs, the feature amount specifying unit identifies a feature amount in each of the regions of the plurality of organs detected by the organ detection unit, and the specified plurality of features. The image processing apparatus according to claim 1 , wherein the feature amount in the region of the plurality of organs is specified based on the amount.
前記顔検出部が複数人の顔領域を検出した場合、
前記器官検出部は、前記顔検出部が検出した顔領域毎に、各顔領域から前記所定器官の領域を検出し、
前記特徴量特定部は、前記顔検出部が検出した顔領域毎に、前記器官検出部が検出した所定器官の領域における特徴量を特定し、
前記補正関数生成部は、前記顔検出部が検出した顔領域毎に、前記特徴量特定部が特定した特徴量を、前記記憶部に記憶してある目標値に補正するための補正関数を生成する
ことを特徴とする請求項1又は2に記載の画像処理装置。
When the face detection unit detects the face areas of a plurality of people,
The organ detection unit detects a region of the predetermined organ from each face region for each face region detected by the face detection unit.
The feature amount specifying unit specifies the feature amount in the region of the predetermined organ detected by the organ detection unit for each face region detected by the face detection unit.
The correction function generation unit generates a correction function for correcting the feature amount specified by the feature amount specifying unit to a target value stored in the storage unit for each face region detected by the face detection unit. The image processing apparatus according to claim 1 or 2 , wherein the image processing apparatus is characterized by the above.
前記所定器官は、白目、歯、鼻及び頬のうちの少なくとも1つを含むことを特徴とする請求項1からまでのいずれかひとつに記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3 , wherein the predetermined organ includes at least one of white eyes, teeth, nose and cheeks. 人の撮像画像に画像処理を行う画像処理装置による画像処理方法において、
前記画像処理装置が、
撮像画像から人の顔領域を検出し、
検出した顔領域から顔の所定器官の領域を検出し、
検出した所定器官の領域における特徴量を特定し、
特定した特徴量を、記憶部に記憶してある人の顔の所定器官における画像に係る目標値に補正するための補正関数を生成し、
生成した補正関数を用いて、前記撮像画像に含まれる人の衣類領域を補正し、
補正した前記撮像画像に含まれる人の衣類領域に基づいて、前記撮像画像に含まれる人に出力する会話内容を特定するために前記人の印象を特定する
ことを特徴とする画像処理方法。
In an image processing method using an image processing device that processes an image of a person's image,
The image processing device
Detects the human face area from the captured image and
Detects the area of the predetermined organ of the face from the detected facial area,
Identify the features in the area of the detected organ,
A correction function for correcting the specified feature amount to the target value related to the image in the predetermined organ of the human face stored in the storage unit is generated.
Using the generated correction function, the clothing area of the person included in the captured image is corrected .
An image processing method comprising specifying an impression of the person in order to specify a conversation content to be output to the person included in the captured image based on the clothing area of the person included in the corrected image .
人の顔の所定器官における画像に係る目標値を記憶する記憶部を有するコンピュータに、人の撮像画像を処理させるためのプログラムであって、
前記コンピュータに、
撮像画像から人の顔領域を検出し、
検出した顔領域から前記所定器官の領域を検出し、
検出した所定器官の領域における特徴量を特定し、
特定した特徴量を、前記記憶部に記憶してある目標値に補正するための補正関数を生成し、
生成した補正関数を用いて、前記撮像画像に含まれる人の衣類領域を補正し、
補正した前記撮像画像に含まれる人の衣類領域に基づいて、前記撮像画像に含まれる人に出力する会話内容を特定するために前記人の印象を特定する
処理を実行させることを特徴とするプログラム。
A program for causing a computer having a storage unit for storing a target value related to an image in a predetermined organ of a human face to process a captured image of a person.
To the computer
Detects the human face area from the captured image and
The area of the predetermined organ is detected from the detected face area, and the area is detected.
Identify the features in the area of the detected organ,
A correction function for correcting the specified feature amount to the target value stored in the storage unit is generated.
Using the generated correction function, the clothing area of the person included in the captured image is corrected .
A program characterized by executing a process of identifying the impression of the person in order to specify the conversation content to be output to the person included in the captured image based on the clothing area of the person included in the corrected image. ..
JP2017051196A 2017-03-16 2017-03-16 Image processing equipment, image processing methods and programs Active JP7056003B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017051196A JP7056003B2 (en) 2017-03-16 2017-03-16 Image processing equipment, image processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017051196A JP7056003B2 (en) 2017-03-16 2017-03-16 Image processing equipment, image processing methods and programs

Publications (2)

Publication Number Publication Date
JP2018156246A JP2018156246A (en) 2018-10-04
JP7056003B2 true JP7056003B2 (en) 2022-04-19

Family

ID=63717267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017051196A Active JP7056003B2 (en) 2017-03-16 2017-03-16 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP7056003B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102656963B1 (en) 2019-04-03 2024-04-16 삼성전자 주식회사 Electronic device and Method of controlling thereof

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036387A (en) 2001-07-24 2003-02-07 Omron Corp Server, terminal, advice system, program thereof, computer-readable recording medium recorded the program, output medium thereof, and advice method
JP2005228076A (en) 2004-02-13 2005-08-25 Omron Corp Image correcting device
JP2006059162A (en) 2004-08-20 2006-03-02 Noritsu Koki Co Ltd Tooth image correction method and device
JP2006133874A (en) 2004-11-02 2006-05-25 Canon Inc Method and apparatus for processing image
JP2010176217A (en) 2009-01-27 2010-08-12 Nikon Corp Image correction device and digital camera
JP2011044964A (en) 2009-08-21 2011-03-03 Samsung Yokohama Research Institute Co Ltd Imaging apparatus, imaging method and computer program
JP2012141708A (en) 2010-12-28 2012-07-26 Active Term:Kk Customer management system
JP2013045205A (en) 2011-08-23 2013-03-04 Seiko Epson Corp Image processor, image processing method and image processing program
JP2017032876A (en) 2015-08-04 2017-02-09 株式会社ディーアンドエムホールディングス Computer readable program, play list creation device, and wireless audio system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036387A (en) 2001-07-24 2003-02-07 Omron Corp Server, terminal, advice system, program thereof, computer-readable recording medium recorded the program, output medium thereof, and advice method
JP2005228076A (en) 2004-02-13 2005-08-25 Omron Corp Image correcting device
JP2006059162A (en) 2004-08-20 2006-03-02 Noritsu Koki Co Ltd Tooth image correction method and device
JP2006133874A (en) 2004-11-02 2006-05-25 Canon Inc Method and apparatus for processing image
JP2010176217A (en) 2009-01-27 2010-08-12 Nikon Corp Image correction device and digital camera
JP2011044964A (en) 2009-08-21 2011-03-03 Samsung Yokohama Research Institute Co Ltd Imaging apparatus, imaging method and computer program
JP2012141708A (en) 2010-12-28 2012-07-26 Active Term:Kk Customer management system
JP2013045205A (en) 2011-08-23 2013-03-04 Seiko Epson Corp Image processor, image processing method and image processing program
JP2017032876A (en) 2015-08-04 2017-02-09 株式会社ディーアンドエムホールディングス Computer readable program, play list creation device, and wireless audio system

Also Published As

Publication number Publication date
JP2018156246A (en) 2018-10-04

Similar Documents

Publication Publication Date Title
US11501535B2 (en) Image processing apparatus, image processing method, and storage medium for reducing a visibility of a specific image region
CN111385482B (en) Image processing apparatus, control method thereof, and machine-readable medium
US9563975B2 (en) Makeup support apparatus and method for supporting makeup
JP4739870B2 (en) Sunglasses detection device and face center position detection device
US11004214B2 (en) Image processing apparatus, image processing method, and storage medium
US11036966B2 (en) Subject area detection apparatus that extracts subject area from image, control method therefor, and storage medium, as well as image pickup apparatus and display apparatus
US10348958B2 (en) Image processing apparatus for performing predetermined processing on a captured image
JP2019106045A (en) Image processing device, method, and program
US9571740B2 (en) Image recognition device that recognizes specific object area, method of controlling the device, and storage medium, as well as image pickup apparatus, and display device
JP2016171445A (en) Image processing apparatus and image processing method
JP2019046239A (en) Image processing apparatus, image processing method, program, and image data for synthesis
JP7056003B2 (en) Image processing equipment, image processing methods and programs
JP6098133B2 (en) Face component extraction device, face component extraction method and program
JP2019205055A (en) Image processing apparatus, image processing apparatus control method, and program
WO2020213166A1 (en) Image processing device, image processing method, and image processing program
JP6650738B2 (en) Information processing apparatus, information processing system, information processing method and program
JP3578321B2 (en) Image normalizer
JP2018093359A (en) Image processing apparatus, image processing method, and program
CN110555810B (en) Red eye correction technique
JP2021005798A (en) Imaging apparatus, control method of imaging apparatus, and program
CN111047520B (en) Image processing apparatus, image processing method, and recording medium
JP6741237B2 (en) Image processing device, terminal device, image processing method, and storage medium
JP2008022502A (en) Imaging apparatus, imaging method, imaging program and image processing device
US10567670B2 (en) Image-processing device
JP2017167693A (en) Face authentication device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220321

R150 Certificate of patent or registration of utility model

Ref document number: 7056003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150