JP7056003B2 - Image processing equipment, image processing methods and programs - Google Patents
Image processing equipment, image processing methods and programs Download PDFInfo
- Publication number
- JP7056003B2 JP7056003B2 JP2017051196A JP2017051196A JP7056003B2 JP 7056003 B2 JP7056003 B2 JP 7056003B2 JP 2017051196 A JP2017051196 A JP 2017051196A JP 2017051196 A JP2017051196 A JP 2017051196A JP 7056003 B2 JP7056003 B2 JP 7056003B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- organ
- face
- region
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、人を撮影して得られた画像に画像処理を行う技術に関する。 The present invention relates to a technique for performing image processing on an image obtained by photographing a person.
人を撮影して得られた画像に各種の補正処理を行うことにより、被写体の人を美しく見せる画像を生成する技術が用いられている。特許文献1には、画像中の顔領域を検出し、検出した顔領域に対して美肌処理(補正処理)を行うことにより、被写体の人を美しく見せる画像を生成する装置が開示されている。
A technique is used to generate an image that makes a person look beautiful by performing various correction processes on an image obtained by photographing a person.
しかしながら、画像中の顔領域の特徴量に基づいて、この顔領域に対して美肌処理等の処理を行う構成では、画像全体又は顔領域の色味、輝度等が良好でない撮像画像に基づくと適切な処理を行うことができない虞がある。 However, in a configuration in which processing such as skin beautification is performed on the face region based on the feature amount of the face region in the image, it is appropriate to use the captured image in which the color, brightness, etc. of the entire image or the face region are not good. There is a risk that various processing cannot be performed.
本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、画像に基づく処理を適切に行うことができる撮像画像を生成することが可能な画像処理装置等を提供することにある。 The present invention has been made in view of such circumstances, and an object thereof is to provide an image processing apparatus capable of generating an captured image capable of appropriately performing image-based processing. To do.
本発明の一態様に係る画像処理装置は、人の撮像画像に画像処理を行う画像処理装置において、人の顔の所定器官における画像に係る目標値を記憶する記憶部と、撮像画像から人の顔領域を検出する顔検出部と、該顔検出部が検出した顔領域から前記所定器官の領域を検出する器官検出部と、該器官検出部が検出した所定器官の領域における特徴量を特定する特徴量特定部と、該特徴量特定部が特定した特徴量を、前記記憶部に記憶してある目標値に補正するための補正関数を生成する補正関数生成部と、前記補正関数生成部が生成した補正関数を用いて、前記撮像画像に含まれる人の衣類領域を補正する補正部と、前記補正部が補正した前記撮像画像に含まれる人の衣類領域に基づいて、前記撮像画像に含まれる人に出力する会話内容を特定するために前記人の印象を特定する印象特定部とを備えることを特徴とする。 The image processing apparatus according to one aspect of the present invention is an image processing apparatus that performs image processing on a captured image of a person, a storage unit that stores a target value related to an image in a predetermined organ of the human face, and a storage unit that stores the target value of the image in a predetermined organ of the human face, and a human image from the captured image. A face detection unit that detects a face region, an organ detection unit that detects a region of the predetermined organ from the face region detected by the face detection unit, and a feature amount in the region of the predetermined organ detected by the organ detection unit are specified. The feature amount specifying unit, the correction function generation unit that generates a correction function for correcting the feature amount specified by the feature amount specifying unit to the target value stored in the storage unit, and the correction function generation unit. It is included in the captured image based on the correction unit that corrects the clothing area of the person included in the captured image by using the generated correction function and the clothing area of the person included in the captured image corrected by the correction unit. It is characterized by including an impression specifying unit for specifying the impression of the person in order to specify the conversation content to be output to the person .
本発明の一態様に係る画像処理方法は、人の撮像画像に画像処理を行う画像処理装置による画像処理方法において、前記画像処理装置が、撮像画像から人の顔領域を検出し、検出した顔領域から顔の所定器官の領域を検出し、検出した所定器官の領域における特徴量を特定し、特定した特徴量を、記憶部に記憶してある人の顔の所定器官における画像に係る目標値に補正するための補正関数を生成し、生成した補正関数を用いて、前記撮像画像に含まれる人の衣類領域を補正し、補正した前記撮像画像に含まれる人の衣類領域に基づいて、前記撮像画像に含まれる人に出力する会話内容を特定するために前記人の印象を特定することを特徴とする。 The image processing method according to one aspect of the present invention is an image processing method using an image processing device that performs image processing on a captured image of a person, wherein the image processing device detects a human face region from the captured image and detects the face. The area of the predetermined organ of the face is detected from the area, the feature amount in the detected predetermined organ area is specified, and the specified feature amount is stored in the storage unit. A correction function for correcting the image is generated, and the generated correction function is used to correct the clothing area of the person included in the captured image, and the correction function is used to correct the clothing area of the person included in the captured image. It is characterized in that the impression of the person is specified in order to specify the conversation content to be output to the person included in the captured image .
本発明の一態様に係るプログラムは、人の顔の所定器官における画像に係る目標値を記憶する記憶部を有するコンピュータに、人の撮像画像を処理させるためのプログラムであって、前記コンピュータに、撮像画像から人の顔領域を検出し、検出した顔領域から前記所定器官の領域を検出し、検出した所定器官の領域における特徴量を特定し、特定した特徴量を、前記記憶部に記憶してある目標値に補正するための補正関数を生成し、生成した補正関数を用いて、前記撮像画像に含まれる人の衣類領域を補正し、補正した前記撮像画像に含まれる人の衣類領域に基づいて、前記撮像画像に含まれる人に出力する会話内容を特定するために前記人の印象を特定する処理を実行させることを特徴とする。 The program according to one aspect of the present invention is a program for causing a computer having a storage unit for storing a target value related to an image in a predetermined organ of a human face to process a captured image of a person. A human face region is detected from the captured image, a region of the predetermined organ is detected from the detected face region, a feature amount in the detected predetermined organ region is specified, and the specified feature amount is stored in the storage unit. A correction function for correcting to a certain target value is generated, and the generated correction function is used to correct the clothing area of the person included in the captured image, and to the clothing area of the person included in the corrected image. Based on this, it is characterized in that a process for specifying the impression of the person is executed in order to specify the conversation content to be output to the person included in the captured image .
本発明の一態様にあっては、画像に基づく処理を適切に行うことが可能な撮像画像を生成することができる。 In one aspect of the present invention, it is possible to generate a captured image capable of appropriately performing image-based processing.
以下、図面を用いて、実施の形態を具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.
(実施形態1)
図1は、実施形態1に係るコンピュータの構成例を示すブロック図である。
コンピュータ1は、例えばパーソナルコンピュータ、スマートフォン、タブレット端末等である。コンピュータ1は、制御部10、記憶部11、操作部12、表示部13及びカメラ接続部14等を含み、これらの各部はバスを介して相互に接続されている。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration example of a computer according to the first embodiment.
The
制御部10は、CPU(Central Processing Unit)又はMPU(Micro-Processing Unit)等のプロセッサを含む。制御部10は、記憶部11に記憶してある制御プログラムを適宜実行することにより、コンピュータ1が行う種々の制御処理を行う。
記憶部11は、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部11は、制御部10が実行する制御プログラム(例えば、画像処理プログラム11a)及び各種のデータ(例えば、目標値データ11b)等を予め記憶している。また記憶部11は、制御部10が制御プログラムを実行する際に発生するデータ等を一時的に記憶する。
The
The
操作部12は、例えばキーボード、マウス等を含み、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部10へ送出する。
表示部13は、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等を含み、制御部10からの指示に従って各種の情報を表示する。
操作部12及び表示部13は、一体として構成されたタッチパネルとすることもできる。
The
The
The
カメラ接続部14には、例えばケーブルを介してカメラ14aが接続される。カメラ14aは、静止画データ又は動画データ等の画像データを取得し、取得した画像データをコンピュータ1へ出力する。コンピュータ1の制御部10は、カメラ14aから出力された画像データ(以下では、撮像画像という)をカメラ接続部14を介して取得し、記憶部11に記憶させる。
なお、カメラ14aとコンピュータ1とは無線通信できるように構成されていてもよく、また、カメラ14aはコンピュータ1に内蔵された構成でもよい。
A
The
実施形態1のコンピュータ1は、上述した構成のほかに、インターネット等のネットワークに接続するための通信部を備えていてもよい。
実施形態1では、コンピュータ1に、本願のプログラムである画像処理プログラム11aをインストールし、制御部10が画像処理プログラム11aを実行することにより、コンピュータ1が本願の画像処理装置として動作する。
In addition to the above-described configuration, the
In the first embodiment, the
次に、コンピュータ1の制御部10が画像処理プログラム11aを実行することによって実現される機能について説明する。図2は、制御部10によって実現される機能を示すブロック図、図3は、制御部10が行う処理の説明図である。コンピュータ1の制御部10は、記憶部11に記憶してある画像処理プログラム11aを実行した場合、顔検出部21、器官検出部22、特徴量特定部23、補正関数生成部24、補正部25の各機能を実現する。なお、本実施形態では、上述した各機能を制御部10が画像処理プログラム11aを実行することにより実現するが、上述した各機能の一部を専用のハードウェア回路で実現してもよい。
Next, the function realized by the
顔検出部21は、カメラ接続部14を介してカメラ14aから取得した撮像画像(画像データ)から人の顔領域を検出する。カメラ14aは、例えば被写体の人の全身又は上半身を撮影しており、顔検出部21は、撮像画像に含まれる被写体の人の顔領域を検出する。顔検出部21は、例えばテンプレートマッチング技術によって撮像画像中の顔領域を検出する。具体的には、一般的な人の顔の画像を示すテンプレートが予め記憶部11に記憶されており、顔検出部21は、撮像画像からテンプレートに一致する領域を検出した場合、検出した領域を顔領域として抽出する。
例えば、図3(A)に示す撮像画像では、破線で囲った領域Fが顔領域として検出されている。
The
For example, in the captured image shown in FIG. 3A, the region F surrounded by the broken line is detected as the face region.
器官検出部22は、顔検出部21が検出した顔領域から所定器官の領域を検出する。所定器官は、例えば白目、歯、鼻、頬であり、器官検出部22は、顔領域中の白目、歯、鼻及び頬の領域を検出する。器官検出部22は、例えばテンプレートマッチング技術によって各器官の領域を検出する。具体的には、一般的な人の各器官(白目、歯、鼻及び頬)の画像を示すテンプレートが予め記憶部11に記憶されており、器官検出部22は、顔領域からテンプレートに一致する領域を検出した場合、検出した領域を各器官の領域として抽出する。
例えば、図3(B)に示す顔領域では、実線で囲った領域A1が白目領域として検出され、領域A2が歯領域として検出され、領域A3が頬領域として検出され、領域A4が鼻領域として検出されている。
The
For example, in the face region shown in FIG. 3B, the region A1 surrounded by a solid line is detected as a white eye region, the region A2 is detected as a tooth region, the region A3 is detected as a cheek region, and the region A4 is detected as a nose region. It has been detected.
なお、器官検出部22は、予めテンプレートが用意された全ての器官の領域を検出する必要はなく、少なくとも1つの器官の領域を検出すればよい。
また、一般的な人の顔領域に対する各器官の相対位置を示す情報を予め記憶部11に記憶しておき、器官検出部22は、顔検出部21が検出した顔領域に対して、記憶部11に記憶された情報に基づいて各器官の位置及び領域を検出してもよい。
The
Further, information indicating the relative position of each organ with respect to the face region of a general person is stored in advance in the
特徴量特定部23は、器官検出部22が検出した器官領域における画像の特徴量を特定する。特徴量は、例えば器官領域における代表色及び平均輝度であり、特徴量特定部23は、器官領域に含まれる画像データ(画素値)に基づいて、器官領域の代表色及び平均輝度を算出する。
器官検出部22が複数の器官領域を検出した場合、特徴量特定部23は、各器官領域の代表色及び平均輝度を特定する。そして、特徴量特定部23は、例えば器官毎に設定された重み係数を用いて重み付け加算を行い、複数の器官領域(1つの顔領域)における代表色及び輝度を算出(特定)する。
The feature
When the
補正関数生成部24は、記憶部11から目標値データ11bを読み出し、特徴量特定部23が特定した代表色及び輝度(特徴量)を、記憶部11から読み出した目標値データ11bに補正するための補正関数を生成する。目標値データ11bは、器官検出部22が検出すべき器官領域における目標値のデータであり、器官領域の画像において目標とすべき色及び輝度である。補正関数生成部24は、例えばガンマ補正関数又は線形関数を生成し、ガンマ補正関数を生成する場合はガンマ値を算出し、線形補正関数を生成する場合は係数を算出する。
The correction
補正部25は、補正関数生成部24が生成した補正関数に基づく補正処理を撮像画像に対して行う。なお、補正部25は、補正処理を、撮像画像の全体に対して行う構成でもよいし、顔検出部21が検出(抽出)した顔領域に対してのみ行う構成でもよい。例えば、図3(C)には、補正処理が撮像画像全体に行われた場合の撮像画像を示す。実施形態1では、上述した各部によって、被写体の人の顔における器官の画像情報に基づいて導出された補正関数に基づく補正処理が行われるので、撮像画像全体を適切な色味及び輝度に補正することができる。よって、撮像画像が例えば図3(A)に示すように全体的に暗い場合であっても、上述した補正処理によって、図3(C)に示すような明るい画像に補正できる。
また、制御部10が、顔検出部21が検出した顔領域を含む被写体の人の領域を検出(抽出)する処理を更に行うようにした場合、補正部25は、被写体の人の領域全体に対して補正処理を行う構成とすることもできる。
The
Further, when the
次に、コンピュータ1が行う処理について説明する。図4は、コンピュータ1が行う処理の手順を示すフローチャートである。以下の処理は、コンピュータ1の記憶部11に記憶してある制御プログラムに従って制御部10によって実行される。
コンピュータ1が画像処理対象として人の撮像画像を取得した場合、制御部10(顔検出部21)は、取得した撮像画像から人の顔領域を検出する(S1)。撮像画像中に複数の人が含まれている場合、制御部10は、複数の人の顔領域をそれぞれ検出する。
Next, the processing performed by the
When the
制御部10は、検出した顔領域のうちの1つの顔領域を抽出する(S2)。具体的には、制御部10は、検出した顔領域に含まれる画像データ(画素値)を抽出する。
次に制御部10(器官検出部22)は、ステップS2で抽出された顔領域から所定器官の領域(器官領域)を検出する(S3)。制御部10は、検出した器官領域に含まれる画像データ(画素値)を抽出し(S4)、抽出した画像データに基づいて、抽出した器官領域の特徴量(代表色及び平均輝度)を特定(算出)する(S5)。なお、ステップS3で複数の器官領域を検出した場合、制御部10は、ステップS4で、それぞれの器官領域に含まれる画像データを抽出し、ステップS5で、それぞれの器官領域の特徴量を特定し、それぞれの器官領域の特徴量に基づいて、複数の器官領域(ステップS2で抽出した顔領域)における特徴量を特定(算出)する。
The
Next, the control unit 10 (organ detection unit 22) detects a region (organ region) of a predetermined organ from the face region extracted in step S2 (S3). The
制御部10(補正関数生成部24)は、記憶部11から目標値データ11bを読み出し(S6)、ステップS5で特定した特徴量(代表色及び平均輝度)と、目標値データ11bとに基づいて補正関数を生成する(S7)。
そして制御部10(補正部25)は、ステップS7で生成した補正関数に基づいて撮像画像を補正する(S8)。ここでは、例えばステップS2で抽出した顔領域に対して補正処理を行ってもよい。
The control unit 10 (correction function generation unit 24) reads out the
Then, the control unit 10 (correction unit 25) corrects the captured image based on the correction function generated in step S7 (S8). Here, for example, the correction process may be performed on the face region extracted in step S2.
制御部10は、ステップS2で抽出した顔領域に対して上述した処理を行った場合、ステップS1で検出した顔領域のうちで、上述した処理を行っていない顔領域(未処理領域)が有るか否かを判断する(S9)。未処理領域が有ると判断した場合(S9:YES)、制御部10は、ステップS1で検出した顔領域のうちで未処理の顔領域を1つ抽出し(S2)、抽出した顔領域に対して、ステップS3~S8の処理を行う。
制御部10は、未処理領域が無いと判断した場合(S9:NO)、この撮像画像に対する処理を終了する。
When the
When the
上述した処理において、ステップS8の補正処理は、ステップS2で抽出した各顔領域に対してそれぞれ行われるほかに、撮像画像全体に行われてもよい。この場合、例えば、ステップS1で検出した顔領域のそれぞれについてステップS3で検出した器官領域のそれぞれの特徴量から、例えば器官毎に設定された重み係数を用いた重み付け加算によって、この撮像画像としての器官領域の特徴量(代表色及び輝度)を特定(算出)する。そして、特定された特徴量と、目標値データ11bとに基づいて補正関数を生成することにより、撮像画像全体を補正するための補正関数が得られる。
In the above-mentioned processing, the correction processing in step S8 may be performed on the entire captured image in addition to being performed on each face region extracted in step S2. In this case, for example, the feature amount of each of the organ regions detected in step S3 for each of the face regions detected in step S1 is weighted and added using, for example, a weighting coefficient set for each organ to obtain this captured image. Identify (calculate) the feature quantities (representative color and brightness) of the organ region. Then, by generating a correction function based on the specified feature amount and the
上述した実施形態1では、被写体の人の顔における器官の画像情報に基づいて導かれた補正関数を用いて撮像画像が補正される。撮像画像において、人の顔における白目、歯、鼻、頬等の器官の色及び輝度は化粧又は人種等の影響を受けにくく、補正後の目標値(目標とすべき色及び輝度)を設定し易い。よって、撮像画像中の人の白目及び歯等の器官領域における特徴量と、予め設定された目標値とに基づいて補正関数を生成することにより、撮像画像中の器官領域を目標の色及び輝度に近づける補正が可能な補正関数を得ることができる。また、器官領域を目標値に近づける補正が可能な補正関数を用いて撮像画像全体を補正した場合には、撮像画像全体を適切な色及び輝度に補正することができる。即ち、器官領域以外の領域においても、適切な色及び輝度に補正することができる。
よって、適切な色及び輝度に補正された撮像画像を用いることにより、適切な処理を行うことが可能となる。
In the first embodiment described above, the captured image is corrected by using a correction function derived based on the image information of the organ in the human face of the subject. In the captured image, the color and brightness of organs such as white eyes, teeth, nose, and cheeks on the human face are not easily affected by makeup or race, and the corrected target value (color and brightness to be targeted) is set. Easy to do. Therefore, by generating a correction function based on the feature amount in the organ region such as a person's white eyes and teeth in the captured image and the preset target value, the organ region in the captured image is set to the target color and brightness. It is possible to obtain a correction function that can be corrected to approach. Further, when the entire captured image is corrected by using a correction function capable of correcting the organ region closer to the target value, the entire captured image can be corrected to an appropriate color and brightness. That is, it is possible to correct the color and brightness to an appropriate level even in a region other than the organ region.
Therefore, it is possible to perform appropriate processing by using the captured image corrected to an appropriate color and brightness.
(実施形態2)
上述した実施形態1のコンピュータ1の変形例について説明する。実施形態2のコンピュータ1は、上述した実施形態1のコンピュータ1と同様の構成により実現できる。よって、同一の構成については同一の符号を付して説明を省略する。
実施形態2のコンピュータ1において、画像処理プログラム11aが実施形態1と若干異なるので、制御部10が画像処理プログラム11aを実行することにより実現される機能が実施形態1と若干異なる。なお、実施形態1と同一の機能については同一の符号を付して説明を省略する。以下では、実施形態1と異なる機能について説明する。
(Embodiment 2)
A modification of the
In the
図5は、実施形態2のコンピュータ1の制御部10によって実現される機能を示すブロック図、図6は、実施形態2のコンピュータ1の制御部10が行う処理の説明図である。
実施形態2のコンピュータ1の制御部10は、記憶部11に記憶してある画像処理プログラム11aを実行した場合、顔検出部21、器官検出部22、特徴量特定部23、補正関数生成部24、補正部25のほかに、衣服領域抽出部26及び印象特定部27の各機能を実現する。顔検出部21、器官検出部22、特徴量特定部23及び補正関数生成部24は実施形態1と同様の処理を行う。実施形態2においても、制御部10が画像処理プログラム11aを実行することにより実現する各機能の一部を専用のハードウェア回路で実現してもよい。
FIG. 5 is a block diagram showing a function realized by the
When the
衣服領域抽出部26は、撮像画像から被写体の人が着ている衣服(衣類)の領域を抽出する。衣服領域抽出部26は、例えば、撮像画像において、顔検出部21が検出した顔領域を基準として、顔領域の下側の所定領域を衣服領域として抽出する。例えば図6(A)に示す撮像画像では、2人の被写体が含まれており、顔検出部21がそれぞれの被写体の顔領域F1,F2を検出した場合、衣服領域抽出部26は、それぞれの顔領域F1,F2に対応して、それぞれの被写体の衣服領域C1,C2を抽出する。
実施形態2の補正部25は、衣服領域抽出部26が抽出した衣服領域に対して、補正関数生成部24が生成した補正関数に基づく補正処理を行う。これにより、図6(A)に示す撮像画像では、図6(B)に示すように、それぞれの被写体の衣服領域C1,C2のみが補正される。実施形態2では、被写体の顔(器官)の画像情報に基づいて導出された補正関数を用いて衣服領域が補正されるので、衣服領域を適切な色味及び輝度に補正することができる。
The clothing
The
印象特定部27は、補正部25によって補正された衣服領域の画像に基づいて、この被写体の人の印象を特定する。即ち、被写体の人の服装に基づいて被写体の人の印象が特定される。印象特定部27は、予め記憶部11に記憶されている印象情報データベース(以下、印象情報DBという)11cに基づいて被写体の人の印象を特定する。
印象情報DB11cには、例えばフォーマル、カジュアル、シック、ビビット等の印象に対応付けて、それぞれの印象を受ける衣服の平均的な色及び輝度の情報(印象情報)が予め記憶されている。
The
In the
印象特定部27は、まず、補正部25によって補正された衣服領域における画像の特徴量を特定する。ここでの特徴量は、例えば衣服領域における代表色及び平均輝度であり、印象特定部27は、衣服領域に含まれる画像データ(画素値)に基づいて、衣服領域の代表色及び平均輝度を算出する。そして、印象特定部27は、算出した衣服領域の代表色及び平均輝度と、印象情報DB11cに記憶してある印象情報とを比較し、衣服領域の代表色及び平均輝度に最も近い印象情報を特定する。印象特定部27は、特定した印象情報における印象を、この衣服領域を含む被写体の人の印象に特定する。
The
次に、実施形態2のコンピュータ1が行う処理について説明する。図7は、実施形態2のコンピュータ1が行う処理の手順を示すフローチャートである。図7に示す各処理において、図4に示した実施形態1の処理と同一の処理については同一のステップ番号を付して説明を省略する。
Next, the processing performed by the
実施形態2のコンピュータ1において、制御部10は、図4中のステップS1~S7と同様の処理を行う。
次に、制御部10(衣服領域抽出部26)は、処理対象の撮像画像から、ステップS2で抽出した顔領域を含む被写体の人の衣服領域を抽出する(S11)。具体的には、制御部10は、撮像画像において、ステップS2で抽出した顔領域の下側の所定領域を衣服領域とし、この衣服領域に含まれる画像データ(画素値)を抽出する。
In the
Next, the control unit 10 (clothing area extraction unit 26) extracts the clothing area of the subject including the face area extracted in step S2 from the captured image to be processed (S11). Specifically, the
そして制御部10(補正部25)は、ステップS11で抽出した衣服領域に対して、ステップS7で生成した補正関数に基づく補正処理を行う(S12)。
更に制御部10(印象特定部27)は、補正処理後の衣服領域に基づいて、ステップS2で抽出した顔領域を含む被写体の人の印象を特定する(S13)。
Then, the control unit 10 (correction unit 25) performs a correction process based on the correction function generated in step S7 on the clothing area extracted in step S11 (S12).
Further, the control unit 10 (impression specifying unit 27) identifies the impression of the person of the subject including the face area extracted in step S2 based on the clothing area after the correction process (S13).
制御部10は、ステップS2で抽出した顔領域に対して上述した処理を行った場合、ステップS1で検出した顔領域のうちで、上述した処理を行っていない顔領域(未処理領域)が有るか否かを判断する(S9)。未処理領域が有ると判断した場合(S9:YES)、制御部10は、ステップS1で検出した顔領域のうちで未処理の顔領域を1つ抽出し(S2)、抽出した顔領域に対して、ステップS3~S7及びS11~S13の処理を行う。
制御部10は、未処理領域が無いと判断した場合(S9:NO)、この撮像画像に対する処理を終了する。
When the
When the
実施形態2では、ステップS2で抽出した顔領域に対してステップS3~S7及びS11~S13の処理が行われる。即ち、撮像画像に複数人の被写体が含まれる場合に、それぞれの被写体毎に、補正関数の生成、補正処理の実行及び印象の特定が行われる。よって、例えば日なたにいる人と日陰にいる人とを含む撮像画像において、それぞれの被写体について各被写体の画像情報に基づく処理が実行される。従って、他の被写体の撮影状況の影響を受けることなく、それぞれの被写体に応じた補正関数に基づく補正処理が行われ、また、補正処理後の衣服領域に基づく印象特定が行われるので、それぞれの被写体の印象を精度良く特定することができる。 In the second embodiment, the processes of steps S3 to S7 and S11 to S13 are performed on the face region extracted in step S2. That is, when a plurality of subjects are included in the captured image, a correction function is generated, correction processing is executed, and an impression is specified for each subject. Therefore, for example, in a captured image including a person in the sun and a person in the shade, processing based on the image information of each subject is executed for each subject. Therefore, the correction process based on the correction function corresponding to each subject is performed without being affected by the shooting conditions of other subjects, and the impression is specified based on the clothing area after the correction process. The impression of the subject can be specified with high accuracy.
実施形態2では、上述の実施形態1と同様の効果が得られる。即ち、被写体の人の顔(器官)の画像情報に基づいて導かれた補正関数を用いて衣服領域が補正されるので、被写体の衣服領域を適切な色及び輝度に補正することができる。 In the second embodiment, the same effect as that of the first embodiment can be obtained. That is, since the clothing area is corrected by using the correction function derived based on the image information of the human face (organ) of the subject, the clothing area of the subject can be corrected to an appropriate color and brightness.
(実施形態3)
上述した実施形態2のコンピュータ1が搭載されたロボットの実施形態について説明する。図8は実施形態3に係るロボットの模式図、図9は実施形態3に係るロボットの構成例を示すブロック図である。
ロボット40は、土台となる胴体部分42の上に頭部分41が連結されており、モータ15aによって頭部分41が胴体部分42に対して、鉛直方向を軸として回転するように、また、水平面に対して上下方向に適宜角度回動するように構成されている。頭部分41にはカメラ14a及びスピーカ16aが設けられており、モータ15aによって頭部分41を回転させることにより、カメラ14a及びスピーカ16aを任意の方向に向けることができる。ロボット40は、近付いてきた人の顔を撮影できる位置にカメラ14aが配置されるように構成されている。
(Embodiment 3)
An embodiment of a robot equipped with the
In the
実施形態3のコンピュータ1は、実施形態2のコンピュータ1が有する構成のほかに、モータ15aを駆動するためのモータ駆動部15と、スピーカ16aを接続するためのスピーカ接続部16とを含む。また、実施形態3のコンピュータ1では、記憶部11に会話処理プログラム11dが記憶されている。その他の構成は、上述した実施形態2と同様であり、同一の構成については同一の符号を付して説明を省略する。なお、実施形態3では、画像処理プログラム11a及び会話処理プログラム11dは異なるプログラムとして説明するが、1つのプログラムとして構成してもよい。
The
スピーカ接続部16は、例えばケーブルを介してスピーカ16aが接続され、制御部10から音声出力を指示された内容をスピーカ16aにて音声出力する。
モータ駆動部15は、制御部10から指示されたモータ駆動量に従ってモータ15aを駆動する。
In the
The
図10は、実施形態3のコンピュータ1の制御部10によって実現される機能を示すブロック図である。実施形態3のコンピュータ1において、記憶部11に記憶してある画像処理プログラム11aは実施形態2と同一である。よって、実施形態3のコンピュータ1の制御部10が画像処理プログラム11aを実行した場合、実施形態2と同様の機能を実現する。具体的には、実施形態3の制御部10は、顔検出部21、器官検出部22、特徴量特定部23、補正関数生成部24、補正部25、衣服領域抽出部26及び印象特定部27の各機能を実現する。なお、実施形態2と同一の機能については同一の符号を付して説明を省略する。
FIG. 10 is a block diagram showing a function realized by the
次に、実施形態3のコンピュータ1の制御部10が、記憶部11に記憶してある会話処理プログラム11dを実行することによって実現される機能について説明する。実施形態3のコンピュータ1の制御部10は、会話処理プログラム11dを実行した場合、会話特定部28、頭部駆動部29及び音声出力部30の各機能を実現する。
Next, the function realized by the
会話特定部28は、印象特定部27が特定した被写体の人の印象に基づいて、この人との会話内容を特定する。会話特定部28は、予め記憶部11に記憶されている印象情報DB11cに基づいて会話内容を特定する。実施形態3の印象情報DB11cには、フォーマル、カジュアル、シック、ビビット等の印象と、それぞれの印象を受ける衣服の平均的な色及び輝度の情報と、それぞれの印象の人に応じた会話内容とが対応付けて記憶されている。よって、会話特定部28は、印象特定部27が特定した印象に対応する会話内容を印象情報DB11cから読み出す。
The
頭部駆動部29は、例えば、撮像画像において、顔検出部21が検出した顔領域の位置に基づいて、カメラ14a及びスピーカ16aを、この顔領域を有する被写体の人に向けるために、頭部分41を回転させるべき現在の状態からの回転量(モータの駆動量)を特定する。具体的には、この被写体の人が撮像領域の中央に位置するために頭部分41を回転させるべき回転量(モータの駆動量)を特定する。そして、頭部駆動部29は、特定した駆動量に基づいてモータ駆動部15にモータ15aを駆動させることにより、特定した回転量だけ頭部分41を回転させる。
音声出力部30は、会話特定部28が特定した会話内容に基づく音声を、スピーカ接続部16を介してスピーカ16aから出力する。これにより、ロボット40は、被写体の人との会話を始めることができる。
For example, in the captured image, the
The
次に、実施形態3のコンピュータ1が行う処理について説明する。図11は、実施形態3のコンピュータ1が行う処理の手順を示すフローチャートである。図11に示す各処理において、図7に示した実施形態2の処理と同一の処理については同一のステップ番号を付して説明を省略する。
Next, the processing performed by the
実施形態3のコンピュータ1において、制御部10は、図7中のステップS1~S7,S11~S13と同様の処理を行う。
次に、制御部10(会話特定部28)は、ステップS13で特定された印象に対応する会話内容を特定する(S21)。具体的には、制御部10は、印象情報DB11cから会話内容を読み出す。
また、制御部10(頭部駆動部29)は、処理対象の撮像画像において、ステップS2で抽出した顔領域の位置に基づいて、カメラ14a及びスピーカ16aを被写体の人に向けるために頭部分41を回転すべき回転量(モータ15aの駆動量)を特定する(S22)。
In the
Next, the control unit 10 (conversation specifying unit 28) specifies the conversation content corresponding to the impression specified in step S13 (S21). Specifically, the
Further, the control unit 10 (head drive unit 29)
制御部10は、ステップS22で特定した駆動量でモータ15aを駆動させ(S23)、頭部分41を回転させる。これにより、頭部分41のカメラ14a及びスピーカ16aを被写体の人に向けることができる。
また制御部10は、ステップS21で特定した会話内容に基づく音声を、スピーカ接続部16を介してスピーカ16aから出力する(S24)。
The
Further, the
制御部10は、ステップS2で抽出した顔領域に対して上述した処理を行った場合、ステップS1で検出した顔領域のうちで、上述した処理を行っていない顔領域(未処理領域)が有るか否かを判断する(S9)。未処理領域が有ると判断した場合(S9:YES)、制御部10は、ステップS1で検出した顔領域のうちで未処理の顔領域を1つ抽出し(S2)、抽出した顔領域に対して、ステップS3~S7、S11~S13及びS21~S24の処理を行う。
制御部10は、未処理領域が無いと判断した場合(S9:NO)、この撮像画像に対する処理を終了する。
When the
When the
実施形態3では、ステップS2で抽出した顔領域に対してステップS3~S7、S11~S13及びS21~S24の処理が行われる。即ち、撮像画像に複数人の被写体が含まれる場合に、それぞれの被写体毎に、補正関数の生成、補正処理の実行、印象の特定及び音声出力(会話)が行われる。よって、撮像画像に複数人の被写体が含まれる場合に、それぞれの被写体の印象を特定し、特定した印象に応じた音声出力(会話)を行うことができる。 In the third embodiment, the processes of steps S3 to S7, S11 to S13, and S21 to S24 are performed on the face region extracted in step S2. That is, when a plurality of subjects are included in the captured image, a correction function is generated, correction processing is executed, impression is specified, and voice output (conversation) is performed for each subject. Therefore, when a plurality of subjects are included in the captured image, the impression of each subject can be specified, and voice output (conversation) can be performed according to the specified impression.
実施形態3でも、上述の実施形態1,2と同様の効果が得られる。即ち、被写体の人の顔(器官)の画像情報に基づいて導かれた補正関数を用いて衣服領域が補正されるので、被写体の衣服領域を適切な色及び輝度に補正することができる。また、適切に補正された衣服領域に基づいて被写体の人の印象が特定されるので、それぞれの被写体の印象を精度良く特定することができ、それぞれの被写体の印象に応じた音声出力(会話)を行うことができる。 Also in the third embodiment, the same effects as those of the first and second embodiments described above can be obtained. That is, since the clothing area is corrected by using the correction function derived based on the image information of the human face (organ) of the subject, the clothing area of the subject can be corrected to an appropriate color and brightness. In addition, since the impression of the person of the subject is specified based on the appropriately corrected clothing area, the impression of each subject can be specified accurately, and the voice output (conversation) according to the impression of each subject. It can be performed.
人と対話するロボットは、カメラを搭載し、ロボットに近づく人を撮影して得られた画像(撮像画像)から被写体の人の印象を特定し、特定した印象から会話の取っ掛かりをつかむように構成されている場合がある。よって、このようなロボットにおいて、被写体の人の印象を精度良く特定できることは不可欠である。例えば、逆光状態での撮影のように被写体の領域が暗い撮像画像や、全体が暗い撮像画像に基づいて被写体の人の印象を特定すると、暗い印象に特定されてしまう場合がある。また、明るすぎる(輝度が高すぎる)撮像画像に基づいて被写体の人の印象を特定した場合にも、被写体の人の本来の印象よりも明るい印象に特定されてしまう可能性がある。これらの場合、被写体の人の印象を誤って特定してしまい、誤った印象に基づいて見当違いな会話を開始してしまう虞がある。よって、実施形態3のロボット40では、コンピュータ1による処理によって撮像画像を適切に補正することができ、補正後の撮像画像に基づいて被写体の人の印象を適切に特定することができる。従って、被写体の人に合った会話を行うことが可能となる。
A robot that interacts with a person is equipped with a camera so that the impression of the person being the subject can be identified from the image (captured image) obtained by taking a picture of the person approaching the robot, and the conversation can be started from the identified impression. May be configured. Therefore, in such a robot, it is indispensable to be able to accurately identify the impression of the person as the subject. For example, if the impression of a person on the subject is specified based on a captured image in which the area of the subject is dark, such as when shooting in a backlit state, or a captured image in which the entire subject is dark, the impression may be specified as a dark impression. Further, even when the impression of the subject person is specified based on the captured image that is too bright (the brightness is too high), the impression may be specified to be brighter than the original impression of the subject person. In these cases, the impression of the person as the subject may be erroneously specified, and a misguided conversation may be started based on the erroneous impression. Therefore, in the
実施形態2,3のコンピュータ1は、撮像画像中の被写体(人)の衣服領域(服装)から被写体の人の印象を特定するので、実施形態2,3の補正部25は、撮像画像中の衣服領域にのみ補正処理を行う構成であった。このほかに、被写体(人)の顔領域から被写体の印象を特定する構成とすることもできる。この場合、補正部25は、顔検出部21が検出した顔領域に補正処理を行い、印象特定部27は、補正処理後の顔領域に基づいて、被写体の人の印象特定を行えばよい。
Since the
上述した実施形態1~3のコンピュータ1は、監視カメラシステムに適用できる。実施形態1~3のコンピュータ1を用いた場合、例えば夜間に屋外の暗闇で撮影して得られた画像であっても、被写体の人の顔(器官)の画像情報に基づいて撮像画像を適切な色及び輝度に補正できる。よって、撮像画像が全体的に暗い場合であっても、適切に補正された撮像画像に基づいて不審人物の有無を検出できる。
また、実施形態1~3のコンピュータ1をデジタルスチールカメラ又はデジタルビデオカメラ等のカメラに搭載し、カメラにて実行可能な補正処理の1つとして、実施形態1~3のコンピュータ1による補正処理を行うようにしてもよい。
The
Further, the
上述した実施形態1~3のコンピュータ1による補正処理は、全体が暗い撮像画像や、被写体の人の領域が暗い撮像画像に対して効果的である。よって、処理対象の撮像画像に対して、まず、この撮像画像の平均輝度が所定値(第1閾値)以下であるか否かを判断し、平均輝度が所定値以下である撮像画像に対して、上述したような補正関数の生成、補正処理の実行を行う構成としてもよい。また、処理対象の撮像画像に対して、平均輝度が所定値(第1閾値よりも高い第2閾値)以上であるか否かを判断し、平均輝度が所定値以上である撮像画像に対して、上述したような補正関数の生成、補正処理の実行を行う構成とすることもできる。
The correction process by the
本発明の一態様に係る画像処理装置は、人の撮像画像に画像処理を行う画像処理装置において、人の顔の所定器官における画像に係る目標値を記憶する記憶部と、撮像画像から人の顔領域を検出する顔検出部と、該顔検出部が検出した顔領域から前記所定器官の領域を検出する器官検出部と、該器官検出部が検出した所定器官の領域における特徴量を特定する特徴量特定部と、該特徴量特定部が特定した特徴量を、前記記憶部に記憶してある目標値に補正するための補正関数を生成する補正関数生成部とを備えることを特徴とする。 The image processing apparatus according to one aspect of the present invention is an image processing apparatus that performs image processing on a captured image of a person, a storage unit that stores a target value related to an image in a predetermined organ of the human face, and a storage unit that stores the target value of the image in a predetermined organ of the human face, and a human image from the captured image. A face detection unit that detects a face region, an organ detection unit that detects a region of the predetermined organ from the face region detected by the face detection unit, and a feature amount in the region of the predetermined organ detected by the organ detection unit are specified. It is characterized by including a feature amount specifying unit and a correction function generation unit that generates a correction function for correcting the feature amount specified by the feature amount specifying unit to a target value stored in the storage unit. ..
本発明の一態様によれば、撮像画像中の人の顔の所定器官の領域に基づいて、この所定器官の領域を適切に補正できる補正関数を生成する。撮影状況等の影響を受け難い器官の領域に基づいて補正関数を生成することにより、撮像画像を適切に補正するための補正関数を得ることができる。 According to one aspect of the present invention, based on the region of a predetermined organ of a person's face in a captured image, a correction function capable of appropriately correcting the region of the predetermined organ is generated. By generating the correction function based on the region of the organ that is not easily affected by the shooting condition or the like, it is possible to obtain the correction function for appropriately correcting the captured image.
本発明の一態様に係る画像処理装置は、前記補正関数生成部が生成した補正関数に基づいて、前記撮像画像の一部を補正する補正部を備えることを特徴とする。
本発明の一態様によれば、撮影状況等の影響を受け難い器官の領域に基づいて生成された補正関数を用いて撮像画像を補正することにより、適切に補正された撮像画像を得ることができる。
The image processing apparatus according to one aspect of the present invention is characterized by including a correction unit that corrects a part of the captured image based on the correction function generated by the correction function generation unit.
According to one aspect of the present invention, it is possible to obtain an appropriately corrected captured image by correcting the captured image using a correction function generated based on a region of an organ that is not easily affected by a shooting condition or the like. can.
本発明の一態様に係る画像処理装置は、前記補正部が補正する撮像画像の一部は、前記撮像画像に含まれる人の衣類領域であることを特徴とする。
本発明の一態様によれば、撮像画像中の被写体の人の衣類領域を適切に補正することができる。
The image processing apparatus according to one aspect of the present invention is characterized in that a part of the captured image corrected by the correction unit is a clothing region of a person included in the captured image.
According to one aspect of the present invention, it is possible to appropriately correct the clothing area of a person as a subject in a captured image.
本発明の一態様に係る画像処理装置は、前記補正部が補正した前記撮像画像の一部に基づいて、前記撮像画像に含まれる人の印象を特定する印象特定部を備えることを特徴とする。
本発明の一態様によれば、適切に補正された撮像画像を用いることにより、撮像画像中の被写体の人の印象を精度良く特定することができる。
The image processing apparatus according to one aspect of the present invention is characterized by including an impression specifying unit that specifies an impression of a person included in the captured image based on a part of the captured image corrected by the correction unit. ..
According to one aspect of the present invention, by using an appropriately corrected captured image, it is possible to accurately identify the impression of a person as a subject in the captured image.
本発明の一態様に係る画像処理装置は、前記所定器官は、複数の器官を含み、前記器官検出部が前記複数の器官の領域を検出した場合、前記特徴量特定部は、前記器官検出部が検出した前記複数の器官の領域のそれぞれにおける特徴量を特定し、特定した複数の特徴量に基づいて、前記複数の器官の領域における特徴量を特定することを特徴とする。
本発明の一態様によれば、撮像画像中の人の顔領域から複数の器官領域が検出された場合、それぞれの器官領域における特徴量に基づいて、複数の器官領域(1つの顔領域)における特徴量が特定される。よって、複数の器官領域が検出された場合には、検出された各器官領域の特徴量を考慮した補正関数を生成することができる。
In the image processing apparatus according to one aspect of the present invention, when the predetermined organ includes a plurality of organs and the organ detection unit detects a region of the plurality of organs, the feature amount specifying unit is the organ detection unit. It is characterized in that the feature amount in each of the regions of the plurality of organs detected by is specified, and the feature amount in the region of the plurality of organs is specified based on the identified plurality of feature quantities.
According to one aspect of the present invention, when a plurality of organ regions are detected from a human face region in a captured image, the plurality of organ regions (one face region) are based on the feature amount in each organ region. Features are specified. Therefore, when a plurality of organ regions are detected, it is possible to generate a correction function in consideration of the feature amount of each detected organ region.
本発明の一態様に係る画像処理装置は、前記顔検出部が複数人の顔領域を検出した場合、前記器官検出部は、前記顔検出部が検出した顔領域毎に、各顔領域から前記所定器官の領域を検出し、前記特徴量特定部は、前記顔検出部が検出した顔領域毎に、前記器官検出部が検出した所定器官の領域における特徴量を特定し、前記補正関数生成部は、前記顔検出部が検出した顔領域毎に、前記特徴量特定部が特定した特徴量を、前記記憶部に記憶してある目標値に補正するための補正関数を生成することを特徴とする。
本発明の一態様によれば、撮像画像から複数人の顔領域が検出された場合、それぞれの顔領域(被写体の人)毎に各処理が行われるので、被写体の人毎に補正関数を生成することができる。
In the image processing apparatus according to one aspect of the present invention, when the face detection unit detects a face region of a plurality of people, the organ detection unit may perform the above from each face region for each face region detected by the face detection unit. The region of the predetermined organ is detected, and the feature amount specifying unit specifies the feature amount in the region of the predetermined organ detected by the organ detection unit for each face region detected by the face detection unit, and the correction function generation unit. Is characterized in that, for each face region detected by the face detection unit, a correction function for correcting the feature amount specified by the feature amount specifying unit to a target value stored in the storage unit is generated. do.
According to one aspect of the present invention, when a plurality of face regions are detected from a captured image, each process is performed for each face region (subject person), so that a correction function is generated for each subject person. can do.
本発明の一態様に係る画像処理装置は、前記所定器官は、白目、歯、鼻及び頬のうちの少なくとも1つを含むことを特徴とする。
本発明の一態様によれば、撮像画像中の顔領域における白目、歯、鼻、頬の器官領域に基づいて補正関数が生成される。白目、歯、鼻、頬の各器官の領域は撮影状況等の影響を受け難いので、各器官領域に基づいて適切な補正関数を生成することができる。よって、これらの各器官の領域に基づいて生成された補正関数を用いることにより、撮像画像を適切に補正することができる。
The image processing apparatus according to one aspect of the present invention is characterized in that the predetermined organ includes at least one of white eyes, teeth, nose and cheeks.
According to one aspect of the present invention, a correction function is generated based on the organ regions of white eyes, teeth, nose, and cheeks in the facial region in the captured image. Since the regions of the white eyes, teeth, nose, and cheek organs are not easily affected by the imaging conditions and the like, an appropriate correction function can be generated based on each organ region. Therefore, the captured image can be appropriately corrected by using the correction function generated based on the region of each of these organs.
本発明の一態様に係る画像処理方法は、人の撮像画像に画像処理を行う画像処理装置による画像処理方法において、前記画像処理装置が、撮像画像から人の顔領域を検出し、検出した顔領域から顔の所定器官の領域を検出し、検出した所定器官の領域における特徴量を特定し、特定した特徴量を、記憶部に記憶してある人の顔の所定器官における画像に係る目標値に補正するための補正関数を生成することを特徴とする。
本発明の一態様によれば、撮像画像中の人の顔の所定器官の領域に基づいて、この所定器官の領域だけでなく、撮像画像全体を適切に補正できる補正関数を生成することができる。
The image processing method according to one aspect of the present invention is an image processing method using an image processing device that performs image processing on a captured image of a person, wherein the image processing device detects a human face region from the captured image and detects the face. The area of the predetermined organ of the face is detected from the area, the feature amount in the detected predetermined organ area is specified, and the specified feature amount is stored in the storage unit as the target value related to the image in the predetermined organ of the human face. It is characterized by generating a correction function for correction to.
According to one aspect of the present invention, it is possible to generate a correction function that can appropriately correct not only the region of the predetermined organ but also the entire captured image based on the region of the predetermined organ of the human face in the captured image. ..
本発明の一態様に係るプログラムは、人の顔の所定器官における画像に係る目標値を記憶する記憶部を有するコンピュータに、人の撮像画像を処理させるためのプログラムであって、前記コンピュータに、撮像画像から人の顔領域を検出し、検出した顔領域から前記所定器官の領域を検出し、検出した所定器官の領域における特徴量を特定し、特定した特徴量を、前記記憶部に記憶してある目標値に補正するための補正関数を生成する処理を実行させることを特徴とする。
本発明の一態様によれば、コンピュータにインストールして実行させることにより、上述した画像処理装置をコンピュータにて実現することができる。
The program according to one aspect of the present invention is a program for causing a computer having a storage unit for storing a target value related to an image in a predetermined organ of a human face to process a captured image of a person. A human face region is detected from the captured image, a region of the predetermined organ is detected from the detected face region, a feature amount in the detected predetermined organ region is specified, and the specified feature amount is stored in the storage unit. It is characterized in that a process of generating a correction function for correcting to a certain target value is executed.
According to one aspect of the present invention, the above-mentioned image processing apparatus can be realized by a computer by installing it in a computer and executing it.
今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered to be exemplary in all respects and not restrictive. The scope of the present invention is not shown above, but is indicated by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
1 コンピュータ(画像処理装置)
10 制御部
11 記憶部
21 顔検出部
22 器官検出部
23 特徴量特定部
24 補正関数生成部
25 補正部
27 印象特定部
14a カメラ
1 Computer (image processing device)
10
Claims (6)
人の顔の所定器官における画像に係る目標値を記憶する記憶部と、
撮像画像から人の顔領域を検出する顔検出部と、
該顔検出部が検出した顔領域から前記所定器官の領域を検出する器官検出部と、
該器官検出部が検出した所定器官の領域における特徴量を特定する特徴量特定部と、
該特徴量特定部が特定した特徴量を、前記記憶部に記憶してある目標値に補正するための補正関数を生成する補正関数生成部と、
前記補正関数生成部が生成した補正関数を用いて、前記撮像画像に含まれる人の衣類領域を補正する補正部と、
前記補正部が補正した前記撮像画像に含まれる人の衣類領域に基づいて、前記撮像画像に含まれる人に出力する会話内容を特定するために前記人の印象を特定する印象特定部と
を備えることを特徴とする画像処理装置。 In an image processing device that processes images captured by humans,
A storage unit that stores target values related to images in a predetermined organ of a human face,
A face detector that detects the human face area from the captured image,
An organ detection unit that detects a region of the predetermined organ from the face region detected by the face detection unit, and an organ detection unit.
A feature amount specifying unit that specifies a feature amount in a predetermined organ region detected by the organ detection unit, and a feature amount specifying unit.
A correction function generation unit that generates a correction function for correcting the feature amount specified by the feature amount specification unit to a target value stored in the storage unit, and a correction function generation unit.
Using the correction function generated by the correction function generation unit, a correction unit that corrects a human clothing area included in the captured image, and a correction unit .
An impression specifying unit that specifies the impression of the person in order to specify the conversation content to be output to the person included in the captured image based on the clothing area of the person included in the captured image corrected by the correction unit.
An image processing device characterized by comprising.
前記器官検出部が前記複数の器官の領域を検出した場合、前記特徴量特定部は、前記器官検出部が検出した前記複数の器官の領域のそれぞれにおける特徴量を特定し、特定した複数の特徴量に基づいて、前記複数の器官の領域における特徴量を特定する
ことを特徴とする請求項1に記載の画像処理装置。 The predetermined organ includes a plurality of organs and includes a plurality of organs.
When the organ detection unit detects a region of the plurality of organs, the feature amount specifying unit identifies a feature amount in each of the regions of the plurality of organs detected by the organ detection unit, and the specified plurality of features. The image processing apparatus according to claim 1 , wherein the feature amount in the region of the plurality of organs is specified based on the amount.
前記器官検出部は、前記顔検出部が検出した顔領域毎に、各顔領域から前記所定器官の領域を検出し、
前記特徴量特定部は、前記顔検出部が検出した顔領域毎に、前記器官検出部が検出した所定器官の領域における特徴量を特定し、
前記補正関数生成部は、前記顔検出部が検出した顔領域毎に、前記特徴量特定部が特定した特徴量を、前記記憶部に記憶してある目標値に補正するための補正関数を生成する
ことを特徴とする請求項1又は2に記載の画像処理装置。 When the face detection unit detects the face areas of a plurality of people,
The organ detection unit detects a region of the predetermined organ from each face region for each face region detected by the face detection unit.
The feature amount specifying unit specifies the feature amount in the region of the predetermined organ detected by the organ detection unit for each face region detected by the face detection unit.
The correction function generation unit generates a correction function for correcting the feature amount specified by the feature amount specifying unit to a target value stored in the storage unit for each face region detected by the face detection unit. The image processing apparatus according to claim 1 or 2 , wherein the image processing apparatus is characterized by the above.
前記画像処理装置が、
撮像画像から人の顔領域を検出し、
検出した顔領域から顔の所定器官の領域を検出し、
検出した所定器官の領域における特徴量を特定し、
特定した特徴量を、記憶部に記憶してある人の顔の所定器官における画像に係る目標値に補正するための補正関数を生成し、
生成した補正関数を用いて、前記撮像画像に含まれる人の衣類領域を補正し、
補正した前記撮像画像に含まれる人の衣類領域に基づいて、前記撮像画像に含まれる人に出力する会話内容を特定するために前記人の印象を特定する
ことを特徴とする画像処理方法。 In an image processing method using an image processing device that processes an image of a person's image,
The image processing device
Detects the human face area from the captured image and
Detects the area of the predetermined organ of the face from the detected facial area,
Identify the features in the area of the detected organ,
A correction function for correcting the specified feature amount to the target value related to the image in the predetermined organ of the human face stored in the storage unit is generated.
Using the generated correction function, the clothing area of the person included in the captured image is corrected .
An image processing method comprising specifying an impression of the person in order to specify a conversation content to be output to the person included in the captured image based on the clothing area of the person included in the corrected image .
前記コンピュータに、
撮像画像から人の顔領域を検出し、
検出した顔領域から前記所定器官の領域を検出し、
検出した所定器官の領域における特徴量を特定し、
特定した特徴量を、前記記憶部に記憶してある目標値に補正するための補正関数を生成し、
生成した補正関数を用いて、前記撮像画像に含まれる人の衣類領域を補正し、
補正した前記撮像画像に含まれる人の衣類領域に基づいて、前記撮像画像に含まれる人に出力する会話内容を特定するために前記人の印象を特定する
処理を実行させることを特徴とするプログラム。 A program for causing a computer having a storage unit for storing a target value related to an image in a predetermined organ of a human face to process a captured image of a person.
To the computer
Detects the human face area from the captured image and
The area of the predetermined organ is detected from the detected face area, and the area is detected.
Identify the features in the area of the detected organ,
A correction function for correcting the specified feature amount to the target value stored in the storage unit is generated.
Using the generated correction function, the clothing area of the person included in the captured image is corrected .
A program characterized by executing a process of identifying the impression of the person in order to specify the conversation content to be output to the person included in the captured image based on the clothing area of the person included in the corrected image. ..
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017051196A JP7056003B2 (en) | 2017-03-16 | 2017-03-16 | Image processing equipment, image processing methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017051196A JP7056003B2 (en) | 2017-03-16 | 2017-03-16 | Image processing equipment, image processing methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018156246A JP2018156246A (en) | 2018-10-04 |
JP7056003B2 true JP7056003B2 (en) | 2022-04-19 |
Family
ID=63717267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017051196A Active JP7056003B2 (en) | 2017-03-16 | 2017-03-16 | Image processing equipment, image processing methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7056003B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102656963B1 (en) | 2019-04-03 | 2024-04-16 | 삼성전자 주식회사 | Electronic device and Method of controlling thereof |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003036387A (en) | 2001-07-24 | 2003-02-07 | Omron Corp | Server, terminal, advice system, program thereof, computer-readable recording medium recorded the program, output medium thereof, and advice method |
JP2005228076A (en) | 2004-02-13 | 2005-08-25 | Omron Corp | Image correcting device |
JP2006059162A (en) | 2004-08-20 | 2006-03-02 | Noritsu Koki Co Ltd | Tooth image correction method and device |
JP2006133874A (en) | 2004-11-02 | 2006-05-25 | Canon Inc | Method and apparatus for processing image |
JP2010176217A (en) | 2009-01-27 | 2010-08-12 | Nikon Corp | Image correction device and digital camera |
JP2011044964A (en) | 2009-08-21 | 2011-03-03 | Samsung Yokohama Research Institute Co Ltd | Imaging apparatus, imaging method and computer program |
JP2012141708A (en) | 2010-12-28 | 2012-07-26 | Active Term:Kk | Customer management system |
JP2013045205A (en) | 2011-08-23 | 2013-03-04 | Seiko Epson Corp | Image processor, image processing method and image processing program |
JP2017032876A (en) | 2015-08-04 | 2017-02-09 | 株式会社ディーアンドエムホールディングス | Computer readable program, play list creation device, and wireless audio system |
-
2017
- 2017-03-16 JP JP2017051196A patent/JP7056003B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003036387A (en) | 2001-07-24 | 2003-02-07 | Omron Corp | Server, terminal, advice system, program thereof, computer-readable recording medium recorded the program, output medium thereof, and advice method |
JP2005228076A (en) | 2004-02-13 | 2005-08-25 | Omron Corp | Image correcting device |
JP2006059162A (en) | 2004-08-20 | 2006-03-02 | Noritsu Koki Co Ltd | Tooth image correction method and device |
JP2006133874A (en) | 2004-11-02 | 2006-05-25 | Canon Inc | Method and apparatus for processing image |
JP2010176217A (en) | 2009-01-27 | 2010-08-12 | Nikon Corp | Image correction device and digital camera |
JP2011044964A (en) | 2009-08-21 | 2011-03-03 | Samsung Yokohama Research Institute Co Ltd | Imaging apparatus, imaging method and computer program |
JP2012141708A (en) | 2010-12-28 | 2012-07-26 | Active Term:Kk | Customer management system |
JP2013045205A (en) | 2011-08-23 | 2013-03-04 | Seiko Epson Corp | Image processor, image processing method and image processing program |
JP2017032876A (en) | 2015-08-04 | 2017-02-09 | 株式会社ディーアンドエムホールディングス | Computer readable program, play list creation device, and wireless audio system |
Also Published As
Publication number | Publication date |
---|---|
JP2018156246A (en) | 2018-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11501535B2 (en) | Image processing apparatus, image processing method, and storage medium for reducing a visibility of a specific image region | |
CN111385482B (en) | Image processing apparatus, control method thereof, and machine-readable medium | |
US9563975B2 (en) | Makeup support apparatus and method for supporting makeup | |
JP4739870B2 (en) | Sunglasses detection device and face center position detection device | |
US11004214B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US11036966B2 (en) | Subject area detection apparatus that extracts subject area from image, control method therefor, and storage medium, as well as image pickup apparatus and display apparatus | |
US10348958B2 (en) | Image processing apparatus for performing predetermined processing on a captured image | |
JP2019106045A (en) | Image processing device, method, and program | |
US9571740B2 (en) | Image recognition device that recognizes specific object area, method of controlling the device, and storage medium, as well as image pickup apparatus, and display device | |
JP2016171445A (en) | Image processing apparatus and image processing method | |
JP2019046239A (en) | Image processing apparatus, image processing method, program, and image data for synthesis | |
JP7056003B2 (en) | Image processing equipment, image processing methods and programs | |
JP6098133B2 (en) | Face component extraction device, face component extraction method and program | |
JP2019205055A (en) | Image processing apparatus, image processing apparatus control method, and program | |
WO2020213166A1 (en) | Image processing device, image processing method, and image processing program | |
JP6650738B2 (en) | Information processing apparatus, information processing system, information processing method and program | |
JP3578321B2 (en) | Image normalizer | |
JP2018093359A (en) | Image processing apparatus, image processing method, and program | |
CN110555810B (en) | Red eye correction technique | |
JP2021005798A (en) | Imaging apparatus, control method of imaging apparatus, and program | |
CN111047520B (en) | Image processing apparatus, image processing method, and recording medium | |
JP6741237B2 (en) | Image processing device, terminal device, image processing method, and storage medium | |
JP2008022502A (en) | Imaging apparatus, imaging method, imaging program and image processing device | |
US10567670B2 (en) | Image-processing device | |
JP2017167693A (en) | Face authentication device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210402 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211012 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220321 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7056003 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |