JP2014176047A - Visual effect evaluation device, method and program, and image forming apparatus - Google Patents

Visual effect evaluation device, method and program, and image forming apparatus Download PDF

Info

Publication number
JP2014176047A
JP2014176047A JP2013049991A JP2013049991A JP2014176047A JP 2014176047 A JP2014176047 A JP 2014176047A JP 2013049991 A JP2013049991 A JP 2013049991A JP 2013049991 A JP2013049991 A JP 2013049991A JP 2014176047 A JP2014176047 A JP 2014176047A
Authority
JP
Japan
Prior art keywords
image
contrast information
focused image
focus
focused
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013049991A
Other languages
Japanese (ja)
Other versions
JP5946785B2 (en
Inventor
Masayuki Naya
昌之 納谷
Eriko Ikenaga
恵梨子 池永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2013049991A priority Critical patent/JP5946785B2/en
Publication of JP2014176047A publication Critical patent/JP2014176047A/en
Application granted granted Critical
Publication of JP5946785B2 publication Critical patent/JP5946785B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a quantitative evaluation result of a visual effect such as a sense of transparency of skin with a simple method.SOLUTION: A visual effect evaluation device includes an image acquisition unit 21 for acquiring a focused image captured by focusing on a subject and a defocused image captured by shifting a focal point from the focal point, a contrast information acquisition unit 22 for acquiring contrast information of the focused image and contrast information of the defocused image, a contrast information comparison unit 23 for comparing the contrast information of the focused image with the contrast information of the defocused image, and a display control unit 24 allowing the display of visual evaluation information of the subject on the basis of the comparison result.

Description

本発明は、人の肌の透明感などの視覚効果を評価する視覚効果評価装置、方法およびプログラム並びに画像撮像装置に関するものである。   The present invention relates to a visual effect evaluation apparatus, method and program for evaluating visual effects such as a human skin transparency, and an image pickup apparatus.

肌の美しさを評価する指標の一つとして肌の透明感がある。肌の透明感は、肌のキメや毛穴の広がり、肌の表面の凹凸の状態などによって変わるものであり、このような肌の透明感を簡便な方法によって客観的に定量化して評価する方法が望まれている。   One of the indicators for evaluating the beauty of skin is the transparency of the skin. Skin transparency changes depending on the texture of the skin, the spread of pores, the unevenness of the surface of the skin, etc., and there is a method for objectively quantifying and evaluating such skin transparency by a simple method. It is desired.

このように肌の透明感を定量化して評価することによって、化粧品の開発などに役立てることができたり、また、自分の肌の透明感を客観的に知りたいというニーズもある。また、肌に限らず、置物などのインテリアの質感などを定量化して評価できれば、それらの設計に役立てることができたり、また、購入する際における客観的な指標とすることができる。   Quantifying and evaluating skin transparency in this way can be used for the development of cosmetics, and there is a need to objectively know the transparency of your skin. If the texture of interiors such as figurines can be quantified and evaluated, not only the skin, it can be used for designing them, and can be used as an objective index when purchasing.

特開2011−240086号公報JP 2011-240086 A 特開2005−159561号公報JP 2005-159561 A

現在、上述したように肌の透明感や物の質感などを簡便な方法によって評価する方法は提案されておらず、たとえば、特許文献1においては、肌の画像を解析することによって肌の色ムラを評価する方法が提案されているが、肌の透明感を定量的に評価する方法については提案されていない。   Currently, as described above, a method for evaluating the transparency of a skin, the texture of an object, and the like by a simple method has not been proposed. For example, in Patent Document 1, skin color unevenness is analyzed by analyzing a skin image. Has been proposed, but no method for quantitatively evaluating skin transparency has been proposed.

また、特許文献2には、人の顔に焦点を合わせた合焦画像と、合焦画像の焦点から焦点がずれた非合焦画像とを取得することが開示されているが、これらの画像を用いて肌の透明感を定量的に評価する方法については開示されていない。   Patent Document 2 discloses that a focused image focused on a human face and a non-focused image defocused from the focus of the focused image are disclosed. There is no disclosure of a method for quantitatively evaluating the translucency of the skin using the.

本発明は、上記の問題に鑑み、肌の透明感や物の質感などの視覚効果の定量的な評価結果を簡便に確認することができる視覚効果評価方法、装置およびプログラム並びに画像撮像装置を提供することを目的とする。   In view of the above problems, the present invention provides a visual effect evaluation method, an apparatus, a program, and an image pickup apparatus that can easily confirm a quantitative evaluation result of visual effects such as skin transparency and the texture of an object. The purpose is to do.

本発明の視覚効果評価装置は、被検体に焦点を合わせて撮影された合焦画像と、上記焦点から焦点をずらして撮影された非合焦画像とを取得する画像取得部と、合焦画像のコントラスト情報と非合焦画像のコントラスト情報とを取得するコントラスト情報取得部と、合焦画像のコントラスト情報と非合焦画像のコントラスト情報とを比較するコントラスト情報比較部と、その比較結果に基づいて、被検体の視覚的な評価情報を表示させる表示制御部とを備えたことを特徴とする。   The visual effect evaluation apparatus according to the present invention includes an image acquisition unit that acquires an in-focus image captured with the subject focused and a non-focus image captured with the focus shifted from the focus, and the focused image. Information acquisition unit for acquiring the contrast information of the in-focus image and the contrast information of the in-focus image, the contrast information comparison unit for comparing the contrast information of the in-focus image and the contrast information of the non-focus image, and based on the comparison result And a display control unit for displaying visual evaluation information of the subject.

また、上記本発明の視覚効果評価装置においては、コントラスト情報取得部を、合焦画像に対してフーリエ変換処理を施して合焦画像の空間周波数スペクトルを合焦画像のコントラスト情報として取得し、かつ非画像画像に対してフーリエ変換処理を施して非合焦画像の空間周波数スペクトルを非合焦画像のコントラスト情報として取得するものとできる。   In the visual effect evaluation device of the present invention, the contrast information acquisition unit performs a Fourier transform process on the focused image to acquire the spatial frequency spectrum of the focused image as the contrast information of the focused image, and The non-image image can be subjected to Fourier transform processing to acquire the spatial frequency spectrum of the non-focus image as the contrast information of the non-focus image.

また、コントラスト情報比較部を、合焦画像の空間周波数スペクトルと非合焦画像の空間周波数スペクトルとの相関係数を上記比較結果として取得するものとできる。   Further, the contrast information comparison unit can acquire a correlation coefficient between the spatial frequency spectrum of the focused image and the spatial frequency spectrum of the out-of-focus image as the comparison result.

また、表示制御部を、上記相関係数を視覚的な評価情報として表示させるものとできる。   Further, the display control unit can display the correlation coefficient as visual evaluation information.

また、表示制御部を、合焦画像および非画像画像の空間周波数スペクトルを視覚的な評価情報として表示させるものとできる。   Further, the display control unit can display the spatial frequency spectrum of the focused image and the non-image image as visual evaluation information.

また、コントラスト情報を取得する被検体における評価対象範囲の情報を取得する評価対象範囲取得部を設けることができる。   In addition, an evaluation target range acquisition unit that acquires information on the evaluation target range in the subject from which contrast information is acquired can be provided.

また、画像取得部を、被検体の所望の色画像または偏光画像を取得するものとし、表示制御部を、色画像または偏光画像を表示させるものとできる。   Further, the image acquisition unit can acquire a desired color image or polarization image of the subject, and the display control unit can display the color image or polarization image.

本発明の画像撮像装置は、上記本発明の視覚効果評価装置と、被検体の合焦画像および非合焦画像を撮像する撮像素子とを備えたことを特徴とする。   An image capturing apparatus according to the present invention includes the above-described visual effect evaluation apparatus according to the present invention and an image sensor that captures a focused image and a non-focused image of a subject.

また、上記本発明の画像撮像装置においては、被検体の像を撮像素子に結像するフォーカスレンズ結像系と、そのフォーカスレンズ結像系を制御することによって、合焦画像を取得する際のフォーカス処理と非合焦画像を取得する際のデフォーカス処理とを自動的に行うフォーカス制御部とを設けることができる。   In the image pickup apparatus of the present invention, a focus lens image forming system that forms an image of a subject on the image pickup element and a focus lens image forming system are controlled to obtain a focused image. A focus control unit that automatically performs the focus process and the defocus process when acquiring the out-of-focus image can be provided.

また、フォーカス制御部を、合焦画像と非合焦画像の撮影の前に予め設定された被検体における焦点位置に対して、フォーカス処理とデフォーカス処理とを自動的に行うものとできる。   In addition, the focus control unit can automatically perform the focus process and the defocus process on the focus position in the subject that is set in advance before capturing the focused image and the unfocused image.

また、フォーカス制御部を、被検体における焦点位置の指定を受け付けるものとできる。   Further, the focus control unit can accept designation of a focal position in the subject.

本発明の視覚効果評価方法は、被検体に焦点を合わせて撮影された合焦画像と、上記焦点から焦点をずらして撮影された非合焦画像とを取得し、合焦画像のコントラスト情報と非合焦画像のコントラスト情報とを取得し、合焦画像のコントラスト情報と非合焦画像のコントラスト情報とを比較し、その比較結果の情報に基づいて、被検体の視覚的な評価情報を表示させることを特徴とする。   The visual effect evaluation method of the present invention obtains a focused image shot with a focus on a subject and a non-focused image shot with a focus shifted from the focus, and contrast information of the focused image The contrast information of the in-focus image is acquired, the contrast information of the in-focus image and the contrast information of the non-focus image are compared, and the visual evaluation information of the subject is displayed based on the comparison result information It is characterized by making it.

本発明の視覚効果評価プログラムは、コンピュータを、被検体に焦点を合わせて撮影された合焦画像と、上記焦点から焦点をずらして撮影された非合焦画像とを取得する画像取得部と、合焦画像のコントラスト情報と非合焦画像のコントラスト情報とを取得するコントラスト情報取得部と、合焦画像のコントラスト情報と非合焦画像のコントラスト情報とを比較するコントラスト情報比較部と、その比較結果の情報に基づいて、被検体の視覚的な評価情報を表示させる表示制御部として機能させることを特徴とする。   The visual effect evaluation program of the present invention includes a computer, an image acquisition unit that acquires an in-focus image captured with the subject focused on, and an unfocused image captured with the focus shifted from the focus, A contrast information acquisition unit that acquires contrast information of a focused image and contrast information of a non-focused image, a contrast information comparison unit that compares contrast information of a focused image and contrast information of a non-focused image, and comparison Based on the information of the result, it functions as a display control unit that displays visual evaluation information of the subject.

本発明の視覚効果評価装置、方法およびプログラム並びに画像撮像装置によれば、被検体に焦点を合わせて撮影された合焦画像と、上記焦点から焦点をずらして撮影された非合焦画像とを取得し、合焦画像のコントラスト情報と非合焦画像のコントラスト情報とを取得し、合焦画像のコントラスト情報と非合焦画像のコントラスト情報とを比較し、その比較結果に基づいて、被検体の視覚的な評価情報を表示させるようにしたので、たとえば肌の透明感などの視覚効果の定量的な評価結果を簡便な方法によって確認することができる。なお、コントラスト情報の比較結果を肌の評価情報として用いることができる理由については、後で詳述する。   According to the visual effect evaluation device, method, program, and image capturing device of the present invention, a focused image that is photographed while focusing on the subject, and a non-focused image that is photographed while shifting the focus from the focus. Obtain the contrast information of the focused image and the contrast information of the unfocused image, compare the contrast information of the focused image and the contrast information of the unfocused image, and based on the comparison result, Since the visual evaluation information is displayed, a quantitative evaluation result of visual effects such as skin transparency can be confirmed by a simple method. The reason why the comparison result of contrast information can be used as skin evaluation information will be described in detail later.

本発明の視覚効果評価装置の一実施形態を用いた画像撮像装置の概略構成を示すブロック図The block diagram which shows schematic structure of the image pick-up device using one Embodiment of the visual effect evaluation apparatus of this invention 本発明の視覚効果評価装置の一実施形態を用いた画像撮像装置の作用を説明するためのフローチャートThe flowchart for demonstrating an effect | action of the imaging device using one Embodiment of the visual effect evaluation apparatus of this invention. 化粧評価用頭部マネキンを撮影して取得された合焦画像と非合焦画像の一例を示す図The figure which shows an example of the focused image and non-focused image which were acquired by photographing the head mannequin for makeup evaluation 合焦画像の頬部の範囲の空間周波数スペクトルおよび極座標変換したグラフと、非合焦画像の頬部の範囲の空間周波数スペクトルおよび極座標変換したグラフとの一例を示す図The figure which shows an example of the graph which carried out the spatial frequency spectrum and polar coordinate conversion of the range of the cheek part of a focused image, and the graph which carried out the spatial frequency spectrum and polar coordinate conversion of the range of the cheek part of a non-focus image 合焦画像の目の範囲の空間周波数スペクトルおよび極座標変換したグラフと、非合焦画像の目の範囲の空間周波数スペクトルおよび極座標変換したグラフの一例を示す図The figure which shows an example of the graph which carried out the spatial frequency spectrum and polar coordinate transformation of the eye range of a focusing image, and the graph which carried out the spatial frequency spectrum and polar coordinate transformation of the eye range of a non-focusing image 明るい頬部の範囲Ra1,Ra2と、暗い頬部の範囲Rb1,Rb2をそれぞれ評価対象範囲として指定した図A diagram in which bright cheek range Ra1 and Ra2 and dark cheek range Rb1 and Rb2 are designated as evaluation target ranges, respectively. 合焦画像における明るい頬部の範囲Ra1の空間周波数スペクトルと、非合焦画像における明るい頬部の範囲Ra2の空間周波数スペクトルの一例を示す図The figure which shows an example of the spatial frequency spectrum of range Ra1 of the bright cheek part in an in-focus image, and the spatial frequency spectrum of range Ra2 of the bright cheek part in a non-focus image 合焦画像における暗い頬部の範囲Rb1の空間周波数スペクトルと、非合焦画像における暗い頬部の範囲Rb2の空間周波数スペクトルの一例を示す図The figure which shows an example of the spatial frequency spectrum of the dark cheek part range Rb1 in a focused image, and the spatial frequency spectrum of the dark cheek part range Rb2 in a non-focused image 本発明の視覚効果評価装置のその他の実施形態を用いた画像撮像装置の概略構成を示すブロック図The block diagram which shows schematic structure of the image pick-up device using other embodiment of the visual effect evaluation apparatus of this invention.

以下、本発明の視覚効果評価装置および方法並びにプログラムの一実施形態を用いた画像撮像装置について、図面を参照しながら詳細に説明する。図1は、本実施形態の画像撮像装置1の概略構成を示すブロック図である。なお、図1に示す画像撮像装置1における視覚効果評価装置20は、本発明の視覚効果評価プログラムを画像撮像装置1内のメモリなどにインストールし、そのプログラムを画像撮像装置1内の制御部40によって実行することにより実現されるものである。画像撮像装置1にインストールされる視覚効果評価プログラムは、CD−ROM等の記録媒体に記憶されたものでもよいし、インターネット等のネットワークを介して配布されたものでもよい。また、本実施形態の画像撮像装置1は、視覚効果評価装置20に特徴を有するものであるため、以下、その点を中心に説明する。   Hereinafter, an image pickup apparatus using an embodiment of the visual effect evaluation apparatus and method and program of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating a schematic configuration of an image capturing apparatus 1 according to the present embodiment. The visual effect evaluation device 20 in the image pickup apparatus 1 shown in FIG. 1 installs the visual effect evaluation program of the present invention in a memory or the like in the image pickup device 1, and the program is installed in the control unit 40 in the image pickup device 1. It is realized by executing the above. The visual effect evaluation program installed in the image capturing apparatus 1 may be stored in a recording medium such as a CD-ROM, or may be distributed via a network such as the Internet. In addition, since the image capturing apparatus 1 according to the present embodiment is characterized by the visual effect evaluation apparatus 20, the following description will be focused on that point.

本実施形態の画像撮像装置1は、図1に示すように、人の顔の像を撮像する撮像素子10と、人の顔の像を撮像素子10の撮像面に結像するフォーカスレンズ結像系11と、撮像素子10によって撮像された画像に基づいて、人の顔の肌の評価情報を取得する視覚効果評価装置20と、視覚効果評価装置20によって取得された肌の評価情報を表示する表示部30と、画像撮像装置1の全体を制御する制御部40とを備えている。   As shown in FIG. 1, the image capturing apparatus 1 according to the present embodiment includes an image sensor 10 that captures an image of a human face, and a focus lens image that forms an image of a human face on an imaging surface of the image sensor 10. Based on the image captured by the system 11 and the image sensor 10, the visual effect evaluation device 20 that acquires the evaluation information of the skin of the human face and the skin evaluation information acquired by the visual effect evaluation device 20 are displayed. A display unit 30 and a control unit 40 that controls the entire image capturing apparatus 1 are provided.

撮像素子10は、所定のカラーフィルタ配列を持つCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサなどから構成されるものである。撮像素子10によって撮像された人の顔を含む画像は、デジタル信号に変換された後、視覚効果評価装置20に出力される。   The image sensor 10 is composed of a CCD (Charge Coupled Device) having a predetermined color filter array, a CMOS (Complementary Metal Oxide Semiconductor) sensor, and the like. An image including a human face imaged by the image sensor 10 is converted into a digital signal and then output to the visual effect evaluation device 20.

フォーカスレンズ結像系11は、図示省略したフォーカスアクチュエータに駆動されて光軸(図1の矢印A方向)に沿って前後移動する2枚のレンズ11a,11bから構成されるものである。フォーカスアクチュエータは、後述するフォーカス制御部26からの制御信号に応じて駆動制御されるものである。なお、フォーカスレンズ結像系11は、2枚のレンズから構成されるものに限らず、1枚のレンズから構成されるものでも良いし、3枚以上のレンズ群から構成されるものでもよい。   The focus lens imaging system 11 is composed of two lenses 11a and 11b that are driven by a focus actuator (not shown) to move back and forth along the optical axis (in the direction of arrow A in FIG. 1). The focus actuator is driven and controlled in accordance with a control signal from a focus control unit 26 described later. Note that the focus lens imaging system 11 is not limited to one composed of two lenses, but may be composed of one lens, or may be composed of three or more lens groups.

視覚効果評価装置20は、画像取得部21と、コントラスト情報取得部22と、コントラスト情報比較部23と、表示制御部24と、評価対象範囲取得部25と、フォーカス制御部26とを備えている。   The visual effect evaluation device 20 includes an image acquisition unit 21, a contrast information acquisition unit 22, a contrast information comparison unit 23, a display control unit 24, an evaluation target range acquisition unit 25, and a focus control unit 26. .

画像取得部21は、撮像素子10から取得された画像データを取得するものであり、特に、本実施形態においては、被写体である顔に焦点を合わせて撮影された合焦画像と、上記焦点から焦点をずらして撮影された非合焦画像とを取得するものである。   The image acquisition unit 21 acquires image data acquired from the image sensor 10. In particular, in the present embodiment, the image acquisition unit 21 is based on a focused image that is captured with a focus on the face that is the subject, and the focus. A non-focus image taken with a defocus is acquired.

合焦画像は、フォーカス制御部26によるフォーカスレンズ結像系11の制御によって、人の顔に焦点が合った状態で撮像された画像である。非合焦画像は、合焦画像が撮像された際におけるフォーカスレンズ結像系11の焦点からずれた位置に焦点があった状態で撮像された画像である。   The in-focus image is an image captured in a state in which the human face is in focus by the control of the focus lens imaging system 11 by the focus control unit 26. The out-of-focus image is an image captured in a state where the focus is at a position deviated from the focus of the focus lens imaging system 11 when the focused image is captured.

コントラスト情報取得部22は、画像取得部21によって取得された合焦画像のコントラスト情報と、非合焦画像のコントラスト情報とを取得するものである。具体的には、本実施形態のコントラスト情報取得部22は、合焦画像に対して高速フーリエ変換処理を施して空間周波数スペクトルを算出し、その算出した空間周波数スペクトルを合焦画像のコントラスト情報として取得するものである。また、コントラスト情報取得部22は、非合焦画像に対しても高速フーリエ変換処理を施して空間周波数スペクトルを算出し、その算出した空間周波数スペクトルを非合焦画像のコントラスト情報として取得するものである。   The contrast information acquisition unit 22 acquires the contrast information of the focused image acquired by the image acquisition unit 21 and the contrast information of the non-focused image. Specifically, the contrast information acquisition unit 22 of the present embodiment performs a fast Fourier transform process on the focused image to calculate a spatial frequency spectrum, and uses the calculated spatial frequency spectrum as contrast information of the focused image. To get. Further, the contrast information acquisition unit 22 calculates a spatial frequency spectrum by performing a fast Fourier transform process on the unfocused image, and acquires the calculated spatial frequency spectrum as contrast information of the unfocused image. is there.

このように空間周波数スペクトルをコントラスト情報として取得することによって、肌の表面の凹凸パターンの情報をコントラスト情報に含めることができ、すなわち、肌の見た目の透明感の情報をコントラスト情報に含めることができる。   By acquiring the spatial frequency spectrum as contrast information in this way, information on the uneven pattern on the surface of the skin can be included in the contrast information, that is, information on the apparent transparency of the skin can be included in the contrast information. .

なお、本実施形態においては、コントラスト情報として空間周波数スペクトルを取得するようにしたが、これに限らず、たとえば、合焦画像における最大輝度値と最小輝度値との差または比を合焦画像のコントラスト情報として取得し、非合焦画像における最大輝度値と最小輝度値との差または比を非合焦画像のコントラスト情報として取得するようにしてもよい。また、合焦画像および非合焦画像のコントラストを表す情報であれば、その他の情報を取得するようにしてもよい。   In the present embodiment, the spatial frequency spectrum is acquired as the contrast information. However, the present invention is not limited to this. For example, the difference or ratio between the maximum luminance value and the minimum luminance value in the focused image is determined. It may be acquired as contrast information, and the difference or ratio between the maximum luminance value and the minimum luminance value in the non-focused image may be acquired as the contrast information of the non-focused image. Further, other information may be acquired as long as the information represents the contrast between the focused image and the unfocused image.

コントラスト情報比較部23は、コントラスト情報取得部22によって取得された合焦画像のコントラスト情報と非合焦画像のコントラスト情報とを比較し、その比較結果を表示制御部24に出力するものである。   The contrast information comparison unit 23 compares the contrast information of the focused image acquired by the contrast information acquisition unit 22 and the contrast information of the non-focused image, and outputs the comparison result to the display control unit 24.

具体的には、本実施形態のコントラスト情報比較部23は、合焦画像の空間周波数スペクトルと非合焦画像の空間周波数スペクトルとの相関係数を算出し、その相関係数を比較結果として表示制御部24に出力するものである。   Specifically, the contrast information comparison unit 23 of the present embodiment calculates a correlation coefficient between the spatial frequency spectrum of the focused image and the spatial frequency spectrum of the out-of-focus image, and displays the correlation coefficient as a comparison result. This is output to the control unit 24.

なお、本実施形態においては、合焦画像のコントラスト情報と非合焦画像のコントラスト情報との比較結果として空間周波数スペクトルの相関係数を取得するようにしたが、コントラスト情報の比較結果としては、これに限られるものではない。たとえば、コントラスト情報が、最大輝度値と最小輝度値との差または比のような1つの数値である場合には、合焦画像のコントラスト情報と非合焦画像のコントラスト情報との差や比を比較結果として取得するようにしてもよい。   In the present embodiment, the correlation coefficient of the spatial frequency spectrum is acquired as a comparison result between the contrast information of the focused image and the contrast information of the non-focused image. It is not limited to this. For example, when the contrast information is one numerical value such as the difference or ratio between the maximum luminance value and the minimum luminance value, the difference or ratio between the contrast information of the focused image and the contrast information of the non-focused image is calculated. You may make it acquire as a comparison result.

表示制御部24は、コントラスト情報比較部23から出力されたコントラスト情報の比較結果に基づいて、肌の評価情報を表示部30に表示させるものである。具体的には、本実施形態の表示制御部24は、合焦画像の空間周波数スペクトルと非合焦画像の空間周波数スペクトルとの相関係数の値を、肌の評価情報として表示部30に表示させるものである。   The display control unit 24 displays the skin evaluation information on the display unit 30 based on the comparison result of the contrast information output from the contrast information comparison unit 23. Specifically, the display control unit 24 of the present embodiment displays the value of the correlation coefficient between the spatial frequency spectrum of the focused image and the spatial frequency spectrum of the out-of-focus image on the display unit 30 as skin evaluation information. It is something to be made.

なお、本実施形態においては、相関係数の値をそのまま肌の評価情報として表示部30に表示させるようにしたが、これに限らず、たとえば、予め相関係数を閾値によって複数の段階に分類し、相関係数が大きいほどより透明感がある肌であるとして各分類に丸、三角、バツのような記号を割り当てておき、今回取得した相関係数が属する分類の記号を表示するようにしてもよい。また、このような記号ではなく、異なる色のマークを割り当てておき、今回取得した相関係数が属する分類の色のマークを表示するようにしてもよい。   In the present embodiment, the correlation coefficient value is displayed as it is on the display unit 30 as the skin evaluation information. However, the present invention is not limited to this. For example, the correlation coefficient is classified into a plurality of stages according to threshold values in advance. However, the larger the correlation coefficient is, the more transparent the skin is, and symbols such as circles, triangles, and crosses are assigned to each classification, and the classification symbol to which the correlation coefficient acquired this time belongs is displayed. May be. Further, instead of such a symbol, a mark of a different color may be assigned and a color mark of the classification to which the correlation coefficient acquired this time belongs may be displayed.

また、表示制御部24は、肌の評価情報として相関係数の情報を表示させるだけでなく、合焦画像と非合焦画像の空間周波数スペクトルや、空間周波数スペクトルを極座標変換したグラフなども表示させるようにしてもよい。   In addition, the display control unit 24 displays not only the correlation coefficient information as the skin evaluation information, but also displays the spatial frequency spectrum of the focused image and the unfocused image, a graph obtained by polar conversion of the spatial frequency spectrum, and the like. You may make it make it.

また、表示制御部24は、画像取得部21において取得された合焦画像と非合焦画像とを表示部30に表示させるものである。   The display control unit 24 causes the display unit 30 to display the focused image and the out-of-focus image acquired by the image acquisition unit 21.

評価対象範囲取得部25は、上述したコントラスト情報を算出する顔における評価対象範囲の情報を取得するものである。具体的には、表示部30に表示された合焦画像または非合焦画像上において、ユーザによって評価対象範囲が指定され、評価対象範囲取得部25は、その指定された評価対象範囲の情報を取得するものである。評価対象範囲取得部25によって取得された評価対象範囲の情報は、コントラスト情報取得部22に出力され、コントラスト情報取得部22は、入力された評価対象範囲内の合焦画像および非合焦画像のコントラスト情報を取得するものである。   The evaluation target range acquisition unit 25 acquires information on the evaluation target range in the face for which the contrast information is calculated. Specifically, the evaluation target range is designated by the user on the focused image or the non-focused image displayed on the display unit 30, and the evaluation target range acquisition unit 25 stores information on the designated evaluation target range. To get. Information on the evaluation target range acquired by the evaluation target range acquisition unit 25 is output to the contrast information acquisition unit 22, and the contrast information acquisition unit 22 stores the in-focus image and the unfocused image in the input evaluation target range. Contrast information is acquired.

なお、ユーザによる評価対象範囲の指定については、本実施形態においてはタッチパネルで構成された表示部30上で受け付けられるものとするが、これに限らず、その他の所定の入力部によって評価対象範囲の指定を受け付けるようにしてもよい。   In addition, about the designation | designated of the evaluation object range by a user, it shall be accepted on the display part 30 comprised with the touch panel in this embodiment, However, Not only this but the evaluation object range by other predetermined input parts. You may make it accept designation | designated.

上記のように評価対象範囲を任意に指定できるようにすることによって、顔の中における関心領域を任意に指定することができる。なお、評価対象範囲は、任意にユーザが指定するのではなく、顔の頬部や額部などを自動的に検出して、その部分を評価対象範囲として自動的に設定するようにしてもよい。顔の頬部や額部の検出方法については、公知な方法を用いることができる。   By making it possible to arbitrarily specify the evaluation target range as described above, it is possible to arbitrarily specify the region of interest in the face. Note that the evaluation target range is not arbitrarily specified by the user, but the cheek part or the forehead part of the face may be automatically detected, and the part may be automatically set as the evaluation target range. . A well-known method can be used about the detection method of a cheek part of a face, or a forehead part.

フォーカス制御部26は、上述したようにフォーカスレンズ結像系11の各レンズ11a,11bの移動を制御するものである。フォーカス制御部26は、いわゆるオートフォーカス処理によってフォーカスレンズ結像系11を移動させ、合焦画像を撮影するための焦点位置となるように制御するものである。   The focus control unit 26 controls the movement of the lenses 11a and 11b of the focus lens imaging system 11 as described above. The focus control unit 26 controls the focus lens imaging system 11 to move to a focal position for taking a focused image by so-called autofocus processing.

また、上述したオートフォーカス処理において、各レンズ11a,11bを移動させながら各位置で画像を撮像し、その複数の画像のうち、コントラストが最も高い画像が撮影されたときのレンズ11a,11bの位置を顔に対する合焦位置とする場合には、その合焦位置以外のレンズ位置で撮像された画像を上述した非合焦画像として取得するようにしてもよい。すなわち、この場合、オートフォーカス処理の中でデフォーカス処理も行われていることになる。このようにしてオートフォーカス処理の中で非合焦画像を取得することによって、改めてデフォーカス処理を行う必要がなく、処理を早く行うことができる。   Further, in the above-described autofocus processing, an image is picked up at each position while moving the lenses 11a and 11b, and the position of the lenses 11a and 11b when the image having the highest contrast is taken from among the plurality of images. May be acquired as the above-mentioned unfocused image, when the image is captured at a lens position other than the focus position. That is, in this case, the defocus process is also performed in the autofocus process. In this way, by acquiring the out-of-focus image during the autofocus process, it is not necessary to perform the defocus process again, and the process can be performed quickly.

ただし、これに限らず、顔に対する合焦位置からのずれ量を予め設定しておき、そのずれ量に基づいて各レンズ11a,11bを移動させてデフォーカス処理を行って非合焦画像を撮影するようにしてもよい。   However, the present invention is not limited to this, and an amount of deviation from the in-focus position with respect to the face is set in advance, and each lens 11a, 11b is moved based on the amount of deviation to perform defocus processing, thereby taking a non-focused image. You may make it do.

また、上述したようにコントラストが最も高い画像が撮影されたときのレンズ11a,11bの位置を顔に対する合焦位置とするのではなく、顔における合焦位置を予め設定するようにしてもよい。   Further, as described above, the positions of the lenses 11a and 11b when an image with the highest contrast is taken may not be set as the focus position with respect to the face, but the focus position on the face may be set in advance.

たとえば顔における頬部や鼻や額や眼などといった特定の部位を焦点位置として予め設定するようにしてもよい。そして、フォーカス制御部26において、これらの特定部位を画像から自動的に認識し、その認識した特定部位を焦点位置として、フォーカス処理やデフォーカス処理を自動的に行って合焦画像と非合焦画像とを取得するようにしてもよい。なお、画像における頬部などの自動認識については、種々の公知の技術を用いることができる。   For example, a specific part such as a cheek, nose, forehead, or eye on the face may be set in advance as the focal position. Then, the focus control unit 26 automatically recognizes these specific parts from the image, and automatically performs focus processing and defocus processing using the recognized specific parts as a focal position to perform in-focus with the focused image. You may make it acquire an image. Note that various known techniques can be used for automatic recognition of the cheeks in the image.

また、上述したように特定部位を画像から自動的に認識するのではなく、ユーザが指定するようにしてもよい。具体的には、たとえばタッチパネルで構成された表示部30上で焦点位置とする特定部位の指定を受け付けるようにしてもよい。   In addition, as described above, the specific part may not be automatically recognized from the image but may be designated by the user. Specifically, for example, designation of a specific part as a focal position on the display unit 30 configured with a touch panel may be accepted.

また、上述した評価対象範囲を焦点位置として設定するようにしてもよい。   Moreover, you may make it set the evaluation object range mentioned above as a focus position.

表示部30は、上述したように、肌の評価情報や合焦画像や非合焦画像を表示するものである。本実施形態の表示部30はタッチパネルで構成され、上述したように評価対象範囲の指定を受け付けるものでもある。評価対象範囲の受け付けは、たとえば、合焦画像または非合焦画像上に矩形の枠画像を表示させ、その枠画像の位置や大きさの指定を受け付けることによって行うようにすればよい。   As described above, the display unit 30 displays skin evaluation information, a focused image, and a non-focused image. The display unit 30 of the present embodiment is configured by a touch panel, and accepts designation of the evaluation target range as described above. The evaluation target range may be received, for example, by displaying a rectangular frame image on the focused image or the non-focused image and receiving the designation of the position and size of the frame image.

次に、本実施形態の画像撮像装置1の作用について、図2に示すフローチャートを参照しながら説明する。   Next, the operation of the image capturing apparatus 1 of the present embodiment will be described with reference to the flowchart shown in FIG.

まず、フォーカスレンズ結像系11を制御して人の顔を撮像素子10によって撮像することによって合焦画像と非合焦画像とが画像取得部21によって取得される(S10)。合焦画像と非合焦画像との撮影方法については、上述したとおりである。   First, the focus lens imaging system 11 is controlled to capture a human face with the image sensor 10, whereby a focused image and a non-focused image are acquired by the image acquisition unit 21 (S10). The method of capturing the focused image and the non-focused image is as described above.

そして、画像取得部21によって取得された合焦画像と非合焦画像とは、表示制御部24に出力され、合焦画像と非合焦画像とが表示部30に表示される。次いで、表示部30に表示された合焦画像および非合焦画像上において、コントラスト情報を取得する評価対象範囲がユーザによって指定される。ユーザによって指定された評価対象範囲の情報は評価対象範囲取得部25によって取得され、コントラスト情報取得部22に出力される(S12)。   Then, the focused image and the unfocused image acquired by the image acquisition unit 21 are output to the display control unit 24, and the focused image and the unfocused image are displayed on the display unit 30. Next, on the focused image and the non-focused image displayed on the display unit 30, an evaluation target range for acquiring contrast information is designated by the user. Information on the evaluation target range designated by the user is acquired by the evaluation target range acquisition unit 25 and is output to the contrast information acquisition unit 22 (S12).

次に、合焦画像と非合焦画像と評価対象範囲の情報とがコントラスト情報取得部22によって取得され、コントラスト情報取得部22は、入力された評価対象範囲内の合焦画像と非合焦画像とに高速フーリエ変換処理を施して、それぞれの空間周波数スペクトルをコントラスト情報として取得する(S14)。   Next, the in-focus image, the out-of-focus image, and the information on the evaluation target range are acquired by the contrast information acquisition unit 22, and the contrast information acquisition unit 22 is in-focus with the input focused image in the evaluation target range. The image is subjected to fast Fourier transform processing, and each spatial frequency spectrum is acquired as contrast information (S14).

コントラスト情報取得部22によって取得された合焦画像と非合焦画像のコントラスト情報は、コントラスト情報比較部23に入力され、コントラスト情報比較部23は、入力された合焦画像のコントラスト情報と非合焦画像のコントラスト情報との比較を行う(S16)。具体的には、上述したように合焦画像の空間周波数スペクトルと非合焦画像の空間周波数スペクトルとの相関係数を算出し、その算出した相関係数を比較結果として表示制御部24に出力する。   The contrast information of the focused image and the non-focused image acquired by the contrast information acquisition unit 22 is input to the contrast information comparison unit 23. The contrast information comparison unit 23 does not match the contrast information of the input focused image. Comparison with the contrast information of the focus image is performed (S16). Specifically, as described above, the correlation coefficient between the spatial frequency spectrum of the focused image and the spatial frequency spectrum of the out-of-focus image is calculated, and the calculated correlation coefficient is output to the display control unit 24 as a comparison result. To do.

表示制御部24は、入力された相関係数を肌の評価情報として表示部30に表示させる(S18)。   The display control unit 24 causes the display unit 30 to display the input correlation coefficient as skin evaluation information (S18).

上記実施形態の画像撮像装置1によれば、人の顔に焦点を合わせて撮影された合焦画像と、上記焦点から焦点をずらして撮影された非合焦画像とを取得し、合焦画像のコントラスト情報と非合焦画像のコントラスト情報とを取得し、合焦画像のコントラスト情報と非合焦画像のコントラスト情報とを比較し、その比較結果に基づいて、顔の肌の評価情報を表示させるようにしたので、簡便に肌の透明感などの視覚効果の評価結果を確認することができる。   According to the image pickup apparatus 1 of the above-described embodiment, a focused image captured with a focus on a human face and a non-focused image captured with a focus shifted from the focus are acquired, and the focused image is acquired. The contrast information of the in-focus image and the contrast information of the out-of-focus image, compare the contrast information of the in-focus image and the contrast information of the non-focus image, and display the evaluation information of the facial skin based on the comparison result As a result, it is possible to easily check the evaluation results of visual effects such as skin transparency.

以下、合焦画像のコントラスト情報と非合焦画像のコントラスト情報との比較結果を肌の評価情報として用いることができる理由と、コントラスト情報の比較結果を用いた視覚効果評価の実施例について説明する。なお、ここでは人の顔の代用として、人の肌に近い表面を有する化粧評価用頭部マネキンの顔を用い、この化粧評価用頭部マネキンに対して斜め方向から白熱球で照明した状態で合焦画像と非合焦画像とを取得した。   The reason why the comparison result between the contrast information of the focused image and the contrast information of the non-focused image can be used as the skin evaluation information, and an example of the visual effect evaluation using the comparison result of the contrast information will be described below. . Here, as a substitute for a human face, a face of a head mannequin for makeup evaluation having a surface close to human skin is used, and the head mannequin for makeup evaluation is illuminated with an incandescent bulb from an oblique direction. A focused image and a non-focused image were acquired.

図3は、化粧評価用頭部マネキンを撮影して取得された合焦画像と非合焦画像の一例を示す図である。図3における頬部の範囲R1,R2を対象評価範囲として指定し、この頬部の範囲R1,R2内の合焦画像と非合焦画像との空間周波数スペクトルをコントラスト情報として取得した。   FIG. 3 is a diagram illustrating an example of a focused image and a non-focused image acquired by photographing a makeup evaluation head mannequin. The cheek range R1, R2 in FIG. 3 is designated as the target evaluation range, and the spatial frequency spectrum of the focused image and the non-focused image in the cheek range R1, R2 is acquired as contrast information.

図4の上段は、合焦画像の頬部の範囲R1の空間周波数スペクトルとその空間周波数スペクトルを極座標変換したグラフとの一例を示すものである。また、図4の下段は、非合焦画像の頬部の範囲R1の空間周波数スペクトルとその空間周波数スペクトルを極座標変換したグラフとの一例を示すものである。   The upper part of FIG. 4 shows an example of a spatial frequency spectrum in the cheek range R1 of the focused image and a graph obtained by polar-coordinateing the spatial frequency spectrum. Further, the lower part of FIG. 4 shows an example of the spatial frequency spectrum of the cheek range R1 of the out-of-focus image and a graph obtained by polar conversion of the spatial frequency spectrum.

次に、図4に示す空間周波数スペクトルと比較検討するため、図3に示すような目の範囲R3,R4を対象評価範囲として指定し、この目の範囲R3,R4内の合焦画像と非合焦画像との空間周波数スペクトルをコントラスト情報として取得した。   Next, for comparison with the spatial frequency spectrum shown in FIG. 4, eye ranges R3 and R4 as shown in FIG. 3 are designated as target evaluation ranges, and the focused images in the eye ranges R3 and R4 are not compared with the non-focused images. The spatial frequency spectrum with the focused image was acquired as contrast information.

図5の上段は、合焦画像の目の範囲R3の空間周波数スペクトルとその空間周波数スペクトルを極座標変換したグラフとの一例を示すものである。また、図5の下段は、非合焦画像の目の範囲R4の空間周波数スペクトルとその空間周波数スペクトルを極座標変換したグラフとの一例を示すものである。   The upper part of FIG. 5 shows an example of the spatial frequency spectrum of the eye range R3 of the focused image and a graph obtained by polar-transforming the spatial frequency spectrum. Further, the lower part of FIG. 5 shows an example of a spatial frequency spectrum of the eye range R4 of the out-of-focus image and a graph obtained by polar-transforming the spatial frequency spectrum.

図4に示す頬部の範囲R1,R2の2つの空間周波数スペクトルの差と、図5に示す目の範囲R3,R4の2つの空間周波数スペクトルの差を比べると、画像のコントラストがより大きい目の範囲の2つの空間周波数スペクトルの差の方が、頬部の範囲の2つの空間周波数スペクトルの差よりも大きいことが分かった。つまり、画像のコントラストがより大きい目の範囲の2つの空間周波数スペクトルの方が相関がないことがわかった。   When the difference between the two spatial frequency spectra in the cheek ranges R1 and R2 shown in FIG. 4 is compared with the difference between the two spatial frequency spectra in the eye ranges R3 and R4 shown in FIG. It was found that the difference between the two spatial frequency spectra in the range of 2 was larger than the difference between the two spatial frequency spectra in the cheek range. That is, it was found that the two spatial frequency spectra in the range of the eye where the contrast of the image is larger have no correlation.

このことから、画像のコントラストがより大きい、すなわち画像上において凹凸がより明確に現れている方が、2つの空間周波数スペクトルの差が大きくなることがわかる。つまり、凹凸の少ない透明感のある肌の画像である場合には、2つの空間周波数スペクトルの差は小さくなり、凹凸が目立つ肌の画像である場合には、2つの空間周波数スペクトルの差が大きくなることになり、2つの空間周波数スペクトルの差を肌の評価情報として用いることが可能であると分かった。   From this, it can be seen that the difference between the two spatial frequency spectra becomes larger when the contrast of the image is larger, that is, when the unevenness appears more clearly on the image. That is, the difference between the two spatial frequency spectra is small when the skin image is transparent with little unevenness, and the difference between the two spatial frequency spectra is large when the skin image is conspicuous. Thus, it was found that the difference between the two spatial frequency spectra can be used as skin evaluation information.

次に、同じ顔において、照明条件が異なる範囲であって見た目のコントラストが異なる2つの範囲を評価対象範囲として指定し、その2つの範囲のそれぞれについて、合焦画像と非合焦画像のコントラスト情報の比較結果を取得した。   Next, in the same face, two ranges having different illumination conditions and different visual contrasts are designated as evaluation target ranges, and the contrast information of the focused image and the non-focused image for each of the two ranges. The comparison result was obtained.

具体的には、図6に示すような明るい頬部の範囲Ra1,Ra2と、暗い頬部の範囲Rb1,Rb2とをそれぞれ評価対象範囲として指定した。明るい頬部の範囲Ra1,Ra2の方が、暗い頬部の範囲Rb1,Rb2よりも見た目のコントラストが小さく、すなわち凹凸が目立たない肌であるといえる。   Specifically, the bright cheek range Ra1 and Ra2 and the dark cheek range Rb1 and Rb2 as shown in FIG. It can be said that the bright cheek areas Ra1 and Ra2 have a smaller visual contrast than the dark cheek areas Rb1 and Rb2, that is, the skin where the unevenness is inconspicuous.

図7は、合焦画像における明るい頬部の範囲Ra1の空間周波数スペクトルと、非合焦画像における明るい頬部の範囲Ra2の空間周波数スペクトルとの一例を示すものである。このとき、2つの空間周波数スペクトルの相関係数は、0.981であった。   FIG. 7 shows an example of the spatial frequency spectrum of the bright cheek range Ra1 in the focused image and the spatial frequency spectrum of the bright cheek range Ra2 in the out-of-focus image. At this time, the correlation coefficient of the two spatial frequency spectra was 0.981.

一方、図8は、合焦画像における暗い頬部の範囲Rb1の空間周波数スペクトルと、非合焦画像における暗い頬部の範囲Rb2の空間周波数スペクトルとの一例を示すものである。このとき、2つの空間周波数スペクトルの相関係数は、0.899であった。   On the other hand, FIG. 8 shows an example of the spatial frequency spectrum of the dark cheek region Rb1 in the focused image and the spatial frequency spectrum of the dark cheek region Rb2 in the out-of-focus image. At this time, the correlation coefficient of the two spatial frequency spectra was 0.899.

図7と図8の結果から、凹凸が目立たない明るい頬部の範囲Ra1,Ra2の方が、凹凸が目立つ暗い頬部の範囲Rb1,Rb2よりも相関係数が大きくなっていることが分かる。これにより、合焦画像と非合焦画像の2つの空間周波数スペクトルの相関係数を取得することによって、肌の凹凸の状態、すなわち透明感などの視覚効果を評価することができることが分かる。   From the results of FIG. 7 and FIG. 8, it can be seen that the bright cheek area Ra1 and Ra2 where the unevenness is not conspicuous has a larger correlation coefficient than the dark cheek area Rb1 and Rb2 where the unevenness is conspicuous. Thus, it can be seen that by obtaining the correlation coefficient between the two spatial frequency spectra of the focused image and the non-focused image, it is possible to evaluate the state of skin irregularities, that is, visual effects such as transparency.

また、上記実施形態の画像撮像装置1においては、合焦画像のコントラスト情報と非合焦画像のコントラスト情報との比較結果を肌の評価情報として取得するようにしたが、さらに、肌の評価情報として、偏光画像や色画像などを取得し、これを表示部30に表示するようにしてもよい。   Further, in the image capturing apparatus 1 of the above-described embodiment, the comparison result between the contrast information of the focused image and the contrast information of the non-focused image is acquired as the skin evaluation information. As such, a polarization image, a color image, or the like may be acquired and displayed on the display unit 30.

具体的には、図9に示すように、画像撮像装置1に対して偏光フィルムや色フィルタなどのフィルタ12を設け、このフィルタ12を透過して撮像された偏光画像や色画像を画像取得部21によって取得し、表示制御部24が、これらの画像を表示部30に表示するようにしてもよい。色フィルタとしては、たとえば肌の凹凸が現れやすい緑フィルタを用いることができるが、これに限らず、その他の色のフィルタを用いるようにしてもよい。   Specifically, as shown in FIG. 9, a filter 12 such as a polarizing film or a color filter is provided for the image capturing apparatus 1, and a polarization image or a color image captured through the filter 12 is captured by an image acquisition unit. 21, and the display control unit 24 may display these images on the display unit 30. As the color filter, for example, a green filter in which unevenness of the skin is likely to appear can be used. However, the color filter is not limited thereto, and filters of other colors may be used.

このように偏光画像や色画像を表示させることによって、肌の評価精度を向上させることができる。   By displaying the polarization image and the color image in this way, the skin evaluation accuracy can be improved.

また、上記実施形態の画像撮像装置1は、いわゆるデジタルカメラやデジタルビデオカメラに適用することができるが、これに限らず、たとえばカメラ付きの携帯電話やタブレット端末のような携帯端末や、カメラ付きのコンピュータなどに適用することもできる。   In addition, the image pickup apparatus 1 of the above embodiment can be applied to a so-called digital camera or digital video camera, but is not limited to this, for example, a portable terminal such as a mobile phone with a camera or a tablet terminal, or a camera. It can also be applied to other computers.

また、上記実施形態における視覚効果評価装置20をカメラ機能をもたないコンピュータなどに設け、合焦画像と非合焦画像については、そのコンピュータ以外のデジタルカメラなどの画像撮像装置によって撮影して上記コンピュータなどに入力するようにしてもよい。   In addition, the visual effect evaluation device 20 in the above embodiment is provided in a computer or the like that does not have a camera function, and in-focus images and non-focus images are captured by an image imaging device such as a digital camera other than the computer, and the above-described embodiments. You may make it input into a computer etc.

また、上記実施形態の画像撮像装置1を用いて、たとえば異なる人の顔の肌をそれぞれ評価する場合には、それぞれの顔を撮影する際における照明条件を同じにすることが望ましい。このように照明条件を同じ条件として異なる人の画像をそれぞれ撮影できる装置としては、たとえばフェイシャルステージ(モリテックス社製)などがある。   In addition, for example, when the skins of different people's faces are evaluated using the image capturing apparatus 1 of the above-described embodiment, it is desirable that the illumination conditions for photographing each face are the same. As an apparatus that can take images of different persons under the same illumination conditions as described above, for example, there is a facial stage (manufactured by Moritex Corporation).

また、上記実施形態では、評価対象を人の顔としたが、顔に限らず手足などの肌を評価するようにしてもよい。また、肌に限らず、置物などを撮影し、合焦画像のコントラスト情報と非合焦画像のコントラスト情報との比較結果を置物の質感の評価情報として表示させるようにしてもよい。   Moreover, in the said embodiment, although the evaluation object was made into the human face, you may make it evaluate not only a face but skin, such as a limb. In addition to the skin, a figurine or the like may be photographed, and the comparison result between the contrast information of the focused image and the contrast information of the out-of-focus image may be displayed as the evaluation information of the texture of the figurine.

1 画像撮像装置
10 撮像素子
11 フォーカスレンズ結像系
11a,11b レンズ
12 フィルタ
20 視覚効果評価装置
21 画像取得部
22 コントラスト情報取得部
23 コントラスト情報比較部
24 表示制御部
25 評価対象範囲取得部
26 フォーカス制御部
30 表示部
40 制御部
DESCRIPTION OF SYMBOLS 1 Image pick-up device 10 Image pick-up element 11 Focus lens imaging system 11a, 11b Lens 12 Filter 20 Visual effect evaluation apparatus 21 Image acquisition part 22 Contrast information acquisition part 23 Contrast information comparison part 24 Display control part 25 Evaluation object range acquisition part 26 Focus Control unit 30 Display unit 40 Control unit

Claims (14)

被検体に焦点を合わせて撮影された合焦画像と、前記焦点から焦点をずらして撮影された非合焦画像とを取得する画像取得部と、
前記合焦画像のコントラスト情報と前記非合焦画像のコントラスト情報とを取得するコントラスト情報取得部と、
前記合焦画像のコントラスト情報と前記非合焦画像のコントラスト情報とを比較するコントラスト情報比較部と、
前記比較結果に基づいて、前記被検体の視覚的な評価情報を表示させる表示制御部とを備えたことを特徴とする視覚効果評価装置。
An image acquisition unit that acquires a focused image shot with a focus on the subject and a non-focused image shot with the focus shifted from the focus;
A contrast information acquisition unit that acquires contrast information of the focused image and contrast information of the non-focused image;
A contrast information comparison unit for comparing the contrast information of the focused image and the contrast information of the non-focused image;
A visual effect evaluation apparatus comprising: a display control unit configured to display visual evaluation information of the subject based on the comparison result.
前記コントラスト情報取得部が、前記合焦画像に対してフーリエ変換処理を施して前記
合焦画像の空間周波数スペクトルを前記合焦画像のコントラスト情報として取得し、かつ前記非画像画像に対してフーリエ変換処理を施して前記非合焦画像の空間周波数スペクトルを前記非合焦画像のコントラスト情報として取得するものであることを特徴とする請求項1記載の視覚効果評価装置。
The contrast information acquisition unit performs a Fourier transform process on the focused image to acquire a spatial frequency spectrum of the focused image as contrast information of the focused image, and performs a Fourier transform on the non-image image. 2. The visual effect evaluation apparatus according to claim 1, wherein processing is performed to acquire a spatial frequency spectrum of the unfocused image as contrast information of the unfocused image.
前記コントラスト情報比較部が、前記合焦画像の空間周波数スペクトルと前記非合焦画像の空間周波数スペクトルとの相関係数を前記比較結果として取得するものであることを特徴とする請求項2記載の視覚効果評価装置。   The contrast information comparison unit is configured to acquire a correlation coefficient between a spatial frequency spectrum of the focused image and a spatial frequency spectrum of the non-focused image as the comparison result. Visual effect evaluation device. 前記表示制御部が、前記相関係数を前記視覚的な評価情報として表示させるものであることを特徴とする請求項3記載の視覚効果評価装置。   The visual effect evaluation apparatus according to claim 3, wherein the display control unit displays the correlation coefficient as the visual evaluation information. 前記表示制御部が、前記合焦画像および前記非画像画像の前記空間周波数スペクトルを前記視覚的な評価情報として表示させるものであることを特徴とする請求項3または4記載の視覚効果評価装置。   The visual effect evaluation apparatus according to claim 3, wherein the display control unit displays the spatial frequency spectrum of the focused image and the non-image image as the visual evaluation information. 前記コントラスト情報を取得する前記被検体における評価対象範囲の情報を取得する評価対象範囲取得部を備えたことを特徴とする請求項1から5いずれか1項記載の視覚効果評価装置。   The visual effect evaluation apparatus according to claim 1, further comprising an evaluation target range acquisition unit that acquires information of an evaluation target range in the subject that acquires the contrast information. 前記画像取得部が、前記被検体の所望の色画像または偏光画像を取得するものであり、
前記表示制御部が、前記色画像または前記偏光画像を表示させるものであることを特徴とする請求項1から6いずれか1項記載の視覚効果評価装置。
The image acquisition unit acquires a desired color image or polarization image of the subject;
The visual effect evaluation apparatus according to claim 1, wherein the display control unit displays the color image or the polarization image.
前記被検体の視覚的な評価情報が、肌の視覚的な評価情報であることを特徴とする請求項1から7いずれか1項記載の視覚効果評価装置   The visual effect evaluation apparatus according to claim 1, wherein the visual evaluation information of the subject is visual evaluation information of skin. 請求項1から8いずれか1項記載の視覚効果評価装置と、
前記被検体の前記合焦画像および前記非合焦画像を撮像する撮像素子とを備えたことを特徴とする画像撮像装置。
The visual effect evaluation apparatus according to any one of claims 1 to 8,
An image pickup apparatus comprising: an image pickup device that picks up the focused image and the non-focused image of the subject.
前記被検体の像を前記撮像素子に結像するフォーカスレンズ結像系と、
該フォーカスレンズ結像系を制御することによって、前記合焦画像を取得する際のフォーカス処理と前記非合焦画像を取得する際のデフォーカス処理とを自動的に行うフォーカス制御部とを備えたことを特徴とする請求項9記載の画像撮像装置。
A focus lens imaging system that forms an image of the subject on the imaging device;
A focus control unit that automatically performs a focus process when acquiring the focused image and a defocus process when acquiring the non-focused image by controlling the focus lens imaging system; The image capturing apparatus according to claim 9.
前記フォーカス制御部が、前記合焦画像と前記非合焦画像の撮影の前に予め設定された前記被検体における焦点位置に対して、前記フォーカス処理と前記デフォーカス処理とを自動的に行うものであることを特徴とする請求項10記載の画像撮像装置。   The focus control unit automatically performs the focus process and the defocus process on a focus position in the subject set in advance before capturing the focused image and the unfocused image. The image capturing apparatus according to claim 10, wherein 前記フォーカス制御部が、前記被検体における焦点位置の指定を受け付けるものであることを特徴とする請求項11記載の画像撮像装置。   The image capturing apparatus according to claim 11, wherein the focus control unit accepts designation of a focal position in the subject. 被検体に焦点を合わせて撮影された合焦画像と、前記焦点から焦点をずらして撮影された非合焦画像とを取得し、
前記合焦画像のコントラスト情報と前記非合焦画像のコントラスト情報とを取得し、
前記合焦画像のコントラスト情報と前記非合焦画像のコントラスト情報とを比較し、
該比較結果の情報に基づいて、前記被検体の視覚的な評価情報を表示させることを特徴とする視覚効果評価方法。
Obtaining a focused image taken with the subject focused and a non-focused image taken with the focus shifted from the focus;
Obtaining contrast information of the focused image and contrast information of the non-focused image;
Comparing the contrast information of the focused image and the contrast information of the non-focused image;
A visual effect evaluation method characterized by displaying visual evaluation information of the subject based on information of the comparison result.
コンピュータを、被検体に焦点を合わせて撮影された合焦画像と、前記焦点から焦点をずらして撮影された非合焦画像とを取得する画像取得部と、
前記合焦画像のコントラスト情報と前記非合焦画像のコントラスト情報とを取得するコントラスト情報取得部と、
前記合焦画像のコントラスト情報と前記非合焦画像のコントラスト情報とを比較するコントラスト情報比較部と、
前記比較結果の情報に基づいて、前記被検体の視覚的な評価情報を表示させる表示制御部として機能させることを特徴とする視覚効果評価プログラム。
An image acquisition unit that acquires a focused image captured with a computer focused on a subject and a non-focused image captured with a focus shifted from the focus;
A contrast information acquisition unit that acquires contrast information of the focused image and contrast information of the non-focused image;
A contrast information comparison unit for comparing the contrast information of the focused image and the contrast information of the non-focused image;
A visual effect evaluation program that functions as a display control unit that displays visual evaluation information of the subject based on information of the comparison result.
JP2013049991A 2013-03-13 2013-03-13 Visual effect evaluation device, method and program, and image pickup device Active JP5946785B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013049991A JP5946785B2 (en) 2013-03-13 2013-03-13 Visual effect evaluation device, method and program, and image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013049991A JP5946785B2 (en) 2013-03-13 2013-03-13 Visual effect evaluation device, method and program, and image pickup device

Publications (2)

Publication Number Publication Date
JP2014176047A true JP2014176047A (en) 2014-09-22
JP5946785B2 JP5946785B2 (en) 2016-07-06

Family

ID=51696849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013049991A Active JP5946785B2 (en) 2013-03-13 2013-03-13 Visual effect evaluation device, method and program, and image pickup device

Country Status (1)

Country Link
JP (1) JP5946785B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018512210A (en) * 2015-03-20 2018-05-17 エルジー エレクトロニクス インコーポレイティド Skin measuring instrument and control method thereof

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005159561A (en) * 2003-11-21 2005-06-16 Sharp Corp Beautiful face camera
JP2007307084A (en) * 2006-05-17 2007-11-29 Shiseido Co Ltd Method for estimating whitening effect by measuring blood circulation
JP2010148713A (en) * 2008-12-25 2010-07-08 Kao Corp Image processor, image processing method, and program
JP2011212308A (en) * 2010-03-31 2011-10-27 Shiseido Co Ltd Skin evaluation device, skin evaluation method, and skin evaluation program
JP2011240086A (en) * 2010-05-21 2011-12-01 Shiseido Co Ltd Analyzer for irregular color of skin, analysis method for irregular color of skin, and analysis program for irregular color of skin
JP2013078520A (en) * 2011-10-05 2013-05-02 Kao Corp Skin image analysis apparatus and skin image analysis method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005159561A (en) * 2003-11-21 2005-06-16 Sharp Corp Beautiful face camera
JP2007307084A (en) * 2006-05-17 2007-11-29 Shiseido Co Ltd Method for estimating whitening effect by measuring blood circulation
JP2010148713A (en) * 2008-12-25 2010-07-08 Kao Corp Image processor, image processing method, and program
JP2011212308A (en) * 2010-03-31 2011-10-27 Shiseido Co Ltd Skin evaluation device, skin evaluation method, and skin evaluation program
JP2011240086A (en) * 2010-05-21 2011-12-01 Shiseido Co Ltd Analyzer for irregular color of skin, analysis method for irregular color of skin, and analysis program for irregular color of skin
JP2013078520A (en) * 2011-10-05 2013-05-02 Kao Corp Skin image analysis apparatus and skin image analysis method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018512210A (en) * 2015-03-20 2018-05-17 エルジー エレクトロニクス インコーポレイティド Skin measuring instrument and control method thereof
US10925534B2 (en) 2015-03-20 2021-02-23 Lg Electronics Inc. Skin measurement device and control method therefor

Also Published As

Publication number Publication date
JP5946785B2 (en) 2016-07-06

Similar Documents

Publication Publication Date Title
US10311298B2 (en) Biometric camera
CN109716268B (en) Eye and head tracking
KR101679290B1 (en) Image processing method and apparatus
JP4290100B2 (en) Imaging apparatus and control method thereof
US20140037135A1 (en) Context-driven adjustment of camera parameters
JP6564271B2 (en) Imaging apparatus, image processing method, program, and storage medium
JP2017517794A (en) Image processing method and image processing apparatus
JP2005318554A (en) Imaging device, control method thereof, program, and storage medium
JP6443842B2 (en) Face detection device, face detection system, and face detection method
JP2012118817A (en) Image processing device and image processing method, program, and storage medium
KR20110094037A (en) Video infrared retinal image scanner
CN109242794B (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
JP2014138290A (en) Imaging device and imaging method
TWI394085B (en) Method of identifying the dimension of a shot subject
KR20160079106A (en) Imaging device and method for automatic focus in an imaging device as well as a corresponding computer program
JP2007052609A (en) Hand area detection device, hand area detection method and program
WO2019104670A1 (en) Method and apparatus for determining depth value
TWI519840B (en) Method for automatically focusing on specific movable object, photographic apparatus including automatic focus function, and computer readable storage media for storing automatic focus function program
CN106934349A (en) Dual camera is imaged and iris capturing identification integration apparatus
JP5946785B2 (en) Visual effect evaluation device, method and program, and image pickup device
JP2008089811A (en) Imaging apparatus and control method therefor
US11341224B2 (en) Handheld multi-sensor biometric imaging device and processing pipeline
KR101635602B1 (en) Method and apparatus for iris scanning
KR20090090851A (en) Image capturing apparatus enabling non-contact shutter-operation and image capturing method
JP2009267733A (en) Imaging apparatus and imaging control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160601

R150 Certificate of patent or registration of utility model

Ref document number: 5946785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250